DE10152883A1 - Nachführvorrichtung - Google Patents

Nachführvorrichtung

Info

Publication number
DE10152883A1
DE10152883A1 DE10152883A DE10152883A DE10152883A1 DE 10152883 A1 DE10152883 A1 DE 10152883A1 DE 10152883 A DE10152883 A DE 10152883A DE 10152883 A DE10152883 A DE 10152883A DE 10152883 A1 DE10152883 A1 DE 10152883A1
Authority
DE
Germany
Prior art keywords
image
moving object
speed
area
camera
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
DE10152883A
Other languages
English (en)
Other versions
DE10152883B4 (de
Inventor
Kunio Yata
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujinon Corp
Original Assignee
Fuji Photo Optical Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from JP2000327617A external-priority patent/JP4725693B2/ja
Priority claimed from JP2000363392A external-priority patent/JP2002171438A/ja
Priority claimed from JP2000363393A external-priority patent/JP2002171439A/ja
Application filed by Fuji Photo Optical Co Ltd filed Critical Fuji Photo Optical Co Ltd
Publication of DE10152883A1 publication Critical patent/DE10152883A1/de
Application granted granted Critical
Publication of DE10152883B4 publication Critical patent/DE10152883B4/de
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S3/00Direction-finders for determining the direction from which infrasonic, sonic, ultrasonic, or electromagnetic waves, or particle emission, not having a directional significance, are being received
    • G01S3/78Direction-finders for determining the direction from which infrasonic, sonic, ultrasonic, or electromagnetic waves, or particle emission, not having a directional significance, are being received using electromagnetic waves other than radio waves
    • G01S3/782Systems for determining direction or deviation from predetermined direction
    • G01S3/785Systems for determining direction or deviation from predetermined direction using adjustment of orientation of directivity characteristics of a detector or detector system to give a desired condition of signal derived from that detector or detector system
    • G01S3/786Systems for determining direction or deviation from predetermined direction using adjustment of orientation of directivity characteristics of a detector or detector system to give a desired condition of signal derived from that detector or detector system the desired condition being maintained automatically
    • G01S3/7864T.V. type tracking systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Electromagnetism (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Theoretical Computer Science (AREA)
  • Studio Devices (AREA)
  • Closed-Circuit Television Systems (AREA)

Abstract

In einer Nachführvorrichtung werden bei einer Schwenk/Neigungsbewegung eines Schwenkkopfes Bilder #1 bis #3 für drei Bildbereiche, die von einer Kamera aufgenommen werden, sequentiell in einen Bildspeicher einer Bildverarbeitungseinrichtung eingelesen. Durch eine Bearbeitungssequenz eines Bildverarbeitungsprozessors sowie einer CPU werden das Bild #1 mit dem Bild #2 und das Bild #1 mit dem Bild #3 jeweils verglichen, um ein Bild eines bewegten Objekts herauszulösen, um die Bewegungsgeschwindigkeit des bewegten Objekts auf der Grundlage des herausgelösten Bildes des bewegten Objekts zu erfassen. Wenn die Bewegungsgeschwindigkeit des bewegten Objekts erfasst ist, wird ein Befehlssignal von der CPU an einen Schwenkkopfkontroller übermittelt, um zu bewirken, dass der Schwenkkopf entsprechend der Bewegung dieses bewegten Objekts geschwenkt/geneigt wird. Dadurch bewegt sich der Schwenkkopf in der Schwenk/Neigungsrichtung mit der Bewegungsgeschwindigkeit des bewegten Objekts. Somit ermöglicht das Erfassen der Bewegungsgeschwindigkeit des bewegten Objekts aus dem aufgenommenen Bild der Kamera und die Steuerung der Bewegungsgeschwindigkeit des Schwenkkopfes auf der Grundlage der detektierten Bewegungsgeschwindigkeit des bewegten Objekts ein Verfolgen des bewegten Objekts ohne Fehlfunktion.

Description

HINTERGRUND DER ERFINDUNG Gebiet der Erfindung
Die vorliegende Erfindung betrifft eine Nachführvorrichtung und betrifft insbesondere eine Nachführvorrichtung, die automatisch einem bewegten Objekt folgt, wobei die Auf­ nahmerichtung einer Kamera automatisch verändert wird.
Beschreibung des Stands der Technik
Eine Nachführvorrichtung ist eine Vorrichtung, die einen Schwenkkopf, auf dem eine Fernsehkamera zum Schwenken/Neigen mittels Motorantrieb montiert ist, dazu veran­ lasst, die Aufnahmerichtung einer Kamera automatisch zu bewegen bzw. zu verändern und automatisch bewegten Objekten zu folgen. Die Lehre in der japanischen Patentan­ meldungsoffenlegungsschrift 59-208983 ist weithin als ein Verfahren zum Nachführen bekannt. Entsprechend diesem Verfahren wird ein Bild, das zwei Bildrahmen ausfüllt (zwei Bildschirme bedeckt) in einer vorbestimmten Zeitspanne aus Bildsignalen erzeugt, die von einer Kamera ausgegeben werden, und ein Bild eines bewegenden Objekts wird durch Vergleich dieser Bilder extrahiert. Ferner wird aus der Lage des Schwerpunkts des extrahierten bewegten Objekts der Betrag der Bewegung sowie die Bewegungsrich­ tung des bewegten Objekts erfasst und die Aufnahmerichtung der Kamera wird automa­ tisch durch Schwenken/Neigen des Schwenkkopfes gesteuert, so dass der Schwerpunkt des bewegten Objekts, basierend darauf, ständig im Bildschirmmittelpunkt bleibt.
In der vorliegenden Beschreibung werden Betriebsarten des Schwenkkopfes, die eine Bewegung der Aufnahmerichtung der Kamera in der Schwenkrichtung oder der Nei­ gungsrichtung verursachen, als die Schwenkrichtung oder die Neigungsrichtung des Schwenkkopfes oder einfach als die Bewegung des Schwenkkopfes bezeichnet.
In dem Verfahren zur Nachführung, das in der oben beschriebenen japanischen Patent­ anmeldungsoffenlegungsschrift 59-208983 dargelegt ist, muss der Schwenkkopf, um Bilder eines bewegten Objekts durch Vergleichen von Bildern, die zwei Bildschirme aus­ füllen und von einer Kamera aufgenommen sind, zu extrahieren, anhalten, während die­ se Bilder für den Vergleich eingelesen werden. Das heißt, ein Unterschied in den Auf­ nahmebereichen von Bildern für den Vergleich aufgrund der Bewegung des Schwenk­ kopfes führt zu einer Bewegung des Bildes der statischen Objekte auf dem Bildschirm, wodurch es unmöglich ist, das Bild des bewegten Objekts zu unterscheiden und daher kann der Schwenkkopf nicht bewegt werden, während die Bilder für den Vergleich aufge­ nommen werden. Somit kann in dem oben beschriebenen Nachführverfahren bewegten Objekten nicht gefolgt werden, die sich schnell bewegen, und der Schwenkkopf führt wiederholt eine Bewegung und ein Anhalten aus, wodurch nachteiligerweise der Bild­ schirm weniger darstellungsgeeignet wird.
Um unter diesen Umständen einen derartigen Mangel zu überwinden, hat der Anmelder der vorliegenden Anmeldung in der japanischen Patentoffenlegungsschrift 2000-175101 ein Verfahren zum Nachführen vorgeschlagen, das es ermöglicht, das Bild des beweg­ ten Objekts auch von Bildern aus unterschiedlichen Aufnahmebereichen zu extrahieren und die Bilder der bewegten Objekte zu erkennen, obwohl der Schwenkkopf bewegt wird. Obwohl der Schwenkkopf angehalten oder bewegt wird, werden hierzu die Bilder von der Kamera eingefangen und es wird die Schwenk/Neigungsposition des Schwenk­ kopfes zu diesem Zeitpunkt eingelesen. Wenn die Bilder, die zwei Bildbereiche ausfül­ len, in einer vorbestimmten Zeit aufgenommen werden, ist basierend auf der Schwenk/Neigungsposition, bei der jedes Bild aufgenommen wird, der Aufnahmebereich der Kamera zu der Zeit, an der jedes Bild aufgenommen wurde, vorgegeben und der überlappende Bereich im Aufnahmebereich jedes Bildes wird als der Vergleichsbereich bestimmt. Da das Bild eines statischen Objekts nicht bewegt ist, erlaubt ein Vergleich der Bilder in diesem Vergleichsbereich eine Extraktion von Bildern lediglich des beweg­ ten Objekts. Das Nachführverfahren in der japanischen Patentoffenlegungsschrift 2000-175101 erfasst die Position des bewegten Objekts auf dem Bildschirm, um das Schwen­ ken/Neigen des Schwenkkopfes zu steuern, so dass seine Position näherungsweise im Bildschirmmittelpunkt liegt, und somit bewegt sich der Schwenkkopf so, um der Bewe­ gung des bewegten Objekts zu folgen. Wenn folglich die Bewegungsgeschwindigkeit des bewegten Objekts größer wird, würde bei einer derartigen Steuerung des Schwenk­ kopfes das bewegte Objekt aus dem Aufnahmebereich der Kamera bewegen und es könnte ein Fehler beim Nachführen auftreten. Da ferner die Bewegungsgeschwindigkeit des bewegten Objekts nicht bestimmt werden kann, ist ein glattes bzw. kontinuierliches Nachführen nicht erreichbar.
Ferner führt in dem Verfahren zum Nachführen, das in der oben erläuterten japanischen Patentanmeldungsoffenlegungsschrift 59-208983 dargestellt ist, eine leichte Bewegung des bewegten Objekts innerhalb des Aufnahmebereichs der Kamera zu der Bewegung des Schwenkkopfes und einer Bewegung bzw. Änderung der Aufnahmerichtung der Kamera. Aufgrund der Mängel, etwa Schwankungen des Bildschirms und schlechter Bilddarstellung einer Kamera, hat der Anmelder der vorliegenden Erfindung einen Be­ reich einer Totzone im zentralen Teil des Bildschirms entsprechend der US- Patentanmeldung Nr. 09/726,496 vorgesehen und hat ein derartiges Nachführverfahren vorgeschlagen, wobei der Schwenkkopf nicht bewegt wird, wenn ein bewegtes Objekt sich im Bereich dieser Totzone bewegt.
Das Nachführverfahren entsprechend der US-Patentanmeldung 09/726,496 weist noch Probleme auf, die verbesserungsfähig sind. Beispielsweise kann die Bewegungsge­ schwindigkeit eines bewegten Objekts selbstverständlich schnell oder langsam sein, und wenn die Bewegungsgeschwindigkeit langsam ist, treten keine Ereignisse auf, wobei der Schwenkkopf aus dem Schirm läuft, wenn sich das bewegte Objekt aus dem Bereich der Totzone herausbewegt; aber wenn die Bewegungsgeschwindigkeit groß ist, bewegt sich das bewegte Objekt aus dem Bildschirm heraus und ein Nachführen ist nicht mehr ausführbar.
Wenn beispielsweise das bewegte Objekt sich von außerhalb des Aufnahmebereichs (Bildschirm) der Kamera in den Bildschirm hineinbewegt, bewegt sich das bewegte Ob­ jekt in die Richtung der Bildschirmmitte (die Mitte der horizontalen Richtung oder die senkrechte Richtung des Bildschirms) und wenn ein statisches Objekt innerhalb des Bildschirms anfängt, sich zu bewegen, könnte sich dieses bewegende Objekt in Rich­ tung auf die Bildschirmmitte bewegen. Trotzdem eine Bewegung des Schwenkkopfes in diesem Falle nicht notwendig ist, wird im konventionellen Verfahren zum Nachführen im Wesentlichen das Nachführen ohne Unterscheidung der Umstände für die Bewegung eines bewegten Objekts hinsichtlich anderer Umstände der Bewegung gesteuert, und daher beginnt der Schwenkkopf sich zu bewegen, unmittelbar nachdem die Bewegung des bewegten Objekts erfasst worden ist und es wird eine nutzlose Nachführung ausge­ führt, wodurch nachteiligerweise die Bilder der Kamera weniger gut sichtbar sind.
ÜBERBLICK ÜBER DIE ERFINDUNG
Die vorliegende Erfindung wurde angesichts der oben beschriebenen Sachlage erdacht und sieht es als ihre Aufgabe an, eine verbesserte Nachführvorrichtung bereitzustellen, die einem bewegten Objekt ohne Fehler und in glatter bzw. kontinuierlicher Weise folgen kann.
Als weitere Aufgabe sieht es die vorliegende Erfindung an, eine verbesserte Nachführ­ vorrichtung bereitzustellen, die den Vorgang des Nachführens in geeigneter Weise ent­ sprechend der Bewegungsgeschwindigkeit des bewegten Objekts ausführt und das dem bewegten Objekt mit weiteren darstellungsgerechten Bildern folgen kann.
Ferner liegt eine weitere Aufgabe der vorliegenden Erfindung darin, eine verbesserte Nachführvorrichtung bereitzustellen, die keine Nachführung entsprechend gleichblei­ bender Steuerregeln ausführt, unabhängig von den Gegebenheiten der Bewegung des bewegten Objekts, die aber eine geeignete Steuerung des Nachführens entsprechend den Gegebenheiten der Bewegung des bewegten Objekts ausführt, insbesondere für die Gegebenheit, dass das bewegte Objekt sich in die Richtung der Bildschirmmitte be­ wegt, und für andere weniger häufig auftretende Gegebenheiten, so dass die Bilder der Kamera darstellungsfreundlicher sind.
Um die oben beschriebene Aufgabe zu lösen, richtet sich die vorliegende Erfindung an eine Nachführvorrichtung mit einem Schwenkkopf, an dem eine Kamera montiert ist und der bewegbar ist, um Aufnahmerichtungen der oben beschriebenen Kamera zu ändern, während Bilder, die von der oben beschriebenen Kamera aufgenommen worden sind, eines nach dem anderen eingelesen werden, um Bilder eines bewegten Objekts zu ext­ rahieren, indem die eingelesenen Bilder verglichen werden, wobei die Bewegungsge­ schwindigkeit des oben beschriebenen Schwenkkopfes auf der Grundlage von Positio­ nen auf den Bildschirmbildern des oben beschriebenen bewegten Objekts gesteuert wird, derart, dass das zuvor beschriebene bewegte Objekt außerhalb des Aufnahmebe­ reichs der zuvor genannten Kamera befindet, mit: einer Bewegtobjekt- Bildextraktionseinrichtung zum Herauslösen eines Bildes des zuvor beschriebenen be­ wegten Objekts auf der Grundlage von Bildern, die von der zuvor genannten Kamera aufgenommen sind; einer Bewegungsgeschwindigkeits-Detektionseinrichtung zur Erfas­ sung der Bewegungsgeschwindigkeit des zuvor genannten bewegten Objekts aus Posi­ tionsänderungen in Bildschirmbildern des zuvor genannten bewegten Objekts, die durch die zuvor genannte Bewegtobjekt-Bildextraktionseinrichtung herausgelöst sind; und ei­ ner Kontrolleinrichtung zur Steuerung der Bewegungsgeschwindigkeit des zuvor ge­ nannten Schwenkkopfes auf der Grundlage der Bewegungsgeschwindigkeit des zuvor genannten bewegten Objekts, die von der besagten Bewegungsgeschwindigkeits- Detektionseinrichtung erhalten wird, so dass das besagte bewegte Objekt nicht aus dem Aufnahmebereich herausläuft.
Ferner umfasst vorzugsweise die besagte Bewegtobjekt-Bildextraktionseinrichtung: eine Vergleichsbereichs-Bestimmungseinrichtung zum Einlesen von Bildern für zwei Bild­ schirme von der besagten Kamera und auf der Grundlage der Bewegungsgeschwindig­ keit des besagten Schwenkkopfes zur Bestimmung eines Bereichs als den Vergleichs­ bereich, in dem die Aufnahmebereiche der besagten Kamera überlappen, wenn die be­ sagten entsprechenden Bilder für die beiden Bildschirme aufgenommen werden; und eine Bildverarbeitungseinrichtung zur Extrahierung von Bildern innerhalb des Ver­ gleichsbereichs, der aus den entsprechenden Bildern für die besagten beiden Bildschir­ me durch die besagte Vergleichsbereichs-Bestimmungseinrichtung bestimmt ist, und zur Extrahierung bzw. Herauslösung von Bildern des besagten bewegten Objekts durch Vergleichen der zuvor genannten extrahierten entsprechenden Bildern.
Des Weiteren vergrößert vorzugsweise die besagte Kontrolleinrichtung den Aufnahme­ bereich der zuvor genannten Kamera dann, wenn das besagte bewegte Objekt davor ist, aus dem Aufnahmebereich der genannten Kamera herauszulaufen, auf der Grund­ lage von Bildern des zuvor genannten bewegten Objekts, die durch die zuvor genannte Bewegtobjekt-Bildextraktionseinrichtung extrahiert sind.
Erfindungsgemäß wird die Bewegungsgeschwindigkeit des bewegten Objekts erfasst, und die Bewegungsgeschwindigkeit des Schwenkkopfes wird auf der Grundlage dieser Bewegungsgeschwindigkeit gesteuert, und daher ist das Nachführverhalten des Schwenkkopfes im Hinblick auf die Bewegung des bewegten Objekts verbessert, so dass es möglich ist, dem bewegten Objekt in definierter Weise zu folgen. Ferner wird der Vergleichsbereich zum Herauslösen des Bildes des bewegten Objekts aus dem von der Kamera aufgenommenen Bild auf der Grundlage der Bewegungsgeschwindigkeit des Schwenkkopfes bestimmt, und daher ist es möglich kostengünstige Teile für die Bestimmung zu verwenden verglichen mit dem Fall, in dem der Vergleichsbereich auf der Grundlage der Position des Schwenkkopfes bestimmt ist, wie dies in der japani­ schen Patentoffenlegungsschrift 2000-175101 beschrieben ist. Das heißt, das Zeitinter­ vall zum Einlesen entsprechender Bilder, die zwei Bildschirme füllen, kann in genauer Weise bestimmt werden und dieses Zeitintervall ist kurz, und daher kann beispielsweise das Auflösungsvermögen sowie die Genauigkeit der Geschwindigkeitserfassung zum Detektieren, dass der Aufnahmebereich sich lediglich um 1 Pixel verschoben hat, gering sein im Vergleich zum Falle der Positionserfassung, und die Verwendung preisgünstiger Sensoren sowie A/D-Wandler und dergleichen wird ermöglicht. Ferner ist es möglich, dass Bilder für zwei Bildschirmabbildungen eingelesen werden, während die Bewe­ gungsgeschwindigkeit des Schwenkkopfes konstant ist, so das es nicht erforderlich ist, dass der Zeitpunkt, an dem das Bild eingelesen wird, in genauer Weise mit dem Zeit­ punkt übereinstimmt, wenn die Bewegungsgeschwindigkeit erfasst wird, und eine hohe zeitliche Genauigkeit ist ebenso wenig erforderlich. Ohne das Vorsehen eines Positions- Detektionssensors, wenn dafür ein Schrittmotor für den Schwenk/Neigungsvorgang verwendet wird, ist es ferner möglich, den Vergleichsbereich aus der Bewegungsge­ schwindigkeit zu ermitteln.
Wenn ferner die Bewegungsgeschwindigkeit des bewegten Objekts äußerst schnell ist und bestimmt wird, dass dieses aus dem Aufnahmebereich der Kamera läuft, wird der Aufnahmebereich der Kamera vergrößert, d. h. das Zoom-Objekt wird auf die Weitbe­ reichsseite bewegt, so dass das bewegte Objekt mit der äußerst hohen Bewegungsge­ schwindigkeit ohne Fehler verfolgt werden kann.
Um die zuvor beschriebene Aufgabe zu lösen, richtet sich die vorliegende Erfindung an eine Nachführvorrichtung, die die Aufnahmerichtung einer Kamera ändert bzw. bewegt, um einem bewegten Objekt zu folgen, mit: einer Bewegtobjekt-Bildextraktionseinrichtung zur Herauslösung von Bildern eines bewegten Objekts aus Bildern, die von einer Kame­ ra aufgenommen werden; einer Geschwindigkeits-Bestimmungseinrichtung zur Beurtei­ lung, ob die Bewegungsgeschwindigkeit eines bewegten Objekts geringer oder höher ist als die zuvor genannte Geschwindigkeit, auf der Grundlage von Bildern des bewegten Objekts, die von der zuvor genannten Bewegtobjekt-Bildextraktionseinrichtung extrahiert sind; eine Bereichs-Bestimmungseinrichtung zur Beurteilung, ob Bilder des zuvor ge­ nannten bewegten Objekts innerhalb des Bereichs einer vorbestimmten Totzone liegen oder nicht, die auf einem Aufnahmebildschirm der zuvor genannten Kamera festgelegt ist, in dem Falle, dass die Bewegungsgeschwindigkeit des zuvor genannten bewegten Objekts durch die zuvor beschriebene Geschwindigkeits-Bestimmungseinrichtung als über der zuvor genannten geringen Geschwindigkeit liegend bestimmt wird; und einer Aufnahmerichtungs-Steuerungseinrichtung, um Aufnahmerichtungen der zuvor genann­ ten Kamera zu ändern, so dass bewirkt wird, dass sich das zuvor genannte bewegte Objekt nicht aus dem Aufnahmebereich der zuvor genannten Kamera herausbewegt, auf der Grundlage von Bildern des bewegten Objekts, die von der zuvor genannten Be­ wegtobjekt-Bildextraktionseinrichtung extrahiert sind, wenn die Bewegungsgeschwindig­ keit des zuvor genannten bewegten Objekts durch die zuvor genannte Geschwindig­ keits-Bestimmungseinrichtung als über der zuvor genannten höheren Geschwindigkeit liegend bestimmt wird, oder wenn das oben beschriebene bewegte Objekte durch die zuvor genannte Bereichs-Bestimmungseinrichtung als außerhalb des Bereichs der zuvor genannten Totzone liegend bestimmt wird, und zum Anhalten von Bewegungen in der Aufnahmerichtung der zuvor genannten Kamera, wenn die Bewegungsgeschwindigkeit des zuvor genannten bewegten Objekts durch die zuvor genannte Geschwindigkeits- Bestimmungseinrichtung als über der zuvor genannten geringen Geschwindigkeit lie­ gend bestimmt wird und das Bild des zuvor genannten bewegten Objekts als innerhalb des Bereichs der zuvor genannten Totzone von der besagten Bereichs- Bestimmungseinrichtung liegend bestimmt wird.
Erfindungsgemäß wird lediglich in dem Falle, in dem die Bewegungsgeschwindigkeit des bewegten Objekts gering ist, die Aufnahmerichtung der Kamera mit Berücksichti­ gung der Totzone, die auf dem Aufnahmebildschirm festgelegt ist, gesteuert, und daher kann, wenn die Bewegungsgeschwindigkeit des bewegten Objekts hoch ist, eine Unan­ nehmlichkeit aufgrund der Steuerung der Aufnahmerichtung der Kamera mit Berücksich­ tigung der Totzone verhindert werden, und das bewegte Objekt kann in geeigneter Wei­ se mit darstellungsfreundlichen Bildern verfolgt werden.
Um die obige Aufgabe zu lösen, richtet sich die vorliegende Erfindung an eine Nach­ führvorrichtung, die Aufnahmerichtungen einer Kamera bewegt bzw. ändert, um einem bewegten Objekt zu folgen, wobei die Aufnahmerichtungen der zuvor genannten Kame­ ra nicht bewegt bzw. geändert werden, wenn das bewegte Objekt sich in Richtung des Bildschirmmittelpunkts auf dem Aufnahmeschirm der zuvor genannten Kamera bewegt, und wobei die Aufnahmerichtungen der zuvor genannten Kamera geändert werden, so dass das oben beschriebene bewegte Objekt sich nicht aus dem Aufnahmebildschirm herausbewegt, wenn das bewegte Objekt sich vom Schirmmittelpunkt zum Rand des Schirms bewegt.
Erfindungsgemäß wird, wenn das bewegte Objekt sich in Richtung der Bildschirmmitte bewegt, die Aufnahmerichtung der Kamera unbewegt gehalten, und daher folgt, wenn beispielsweise das bewegte Objekte von außerhalb des Aufnahmebereichs der Kamera in den Aufnahmebereich läuft, die Aufnahmerichtung der Kamera dem bewegten Objekt und bewegt sich, nachdem das bewegte Objekt über den Bildschirmmittelpunkt hinaus­ läuft, und somit wird ohne das Entstehen von Unannehmlichkeiten dahingehend, dass die Aufnahmerichtung der Kamera sich in nutzloser Weise ändert, das Bild der Kamera darstellungsfreundlich.
Entsprechend der vorliegenden Erfindung arbeitet die Nachführvorrichtung äußerst wir­ kungsvoll.
KURZE BESCHREIBUNG DER ZEICHNUNGEN
Die Natur der vorliegenden Erfindung sowie weitere Aufgaben und Vorteile werden im Folgenden mit Bezug zu den begleitenden Zeichnungen erläutert, wobei durchgehend in den Figuren gleiche Bezugszeichen gleiche oder ähnliche Teile bezeichnen; es zeigen:
Fig. 1 eine schematische Aufbauansicht eines ferngesteuerten Schwenk­ kopfsystems, in dem eine Nachführfunktion installiert ist, auf die die vorliegende Erfindung angewendet ist;
Fig. 2 eine Blockansicht, die den Aufbau eines ferngesteuerten Schwenkkopfsystems darstellt;
Fig. 3 ein Flussdiagramm der ersten Ausführungsform zum Prozessablauf der Nachführprozedur;
Fig. 4(A) bis 4(C) erläuternde Ansichten der Abhängigkeit zwischen dem Objekt und dem Aufnahmebereich, wenn der Schwenkkopf stillsteht;
Fig. 5 eine erläuternde Ansicht eines Beispiels eines Differenzbildes in den Fällen der Fig. 4(A) bis 4(C);
Fig. 6 eine erläuternde Ansicht, die zur Beschreibung der Koordinaten auf dem Bildschirm verwendet wird;
Fig. 7(A) bis 7(C) erläuternde Ansichten der Beziehung zwischen dem Objekt und dem Aufnahmebereich, wenn der Schwenkkopf bewegt wird;
Fig. 8 eine erläuternde Ansicht eines Beispiels eines Differenzbildes im Falle der Fig. 7(A) bis 7(C);
Fig. 9 eine erläuternde Ansicht der Erscheinungsform des Vergleichsbild­ schirms (Vergleichsbereichs), wenn der Aufnahmebereich nach rechts verschoben wird;
Fig. 10 eine erläuternde Ansicht der Erscheinungsform des Vergleichsbild­ schirms (Vergleichsbereich), wenn der Aufnahmebereich nach links verschoben ist;
Fig. 11(A) bis 11(C) erläuternde Ansichten der Beziehung zwischen dem Subjekt und dem Aufnahmebereich jeweils des Bildes #1, des Bildes #2 und des Bildes #3, wenn sich der Schwenkkopf 10 nach rechts bewegt;
Fig. 12 eine Ansicht eines Erscheinungsbildes, wenn ein bewegtes Objekt in den Fig. 11(A) bis 11(C) herausgelöst wird;
Fig. 13 eine erläuternde Ansicht, die zur Beschreibung verwendet wird, wenn der Verschiebungsbetrag des Aufnahmebereichs in Richtung der Steuerspannung (Brennpunktabstand) der Schwenkgeschwin­ digkeit und das Zoomen des Schwenkkopfes im Voraus in dem Speicher gespeichert werden;
Fig. 14 eine Flussdiagramm, das den Verarbeitungsablauf zeigt, wenn der Verschiebungsbetrag des Aufnahmebereichs in Richtung der Steu­ erspannung (Brennpunktabstand) der Schwenkgeschwindigkeit und des Zoomens des Schwenkkopfes im Voraus in dem Speicher gespeichert werden;
Fig. 15 eine erläuternde Ansicht, die zur Beschreibung verwendet wird, wenn der Aufnahmebereich sich zu erweitert, wenn die Bewe­ gungsgeschwindigkeit des bewegten Objekts schnell ist;
Fig. 16(A) und 16(B) erläuternde Ansichten, die zur Beschreibung verwendet werden, wenn der Aufnahmebereich verkleinert wird;
Fig. 17 ein Flussdiagramm für die Verarbeitung, wenn der Aufnahmebe­ reich verkleinert wird;
Fig. 18 ein Flussdiagramm der zweiten Ausführungsform für den Proze­ durablauf beim Nachführen;
Fig. 19 eine erläuternde Ansicht, die zur Beschreibung einer Totzone ver­ wendet wird;
Fig. 20 eine erläuternde Ansicht, die zur Beschreibung einer Totzone ver­ wendet wird;
Fig. 21 ein Flussdiagramm der dritten Ausführungsform der Verarbeitungs­ prozedur zum Nachführen;
Fig. 22(A) bis 22(D) erläuternde Ansichten für die Beziehung zwischen der Position des Schwenkpunkts des bewegten Objekts auf dem Bildschirm und der Bildschirmmitte; und
Fig. 23(1) bis 23(3) erläuternde Ansichten, die zur Beschreibung des Prozessablaufes aus Fig. 21 verwendet werden.
DETAILLIERTE BESCHREIBUNG DER BEVORZUGTEN AUSFÜHRUNGSFORMEN
Im Folgenden wird eine bevorzugte Ausführungsform detailliert für einen Aufbau einer Nachführvorrichtung gemäß bevorzugter Ausführungsformen der vorliegenden Erfin­ dung in Übereinstimmung mit den begleitenden Zeichnungen beschrieben.
Es sollte selbstverständlich sein, dass nicht beabsichtigt ist, die Erfindung auf die spe­ ziellen offenbarten Formen einzuschränken, sondern im Gegenteil die Erfindung soll alle Modifikationen, alternative Ausgestaltungen und Äquivalente abdecken, die im Grund­ gedanken und Schutzbereich der Erfindung liegen, die durch die angefügten Patentan­ sprüche definiert ist.
Fig. 1 ist eine schematische Aufbauansicht eines ferngesteuerten Schwenkkopfsystems, in dem die Nachführfunktion installiert ist, auf die die vorliegende Erfindung angewendet ist. Ein ferngesteuertes Schwenkkopfsystem, das in der zuvor genannten Zeichnung gezeigt ist, umfasst einen ferngesteuerten Schwenkkopf 10 (im Weiteren lediglich als Schwenkkopf 10 bezeichnet), einen Schwenkkopfkontroller 12 und eine Bildverarbei­ tungseinrichtung 14. Der Schwenkkopf 10 umfasst ein Gehäuse 15, um eine Fernseh­ kamera (im Weiteren lediglich als eine Kamera bezeichnet) aufzunehmen, einen Schwenkkopfhauptkörper 16 um die Kamera innerhalb des Gehäuses 15 durch Drehen des gesamten Gehäuses 15 zu schwenken sowie zu neigen bzw. zu kippen. Die Vorder­ fläche des Gehäuses 15 ist mit einem transparenten Schutzglas 17 versehen, und die im Gehäuse 15 untergebrachte Kamera nimmt Bilder außerhalb des Gehäuses 15 durch das Schutzglas 17 hindurch auf.
Das zuvor beschriebene Gehäuse 15 wird von einer Neigungs- bzw. Kippachse (nicht gezeigt) gehalten, die sich von dem Schwenkkopfhauptkörper 16 erstreckt, und diese Neigungsachse wird durch einen Neigungsmotor gedreht, der in dem Schwenkkopfhauptkörper 16 eingebaut ist. Wenn daher der Neigungsmotor angetrieben wird, wird das Gehäuse 15 mittels der Neigungsachse in Drehung versetzt, so dass die Kamera innerhalb des Gehäuses 15 geneigt wird. Ferner ist der Schwenkkopfhauptkörper 16 von einer Schwenkachse 18 gehalten, die an einem nicht gezeigten Positionsständer befestigt ist, und der Schwenkkopfhauptkörper 16 wird von einem eingebauten Schwenkmotor mit dieser Schwenkachse 18 als eine Antriebswelle in Drehung versetzt. Wenn daher der Schwenkmotor betrieben wird, werden sowohl der Schwenkkopfhauptkörper 16 sowie das Gehäuse 15 in Drehung versetzt, so dass die Kamera innerhalb des Gehäuses 15 geschwenkt wird.
Der zuvor genannte Schwenkkopfkontroller 12 ist mit dem Schwenkkopf 10 mittels eines Kabels (eine Verbindung über eine exklusive Leitung und eine Kommunikationsleitung, etwa eine öffentliche Leitung, etc. ist möglich) verbunden und Kontrollsignale werden an den Schwenkkopf 10 auf der Basis der Betätigungen von entsprechenden Arten von Bedienelementen, die an dem Schwenkkopfkontroller 12 vorgesehen sind, übermittelt, so dass die entsprechenden Betriebsarten des Schwenkkopfes 10 sowie die an dem Schwenkkopf 10 montierte Kamera gesteuert werden. Ferner übermittelt der Schwenk­ kopfkontroller 12 die Kontrollsignale an den Schwenkkopf 10 auf der Grundlage von Signalen, die von der Bildverarbeitungseinrichtung 14 bereitgestellt sind, um den Schwenkkopf 10 zu bewegen (Schwenken/Neigen), um zu bewirken, dass die Kamera dem bewegten Objekt nachgeführt wird.
Fig. 2 ist eine Blockansicht, die den Aufbau des zuvor genannten ferngesteuerten Schwenkkopfsystems beschreibt. Wie in der zuvor genannten Zeichnung gezeigt ist, umfasst die Kamera 40, die in dem Gehäuse 15 des Schwenkkopfes 10 untergebracht ist, einen Kamerahauptkörper 42 und eine Linseneinrichtung 44, die an dem Kamera­ hauptkörper 42 befestigt ist. In dem Kamerahauptkörper 42 ist das abbildende Element sowie die erforderliche Verarbeitungsschaltung enthalten, und ein Bild (Bewegtbild), das auf das abbildende Element mittels des optischen Systems der Linseneinrichtung 44 fokussiert ist, wird als Bildsignale (Bildsignale des NTSC-Systems in der vorliegenden Ausführungsform) ausgegeben. Aufnahmeaktivitäten, etwa der Beginn sowie das Been­ den der Aufnahme, etc., in dem Kamerahauptkörper 42 werden auf Grundlage der Kon­ trollsignale, die von dem Schwenkkopfkontroller 12 über den Schwenkkopf 10 bereitge­ stellt werden, gesteuert. Ferner sind optische Elemente, etwa eine Fokuslinse oder eine Zoomlinse, etc. die mittels eines Motors betätigbar sind, in der Linseneinrichtung 44 vor­ gesehen, und Bewegungen dieser Fokussierlinse oder der Zoomlinse justieren den Fo­ kus oder den Zoombereich der Kamera 40. Der Betrieb der Linseneinrichtung 44, etwa das Fokussieren oder das Zoomen, werden auf der Grundlage der Kontrollsignale ge­ steuert, die von dem Schwenkkopfkontroller 12 wie im Falle des Kamerahauptkörpers 42 geliefert werden.
Wie zuvor beschrieben ist, sind der Schwenkmotor und der Neigungsmotor an dem Schwenkkopf 10 montiert und wenn die von dem Schwenkkopfkontroller 12 bereitge­ stellten Kontrollsignale den Schwenkmotor und den Neigungsmotor in Betrieb setzen, wird die Kamera 40 geschwenkt oder geneigt, so dass die Aufnahmerichtung der Kame­ ra 40 sich bewegt bzw. ändert. Das Betätigen des Schwenkkopfes 10, wenn die Kamera 40 geschwenkt oder geneigt wird, wird in der vorliegenden Anmeldung beschrieben als "der Schwenkkopf 10 bewegt sich".
Wie in den obengenannten Zeichnungen dargestellt ist, umfasst die Bildverarbeitungs­ einrichtung 14 diverse Arten von Signalverarbeitungsschaltungen, etwa Y/C-Separier­ schaltung 46, einen Bildspeicher 50, einen Bildverarbeitungsprozessor 52 und eine CPU 54, und diese Signalverarbeitungsschaltungen arbeiten wirkungsvoll, wenn der Schwenkkopfkontroller 12 sich in der folgenden Betriebsweise befindet. Das von dem Kamerahauptkörper 42 ausgegebene Bildsignal wird der Bildverarbeitungseinrichtung 14 eingespeist und zum Zeitpunkt des Nachführmodus wird dieses Bildsignal in Lumi­ neszenzsignale (Y-Signal) und Farbdifferenzsignale mittels der Y/C-Separierschaltung 46 im Kamerahauptkörper aufgespalten. Hierbei wird das separierte Lumineszenzsignal in ein digitales Signal (im Weiteren als Bilddaten bezeichnet) mittels eines A/D-Wandlers 48 umgewandelt und in den Bildspeicher 50 eingespeist. Andererseits wird ein Synchro­ nisiersignal des Bildsignals an den Bildverarbeitungsprozessor 42 von der Y/C- Separierschaltung 46 geliefert, so dass ein Befehl zum Schreiben von Daten in den Bildspeicher 50 von dem Bildverarbeitungsprozssor 52 zu einem notwendigen Zeitpunkt auf der Grundlage dieses Synchronisiersignals ausgegeben wird. Dies bewirkt, dass der Bildspeicher 50 die Bilddaten speichert, die mehrere Bildschirme bzw. Bildrahmen in einem vorbestimmten Zeitintervall füllen bzw. bedecken, wie dies später beschrieben wird. Da das Bildsignal des NTSC-Systems ein Zeilensprungsystem verwendet, ist das Bild für einen Bildschirm aus einem Bild für zwei Felder aufgebaut, aber der Wortlaut "Bilddaten eines Bildschirms" in der vorliegenden Beschreibung bedeutet, dass die Bild­ daten einen Bildschirminhalt aus einer Reihe von Bildern, die in einer aufeinanderfol­ genden Weise aufgenommen sind, bilden, und in der vorliegenden Ausführungsform sollen sich die Bilddaten eines Bildrahmens bzw. Bildschirms auf die Bilddaten für ein Feld beziehen.
Wie zuvor beschrieben ist, werden die Bilddaten für mehrere Bildschirminhalte, die in dem Bildspeicher 50 gespeichert sind, wie dies später beschrieben wird, von dem Bild­ verarbeitungsprozessor 52 ausgelesen und werden einer Bildverarbeitung unterzogen; ferner wird ein Berechnungsvorgang mittels der CPU 54 auf der Grundlage der Ergeb­ nisse dieser Bildverarbeitung durchgeführt, und es wird die Bewegungsgeschwindigkeit in der Schwenkrichtung sowie in der Neigungsrichtung (die Schwenkgeschwindigkeit und die Neigungsgeschwindigkeit) des Schwenkkopfes 10 zur Nachführung der Kamera 40 im Hinblick auf das bewegte Objekt berechnet. Der CPU 54 wird die Brennweite (Bildwinkel) der Linseneinrichtung 44 zu jedem Zeitpunkt sowie die Bewegungsge­ schwindigkeit des Schwenkkopfes 10 (die Schwenkgeschwindigkeit und die Neigungs­ geschwindigkeit) von dem Schwenkkopfkontroller 12 zur Berechnung der Bewegungs­ geschwindigkeit (für die Berechnung des nachfolgend beschriebenen Vergleichsbild­ schirms) zugeführt.
Wenn der Schwenkkopfkontroller 12 auf die folgende Betriebsweise festgelegt ist, wird dem zuvor genannten Schwenkkopfkontroller 12 die Bewegungsgeschwindigkeit, die von der CPU 54 der Bildverarbeitungseinrichtung 14 berechnet wird, als das Befehlssig­ nal zugeführt, so dass ein Kontrollsignal von dem Schwenkkopfkontroller 12 an den Schwenkkopf 10 übermittelt wird, um diese Bewegungsgeschwindigkeit zu realisieren. Wenn andererseits der Schwenkkopfkontroller 12 nicht auf den folgenden Modus festge­ legt ist, wird ein Kontrollsignal von dem Schwenkkopfkontroller 12 zu dem Schwenkkopf 10 auf der Grundlage der Betätigung des entsprechenden Bedienelementes, das an dem Schwenkkopfkontroller 12 in der oben beschriebenen Weise vorgesehen ist, über­ mittelt, so dass die entsprechenden Betriebsweisen des Schwenkkopfes 10 sowie der Kamera 40, die auf dem Schwenkkopf 10 montiert ist, gesteuert werden.
Basierend auf dem Flussdiagramm in Fig. 3 werden der Verarbeitungsinhalt bzw. die Verarbeitungsregeln des zuvor genannten Bildverarbeitungsprozessors 52 sowie der CPU 54 der Bildverarbeitungseinrichtung 14 beschrieben, wenn die folgende Betriebs­ weise in dem ferngesteuerten Schwenkkopfsystem, das in der oben beschriebenen Weise aufgebaut ist, festgelegt ist. In dem Flussdiagramm aus Fig. 3 sowie in der nach­ folgenden Beschreibung wird im Wesentlichen der Prozessablauf, der sich auf die Be­ wegung in der Schwenkrichtung des Schwenkkopfes 10 bezieht, dargestellt, aber für eine Bewegung in der Neigungsrichtung gilt der gleiche Prozessablauf wie für die Schwenkrichtung.
Zunächst nimmt der Bildverarbeitungsprozessor 52 die Bilddaten (dieses Bild wird als Bild #1 betrachtet) für einen Bildschirm, das von dem Kamerahauptkörper 52 der Kame­ ra 40 mittels der Y/C-Separierschaltung 46 und dem A/D-Wandler 48 erhalten wird, in den Bildspeicher 50 auf (Schritt S10).
Anschließend beurteilt der Bildverarbeitungsprozessor 52, ob die Zeit für vier Felder (1/59.94 Sekunden pro Feld) verstrichen ist, mittels des Synchronisiersignals, das von der Y/C-Separierschaltung 46 bereitgestellt wird (Schritt S12), und wenn die Zeit für vier Felder verstrichen ist, werden die Bilddaten (dieses Bild wird als Bild #2 betrachtet) für einen Bildschirm in den Bildspeicher 50 übernommen, wie dies für das Bild #1 der Fall ist (Schritt S14).
Ferner beurteilt der Bildverarbeitungsprozessor 52 mittels des von der Y/C-Separier­ schaltung 46 bereitgestellten Synchronisiersignals, ob die Zeit für vier Felder (1/59.94 Sekunden pro Feld) verstrichen ist (Schritt S16), und wenn die Zeit für 4 Felder abgelau­ fen ist, werden die Bilddaten (dieses Bild wird als Bild #3 betrachtet) für einen Bildschirm in den Bildspeicher 50 übernommen, wie dies für die Bilder #1 und #2 der Fall ist (Schritt S18).
Wie zuvor beschrieben ist, übernimmt die CPU 54, wenn Bilddaten für drei Bildschirmin­ halte in dem Bildspeicher 50 gespeichert sind, den fokalen Abstand (Bildwinkel) der Kamera 40 (Linseneinrichtung 44) sowie die Bewegungsgeschwindigkeit des Schwenk­ kopfes 10 von dem Schwenkkopfkontroller 12, und basierend darauf werden der Ver­ gleichsbereich (Vergleichsbildschirm) des Bildes #1 und des Bildes #3 festgelegt und der Vergleichsbildschirminhalt davon wird dem Bildverarbeitungsprozessor 52 zugeord­ net (Schritt S20). Die Daten für die Bewegungsgeschwindigkeit, die zum Festlegen des Vergleichsbildschirminhalts verwendet werden, müssen nicht von dem Schwenkkopfkontroller 12 gesammelt werden, sondern können Daten von der Bewegungsgeschwindigkeit sein, die die CPU 54 dem Schwenkkopfkontroller 12 zugewiesen hat, wie dies zuvor beschrieben ist.
Es wird nunmehr der Vergleichsbildschirminhalt bzw. der Vergleichsbildrahmen be­ schrieben. Wie nachfolgend gezeigt ist, vergleicht der Bildverarbeitungsprozessor 52 das Bild #1 mit dem Bild #3, um die Differenzwerte entsprechend der Pixel (im Weiteren als Pixelwerte bezeichnet) dieser Bilddaten zur Erstellung von Differenzbildern aus­ zugeben. Die Differenzbilder werden erzeugt, um das Bild des bewegten Objekts, das das Objekt werden soll, dem zu folgen ist, aus den beiden Bildern #1 und #3 zu extra­ hieren, und zur Extraktion des Bildes des bewegten Objekts mittels dieses Differenzbil­ des ist es notwendig, das Differenzbild von den Bildern innerhalb des gleichen Aufnah­ mebereichs (der Bereich, in dem die Aufnahmebereiche sich überlappen) in dem Auf­ nahmebereich des Bildes #1 und dem Aufnahmebereich des Bildes #3 zu erhalten.
Wenn beispielsweise der Schwenkkopf 10 stillsteht, wie dies unmittelbar zu Beginn der folgenden Prozesssequenz der Fall ist, sind die Aufnahmebereiche des Bildes #1 und des Bildes #3 gleich. Fig. 4(A) zeigt die Beziehung zwischen dem Objekt und dem Auf­ nahmebereich in diesem Falle, und der Aufnahmebereich L des Bildes #1 entspricht vollständig dem Aufnahmebereich L' des Bildes #3. In der Zeichnung ist das mit einem Kreis gekennzeichnete Objekt ein bewegtes Objekt, während die mit Dreiecken gekenn­ zeichneten Objekte statische Objekte sind. Ferner ist das bewegte Objekt an der mit A gekennzeichneten Position, die in der Zeichnung zum Zeitpunkt der Aufnahme des Bil­ des #1 dargestellt ist, angeordnet, und diese soll sich an die mit B in der Zeichnung ge­ kennzeichneten Position zur Zeit der Aufnahme des Bildes #3 bewegen.
Dabei bilden das Bild #1 und das Bild #3, die in dem Bildspeicher 50 gespeichert sind, einen Bildschirminhalt, wie er in Fig. 4(B) und Fig. 4(C) gezeigt ist, und in diesen Bild­ schirminhalten dieser Bilder #1 und #3 ist das Bild der statischen Objekte, die durch Dreiecke gekennzeichnet sind, an der gleichen Koordinatenstelle, aber lediglich das Bild des bewegten Objekts, das durch den Kreis gekennzeichnet ist, ist an der unterschiedli­ chen Koordinatenstelle vorhanden.
Wenn folglich die Differenz der Pixelwerte zwischen Pixeln an den entsprechenden Positionen (die gleiche Koordinate) aus dem gesamten Bildschirmbereich (innerhalb des gesamten Aufnahmebereichs) des Bildes #1 und des Bildes #3 erhalten wird, wird in diesem Differenzbild der Pixelwert der statischen Objekte zu 0, und es wird in dem Diffe­ renzbild durch Extraktion lediglich das bewegte Objekt erhalten, wie dies in Fig. 5 ge­ zeigt ist. Die Koordinaten entsprechender Punkte auf den Bildschirmen der entspre­ chenden Bilder werden der Anordnung von Pixeln unterzogen, die eine Matrix zum Auf­ bau eines Bildschirminhalts bilden, und werden, wie in Fig. 6 gezeigt ist, als Spalten­ nummer jedes Punktes in der horizontalen Richtung (1 bis X in geordneter Reihenfolge von dem Pixel an dem linken Ende des Bildschirminhalts (X entspricht der Pixelanzahl, die die horizontale Auflösung kennzeichnet)) und werden durch die Zeilennummer jedes Punktes in der senkrechten bzw. vertikalen Richtung ausgedrückt (1 bis Y in der geordneten Reihenfolge von dem Pixel am oberen Ende des Bildschirminhalts (Y entspricht der Pixelanzahl, die die senkrechte Auflösung kennzeichnet)).
Andererseits sind, wenn der Schwenkkopf 10 bewegt wird, die Aufnahmebereiche an entsprechenden Aufnahmezeitpunkten des Bildes #1 und des Bildes #3 unterschiedlich. Fig. 7(A) zeigt die Beziehung zwischen dem Objekt und dem Aufnahmebereich in die­ sem Falle, und der Aufnahmebereich L des Bildes #1 ist verschieden von dem Aufnah­ mebereich L' des Bildes #3. Die Objekte (das bewegte Objekt und die statischen Objek­ te) in der Zeichnung sind unter den gleichen Bedingungen wie in Fig. 4(A) dargestellt. Dabei bilden das Bild #1 und das Bild #3, die in dem Bildspeicher 50 gespeichert sind, jeweils die Bildschirminhalte, wie sie in Fig. 7(B) und 7(C) gezeigt sind, und somit ist das Bild der statischen Objekte, die durch Dreiecke gekennzeichnet sind, nicht an der glei­ chen Koordinatenstelle in den entsprechenden Bildschirminhalten dieser Bilder #1 und #3 vorhanden. Wenn daher das Differenzbild über die Gesamtheit dieser Bildschirmbe­ reiche erhalten wird, wie dies zuvor beschrieben ist, wird ein derartiges Differenzbild erhalten, als ob die statischen Objekte ein bewegtes Objekt wären, und das bewegte Objekt kann nicht in geeigneter Weise extrahiert werden.
Unter dieser Bedingung werden die Bilder aus dem gesamten Bildschirmbereiches des Bildes #1 und des gesamten Bildschirmbereichs des Bildes #3 in dem Bereich, an dem sich die Aufnahmebereiche überlappen, d. h. in dem Bereich, in dem der Aufnahmebe­ reich L des Bildes #1 den Aufnahmebereich L' des Bildes #3 überlappt, jeweils aus dem Bild #1 und dem Bild #3 extrahiert, so dass die Differenz der Pixelwerte der entspre­ chenden Position zwischen den Bildern innerhalb des extrahierten Bereichs ermittelt wird und somit das Differenzbild gegeben ist. Dabei wird in diesem Differenzbild der Pi­ xelwert der statischen Objekte zu 0, so dass das Differenzbild eine Herauslösung ledig­ lich des bewegten Objekts zulässt, wie dies in Fig. 8 gezeigt ist.
Um das Differenzbild, das einer Herauslösung des bewegten Objekts zu unterziehen ist, aus dem Bild #1 und dem Bild #3 zu erhalten, ist es notwendig, einen Vergleichsbereich festzulegen, um dieses Differenzbild in die entsprechenden Bildschirme des Bildes #1 und des Bildes #3 einzulesen, und ein für diesen Vergleichsbereich zugrunde liegender Bildbereich bzw. Bildschirminhalt ist der Vergleichsbildbereich bzw. Bildschirminhalt. Dabei ist der Vergleichsbildschirmbereich als ein Bildschirmbereich des Aufnahmebe­ reichs festgelegt, an dem sich der Aufnahmebereich L des Bildes #1 mit dem Aufnah­ mebereich L' des Bildes #3 überlappt. Wie im Falle in Fig. 4, wenn der Schwenkkopf 10 stillsteht, entspricht der Aufnahmebereich L des Bildes #1 vollständig dem Aufnahmebe­ reich L' des Bildes #3, und daher wird, wie in den Fig. 4(B) und 4(C) gezeigt ist, der Ver­ gleichsbildbereich P als ein Bildbereich über den gesamten Bildschirmbereich in den entsprechenden Bildschirmen des Bildes #1 und des Bildes #3 festgelegt. Andererseits ist in dem Falle, in dem sich der Schwenkkopf 10 wie in Fig. 7 bewegt, der Aufnahmebe­ reich L des Bildes #1 unterschiedlich zu dem Aufnahmebereich L' des Bildes #3, und daher ist, wie in den Fig. 7(B) und 7(C) gezeigt ist, der Vergleichsbildbereich P als ein Bildbereich eines Bereichs festgelegt, an dem der Aufnahmebereich L des Bildes #1 den Aufnahmebereich L' des Bildes #3 an den entsprechenden Bildschirmen des Bildes #1 und des Bildes #3 überlappt.
Zur Beschreibung eines konkreten Prozessablaufes zum Festlegen des Vergleichsbild­ bereichs gilt: wenn das Bild #1 und das Bild #3 in dem Bildspeicher 50 eingelesen wer­ den, wie dies zuvor beschrieben, erhält die CPU 54 die gegenwärtige Brennweite der Linseneinrichtung 44 und die momentane Bewegungsgeschwindigkeit (Schwenkge­ schwindigkeit) des Schwenkkopfes 10 von dem Schwenkkopfkontroller 12. Ferner ermit­ telt die CPU 54 einen Aufnahmebildwinkel (horizontaler Bildwinkel, der den Winkelbe­ reich in der horizontalen Richtung anzeigt) aus der Brennweite der Linseneinrichtung 44, um aus diesem Aufnahmebildwinkel und der Bewegungsgeschwindigkeit zu berechnen, wie viele Pixel der Aufnahmebereich des Bildes #3 in Einheiten der Pixelanzahl bei der Verschiebung in der horizontalen Richtung gegenüber dem Aufnahmebereich des Bildes #1 bedeckt. Dieser Verschiebungsbetrag (Einheit: Pixel) beträgt:
Verschiebung = (R/A) × V × T (1)
wobei V (Einheit: Grad/Sekunde) die Bewegungsgeschwindigkeit (Schwenkgeschwin­ digkeit) des Schwenkkopfes 10, R (Einheit: Pixel) die Auflösung (horizontale Auflösung) des Bildes, A (Einheit: Grad) der Aufnahmebildwinkel (horizontaler Bildwinkel) und T (Einheit: Sekunde) die Aufnahmezeitdifferenz (Zeitintervall zur Aufnahme von Einzelbil­ dern des Bildes #1 und des Bildes #3) des Bildes #3 gegenüber dem Bild #1 sind. Bei der Berechnung des Verschiebebetrags in der senkrechten Richtung ist die Bewegungs­ geschwindigkeit V die Neigungsgeschwindigkeit, die Auflösung R die senkrechte Auflö­ sung und der Aufnahmebildwinkel A der senkrechte Bildwinkel, der den Winkelbereich in der senkrechten Richtung kennzeichnet. Wenn ferner das Bild #1 nach dem Verstrei­ chen einer Zeitspanne zum Ausfüllen von acht Feldern nach dem Bild #3 eingelesen wird, ist die Aufnahmezeitdifferenz T ein Wert, der sich durch Verachtfachung der Zeit (1/59.94 Sekunden) zur Ausfüllung eines Feldes ergibt.
Das Bild #3 wird jedoch wiederholt erneuert, wenn die Bewegungsgeschwindigkeit des bewegten Objekts langsam ist, wie dies nachfolgend beschrieben wird, und daher ist die Aufnahmezeitdifferenz T nicht auf diesen Wert beschränkt.
Beim Berechnen des Verschiebungsbetrags mit der oben angeführten Gleichung (1) legt die CPU 54 den Vergleichsbildbereich auf den Bildschirminhalt des Bildes #1 und des Bildes #3 auf der Grundlage dieses Verschiebebetrags fest. Wie in Fig. 9 gezeigt ist, heißt dies, dass, wenn der Aufnahmebereich L' des Bildes #3 gegenüber dem Aufnah­ mebereich L des Bildes #1 nach rechts bewegt wird (der Schwenkkopf 10 bewegt sich nach rechts), der Rand des Bereichs (der Bereich, der durch schraffierte Linien in der Zeichnung dargestellt ist) ohne die Anzahl der Pixel, die den Verschiebungsbetrag vom linken Ende des Bildschirm in dem gesamten Bildschirmbereichs des Bildes #1 ausfül­ len, als der Vergleichsbildbereich P im Hinblick auf den Vergleichsbildbereich des Bildes #1 festgelegt ist, und andererseits der Rand des Bereichs (der Bereich, der durch Schraffur dargestellt ist) ohne die Pixelanzahl, die den Verschiebungsbetrag vom rech­ ten Ende des Bildschirms in dem gesamten Bildschirmbereich des Bildes #3 ausfüllen, als der Vergleichsbildschirmbereich P im Hinblick auf den Vergleichsbildbereich des Bildes #3 festgelegt ist. Wie in Fig. 10 gezeigt ist, ist, wenn der Aufnahmebereich L' des Bildes #3 sich gegenüber dem Aufnahmebereich L des Bildes #1 nach links bewegt (der Schwenkkopf 10 bewegt sich nach links) der Rand des Bereichs (der Bereich, der in der Zeichnung durch schraffierte Linien dargestellt ist) ohne die Anzahl der Pixel, die den Verschiebungsbetrag von dem rechten Ende des Bildschirms in dem gesamten Bild­ schirmbereich des Bildes #1 ausfüllen, als der Vergleichsbildschirmbereich P im Hinblick auf den Vergleichsbildbereich des Bildes #1 festgelegt, und andererseits ist der Rand bzw. der Umriss des Bereichs (der Bereich, der in der Zeichnung schraffiert dargestellt ist) ausschließlich der Anzahl der Pixel, die den Verschiebungsbetrag von dem linken Ende des Bildschirms in dem gesamten Bildschirmbereich des Bildes #3 ausfüllen, als der Vergleichsbildbereich P im Hinblick auf den Vergleichsbildbereich des Bildes #3 festgelegt. Ähnliches gilt für den Fall, dass sich der Schwenkkopf 10 nach oben und nach unten bewegt.
Die Beschreibung wird wieder mit Bezug zu dem Flussdiagramm in Fig. 3 weitergeführt; wenn der Vergleichsbildbereich durch die CPU 54 in der oben beschriebenen Weise festgelegt ist, und dieser Vergleichsbildbereich dem Bildverarbeitungsprozessor 52 mit­ geteilt wird, extrahiert der Bildverarbeitungsprozessor 52 anschließend das Bild inner­ halb des Vergleichsbildbereichs jeweils des Bildes #1 und des Bildes #3, so dass das Differenzbild des Bildes #1 und des Bildes #3 durch dieses extrahierte Bild erhalten wird (Schritt S22). Das heißt, aus den Bilddaten innerhalb der Vergleichsbildbereiche des Bildes #1 und des Bildes #3 wird die Differenz der Pixelwerte der Pixel in den entspre­ chenden Positionen (Pixel, die an der gleichen Stelle im Vergleichsbildbereich vorhan­ den sind) ermittelt und der Absolutwert (|#1 - #3|) wird erhalten. Dies bewirkt, dass ledig­ lich Bilder des bewegten Objekts herausgelöst werden, wie dies oben in Fig. 5 und Fig. 8 gezeigt ist, und dieses bewegte Objekt wird als das Objekt erkannt, dem zu folgen ist.
Anschließend codiert der Bildverarbeitungsprozessor 52 die Bilddaten jedes Pixels des Differenzbildes, das aus dem Schritt S22 erhalten wird, in binärer Form (Schritt S24).
Dieser Prozess liefert idealerweise eine 1 für den Pixelwert des Bildes des bewegten Objekts und ansonsten eine 0. Ferner wird das binär codierte Differenzbild einem Redu­ ziervorgang unterzogen, so dass ein Untergrundrauschen entfernt wird (Schritt S26). Im Weiteren wird das Differenzbild, das binär codiert und reduziert ist, als Differenzbild be­ zeichnet.
Anschließend ermittelt der Bildverarbeitungsprozessor 52 die Gesamtzahl der Pixel mit einer 1 auf der Grundlage der Pixelwerte des Differenzbildes, um den Bereich des ge­ samten Bildes des bewegten Objekts (im Weiteren lediglich als der Bereich bzw. die Fläche des bewegten Objekts bezeichnet) zu ermitteln (Schritt S28). Die Beispiele lie­ fern den Bereich zweier Kreise, die Bilder vor und nach der Bewegung des bewegten Objekts kennzeichnen. Des Weiteren wird der erhaltene Bereich der CPU 54 mitgeteilt.
Die CPU 54 erhält den Bereich von dem Bildverarbeitungsprozessor 52, um zu beurtei­ len, ob der Bereich größer als ein vorbestimmter Schwellwert ist oder nicht (Schritt S30). Wenn dies nicht der Fall ist, ist das bewegte Objekt ein Objekt, dem nicht gefolgt wird, dies schließt den Fall ein, wenn dem bewegten Objekt bis zu dessen Anhalten gefolgt worden ist, oder den Fall, in dem das bewegte Objekt klein ist oder wenn lediglich kleine Objekte vorhanden sind, die nicht als zu verfolgende Objekte zu betrachten sind, bewegt werden, und dergleichen. In diesem Falle geht der Prozessablauf zurück zum Schritt S10, so dass die Bearbeitungssequenz ab dem Aufnehmen eines Bildes wiederholt wird.
Wenn andererseits ein JA bestimmt wird in dem oben beschriebenen Schritt S30, d. h., wenn das bewegte Objekt aus dem Differenzbild erfasst wird, ermittelt der Bildverarbei­ tungsprozessor 52 anschließend das Hauptmoment über das gesamte Bild des beweg­ ten Objekts aus dem Differenzbild (Schritt S32), und das Hauptmoment wird durch den Bereich bzw. die Fläche des bewegten Objekts geteilt, so dass der Schwerpunkt des bewegten Objekts ermittelt wird (Schritt S34). Hierbei wird der Schwerpunkt des beweg­ ten Objekts beispielsweise mit Koordinaten auf dem Bildschirm des Bildes #1 ausge­ drückt, und die Koordinate des Schwerpunkts wird der CPU 54 zugeleitet. Der Schwer­ punkt des bewegten Objekts, der durch das Bild #1 und das Bild #3 gegeben ist, wird im folgenden als der Schwerpunkt 1-3 ausgedrückt.
Anschließend legt die CPU 54, die den Vergleichsbereich (Vergleichsbildbereich) des Bildes #1 und des Bildes #3 in dem oben genannten Schritt S20 festgelegt hat, in ähnli­ cher Weise den Vergleichsbereich (Vergleichsbildbereich) des Bildes #1 und des Bildes #2 auf der Grundlage der Brennweite (Bildwinkels) der Kamera 40 (Linseneinrichtung 44) sowie der Bewegungsgeschwindigkeit des Schwenkkopfes 10 fest, und dieser Ver­ gleichsbereich wird an den Bildverarbeitungsprozessor 52 weitergeleitet (Schritt S36). Ferner ermitteln der Bildverarbeitungsprozessor 52 sowie die CPU 54, die den Schwer­ punkt des bewegten Objekts aus dem Bild #1 und dem Bild #3 im oben beschriebenen Schritt S22 bis Schritt S34 (ausschließlich des Schritts S30) festgelegt hat, in ähnlicher Weise den Schwerpunkt des bewegten Objekts aus dem Bild #1 und dem Bild #2 (Schritt S38 bis Schritt S48). Der durch das Bild #1 und das Bild #2 gegebene Schwer­ punkt des bewegten Objekts wird im folgenden als der Schwerpunkt 1-2 ausgedrückt.
Fig. 11 zeigt hierbei die Beziehung zwischen dem Objekt und dem entsprechenden Auf­ nahmebereichen des Bildes #1, des Bildes #2 und des Bildes #3 für den Fall, wenn bei­ spielsweise der Schwenkkopf 10 nach rechts bewegt wird (im Falle, dass der Aufnah­ mebereich nach rechts verschoben wird), und die Verschiebungsbeträge für die Ver­ schiebung 1 und für die Verschiebung 2 der Aufnahmebereiche jeweils des Bildes #2 und des Bildes #3 gegenüber dem Aufnahmebereich des Bildes #1 werden jeweils mit der oben dargestellten Gleichung (1) berechnet. Dabei wird die Schwenkgeschwindig­ keit des Schwenkkopfes 10 während der Aufnahme des Bildes #1 und des Bildes #3 als näherungsweise konstant angenommen, und daher ist der Verschiebungsbetrag der Verschiebung 1 die Hälfte des Verschiebungsbetrags der Verschiebung 2. Des Weiteren bewirkt, wie oben beschrieben ist, ein Vergleich (Ermitteln der Differenzbilder) des Bil­ des #1 mit dem Bild #3 sowie ein Vergleich des Bildes #1 mit dem Bild #2, dass die Bil­ der M1, M2 und M3 des bewegten Objekts auf dem Bildschirm des Bildes #1 herausge­ löst werden, wie in Fig. 12 gezeigt ist. Vergleich des Bildes #1 mit dem Bild #3 bewirkt, dass das Bild M1 und M3 herausgelöst werden, während der Vergleich des Bildes #1 mit dem Bild #2 bewirkt, dass das Bild M1 und das Bild M2 herausgelöst werden. Mit diesen somit extrahierten Bildern des bewegten Objekts wird der Schwerpunkt 1-3 sowie der Schwerpunkt 1-2 des oben genannten bewegten Objekts als eine Position berech­ net, die mit "+" in der Zeichnung auf dem Bildschirm des Bildes #1 gekennzeichnet ist.
Wenn der Schwerpunkt 1-3 sowie der Schwerpunkt 1-2 in der oben beschriebenen Wei­ se bestimmt ist, ermittelt die CPU 54 die Differenz zwischen dem Schwerpunkt 1-3 und dem Schwerpunkt 1-2, d. h. (Schwerpunkt 1-3) - (Schwerpunkt 1-2) (Schritt S50), und basierend darauf wird die Bewegungsgeschwindigkeit des bewegten Objekts berechnet (Schritt S52).
Hierbei bewegt sich auf dem Bildschirm das bewegte Objekt über eine Entfernung von dem Bild M1 zu dem Bild M3 des bewegten Objekts, d. h. über eine vierfache Entfernung von (Schwerpunkt 1-3) - (Schwerpunkt 1-2), wie in Fig. 12 während der verstrichenen Zeit T (abgelaufene Zeit während des Ausfüllens von acht Feldern = (1/59.94) × 8) von dem Zeitpunkt an, wenn das Bild #1 eingelesen wird (Aufnahmezeit) zu dem Zeitpunkt, wenn das Bild #3 eingelesen wird (Aufnahmezeit), und damit ist mit ΔL als (Schwerpunkt 1-3) - (Schwerpunkt 1-2) die Bewegungsgeschwindigkeit V (Einheit: Pixel/Sekunde) in der Schwenkrichtung des bewegten Objekts auf dem Bildschirm durch die folgende Glei­ chung (2) gegeben:
V = ΔL × 4/T (2)
Ferner ist mit R (Einheit: Pixel) als Auflösung (horizontale Auflösung) des Bildes und mit A (Einheit: Grad) als Aufnahmebildwinkel (horizontaler Bildwinkel), die Bewegungsge­ schwindigkeit V (Einheit: Grad/Sekunde) in der Schwenkrichtung des bewegten Objekts im tatsächlichen Raum durch die folgende Gleichung (3) gegeben:
V = v × A/R (3)
Wenn die Bewegungsgeschwindigkeit in der Neigungsrichtung des bewegten Objekts berechnet wird, ist die Auflösung R die senkrechte Auflösung und der Aufnahmebildwin­ kel V ist ein senkrechter Bildwinkel, der den Winkelbereich in der senkrechten bzw. ver­ tikalen Richtung kennzeichnet.
Die CPU 54 berechnet die Bewegungsgeschwindigkeit V des bewegten Objekts in der oben beschriebenen Weise, um dem Schwenkkopfkontroller 12 ein Befehlssignal zu übermitteln, um eine Bewegung in der Schwenkrichtung des Schwenkkopfes 10 mit der Bewegungsgeschwindigkeit V anzuordnen (Schritt S54). Dies ergibt eine Steuerung der Schwenkgeschwindigkeit des Schwenkkopfes 10 mittels des Schwenkkopfkontrollers 12. Ferner beurteilt die CPU 54, ob die momentane Bewegungsgeschwindigkeit (Schwenkgeschwindigkeit) des Schwenkkopfes 10, die von dem Schwenkkopfkontroller 12 vorgegeben ist, die von der CPU 54 vorgeschriebene Schwenkgeschwindigkeit er­ reicht hat (Schritt S56), und wenn dies der Fall ist, geht der Prozessablauf zu dem oben genannten Schritt S10 zurück, so dass die zuvor beschriebene Bearbeitungssequenz wiederholt wird.
Wenn die Bewegungsgeschwindigkeit des bewegten Objekts erfasst wird, werden im bisher beschriebenen Prozessablauf die Bilder #1 bis #3, die drei Bildbereiche füllen, so aufgenommen, dass ein Vergleich des Bildes #1 mit dem Bild #3 sowie ein Vergleich des Bildes #1 mit dem Bild #2 die Schwerpunkte ergibt, und zwar den Schwerpunkt 1-3 und den Schwerpunkt 1-2; aber ohne Einschränkung darauf kann der Vergleich des Bil­ des #1 mit dem Bild #2 sowie der Vergleich des Bildes #2 mit dem Bild #3 zwei Schwer­ punkte ergeben, so dass die Bewegungsgeschwindigkeit des bewegten Objekts erfasst wird, und Vergleich der Bilder #1-4, die vier Bildbereiche ausfüllen, können angestellt werden, so dass ein Vergleich mit zwei nicht überlappenden Gruppen von Bildern, die zwei Bildbereiche ausfüllen, wobei beispielsweise ein Vergleich des Bildes #1 mit dem Bild #2 sowie ein Vergleich des Bildes #3 mit dem Bild #4 zwei Schwerpunkte ergeben, um die Bewegungsgeschwindigkeit des bewegten Objekts zu detektieren.
Anschließend wird ein Verfahren zum Bestimmen des Verschiebungsbetrags beim Fest­ legen des Vergleichsbildbereichs in den zuvor genannten Schritten S20 und S36 (Ver­ schiebungsbetrag des Aufnahmebereiches des Bildes #2 und des Bildes #3 gegenüber dem Aufnahmebereich des Bildes #1) in konkreter Weise beschrieben. Es wird der Fall des Verschiebungsbetrags in horizontaler Richtung beschrieben, wobei lediglich die Schwenkrichtung des Schwenkkopfes 10 berücksichtigt wird.
Wie in der zuvor genannten Gleichung (1) angedeutet ist, kann der Verschiebungsbe­ trag auf der Grundlage der Schwenkgeschwindigkeit des Schwenkkopfes 10 und des Bildwinkels (Brennweite) ermittelt werden, und die Werte der Schwenkgeschwindigkeit und des Bildwinkels können durch die CPU 54 bestimmt werden, die dazu vorbestimmte Daten vom Schwenkkopfkontroller 12 erhält. Beispielsweise kann durch Empfangen der Schwenkgeschwindigkeitsdaten von dem Schwenkkopfkontroller 12, die dieser als ein Kontrollsignal übermittelt, der Wert der Schwenkgeschwindigkeit, die zur Berechnung des Verschiebungsbetrags verwendet wird, bestimmt werden. Der Wert der für die Be­ rechnung des Verschiebungsbetrags verwendeten Schwenkgeschwindigkeit kann ein Wert der Schwenkgeschwindigkeit sein, die die CPU 54 dem Schwenkkopfkontroller 12 als Befehl mitteilt, oder kann ein tatsächlich gemessener Wert der Schwenkgeschwin­ digkeit sein, die durch den Geschwindigkeitserfassungssensor in dem Schwenkkopf 10 ermittelt wird. Andererseits kann die Übermittlung des Wertes der Steuerspannung für das Zoomen von dem Schwenkkopfkontroller 12, die dieser an die Linseneinrichtung 44 als ein Kontrollsignal übermittelt (im Weiteren wird die Steuerspannung für das Zoomen als lediglich Kontroll- bzw. Steuerspannung bezeichnet), die Brennweite kennzeichnen, und der Wert des Bildwinkels (horizontaler Bildwinkel), der für die Berechnung des Ver­ schiebungsbetrags verwendet wird, kann bestimmt werden. Die Beziehung zwischen der Steuerspannung und die Brennweite hängt jedoch von der Art der Linseneinrichtung 44 ab, und daher ist es zur Berechnung eines genauen Verschiebungsbetrages für diverse Arten von Linseneinrichtung erforderlich, im Voraus in einem Speicher die charakteristi­ schen Daten entsprechend der Arten der Linseneinrichtung zu speichern (eine Datenta­ belle, die die Beziehung zwischen der Steuerspannung und der Brennweite zeigt), so dass die charakteristischen Daten entsprechend den Arten der Linseneinrichtung ver­ wendet werden, um die Brennweite aus der Steuerspannung zu ermitteln.
Des Weiteren kann der Verschiebungsbetrag nicht nur theoretisch durch die oben be­ schriebene Gleichung (1) gegeben sein, sondern es kann der genaue Verschiebungsbe­ trag für jeden Wert der Schwenkgeschwindigkeit sowie der Steuerspannung vor dem Beginn des Nachführens, etc. mittels einer tatsächlichen Messung gegeben sein. Wenn in diesem Falle beispielsweise die Beziehung zwischen der Schwenkgeschwindigkeit, die von dem Schwenkkopfkontroller 12 geliefert wird, und dem Verschiebungsbetrag für jeden Wert der Steuerspannung in dem Speicher als die Verschiebungsbetragsdaten, die in Fig. 13 gezeigt sind, gespeichert sind, werden während des Nachführvorganges die von dem Schwenkkopfkontroller 12 erhaltene Schwenkgeschwindigkeit und der Ver­ schiebungsbetrag für die Steuerspannung aus dem Speicher ausgelesen, so dass auf dieser Basis der Vergleichsbildbereich festgelegt werden kann. Während des Nachfüh­ rens wird im Allgemeinen das Zoomen (Brennweite) der Linseneinrichtung 44 nicht ge­ ändert, und daher ist es ausreichend, dass vor Beginn des Nachführens der Wert des Verschiebungsbetrages in Richtung der Brennweite zum Zeitpunkt des Nachführens für jeden Wert der Schwenkgeschwindigkeit mittels einer tatsächlichen Messung erhalten wird und in dem Speicher als die Verschiebungsbetragsdaten gespeichert werden.
Fig. 14 ist ein Flussdiagramm, das den Prozessablauf für den Fall zeigt, dass der Ver­ schiebungsbetrag in Richtung der vorbestimmten Brennweite und Schwenkgeschwin­ digkeit mittels einer tatsächlichen Messung erhalten wird. Es ist erforderlich, dass keine bewegten Objekte innerhalb des Aufnahmebereichs der Kamera 40 während der Aus­ führung dieses Bearbeitungsprozesses vorhanden sind. Selbst wenn ein bewegtes Ob­ jekt vorhanden ist, ergibt sich kein Problem, wenn das bewegte Objekt in dem Bild­ schirm klein ist. Zunächst durchläuft die CPU 54 einen Initialisierungsschritt durch Fest­ legen des Maximalwertes (beispielsweise 0 × ffffff) für den Parameter minarea, eine 1 für den Parameter i und eine 0 für den Verschiebungsbetrag, der als Verschiebungsdaten gegeben ist (Schritt S100). Anschließend legt die CPU 54 die Schwenkgeschwindigkeit des Schwenkkopfes 10, die an den Schwenkkopfkontroller 12 als Befehl zu übermitteln ist, auf eine vorbestimmte Geschwindigkeit (Schwenkgeschwindigkeit, mit der Verschie­ bungsbetrag erhalten wird) fest und übermittelt das Befehlssignal an den Schwenkkopf­ kontroller 12, um diese Schwenkgeschwindigkeit anzuordnen (Schritt S102). Ferner wird bestimmt, ob die gegenwärtige Schwenkgeschwindigkeit des Schwenkkopfes 10, die vom Schwenkkopfkontroller 12 vorgegeben ist, die Schwenkgeschwindigkeit erreicht hat, die die CPU 54 angewiesen hat (Schritt S104), und wenn dies der Fall ist, geht der Prozessablauf weiter zum nächsten Bearbeitungsschritt.
Anschließend liest der Bildverarbeitungsprozessor 52 die Bilddaten (dieses Bild wird als das Bild #1 betrachtet) für einen Bildbereich wie im Schritt S10 bis Schritt S14 in der oben dargestellten Fig. 3 in den Bildspeicher 50 ein (Schritt S106), und anschließend werden nach Ablauf der Zeit für 4 Felder (Schritt S108) die Bilddaten (dieses Bild wird als Bild #2 bezeichnet) für einen Bildbereich in den Speicher 50 eingelesen (Schritt S110).
Wenn, wie oben beschrieben ist, Bilddaten für zwei Bildbereiche in dem Bildspeicher 50 gespeichert werden, nimmt die CPU 54 i als den zwischenzeitlichen Verschiebungsbe­ trag für die Verschiebung' in dem Aufnahmebereich des Bildes #2 gegenüber dem Auf­ nahmebereich des Bildes #1, und basierend auf diesem Verschiebungsbetrag für die Verschiebung' wird der Vergleichsbildbereich des Bildes #1 und des Bildes #2 festgelegt (Schritt S112). Der entsprechende Vergleichsbildbereich wird dem Bildverarbeitungs­ prozessor 52 bekannt gegeben.
Wie zuvor beschrieben ist, wenn die CPU 54 den Vergleichsbildbereich festlegt und die­ ser Vergleichsbildbereich dem Bildverarbeitungsprozessor 52 bekannt ist, führen der Bildverarbeitungsprozessor 52 sowie die CPU 54 anschließend eine Bearbeitungsse­ quenz durch, die ähnlich zu den Bearbeitungsvorgängen des Schrittes S22 bis Schritt S28 in Fig. 3 ist, in den folgenden Schritten S114 bis Schritt S120 durch. Zunächst ext­ rahiert der Bildverarbeitungsprozessor 52 das Bild innerhalb des Vergleichsbildberei­ ches jeweils des Bildes #1 und des Bildes #2, so dass das Differenzbild des Bildes #1 und des Bildes #2 durch das extrahierte Bild (|#1-#2|) gegeben ist (Schritt S114). An­ schließend codiert der Bildverarbeitungsprozessor 52 die Bilddaten jedes Pixels des Differenzbildes in binärer Form (Schritt S116). Ferner wird an dem binär codierten Diffe­ renzbild ein Reduziervorgang durchgeführt, so dass ein Untergrundrauschen entfernt wird (Schritt S118).
Anschließend legt der Bildverarbeitungsprozessor 52 die Gesamtzahl der Pixel fest, wo­ bei 1 der Pixelwert auf der Grundlage des Differenzbildes ist, um dessen Bereich bzw. Fläche festzulegen (Schritt S120). Des Weiteren wird die erhaltene Fläche bzw. der er­ haltene Bereich an die CPU 54 weitergegeben. Wenn der zwischenzeitliche Verschie­ bungsbetrag der Verschiebung', die in dem zuvor genannten Schritt S112 festgelegt ist, in geeigneter Weise der Schwenkgeschwindigkeit entspricht, wird die hierin ermittelte Fläche idealerweise zu 0.
Die CPU 54 erhält den zuvor genannten Bereich bzw. die Fläche von dem Bildverarbei­ tungsprozessor 52, um die Parameterfläche durch die Fläche zu ersetzen (Schritt 122) und um zu beurteilen, ob der Wert der Fläche kleiner als der zuvor bezeichnete Parame­ terwert minarea ist, d. h. ob (minarea < die Fläche) ist oder nicht (Schritt S124). Wenn dies der Fall ist, wird minarea durch den Wert der Fläche ersetzt (Schritt S126), und der Wert des Verschiebungsbetrags, der letztlich gefordert ist, wird als i angenommen (ist jedoch noch nicht bestimmt). Wenn andererseits ein NEIN im Schritt S124 bestimmt wird, werden die Bearbeitungsschritte S126 und S128 nicht ausgeführt. Anschließend erhöht die CPU 54 den Wert von i um 1 (Schritt S130), um zu beurteilen, ob 1 größer ist als die Pixelzahl in der horizontalen Richtung (horizontale Auflösung) des Bildschirms (Schritt S132). Wenn dies nicht der Fall ist, geht der Prozessablauf zurück zum Schritt S122. Dabei wird die Bearbeitungssequenz vom Schritt S112 bis zum Schritt S132 wie­ derholt durchgeführt und der Verschiebungsbetrag für Verschiebung', die zur Festlegung des Vergleichsbildbereiches verwendet wird, wenn die im Schritt S120 berechnete Flä­ che eine minimale Verschiebung wird, d. h. Verschiebung' = i wird als der Verschie­ bungsbetrag bestimmt, der als Verschiebungsbetragsdaten in dem Verarbeitungsschritt S128 erhalten wird. Wenn im Schritt S132 ein JA ermittelt wird, wird die zuvor beschrie­ bene Verarbeitungssequenz beendet. Wenn die zuvor beschriebene Bearbeitungsse­ quenz mit Änderungen in der Schwenkgeschwindigkeit, die im Schritt S102 festgelegt wird, ausgeführt wird, kann der Verschiebungsbetrag für jeden Wert der Schwenkge­ schwindigkeit ermittelt werden, und ferner kann bei Änderungen der Brennweite der Verschiebungsbetrag für jeden Wert der Schwenkgeschwindigkeit sowie die Brennweite ermittelt werden.
Somit ist der Verschiebungsbetrag nicht durch einen theoretische Wert unter Verwen­ dung der oben beschriebenen Gleichung (1) gegeben, sondern mittels einer tatsächli­ chen Messung, so dass ein genauer Verschiebungsbetrag angegeben werden kann, wenn eine Abweichung der tatsächlichen Schwenkgeschwindigkeit des Schwenkkopfes 10 gegenüber der Schwenkgeschwindigkeit des Schwenkkopfes 10, die von dem Schwenkkopfkontroller 12 erhalten wird, besteht, und des Weiteren, wenn eine Abwei­ chung der Brennweite der Linseneinrichtung 44 gegenüber der Steuerspannung auftritt. Tatsächlich wird angenommen, dass es eine Abweichung der Schwenkgeschwindigkeit oder der Brennweite aufgrund unterschiedlicher Umgebungsbedingungen oder Eigen­ schaften einzelner Produkte gibt, und daher ist ein derartiges Verfahren zum Ermitteln des Verschiebungsbetrags sehr wirkungsvoll für eine genauere Nachführung. Ein derar­ tiges Verfahren zum Bestimmen des Verschiebungsbetrags mittels einer tatsächlichen Messung kann zur Ausführung des Nachführvorganges vor dem Beginn des Nachfüh­ rens vorgesehen werden. Das heißt, beim Festlegen des Vergleichsbildbereichs im Schritt S20 sowie im Schritt S36 in dem Flussdiagramm in Fig. 3 wird die Abarbeitung der zuvor beschriebenen Schritte S112 bis 132 ausgeführt und der optimale Verschie­ bungsbetrag wird durch eine tatsächliche Messung ermittelt. Des Weiteren kann der Vergleichsbildbereich ferner auf der Grundlage dieses Verschiebungsbereichs festgelegt werden. Da in diesem Falle der Verschiebungsbetrag nicht ermittelt werden kann, wenn das bewegte Objekt im Hinblick auf den Bildschirm groß ist, kann der Verschiebungsbe­ trag letztlich so vorgesehen sein, dass dieser mittels einer tatsächlichen Messung mit Hinzunahme des Verschiebungsbetrags erhalten werden, der theoretisch aus der oben beschriebenen Gleichung (1) in Fig. 3 ermittelt wird, so dass der Verschiebungsbetrag selbst dann gegeben ist, wenn das bewegte Objekt für den Bildschirm groß ist. Das heißt, zunächst wird der Verschiebungsbetrag mit der oben genannten Gleichung (1) berechnet und mit diesem Verschiebungsbetrag als Referenz wird der Verschiebungs­ betrag schrittweise vergrößert/verkleinert, so dass der Vergleichsbildbereich festgelegt ist und gleichzeitig wird basierend auf dem Vergleichsbildbereich das Differenzbild ermit­ telt, so dass die Fläche des bewegten Objekts zu berechnen ist. Wenn die Fläche klei­ ner ist als der durch die zuvor genannte Gleichung (1) berechnete Verschiebungsbetrag und ein Verschiebungsbetrag detektiert wird, der zum ersten Mal minimal wird, wird die­ ser Verschiebungsbetrag als ein optimaler Verschiebungsbetrag angenommen und der Vergleichsbildbereich wird auf der Grundlage dieses Verschiebungsbetrages festgelegt.
Als nächstes wird die Bearbeitungssequenz beschrieben, um zu verhindern, dass das bewegte Objekt aus dem Bildschirmbereich wandert, wenn die Bewegungsgeschwindig­ keit des bewegten Objekts auf dem Bildschirm groß ist. Es wird angenommen, dass das bewegte Objekt sich lediglich in der Schwenkrichtung bewegt, und die Bewegung, die eine Bewegung des bewegten Objekts in der Neigungsrichtung mit sich bringt, wird glei­ chermaßen wie in der folgenden Bearbeitungssequenz ausgeführt. Wie in dem Fluss­ diagramm aus Fig. 3 gezeigt ist, wird angenommen, dass ein Vergleich (Ermittlung von Differenzbildern) des Bildes #1 mit dem Bild #3 sowie des Bildes #1 mit dem Bild #2, die in den Bildspeicher 50 eingelesen sind, bewirkt, dass die Bilder M1, M2 und M3 des be­ wegten Objekts auf dem Bildschirm des Bildes #1 innerhalb des Aufnahmebereiches L herausgelöst werden, wie dies in Fig. 15 gezeigt ist, und der Schwerpunkt 1-3 und der Schwerpunkt 1-2 werden erhalten. Wenn die Bewegungsgeschwindigkeit des bewegten Objekts auf dem Bildschirm groß ist, d. h. der Betrag der Bewegung des bewegten Ob­ jekts ausgedrückt durch (Schwerpunkt 1-3) - (Schwerpunkt 1-2) ist groß, könnte das bewegte Objekt aus dem Bildschirm (Aufnahmebereich L) herauslaufen, wie dies im Bild M4 in der oben genannten Zeichnung dargestellt ist, während die Bearbeitungssequenz etwa die Berechnung des Schwerpunkts und dergleichen andauert, und die nachfolgen­ de Detektion des bewegten Objekts ist unter Umständen nicht mehr ausführbar.
Um eine derartige Situation zu vermeiden, ist es angebracht, dass das Zoomen der Lin­ seneinrichtung 44 der Kamera 40 gesteuert wird und der Aufnahmebereich (Bildwinkel) angesteuert wird, um sich automatisch gegenüber dem Aufnahmebereich L des Bildes #1 aufzuweiten, um das Bild M4 des bewegten Objekts in dem Aufnahmebereich L' in Fig. 15 zu umschließen. Unter dieser Bedingung sagt, wenn eine derartige Steuerung ausgeführt wird, zunächst die CPU 54 die Bewegung des bewegten Objekts auf der Grundlage der Koordinaten des Schwerpunkts 1-3 und des Schwerpunkts 1-2 vorher und beurteilt die Wahrscheinlichkeit, ob sich das bewegte Objekt aus dem Bildschirm herausbewegt. Als Beispiel eines einfachen Verfahrens wird der Bewegungsbetrag ((Schwerpunkt 1-3) - (Schwerpunkt 1-2)) des bewegten Objekts auf dem Bildschirm be­ rechnet, und wenn bestimmt wird, dass dieser Bewegungsbetrag größer als ein vorbe­ stimmter Wert ist, wird entschieden, dass das bewegte Objekt mit hoher Wahrschein­ lichkeit den Bildschirm verlässt. Die Bestimmung wird jedoch nicht immer im Hinblick auf den Bewegungsbetrag des bewegten Objekts durchgeführt, sondern die Positionen des Schwerpunkts 1-3 oder des Schwerpunkts 1-2 können berücksichtigt werden. Des Wei­ teren kann die Bestimmung durch ein weiteres Verfahren durchgeführt werden. Wenn ferner bestimmt wird, dass sich das bewegte Objekt wahrscheinlich aus dem Bildschirm herausbewegt, wird ein Befehlssignal an den Schwenkkopfkontroller 12 übermittelt, um eine Änderung einer vorbestimmten Brennweite anzuweisen, um durch Zoomen der Linseneinrichtung 44 die vorbestimmte Brennweite um einen vorbestimmten Betrag in Richtung der Weitbereichsseite zu ändern. Dies liefert das Steuersignal für das Zoomen an die Linseneinrichtung 44 von dem Schwenkkopfkontroller 12, und die Brennweite der Linseneinrichtung 44 wird auf die Brennweite geändert, der von der CPU 54 angewiesen wird, und der Aufnahmebereich der Kamera 40 wird vergrößert.
Andererseits wird eine Zoomsteuerung lediglich zur Vergrößerung des Aufnahmebe­ reichs (Bildwinkel) zur Ausführung des Nachführens sehr wahrscheinlich unter der Be­ dingung ausgeführt, dass das Bild des bewegten Objekts auf dem Bildschirm nicht not­ wendigerweise klein wird und daher ist es angebracht, dass das Zoomen der Linsenein­ richtung 44 in geeigneter Weise gesteuert wird, so dass der Aufnahmebereich (Bildwin­ kel) automatisch reduziert wird (Bewegen des Zooms in Richtung der Teleobjektivseite). Daher führen bei einer derartigen Steuerung der Bildverarbeitungsprozessor 52 sowie die CPU 54 eine Bearbeitungssequenz aus, die mittels einer erläuternden Ansicht in Fig. 16 und einem Flussdiagramm in Fig. 17 wie folgt beschrieben wird. Wenn jedoch, wie zuvor beschrieben ist, die Wahrscheinlichkeit besteht, dass das bewegte Objekt sich aus dem Bildschirm herausbewegt, sollte die folgende Bearbeitungssequenz zur Redu­ zierung des Aufnahmebereichs nicht ausgeführt werden.
Zunächst wird in dem Prozessablauf des Flussdiagramms in der oben beschriebenen Fig. 3 das Differenzbild auf der Basis des Bildes, das zwei beliebige Bildbereiche des Bildes #1 und des Bildes #3 oder des Bildes #1 und des Bildes #2 ausfüllt bzw. bedeckt, ermittelt, und wenn das Bild des bewegten Objekts extrahiert ist, wird der Bereich des Bildes dieses bewegten Objekts innerhalb des Bildschirms erfasst. Beispielsweise wird in dem Differenzbild des Bildes #1 und des Bildes #3 angenommen, dass das Bild des bewegten Objekts in der in Fig. 16(A) dargestellten Weise herausgelöst worden ist. Der Bildverarbeitungsprozessor 52 zählt die Anzahl der Pixel mit Pixelwert gleich 1 (Pixelda­ ten, die nicht 0 sind) für jede horizontale Linie bzw. Zeile in diesem Differenzbild. Jede horizontale Zeile wird mit Koordinatenwerten in der senkrechten bzw. vertikalen Rich­ tung ausgedrückt (siehe dazu auf Fig. 6), die aus 1 bis Y (Y beträgt beispielsweise 240) besteht, wobei 1 dem oberen Ende des Bildschirms zugeordnet ist. Dies ergibt die Pro­ jektionsverteilung in der vertikalen Richtung des bewegten Objekts, wie in Fig. 16(B) dargestellt ist. Wie im Flussdiagramm in Fig. 17 gezeigt ist, ermittelt die CPU 54 den Koordinatenwert a des oberen Endes der bewegten Objekts und den Koordinatenwert b des unteren Endes aus der Projektionsverteilung in der vertikalen Richtung des beweg­ ten Objekts (Schritt S150). Anschließend wird die Länge c in der vertikalen Richtung des bewegten Objekts aus dem Koordinatenwert a und dem Koordinatenwert b mit c = b - a berechnet (Schritt S152). Des Weiteren wird für diese Länge c bestimmt, ob diese klei­ ner als die Hälfte der Länge des Bildschirms in der vertikalen Richtung ist (in diesem Falle 240), d. h., es wird bestimmt, ob c < 240/2 ist (Schritt S154). Wenn dies nicht der Fall ist, wird die Verarbeitungssequenz zur Reduzierung des Aufnahmebereichs nicht ausgeführt, wobei angenommen wird, dass das Bild des bewegten Objekts ausreichend groß auf dem Bildschirm dargestellt ist. Wenn andererseits ein JA bestimmt wird, wird angenommen, dass das Bild des bewegten Objekts klein auf dem Bildschirm ist und es wird zunächst d = 240/2/c = 120/c berechnet. d ist ein Wert, der anzeigt, wie oft das Bild des bewegten Objekts mit der Länge c multipliziert werden sollte, um die halbe Länge des Bildschirms zu erreichen. Anschließend multipliziert die CPU 54 die momentan fest­ gelegte Brennweite mit dem Wert d (Schritt S158) und verwendet diesen Wert als die neue Brennweite. Mit d < 1 ist der Wert der neuen Brennweite größer als der Wert der anfänglichen Brennweite, und mittels dieser neuen Brennweite wird der Aufnahmebe­ reich reduziert. Des Weiteren übermittelt die CPU 54 des Befehlssignal an den Schwenkkopfkontroller 12, um die Änderung auf diese neue Brennweite anzuweisen. Dies ergibt das Kontrollsignal für das Zoomen von dem Schwenkkopfkontroller 12 an die Linseneinrichtung 44 und die Brennweite der Linseneinrichtung 44 wird auf die Brenn­ weite geändert, der von der CPU 54 angewiesen ist und der Aufnahmebereich der Ka­ mera 40 wird verringert (Schritt S160). Somit wird das Bild des bewegten Objekts auf dem Bildschirm vergrößert.
Das Verfahren zum Erhalten der Koordinatenwert a und b in dem zuvor genannten Schritt S150 kann ein anderes als das zuvor beschriebene auf der Projektionsverteilung in der vertikalen Richtung basierende Verfahren sein.
Es wird nun die zweite Ausführungsform für den Prozessablauf für den Bildverarbei­ tungsprozessor 52 und die CPU 54 der Bildverarbeitungseinrichtung 14 basierend auf dem Flussdiagramm in Fig. 18 beschrieben. Für das Flussdiagramm in Fig. 18 sowie die entsprechende Beschreibung wird im Wesentlichen der Prozessablauf beschrieben, der sich auf die Bewegung in der Schwenkrichtung des Schwenkkopfes 10 bezieht, diese kann jedoch ebenso für die Bewegung in der Neigungsrichtung entsprechend zu dem Prozessablauf in der Schwenkrichtung angewendet werden.
Zunächst legt die CPU 54 den Parameter Geschwindigkeitsmarke, der für die später beschriebene Beurteilung verwendet wird, auf 0 (Schritt S210). Andererseits übernimmt der Bildverarbeitungsprozessor 52 die Bilddaten (dieses Bild wird als Bild #1 betrachtet) für einen Bildbereich, die von dem Kamerahauptkörper 42 der Kamera 40 über die Y/C- Separierschaltung 46 und den A/D-Wandler 48 erhalten werden, in den Bildspeicher 50 (Schritt S212).
Anschließend beurteilt der Bildverarbeitungsprozessor 52, ob die Zeit für vier Felder (1/59.94 Sekunden pro Feld) verstrichen ist, mittels des Synchronisiersignals, das von der Y/C-Separierschaltung 46 ausgegeben wird (Schritt S214), und wenn die Zeit für vier Felder verstrichen ist, liest er die Bilddaten (dieses Bild wird als das Bild #2 betrach­ tet) für einen Bildbereich in den Bildspeicher 50 ein, ähnlich wie im Falle des Bildes #1 (Schritt S216).
Ferner beurteilt der Bildverarbeitungsprozessor 52, ob die Zeit für vier Felder (1/59.94 Sekunden pro Feld) verstrichen ist, mittels des von der Y/C-Separierschaltung 46 aus­ gegebenen Synchronisiersignals (Schritt S218), und wenn die Zeit für vier Felder ver­ strichen ist, liest er diese Bilddaten (dieses Bild wird als das Bild #3 betrachtet) für einen Bildbereich in den Bildspeicher 50 ein, wie im Falle des Bildes #1 und des Bildes #2 (Schritt S220).
Wie zuvor beschrieben ist, wenn die Bilddaten für diese drei Bildbereiche in dem Bild­ speicher 50 gespeichert werden, erhöht die CPU 54 den Wert der zuvor genannten Ge­ schwindigkeitsmarke um 1 (Schritt S222). Des Weiteren liest sie die Brennweite (Bild­ winkel) der Kamera 40 (Linseneinrichtung 44) sowie die Bewegungsgeschwindigkeit des Schwenkkopfes 10 von dem Schwenkkopfkontroller 12 ein, und basierend darauf wer­ den der Vergleichsbereich (Vergleichsbildbereich) des Bildes #1 und des Bildes #3 fest­ gelegt und der Vergleichsbildbereich davon wird dem Bildverarbeitungsprozessor 52 zugeordnet (Schritt S224). Die Daten hinsichtlich der Bewegungsgeschwindigkeit, die zum Festlegen des Vergleichsbildbereichs verwendet werden, müssen nicht von dem Schwenkkopfkontroller 12 eingelesen werden, sondern können die Daten der Bewe­ gungsgeschwindigkeit sein, die die CPU 54 dem Schwenkkopfkontroller 12 als Befehl übermittelt hat, wie dies nachfolgend beschrieben wird.
Wenn der Vergleichsbildbereich in der oben beschriebenen Weise von der CPU 54 fest­ gelegt ist, und dieser Vergleichsbildbereich dem Bildverarbeitungsprozessor 52 zuge­ wiesen ist, extrahiert anschließend der Bildverarbeitungsprozessor 52 das Bild innerhalb des Vergleichsbildbereichs jeweils aus dem Bild #1 und dem Bild #3, so dass das Diffe­ renzbild des Bildes #1 und des Bildes #3 durch dieses extrahierte Bild gegeben ist (Schritt S226). Das heißt, aus den Bilddaten innerhalb des Vergleichsbildbereichs des Bildes #1 und des Bildes #3 wird die Differenz der Pixelwerte der Pixel in den entspre­ chenden Positionen (Pixel, die an der gleichen Stelle in dem Vergleichsbildbereich vor­ handen sind) ermittelt und daraus ergibt sich der Absolutwert (|#1 - #3|). Dies bewirkt, dass nur Bilder des bewegten Objekts ähnlich wie in den zuvor beschriebenen Fig. 5 und 8 herausgelöst werden, und dieses bewegte Objekte wird als das Objekt erkannt, dem zu folgen ist.
Anschließend codiert der Bildverarbeitungsprozessor 52 die Bilddaten jedes Pixels des Differenzbildes, die aus dem Schritt S226 ermittelt sind, in binärer Weise (Schritt S228). Dieser Verarbeitungsschritt ergibt idealerweise eine 1 als Pixelwert für das Bild des be­ wegten Objekts und eine 0 in allen anderen Fällen. Ferner wird das binär codierte Diffe­ renzbild einer Reduzierbearbeitung unterzogen, so dass ein Untergrundrauschen ent­ fernt wird (Schritt S230). Das durch binäre Codierung und den Reduziervorgang bear­ beitete Differenzbild wird im Weiteren lediglich als Differenzbild bezeichnet.
Anschließend ermittelt der Bildverarbeitungsprozessor 52 die Gesamtzahl der Pixel mit einer 1, die den Pixelwert des Differenzbildes repräsentieren, um die Fläche des Ge­ samtbildes des bewegten Objekts (die im Weiteren lediglich als die Fläche bzw. der Be­ reich des bewegten Objekts bezeichnet wird) zu bestimmen (Schritt S232). Die Beispiele in Fig. 5 und Fig. 8 zeigen die Fläche bzw. den Bereich zweier Kreise, die Bilder vor und nach der Bewegung des bewegten Objekts kennzeichnen. Ferner wird die erhaltene Fläche der CPU 54 mitgeteilt.
Die CPU 54 liest die Fläche des bewegten Objekts aus dem Bildverarbeitungsprozessor 52 ein, um zu beurteilen, ob diese Fläche größer als ein vorbestimmter Schwellwert ist oder nicht (Schritt S234). Wenn dies nicht der Fall ist, ist das bewegte Objekt kein Ob­ jekt, dem zu folgen ist, und insbesondere wird ein NEIN bestimmt, wenn die Bewe­ gungsgeschwindigkeit des bewegten Objekts gering ist. Selbst wenn die momentane Bewegungsgeschwindigkeit groß ist, wird dies als eine Situation beurteilt, in der die Be­ wegungsgeschwindigkeit des Objekts gering ist, wenn eine durchschnittliche Bewe­ gungsgeschwindigkeit während einer gewissen Zeitdauer gering ist. Dabei geht der Be­ arbeitungsablauf zu dem zuvor beschriebenen Schritt S220 zurück, so dass die Bearbei­ tungssequenz beim Einlesen des Bildes #3 im Schritt S234 wiederholt wird. Dabei wird der Wert der Geschwindigkeitsmarke um 1 im Schritt S222 erhöht. Wenn daher die Be­ arbeitungssequenz vom Schritt S210 nur einmal im Schritt S234 ein NEIN ergibt, d. h. wenn die Bewegungsgeschwindigkeit des bewegten Objekts gering ist, ist der Wert der Geschwindigkeitsmarke zumindest nicht kleiner als 2, und wenn das Bestimmen zum ersten Mal ein JA ergibt, d. h., wenn die Bewegungsgeschwindigkeit des bewegten Ob­ jekts hoch ist, wird der Wert der Geschwindigkeitsmarke zu 1.
Im Falle eines JA im Schritt S234, d. h. wenn aus dem Differenzbild detektiert wird, dass das bewegte Objekt ein Objekt ist, dem zu folgen ist, ermittelt der Bildverarbeitungspro­ zessor 52 anschließend das Hauptmoment über das gesamte Bild des bewegten Ob­ jekts aus dem Differenzbild (Schritt S236), und das Hauptmoment wird durch die Fläche des bewegten Objekts geteilt, so dass der Schwerpunkt des bewegten Objekts ermittelt wird (Schritt S238). Hierbei wird der Schwerpunkt des bewegten Objekts beispielsweise mit den Koordinaten auf dem Bildschirm des Bildes #3 ausgedrückt, und die Koordinate des Schwerpunkts wird an die CPU weitergegeben. Der Schwerpunkt des bewegten Objekts, der aus dem Bild #1 und dem Bild #3 ermittelt ist, wird im Weiteren als der Schwerpunkt 1-3 bezeichnet.
Anschließend beurteilt die CPU 54, ob die zuvor beschriebene Geschwindigkeitsmarke gleich 1 ist (Schritt S240). Wie zuvor beschrieben wurde, wird dabei ein JA ermittelt, wenn die Bewegungsgeschwindigkeit des bewegten Objekts groß ist und damit die Ge­ schwindigkeitsmarke gleich 1 ist, und wenn die Bewegungsgeschwindigkeit des beweg­ ten Objekts gering ist, ist die Geschwindigkeitsmarke zumindest nicht 1 und es wird ein NEIN ermittelt. Wenn ein NEIN bestimmt wurde, wird der Schwenkkopf 10 unter Berück­ sichtigung der später beschriebenen Totzone gesteuert, und im Falle eines JA wird der Schwenkkopf 10 ohne Berücksichtigung der Totzone angesteuert.
Zunächst sei der Fall eines JA im Schritt S240 beschrieben, d. h. die Bewegungsge­ schwindigkeit des bewegten Objekts ist als schnell ermittelt worden, in diesem Falle legt die CPU 54, die den Vergleichsbereich (Vergleichsbildbereich) des Bildes #1 und des Bildes #3 in dem zuvor genannten Schritt S224 festgelegt hat, in ähnlicher Weise den Vergleichsbereich (Vergleichsbildbereich) des Bildes #1 und des Bildes #2 auf der Grundlage der Brennweite (Bildwinkel) der Kamera 40 (Linseneinrichtung 44) sowie der Bewegungsgeschwindigkeit des Schwenkkopfes 10 fest, und dieser Vergleichsbereich wird dem Bildverarbeitungsprozessor 52 zugewiesen (Schritt S242). Des Weiteren er­ mitteln der Bildverarbeitungsprozessor 52 sowie die CPU 54, die den Schwerpunkt des bewegten Objekts aus dem Bild #1 und dem Bild #3 in den zuvor genannten Schritten S226 bis S238 (ohne S234) ermittelt haben, in ähnlicher Weise den Schwerpunkt des bewegten Objekts aus dem Bild #1 und dem Bild #2 (Schritt S244 bis Schritt S254). Der durch das Bild #1 und das Bild #2 gegebene Schwerpunkt des bewegten Objekts wird im Weiteren als der Schwerpunkt 1-2 bezeichnet.
Fig. 11 zeigt die Beziehung zwischen dem Objekt und den entsprechenden Aufnahme­ bereichen des Bildes #1, des Bildes #2 und des Bildes #3 im Falle, wenn beispielsweise der Schwenkkopf 10 sich nach rechts bewegt (wenn der Aufnahmebereich nach rechts bewegt wird), und die Verschiebungsbeträge für die Verschiebung 1 und Verschiebung 2 der Aufnahmebereiche jeweils des Bildes #2 und des Bildes #3 gegenüber dem Auf­ nahmebereich des Bildes #1 werden jeweils aus der oben beschriebenen Gleichung (1) berechnet. Dabei wird die Schwenkgeschwindigkeit des Schwenkkopfes 10 während des Einlesens des Bildes #1 und des Bildes #3 als annähend konstant betrachtet, und wenn ein JA in dem zuvor genannten Schritt S240 bestimmt wird, werden das Bild #1 und das Bild #3 in einem gleichen Intervall aufgenommen und daher beträgt der Ver­ schiebungsbetrag der Verschiebung 1 die Hälfte des Verschiebungsbetrags der Ver­ schiebung 2. Ferner bewirkt, wie oben beschrieben ist, ein Vergleich (Ermittlung der Differenzbilder) des Bildes #1 mit dem Bild #3 sowie des Bildes #1 mit dem Bild #2, dass die Bilder M1, M2 und M3 des bewegten Objekts auf dem Bildschirm des Bildes #3 her­ ausgelöst werden, wie dies in Fig. 12 gezeigt ist. Ein Vergleich des Bildes #1 mit dem Bild #3 bewirkt, dass das Bild M1 und das Bild M3 extrahiert werden, während ein Ver­ gleich des Bildes #1 mit dem Bild #2 bewirkt, dass das Bild M1 und das Bild M2 extra­ hiert werden. Mit den somit extrahierten Bildern des bewegten Objekts wird der Schwer­ punkt 1-3 sowie der Schwerpunkt 1-2 des zuvor genannten bewegten Objekts als eine Position berechnet, die mit "+" in der Zeichnung auf dem Bildschirm des Bildes #3 gekennzeichnet ist.
Wenn der Schwerpunkt 1-3 sowie der Schwerpunkt 1-2 in der oben beschriebenen Weise ermittelt sind, bestimmt die CPU 54 die Differenz zwischen dem Schwerpunkt 1-3 und dem Schwerpunkt 1-2, d. h. (Schwerpunkt 1-3) - (Schwerpunkt 1-2) (Schritt S256), und darauf basierend wird die Bewegungsgeschwindigkeit des bewegten Objekts berechnet (Schritt S258).
Hierbei bewegt sich das bewegte Objekt über eine Entfernung von dem Bild M1 zu dem Bild M3 des bewegten Objekts, d. h. über die vierfache Entfernung von (Schwerpunkt 1-3) - (Schwerpunkt 1-2) auf dem Bildschirm, wie in Fig. 12 gezeigt, während der abge­ laufenen Zeit T (verstrichene Zeit zum Füllen von acht Feldern = (1159.94) × 8) von dem Zeitpunkt an, wenn das Bild #1 aufgenommen wird (Aufnahmezeit) zu dem Zeitpunkt, wenn das Bild #3 aufgenommen wird (Aufnahmezeit), und daher ist die Bewegungsge­ schwindigkeit v (Einheit: Pixel/Sekunde) in der Schwenkrichtung des bewegten Objekts auf dem Bildschirm mit ΔL als (Schwerpunkt 1-3) - (Schwerpunkt 1-2) gegeben durch die folgende Gleichung (2):
V = ΔL × 4/T (2).
Ferner ist mit R (Einheit: Pixel) als Auflösung (horizontale Auflösung) des Bildes und mit A (Einheit: Grad) als Aufnahmebildwinkel (horizontaler Bildwinkel) die Bewegungsge­ schwindigkeit V (Einheit: Grad/Sekunde) in der Schwenkrichtung des bewegten Objekts im tatsächlichen Raumbereich gegeben durch die folgende Gleichung (3):
V = v × A/R (3).
Wenn die Bewegungsgeschwindigkeit in der Neigungsrichtung des bewegten Objekts berechnet wird, ist die Auflösung R die senkrechte bzw. vertikale Auflösung und der Aufnahmebildwinkel A ist ein senkrechter bzw. vertikaler Bildwinkel, der den Winkelbe­ reich in der vertikalen Richtung kennzeichnet.
Die CPU 54 berechnet die Bewegungsgeschwindigkeit V des bewegten Objekts in der oben beschriebenen Weise, um dem Schwenkkopfkontroller 12 ein Befehlssignal zu ermitteln, das die Bewegung in der Schwenkrichtung des Schwenkkopfes 10 mit dieser Bewegungsgeschwindigkeit V anordnet (Schritt S260). Dies führt zu einer Steuerung der Schwenkgeschwindigkeit des Schwenkkopfes 10 mittels des Schwenkkopfkontrollers 12. Ferner beurteilt die CPU 54, ob die momentane Bewegungsgeschwindigkeit (Schwenkgeschwindigkeit) des Schwenkkopfes 10, die von dem Schwenkkopfkontroller 12 ausgegeben wird, die Schwenkgeschwindigkeit erreicht hat, die von 30612 00070 552 001000280000000200012000285913050100040 0002010152883 00004 30493der zuvor ge­ nannten CPU 54 angewiesen worden ist (Schritt S262), und wenn dies der Fall ist, geht der Bearbeitungsablauf zu dem zuvor beschriebenen Schritt S210 zurück, so dass die oben beschriebene Verarbeitungssequenz wiederholt wird.
Nunmehr wird die Beschreibung für den Fall eines NEIN in dem zuvor beschriebenen Schritt S240 angeführt, d. h., wenn die Bewegungsgeschwindigkeit des bewegten Ob­ jekts als langsam bestimmt wird; dabei beurteilt die CPU 54, ob die Koordinate des Schwerpunkts 1-3 des bewegten Objekts, die in dem zuvor beschriebenen Schritt S238 ermittelt wird, im Bereich der Totzone liegt, die auf dem Bildschirm des Bildes #3 festge­ legt ist (Schritt S264). Die Totzone ist so festgelegt, dass diese eine vorbestimmte Breite im zentralen Teil des Bildschirms aufweist, wie dies im schraffierten Bereich P in Fig. 19 gezeigt ist. Im Punkt a in Fig. 19, wenn der Schwerpunkt 1-3 im Bereich P der Totzone liegt, wird im Schritts 264 ein JA bestimmt, während im Punkt b in Fig. 19, wenn der Schwerpunkt 1-3 außerhalb des Bereichs P der Totzone liegt, im Schritts 264 ein NEIN bestimmt wird. Der Bereich P der in Fig. 19 gezeigten Totzone zeigt den Bildschirm in der horizontalen Richtung; die Totzone in der vertikalen Richtung kann in ähnlicher Wei­ se auf eine vorbestimmte Breite in der vertikalen Richtung im mittleren Bereich des Bild­ schirms festgelegt werden. Ferner ist der Bereich der Totzone nicht auf den in Fig. 19 gezeigten Fall beschränkt, sondern dessen Breite kann beispielsweise entsprechend der Lage des Schwerpunkts 1-3, der in der vorhergehenden Zeitdauer ermittelt wurde, ge­ ändert werden und die Breite der Totzone kann vergrößert werden, so dass der Schwerpunkt 1-3 in die Mitte des Bildschirms fällt, wie in Fig. 20 dargestellt ist.
Wenn in dem oben beschriebenen Schritt S264 ein NEIN ermittelt wird, d. h., wenn der Schwerpunkt 1-3 als außerhalb der Totzone liegend bestimmt wird, setzt die CPU 54 eine vorbestimmte Schwenkgeschwindigkeit (Schritt S266) fest, und übermittelt diese Schwenkgeschwindigkeit und den Koordinatenwert des Schwerpunkts 1-3 an dem Schwenkkopfkontroller 12. Der Schwenkkopfkontroller 12 ermittelt die Schwenkposition des Schwenkkopfes 12 auf der Grundlage der momentanen Schwenk/Neigungsposition des Schwenkkopfes 12 sowie der Brennweite der Linseneinrichtung 44, so dass der Schwerpunkt 1-3, der von der CPU 54 ermittelt ist, in der Mitte des Bildschirms liegt, und übermittelt das Schwenkkontrollsignal an den Schwenkkopf 10 und bewegt dabei den Schwenkkopf 10 zu dieser Schwenkposition mit der Schwenkgeschwindigkeit, die von der CPU 54 ermittelt wird (Schritt S268). Die CPU 54 beurteilt anhand des Signals von dem Schwenkkopfkontroller 12, ob der Schwenkkopf 10 anhält (Schritt S270), und wenn der Schwenkkopf 10 anhält, kehrt der Prozessablauf zu dem zuvor beschriebenen Schritt S210 zurück, so dass die oben beschriebene Bearbeitungssequenz wiederholt wird.
Wenn andererseits im Schritt S264 ein JA bestimmt wird, d. h., wenn der Schwerpunkt 1-3 als innerhalb des Bereichs der Totzone liegend bestimmt wird, wird der Schwenkkopf 10 nicht bewegt, aber der Prozessablauf kehrt zu dem oben beschriebenen Schritt S210 zurück, so dass die oben beschriebene Bearbeitungssequenz wiederholt wird.
Der oben beschriebene Prozessablauf steuert den Schwenkkopf 10 (Steuerung in der Aufnahmerichtung der Kamera 40) unter Berücksichtigung der Totzone, wenn die Be­ wegungsgeschwindigkeit des bewegten Objekts gering ist, so dass ein Schwingen auf dem Bildschirm, das die Bilddarstellung beeinträchtigen könnte, vermieden wird. Ande­ rerseits wird der Schwenkkopf 10 ohne Berücksichtigung der Totzone gesteuert, wenn die Bewegungsgeschwindigkeit des bewegten Objekts hoch ist, und die Unannehmlich­ keit, dass das bewegte Objekt sich aus dem Bildschirm bei Ansteuerung des Schwenk­ kopfes 10 unter Berücksichtigung der Totzone tritt nicht auf.
Wenn in dem oben beschriebenen Prozessablauf die Bewegungsgeschwindigkeit des bewegten Objekts erfasst wird, wurden das Bild #1 und das Bild #3, die drei Bildberei­ che bedecken bzw. ausfüllen, aufgenommen, so dass ein Vergleich des Bildes #1 mit dem Bild #3 sowie des Bildes #1 mit dem Bild #2 zwei Schwerpunkte, nämlich den Schwerpunkt 1-3 und den Schwerpunkt 1-2, ergeben, aber ohne Einschränkung dar­ auf kann ein Vergleich des Bildes #1 mit dem Bild #2 sowie ein Vergleich des Bildes #2 mit dem Bild #3 zwei Schwerpunkte ergeben, so dass die Bewegungsgeschwindigkeit des bewegten Objekts erfasst wird, und ein Vergleich des Bildes #1 mit dem Bild #4, die vier Bildbereiche ausfüllen, kann vorgenommen werden, so dass ein Vergleich an zwei nicht überlappenden Gruppen aus Bildern, die jeweils zwei Bildbereiche ausfüllen, bei­ spielsweise ein Vergleich des Bildes #1 mit dem Bild #2 sowie ein Vergleich des Bildes #3 mit dem Bild #4, ergibt zwei Schwerpunkte, um die Bewegungsgeschwindigkeit des bewegten Objekts zu erfassen.
Ferner ist die Steuerung des Schwenkkopfes, wenn die Bewegungsgeschwindigkeit des bewegten Objekts hoch ist, oder die Steuerung des Schwenkkopfes 10, wenn das be­ wegte Objekt nicht innerhalb des Bereichs der Totzone liegt, wobei die Bewegungsge­ schwindigkeit des bewegten Objekts gering ist, nicht auf die oben beschriebenen Fälle beschränkt. Wenn beispielsweise die Bewegungsgeschwindigkeit des bewegten Objekts hoch ist, ist die Bewegungsgeschwindigkeit des bewegten Objekts aus dem Bild #1 bis zum Bild #3 für drei Bildbereiche gegeben, so dass die Bewegungsgeschwindigkeit des Schwenkkopfes 10 durch diese Bewegungsgeschwindigkeit gesteuert wird, während im Falle, wenn die Bewegungsgeschwindigkeit des bewegten Objekts gering ist, der Schwerpunkt des bewegten Objekts aus den Bildern für zwei Bildbereiche ermittelt wer­ den kann und der Schwenkkopf 10 kann so gesteuert werden, dass der Schwerpunkt in der Mittel des Bildschirms liegt.
Basierend auf dem Flussdiagramm in Fig. 21 wird nun die dritte Ausführungsform der Bearbeitungssequenz des Bildverarbeitungsprozessors 52 sowie der CPU 54 der Bild­ verarbeitungseinrichtung 14 beschrieben. In dem Flussdiagramm in Fig. 21 sowie der entsprechenden Beschreibung wird im Wesentlichen die Bearbeitungssequenz be­ schrieben, die sich auf die Bewegung in der Schwenkrichtung des Schwenkkopfes 10 bezieht, aber eine ähnliche Bearbeitungssequenz ist für die Bewegung in der Neigungs­ richtung anwendbar.
Im Flussdiagramm aus Fig. 21 ist die Bearbeitungssequenz vom Schritt S310 bis zum Schritt S324 vollständig identisch zu dem Prozessablauf vom Schritt S10 bis Schritt S48 des Flussdiagramms der in Fig. 3 gezeigten ersten Ausführungsform und daher wird die Beschreibung davon weggelassen.
Die Position des Schwerpunkts 1-3 sowie des Schwerpunkts 1-2 auf dem Bildschirm wird in der Bearbeitungssequenz bis zum Schritt S348 ermittelt, so dass die CPU 54 die nachfolgende Bearbeitung auf der Grundlage darauf auswählt, ob sich das bewegte Ob­ jekt in Richtung des Mittelpunkts des Bildschirms bewegt oder nicht. Hierbei zeigen Muster (A) bis (D) in Fig. 22 die Lagebeziehung des Schwerpunkts 1-2 und des Schwerpunkts 1-3 hinsichtlich des Bildschirmmittelpunkts des Bildes #3, und auf Bild­ schirmen der entsprechenden Muster (A) bis (D) bezeichnet die durch den Koordina­ tenwert (A) gekennzeichnete Position die Mitte des Bildschirms in der horizontalen Rich­ tung, "+" bezeichnet die Position des Schwerpunkts 1-2 oder des Schwerpunkts 1-3 und ein Pfeil "→" oder "←" kennzeichnet die Richtung des Schwerpunkts 1-3 gegen­ über dem Schwerpunkt 1-2 und die Bewegungsrichtung des Schwerpunkts, d. h. die Bewegungsrichtung des bewegten Objekts. Wie in diesen Mustern (A) bis (D) gezeigt ist, wird die Lagebeziehung des Schwerpunkts 1-2 und des Schwerpunkts 1-3, die in dem oben genannten Schritt S334 sowie im Schritt S348 ermittelt werden, in Bezug auf den Bildschirmmittelpunkt in den Fall eingestuft, dass diese auf der rechten Seite des Bildschirms (das Muster (A) sowie das Muster (D)) und in den Fall, dass diese auf der linken Seite (das Muster (C) und das Muster (D)) liegen, und es wird ebenso eine Ein­ stufung vorgenommen, dass die Bewegungsrichtung des Schwerpunkts zum Rand des Bildschirms weist (das Muster (A) und das Muster (C)), und in den Fall, in dem dieser in Richtung des Bildschirmmittelpunkts zeigt (das Muster (B) und das Muster (D)). Der Fall, in dem sich der Schwerpunkt 1-2 und der Schwerpunkt 1-3 über beide Seiten des Mittelpunktkoordinatenwerts A erstrecken soll unter das Muster (B) oder das Muster (D) eingestuft werden, wobei der Schwerpunkt 1-2 und der Schwerpunkt 1-3 gleichzeitig in der Seite vorhanden sind, in der der Schwerpunkt 1-2 dem Mittelpunktkoordinaten­ wert A zugewandt ist.
Durch die Bestimmungssequenz im Schritt S350 bis Schritt S354 in Fig. 21 klassifiziert die CPU 54 zunächst, zu welchem Muster die Lagebeziehung des Schwerpunkts 1-2 und des Schwerpunkts 1-3, die in dem oben beschriebenen Schritt S334 sowie im Schritt S348 ermittelt wurden, gehört. Dabei wird im Schritt S350 bestimmt, ob der Ko­ ordinatenwert des Schwerpunkts 1-2, der in dem oben beschriebenen Schritt S348 ermittelt wird, größer ist als der zuvor genannte Mittelpunktkoordinatenwert A (der Schwerpunkt 1-2 < A), d. h. der Schwerpunkt 1-2 ist auf der rechten Seite hinsichtlich des Bildschirmmittelpunkts angeordnet. Diese Sequenz ergibt ein JA, wenn diese zum Muster (A) oder zum Muster (B) gehören und ergibt ein NEIN, wenn diese zu dem Mus­ ter (C) oder dem Muster (D) unter den in Fig. 22 dargestellten Mustern (A) bis (D) gehö­ ren, wie dies in Fig. 23(1) gezeigt ist.
Wenn sich im Schritt S350 ein JA ergibt, wird im anschließenden Schritt S352 beurteilt, ob der Koordinatenwert des Schwerpunkts 1-2 kleiner als der Koordinatenwert des Schwerpunkts 1-3 ist (Schwerpunkt 1-2 < Schwerpunkt 1-3), d. h. die Bewegungs­ richtung des Schwerpunkts zeigt zum Rand des Bildschirms. Diese Bestimmungsse­ quenz ergibt ein JA, wenn das Muster (A) zugrunde liegt, wie dies in Fig. 23(3) gezeigt ist, und ergibt ein NEIN, wenn das Muster (B) zugrunde liegt, wenn die Muster (A) und (B) in Fig. 23(2) zugrunde gelegt werden. Dabei wird beurteilt, zu welchem der Muster (A) oder (B) die Lagebeziehung des Schwerpunkts 1-2 und des Schwerpunkts 1-3, die im oben beschriebenen Schritt S334 und Schritt S348 ermittelt werden, gehört.
Wenn sich andererseits im Schritt S350 ein NEIN ergibt, wird im anschließenden Schritt S354 beurteilt, ob der Koordinatenwert des Schwerpunkts 1-2 größer als der Koordina­ tenwert des Schwerpunkts 1-3 ist (Schwerpunkt 1-2 < Schwerpunkt 1-3), d. h. die Bewegungsrichtung des Schwerpunkts zeigt zum Rand des Bildschirms. Dies ergibt ein JA, wenn dies dem Muster (C) entspricht, wie in Fig. 23(3) gezeigt ist, und ergibt ein NEIN, wenn dies zu dem Muster (D) gehört, wenn die Muster (C) und (D) in Fig. 23(2) zugrunde gelegt werden. Damit wird beurteilt, zu welchem Muster (C) oder (D) die La­ gebeziehung des Schwerpunkts 1-2 und des Schwerpunkts 1-3, die in dem oben be­ schriebenen Schritt S334 und S348 ermittelt werden, gehört.
Wenn in der Bearbeitungssequenz der oben beschriebenen Schritte S350 bis S354 klassifiziert wird, zu welchem Muster die Lagebeziehung des Schwerpunkts 1-2 und des Schwerpunkts 1-3, die in den oben beschriebenen Schritten S334 und S348 ermit­ telt wurden, gehört, führt die CPU 54 die weitere Bearbeitung in Übereinstimmung mit diesem Muster aus. Wenn in dem oben beschriebenen Schritt S352 oder dem oben be­ schriebenen Schritt S354 ein NEIN ermittelt wurde, d. h., wie in Fig. 23(3) gezeigt ist, wenn der Fall des Musters (B) oder des Musters (D) vorliegt, übermittelt zunächst die CPU 54 ein Befehlssignal an den Schwenkkopfkontroller 12, um die Bewegung des Schwenkkopfes 10 in der Schwenkrichtung zu stoppen (die Schwenkgeschwindigkeit wird auf 0 gesetzt). Dies führt zu einem Anhalten der Bewegung des Schwenkkopfes 10 in der Schwenkrichtung (Schritt S356). Der Prozessablauf kehrt zu dem oben beschrie­ benen Schritt S310 zurück. Somit repräsentiert der Fall, in dem die Lagebeziehung des Schwerpunkts 1-2 und des Schwerpunkts 1-3 dem Muster (B) und dem Muster (D) bei Bewegung des Schwenkkopfes 10 in der Schwenkrichtung entspricht, den Fall, in dem die Bewegungsrichtung des Schwerpunkts in Richtung des Bildschirmmittelpunkts bei jedem Muster zeigt, und die Bewegung des Schwenkkopfes 10 wird angehalten, wenn beispielsweise das bewegte Objekt von außerhalb des Bildschirms in den Bildschirmbe­ reich läuft, und wenn ein Objekt, das innerhalb des Bildschirm stillsteht, beginnt, sich in Richtung des Bildschirmmittelpunkts zu bewegen und dergleichen. Wenn sich der Schwenkkopf 10 von Beginn an nicht bewegt hat, wird der Schwenkkopf 10 weiterhin im Zustand des Stillstands gehalten. Es sei angenommen, dass das bewegte Objekt über den Bildschirmmittelpunkt wandert, so das die Lagebeziehung zwischen dem Schwer­ punkt 1-2 und dem Schwerpunkt 1-3 sich von dem Muster (B) oder dem Muster (D) zum Muster (A) oder dem Muster (C) verschiebt, und von diesem Zeitpunkt an beginnt der Schwenkkopf 10 sich zu bewegen entsprechend zu der Bewegungsgeschwindigkeit des bewegten Objekts, wie später beschrieben wird.
Wenn andererseits im oben beschriebenen Schritt S352 oder dem oben beschriebenen Schritt S354 von der CPU 54 ein JA ermittelt wird, d. h. es wird bestimmt, dass das Mus­ ter (A) oder das Muster (C) zugrundeliegt, wie in Fig. 23(3) gezeigt ist, berechnet die CPU 54 die Bewegungsgeschwindigkeit des bewegten Objekts, wie dies nachfolgend beschrieben wird (Schritt S358, Schritt S360 und Schritt S362). Dies ist ein Fall, in dem die Bewegungsrichtungen des Schwerpunkts beider Muster (A) und (C) zum Rand des Bildschirms zeigen und die Bewegungsgeschwindigkeit des Schwenkkopfes 10 wird entsprechend der Bewegungsgeschwindigkeit des bewegten Objekts gesteuert.
Hinsichtlich der Beschreibung für die Berechnung der Bewegungsgeschwindigkeit des bewegten Objekts auf dem Bildschirm gilt: das bewegte Objekt bewegt sich um eine Entfernung von dem Bild M1 bis zum Bild M3 des bewegten Objekts, wie dies in Fig. 12 dargestellt ist, während der abgelaufenen Zeitdauer T (die zur Auffüllung von acht Fel­ dern = (1/59.94) × 8) verstrichen ist, von dem Zeitpunkt an, wenn das Bild #1 eingelesen wird (Aufnahmezeit) zu dem Zeitpunkt, wenn das Bild #3 eingelesen wird (Aufnahme­ zeitpunkt). Diese Bewegungsentfernung ist die vierfache Entfernung von (Schwerpunkt 1-3) - (Schwerpunkt 1-2), wenn die Bewegungsrichtung des Schwerpunkts nach rechts zeigt, wie im Muster (A), und ist die vierfache Entfernung von (Schwerpunkt 1-2)- (Schwerpunkt 1-3), wenn die Bewegungsrichtung des Schwerpunkts nach links zeigt, wie im Muster (C). Wenn daher die CPU 54 im oben beschriebenen Schritt S352 ein JA bestimmt, d. h. wenn das Muster (A) zugrundeliegt, berechnet sie (Schwerpunkt 1-3)- (Schwerpunkt 1-2) im Schritt S358. Wenn andererseits im oben beschriebenen Schritt S354 ein JA ermittelt wird, d. h. es liegt das Muster (C) zugrunde, wird im Schritt S360 berechnet (Schwerpunkt 1-2) - (Schwerpunkt 1-3).
Anschließend wird mit ΔL als der im Schritt S358 oder Schritt S360 berechnete Wert die Bewegungsgeschwindigkeit v (Einheit: Pixel/Sekunde) in der Schwenkrichtung des be­ wegten Objekts auf dem Bildschirm durch die folgende Gleichung (2) ermittelt:
V = ΔL × 4/T (2).
Ferner ist mit R (Einheit: Pixel) als Auflösung (horizontale Auflösung) des Bildes und mit A (Einheit: Grad) als Aufnahmebildwinkel (horizontaler Bildwinkel) die Bewegungsge­ schwindigkeit V (Einheit: Grad/Sekunde) in der Schwenkrichtung des bewegten Objekts im tatsächlichen Raumbereich durch die folgende Gleichung (3) gegeben:
V = v × A/R (3).
Wenn die Bewegungsgeschwindigkeit in der Neigungsrichtung des bewegten Objekts berechnet wird, ist die Auflösung R die vertikale Auflösung und der Aufnahmebildwinkel A ist ein vertikaler Bildwinkel, der den Winkelbereich in der vertikalen Richtung kenn­ zeichnet.
Die CPU 54 berechnet die Bewegungsgeschwindigkeit des bewegten Objekts aus dem Wert von ΔL, der im Schritt S358 oder im Schritt S360 berechnet wurde, mit den oben beschriebenen Gleichungen (2) und (3) (Schritt S362).
Wie zuvor beschrieben ist, wird die Bewegungsgeschwindigkeit V des bewegten Objekts berechnet, so dass ein Befehlssignal, das eine Bewegung in der Schwenkrichtung des Schwenkkopfes 10 mit dieser Bewegungsgeschwindigkeit V anordnet, an den Schwenk­ kopfkontroller 12 übermittelt wird (Schritt S364). Das Befehlssignal umfasst natürlich einen Befehlsinhalt, um die Bewegungsrichtung (Schwenkrichtung links oder rechts) des Schwenkkopfes 10 auf der Grundlage der Bewegungsrichtung des bewegten Objekts anzuordnen. Damit wird die Schwenkgeschwindigkeit des Schwenkkopfes 10 mittels des Schwenkkopfkontrollers 12 gesteuert. Ferner liest die CPU 54 die momentane Bewe­ gungsgeschwindigkeit (Schwenkgeschwindigkeit) des Schwenkkopfes 10 von dem Schwenkkopfkontroller 12 ein, um zu beurteilen, ob diese Bewegungsgeschwindigkeit die Schwenkgeschwindigkeit erreicht hat, die durch die CPU 54 (Schritt S366) angewie­ sen worden ist, und wenn dies der Fall ist, kehrt der Prozessablauf zum oben beschrie­ benen Schritt S310 zurück, so dass die zuvor beschriebene Bearbeitungssequenz wie­ derholt wird.
In der oben beschriebenen Bearbeitungssequenz kennzeichnet soweit der Bildschirm­ mittelpunkt, d. h. der Koordinatenwert A, die Position, an der der Bildschirm in der hori­ zontalen Richtung zu unterteilen ist, um den Schwenkkopf 10 anzuhalten, wenn sich das bewegte Objekt zum Mittelpunkt des Bildschirms hinbewegt; der Bildschirmmittelpunkt muss jedoch nicht die Position sein, an der der Bildschirm vollständig unterteilt ist.
In den oben beschriebenen Ausführungsformen wurden bisher Steuervorgänge zum Nachführen (der Prozessablauf des Bildverarbeitungsprozessors 52 und der CPU 54 etc.) zur Verfolgung eines bewegten Objekts mit einer Kamera detailliert beschrieben, jedoch kann ohne Einschränkung darauf die Steuerung des Nachführens einen beliebi­ gen Aspekt betreffen, und die vorliegende Erfindung kann in ihrem Wesen darauf ange­ wendet werden; d. h. wenn sich das bewegte Objekt in Richtung des Bildschirmmittel­ punkts bewegt, wird die Steuerung so durchgeführt, dass der Schwenkkopf 10 angehal­ ten wird und die Aufnahmerichtung der Kamera sich nicht ändert, und es wird eine Än­ derung der Aufnahmerichtung der Kamera bewirkt, nachdem das bewegte Objekt sich über den Mittelpunkt des Bildschirms hinaus bewegt.
Des Weiteren sind die Steuerfunktionen der oben beschriebenen Ausführungsformen nicht nur auf den Fall anwendbar, in dem der Schwenkkopf 10 sich in der Schwenkrich­ tung und der Neigungsrichtung bewegt, sondern in gleicher Weise auf eine Bewegung in gewissen anderen Richtungen anwendbar (etwa, wenn die Position der Kamera nach oben/nach unten/nach links/nach rechts bewegt wird).
Wie zuvor beschrieben ist, wird gemäß der Nachführvorrichtung entsprechend der vor­ liegenden Erfindung die Bewegungsgeschwindigkeit des bewegten Objekts erfasst und die Bewegungsgeschwindigkeit des Schwenkkopfes wird auf der Grundlage dieser Be­ wegungsgeschwindigkeit gesteuert und damit ist das Verhalten des Nachführvorgangs des Schwenkkopfes hinsichtlich der Bewegung des bewegten Objekts verbessert, so dass es möglich ist, dem bewegten Objekt in definierter Weise zu folgen. Ferner ist der Vergleichsbereich zum Extrahieren des Bildes des bewegten Objekts aus dem von der Kamera aufgenommenen Bild auf der Grundlage der Bewegungsgeschwindigkeit des Schwenkkopfes bestimmt, und damit können kostengünstige Teile zur Bestimmung ver­ wendet werden, im Vergleich zu dem Falle, in dem der Vergleichsbereich auf der Grund­ lage der Position des Schwenkkopfes bestimmt wird, wie dies in der japanischen Pa­ tentoffenlegungsschrift 2000-175101 beschrieben ist. Das heißt, das Zeitintervall zur Aufnahme entsprechender Bilder, die zwei Bildschirme ausfüllen, kann in genauer Wei­ se bestimmt werden, und dieses Zeitintervall ist kurz, und daher können beispielsweise das Auflösungsvermögen sowie die Genauigkeit bei der Geschwindigkeitserfassung zum Detektieren, dass der Aufnahmebereich sich nur um 1 Pixel verschoben hat, gering sein im Vergleich zum Falle der Positionserfassung, und die Verwendung preisgünstige­ re Sensoren sowie eines A/D-Wandlers und dergleichen sind möglich. Des Weiteren ist es möglich, die Bilder für zwei Bildschirme aufzunehmen, während die Bewegungsge­ schwindigkeit des Schwenkkopfes konstant ist, so dass nicht die Notwendigkeit besteht, dass der Zeitpunkt bei der Aufnahme des Bildes exakt mit dem Zeitpunkt übereinstimmt, wenn die Bewegungsgeschwindigkeit erfasst wird, und daher ist eine hohe zeitliche Ge­ nauigkeit ebenso wenig notwendig. Der Vergleichsbereich kann aus der Bewegungsge­ schwindigkeit ermittelt werden, wenn anstelle eines Positionsdetektionssensors ein Schrittmotor für den Schwenk/Neigungsbetrieb vorgesehen ist.
Wenn ferner die Bewegungsgeschwindigkeit des bewegten Objekts äußerst hoch ist und bestimmt wird, dass dieses den Aufnahmebereich der Kamera verlässt, wird der Auf­ nahmebereich der Kamera vergrößert, d. h. das Zoomobjektiv wird zur Weitbereichsseite bewegt, so dass das bewegte Objekt mit der äußerst hohen Bewegungsgeschwindigkeit ohne Fehlfunktion verfolgt werden kann.
Lediglich wenn die Bewegungsgeschwindigkeit des bewegten Objekts gering ist, wird die Aufnahmerichtung der Kamera unter Berücksichtigung der Totzone, die auf dem Aufnahmebildschirm festgelegt ist, gesteuert, und somit wird im Falle einer hohen Be­ wegungsgeschwindigkeit des bewegten Objekts die Unannehmlichkeit aufgrund der Steuerung der Aufnahmerichtung der Kamera unter Berücksichtigung der Totzone ver­ mieden, und das bewegte Objekt kann geeignet mit darstellungsfreundlichen Bildern verfolgt werden.
Wenn sich das bewegte Objekt in Richtung des Bildschirmmittelpunkts bewegt, ist es vorgesehen, dass sich die Aufnahmerichtung der Kamera nicht ändert, und daher folgt die Aufnahmerichtung der Kamera dem bewegten Objekt und ändert sich, wenn das bewegte Objekt über die Bildschirmmitte hinausgeht, wenn das bewegte Objekt von au­ ßerhalb des Aufnahmebereichs der Kamera in den Aufnahmebereich hineinbewegt wird, und somit wird die Unannehmlichkeit behoben, dass die Aufnahmerichtung der Kamera nutzloserweise geändert wird, und somit wird das Bild der Kamera darstellungsfreund­ lich.
Es sollte selbstverständlich sein, dass nicht beabsichtigt ist, die Erfindung auf die spe­ ziellen offenbarten Formen einzuschränken, sondern im Gegenteil die Erfindung soll alle Modifikationen, alternative Formen und Äquivalente abdecken, die innerhalb des Grundgedankens und Schutzbereichs der Erfindung liegen, wie sie in den angefügten Patentansprüchen definiert ist.
Bildbeschreibung Fig. 1
14
Bildverarbeitungseinrichtung
12
Schwenkkopfkontroller
Fig. 2
44
Linseneinrichtung
42
Kamerahauptkörper
10
Schwenkkopf
12
Schwenkkopfkontroller
46
Y/C-Separierschaltung
48
A/D-Wandler
50
Bildspeicher
52
Bildverarbeitungsprozessor
1
Bildsignal
2
Y-Signal
3
Synchronisiersignal
Fig. 3
S10 Einlesen des Bildes #1 in den Bildspeicher
S12 Zeit für vier Felder verstrichen?
S14 Einlesen des Bildes #2 in den Bildspeicher
S16 Zeit für vier Felder verstrichen?
S18 Einlesen des Bildes #3 in den Bildspeicher Festlegen des Vergleichsbildbereichs aus den Schwenk- (Neigungs)geschwindigkeitsdaten
S24 binäre Codierung
S26 Reduktion
S28 Fläche bzw. Bereich
S30 Fläche < Schwellwert?
Fig. 3 (Fortsetzung)
S32 Hauptmoment
S34 Schwerpunkt 1-3
S36 Festlegen des Vergleichsbildbereichs aus Schwenk- (Neigungs)geschwindigkeitsdaten
S40 binäre Codierung
S42 Reduktion
S44 Fläche bzw. Bereich
S46 Hauptmoment
S48 Schwerpunkt 1-2
S50 (Schwerpunkt 1-3) - (Schwerpunkt 1-2)
S52 Berechnung der Geschwindigkeit des bewegten Objekts
S54 Festlegen der Geschwindigkeiten der Schwenk-(Neigungs)richtung
S56 Steuergeschwindigkeit erreicht?
Fig. 9 und 10
Bild #1
Bild #2
Verschiebung
Verschiebung
Bild #1
Bild #2
Verschiebung
Verschiebung
Fig. 11(A) bis 11(C)
Verschiebung 1
Verschiebung 2
Fig. 12
Schwerpunkt 1-2
Schwerpunkt 1-3
Fig. 13
Steuerspannung
Schwenkgeschwindigkeit
Verschiebung
Fig. 14
S102 Festlegen der Schwenkgeschwindigkeit
S104 Steuergeschwindigkeit erreicht?
S106 Einlesen des Bildes #1 in den Bildspeicher
S108 Zeit für vier Felder verstrichen?
S110 Einlesen des Bildes #2 in den Bildspeicher
S112 Vorgeben des Verschiebungsbetrags als i, um den Vergleichsbildbereich festzu­ legen
S116 binäre Codierung
S118 Reduktion
S120 Fläche bzw. Bereich
S122 Fläche = Fläche aus S120
S124 minarea < Fläche?
S132 i < (Anzahl der Pixel in der horizontalen Richtung)?
Ende
Y Ja
N Nein
Fig. 15
Schwerpunkt 1-2
Schwerpunkt 1-3
Fig. 16(B)
Pixelzahl
Fig. 17
S150 Ermitteln von a und b
S158 Brennpunktabstand × d
S160 Zoom-Steuerung
Fig. 18
S210 Geschwindigkeitsmarke = 0
S212 Einlesen des Bildes #1 in den Bildspeicher
S214 Zeit für vier Felder abgelaufen?
S216 Einlesen des Bildes #2 in den Bildspeicher
S218 Zeit für vier Felder abgelaufen?
S220 Einlesen des Bildes #3 in den Bildspeicher
S222 Geschwindigkeitsmarke +1
S224 Festlegen des Vergleichsbildbereichs aus den Schwenkgeschwindigkeitsdaten
S228 binäre Codierung
S230 Reduktion
S232 Fläche bzw. Bereich
S234 Fläche < Schwellwert?
S236 Hauptmoment
S238 Schwerpunkt 1-3
Fig. 18 (Fortsetzung)
S240 Geschwindigkeitsmarke = 1?
S242 Festlegen des Vergleichsbildbereichs aus den Schwenkgeschwindigkeitsdaten
S246 binäre Codierung
S248 Reduktion
S250 Fläche bzw. Bereich
S252 Hauptmoment
S254 Schwerpunkt 1-2d
S256 (Schwerpunkt 1-3) - (Schwerpunkt 1-2)
S258 Berechnen der Geschwindigkeit des bewegten Objekts
S260 Festlegen der Schwenkgeschwindigkeit
S262 Kontrollgeschwindigkeit erreicht?
S264 liegt die Koordinate des Schwerpunkts innerhalb des Bereichs der Totzone?
S266 Festlegen der Geschwindigkeit
S268 Ausgeben des Schwenkkontrollsignals
S270 Schwenkkopf angehalten?
Y Ja
N Nein
Fig. 19
Totzone
Fig. 20
Y-Achse:
Breite der Totzone
X-Achse:
Minimum
Koordinate des Bildschirms in der horizontalen Richtung Maximum
Fig. 21
S310 Einlesen des Bildes #1 in den Bildspeicher
S312 Zeit für vier Felder abgelaufen?
S314 Einlesen des Bildes #2 in den Bildspeicher
S316 Zeit für vier Felder abgelaufen?
S318 Einlesen des Bildes #3 in den Bildspeicher
S320 Festlegen des Vergleichsbildbereichs aus den Schwenkgeschwindigkeitsdaten
S324 binäre Codierung
S326 Reduktion
S328 Fläche bzw. Bereich
S330 Fläche < Schwellwert?
S332 Hauptmoment
S334 Schwerpunkt 1-3
S336 Festlegen des Vergleichsbildbereichs aus den Schwenkgeschwindigkeitsdaten
S340 binäre Codierung
S342 Reduktion
Fig. 21 (Fortsetzung)
S344 Fläche
S346 Hauptmoment
S348 Schwerpunkt 1-2
S350 Schwerpunkt 1-2 < A
S352 Schwerpunkt 1-2 < Schwerpunkt 1-3
S358 (Schwerpunkt 1-3) - (Schwerpunkt 1-2)
S362 Berechnen der Geschwindigkeit des bewegten Objekts
S364 Festlegen der Geschwindigkeit in der Schwenkrichtung
S366 Kontrollgeschwindigkeit erreicht?
S354 Schwerpunkt 1-2 < Schwerpunkt 1-3
S360 (Schwerpunkt 1-2) - (Schwerpunkt 1-3)
Y Ja
N Nein
Fig. 22(A) bis 22(D)
Schwerpunkt 1-2
Schwerpunkt 1-3
Schwerpunkt 1-2
Schwerpunkt 1-3
Schwerpunkt 1-2
Schwerpunkt 1-3
Schwerpunkt 1-2
Schwerpunkt 1-3
Fig. 23(3)
Berechnung der Bewegungsgeschwindigkeit
Schwenken Stoppen
Berechnen der Bewegungsgeschwindigkeit

Claims (6)

1. Nachführvorrichtung mit einem Schwenkkopf (10) mit einer darauf montierten Ka­ mera (40), die zum Ändern von Aufnahmerichtungen der Kamera (40) beim Einle­ sen von Bildern, die von der Kamera (40) nacheinander aufgenommen werden, bewegbar ist, um Bilder eines bewegten Objekts durch Vergleichen eingelesener Bilder herauszulösen und die Bewegungsgeschwindigkeit des Schwenkkopfes (10) auf der Grundlage von Positionen auf einem Bildschirm der Bilder des bewegten Objekts zu steuern, derart, dass das bewegte Objekt nicht außerhalb eines Auf­ nahmebereichs der Kamera (40) liegt, mit:
einer Bewegtobjekt-Extraktionseinrichtung (14) zur Herauslösung eines Bildes des bewegten Objekts auf der Grundlage von von der Kamera (40) eingelesenen Bil­ dern;
einer Bewegungsgeschwindigkeits-Detektionseinrichtung (14) zur Erfassung der Bewegungsgeschwindigkeit des bewegten Objekts aus Positionsänderungen auf dem Bildschirm von Bildern des bewegten Objekts, die von der Bewegtobjekt- Bildextraktionseinrichtung (14) herausgelöst sind; und
einer Kontrolleinrichtung (12, 14) zur Steuerung der Bewegungsgeschwindigkeit des Schwenkkopfes (10) auf der Grundlage der Bewegungsgeschwindigkeit des bewegten Objekts, die mittels der Bewegungsgeschwindigkeits- Detektionseinrichtung (14) erhalten wird, so dass das bewegte Objekt nicht aus dem Aufnahmebereich herauswandert.
2. Nachführvorrichtung nach Anspruch 1, wobei die Kontrolleinrichtung (12, 14) den Aufnahmebereich der Kamera (40) vergrößert, wenn bestimmt wird, dass das be­ wegte Objekt aus dem Aufnahmebereich der Kamera (40) sich hinausbewegt, auf der Grundlage von Bildern des bewegten Objekts, die von der Bewegtobjekt- Bildextraktionseinrichtung (14) herausgelöst sind.
3. Nachführvorrichtung nach Anspruch 1, wobei die Bewegtobjekt- Bildextraktionseinrichtung (14) umfasst:
eine Vergleichsbereichs-Bestimmungseinrichtung zum Einlesen von Bildern für zwei Bildschirme aus der Kamera (40) und, basierend auf der Bewegungsge­ schwindigkeit des Schwenkkopfes (10), zur Bestimmung eines Bereichs als dem Vergleichsbereich, an dem die Aufnahmebereiche der Kamera (40), wenn die ent­ sprechenden Bilder für zwei Bildschirminhalte aufgenommen werden, überlappen; und
eine Bildverarbeitungseinrichtung zur Herauslösung von Bildern innerhalb des Vergleichsbereichs, der aus entsprechenden Bildern für die zwei Bildschirminhalte durch die Vergleichsbereichs-Bestimmungseinrichtung bestimmt ist, und zur Her­ auslösung von Bildern des bewegten Objekts durch Vergleichen der herausgelös­ ten entsprechenden Bilder.
4. Nachführvorrichtung nach Anspruch 3, wobei die Kontrolleinrichtung (12, 14) den Aufnahmebereich der Kamera (40) vergrößert, wenn bestimmt wird, dass sich das bewegte Objekt aus dem Aufnahmebereich der Kamera (40) herausbewegt, auf der Grundlage von Bildern des bewegten Objekts, die von der Bewegtobjekt- Bildextraktionseinrichtung (14) herausgelöst sind.
5. Nachführvorrichtung, die Aufnahmerichtungen einer Kamera (40) zur Verfolgung eines bewegten Objekts ändert, mit:
einer Bewegtobjekt-Bildextraktionseinrichtung (14) zum Herauslösen von Bildern eines bewegten Objekts aus Bilder, die von einer Kamera (40) aufgenommen wer­ den;
einer Geschwindigkeits-Bestimmungseinrichtung (14) zur Beurteilung, ob die Be­ wegungsgeschwindigkeit eines bewegten Objekts eine geringe Geschwindigkeit oder eine große Geschwindigkeit ist, auf der Grundlage von Bildern des bewegten Objekts, die von der Bewegtobjekt-Bildextraktionseinrichtung (14) herausgelöst sind;
einer Bereichs-Bestimmungseinrichtung (14) zur Beurteilung, ob Bilder des beweg­ ten Objekts innerhalb eines Bereichs einer vorbestimmten Totzone liegen, die auf einem Aufnahmebildschirm der Kamera (40) festgelegt ist, wenn die Bewegungs­ geschwindigkeit des bewegten Objekts durch die Geschwindigkeits- Bestimmungseinrichtung als gering bestimmt ist; und
einer Aufnahmerichtungs-Steuereinrichtung (10, 12, 14) zum Ändern der Aufnah­ merichtungen der Kamera (40), so dass das bewegte Objekt nicht außerhalb des Aufnahmebereichs der Kamera (40) liegt, auf der Grundlage von Bildern des be­ wegten Objekts, die von der Bewegtobjekt-Bildextraktionseinrichtung (14) heraus­ gelöst sind, wenn die Bewegungsgeschwindigkeit des bewegten Objekts durch die Geschwindigkeits-Bestimmungseinrichtung als hoch bestimmt wird, oder wenn das Bild des bewegten Objekts von der Bereichs-Bestimmungseinrichtung (14) als au­ ßerhalb des Bereichs der Totzone liegend bestimmt wird, und um Änderungen in der Aufnahmerichtung der Kamera (40) anzuhalten, wenn die Bewegungsge­ schwindigkeit des bewegten Objekts durch die Geschwindigkeits- Bestimmungseinrichtung (14) als gering bestimmt wird und das Bild des bewegten Objekts durch die Bereichs-Bestimmungseinrichtung (14) als innerhalb des Be­ reichs der Totzone liegend bestimmt wird.
6. Nachführvorrichtung, die Aufnahmerichtungen einer Kamera (40) ändert, um ei­ nem bewegten Objekt zu folgen, wobei:
Aufnahmerichtungen der Kamera (40) nicht geändert werden, wenn das bewegte Objekt sich auf einen Bildschirmmittelpunkt auf einem Aufnahmebildschirm der Kamera (40) hinbewegt, und wobei Aufnahmerichtungen der Kamera (40) geän­ dert werden, so dass das bewegte Objekt nicht aus dem Aufnahmebildschirm he­ rausläuft, wenn das bewegte Objekt sich vom Mittelpunkt des Bildschirms zum Rand des Bildschirms bewegt.
DE10152883A 2000-10-26 2001-10-26 Nachführvorrichtung Expired - Fee Related DE10152883B4 (de)

Applications Claiming Priority (6)

Application Number Priority Date Filing Date Title
JP2000-327617 2000-10-26
JP2000327617A JP4725693B2 (ja) 2000-10-26 2000-10-26 自動追尾装置
JP2000363392A JP2002171438A (ja) 2000-11-29 2000-11-29 自動追尾装置
JP2000363393A JP2002171439A (ja) 2000-11-29 2000-11-29 自動追尾装置
JP2000-363392 2000-11-29
JP2000-363393 2000-11-29

Publications (2)

Publication Number Publication Date
DE10152883A1 true DE10152883A1 (de) 2002-10-17
DE10152883B4 DE10152883B4 (de) 2007-08-23

Family

ID=27345036

Family Applications (1)

Application Number Title Priority Date Filing Date
DE10152883A Expired - Fee Related DE10152883B4 (de) 2000-10-26 2001-10-26 Nachführvorrichtung

Country Status (3)

Country Link
US (1) US7256817B2 (de)
DE (1) DE10152883B4 (de)
GB (1) GB2368741B (de)

Families Citing this family (30)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20040100563A1 (en) 2002-11-27 2004-05-27 Sezai Sablak Video tracking system and method
US8098290B2 (en) * 2004-01-30 2012-01-17 Siemens Corporation Multiple camera system for obtaining high resolution images of objects
US7189909B2 (en) * 2004-11-23 2007-03-13 Román Viñoly Camera assembly for finger board instruments
US8031226B2 (en) * 2005-03-01 2011-10-04 Fujifilm Corporation Image output apparatus, image output method, image output program, image trimming apparatus, image trimming method, and image trimming program
US20080002031A1 (en) * 2005-05-06 2008-01-03 John-Paul P. Cana Multi-axis control of a fixed or moving device based on a wireless tracking location of one or many target devices
JP2007028383A (ja) * 2005-07-20 2007-02-01 Canon Inc 撮像装置及びその制御方法
US8035691B2 (en) * 2006-08-01 2011-10-11 Pelco, Inc. Method and apparatus for compensating for movement of a video surveillance camera
JP4709101B2 (ja) 2006-09-01 2011-06-22 キヤノン株式会社 自動追尾カメラ装置
JP4911472B2 (ja) * 2006-12-05 2012-04-04 富士フイルム株式会社 出力装置、出力方法、及びプログラム
JP4697810B2 (ja) * 2007-03-05 2011-06-08 パナソニック株式会社 自動追尾装置及び自動追尾方法
JP2009049810A (ja) * 2007-08-21 2009-03-05 Canon Inc 撮像装置及びその制御方法及びプログラム
JP2010021598A (ja) * 2008-07-08 2010-01-28 Victor Co Of Japan Ltd 撮像装置および撮像方法
US8199194B2 (en) * 2008-10-07 2012-06-12 The Boeing Company Method and system involving controlling a video camera to track a movable target object
JP5395512B2 (ja) * 2009-05-26 2014-01-22 オリンパスイメージング株式会社 撮影装置
JP2011139231A (ja) * 2009-12-28 2011-07-14 Sony Corp 画像処理装置、画像処理方法、プログラム
JP5875453B2 (ja) * 2012-04-19 2016-03-02 キヤノン株式会社 自動追尾装置
US9213781B1 (en) 2012-09-19 2015-12-15 Placemeter LLC System and method for processing image data
US9100572B2 (en) 2013-05-24 2015-08-04 Xerox Corporation Methods and systems for confidence-based image processing
US9696404B1 (en) 2014-05-06 2017-07-04 The United States Of America As Represented By The Secretary Of The Air Force Real-time camera tracking system using optical flow feature points
WO2015184440A2 (en) 2014-05-30 2015-12-03 Placemeter Inc. System and method for activity monitoring using video data
US9324136B2 (en) * 2014-06-12 2016-04-26 Htc Corporation Method, electronic apparatus, and computer readable medium for processing reflection in image
US10447979B2 (en) 2014-12-25 2019-10-15 Panasonic Intellectual Property Management Co., Ltd. Projection device for detecting and recognizing moving objects
WO2016151925A1 (ja) * 2015-03-26 2016-09-29 富士フイルム株式会社 追尾制御装置、追尾制御方法、追尾制御プログラム、及び、自動追尾撮影システム
US10043078B2 (en) 2015-04-21 2018-08-07 Placemeter LLC Virtual turnstile system and method
US10460453B2 (en) * 2015-12-30 2019-10-29 Texas Instruments Incorporated Feature point identification in sparse optical flow based tracking in a computer vision system
US11100335B2 (en) * 2016-03-23 2021-08-24 Placemeter, Inc. Method for queue time estimation
JP6967603B2 (ja) * 2017-03-17 2021-11-17 ユニティ アイピーアール エイピーエスUnity Ipr Aps 自動化されたカメラコリジョンおよび構図保存のための方法およびシステム
JP6994901B2 (ja) * 2017-10-24 2022-01-14 キヤノン株式会社 制御装置、制御方法、及びプログラム
CN109246394A (zh) * 2018-10-19 2019-01-18 刘景江 一种户外用自动监控设备
CN112702516B (zh) * 2020-12-24 2023-06-16 维沃移动通信(杭州)有限公司 调焦方法、装置和电子设备

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0614698B2 (ja) 1983-05-13 1994-02-23 株式会社日立製作所 自動追尾カメラ
US4805018A (en) * 1986-03-07 1989-02-14 Matsushita Electric Industrial Co., Ltd. Video signal processing apparatus for separating an image of a moving object from video signals
US5473369A (en) * 1993-02-25 1995-12-05 Sony Corporation Object tracking apparatus
US5519669A (en) * 1993-08-19 1996-05-21 At&T Corp. Acoustically monitored site surveillance and security system for ATM machines and other facilities
WO1995010915A1 (en) * 1993-10-12 1995-04-20 Orad, Inc. Sports event video
JPH09186927A (ja) 1995-12-28 1997-07-15 Sony Corp 追尾装置および追尾方法
DE19701186C2 (de) 1996-01-12 2001-10-18 Fraunhofer Ges Forschung Interaktives Überwachungssystem
JPH1139495A (ja) * 1997-07-24 1999-02-12 Nec Corp 画像監視装置
CN1178467C (zh) * 1998-04-16 2004-12-01 三星电子株式会社 自动跟踪运动目标的方法和装置
JP2000175101A (ja) 1998-12-04 2000-06-23 Fuji Photo Optical Co Ltd 自動追尾装置
JP4243883B2 (ja) * 1999-03-15 2009-03-25 フジノン株式会社 リモコン雲台システム
EP1107584B1 (de) * 1999-12-03 2008-08-27 Fujinon Corporation Automatische Folgevorrichtung
WO2001069932A1 (en) * 2000-03-10 2001-09-20 Sensormatic Electronics Corporation Method and apparatus for object tracking and detection
JP3440916B2 (ja) 2000-03-30 2003-08-25 日本電気株式会社 自動追尾装置、自動追尾方法及び自動追尾プログラムを記録した記録媒体
US6766035B1 (en) * 2000-05-03 2004-07-20 Koninklijke Philips Electronics N.V. Method and apparatus for adaptive position determination video conferencing and other applications
WO2002003702A1 (en) * 2000-06-30 2002-01-10 The Muller Sports Group, Inc. Sporting events broadcasting system

Also Published As

Publication number Publication date
US20020051057A1 (en) 2002-05-02
US7256817B2 (en) 2007-08-14
GB2368741B (en) 2004-12-15
GB2368741A (en) 2002-05-08
GB0125772D0 (en) 2001-12-19
DE10152883B4 (de) 2007-08-23

Similar Documents

Publication Publication Date Title
DE10152883A1 (de) Nachführvorrichtung
DE602005000090T2 (de) Autofokussystem
DE10017072C2 (de) Hecküberwachungssystem für ein Fahrzeug
DE60009000T2 (de) System zur Einparkhilfe
DE102014116140B4 (de) Einparkhilfsvorrichtung und Einparkhilfsverfahren für ein Fahrzeug
DE4336288C1 (de) Einrichtung zur Überwachung des Rück- bzw. Frontraumes eines einparkenden Kraftfahrzeugs
DE602006000272T2 (de) Autofokuseinrichtung mit Fokus-Nachführung für Objekte in Bewegung
EP1583022A2 (de) Verfahren und Anordnung zur Aufnahme interessierender Bereiche von beweglichen Objekten
DE10103924B4 (de) Vorrichtung zur Umgebungsüberwachung eines Fahrzeugs
DE10306070A1 (de) Digitale Kamera zum Aufnehmen eines Paars stereoskopischer Bilder
EP3552144A1 (de) Kameravorrichtung sowie verfahren zur situationsangepassten erfassung eines umgebungsbereichs eines fahrzeugs
DE112010005086T5 (de) Kameraplattformsystem
DE10306069A1 (de) Kamera zum Erzeugen eines stereoskopischen Bildpaars
DE4118605C2 (de) Fahrzeugzwischenabstands-Erfassungseinrichtung zur automatischen Zielverfolgung eines vorausfahrenden Fahrzeugs
DE10338248A1 (de) Kamerasystem und Fokusinformation-Anzeigeeinrichtung
DE602005003634T2 (de) Autofokussystem
DE4041922C2 (de) Entfernungssensorvorrichtung zur Messung der Entfernung von einem bewegten Objekt
DE69919514T2 (de) Abstandsmessgerät
EP1553758A1 (de) Optische Vorrichtung zur Ausgleich des Bildverwakelns mit Anzeige der durchgeführten Korrektur
EP1860492B1 (de) Verfahren zur Raumfilterung und Bildaufnahmegerät
DE4420422C2 (de) Technisches Komplexauge für dynamisches maschinelles Sehen
DE69721520T2 (de) System mit einem Photosensor, insbesonder zur Zeitmessung bei Wettkämpfen, und Einstellverfahren zum Ausrichten eines solchen Systems auf eine Ziellinie
AT521845B1 (de) Verfahren zur Fokuseinstellung einer Filmkamera
WO2020127748A1 (de) Vorrichtung mit einer multiaperturabbildungsvorrichtung zum akkumulieren von bildinformation
WO1998048309A1 (de) Optisches abbildungssystem und graphische benutzerschnittstelle

Legal Events

Date Code Title Description
8110 Request for examination paragraph 44
8127 New person/name/address of the applicant

Owner name: FUJINON CORP., SAITAMA, JP

8364 No opposition during term of opposition
R119 Application deemed withdrawn, or ip right lapsed, due to non-payment of renewal fee