DE10152883A1 - Nachführvorrichtung - Google Patents
NachführvorrichtungInfo
- Publication number
- DE10152883A1 DE10152883A1 DE10152883A DE10152883A DE10152883A1 DE 10152883 A1 DE10152883 A1 DE 10152883A1 DE 10152883 A DE10152883 A DE 10152883A DE 10152883 A DE10152883 A DE 10152883A DE 10152883 A1 DE10152883 A1 DE 10152883A1
- Authority
- DE
- Germany
- Prior art keywords
- image
- moving object
- speed
- area
- camera
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S3/00—Direction-finders for determining the direction from which infrasonic, sonic, ultrasonic, or electromagnetic waves, or particle emission, not having a directional significance, are being received
- G01S3/78—Direction-finders for determining the direction from which infrasonic, sonic, ultrasonic, or electromagnetic waves, or particle emission, not having a directional significance, are being received using electromagnetic waves other than radio waves
- G01S3/782—Systems for determining direction or deviation from predetermined direction
- G01S3/785—Systems for determining direction or deviation from predetermined direction using adjustment of orientation of directivity characteristics of a detector or detector system to give a desired condition of signal derived from that detector or detector system
- G01S3/786—Systems for determining direction or deviation from predetermined direction using adjustment of orientation of directivity characteristics of a detector or detector system to give a desired condition of signal derived from that detector or detector system the desired condition being maintained automatically
- G01S3/7864—T.V. type tracking systems
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/246—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Electromagnetism (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Theoretical Computer Science (AREA)
- Studio Devices (AREA)
- Closed-Circuit Television Systems (AREA)
Abstract
In einer Nachführvorrichtung werden bei einer Schwenk/Neigungsbewegung eines Schwenkkopfes Bilder #1 bis #3 für drei Bildbereiche, die von einer Kamera aufgenommen werden, sequentiell in einen Bildspeicher einer Bildverarbeitungseinrichtung eingelesen. Durch eine Bearbeitungssequenz eines Bildverarbeitungsprozessors sowie einer CPU werden das Bild #1 mit dem Bild #2 und das Bild #1 mit dem Bild #3 jeweils verglichen, um ein Bild eines bewegten Objekts herauszulösen, um die Bewegungsgeschwindigkeit des bewegten Objekts auf der Grundlage des herausgelösten Bildes des bewegten Objekts zu erfassen. Wenn die Bewegungsgeschwindigkeit des bewegten Objekts erfasst ist, wird ein Befehlssignal von der CPU an einen Schwenkkopfkontroller übermittelt, um zu bewirken, dass der Schwenkkopf entsprechend der Bewegung dieses bewegten Objekts geschwenkt/geneigt wird. Dadurch bewegt sich der Schwenkkopf in der Schwenk/Neigungsrichtung mit der Bewegungsgeschwindigkeit des bewegten Objekts. Somit ermöglicht das Erfassen der Bewegungsgeschwindigkeit des bewegten Objekts aus dem aufgenommenen Bild der Kamera und die Steuerung der Bewegungsgeschwindigkeit des Schwenkkopfes auf der Grundlage der detektierten Bewegungsgeschwindigkeit des bewegten Objekts ein Verfolgen des bewegten Objekts ohne Fehlfunktion.
Description
Die vorliegende Erfindung betrifft eine Nachführvorrichtung und betrifft insbesondere
eine Nachführvorrichtung, die automatisch einem bewegten Objekt folgt, wobei die Auf
nahmerichtung einer Kamera automatisch verändert wird.
Eine Nachführvorrichtung ist eine Vorrichtung, die einen Schwenkkopf, auf dem eine
Fernsehkamera zum Schwenken/Neigen mittels Motorantrieb montiert ist, dazu veran
lasst, die Aufnahmerichtung einer Kamera automatisch zu bewegen bzw. zu verändern
und automatisch bewegten Objekten zu folgen. Die Lehre in der japanischen Patentan
meldungsoffenlegungsschrift 59-208983 ist weithin als ein Verfahren zum Nachführen
bekannt. Entsprechend diesem Verfahren wird ein Bild, das zwei Bildrahmen ausfüllt
(zwei Bildschirme bedeckt) in einer vorbestimmten Zeitspanne aus Bildsignalen erzeugt,
die von einer Kamera ausgegeben werden, und ein Bild eines bewegenden Objekts wird
durch Vergleich dieser Bilder extrahiert. Ferner wird aus der Lage des Schwerpunkts
des extrahierten bewegten Objekts der Betrag der Bewegung sowie die Bewegungsrich
tung des bewegten Objekts erfasst und die Aufnahmerichtung der Kamera wird automa
tisch durch Schwenken/Neigen des Schwenkkopfes gesteuert, so dass der Schwerpunkt
des bewegten Objekts, basierend darauf, ständig im Bildschirmmittelpunkt bleibt.
In der vorliegenden Beschreibung werden Betriebsarten des Schwenkkopfes, die eine
Bewegung der Aufnahmerichtung der Kamera in der Schwenkrichtung oder der Nei
gungsrichtung verursachen, als die Schwenkrichtung oder die Neigungsrichtung des
Schwenkkopfes oder einfach als die Bewegung des Schwenkkopfes bezeichnet.
In dem Verfahren zur Nachführung, das in der oben beschriebenen japanischen Patent
anmeldungsoffenlegungsschrift 59-208983 dargelegt ist, muss der Schwenkkopf, um
Bilder eines bewegten Objekts durch Vergleichen von Bildern, die zwei Bildschirme aus
füllen und von einer Kamera aufgenommen sind, zu extrahieren, anhalten, während die
se Bilder für den Vergleich eingelesen werden. Das heißt, ein Unterschied in den Auf
nahmebereichen von Bildern für den Vergleich aufgrund der Bewegung des Schwenk
kopfes führt zu einer Bewegung des Bildes der statischen Objekte auf dem Bildschirm,
wodurch es unmöglich ist, das Bild des bewegten Objekts zu unterscheiden und daher
kann der Schwenkkopf nicht bewegt werden, während die Bilder für den Vergleich aufge
nommen werden. Somit kann in dem oben beschriebenen Nachführverfahren bewegten
Objekten nicht gefolgt werden, die sich schnell bewegen, und der Schwenkkopf führt
wiederholt eine Bewegung und ein Anhalten aus, wodurch nachteiligerweise der Bild
schirm weniger darstellungsgeeignet wird.
Um unter diesen Umständen einen derartigen Mangel zu überwinden, hat der Anmelder
der vorliegenden Anmeldung in der japanischen Patentoffenlegungsschrift 2000-175101
ein Verfahren zum Nachführen vorgeschlagen, das es ermöglicht, das Bild des beweg
ten Objekts auch von Bildern aus unterschiedlichen Aufnahmebereichen zu extrahieren
und die Bilder der bewegten Objekte zu erkennen, obwohl der Schwenkkopf bewegt
wird. Obwohl der Schwenkkopf angehalten oder bewegt wird, werden hierzu die Bilder
von der Kamera eingefangen und es wird die Schwenk/Neigungsposition des Schwenk
kopfes zu diesem Zeitpunkt eingelesen. Wenn die Bilder, die zwei Bildbereiche ausfül
len, in einer vorbestimmten Zeit aufgenommen werden, ist basierend auf der
Schwenk/Neigungsposition, bei der jedes Bild aufgenommen wird, der Aufnahmebereich
der Kamera zu der Zeit, an der jedes Bild aufgenommen wurde, vorgegeben und der
überlappende Bereich im Aufnahmebereich jedes Bildes wird als der Vergleichsbereich
bestimmt. Da das Bild eines statischen Objekts nicht bewegt ist, erlaubt ein Vergleich
der Bilder in diesem Vergleichsbereich eine Extraktion von Bildern lediglich des beweg
ten Objekts. Das Nachführverfahren in der japanischen Patentoffenlegungsschrift 2000-175101
erfasst die Position des bewegten Objekts auf dem Bildschirm, um das Schwen
ken/Neigen des Schwenkkopfes zu steuern, so dass seine Position näherungsweise im
Bildschirmmittelpunkt liegt, und somit bewegt sich der Schwenkkopf so, um der Bewe
gung des bewegten Objekts zu folgen. Wenn folglich die Bewegungsgeschwindigkeit
des bewegten Objekts größer wird, würde bei einer derartigen Steuerung des Schwenk
kopfes das bewegte Objekt aus dem Aufnahmebereich der Kamera bewegen und es
könnte ein Fehler beim Nachführen auftreten. Da ferner die Bewegungsgeschwindigkeit
des bewegten Objekts nicht bestimmt werden kann, ist ein glattes bzw. kontinuierliches
Nachführen nicht erreichbar.
Ferner führt in dem Verfahren zum Nachführen, das in der oben erläuterten japanischen
Patentanmeldungsoffenlegungsschrift 59-208983 dargestellt ist, eine leichte Bewegung
des bewegten Objekts innerhalb des Aufnahmebereichs der Kamera zu der Bewegung
des Schwenkkopfes und einer Bewegung bzw. Änderung der Aufnahmerichtung der
Kamera. Aufgrund der Mängel, etwa Schwankungen des Bildschirms und schlechter
Bilddarstellung einer Kamera, hat der Anmelder der vorliegenden Erfindung einen Be
reich einer Totzone im zentralen Teil des Bildschirms entsprechend der US-
Patentanmeldung Nr. 09/726,496 vorgesehen und hat ein derartiges Nachführverfahren
vorgeschlagen, wobei der Schwenkkopf nicht bewegt wird, wenn ein bewegtes Objekt
sich im Bereich dieser Totzone bewegt.
Das Nachführverfahren entsprechend der US-Patentanmeldung 09/726,496 weist noch
Probleme auf, die verbesserungsfähig sind. Beispielsweise kann die Bewegungsge
schwindigkeit eines bewegten Objekts selbstverständlich schnell oder langsam sein, und
wenn die Bewegungsgeschwindigkeit langsam ist, treten keine Ereignisse auf, wobei der
Schwenkkopf aus dem Schirm läuft, wenn sich das bewegte Objekt aus dem Bereich
der Totzone herausbewegt; aber wenn die Bewegungsgeschwindigkeit groß ist, bewegt
sich das bewegte Objekt aus dem Bildschirm heraus und ein Nachführen ist nicht mehr
ausführbar.
Wenn beispielsweise das bewegte Objekt sich von außerhalb des Aufnahmebereichs
(Bildschirm) der Kamera in den Bildschirm hineinbewegt, bewegt sich das bewegte Ob
jekt in die Richtung der Bildschirmmitte (die Mitte der horizontalen Richtung oder die
senkrechte Richtung des Bildschirms) und wenn ein statisches Objekt innerhalb des
Bildschirms anfängt, sich zu bewegen, könnte sich dieses bewegende Objekt in Rich
tung auf die Bildschirmmitte bewegen. Trotzdem eine Bewegung des Schwenkkopfes in
diesem Falle nicht notwendig ist, wird im konventionellen Verfahren zum Nachführen im
Wesentlichen das Nachführen ohne Unterscheidung der Umstände für die Bewegung
eines bewegten Objekts hinsichtlich anderer Umstände der Bewegung gesteuert, und
daher beginnt der Schwenkkopf sich zu bewegen, unmittelbar nachdem die Bewegung
des bewegten Objekts erfasst worden ist und es wird eine nutzlose Nachführung ausge
führt, wodurch nachteiligerweise die Bilder der Kamera weniger gut sichtbar sind.
Die vorliegende Erfindung wurde angesichts der oben beschriebenen Sachlage erdacht
und sieht es als ihre Aufgabe an, eine verbesserte Nachführvorrichtung bereitzustellen,
die einem bewegten Objekt ohne Fehler und in glatter bzw. kontinuierlicher Weise folgen
kann.
Als weitere Aufgabe sieht es die vorliegende Erfindung an, eine verbesserte Nachführ
vorrichtung bereitzustellen, die den Vorgang des Nachführens in geeigneter Weise ent
sprechend der Bewegungsgeschwindigkeit des bewegten Objekts ausführt und das dem
bewegten Objekt mit weiteren darstellungsgerechten Bildern folgen kann.
Ferner liegt eine weitere Aufgabe der vorliegenden Erfindung darin, eine verbesserte
Nachführvorrichtung bereitzustellen, die keine Nachführung entsprechend gleichblei
bender Steuerregeln ausführt, unabhängig von den Gegebenheiten der Bewegung des
bewegten Objekts, die aber eine geeignete Steuerung des Nachführens entsprechend
den Gegebenheiten der Bewegung des bewegten Objekts ausführt, insbesondere für
die Gegebenheit, dass das bewegte Objekt sich in die Richtung der Bildschirmmitte be
wegt, und für andere weniger häufig auftretende Gegebenheiten, so dass die Bilder der
Kamera darstellungsfreundlicher sind.
Um die oben beschriebene Aufgabe zu lösen, richtet sich die vorliegende Erfindung an
eine Nachführvorrichtung mit einem Schwenkkopf, an dem eine Kamera montiert ist und
der bewegbar ist, um Aufnahmerichtungen der oben beschriebenen Kamera zu ändern,
während Bilder, die von der oben beschriebenen Kamera aufgenommen worden sind,
eines nach dem anderen eingelesen werden, um Bilder eines bewegten Objekts zu ext
rahieren, indem die eingelesenen Bilder verglichen werden, wobei die Bewegungsge
schwindigkeit des oben beschriebenen Schwenkkopfes auf der Grundlage von Positio
nen auf den Bildschirmbildern des oben beschriebenen bewegten Objekts gesteuert
wird, derart, dass das zuvor beschriebene bewegte Objekt außerhalb des Aufnahmebe
reichs der zuvor genannten Kamera befindet, mit: einer Bewegtobjekt-
Bildextraktionseinrichtung zum Herauslösen eines Bildes des zuvor beschriebenen be
wegten Objekts auf der Grundlage von Bildern, die von der zuvor genannten Kamera
aufgenommen sind; einer Bewegungsgeschwindigkeits-Detektionseinrichtung zur Erfas
sung der Bewegungsgeschwindigkeit des zuvor genannten bewegten Objekts aus Posi
tionsänderungen in Bildschirmbildern des zuvor genannten bewegten Objekts, die durch
die zuvor genannte Bewegtobjekt-Bildextraktionseinrichtung herausgelöst sind; und ei
ner Kontrolleinrichtung zur Steuerung der Bewegungsgeschwindigkeit des zuvor ge
nannten Schwenkkopfes auf der Grundlage der Bewegungsgeschwindigkeit des zuvor
genannten bewegten Objekts, die von der besagten Bewegungsgeschwindigkeits-
Detektionseinrichtung erhalten wird, so dass das besagte bewegte Objekt nicht aus dem
Aufnahmebereich herausläuft.
Ferner umfasst vorzugsweise die besagte Bewegtobjekt-Bildextraktionseinrichtung: eine
Vergleichsbereichs-Bestimmungseinrichtung zum Einlesen von Bildern für zwei Bild
schirme von der besagten Kamera und auf der Grundlage der Bewegungsgeschwindig
keit des besagten Schwenkkopfes zur Bestimmung eines Bereichs als den Vergleichs
bereich, in dem die Aufnahmebereiche der besagten Kamera überlappen, wenn die be
sagten entsprechenden Bilder für die beiden Bildschirme aufgenommen werden; und
eine Bildverarbeitungseinrichtung zur Extrahierung von Bildern innerhalb des Ver
gleichsbereichs, der aus den entsprechenden Bildern für die besagten beiden Bildschir
me durch die besagte Vergleichsbereichs-Bestimmungseinrichtung bestimmt ist, und zur
Extrahierung bzw. Herauslösung von Bildern des besagten bewegten Objekts durch
Vergleichen der zuvor genannten extrahierten entsprechenden Bildern.
Des Weiteren vergrößert vorzugsweise die besagte Kontrolleinrichtung den Aufnahme
bereich der zuvor genannten Kamera dann, wenn das besagte bewegte Objekt davor
ist, aus dem Aufnahmebereich der genannten Kamera herauszulaufen, auf der Grund
lage von Bildern des zuvor genannten bewegten Objekts, die durch die zuvor genannte
Bewegtobjekt-Bildextraktionseinrichtung extrahiert sind.
Erfindungsgemäß wird die Bewegungsgeschwindigkeit des bewegten Objekts erfasst,
und die Bewegungsgeschwindigkeit des Schwenkkopfes wird auf der Grundlage dieser
Bewegungsgeschwindigkeit gesteuert, und daher ist das Nachführverhalten des
Schwenkkopfes im Hinblick auf die Bewegung des bewegten Objekts verbessert, so
dass es möglich ist, dem bewegten Objekt in definierter Weise zu folgen. Ferner wird
der Vergleichsbereich zum Herauslösen des Bildes des bewegten Objekts aus dem von
der Kamera aufgenommenen Bild auf der Grundlage der Bewegungsgeschwindigkeit
des Schwenkkopfes bestimmt, und daher ist es möglich kostengünstige Teile für die
Bestimmung zu verwenden verglichen mit dem Fall, in dem der Vergleichsbereich auf
der Grundlage der Position des Schwenkkopfes bestimmt ist, wie dies in der japani
schen Patentoffenlegungsschrift 2000-175101 beschrieben ist. Das heißt, das Zeitinter
vall zum Einlesen entsprechender Bilder, die zwei Bildschirme füllen, kann in genauer
Weise bestimmt werden und dieses Zeitintervall ist kurz, und daher kann beispielsweise
das Auflösungsvermögen sowie die Genauigkeit der Geschwindigkeitserfassung zum
Detektieren, dass der Aufnahmebereich sich lediglich um 1 Pixel verschoben hat, gering
sein im Vergleich zum Falle der Positionserfassung, und die Verwendung preisgünstiger
Sensoren sowie A/D-Wandler und dergleichen wird ermöglicht. Ferner ist es möglich,
dass Bilder für zwei Bildschirmabbildungen eingelesen werden, während die Bewe
gungsgeschwindigkeit des Schwenkkopfes konstant ist, so das es nicht erforderlich ist,
dass der Zeitpunkt, an dem das Bild eingelesen wird, in genauer Weise mit dem Zeit
punkt übereinstimmt, wenn die Bewegungsgeschwindigkeit erfasst wird, und eine hohe
zeitliche Genauigkeit ist ebenso wenig erforderlich. Ohne das Vorsehen eines Positions-
Detektionssensors, wenn dafür ein Schrittmotor für den Schwenk/Neigungsvorgang
verwendet wird, ist es ferner möglich, den Vergleichsbereich aus der Bewegungsge
schwindigkeit zu ermitteln.
Wenn ferner die Bewegungsgeschwindigkeit des bewegten Objekts äußerst schnell ist
und bestimmt wird, dass dieses aus dem Aufnahmebereich der Kamera läuft, wird der
Aufnahmebereich der Kamera vergrößert, d. h. das Zoom-Objekt wird auf die Weitbe
reichsseite bewegt, so dass das bewegte Objekt mit der äußerst hohen Bewegungsge
schwindigkeit ohne Fehler verfolgt werden kann.
Um die zuvor beschriebene Aufgabe zu lösen, richtet sich die vorliegende Erfindung an
eine Nachführvorrichtung, die die Aufnahmerichtung einer Kamera ändert bzw. bewegt,
um einem bewegten Objekt zu folgen, mit: einer Bewegtobjekt-Bildextraktionseinrichtung
zur Herauslösung von Bildern eines bewegten Objekts aus Bildern, die von einer Kame
ra aufgenommen werden; einer Geschwindigkeits-Bestimmungseinrichtung zur Beurtei
lung, ob die Bewegungsgeschwindigkeit eines bewegten Objekts geringer oder höher ist
als die zuvor genannte Geschwindigkeit, auf der Grundlage von Bildern des bewegten
Objekts, die von der zuvor genannten Bewegtobjekt-Bildextraktionseinrichtung extrahiert
sind; eine Bereichs-Bestimmungseinrichtung zur Beurteilung, ob Bilder des zuvor ge
nannten bewegten Objekts innerhalb des Bereichs einer vorbestimmten Totzone liegen
oder nicht, die auf einem Aufnahmebildschirm der zuvor genannten Kamera festgelegt
ist, in dem Falle, dass die Bewegungsgeschwindigkeit des zuvor genannten bewegten
Objekts durch die zuvor beschriebene Geschwindigkeits-Bestimmungseinrichtung als
über der zuvor genannten geringen Geschwindigkeit liegend bestimmt wird; und einer
Aufnahmerichtungs-Steuerungseinrichtung, um Aufnahmerichtungen der zuvor genann
ten Kamera zu ändern, so dass bewirkt wird, dass sich das zuvor genannte bewegte
Objekt nicht aus dem Aufnahmebereich der zuvor genannten Kamera herausbewegt,
auf der Grundlage von Bildern des bewegten Objekts, die von der zuvor genannten Be
wegtobjekt-Bildextraktionseinrichtung extrahiert sind, wenn die Bewegungsgeschwindig
keit des zuvor genannten bewegten Objekts durch die zuvor genannte Geschwindig
keits-Bestimmungseinrichtung als über der zuvor genannten höheren Geschwindigkeit
liegend bestimmt wird, oder wenn das oben beschriebene bewegte Objekte durch die
zuvor genannte Bereichs-Bestimmungseinrichtung als außerhalb des Bereichs der zuvor
genannten Totzone liegend bestimmt wird, und zum Anhalten von Bewegungen in der
Aufnahmerichtung der zuvor genannten Kamera, wenn die Bewegungsgeschwindigkeit
des zuvor genannten bewegten Objekts durch die zuvor genannte Geschwindigkeits-
Bestimmungseinrichtung als über der zuvor genannten geringen Geschwindigkeit lie
gend bestimmt wird und das Bild des zuvor genannten bewegten Objekts als innerhalb
des Bereichs der zuvor genannten Totzone von der besagten Bereichs-
Bestimmungseinrichtung liegend bestimmt wird.
Erfindungsgemäß wird lediglich in dem Falle, in dem die Bewegungsgeschwindigkeit
des bewegten Objekts gering ist, die Aufnahmerichtung der Kamera mit Berücksichti
gung der Totzone, die auf dem Aufnahmebildschirm festgelegt ist, gesteuert, und daher
kann, wenn die Bewegungsgeschwindigkeit des bewegten Objekts hoch ist, eine Unan
nehmlichkeit aufgrund der Steuerung der Aufnahmerichtung der Kamera mit Berücksich
tigung der Totzone verhindert werden, und das bewegte Objekt kann in geeigneter Wei
se mit darstellungsfreundlichen Bildern verfolgt werden.
Um die obige Aufgabe zu lösen, richtet sich die vorliegende Erfindung an eine Nach
führvorrichtung, die Aufnahmerichtungen einer Kamera bewegt bzw. ändert, um einem
bewegten Objekt zu folgen, wobei die Aufnahmerichtungen der zuvor genannten Kame
ra nicht bewegt bzw. geändert werden, wenn das bewegte Objekt sich in Richtung des
Bildschirmmittelpunkts auf dem Aufnahmeschirm der zuvor genannten Kamera bewegt,
und wobei die Aufnahmerichtungen der zuvor genannten Kamera geändert werden, so
dass das oben beschriebene bewegte Objekt sich nicht aus dem Aufnahmebildschirm
herausbewegt, wenn das bewegte Objekt sich vom Schirmmittelpunkt zum Rand des
Schirms bewegt.
Erfindungsgemäß wird, wenn das bewegte Objekt sich in Richtung der Bildschirmmitte
bewegt, die Aufnahmerichtung der Kamera unbewegt gehalten, und daher folgt, wenn
beispielsweise das bewegte Objekte von außerhalb des Aufnahmebereichs der Kamera
in den Aufnahmebereich läuft, die Aufnahmerichtung der Kamera dem bewegten Objekt
und bewegt sich, nachdem das bewegte Objekt über den Bildschirmmittelpunkt hinaus
läuft, und somit wird ohne das Entstehen von Unannehmlichkeiten dahingehend, dass
die Aufnahmerichtung der Kamera sich in nutzloser Weise ändert, das Bild der Kamera
darstellungsfreundlich.
Entsprechend der vorliegenden Erfindung arbeitet die Nachführvorrichtung äußerst wir
kungsvoll.
Die Natur der vorliegenden Erfindung sowie weitere Aufgaben und Vorteile werden im
Folgenden mit Bezug zu den begleitenden Zeichnungen erläutert, wobei durchgehend in
den Figuren gleiche Bezugszeichen gleiche oder ähnliche Teile bezeichnen; es zeigen:
Fig. 1 eine schematische Aufbauansicht eines ferngesteuerten Schwenk
kopfsystems, in dem eine Nachführfunktion installiert ist, auf die die
vorliegende Erfindung angewendet ist;
Fig. 2 eine Blockansicht, die den Aufbau eines ferngesteuerten
Schwenkkopfsystems darstellt;
Fig. 3 ein Flussdiagramm der ersten Ausführungsform zum Prozessablauf
der Nachführprozedur;
Fig. 4(A) bis 4(C) erläuternde Ansichten der Abhängigkeit zwischen dem Objekt und
dem Aufnahmebereich, wenn der Schwenkkopf stillsteht;
Fig. 5 eine erläuternde Ansicht eines Beispiels eines Differenzbildes in
den Fällen der Fig. 4(A) bis 4(C);
Fig. 6 eine erläuternde Ansicht, die zur Beschreibung der Koordinaten auf
dem Bildschirm verwendet wird;
Fig. 7(A) bis 7(C) erläuternde Ansichten der Beziehung zwischen dem Objekt und
dem Aufnahmebereich, wenn der Schwenkkopf bewegt wird;
Fig. 8 eine erläuternde Ansicht eines Beispiels eines Differenzbildes im
Falle der Fig. 7(A) bis 7(C);
Fig. 9 eine erläuternde Ansicht der Erscheinungsform des Vergleichsbild
schirms (Vergleichsbereichs), wenn der Aufnahmebereich nach
rechts verschoben wird;
Fig. 10 eine erläuternde Ansicht der Erscheinungsform des Vergleichsbild
schirms (Vergleichsbereich), wenn der Aufnahmebereich nach links
verschoben ist;
Fig. 11(A) bis 11(C) erläuternde Ansichten der Beziehung zwischen dem Subjekt und
dem Aufnahmebereich jeweils des Bildes #1, des Bildes #2 und
des Bildes #3, wenn sich der Schwenkkopf 10 nach rechts bewegt;
Fig. 12 eine Ansicht eines Erscheinungsbildes, wenn ein bewegtes Objekt
in den Fig. 11(A) bis 11(C) herausgelöst wird;
Fig. 13 eine erläuternde Ansicht, die zur Beschreibung verwendet wird,
wenn der Verschiebungsbetrag des Aufnahmebereichs in Richtung
der Steuerspannung (Brennpunktabstand) der Schwenkgeschwin
digkeit und das Zoomen des Schwenkkopfes im Voraus in dem
Speicher gespeichert werden;
Fig. 14 eine Flussdiagramm, das den Verarbeitungsablauf zeigt, wenn der
Verschiebungsbetrag des Aufnahmebereichs in Richtung der Steu
erspannung (Brennpunktabstand) der Schwenkgeschwindigkeit
und des Zoomens des Schwenkkopfes im Voraus in dem Speicher
gespeichert werden;
Fig. 15 eine erläuternde Ansicht, die zur Beschreibung verwendet wird,
wenn der Aufnahmebereich sich zu erweitert, wenn die Bewe
gungsgeschwindigkeit des bewegten Objekts schnell ist;
Fig. 16(A) und 16(B) erläuternde Ansichten, die zur Beschreibung verwendet werden,
wenn der Aufnahmebereich verkleinert wird;
Fig. 17 ein Flussdiagramm für die Verarbeitung, wenn der Aufnahmebe
reich verkleinert wird;
Fig. 18 ein Flussdiagramm der zweiten Ausführungsform für den Proze
durablauf beim Nachführen;
Fig. 19 eine erläuternde Ansicht, die zur Beschreibung einer Totzone ver
wendet wird;
Fig. 20 eine erläuternde Ansicht, die zur Beschreibung einer Totzone ver
wendet wird;
Fig. 21 ein Flussdiagramm der dritten Ausführungsform der Verarbeitungs
prozedur zum Nachführen;
Fig. 22(A) bis 22(D) erläuternde Ansichten für die Beziehung zwischen der Position des
Schwenkpunkts des bewegten Objekts auf dem Bildschirm und der
Bildschirmmitte; und
Fig. 23(1) bis 23(3) erläuternde Ansichten, die zur Beschreibung des Prozessablaufes
aus Fig. 21 verwendet werden.
Im Folgenden wird eine bevorzugte Ausführungsform detailliert für einen Aufbau einer
Nachführvorrichtung gemäß bevorzugter Ausführungsformen der vorliegenden Erfin
dung in Übereinstimmung mit den begleitenden Zeichnungen beschrieben.
Es sollte selbstverständlich sein, dass nicht beabsichtigt ist, die Erfindung auf die spe
ziellen offenbarten Formen einzuschränken, sondern im Gegenteil die Erfindung soll alle
Modifikationen, alternative Ausgestaltungen und Äquivalente abdecken, die im Grund
gedanken und Schutzbereich der Erfindung liegen, die durch die angefügten Patentan
sprüche definiert ist.
Fig. 1 ist eine schematische Aufbauansicht eines ferngesteuerten Schwenkkopfsystems,
in dem die Nachführfunktion installiert ist, auf die die vorliegende Erfindung angewendet
ist. Ein ferngesteuertes Schwenkkopfsystem, das in der zuvor genannten Zeichnung
gezeigt ist, umfasst einen ferngesteuerten Schwenkkopf 10 (im Weiteren lediglich als
Schwenkkopf 10 bezeichnet), einen Schwenkkopfkontroller 12 und eine Bildverarbei
tungseinrichtung 14. Der Schwenkkopf 10 umfasst ein Gehäuse 15, um eine Fernseh
kamera (im Weiteren lediglich als eine Kamera bezeichnet) aufzunehmen, einen
Schwenkkopfhauptkörper 16 um die Kamera innerhalb des Gehäuses 15 durch Drehen
des gesamten Gehäuses 15 zu schwenken sowie zu neigen bzw. zu kippen. Die Vorder
fläche des Gehäuses 15 ist mit einem transparenten Schutzglas 17 versehen, und die
im Gehäuse 15 untergebrachte Kamera nimmt Bilder außerhalb des Gehäuses 15 durch
das Schutzglas 17 hindurch auf.
Das zuvor beschriebene Gehäuse 15 wird von einer Neigungs- bzw. Kippachse (nicht
gezeigt) gehalten, die sich von dem Schwenkkopfhauptkörper 16 erstreckt, und diese
Neigungsachse wird durch einen Neigungsmotor gedreht, der in dem
Schwenkkopfhauptkörper 16 eingebaut ist. Wenn daher der Neigungsmotor angetrieben
wird, wird das Gehäuse 15 mittels der Neigungsachse in Drehung versetzt, so dass die
Kamera innerhalb des Gehäuses 15 geneigt wird. Ferner ist der
Schwenkkopfhauptkörper 16 von einer Schwenkachse 18 gehalten, die an einem nicht
gezeigten Positionsständer befestigt ist, und der Schwenkkopfhauptkörper 16 wird von
einem eingebauten Schwenkmotor mit dieser Schwenkachse 18 als eine Antriebswelle
in Drehung versetzt. Wenn daher der Schwenkmotor betrieben wird, werden sowohl der
Schwenkkopfhauptkörper 16 sowie das Gehäuse 15 in Drehung versetzt, so dass die
Kamera innerhalb des Gehäuses 15 geschwenkt wird.
Der zuvor genannte Schwenkkopfkontroller 12 ist mit dem Schwenkkopf 10 mittels eines
Kabels (eine Verbindung über eine exklusive Leitung und eine Kommunikationsleitung,
etwa eine öffentliche Leitung, etc. ist möglich) verbunden und Kontrollsignale werden an
den Schwenkkopf 10 auf der Basis der Betätigungen von entsprechenden Arten von
Bedienelementen, die an dem Schwenkkopfkontroller 12 vorgesehen sind, übermittelt,
so dass die entsprechenden Betriebsarten des Schwenkkopfes 10 sowie die an dem
Schwenkkopf 10 montierte Kamera gesteuert werden. Ferner übermittelt der Schwenk
kopfkontroller 12 die Kontrollsignale an den Schwenkkopf 10 auf der Grundlage von
Signalen, die von der Bildverarbeitungseinrichtung 14 bereitgestellt sind, um den
Schwenkkopf 10 zu bewegen (Schwenken/Neigen), um zu bewirken, dass die Kamera
dem bewegten Objekt nachgeführt wird.
Fig. 2 ist eine Blockansicht, die den Aufbau des zuvor genannten ferngesteuerten
Schwenkkopfsystems beschreibt. Wie in der zuvor genannten Zeichnung gezeigt ist,
umfasst die Kamera 40, die in dem Gehäuse 15 des Schwenkkopfes 10 untergebracht
ist, einen Kamerahauptkörper 42 und eine Linseneinrichtung 44, die an dem Kamera
hauptkörper 42 befestigt ist. In dem Kamerahauptkörper 42 ist das abbildende Element
sowie die erforderliche Verarbeitungsschaltung enthalten, und ein Bild (Bewegtbild), das
auf das abbildende Element mittels des optischen Systems der Linseneinrichtung 44
fokussiert ist, wird als Bildsignale (Bildsignale des NTSC-Systems in der vorliegenden
Ausführungsform) ausgegeben. Aufnahmeaktivitäten, etwa der Beginn sowie das Been
den der Aufnahme, etc., in dem Kamerahauptkörper 42 werden auf Grundlage der Kon
trollsignale, die von dem Schwenkkopfkontroller 12 über den Schwenkkopf 10 bereitge
stellt werden, gesteuert. Ferner sind optische Elemente, etwa eine Fokuslinse oder eine
Zoomlinse, etc. die mittels eines Motors betätigbar sind, in der Linseneinrichtung 44 vor
gesehen, und Bewegungen dieser Fokussierlinse oder der Zoomlinse justieren den Fo
kus oder den Zoombereich der Kamera 40. Der Betrieb der Linseneinrichtung 44, etwa
das Fokussieren oder das Zoomen, werden auf der Grundlage der Kontrollsignale ge
steuert, die von dem Schwenkkopfkontroller 12 wie im Falle des Kamerahauptkörpers
42 geliefert werden.
Wie zuvor beschrieben ist, sind der Schwenkmotor und der Neigungsmotor an dem
Schwenkkopf 10 montiert und wenn die von dem Schwenkkopfkontroller 12 bereitge
stellten Kontrollsignale den Schwenkmotor und den Neigungsmotor in Betrieb setzen,
wird die Kamera 40 geschwenkt oder geneigt, so dass die Aufnahmerichtung der Kame
ra 40 sich bewegt bzw. ändert. Das Betätigen des Schwenkkopfes 10, wenn die Kamera
40 geschwenkt oder geneigt wird, wird in der vorliegenden Anmeldung beschrieben als
"der Schwenkkopf 10 bewegt sich".
Wie in den obengenannten Zeichnungen dargestellt ist, umfasst die Bildverarbeitungs
einrichtung 14 diverse Arten von Signalverarbeitungsschaltungen, etwa Y/C-Separier
schaltung 46, einen Bildspeicher 50, einen Bildverarbeitungsprozessor 52 und eine CPU
54, und diese Signalverarbeitungsschaltungen arbeiten wirkungsvoll, wenn der
Schwenkkopfkontroller 12 sich in der folgenden Betriebsweise befindet. Das von dem
Kamerahauptkörper 42 ausgegebene Bildsignal wird der Bildverarbeitungseinrichtung
14 eingespeist und zum Zeitpunkt des Nachführmodus wird dieses Bildsignal in Lumi
neszenzsignale (Y-Signal) und Farbdifferenzsignale mittels der Y/C-Separierschaltung
46 im Kamerahauptkörper aufgespalten. Hierbei wird das separierte Lumineszenzsignal
in ein digitales Signal (im Weiteren als Bilddaten bezeichnet) mittels eines A/D-Wandlers
48 umgewandelt und in den Bildspeicher 50 eingespeist. Andererseits wird ein Synchro
nisiersignal des Bildsignals an den Bildverarbeitungsprozessor 42 von der Y/C-
Separierschaltung 46 geliefert, so dass ein Befehl zum Schreiben von Daten in den
Bildspeicher 50 von dem Bildverarbeitungsprozssor 52 zu einem notwendigen Zeitpunkt
auf der Grundlage dieses Synchronisiersignals ausgegeben wird. Dies bewirkt, dass der
Bildspeicher 50 die Bilddaten speichert, die mehrere Bildschirme bzw. Bildrahmen in
einem vorbestimmten Zeitintervall füllen bzw. bedecken, wie dies später beschrieben
wird. Da das Bildsignal des NTSC-Systems ein Zeilensprungsystem verwendet, ist das
Bild für einen Bildschirm aus einem Bild für zwei Felder aufgebaut, aber der Wortlaut
"Bilddaten eines Bildschirms" in der vorliegenden Beschreibung bedeutet, dass die Bild
daten einen Bildschirminhalt aus einer Reihe von Bildern, die in einer aufeinanderfol
genden Weise aufgenommen sind, bilden, und in der vorliegenden Ausführungsform
sollen sich die Bilddaten eines Bildrahmens bzw. Bildschirms auf die Bilddaten für ein
Feld beziehen.
Wie zuvor beschrieben ist, werden die Bilddaten für mehrere Bildschirminhalte, die in
dem Bildspeicher 50 gespeichert sind, wie dies später beschrieben wird, von dem Bild
verarbeitungsprozessor 52 ausgelesen und werden einer Bildverarbeitung unterzogen;
ferner wird ein Berechnungsvorgang mittels der CPU 54 auf der Grundlage der Ergeb
nisse dieser Bildverarbeitung durchgeführt, und es wird die Bewegungsgeschwindigkeit
in der Schwenkrichtung sowie in der Neigungsrichtung (die Schwenkgeschwindigkeit
und die Neigungsgeschwindigkeit) des Schwenkkopfes 10 zur Nachführung der Kamera
40 im Hinblick auf das bewegte Objekt berechnet. Der CPU 54 wird die Brennweite
(Bildwinkel) der Linseneinrichtung 44 zu jedem Zeitpunkt sowie die Bewegungsge
schwindigkeit des Schwenkkopfes 10 (die Schwenkgeschwindigkeit und die Neigungs
geschwindigkeit) von dem Schwenkkopfkontroller 12 zur Berechnung der Bewegungs
geschwindigkeit (für die Berechnung des nachfolgend beschriebenen Vergleichsbild
schirms) zugeführt.
Wenn der Schwenkkopfkontroller 12 auf die folgende Betriebsweise festgelegt ist, wird
dem zuvor genannten Schwenkkopfkontroller 12 die Bewegungsgeschwindigkeit, die
von der CPU 54 der Bildverarbeitungseinrichtung 14 berechnet wird, als das Befehlssig
nal zugeführt, so dass ein Kontrollsignal von dem Schwenkkopfkontroller 12 an den
Schwenkkopf 10 übermittelt wird, um diese Bewegungsgeschwindigkeit zu realisieren.
Wenn andererseits der Schwenkkopfkontroller 12 nicht auf den folgenden Modus festge
legt ist, wird ein Kontrollsignal von dem Schwenkkopfkontroller 12 zu dem Schwenkkopf
10 auf der Grundlage der Betätigung des entsprechenden Bedienelementes, das an
dem Schwenkkopfkontroller 12 in der oben beschriebenen Weise vorgesehen ist, über
mittelt, so dass die entsprechenden Betriebsweisen des Schwenkkopfes 10 sowie der
Kamera 40, die auf dem Schwenkkopf 10 montiert ist, gesteuert werden.
Basierend auf dem Flussdiagramm in Fig. 3 werden der Verarbeitungsinhalt bzw. die
Verarbeitungsregeln des zuvor genannten Bildverarbeitungsprozessors 52 sowie der
CPU 54 der Bildverarbeitungseinrichtung 14 beschrieben, wenn die folgende Betriebs
weise in dem ferngesteuerten Schwenkkopfsystem, das in der oben beschriebenen
Weise aufgebaut ist, festgelegt ist. In dem Flussdiagramm aus Fig. 3 sowie in der nach
folgenden Beschreibung wird im Wesentlichen der Prozessablauf, der sich auf die Be
wegung in der Schwenkrichtung des Schwenkkopfes 10 bezieht, dargestellt, aber für
eine Bewegung in der Neigungsrichtung gilt der gleiche Prozessablauf wie für die
Schwenkrichtung.
Zunächst nimmt der Bildverarbeitungsprozessor 52 die Bilddaten (dieses Bild wird als
Bild #1 betrachtet) für einen Bildschirm, das von dem Kamerahauptkörper 52 der Kame
ra 40 mittels der Y/C-Separierschaltung 46 und dem A/D-Wandler 48 erhalten wird, in
den Bildspeicher 50 auf (Schritt S10).
Anschließend beurteilt der Bildverarbeitungsprozessor 52, ob die Zeit für vier Felder
(1/59.94 Sekunden pro Feld) verstrichen ist, mittels des Synchronisiersignals, das von
der Y/C-Separierschaltung 46 bereitgestellt wird (Schritt S12), und wenn die Zeit für vier
Felder verstrichen ist, werden die Bilddaten (dieses Bild wird als Bild #2 betrachtet) für
einen Bildschirm in den Bildspeicher 50 übernommen, wie dies für das Bild #1 der Fall
ist (Schritt S14).
Ferner beurteilt der Bildverarbeitungsprozessor 52 mittels des von der Y/C-Separier
schaltung 46 bereitgestellten Synchronisiersignals, ob die Zeit für vier Felder (1/59.94
Sekunden pro Feld) verstrichen ist (Schritt S16), und wenn die Zeit für 4 Felder abgelau
fen ist, werden die Bilddaten (dieses Bild wird als Bild #3 betrachtet) für einen Bildschirm
in den Bildspeicher 50 übernommen, wie dies für die Bilder #1 und #2 der Fall ist (Schritt
S18).
Wie zuvor beschrieben ist, übernimmt die CPU 54, wenn Bilddaten für drei Bildschirmin
halte in dem Bildspeicher 50 gespeichert sind, den fokalen Abstand (Bildwinkel) der
Kamera 40 (Linseneinrichtung 44) sowie die Bewegungsgeschwindigkeit des Schwenk
kopfes 10 von dem Schwenkkopfkontroller 12, und basierend darauf werden der Ver
gleichsbereich (Vergleichsbildschirm) des Bildes #1 und des Bildes #3 festgelegt und
der Vergleichsbildschirminhalt davon wird dem Bildverarbeitungsprozessor 52 zugeord
net (Schritt S20). Die Daten für die Bewegungsgeschwindigkeit, die zum Festlegen des
Vergleichsbildschirminhalts verwendet werden, müssen nicht von dem
Schwenkkopfkontroller 12 gesammelt werden, sondern können Daten von der
Bewegungsgeschwindigkeit sein, die die CPU 54 dem Schwenkkopfkontroller 12
zugewiesen hat, wie dies zuvor beschrieben ist.
Es wird nunmehr der Vergleichsbildschirminhalt bzw. der Vergleichsbildrahmen be
schrieben. Wie nachfolgend gezeigt ist, vergleicht der Bildverarbeitungsprozessor 52
das Bild #1 mit dem Bild #3, um die Differenzwerte entsprechend der Pixel (im Weiteren
als Pixelwerte bezeichnet) dieser Bilddaten zur Erstellung von Differenzbildern aus
zugeben. Die Differenzbilder werden erzeugt, um das Bild des bewegten Objekts, das
das Objekt werden soll, dem zu folgen ist, aus den beiden Bildern #1 und #3 zu extra
hieren, und zur Extraktion des Bildes des bewegten Objekts mittels dieses Differenzbil
des ist es notwendig, das Differenzbild von den Bildern innerhalb des gleichen Aufnah
mebereichs (der Bereich, in dem die Aufnahmebereiche sich überlappen) in dem Auf
nahmebereich des Bildes #1 und dem Aufnahmebereich des Bildes #3 zu erhalten.
Wenn beispielsweise der Schwenkkopf 10 stillsteht, wie dies unmittelbar zu Beginn der
folgenden Prozesssequenz der Fall ist, sind die Aufnahmebereiche des Bildes #1 und
des Bildes #3 gleich. Fig. 4(A) zeigt die Beziehung zwischen dem Objekt und dem Auf
nahmebereich in diesem Falle, und der Aufnahmebereich L des Bildes #1 entspricht
vollständig dem Aufnahmebereich L' des Bildes #3. In der Zeichnung ist das mit einem
Kreis gekennzeichnete Objekt ein bewegtes Objekt, während die mit Dreiecken gekenn
zeichneten Objekte statische Objekte sind. Ferner ist das bewegte Objekt an der mit A
gekennzeichneten Position, die in der Zeichnung zum Zeitpunkt der Aufnahme des Bil
des #1 dargestellt ist, angeordnet, und diese soll sich an die mit B in der Zeichnung ge
kennzeichneten Position zur Zeit der Aufnahme des Bildes #3 bewegen.
Dabei bilden das Bild #1 und das Bild #3, die in dem Bildspeicher 50 gespeichert sind,
einen Bildschirminhalt, wie er in Fig. 4(B) und Fig. 4(C) gezeigt ist, und in diesen Bild
schirminhalten dieser Bilder #1 und #3 ist das Bild der statischen Objekte, die durch
Dreiecke gekennzeichnet sind, an der gleichen Koordinatenstelle, aber lediglich das Bild
des bewegten Objekts, das durch den Kreis gekennzeichnet ist, ist an der unterschiedli
chen Koordinatenstelle vorhanden.
Wenn folglich die Differenz der Pixelwerte zwischen Pixeln an den entsprechenden
Positionen (die gleiche Koordinate) aus dem gesamten Bildschirmbereich (innerhalb des
gesamten Aufnahmebereichs) des Bildes #1 und des Bildes #3 erhalten wird, wird in
diesem Differenzbild der Pixelwert der statischen Objekte zu 0, und es wird in dem Diffe
renzbild durch Extraktion lediglich das bewegte Objekt erhalten, wie dies in Fig. 5 ge
zeigt ist. Die Koordinaten entsprechender Punkte auf den Bildschirmen der entspre
chenden Bilder werden der Anordnung von Pixeln unterzogen, die eine Matrix zum Auf
bau eines Bildschirminhalts bilden, und werden, wie in Fig. 6 gezeigt ist, als Spalten
nummer jedes Punktes in der horizontalen Richtung (1 bis X in geordneter Reihenfolge
von dem Pixel an dem linken Ende des Bildschirminhalts (X entspricht der Pixelanzahl,
die die horizontale Auflösung kennzeichnet)) und werden durch die Zeilennummer jedes
Punktes in der senkrechten bzw. vertikalen Richtung ausgedrückt (1 bis Y in der
geordneten Reihenfolge von dem Pixel am oberen Ende des Bildschirminhalts (Y
entspricht der Pixelanzahl, die die senkrechte Auflösung kennzeichnet)).
Andererseits sind, wenn der Schwenkkopf 10 bewegt wird, die Aufnahmebereiche an
entsprechenden Aufnahmezeitpunkten des Bildes #1 und des Bildes #3 unterschiedlich.
Fig. 7(A) zeigt die Beziehung zwischen dem Objekt und dem Aufnahmebereich in die
sem Falle, und der Aufnahmebereich L des Bildes #1 ist verschieden von dem Aufnah
mebereich L' des Bildes #3. Die Objekte (das bewegte Objekt und die statischen Objek
te) in der Zeichnung sind unter den gleichen Bedingungen wie in Fig. 4(A) dargestellt.
Dabei bilden das Bild #1 und das Bild #3, die in dem Bildspeicher 50 gespeichert sind,
jeweils die Bildschirminhalte, wie sie in Fig. 7(B) und 7(C) gezeigt sind, und somit ist das
Bild der statischen Objekte, die durch Dreiecke gekennzeichnet sind, nicht an der glei
chen Koordinatenstelle in den entsprechenden Bildschirminhalten dieser Bilder #1 und
#3 vorhanden. Wenn daher das Differenzbild über die Gesamtheit dieser Bildschirmbe
reiche erhalten wird, wie dies zuvor beschrieben ist, wird ein derartiges Differenzbild
erhalten, als ob die statischen Objekte ein bewegtes Objekt wären, und das bewegte
Objekt kann nicht in geeigneter Weise extrahiert werden.
Unter dieser Bedingung werden die Bilder aus dem gesamten Bildschirmbereiches des
Bildes #1 und des gesamten Bildschirmbereichs des Bildes #3 in dem Bereich, an dem
sich die Aufnahmebereiche überlappen, d. h. in dem Bereich, in dem der Aufnahmebe
reich L des Bildes #1 den Aufnahmebereich L' des Bildes #3 überlappt, jeweils aus dem
Bild #1 und dem Bild #3 extrahiert, so dass die Differenz der Pixelwerte der entspre
chenden Position zwischen den Bildern innerhalb des extrahierten Bereichs ermittelt
wird und somit das Differenzbild gegeben ist. Dabei wird in diesem Differenzbild der Pi
xelwert der statischen Objekte zu 0, so dass das Differenzbild eine Herauslösung ledig
lich des bewegten Objekts zulässt, wie dies in Fig. 8 gezeigt ist.
Um das Differenzbild, das einer Herauslösung des bewegten Objekts zu unterziehen ist,
aus dem Bild #1 und dem Bild #3 zu erhalten, ist es notwendig, einen Vergleichsbereich
festzulegen, um dieses Differenzbild in die entsprechenden Bildschirme des Bildes #1
und des Bildes #3 einzulesen, und ein für diesen Vergleichsbereich zugrunde liegender
Bildbereich bzw. Bildschirminhalt ist der Vergleichsbildbereich bzw. Bildschirminhalt.
Dabei ist der Vergleichsbildschirmbereich als ein Bildschirmbereich des Aufnahmebe
reichs festgelegt, an dem sich der Aufnahmebereich L des Bildes #1 mit dem Aufnah
mebereich L' des Bildes #3 überlappt. Wie im Falle in Fig. 4, wenn der Schwenkkopf 10
stillsteht, entspricht der Aufnahmebereich L des Bildes #1 vollständig dem Aufnahmebe
reich L' des Bildes #3, und daher wird, wie in den Fig. 4(B) und 4(C) gezeigt ist, der Ver
gleichsbildbereich P als ein Bildbereich über den gesamten Bildschirmbereich in den
entsprechenden Bildschirmen des Bildes #1 und des Bildes #3 festgelegt. Andererseits
ist in dem Falle, in dem sich der Schwenkkopf 10 wie in Fig. 7 bewegt, der Aufnahmebe
reich L des Bildes #1 unterschiedlich zu dem Aufnahmebereich L' des Bildes #3, und
daher ist, wie in den Fig. 7(B) und 7(C) gezeigt ist, der Vergleichsbildbereich P als ein
Bildbereich eines Bereichs festgelegt, an dem der Aufnahmebereich L des Bildes #1 den
Aufnahmebereich L' des Bildes #3 an den entsprechenden Bildschirmen des Bildes #1
und des Bildes #3 überlappt.
Zur Beschreibung eines konkreten Prozessablaufes zum Festlegen des Vergleichsbild
bereichs gilt: wenn das Bild #1 und das Bild #3 in dem Bildspeicher 50 eingelesen wer
den, wie dies zuvor beschrieben, erhält die CPU 54 die gegenwärtige Brennweite der
Linseneinrichtung 44 und die momentane Bewegungsgeschwindigkeit (Schwenkge
schwindigkeit) des Schwenkkopfes 10 von dem Schwenkkopfkontroller 12. Ferner ermit
telt die CPU 54 einen Aufnahmebildwinkel (horizontaler Bildwinkel, der den Winkelbe
reich in der horizontalen Richtung anzeigt) aus der Brennweite der Linseneinrichtung 44,
um aus diesem Aufnahmebildwinkel und der Bewegungsgeschwindigkeit zu berechnen,
wie viele Pixel der Aufnahmebereich des Bildes #3 in Einheiten der Pixelanzahl bei der
Verschiebung in der horizontalen Richtung gegenüber dem Aufnahmebereich des Bildes
#1 bedeckt. Dieser Verschiebungsbetrag (Einheit: Pixel) beträgt:
Verschiebung = (R/A) × V × T (1)
wobei V (Einheit: Grad/Sekunde) die Bewegungsgeschwindigkeit (Schwenkgeschwin
digkeit) des Schwenkkopfes 10, R (Einheit: Pixel) die Auflösung (horizontale Auflösung)
des Bildes, A (Einheit: Grad) der Aufnahmebildwinkel (horizontaler Bildwinkel) und T
(Einheit: Sekunde) die Aufnahmezeitdifferenz (Zeitintervall zur Aufnahme von Einzelbil
dern des Bildes #1 und des Bildes #3) des Bildes #3 gegenüber dem Bild #1 sind. Bei
der Berechnung des Verschiebebetrags in der senkrechten Richtung ist die Bewegungs
geschwindigkeit V die Neigungsgeschwindigkeit, die Auflösung R die senkrechte Auflö
sung und der Aufnahmebildwinkel A der senkrechte Bildwinkel, der den Winkelbereich in
der senkrechten Richtung kennzeichnet. Wenn ferner das Bild #1 nach dem Verstrei
chen einer Zeitspanne zum Ausfüllen von acht Feldern nach dem Bild #3 eingelesen
wird, ist die Aufnahmezeitdifferenz T ein Wert, der sich durch Verachtfachung der Zeit
(1/59.94 Sekunden) zur Ausfüllung eines Feldes ergibt.
Das Bild #3 wird jedoch wiederholt erneuert, wenn die Bewegungsgeschwindigkeit des
bewegten Objekts langsam ist, wie dies nachfolgend beschrieben wird, und daher ist die
Aufnahmezeitdifferenz T nicht auf diesen Wert beschränkt.
Beim Berechnen des Verschiebungsbetrags mit der oben angeführten Gleichung (1) legt
die CPU 54 den Vergleichsbildbereich auf den Bildschirminhalt des Bildes #1 und des
Bildes #3 auf der Grundlage dieses Verschiebebetrags fest. Wie in Fig. 9 gezeigt ist,
heißt dies, dass, wenn der Aufnahmebereich L' des Bildes #3 gegenüber dem Aufnah
mebereich L des Bildes #1 nach rechts bewegt wird (der Schwenkkopf 10 bewegt sich
nach rechts), der Rand des Bereichs (der Bereich, der durch schraffierte Linien in der
Zeichnung dargestellt ist) ohne die Anzahl der Pixel, die den Verschiebungsbetrag vom
linken Ende des Bildschirm in dem gesamten Bildschirmbereichs des Bildes #1 ausfül
len, als der Vergleichsbildbereich P im Hinblick auf den Vergleichsbildbereich des Bildes
#1 festgelegt ist, und andererseits der Rand des Bereichs (der Bereich, der durch
Schraffur dargestellt ist) ohne die Pixelanzahl, die den Verschiebungsbetrag vom rech
ten Ende des Bildschirms in dem gesamten Bildschirmbereich des Bildes #3 ausfüllen,
als der Vergleichsbildschirmbereich P im Hinblick auf den Vergleichsbildbereich des
Bildes #3 festgelegt ist. Wie in Fig. 10 gezeigt ist, ist, wenn der Aufnahmebereich L' des
Bildes #3 sich gegenüber dem Aufnahmebereich L des Bildes #1 nach links bewegt (der
Schwenkkopf 10 bewegt sich nach links) der Rand des Bereichs (der Bereich, der in der
Zeichnung durch schraffierte Linien dargestellt ist) ohne die Anzahl der Pixel, die den
Verschiebungsbetrag von dem rechten Ende des Bildschirms in dem gesamten Bild
schirmbereich des Bildes #1 ausfüllen, als der Vergleichsbildschirmbereich P im Hinblick
auf den Vergleichsbildbereich des Bildes #1 festgelegt, und andererseits ist der Rand
bzw. der Umriss des Bereichs (der Bereich, der in der Zeichnung schraffiert dargestellt
ist) ausschließlich der Anzahl der Pixel, die den Verschiebungsbetrag von dem linken
Ende des Bildschirms in dem gesamten Bildschirmbereich des Bildes #3 ausfüllen, als
der Vergleichsbildbereich P im Hinblick auf den Vergleichsbildbereich des Bildes #3
festgelegt. Ähnliches gilt für den Fall, dass sich der Schwenkkopf 10 nach oben und
nach unten bewegt.
Die Beschreibung wird wieder mit Bezug zu dem Flussdiagramm in Fig. 3 weitergeführt;
wenn der Vergleichsbildbereich durch die CPU 54 in der oben beschriebenen Weise
festgelegt ist, und dieser Vergleichsbildbereich dem Bildverarbeitungsprozessor 52 mit
geteilt wird, extrahiert der Bildverarbeitungsprozessor 52 anschließend das Bild inner
halb des Vergleichsbildbereichs jeweils des Bildes #1 und des Bildes #3, so dass das
Differenzbild des Bildes #1 und des Bildes #3 durch dieses extrahierte Bild erhalten wird
(Schritt S22). Das heißt, aus den Bilddaten innerhalb der Vergleichsbildbereiche des
Bildes #1 und des Bildes #3 wird die Differenz der Pixelwerte der Pixel in den entspre
chenden Positionen (Pixel, die an der gleichen Stelle im Vergleichsbildbereich vorhan
den sind) ermittelt und der Absolutwert (|#1 - #3|) wird erhalten. Dies bewirkt, dass ledig
lich Bilder des bewegten Objekts herausgelöst werden, wie dies oben in Fig. 5 und Fig.
8 gezeigt ist, und dieses bewegte Objekt wird als das Objekt erkannt, dem zu folgen ist.
Anschließend codiert der Bildverarbeitungsprozessor 52 die Bilddaten jedes Pixels des
Differenzbildes, das aus dem Schritt S22 erhalten wird, in binärer Form (Schritt S24).
Dieser Prozess liefert idealerweise eine 1 für den Pixelwert des Bildes des bewegten
Objekts und ansonsten eine 0. Ferner wird das binär codierte Differenzbild einem Redu
ziervorgang unterzogen, so dass ein Untergrundrauschen entfernt wird (Schritt S26). Im
Weiteren wird das Differenzbild, das binär codiert und reduziert ist, als Differenzbild be
zeichnet.
Anschließend ermittelt der Bildverarbeitungsprozessor 52 die Gesamtzahl der Pixel mit
einer 1 auf der Grundlage der Pixelwerte des Differenzbildes, um den Bereich des ge
samten Bildes des bewegten Objekts (im Weiteren lediglich als der Bereich bzw. die
Fläche des bewegten Objekts bezeichnet) zu ermitteln (Schritt S28). Die Beispiele lie
fern den Bereich zweier Kreise, die Bilder vor und nach der Bewegung des bewegten
Objekts kennzeichnen. Des Weiteren wird der erhaltene Bereich der CPU 54 mitgeteilt.
Die CPU 54 erhält den Bereich von dem Bildverarbeitungsprozessor 52, um zu beurtei
len, ob der Bereich größer als ein vorbestimmter Schwellwert ist oder nicht (Schritt S30).
Wenn dies nicht der Fall ist, ist das bewegte Objekt ein Objekt, dem nicht gefolgt wird,
dies schließt den Fall ein, wenn dem bewegten Objekt bis zu dessen Anhalten gefolgt
worden ist, oder den Fall, in dem das bewegte Objekt klein ist oder wenn lediglich kleine
Objekte vorhanden sind, die nicht als zu verfolgende Objekte zu betrachten sind, bewegt
werden, und dergleichen. In diesem Falle geht der Prozessablauf zurück zum Schritt
S10, so dass die Bearbeitungssequenz ab dem Aufnehmen eines Bildes wiederholt
wird.
Wenn andererseits ein JA bestimmt wird in dem oben beschriebenen Schritt S30, d. h.,
wenn das bewegte Objekt aus dem Differenzbild erfasst wird, ermittelt der Bildverarbei
tungsprozessor 52 anschließend das Hauptmoment über das gesamte Bild des beweg
ten Objekts aus dem Differenzbild (Schritt S32), und das Hauptmoment wird durch den
Bereich bzw. die Fläche des bewegten Objekts geteilt, so dass der Schwerpunkt des
bewegten Objekts ermittelt wird (Schritt S34). Hierbei wird der Schwerpunkt des beweg
ten Objekts beispielsweise mit Koordinaten auf dem Bildschirm des Bildes #1 ausge
drückt, und die Koordinate des Schwerpunkts wird der CPU 54 zugeleitet. Der Schwer
punkt des bewegten Objekts, der durch das Bild #1 und das Bild #3 gegeben ist, wird im
folgenden als der Schwerpunkt 1-3 ausgedrückt.
Anschließend legt die CPU 54, die den Vergleichsbereich (Vergleichsbildbereich) des
Bildes #1 und des Bildes #3 in dem oben genannten Schritt S20 festgelegt hat, in ähnli
cher Weise den Vergleichsbereich (Vergleichsbildbereich) des Bildes #1 und des Bildes
#2 auf der Grundlage der Brennweite (Bildwinkels) der Kamera 40 (Linseneinrichtung
44) sowie der Bewegungsgeschwindigkeit des Schwenkkopfes 10 fest, und dieser Ver
gleichsbereich wird an den Bildverarbeitungsprozessor 52 weitergeleitet (Schritt S36).
Ferner ermitteln der Bildverarbeitungsprozessor 52 sowie die CPU 54, die den Schwer
punkt des bewegten Objekts aus dem Bild #1 und dem Bild #3 im oben beschriebenen
Schritt S22 bis Schritt S34 (ausschließlich des Schritts S30) festgelegt hat, in ähnlicher
Weise den Schwerpunkt des bewegten Objekts aus dem Bild #1 und dem Bild #2
(Schritt S38 bis Schritt S48). Der durch das Bild #1 und das Bild #2 gegebene Schwer
punkt des bewegten Objekts wird im folgenden als der Schwerpunkt 1-2 ausgedrückt.
Fig. 11 zeigt hierbei die Beziehung zwischen dem Objekt und dem entsprechenden Auf
nahmebereichen des Bildes #1, des Bildes #2 und des Bildes #3 für den Fall, wenn bei
spielsweise der Schwenkkopf 10 nach rechts bewegt wird (im Falle, dass der Aufnah
mebereich nach rechts verschoben wird), und die Verschiebungsbeträge für die Ver
schiebung 1 und für die Verschiebung 2 der Aufnahmebereiche jeweils des Bildes #2
und des Bildes #3 gegenüber dem Aufnahmebereich des Bildes #1 werden jeweils mit
der oben dargestellten Gleichung (1) berechnet. Dabei wird die Schwenkgeschwindig
keit des Schwenkkopfes 10 während der Aufnahme des Bildes #1 und des Bildes #3 als
näherungsweise konstant angenommen, und daher ist der Verschiebungsbetrag der
Verschiebung 1 die Hälfte des Verschiebungsbetrags der Verschiebung 2. Des Weiteren
bewirkt, wie oben beschrieben ist, ein Vergleich (Ermitteln der Differenzbilder) des Bil
des #1 mit dem Bild #3 sowie ein Vergleich des Bildes #1 mit dem Bild #2, dass die Bil
der M1, M2 und M3 des bewegten Objekts auf dem Bildschirm des Bildes #1 herausge
löst werden, wie in Fig. 12 gezeigt ist. Vergleich des Bildes #1 mit dem Bild #3 bewirkt,
dass das Bild M1 und M3 herausgelöst werden, während der Vergleich des Bildes #1
mit dem Bild #2 bewirkt, dass das Bild M1 und das Bild M2 herausgelöst werden. Mit
diesen somit extrahierten Bildern des bewegten Objekts wird der Schwerpunkt 1-3 sowie
der Schwerpunkt 1-2 des oben genannten bewegten Objekts als eine Position berech
net, die mit "+" in der Zeichnung auf dem Bildschirm des Bildes #1 gekennzeichnet ist.
Wenn der Schwerpunkt 1-3 sowie der Schwerpunkt 1-2 in der oben beschriebenen Wei
se bestimmt ist, ermittelt die CPU 54 die Differenz zwischen dem Schwerpunkt 1-3 und
dem Schwerpunkt 1-2, d. h. (Schwerpunkt 1-3) - (Schwerpunkt 1-2) (Schritt S50), und
basierend darauf wird die Bewegungsgeschwindigkeit des bewegten Objekts berechnet
(Schritt S52).
Hierbei bewegt sich auf dem Bildschirm das bewegte Objekt über eine Entfernung von
dem Bild M1 zu dem Bild M3 des bewegten Objekts, d. h. über eine vierfache Entfernung
von (Schwerpunkt 1-3) - (Schwerpunkt 1-2), wie in Fig. 12 während der verstrichenen
Zeit T (abgelaufene Zeit während des Ausfüllens von acht Feldern = (1/59.94) × 8) von
dem Zeitpunkt an, wenn das Bild #1 eingelesen wird (Aufnahmezeit) zu dem Zeitpunkt,
wenn das Bild #3 eingelesen wird (Aufnahmezeit), und damit ist mit ΔL als (Schwerpunkt
1-3) - (Schwerpunkt 1-2) die Bewegungsgeschwindigkeit V (Einheit: Pixel/Sekunde) in
der Schwenkrichtung des bewegten Objekts auf dem Bildschirm durch die folgende Glei
chung (2) gegeben:
V = ΔL × 4/T (2)
Ferner ist mit R (Einheit: Pixel) als Auflösung (horizontale Auflösung) des Bildes und mit
A (Einheit: Grad) als Aufnahmebildwinkel (horizontaler Bildwinkel), die Bewegungsge
schwindigkeit V (Einheit: Grad/Sekunde) in der Schwenkrichtung des bewegten Objekts
im tatsächlichen Raum durch die folgende Gleichung (3) gegeben:
V = v × A/R (3)
Wenn die Bewegungsgeschwindigkeit in der Neigungsrichtung des bewegten Objekts
berechnet wird, ist die Auflösung R die senkrechte Auflösung und der Aufnahmebildwin
kel V ist ein senkrechter Bildwinkel, der den Winkelbereich in der senkrechten bzw. ver
tikalen Richtung kennzeichnet.
Die CPU 54 berechnet die Bewegungsgeschwindigkeit V des bewegten Objekts in der
oben beschriebenen Weise, um dem Schwenkkopfkontroller 12 ein Befehlssignal zu
übermitteln, um eine Bewegung in der Schwenkrichtung des Schwenkkopfes 10 mit der
Bewegungsgeschwindigkeit V anzuordnen (Schritt S54). Dies ergibt eine Steuerung der
Schwenkgeschwindigkeit des Schwenkkopfes 10 mittels des Schwenkkopfkontrollers
12. Ferner beurteilt die CPU 54, ob die momentane Bewegungsgeschwindigkeit
(Schwenkgeschwindigkeit) des Schwenkkopfes 10, die von dem Schwenkkopfkontroller
12 vorgegeben ist, die von der CPU 54 vorgeschriebene Schwenkgeschwindigkeit er
reicht hat (Schritt S56), und wenn dies der Fall ist, geht der Prozessablauf zu dem oben
genannten Schritt S10 zurück, so dass die zuvor beschriebene Bearbeitungssequenz
wiederholt wird.
Wenn die Bewegungsgeschwindigkeit des bewegten Objekts erfasst wird, werden im
bisher beschriebenen Prozessablauf die Bilder #1 bis #3, die drei Bildbereiche füllen, so
aufgenommen, dass ein Vergleich des Bildes #1 mit dem Bild #3 sowie ein Vergleich
des Bildes #1 mit dem Bild #2 die Schwerpunkte ergibt, und zwar den Schwerpunkt 1-3
und den Schwerpunkt 1-2; aber ohne Einschränkung darauf kann der Vergleich des Bil
des #1 mit dem Bild #2 sowie der Vergleich des Bildes #2 mit dem Bild #3 zwei Schwer
punkte ergeben, so dass die Bewegungsgeschwindigkeit des bewegten Objekts erfasst
wird, und Vergleich der Bilder #1-4, die vier Bildbereiche ausfüllen, können angestellt
werden, so dass ein Vergleich mit zwei nicht überlappenden Gruppen von Bildern, die
zwei Bildbereiche ausfüllen, wobei beispielsweise ein Vergleich des Bildes #1 mit dem
Bild #2 sowie ein Vergleich des Bildes #3 mit dem Bild #4 zwei Schwerpunkte ergeben,
um die Bewegungsgeschwindigkeit des bewegten Objekts zu detektieren.
Anschließend wird ein Verfahren zum Bestimmen des Verschiebungsbetrags beim Fest
legen des Vergleichsbildbereichs in den zuvor genannten Schritten S20 und S36 (Ver
schiebungsbetrag des Aufnahmebereiches des Bildes #2 und des Bildes #3 gegenüber
dem Aufnahmebereich des Bildes #1) in konkreter Weise beschrieben. Es wird der Fall
des Verschiebungsbetrags in horizontaler Richtung beschrieben, wobei lediglich die
Schwenkrichtung des Schwenkkopfes 10 berücksichtigt wird.
Wie in der zuvor genannten Gleichung (1) angedeutet ist, kann der Verschiebungsbe
trag auf der Grundlage der Schwenkgeschwindigkeit des Schwenkkopfes 10 und des
Bildwinkels (Brennweite) ermittelt werden, und die Werte der Schwenkgeschwindigkeit
und des Bildwinkels können durch die CPU 54 bestimmt werden, die dazu vorbestimmte
Daten vom Schwenkkopfkontroller 12 erhält. Beispielsweise kann durch Empfangen der
Schwenkgeschwindigkeitsdaten von dem Schwenkkopfkontroller 12, die dieser als ein
Kontrollsignal übermittelt, der Wert der Schwenkgeschwindigkeit, die zur Berechnung
des Verschiebungsbetrags verwendet wird, bestimmt werden. Der Wert der für die Be
rechnung des Verschiebungsbetrags verwendeten Schwenkgeschwindigkeit kann ein
Wert der Schwenkgeschwindigkeit sein, die die CPU 54 dem Schwenkkopfkontroller 12
als Befehl mitteilt, oder kann ein tatsächlich gemessener Wert der Schwenkgeschwin
digkeit sein, die durch den Geschwindigkeitserfassungssensor in dem Schwenkkopf 10
ermittelt wird. Andererseits kann die Übermittlung des Wertes der Steuerspannung für
das Zoomen von dem Schwenkkopfkontroller 12, die dieser an die Linseneinrichtung 44
als ein Kontrollsignal übermittelt (im Weiteren wird die Steuerspannung für das Zoomen
als lediglich Kontroll- bzw. Steuerspannung bezeichnet), die Brennweite kennzeichnen,
und der Wert des Bildwinkels (horizontaler Bildwinkel), der für die Berechnung des Ver
schiebungsbetrags verwendet wird, kann bestimmt werden. Die Beziehung zwischen der
Steuerspannung und die Brennweite hängt jedoch von der Art der Linseneinrichtung 44
ab, und daher ist es zur Berechnung eines genauen Verschiebungsbetrages für diverse
Arten von Linseneinrichtung erforderlich, im Voraus in einem Speicher die charakteristi
schen Daten entsprechend der Arten der Linseneinrichtung zu speichern (eine Datenta
belle, die die Beziehung zwischen der Steuerspannung und der Brennweite zeigt), so
dass die charakteristischen Daten entsprechend den Arten der Linseneinrichtung ver
wendet werden, um die Brennweite aus der Steuerspannung zu ermitteln.
Des Weiteren kann der Verschiebungsbetrag nicht nur theoretisch durch die oben be
schriebene Gleichung (1) gegeben sein, sondern es kann der genaue Verschiebungsbe
trag für jeden Wert der Schwenkgeschwindigkeit sowie der Steuerspannung vor dem
Beginn des Nachführens, etc. mittels einer tatsächlichen Messung gegeben sein. Wenn
in diesem Falle beispielsweise die Beziehung zwischen der Schwenkgeschwindigkeit,
die von dem Schwenkkopfkontroller 12 geliefert wird, und dem Verschiebungsbetrag für
jeden Wert der Steuerspannung in dem Speicher als die Verschiebungsbetragsdaten,
die in Fig. 13 gezeigt sind, gespeichert sind, werden während des Nachführvorganges
die von dem Schwenkkopfkontroller 12 erhaltene Schwenkgeschwindigkeit und der Ver
schiebungsbetrag für die Steuerspannung aus dem Speicher ausgelesen, so dass auf
dieser Basis der Vergleichsbildbereich festgelegt werden kann. Während des Nachfüh
rens wird im Allgemeinen das Zoomen (Brennweite) der Linseneinrichtung 44 nicht ge
ändert, und daher ist es ausreichend, dass vor Beginn des Nachführens der Wert des
Verschiebungsbetrages in Richtung der Brennweite zum Zeitpunkt des Nachführens für
jeden Wert der Schwenkgeschwindigkeit mittels einer tatsächlichen Messung erhalten
wird und in dem Speicher als die Verschiebungsbetragsdaten gespeichert werden.
Fig. 14 ist ein Flussdiagramm, das den Prozessablauf für den Fall zeigt, dass der Ver
schiebungsbetrag in Richtung der vorbestimmten Brennweite und Schwenkgeschwin
digkeit mittels einer tatsächlichen Messung erhalten wird. Es ist erforderlich, dass keine
bewegten Objekte innerhalb des Aufnahmebereichs der Kamera 40 während der Aus
führung dieses Bearbeitungsprozesses vorhanden sind. Selbst wenn ein bewegtes Ob
jekt vorhanden ist, ergibt sich kein Problem, wenn das bewegte Objekt in dem Bild
schirm klein ist. Zunächst durchläuft die CPU 54 einen Initialisierungsschritt durch Fest
legen des Maximalwertes (beispielsweise 0 × ffffff) für den Parameter minarea, eine 1 für
den Parameter i und eine 0 für den Verschiebungsbetrag, der als Verschiebungsdaten
gegeben ist (Schritt S100). Anschließend legt die CPU 54 die Schwenkgeschwindigkeit
des Schwenkkopfes 10, die an den Schwenkkopfkontroller 12 als Befehl zu übermitteln
ist, auf eine vorbestimmte Geschwindigkeit (Schwenkgeschwindigkeit, mit der Verschie
bungsbetrag erhalten wird) fest und übermittelt das Befehlssignal an den Schwenkkopf
kontroller 12, um diese Schwenkgeschwindigkeit anzuordnen (Schritt S102). Ferner wird
bestimmt, ob die gegenwärtige Schwenkgeschwindigkeit des Schwenkkopfes 10, die
vom Schwenkkopfkontroller 12 vorgegeben ist, die Schwenkgeschwindigkeit erreicht
hat, die die CPU 54 angewiesen hat (Schritt S104), und wenn dies der Fall ist, geht der
Prozessablauf weiter zum nächsten Bearbeitungsschritt.
Anschließend liest der Bildverarbeitungsprozessor 52 die Bilddaten (dieses Bild wird als
das Bild #1 betrachtet) für einen Bildbereich wie im Schritt S10 bis Schritt S14 in der
oben dargestellten Fig. 3 in den Bildspeicher 50 ein (Schritt S106), und anschließend
werden nach Ablauf der Zeit für 4 Felder (Schritt S108) die Bilddaten (dieses Bild wird
als Bild #2 bezeichnet) für einen Bildbereich in den Speicher 50 eingelesen (Schritt
S110).
Wenn, wie oben beschrieben ist, Bilddaten für zwei Bildbereiche in dem Bildspeicher 50
gespeichert werden, nimmt die CPU 54 i als den zwischenzeitlichen Verschiebungsbe
trag für die Verschiebung' in dem Aufnahmebereich des Bildes #2 gegenüber dem Auf
nahmebereich des Bildes #1, und basierend auf diesem Verschiebungsbetrag für die
Verschiebung' wird der Vergleichsbildbereich des Bildes #1 und des Bildes #2 festgelegt
(Schritt S112). Der entsprechende Vergleichsbildbereich wird dem Bildverarbeitungs
prozessor 52 bekannt gegeben.
Wie zuvor beschrieben ist, wenn die CPU 54 den Vergleichsbildbereich festlegt und die
ser Vergleichsbildbereich dem Bildverarbeitungsprozessor 52 bekannt ist, führen der
Bildverarbeitungsprozessor 52 sowie die CPU 54 anschließend eine Bearbeitungsse
quenz durch, die ähnlich zu den Bearbeitungsvorgängen des Schrittes S22 bis Schritt
S28 in Fig. 3 ist, in den folgenden Schritten S114 bis Schritt S120 durch. Zunächst ext
rahiert der Bildverarbeitungsprozessor 52 das Bild innerhalb des Vergleichsbildberei
ches jeweils des Bildes #1 und des Bildes #2, so dass das Differenzbild des Bildes #1
und des Bildes #2 durch das extrahierte Bild (|#1-#2|) gegeben ist (Schritt S114). An
schließend codiert der Bildverarbeitungsprozessor 52 die Bilddaten jedes Pixels des
Differenzbildes in binärer Form (Schritt S116). Ferner wird an dem binär codierten Diffe
renzbild ein Reduziervorgang durchgeführt, so dass ein Untergrundrauschen entfernt
wird (Schritt S118).
Anschließend legt der Bildverarbeitungsprozessor 52 die Gesamtzahl der Pixel fest, wo
bei 1 der Pixelwert auf der Grundlage des Differenzbildes ist, um dessen Bereich bzw.
Fläche festzulegen (Schritt S120). Des Weiteren wird die erhaltene Fläche bzw. der er
haltene Bereich an die CPU 54 weitergegeben. Wenn der zwischenzeitliche Verschie
bungsbetrag der Verschiebung', die in dem zuvor genannten Schritt S112 festgelegt ist,
in geeigneter Weise der Schwenkgeschwindigkeit entspricht, wird die hierin ermittelte
Fläche idealerweise zu 0.
Die CPU 54 erhält den zuvor genannten Bereich bzw. die Fläche von dem Bildverarbei
tungsprozessor 52, um die Parameterfläche durch die Fläche zu ersetzen (Schritt 122)
und um zu beurteilen, ob der Wert der Fläche kleiner als der zuvor bezeichnete Parame
terwert minarea ist, d. h. ob (minarea < die Fläche) ist oder nicht (Schritt S124). Wenn
dies der Fall ist, wird minarea durch den Wert der Fläche ersetzt (Schritt S126), und der
Wert des Verschiebungsbetrags, der letztlich gefordert ist, wird als i angenommen (ist
jedoch noch nicht bestimmt). Wenn andererseits ein NEIN im Schritt S124 bestimmt
wird, werden die Bearbeitungsschritte S126 und S128 nicht ausgeführt. Anschließend
erhöht die CPU 54 den Wert von i um 1 (Schritt S130), um zu beurteilen, ob 1 größer ist
als die Pixelzahl in der horizontalen Richtung (horizontale Auflösung) des Bildschirms
(Schritt S132). Wenn dies nicht der Fall ist, geht der Prozessablauf zurück zum Schritt
S122. Dabei wird die Bearbeitungssequenz vom Schritt S112 bis zum Schritt S132 wie
derholt durchgeführt und der Verschiebungsbetrag für Verschiebung', die zur Festlegung
des Vergleichsbildbereiches verwendet wird, wenn die im Schritt S120 berechnete Flä
che eine minimale Verschiebung wird, d. h. Verschiebung' = i wird als der Verschie
bungsbetrag bestimmt, der als Verschiebungsbetragsdaten in dem Verarbeitungsschritt
S128 erhalten wird. Wenn im Schritt S132 ein JA ermittelt wird, wird die zuvor beschrie
bene Verarbeitungssequenz beendet. Wenn die zuvor beschriebene Bearbeitungsse
quenz mit Änderungen in der Schwenkgeschwindigkeit, die im Schritt S102 festgelegt
wird, ausgeführt wird, kann der Verschiebungsbetrag für jeden Wert der Schwenkge
schwindigkeit ermittelt werden, und ferner kann bei Änderungen der Brennweite der
Verschiebungsbetrag für jeden Wert der Schwenkgeschwindigkeit sowie die Brennweite
ermittelt werden.
Somit ist der Verschiebungsbetrag nicht durch einen theoretische Wert unter Verwen
dung der oben beschriebenen Gleichung (1) gegeben, sondern mittels einer tatsächli
chen Messung, so dass ein genauer Verschiebungsbetrag angegeben werden kann,
wenn eine Abweichung der tatsächlichen Schwenkgeschwindigkeit des Schwenkkopfes
10 gegenüber der Schwenkgeschwindigkeit des Schwenkkopfes 10, die von dem
Schwenkkopfkontroller 12 erhalten wird, besteht, und des Weiteren, wenn eine Abwei
chung der Brennweite der Linseneinrichtung 44 gegenüber der Steuerspannung auftritt.
Tatsächlich wird angenommen, dass es eine Abweichung der Schwenkgeschwindigkeit
oder der Brennweite aufgrund unterschiedlicher Umgebungsbedingungen oder Eigen
schaften einzelner Produkte gibt, und daher ist ein derartiges Verfahren zum Ermitteln
des Verschiebungsbetrags sehr wirkungsvoll für eine genauere Nachführung. Ein derar
tiges Verfahren zum Bestimmen des Verschiebungsbetrags mittels einer tatsächlichen
Messung kann zur Ausführung des Nachführvorganges vor dem Beginn des Nachfüh
rens vorgesehen werden. Das heißt, beim Festlegen des Vergleichsbildbereichs im
Schritt S20 sowie im Schritt S36 in dem Flussdiagramm in Fig. 3 wird die Abarbeitung
der zuvor beschriebenen Schritte S112 bis 132 ausgeführt und der optimale Verschie
bungsbetrag wird durch eine tatsächliche Messung ermittelt. Des Weiteren kann der
Vergleichsbildbereich ferner auf der Grundlage dieses Verschiebungsbereichs festgelegt
werden. Da in diesem Falle der Verschiebungsbetrag nicht ermittelt werden kann, wenn
das bewegte Objekt im Hinblick auf den Bildschirm groß ist, kann der Verschiebungsbe
trag letztlich so vorgesehen sein, dass dieser mittels einer tatsächlichen Messung mit
Hinzunahme des Verschiebungsbetrags erhalten werden, der theoretisch aus der oben
beschriebenen Gleichung (1) in Fig. 3 ermittelt wird, so dass der Verschiebungsbetrag
selbst dann gegeben ist, wenn das bewegte Objekt für den Bildschirm groß ist. Das
heißt, zunächst wird der Verschiebungsbetrag mit der oben genannten Gleichung (1)
berechnet und mit diesem Verschiebungsbetrag als Referenz wird der Verschiebungs
betrag schrittweise vergrößert/verkleinert, so dass der Vergleichsbildbereich festgelegt
ist und gleichzeitig wird basierend auf dem Vergleichsbildbereich das Differenzbild ermit
telt, so dass die Fläche des bewegten Objekts zu berechnen ist. Wenn die Fläche klei
ner ist als der durch die zuvor genannte Gleichung (1) berechnete Verschiebungsbetrag
und ein Verschiebungsbetrag detektiert wird, der zum ersten Mal minimal wird, wird die
ser Verschiebungsbetrag als ein optimaler Verschiebungsbetrag angenommen und der
Vergleichsbildbereich wird auf der Grundlage dieses Verschiebungsbetrages festgelegt.
Als nächstes wird die Bearbeitungssequenz beschrieben, um zu verhindern, dass das
bewegte Objekt aus dem Bildschirmbereich wandert, wenn die Bewegungsgeschwindig
keit des bewegten Objekts auf dem Bildschirm groß ist. Es wird angenommen, dass das
bewegte Objekt sich lediglich in der Schwenkrichtung bewegt, und die Bewegung, die
eine Bewegung des bewegten Objekts in der Neigungsrichtung mit sich bringt, wird glei
chermaßen wie in der folgenden Bearbeitungssequenz ausgeführt. Wie in dem Fluss
diagramm aus Fig. 3 gezeigt ist, wird angenommen, dass ein Vergleich (Ermittlung von
Differenzbildern) des Bildes #1 mit dem Bild #3 sowie des Bildes #1 mit dem Bild #2, die
in den Bildspeicher 50 eingelesen sind, bewirkt, dass die Bilder M1, M2 und M3 des be
wegten Objekts auf dem Bildschirm des Bildes #1 innerhalb des Aufnahmebereiches L
herausgelöst werden, wie dies in Fig. 15 gezeigt ist, und der Schwerpunkt 1-3 und der
Schwerpunkt 1-2 werden erhalten. Wenn die Bewegungsgeschwindigkeit des bewegten
Objekts auf dem Bildschirm groß ist, d. h. der Betrag der Bewegung des bewegten Ob
jekts ausgedrückt durch (Schwerpunkt 1-3) - (Schwerpunkt 1-2) ist groß, könnte das
bewegte Objekt aus dem Bildschirm (Aufnahmebereich L) herauslaufen, wie dies im Bild
M4 in der oben genannten Zeichnung dargestellt ist, während die Bearbeitungssequenz
etwa die Berechnung des Schwerpunkts und dergleichen andauert, und die nachfolgen
de Detektion des bewegten Objekts ist unter Umständen nicht mehr ausführbar.
Um eine derartige Situation zu vermeiden, ist es angebracht, dass das Zoomen der Lin
seneinrichtung 44 der Kamera 40 gesteuert wird und der Aufnahmebereich (Bildwinkel)
angesteuert wird, um sich automatisch gegenüber dem Aufnahmebereich L des Bildes
#1 aufzuweiten, um das Bild M4 des bewegten Objekts in dem Aufnahmebereich L' in
Fig. 15 zu umschließen. Unter dieser Bedingung sagt, wenn eine derartige Steuerung
ausgeführt wird, zunächst die CPU 54 die Bewegung des bewegten Objekts auf der
Grundlage der Koordinaten des Schwerpunkts 1-3 und des Schwerpunkts 1-2 vorher
und beurteilt die Wahrscheinlichkeit, ob sich das bewegte Objekt aus dem Bildschirm
herausbewegt. Als Beispiel eines einfachen Verfahrens wird der Bewegungsbetrag
((Schwerpunkt 1-3) - (Schwerpunkt 1-2)) des bewegten Objekts auf dem Bildschirm be
rechnet, und wenn bestimmt wird, dass dieser Bewegungsbetrag größer als ein vorbe
stimmter Wert ist, wird entschieden, dass das bewegte Objekt mit hoher Wahrschein
lichkeit den Bildschirm verlässt. Die Bestimmung wird jedoch nicht immer im Hinblick auf
den Bewegungsbetrag des bewegten Objekts durchgeführt, sondern die Positionen des
Schwerpunkts 1-3 oder des Schwerpunkts 1-2 können berücksichtigt werden. Des Wei
teren kann die Bestimmung durch ein weiteres Verfahren durchgeführt werden. Wenn
ferner bestimmt wird, dass sich das bewegte Objekt wahrscheinlich aus dem Bildschirm
herausbewegt, wird ein Befehlssignal an den Schwenkkopfkontroller 12 übermittelt, um
eine Änderung einer vorbestimmten Brennweite anzuweisen, um durch Zoomen der
Linseneinrichtung 44 die vorbestimmte Brennweite um einen vorbestimmten Betrag in
Richtung der Weitbereichsseite zu ändern. Dies liefert das Steuersignal für das Zoomen
an die Linseneinrichtung 44 von dem Schwenkkopfkontroller 12, und die Brennweite der
Linseneinrichtung 44 wird auf die Brennweite geändert, der von der CPU 54 angewiesen
wird, und der Aufnahmebereich der Kamera 40 wird vergrößert.
Andererseits wird eine Zoomsteuerung lediglich zur Vergrößerung des Aufnahmebe
reichs (Bildwinkel) zur Ausführung des Nachführens sehr wahrscheinlich unter der Be
dingung ausgeführt, dass das Bild des bewegten Objekts auf dem Bildschirm nicht not
wendigerweise klein wird und daher ist es angebracht, dass das Zoomen der Linsenein
richtung 44 in geeigneter Weise gesteuert wird, so dass der Aufnahmebereich (Bildwin
kel) automatisch reduziert wird (Bewegen des Zooms in Richtung der Teleobjektivseite).
Daher führen bei einer derartigen Steuerung der Bildverarbeitungsprozessor 52 sowie
die CPU 54 eine Bearbeitungssequenz aus, die mittels einer erläuternden Ansicht in Fig.
16 und einem Flussdiagramm in Fig. 17 wie folgt beschrieben wird. Wenn jedoch, wie
zuvor beschrieben ist, die Wahrscheinlichkeit besteht, dass das bewegte Objekt sich
aus dem Bildschirm herausbewegt, sollte die folgende Bearbeitungssequenz zur Redu
zierung des Aufnahmebereichs nicht ausgeführt werden.
Zunächst wird in dem Prozessablauf des Flussdiagramms in der oben beschriebenen
Fig. 3 das Differenzbild auf der Basis des Bildes, das zwei beliebige Bildbereiche des
Bildes #1 und des Bildes #3 oder des Bildes #1 und des Bildes #2 ausfüllt bzw. bedeckt,
ermittelt, und wenn das Bild des bewegten Objekts extrahiert ist, wird der Bereich des
Bildes dieses bewegten Objekts innerhalb des Bildschirms erfasst. Beispielsweise wird
in dem Differenzbild des Bildes #1 und des Bildes #3 angenommen, dass das Bild des
bewegten Objekts in der in Fig. 16(A) dargestellten Weise herausgelöst worden ist. Der
Bildverarbeitungsprozessor 52 zählt die Anzahl der Pixel mit Pixelwert gleich 1 (Pixelda
ten, die nicht 0 sind) für jede horizontale Linie bzw. Zeile in diesem Differenzbild. Jede
horizontale Zeile wird mit Koordinatenwerten in der senkrechten bzw. vertikalen Rich
tung ausgedrückt (siehe dazu auf Fig. 6), die aus 1 bis Y (Y beträgt beispielsweise 240)
besteht, wobei 1 dem oberen Ende des Bildschirms zugeordnet ist. Dies ergibt die Pro
jektionsverteilung in der vertikalen Richtung des bewegten Objekts, wie in Fig. 16(B)
dargestellt ist. Wie im Flussdiagramm in Fig. 17 gezeigt ist, ermittelt die CPU 54 den
Koordinatenwert a des oberen Endes der bewegten Objekts und den Koordinatenwert b
des unteren Endes aus der Projektionsverteilung in der vertikalen Richtung des beweg
ten Objekts (Schritt S150). Anschließend wird die Länge c in der vertikalen Richtung des
bewegten Objekts aus dem Koordinatenwert a und dem Koordinatenwert b mit c = b - a
berechnet (Schritt S152). Des Weiteren wird für diese Länge c bestimmt, ob diese klei
ner als die Hälfte der Länge des Bildschirms in der vertikalen Richtung ist (in diesem
Falle 240), d. h., es wird bestimmt, ob c < 240/2 ist (Schritt S154). Wenn dies nicht der
Fall ist, wird die Verarbeitungssequenz zur Reduzierung des Aufnahmebereichs nicht
ausgeführt, wobei angenommen wird, dass das Bild des bewegten Objekts ausreichend
groß auf dem Bildschirm dargestellt ist. Wenn andererseits ein JA bestimmt wird, wird
angenommen, dass das Bild des bewegten Objekts klein auf dem Bildschirm ist und es
wird zunächst d = 240/2/c = 120/c berechnet. d ist ein Wert, der anzeigt, wie oft das Bild
des bewegten Objekts mit der Länge c multipliziert werden sollte, um die halbe Länge
des Bildschirms zu erreichen. Anschließend multipliziert die CPU 54 die momentan fest
gelegte Brennweite mit dem Wert d (Schritt S158) und verwendet diesen Wert als die
neue Brennweite. Mit d < 1 ist der Wert der neuen Brennweite größer als der Wert der
anfänglichen Brennweite, und mittels dieser neuen Brennweite wird der Aufnahmebe
reich reduziert. Des Weiteren übermittelt die CPU 54 des Befehlssignal an den
Schwenkkopfkontroller 12, um die Änderung auf diese neue Brennweite anzuweisen.
Dies ergibt das Kontrollsignal für das Zoomen von dem Schwenkkopfkontroller 12 an die
Linseneinrichtung 44 und die Brennweite der Linseneinrichtung 44 wird auf die Brenn
weite geändert, der von der CPU 54 angewiesen ist und der Aufnahmebereich der Ka
mera 40 wird verringert (Schritt S160). Somit wird das Bild des bewegten Objekts auf
dem Bildschirm vergrößert.
Das Verfahren zum Erhalten der Koordinatenwert a und b in dem zuvor genannten
Schritt S150 kann ein anderes als das zuvor beschriebene auf der Projektionsverteilung
in der vertikalen Richtung basierende Verfahren sein.
Es wird nun die zweite Ausführungsform für den Prozessablauf für den Bildverarbei
tungsprozessor 52 und die CPU 54 der Bildverarbeitungseinrichtung 14 basierend auf
dem Flussdiagramm in Fig. 18 beschrieben. Für das Flussdiagramm in Fig. 18 sowie die
entsprechende Beschreibung wird im Wesentlichen der Prozessablauf beschrieben, der
sich auf die Bewegung in der Schwenkrichtung des Schwenkkopfes 10 bezieht, diese
kann jedoch ebenso für die Bewegung in der Neigungsrichtung entsprechend zu dem
Prozessablauf in der Schwenkrichtung angewendet werden.
Zunächst legt die CPU 54 den Parameter Geschwindigkeitsmarke, der für die später
beschriebene Beurteilung verwendet wird, auf 0 (Schritt S210). Andererseits übernimmt
der Bildverarbeitungsprozessor 52 die Bilddaten (dieses Bild wird als Bild #1 betrachtet)
für einen Bildbereich, die von dem Kamerahauptkörper 42 der Kamera 40 über die Y/C-
Separierschaltung 46 und den A/D-Wandler 48 erhalten werden, in den Bildspeicher 50
(Schritt S212).
Anschließend beurteilt der Bildverarbeitungsprozessor 52, ob die Zeit für vier Felder
(1/59.94 Sekunden pro Feld) verstrichen ist, mittels des Synchronisiersignals, das von
der Y/C-Separierschaltung 46 ausgegeben wird (Schritt S214), und wenn die Zeit für
vier Felder verstrichen ist, liest er die Bilddaten (dieses Bild wird als das Bild #2 betrach
tet) für einen Bildbereich in den Bildspeicher 50 ein, ähnlich wie im Falle des Bildes #1
(Schritt S216).
Ferner beurteilt der Bildverarbeitungsprozessor 52, ob die Zeit für vier Felder (1/59.94
Sekunden pro Feld) verstrichen ist, mittels des von der Y/C-Separierschaltung 46 aus
gegebenen Synchronisiersignals (Schritt S218), und wenn die Zeit für vier Felder ver
strichen ist, liest er diese Bilddaten (dieses Bild wird als das Bild #3 betrachtet) für einen
Bildbereich in den Bildspeicher 50 ein, wie im Falle des Bildes #1 und des Bildes #2
(Schritt S220).
Wie zuvor beschrieben ist, wenn die Bilddaten für diese drei Bildbereiche in dem Bild
speicher 50 gespeichert werden, erhöht die CPU 54 den Wert der zuvor genannten Ge
schwindigkeitsmarke um 1 (Schritt S222). Des Weiteren liest sie die Brennweite (Bild
winkel) der Kamera 40 (Linseneinrichtung 44) sowie die Bewegungsgeschwindigkeit des
Schwenkkopfes 10 von dem Schwenkkopfkontroller 12 ein, und basierend darauf wer
den der Vergleichsbereich (Vergleichsbildbereich) des Bildes #1 und des Bildes #3 fest
gelegt und der Vergleichsbildbereich davon wird dem Bildverarbeitungsprozessor 52
zugeordnet (Schritt S224). Die Daten hinsichtlich der Bewegungsgeschwindigkeit, die
zum Festlegen des Vergleichsbildbereichs verwendet werden, müssen nicht von dem
Schwenkkopfkontroller 12 eingelesen werden, sondern können die Daten der Bewe
gungsgeschwindigkeit sein, die die CPU 54 dem Schwenkkopfkontroller 12 als Befehl
übermittelt hat, wie dies nachfolgend beschrieben wird.
Wenn der Vergleichsbildbereich in der oben beschriebenen Weise von der CPU 54 fest
gelegt ist, und dieser Vergleichsbildbereich dem Bildverarbeitungsprozessor 52 zuge
wiesen ist, extrahiert anschließend der Bildverarbeitungsprozessor 52 das Bild innerhalb
des Vergleichsbildbereichs jeweils aus dem Bild #1 und dem Bild #3, so dass das Diffe
renzbild des Bildes #1 und des Bildes #3 durch dieses extrahierte Bild gegeben ist
(Schritt S226). Das heißt, aus den Bilddaten innerhalb des Vergleichsbildbereichs des
Bildes #1 und des Bildes #3 wird die Differenz der Pixelwerte der Pixel in den entspre
chenden Positionen (Pixel, die an der gleichen Stelle in dem Vergleichsbildbereich vor
handen sind) ermittelt und daraus ergibt sich der Absolutwert (|#1 - #3|). Dies bewirkt,
dass nur Bilder des bewegten Objekts ähnlich wie in den zuvor beschriebenen Fig. 5
und 8 herausgelöst werden, und dieses bewegte Objekte wird als das Objekt erkannt,
dem zu folgen ist.
Anschließend codiert der Bildverarbeitungsprozessor 52 die Bilddaten jedes Pixels des
Differenzbildes, die aus dem Schritt S226 ermittelt sind, in binärer Weise (Schritt S228).
Dieser Verarbeitungsschritt ergibt idealerweise eine 1 als Pixelwert für das Bild des be
wegten Objekts und eine 0 in allen anderen Fällen. Ferner wird das binär codierte Diffe
renzbild einer Reduzierbearbeitung unterzogen, so dass ein Untergrundrauschen ent
fernt wird (Schritt S230). Das durch binäre Codierung und den Reduziervorgang bear
beitete Differenzbild wird im Weiteren lediglich als Differenzbild bezeichnet.
Anschließend ermittelt der Bildverarbeitungsprozessor 52 die Gesamtzahl der Pixel mit
einer 1, die den Pixelwert des Differenzbildes repräsentieren, um die Fläche des Ge
samtbildes des bewegten Objekts (die im Weiteren lediglich als die Fläche bzw. der Be
reich des bewegten Objekts bezeichnet wird) zu bestimmen (Schritt S232). Die Beispiele
in Fig. 5 und Fig. 8 zeigen die Fläche bzw. den Bereich zweier Kreise, die Bilder vor und
nach der Bewegung des bewegten Objekts kennzeichnen. Ferner wird die erhaltene
Fläche der CPU 54 mitgeteilt.
Die CPU 54 liest die Fläche des bewegten Objekts aus dem Bildverarbeitungsprozessor
52 ein, um zu beurteilen, ob diese Fläche größer als ein vorbestimmter Schwellwert ist
oder nicht (Schritt S234). Wenn dies nicht der Fall ist, ist das bewegte Objekt kein Ob
jekt, dem zu folgen ist, und insbesondere wird ein NEIN bestimmt, wenn die Bewe
gungsgeschwindigkeit des bewegten Objekts gering ist. Selbst wenn die momentane
Bewegungsgeschwindigkeit groß ist, wird dies als eine Situation beurteilt, in der die Be
wegungsgeschwindigkeit des Objekts gering ist, wenn eine durchschnittliche Bewe
gungsgeschwindigkeit während einer gewissen Zeitdauer gering ist. Dabei geht der Be
arbeitungsablauf zu dem zuvor beschriebenen Schritt S220 zurück, so dass die Bearbei
tungssequenz beim Einlesen des Bildes #3 im Schritt S234 wiederholt wird. Dabei wird
der Wert der Geschwindigkeitsmarke um 1 im Schritt S222 erhöht. Wenn daher die Be
arbeitungssequenz vom Schritt S210 nur einmal im Schritt S234 ein NEIN ergibt, d. h.
wenn die Bewegungsgeschwindigkeit des bewegten Objekts gering ist, ist der Wert der
Geschwindigkeitsmarke zumindest nicht kleiner als 2, und wenn das Bestimmen zum
ersten Mal ein JA ergibt, d. h., wenn die Bewegungsgeschwindigkeit des bewegten Ob
jekts hoch ist, wird der Wert der Geschwindigkeitsmarke zu 1.
Im Falle eines JA im Schritt S234, d. h. wenn aus dem Differenzbild detektiert wird, dass
das bewegte Objekt ein Objekt ist, dem zu folgen ist, ermittelt der Bildverarbeitungspro
zessor 52 anschließend das Hauptmoment über das gesamte Bild des bewegten Ob
jekts aus dem Differenzbild (Schritt S236), und das Hauptmoment wird durch die Fläche
des bewegten Objekts geteilt, so dass der Schwerpunkt des bewegten Objekts ermittelt
wird (Schritt S238). Hierbei wird der Schwerpunkt des bewegten Objekts beispielsweise
mit den Koordinaten auf dem Bildschirm des Bildes #3 ausgedrückt, und die Koordinate
des Schwerpunkts wird an die CPU weitergegeben. Der Schwerpunkt des bewegten
Objekts, der aus dem Bild #1 und dem Bild #3 ermittelt ist, wird im Weiteren als der
Schwerpunkt 1-3 bezeichnet.
Anschließend beurteilt die CPU 54, ob die zuvor beschriebene Geschwindigkeitsmarke
gleich 1 ist (Schritt S240). Wie zuvor beschrieben wurde, wird dabei ein JA ermittelt,
wenn die Bewegungsgeschwindigkeit des bewegten Objekts groß ist und damit die Ge
schwindigkeitsmarke gleich 1 ist, und wenn die Bewegungsgeschwindigkeit des beweg
ten Objekts gering ist, ist die Geschwindigkeitsmarke zumindest nicht 1 und es wird ein
NEIN ermittelt. Wenn ein NEIN bestimmt wurde, wird der Schwenkkopf 10 unter Berück
sichtigung der später beschriebenen Totzone gesteuert, und im Falle eines JA wird der
Schwenkkopf 10 ohne Berücksichtigung der Totzone angesteuert.
Zunächst sei der Fall eines JA im Schritt S240 beschrieben, d. h. die Bewegungsge
schwindigkeit des bewegten Objekts ist als schnell ermittelt worden, in diesem Falle legt
die CPU 54, die den Vergleichsbereich (Vergleichsbildbereich) des Bildes #1 und des
Bildes #3 in dem zuvor genannten Schritt S224 festgelegt hat, in ähnlicher Weise den
Vergleichsbereich (Vergleichsbildbereich) des Bildes #1 und des Bildes #2 auf der
Grundlage der Brennweite (Bildwinkel) der Kamera 40 (Linseneinrichtung 44) sowie der
Bewegungsgeschwindigkeit des Schwenkkopfes 10 fest, und dieser Vergleichsbereich
wird dem Bildverarbeitungsprozessor 52 zugewiesen (Schritt S242). Des Weiteren er
mitteln der Bildverarbeitungsprozessor 52 sowie die CPU 54, die den Schwerpunkt des
bewegten Objekts aus dem Bild #1 und dem Bild #3 in den zuvor genannten Schritten
S226 bis S238 (ohne S234) ermittelt haben, in ähnlicher Weise den Schwerpunkt des
bewegten Objekts aus dem Bild #1 und dem Bild #2 (Schritt S244 bis Schritt S254). Der
durch das Bild #1 und das Bild #2 gegebene Schwerpunkt des bewegten Objekts wird
im Weiteren als der Schwerpunkt 1-2 bezeichnet.
Fig. 11 zeigt die Beziehung zwischen dem Objekt und den entsprechenden Aufnahme
bereichen des Bildes #1, des Bildes #2 und des Bildes #3 im Falle, wenn beispielsweise
der Schwenkkopf 10 sich nach rechts bewegt (wenn der Aufnahmebereich nach rechts
bewegt wird), und die Verschiebungsbeträge für die Verschiebung 1 und Verschiebung
2 der Aufnahmebereiche jeweils des Bildes #2 und des Bildes #3 gegenüber dem Auf
nahmebereich des Bildes #1 werden jeweils aus der oben beschriebenen Gleichung (1)
berechnet. Dabei wird die Schwenkgeschwindigkeit des Schwenkkopfes 10 während
des Einlesens des Bildes #1 und des Bildes #3 als annähend konstant betrachtet, und
wenn ein JA in dem zuvor genannten Schritt S240 bestimmt wird, werden das Bild #1
und das Bild #3 in einem gleichen Intervall aufgenommen und daher beträgt der Ver
schiebungsbetrag der Verschiebung 1 die Hälfte des Verschiebungsbetrags der Ver
schiebung 2. Ferner bewirkt, wie oben beschrieben ist, ein Vergleich (Ermittlung der
Differenzbilder) des Bildes #1 mit dem Bild #3 sowie des Bildes #1 mit dem Bild #2, dass
die Bilder M1, M2 und M3 des bewegten Objekts auf dem Bildschirm des Bildes #3 her
ausgelöst werden, wie dies in Fig. 12 gezeigt ist. Ein Vergleich des Bildes #1 mit dem
Bild #3 bewirkt, dass das Bild M1 und das Bild M3 extrahiert werden, während ein Ver
gleich des Bildes #1 mit dem Bild #2 bewirkt, dass das Bild M1 und das Bild M2 extra
hiert werden. Mit den somit extrahierten Bildern des bewegten Objekts wird der Schwer
punkt 1-3 sowie der Schwerpunkt 1-2 des zuvor genannten bewegten Objekts als
eine Position berechnet, die mit "+" in der Zeichnung auf dem Bildschirm des Bildes #3
gekennzeichnet ist.
Wenn der Schwerpunkt 1-3 sowie der Schwerpunkt 1-2 in der oben beschriebenen
Weise ermittelt sind, bestimmt die CPU 54 die Differenz zwischen dem Schwerpunkt 1-3
und dem Schwerpunkt 1-2, d. h. (Schwerpunkt 1-3) - (Schwerpunkt 1-2) (Schritt
S256), und darauf basierend wird die Bewegungsgeschwindigkeit des bewegten Objekts
berechnet (Schritt S258).
Hierbei bewegt sich das bewegte Objekt über eine Entfernung von dem Bild M1 zu dem
Bild M3 des bewegten Objekts, d. h. über die vierfache Entfernung von (Schwerpunkt 1-3) -
(Schwerpunkt 1-2) auf dem Bildschirm, wie in Fig. 12 gezeigt, während der abge
laufenen Zeit T (verstrichene Zeit zum Füllen von acht Feldern = (1159.94) × 8) von dem
Zeitpunkt an, wenn das Bild #1 aufgenommen wird (Aufnahmezeit) zu dem Zeitpunkt,
wenn das Bild #3 aufgenommen wird (Aufnahmezeit), und daher ist die Bewegungsge
schwindigkeit v (Einheit: Pixel/Sekunde) in der Schwenkrichtung des bewegten Objekts
auf dem Bildschirm mit ΔL als (Schwerpunkt 1-3) - (Schwerpunkt 1-2) gegeben durch
die folgende Gleichung (2):
V = ΔL × 4/T (2).
Ferner ist mit R (Einheit: Pixel) als Auflösung (horizontale Auflösung) des Bildes und mit
A (Einheit: Grad) als Aufnahmebildwinkel (horizontaler Bildwinkel) die Bewegungsge
schwindigkeit V (Einheit: Grad/Sekunde) in der Schwenkrichtung des bewegten Objekts
im tatsächlichen Raumbereich gegeben durch die folgende Gleichung (3):
V = v × A/R (3).
Wenn die Bewegungsgeschwindigkeit in der Neigungsrichtung des bewegten Objekts
berechnet wird, ist die Auflösung R die senkrechte bzw. vertikale Auflösung und der
Aufnahmebildwinkel A ist ein senkrechter bzw. vertikaler Bildwinkel, der den Winkelbe
reich in der vertikalen Richtung kennzeichnet.
Die CPU 54 berechnet die Bewegungsgeschwindigkeit V des bewegten Objekts in der
oben beschriebenen Weise, um dem Schwenkkopfkontroller 12 ein Befehlssignal zu
ermitteln, das die Bewegung in der Schwenkrichtung des Schwenkkopfes 10 mit dieser
Bewegungsgeschwindigkeit V anordnet (Schritt S260). Dies führt zu einer Steuerung der
Schwenkgeschwindigkeit des Schwenkkopfes 10 mittels des Schwenkkopfkontrollers
12. Ferner beurteilt die CPU 54, ob die momentane Bewegungsgeschwindigkeit
(Schwenkgeschwindigkeit) des Schwenkkopfes 10, die von dem Schwenkkopfkontroller
12 ausgegeben wird, die Schwenkgeschwindigkeit erreicht hat, die von 30612 00070 552 001000280000000200012000285913050100040 0002010152883 00004 30493der zuvor ge
nannten CPU 54 angewiesen worden ist (Schritt S262), und wenn dies der Fall ist, geht
der Bearbeitungsablauf zu dem zuvor beschriebenen Schritt S210 zurück, so dass die
oben beschriebene Verarbeitungssequenz wiederholt wird.
Nunmehr wird die Beschreibung für den Fall eines NEIN in dem zuvor beschriebenen
Schritt S240 angeführt, d. h., wenn die Bewegungsgeschwindigkeit des bewegten Ob
jekts als langsam bestimmt wird; dabei beurteilt die CPU 54, ob die Koordinate des
Schwerpunkts 1-3 des bewegten Objekts, die in dem zuvor beschriebenen Schritt S238
ermittelt wird, im Bereich der Totzone liegt, die auf dem Bildschirm des Bildes #3 festge
legt ist (Schritt S264). Die Totzone ist so festgelegt, dass diese eine vorbestimmte Breite
im zentralen Teil des Bildschirms aufweist, wie dies im schraffierten Bereich P in Fig. 19
gezeigt ist. Im Punkt a in Fig. 19, wenn der Schwerpunkt 1-3 im Bereich P der Totzone
liegt, wird im Schritts 264 ein JA bestimmt, während im Punkt b in Fig. 19, wenn der
Schwerpunkt 1-3 außerhalb des Bereichs P der Totzone liegt, im Schritts 264 ein NEIN
bestimmt wird. Der Bereich P der in Fig. 19 gezeigten Totzone zeigt den Bildschirm in
der horizontalen Richtung; die Totzone in der vertikalen Richtung kann in ähnlicher Wei
se auf eine vorbestimmte Breite in der vertikalen Richtung im mittleren Bereich des Bild
schirms festgelegt werden. Ferner ist der Bereich der Totzone nicht auf den in Fig. 19
gezeigten Fall beschränkt, sondern dessen Breite kann beispielsweise entsprechend der
Lage des Schwerpunkts 1-3, der in der vorhergehenden Zeitdauer ermittelt wurde, ge
ändert werden und die Breite der Totzone kann vergrößert werden, so dass der
Schwerpunkt 1-3 in die Mitte des Bildschirms fällt, wie in Fig. 20 dargestellt ist.
Wenn in dem oben beschriebenen Schritt S264 ein NEIN ermittelt wird, d. h., wenn der
Schwerpunkt 1-3 als außerhalb der Totzone liegend bestimmt wird, setzt die CPU 54
eine vorbestimmte Schwenkgeschwindigkeit (Schritt S266) fest, und übermittelt diese
Schwenkgeschwindigkeit und den Koordinatenwert des Schwerpunkts 1-3 an dem
Schwenkkopfkontroller 12. Der Schwenkkopfkontroller 12 ermittelt die Schwenkposition
des Schwenkkopfes 12 auf der Grundlage der momentanen Schwenk/Neigungsposition
des Schwenkkopfes 12 sowie der Brennweite der Linseneinrichtung 44, so dass der
Schwerpunkt 1-3, der von der CPU 54 ermittelt ist, in der Mitte des Bildschirms liegt,
und übermittelt das Schwenkkontrollsignal an den Schwenkkopf 10 und bewegt dabei
den Schwenkkopf 10 zu dieser Schwenkposition mit der Schwenkgeschwindigkeit, die
von der CPU 54 ermittelt wird (Schritt S268). Die CPU 54 beurteilt anhand des Signals
von dem Schwenkkopfkontroller 12, ob der Schwenkkopf 10 anhält (Schritt S270), und
wenn der Schwenkkopf 10 anhält, kehrt der Prozessablauf zu dem zuvor beschriebenen
Schritt S210 zurück, so dass die oben beschriebene Bearbeitungssequenz wiederholt
wird.
Wenn andererseits im Schritt S264 ein JA bestimmt wird, d. h., wenn der Schwerpunkt 1-3
als innerhalb des Bereichs der Totzone liegend bestimmt wird, wird der Schwenkkopf
10 nicht bewegt, aber der Prozessablauf kehrt zu dem oben beschriebenen Schritt S210
zurück, so dass die oben beschriebene Bearbeitungssequenz wiederholt wird.
Der oben beschriebene Prozessablauf steuert den Schwenkkopf 10 (Steuerung in der
Aufnahmerichtung der Kamera 40) unter Berücksichtigung der Totzone, wenn die Be
wegungsgeschwindigkeit des bewegten Objekts gering ist, so dass ein Schwingen auf
dem Bildschirm, das die Bilddarstellung beeinträchtigen könnte, vermieden wird. Ande
rerseits wird der Schwenkkopf 10 ohne Berücksichtigung der Totzone gesteuert, wenn
die Bewegungsgeschwindigkeit des bewegten Objekts hoch ist, und die Unannehmlich
keit, dass das bewegte Objekt sich aus dem Bildschirm bei Ansteuerung des Schwenk
kopfes 10 unter Berücksichtigung der Totzone tritt nicht auf.
Wenn in dem oben beschriebenen Prozessablauf die Bewegungsgeschwindigkeit des
bewegten Objekts erfasst wird, wurden das Bild #1 und das Bild #3, die drei Bildberei
che bedecken bzw. ausfüllen, aufgenommen, so dass ein Vergleich des Bildes #1 mit
dem Bild #3 sowie des Bildes #1 mit dem Bild #2 zwei Schwerpunkte, nämlich den
Schwerpunkt 1-3 und den Schwerpunkt 1-2, ergeben, aber ohne Einschränkung dar
auf kann ein Vergleich des Bildes #1 mit dem Bild #2 sowie ein Vergleich des Bildes #2
mit dem Bild #3 zwei Schwerpunkte ergeben, so dass die Bewegungsgeschwindigkeit
des bewegten Objekts erfasst wird, und ein Vergleich des Bildes #1 mit dem Bild #4, die
vier Bildbereiche ausfüllen, kann vorgenommen werden, so dass ein Vergleich an zwei
nicht überlappenden Gruppen aus Bildern, die jeweils zwei Bildbereiche ausfüllen, bei
spielsweise ein Vergleich des Bildes #1 mit dem Bild #2 sowie ein Vergleich des Bildes
#3 mit dem Bild #4, ergibt zwei Schwerpunkte, um die Bewegungsgeschwindigkeit des
bewegten Objekts zu erfassen.
Ferner ist die Steuerung des Schwenkkopfes, wenn die Bewegungsgeschwindigkeit des
bewegten Objekts hoch ist, oder die Steuerung des Schwenkkopfes 10, wenn das be
wegte Objekt nicht innerhalb des Bereichs der Totzone liegt, wobei die Bewegungsge
schwindigkeit des bewegten Objekts gering ist, nicht auf die oben beschriebenen Fälle
beschränkt. Wenn beispielsweise die Bewegungsgeschwindigkeit des bewegten Objekts
hoch ist, ist die Bewegungsgeschwindigkeit des bewegten Objekts aus dem Bild #1 bis
zum Bild #3 für drei Bildbereiche gegeben, so dass die Bewegungsgeschwindigkeit des
Schwenkkopfes 10 durch diese Bewegungsgeschwindigkeit gesteuert wird, während im
Falle, wenn die Bewegungsgeschwindigkeit des bewegten Objekts gering ist, der
Schwerpunkt des bewegten Objekts aus den Bildern für zwei Bildbereiche ermittelt wer
den kann und der Schwenkkopf 10 kann so gesteuert werden, dass der Schwerpunkt in
der Mittel des Bildschirms liegt.
Basierend auf dem Flussdiagramm in Fig. 21 wird nun die dritte Ausführungsform der
Bearbeitungssequenz des Bildverarbeitungsprozessors 52 sowie der CPU 54 der Bild
verarbeitungseinrichtung 14 beschrieben. In dem Flussdiagramm in Fig. 21 sowie der
entsprechenden Beschreibung wird im Wesentlichen die Bearbeitungssequenz be
schrieben, die sich auf die Bewegung in der Schwenkrichtung des Schwenkkopfes 10
bezieht, aber eine ähnliche Bearbeitungssequenz ist für die Bewegung in der Neigungs
richtung anwendbar.
Im Flussdiagramm aus Fig. 21 ist die Bearbeitungssequenz vom Schritt S310 bis zum
Schritt S324 vollständig identisch zu dem Prozessablauf vom Schritt S10 bis Schritt S48
des Flussdiagramms der in Fig. 3 gezeigten ersten Ausführungsform und daher wird die
Beschreibung davon weggelassen.
Die Position des Schwerpunkts 1-3 sowie des Schwerpunkts 1-2 auf dem Bildschirm
wird in der Bearbeitungssequenz bis zum Schritt S348 ermittelt, so dass die CPU 54 die
nachfolgende Bearbeitung auf der Grundlage darauf auswählt, ob sich das bewegte Ob
jekt in Richtung des Mittelpunkts des Bildschirms bewegt oder nicht. Hierbei zeigen
Muster (A) bis (D) in Fig. 22 die Lagebeziehung des Schwerpunkts 1-2 und des
Schwerpunkts 1-3 hinsichtlich des Bildschirmmittelpunkts des Bildes #3, und auf Bild
schirmen der entsprechenden Muster (A) bis (D) bezeichnet die durch den Koordina
tenwert (A) gekennzeichnete Position die Mitte des Bildschirms in der horizontalen Rich
tung, "+" bezeichnet die Position des Schwerpunkts 1-2 oder des Schwerpunkts 1-3
und ein Pfeil "→" oder "←" kennzeichnet die Richtung des Schwerpunkts 1-3 gegen
über dem Schwerpunkt 1-2 und die Bewegungsrichtung des Schwerpunkts, d. h. die
Bewegungsrichtung des bewegten Objekts. Wie in diesen Mustern (A) bis (D) gezeigt
ist, wird die Lagebeziehung des Schwerpunkts 1-2 und des Schwerpunkts 1-3, die in
dem oben genannten Schritt S334 sowie im Schritt S348 ermittelt werden, in Bezug auf
den Bildschirmmittelpunkt in den Fall eingestuft, dass diese auf der rechten Seite des
Bildschirms (das Muster (A) sowie das Muster (D)) und in den Fall, dass diese auf der
linken Seite (das Muster (C) und das Muster (D)) liegen, und es wird ebenso eine Ein
stufung vorgenommen, dass die Bewegungsrichtung des Schwerpunkts zum Rand des
Bildschirms weist (das Muster (A) und das Muster (C)), und in den Fall, in dem dieser in
Richtung des Bildschirmmittelpunkts zeigt (das Muster (B) und das Muster (D)). Der Fall,
in dem sich der Schwerpunkt 1-2 und der Schwerpunkt 1-3 über beide Seiten des
Mittelpunktkoordinatenwerts A erstrecken soll unter das Muster (B) oder das Muster (D)
eingestuft werden, wobei der Schwerpunkt 1-2 und der Schwerpunkt 1-3 gleichzeitig
in der Seite vorhanden sind, in der der Schwerpunkt 1-2 dem Mittelpunktkoordinaten
wert A zugewandt ist.
Durch die Bestimmungssequenz im Schritt S350 bis Schritt S354 in Fig. 21 klassifiziert
die CPU 54 zunächst, zu welchem Muster die Lagebeziehung des Schwerpunkts 1-2
und des Schwerpunkts 1-3, die in dem oben beschriebenen Schritt S334 sowie im
Schritt S348 ermittelt wurden, gehört. Dabei wird im Schritt S350 bestimmt, ob der Ko
ordinatenwert des Schwerpunkts 1-2, der in dem oben beschriebenen Schritt S348
ermittelt wird, größer ist als der zuvor genannte Mittelpunktkoordinatenwert A (der
Schwerpunkt 1-2 < A), d. h. der Schwerpunkt 1-2 ist auf der rechten Seite hinsichtlich
des Bildschirmmittelpunkts angeordnet. Diese Sequenz ergibt ein JA, wenn diese zum
Muster (A) oder zum Muster (B) gehören und ergibt ein NEIN, wenn diese zu dem Mus
ter (C) oder dem Muster (D) unter den in Fig. 22 dargestellten Mustern (A) bis (D) gehö
ren, wie dies in Fig. 23(1) gezeigt ist.
Wenn sich im Schritt S350 ein JA ergibt, wird im anschließenden Schritt S352 beurteilt,
ob der Koordinatenwert des Schwerpunkts 1-2 kleiner als der Koordinatenwert des
Schwerpunkts 1-3 ist (Schwerpunkt 1-2 < Schwerpunkt 1-3), d. h. die Bewegungs
richtung des Schwerpunkts zeigt zum Rand des Bildschirms. Diese Bestimmungsse
quenz ergibt ein JA, wenn das Muster (A) zugrunde liegt, wie dies in Fig. 23(3) gezeigt
ist, und ergibt ein NEIN, wenn das Muster (B) zugrunde liegt, wenn die Muster (A) und
(B) in Fig. 23(2) zugrunde gelegt werden. Dabei wird beurteilt, zu welchem der Muster
(A) oder (B) die Lagebeziehung des Schwerpunkts 1-2 und des Schwerpunkts 1-3,
die im oben beschriebenen Schritt S334 und Schritt S348 ermittelt werden, gehört.
Wenn sich andererseits im Schritt S350 ein NEIN ergibt, wird im anschließenden Schritt
S354 beurteilt, ob der Koordinatenwert des Schwerpunkts 1-2 größer als der Koordina
tenwert des Schwerpunkts 1-3 ist (Schwerpunkt 1-2 < Schwerpunkt 1-3), d. h. die
Bewegungsrichtung des Schwerpunkts zeigt zum Rand des Bildschirms. Dies ergibt ein
JA, wenn dies dem Muster (C) entspricht, wie in Fig. 23(3) gezeigt ist, und ergibt ein
NEIN, wenn dies zu dem Muster (D) gehört, wenn die Muster (C) und (D) in Fig. 23(2)
zugrunde gelegt werden. Damit wird beurteilt, zu welchem Muster (C) oder (D) die La
gebeziehung des Schwerpunkts 1-2 und des Schwerpunkts 1-3, die in dem oben be
schriebenen Schritt S334 und S348 ermittelt werden, gehört.
Wenn in der Bearbeitungssequenz der oben beschriebenen Schritte S350 bis S354
klassifiziert wird, zu welchem Muster die Lagebeziehung des Schwerpunkts 1-2 und
des Schwerpunkts 1-3, die in den oben beschriebenen Schritten S334 und S348 ermit
telt wurden, gehört, führt die CPU 54 die weitere Bearbeitung in Übereinstimmung mit
diesem Muster aus. Wenn in dem oben beschriebenen Schritt S352 oder dem oben be
schriebenen Schritt S354 ein NEIN ermittelt wurde, d. h., wie in Fig. 23(3) gezeigt ist,
wenn der Fall des Musters (B) oder des Musters (D) vorliegt, übermittelt zunächst die
CPU 54 ein Befehlssignal an den Schwenkkopfkontroller 12, um die Bewegung des
Schwenkkopfes 10 in der Schwenkrichtung zu stoppen (die Schwenkgeschwindigkeit
wird auf 0 gesetzt). Dies führt zu einem Anhalten der Bewegung des Schwenkkopfes 10
in der Schwenkrichtung (Schritt S356). Der Prozessablauf kehrt zu dem oben beschrie
benen Schritt S310 zurück. Somit repräsentiert der Fall, in dem die Lagebeziehung des
Schwerpunkts 1-2 und des Schwerpunkts 1-3 dem Muster (B) und dem Muster (D) bei
Bewegung des Schwenkkopfes 10 in der Schwenkrichtung entspricht, den Fall, in dem
die Bewegungsrichtung des Schwerpunkts in Richtung des Bildschirmmittelpunkts bei
jedem Muster zeigt, und die Bewegung des Schwenkkopfes 10 wird angehalten, wenn
beispielsweise das bewegte Objekt von außerhalb des Bildschirms in den Bildschirmbe
reich läuft, und wenn ein Objekt, das innerhalb des Bildschirm stillsteht, beginnt, sich in
Richtung des Bildschirmmittelpunkts zu bewegen und dergleichen. Wenn sich der
Schwenkkopf 10 von Beginn an nicht bewegt hat, wird der Schwenkkopf 10 weiterhin im
Zustand des Stillstands gehalten. Es sei angenommen, dass das bewegte Objekt über
den Bildschirmmittelpunkt wandert, so das die Lagebeziehung zwischen dem Schwer
punkt 1-2 und dem Schwerpunkt 1-3 sich von dem Muster (B) oder dem Muster (D)
zum Muster (A) oder dem Muster (C) verschiebt, und von diesem Zeitpunkt an beginnt
der Schwenkkopf 10 sich zu bewegen entsprechend zu der Bewegungsgeschwindigkeit
des bewegten Objekts, wie später beschrieben wird.
Wenn andererseits im oben beschriebenen Schritt S352 oder dem oben beschriebenen
Schritt S354 von der CPU 54 ein JA ermittelt wird, d. h. es wird bestimmt, dass das Mus
ter (A) oder das Muster (C) zugrundeliegt, wie in Fig. 23(3) gezeigt ist, berechnet die
CPU 54 die Bewegungsgeschwindigkeit des bewegten Objekts, wie dies nachfolgend
beschrieben wird (Schritt S358, Schritt S360 und Schritt S362). Dies ist ein Fall, in dem
die Bewegungsrichtungen des Schwerpunkts beider Muster (A) und (C) zum Rand des
Bildschirms zeigen und die Bewegungsgeschwindigkeit des Schwenkkopfes 10 wird
entsprechend der Bewegungsgeschwindigkeit des bewegten Objekts gesteuert.
Hinsichtlich der Beschreibung für die Berechnung der Bewegungsgeschwindigkeit des
bewegten Objekts auf dem Bildschirm gilt: das bewegte Objekt bewegt sich um eine
Entfernung von dem Bild M1 bis zum Bild M3 des bewegten Objekts, wie dies in Fig. 12
dargestellt ist, während der abgelaufenen Zeitdauer T (die zur Auffüllung von acht Fel
dern = (1/59.94) × 8) verstrichen ist, von dem Zeitpunkt an, wenn das Bild #1 eingelesen
wird (Aufnahmezeit) zu dem Zeitpunkt, wenn das Bild #3 eingelesen wird (Aufnahme
zeitpunkt). Diese Bewegungsentfernung ist die vierfache Entfernung von (Schwerpunkt
1-3) - (Schwerpunkt 1-2), wenn die Bewegungsrichtung des Schwerpunkts nach rechts
zeigt, wie im Muster (A), und ist die vierfache Entfernung von (Schwerpunkt 1-2)-
(Schwerpunkt 1-3), wenn die Bewegungsrichtung des Schwerpunkts nach links zeigt,
wie im Muster (C). Wenn daher die CPU 54 im oben beschriebenen Schritt S352 ein JA
bestimmt, d. h. wenn das Muster (A) zugrundeliegt, berechnet sie (Schwerpunkt 1-3)-
(Schwerpunkt 1-2) im Schritt S358. Wenn andererseits im oben beschriebenen Schritt
S354 ein JA ermittelt wird, d. h. es liegt das Muster (C) zugrunde, wird im Schritt S360
berechnet (Schwerpunkt 1-2) - (Schwerpunkt 1-3).
Anschließend wird mit ΔL als der im Schritt S358 oder Schritt S360 berechnete Wert die
Bewegungsgeschwindigkeit v (Einheit: Pixel/Sekunde) in der Schwenkrichtung des be
wegten Objekts auf dem Bildschirm durch die folgende Gleichung (2) ermittelt:
V = ΔL × 4/T (2).
Ferner ist mit R (Einheit: Pixel) als Auflösung (horizontale Auflösung) des Bildes und mit
A (Einheit: Grad) als Aufnahmebildwinkel (horizontaler Bildwinkel) die Bewegungsge
schwindigkeit V (Einheit: Grad/Sekunde) in der Schwenkrichtung des bewegten Objekts
im tatsächlichen Raumbereich durch die folgende Gleichung (3) gegeben:
V = v × A/R (3).
Wenn die Bewegungsgeschwindigkeit in der Neigungsrichtung des bewegten Objekts
berechnet wird, ist die Auflösung R die vertikale Auflösung und der Aufnahmebildwinkel
A ist ein vertikaler Bildwinkel, der den Winkelbereich in der vertikalen Richtung kenn
zeichnet.
Die CPU 54 berechnet die Bewegungsgeschwindigkeit des bewegten Objekts aus dem
Wert von ΔL, der im Schritt S358 oder im Schritt S360 berechnet wurde, mit den oben
beschriebenen Gleichungen (2) und (3) (Schritt S362).
Wie zuvor beschrieben ist, wird die Bewegungsgeschwindigkeit V des bewegten Objekts
berechnet, so dass ein Befehlssignal, das eine Bewegung in der Schwenkrichtung des
Schwenkkopfes 10 mit dieser Bewegungsgeschwindigkeit V anordnet, an den Schwenk
kopfkontroller 12 übermittelt wird (Schritt S364). Das Befehlssignal umfasst natürlich
einen Befehlsinhalt, um die Bewegungsrichtung (Schwenkrichtung links oder rechts) des
Schwenkkopfes 10 auf der Grundlage der Bewegungsrichtung des bewegten Objekts
anzuordnen. Damit wird die Schwenkgeschwindigkeit des Schwenkkopfes 10 mittels des
Schwenkkopfkontrollers 12 gesteuert. Ferner liest die CPU 54 die momentane Bewe
gungsgeschwindigkeit (Schwenkgeschwindigkeit) des Schwenkkopfes 10 von dem
Schwenkkopfkontroller 12 ein, um zu beurteilen, ob diese Bewegungsgeschwindigkeit
die Schwenkgeschwindigkeit erreicht hat, die durch die CPU 54 (Schritt S366) angewie
sen worden ist, und wenn dies der Fall ist, kehrt der Prozessablauf zum oben beschrie
benen Schritt S310 zurück, so dass die zuvor beschriebene Bearbeitungssequenz wie
derholt wird.
In der oben beschriebenen Bearbeitungssequenz kennzeichnet soweit der Bildschirm
mittelpunkt, d. h. der Koordinatenwert A, die Position, an der der Bildschirm in der hori
zontalen Richtung zu unterteilen ist, um den Schwenkkopf 10 anzuhalten, wenn sich das
bewegte Objekt zum Mittelpunkt des Bildschirms hinbewegt; der Bildschirmmittelpunkt
muss jedoch nicht die Position sein, an der der Bildschirm vollständig unterteilt ist.
In den oben beschriebenen Ausführungsformen wurden bisher Steuervorgänge zum
Nachführen (der Prozessablauf des Bildverarbeitungsprozessors 52 und der CPU 54
etc.) zur Verfolgung eines bewegten Objekts mit einer Kamera detailliert beschrieben,
jedoch kann ohne Einschränkung darauf die Steuerung des Nachführens einen beliebi
gen Aspekt betreffen, und die vorliegende Erfindung kann in ihrem Wesen darauf ange
wendet werden; d. h. wenn sich das bewegte Objekt in Richtung des Bildschirmmittel
punkts bewegt, wird die Steuerung so durchgeführt, dass der Schwenkkopf 10 angehal
ten wird und die Aufnahmerichtung der Kamera sich nicht ändert, und es wird eine Än
derung der Aufnahmerichtung der Kamera bewirkt, nachdem das bewegte Objekt sich
über den Mittelpunkt des Bildschirms hinaus bewegt.
Des Weiteren sind die Steuerfunktionen der oben beschriebenen Ausführungsformen
nicht nur auf den Fall anwendbar, in dem der Schwenkkopf 10 sich in der Schwenkrich
tung und der Neigungsrichtung bewegt, sondern in gleicher Weise auf eine Bewegung in
gewissen anderen Richtungen anwendbar (etwa, wenn die Position der Kamera nach
oben/nach unten/nach links/nach rechts bewegt wird).
Wie zuvor beschrieben ist, wird gemäß der Nachführvorrichtung entsprechend der vor
liegenden Erfindung die Bewegungsgeschwindigkeit des bewegten Objekts erfasst und
die Bewegungsgeschwindigkeit des Schwenkkopfes wird auf der Grundlage dieser Be
wegungsgeschwindigkeit gesteuert und damit ist das Verhalten des Nachführvorgangs
des Schwenkkopfes hinsichtlich der Bewegung des bewegten Objekts verbessert, so
dass es möglich ist, dem bewegten Objekt in definierter Weise zu folgen. Ferner ist der
Vergleichsbereich zum Extrahieren des Bildes des bewegten Objekts aus dem von der
Kamera aufgenommenen Bild auf der Grundlage der Bewegungsgeschwindigkeit des
Schwenkkopfes bestimmt, und damit können kostengünstige Teile zur Bestimmung ver
wendet werden, im Vergleich zu dem Falle, in dem der Vergleichsbereich auf der Grund
lage der Position des Schwenkkopfes bestimmt wird, wie dies in der japanischen Pa
tentoffenlegungsschrift 2000-175101 beschrieben ist. Das heißt, das Zeitintervall zur
Aufnahme entsprechender Bilder, die zwei Bildschirme ausfüllen, kann in genauer Wei
se bestimmt werden, und dieses Zeitintervall ist kurz, und daher können beispielsweise
das Auflösungsvermögen sowie die Genauigkeit bei der Geschwindigkeitserfassung
zum Detektieren, dass der Aufnahmebereich sich nur um 1 Pixel verschoben hat, gering
sein im Vergleich zum Falle der Positionserfassung, und die Verwendung preisgünstige
re Sensoren sowie eines A/D-Wandlers und dergleichen sind möglich. Des Weiteren ist
es möglich, die Bilder für zwei Bildschirme aufzunehmen, während die Bewegungsge
schwindigkeit des Schwenkkopfes konstant ist, so dass nicht die Notwendigkeit besteht,
dass der Zeitpunkt bei der Aufnahme des Bildes exakt mit dem Zeitpunkt übereinstimmt,
wenn die Bewegungsgeschwindigkeit erfasst wird, und daher ist eine hohe zeitliche Ge
nauigkeit ebenso wenig notwendig. Der Vergleichsbereich kann aus der Bewegungsge
schwindigkeit ermittelt werden, wenn anstelle eines Positionsdetektionssensors ein
Schrittmotor für den Schwenk/Neigungsbetrieb vorgesehen ist.
Wenn ferner die Bewegungsgeschwindigkeit des bewegten Objekts äußerst hoch ist und
bestimmt wird, dass dieses den Aufnahmebereich der Kamera verlässt, wird der Auf
nahmebereich der Kamera vergrößert, d. h. das Zoomobjektiv wird zur Weitbereichsseite
bewegt, so dass das bewegte Objekt mit der äußerst hohen Bewegungsgeschwindigkeit
ohne Fehlfunktion verfolgt werden kann.
Lediglich wenn die Bewegungsgeschwindigkeit des bewegten Objekts gering ist, wird
die Aufnahmerichtung der Kamera unter Berücksichtigung der Totzone, die auf dem
Aufnahmebildschirm festgelegt ist, gesteuert, und somit wird im Falle einer hohen Be
wegungsgeschwindigkeit des bewegten Objekts die Unannehmlichkeit aufgrund der
Steuerung der Aufnahmerichtung der Kamera unter Berücksichtigung der Totzone ver
mieden, und das bewegte Objekt kann geeignet mit darstellungsfreundlichen Bildern
verfolgt werden.
Wenn sich das bewegte Objekt in Richtung des Bildschirmmittelpunkts bewegt, ist es
vorgesehen, dass sich die Aufnahmerichtung der Kamera nicht ändert, und daher folgt
die Aufnahmerichtung der Kamera dem bewegten Objekt und ändert sich, wenn das
bewegte Objekt über die Bildschirmmitte hinausgeht, wenn das bewegte Objekt von au
ßerhalb des Aufnahmebereichs der Kamera in den Aufnahmebereich hineinbewegt wird,
und somit wird die Unannehmlichkeit behoben, dass die Aufnahmerichtung der Kamera
nutzloserweise geändert wird, und somit wird das Bild der Kamera darstellungsfreund
lich.
Es sollte selbstverständlich sein, dass nicht beabsichtigt ist, die Erfindung auf die spe
ziellen offenbarten Formen einzuschränken, sondern im Gegenteil die Erfindung soll alle
Modifikationen, alternative Formen und Äquivalente abdecken, die innerhalb des
Grundgedankens und Schutzbereichs der Erfindung liegen, wie sie in den angefügten
Patentansprüchen definiert ist.
14
Bildverarbeitungseinrichtung
12
Schwenkkopfkontroller
44
Linseneinrichtung
42
Kamerahauptkörper
10
Schwenkkopf
12
Schwenkkopfkontroller
46
Y/C-Separierschaltung
48
A/D-Wandler
50
Bildspeicher
52
Bildverarbeitungsprozessor
1
Bildsignal
2
Y-Signal
3
Synchronisiersignal
S10 Einlesen des Bildes #1 in den Bildspeicher
S12 Zeit für vier Felder verstrichen?
S14 Einlesen des Bildes #2 in den Bildspeicher
S16 Zeit für vier Felder verstrichen?
S18 Einlesen des Bildes #3 in den Bildspeicher Festlegen des Vergleichsbildbereichs aus den Schwenk- (Neigungs)geschwindigkeitsdaten
S24 binäre Codierung
S26 Reduktion
S28 Fläche bzw. Bereich
S30 Fläche < Schwellwert?
S12 Zeit für vier Felder verstrichen?
S14 Einlesen des Bildes #2 in den Bildspeicher
S16 Zeit für vier Felder verstrichen?
S18 Einlesen des Bildes #3 in den Bildspeicher Festlegen des Vergleichsbildbereichs aus den Schwenk- (Neigungs)geschwindigkeitsdaten
S24 binäre Codierung
S26 Reduktion
S28 Fläche bzw. Bereich
S30 Fläche < Schwellwert?
S32 Hauptmoment
S34 Schwerpunkt 1-3
S36 Festlegen des Vergleichsbildbereichs aus Schwenk- (Neigungs)geschwindigkeitsdaten
S40 binäre Codierung
S42 Reduktion
S44 Fläche bzw. Bereich
S46 Hauptmoment
S48 Schwerpunkt 1-2
S50 (Schwerpunkt 1-3) - (Schwerpunkt 1-2)
S52 Berechnung der Geschwindigkeit des bewegten Objekts
S54 Festlegen der Geschwindigkeiten der Schwenk-(Neigungs)richtung
S56 Steuergeschwindigkeit erreicht?
S34 Schwerpunkt 1-3
S36 Festlegen des Vergleichsbildbereichs aus Schwenk- (Neigungs)geschwindigkeitsdaten
S40 binäre Codierung
S42 Reduktion
S44 Fläche bzw. Bereich
S46 Hauptmoment
S48 Schwerpunkt 1-2
S50 (Schwerpunkt 1-3) - (Schwerpunkt 1-2)
S52 Berechnung der Geschwindigkeit des bewegten Objekts
S54 Festlegen der Geschwindigkeiten der Schwenk-(Neigungs)richtung
S56 Steuergeschwindigkeit erreicht?
Bild #1
Bild #2
Verschiebung
Verschiebung
Bild #1
Bild #2
Verschiebung
Verschiebung
Bild #2
Verschiebung
Verschiebung
Bild #1
Bild #2
Verschiebung
Verschiebung
Verschiebung 1
Verschiebung 2
Verschiebung 2
Schwerpunkt 1-2
Schwerpunkt 1-3
Schwerpunkt 1-3
Steuerspannung
Schwenkgeschwindigkeit
Verschiebung
Schwenkgeschwindigkeit
Verschiebung
S102 Festlegen der Schwenkgeschwindigkeit
S104 Steuergeschwindigkeit erreicht?
S106 Einlesen des Bildes #1 in den Bildspeicher
S108 Zeit für vier Felder verstrichen?
S110 Einlesen des Bildes #2 in den Bildspeicher
S112 Vorgeben des Verschiebungsbetrags als i, um den Vergleichsbildbereich festzu legen
S116 binäre Codierung
S118 Reduktion
S120 Fläche bzw. Bereich
S122 Fläche = Fläche aus S120
S124 minarea < Fläche?
S132 i < (Anzahl der Pixel in der horizontalen Richtung)?
Ende
Y Ja
N Nein
S104 Steuergeschwindigkeit erreicht?
S106 Einlesen des Bildes #1 in den Bildspeicher
S108 Zeit für vier Felder verstrichen?
S110 Einlesen des Bildes #2 in den Bildspeicher
S112 Vorgeben des Verschiebungsbetrags als i, um den Vergleichsbildbereich festzu legen
S116 binäre Codierung
S118 Reduktion
S120 Fläche bzw. Bereich
S122 Fläche = Fläche aus S120
S124 minarea < Fläche?
S132 i < (Anzahl der Pixel in der horizontalen Richtung)?
Ende
Y Ja
N Nein
Schwerpunkt 1-2
Schwerpunkt 1-3
Schwerpunkt 1-3
Pixelzahl
S150 Ermitteln von a und b
S158 Brennpunktabstand × d
S160 Zoom-Steuerung
S158 Brennpunktabstand × d
S160 Zoom-Steuerung
S210 Geschwindigkeitsmarke = 0
S212 Einlesen des Bildes #1 in den Bildspeicher
S214 Zeit für vier Felder abgelaufen?
S216 Einlesen des Bildes #2 in den Bildspeicher
S218 Zeit für vier Felder abgelaufen?
S220 Einlesen des Bildes #3 in den Bildspeicher
S222 Geschwindigkeitsmarke +1
S224 Festlegen des Vergleichsbildbereichs aus den Schwenkgeschwindigkeitsdaten
S228 binäre Codierung
S230 Reduktion
S232 Fläche bzw. Bereich
S234 Fläche < Schwellwert?
S236 Hauptmoment
S238 Schwerpunkt 1-3
S212 Einlesen des Bildes #1 in den Bildspeicher
S214 Zeit für vier Felder abgelaufen?
S216 Einlesen des Bildes #2 in den Bildspeicher
S218 Zeit für vier Felder abgelaufen?
S220 Einlesen des Bildes #3 in den Bildspeicher
S222 Geschwindigkeitsmarke +1
S224 Festlegen des Vergleichsbildbereichs aus den Schwenkgeschwindigkeitsdaten
S228 binäre Codierung
S230 Reduktion
S232 Fläche bzw. Bereich
S234 Fläche < Schwellwert?
S236 Hauptmoment
S238 Schwerpunkt 1-3
S240 Geschwindigkeitsmarke = 1?
S242 Festlegen des Vergleichsbildbereichs aus den Schwenkgeschwindigkeitsdaten
S246 binäre Codierung
S248 Reduktion
S250 Fläche bzw. Bereich
S252 Hauptmoment
S254 Schwerpunkt 1-2d
S256 (Schwerpunkt 1-3) - (Schwerpunkt 1-2)
S258 Berechnen der Geschwindigkeit des bewegten Objekts
S260 Festlegen der Schwenkgeschwindigkeit
S262 Kontrollgeschwindigkeit erreicht?
S264 liegt die Koordinate des Schwerpunkts innerhalb des Bereichs der Totzone?
S266 Festlegen der Geschwindigkeit
S268 Ausgeben des Schwenkkontrollsignals
S270 Schwenkkopf angehalten?
Y Ja
N Nein
S242 Festlegen des Vergleichsbildbereichs aus den Schwenkgeschwindigkeitsdaten
S246 binäre Codierung
S248 Reduktion
S250 Fläche bzw. Bereich
S252 Hauptmoment
S254 Schwerpunkt 1-2d
S256 (Schwerpunkt 1-3) - (Schwerpunkt 1-2)
S258 Berechnen der Geschwindigkeit des bewegten Objekts
S260 Festlegen der Schwenkgeschwindigkeit
S262 Kontrollgeschwindigkeit erreicht?
S264 liegt die Koordinate des Schwerpunkts innerhalb des Bereichs der Totzone?
S266 Festlegen der Geschwindigkeit
S268 Ausgeben des Schwenkkontrollsignals
S270 Schwenkkopf angehalten?
Y Ja
N Nein
Totzone
Y-Achse:
Breite der Totzone
X-Achse:
Minimum
Koordinate des Bildschirms in der horizontalen Richtung Maximum
Breite der Totzone
X-Achse:
Minimum
Koordinate des Bildschirms in der horizontalen Richtung Maximum
S310 Einlesen des Bildes #1 in den Bildspeicher
S312 Zeit für vier Felder abgelaufen?
S314 Einlesen des Bildes #2 in den Bildspeicher
S316 Zeit für vier Felder abgelaufen?
S318 Einlesen des Bildes #3 in den Bildspeicher
S320 Festlegen des Vergleichsbildbereichs aus den Schwenkgeschwindigkeitsdaten
S324 binäre Codierung
S326 Reduktion
S328 Fläche bzw. Bereich
S330 Fläche < Schwellwert?
S332 Hauptmoment
S334 Schwerpunkt 1-3
S336 Festlegen des Vergleichsbildbereichs aus den Schwenkgeschwindigkeitsdaten
S340 binäre Codierung
S342 Reduktion
S312 Zeit für vier Felder abgelaufen?
S314 Einlesen des Bildes #2 in den Bildspeicher
S316 Zeit für vier Felder abgelaufen?
S318 Einlesen des Bildes #3 in den Bildspeicher
S320 Festlegen des Vergleichsbildbereichs aus den Schwenkgeschwindigkeitsdaten
S324 binäre Codierung
S326 Reduktion
S328 Fläche bzw. Bereich
S330 Fläche < Schwellwert?
S332 Hauptmoment
S334 Schwerpunkt 1-3
S336 Festlegen des Vergleichsbildbereichs aus den Schwenkgeschwindigkeitsdaten
S340 binäre Codierung
S342 Reduktion
S344 Fläche
S346 Hauptmoment
S348 Schwerpunkt 1-2
S350 Schwerpunkt 1-2 < A
S352 Schwerpunkt 1-2 < Schwerpunkt 1-3
S358 (Schwerpunkt 1-3) - (Schwerpunkt 1-2)
S362 Berechnen der Geschwindigkeit des bewegten Objekts
S364 Festlegen der Geschwindigkeit in der Schwenkrichtung
S366 Kontrollgeschwindigkeit erreicht?
S354 Schwerpunkt 1-2 < Schwerpunkt 1-3
S360 (Schwerpunkt 1-2) - (Schwerpunkt 1-3)
Y Ja
N Nein
S346 Hauptmoment
S348 Schwerpunkt 1-2
S350 Schwerpunkt 1-2 < A
S352 Schwerpunkt 1-2 < Schwerpunkt 1-3
S358 (Schwerpunkt 1-3) - (Schwerpunkt 1-2)
S362 Berechnen der Geschwindigkeit des bewegten Objekts
S364 Festlegen der Geschwindigkeit in der Schwenkrichtung
S366 Kontrollgeschwindigkeit erreicht?
S354 Schwerpunkt 1-2 < Schwerpunkt 1-3
S360 (Schwerpunkt 1-2) - (Schwerpunkt 1-3)
Y Ja
N Nein
Schwerpunkt 1-2
Schwerpunkt 1-3
Schwerpunkt 1-2
Schwerpunkt 1-3
Schwerpunkt 1-2
Schwerpunkt 1-3
Schwerpunkt 1-2
Schwerpunkt 1-3
Schwerpunkt 1-3
Schwerpunkt 1-2
Schwerpunkt 1-3
Schwerpunkt 1-2
Schwerpunkt 1-3
Schwerpunkt 1-2
Schwerpunkt 1-3
Berechnung der Bewegungsgeschwindigkeit
Schwenken Stoppen
Berechnen der Bewegungsgeschwindigkeit
Schwenken Stoppen
Berechnen der Bewegungsgeschwindigkeit
Claims (6)
1. Nachführvorrichtung mit einem Schwenkkopf (10) mit einer darauf montierten Ka
mera (40), die zum Ändern von Aufnahmerichtungen der Kamera (40) beim Einle
sen von Bildern, die von der Kamera (40) nacheinander aufgenommen werden,
bewegbar ist, um Bilder eines bewegten Objekts durch Vergleichen eingelesener
Bilder herauszulösen und die Bewegungsgeschwindigkeit des Schwenkkopfes (10)
auf der Grundlage von Positionen auf einem Bildschirm der Bilder des bewegten
Objekts zu steuern, derart, dass das bewegte Objekt nicht außerhalb eines Auf
nahmebereichs der Kamera (40) liegt, mit:
einer Bewegtobjekt-Extraktionseinrichtung (14) zur Herauslösung eines Bildes des bewegten Objekts auf der Grundlage von von der Kamera (40) eingelesenen Bil dern;
einer Bewegungsgeschwindigkeits-Detektionseinrichtung (14) zur Erfassung der Bewegungsgeschwindigkeit des bewegten Objekts aus Positionsänderungen auf dem Bildschirm von Bildern des bewegten Objekts, die von der Bewegtobjekt- Bildextraktionseinrichtung (14) herausgelöst sind; und
einer Kontrolleinrichtung (12, 14) zur Steuerung der Bewegungsgeschwindigkeit des Schwenkkopfes (10) auf der Grundlage der Bewegungsgeschwindigkeit des bewegten Objekts, die mittels der Bewegungsgeschwindigkeits- Detektionseinrichtung (14) erhalten wird, so dass das bewegte Objekt nicht aus dem Aufnahmebereich herauswandert.
einer Bewegtobjekt-Extraktionseinrichtung (14) zur Herauslösung eines Bildes des bewegten Objekts auf der Grundlage von von der Kamera (40) eingelesenen Bil dern;
einer Bewegungsgeschwindigkeits-Detektionseinrichtung (14) zur Erfassung der Bewegungsgeschwindigkeit des bewegten Objekts aus Positionsänderungen auf dem Bildschirm von Bildern des bewegten Objekts, die von der Bewegtobjekt- Bildextraktionseinrichtung (14) herausgelöst sind; und
einer Kontrolleinrichtung (12, 14) zur Steuerung der Bewegungsgeschwindigkeit des Schwenkkopfes (10) auf der Grundlage der Bewegungsgeschwindigkeit des bewegten Objekts, die mittels der Bewegungsgeschwindigkeits- Detektionseinrichtung (14) erhalten wird, so dass das bewegte Objekt nicht aus dem Aufnahmebereich herauswandert.
2. Nachführvorrichtung nach Anspruch 1, wobei die Kontrolleinrichtung (12, 14) den
Aufnahmebereich der Kamera (40) vergrößert, wenn bestimmt wird, dass das be
wegte Objekt aus dem Aufnahmebereich der Kamera (40) sich hinausbewegt, auf
der Grundlage von Bildern des bewegten Objekts, die von der Bewegtobjekt-
Bildextraktionseinrichtung (14) herausgelöst sind.
3. Nachführvorrichtung nach Anspruch 1, wobei die Bewegtobjekt-
Bildextraktionseinrichtung (14) umfasst:
eine Vergleichsbereichs-Bestimmungseinrichtung zum Einlesen von Bildern für zwei Bildschirme aus der Kamera (40) und, basierend auf der Bewegungsge schwindigkeit des Schwenkkopfes (10), zur Bestimmung eines Bereichs als dem Vergleichsbereich, an dem die Aufnahmebereiche der Kamera (40), wenn die ent sprechenden Bilder für zwei Bildschirminhalte aufgenommen werden, überlappen; und
eine Bildverarbeitungseinrichtung zur Herauslösung von Bildern innerhalb des Vergleichsbereichs, der aus entsprechenden Bildern für die zwei Bildschirminhalte durch die Vergleichsbereichs-Bestimmungseinrichtung bestimmt ist, und zur Her auslösung von Bildern des bewegten Objekts durch Vergleichen der herausgelös ten entsprechenden Bilder.
eine Vergleichsbereichs-Bestimmungseinrichtung zum Einlesen von Bildern für zwei Bildschirme aus der Kamera (40) und, basierend auf der Bewegungsge schwindigkeit des Schwenkkopfes (10), zur Bestimmung eines Bereichs als dem Vergleichsbereich, an dem die Aufnahmebereiche der Kamera (40), wenn die ent sprechenden Bilder für zwei Bildschirminhalte aufgenommen werden, überlappen; und
eine Bildverarbeitungseinrichtung zur Herauslösung von Bildern innerhalb des Vergleichsbereichs, der aus entsprechenden Bildern für die zwei Bildschirminhalte durch die Vergleichsbereichs-Bestimmungseinrichtung bestimmt ist, und zur Her auslösung von Bildern des bewegten Objekts durch Vergleichen der herausgelös ten entsprechenden Bilder.
4. Nachführvorrichtung nach Anspruch 3, wobei die Kontrolleinrichtung (12, 14) den
Aufnahmebereich der Kamera (40) vergrößert, wenn bestimmt wird, dass sich das
bewegte Objekt aus dem Aufnahmebereich der Kamera (40) herausbewegt, auf
der Grundlage von Bildern des bewegten Objekts, die von der Bewegtobjekt-
Bildextraktionseinrichtung (14) herausgelöst sind.
5. Nachführvorrichtung, die Aufnahmerichtungen einer Kamera (40) zur Verfolgung
eines bewegten Objekts ändert, mit:
einer Bewegtobjekt-Bildextraktionseinrichtung (14) zum Herauslösen von Bildern eines bewegten Objekts aus Bilder, die von einer Kamera (40) aufgenommen wer den;
einer Geschwindigkeits-Bestimmungseinrichtung (14) zur Beurteilung, ob die Be wegungsgeschwindigkeit eines bewegten Objekts eine geringe Geschwindigkeit oder eine große Geschwindigkeit ist, auf der Grundlage von Bildern des bewegten Objekts, die von der Bewegtobjekt-Bildextraktionseinrichtung (14) herausgelöst sind;
einer Bereichs-Bestimmungseinrichtung (14) zur Beurteilung, ob Bilder des beweg ten Objekts innerhalb eines Bereichs einer vorbestimmten Totzone liegen, die auf einem Aufnahmebildschirm der Kamera (40) festgelegt ist, wenn die Bewegungs geschwindigkeit des bewegten Objekts durch die Geschwindigkeits- Bestimmungseinrichtung als gering bestimmt ist; und
einer Aufnahmerichtungs-Steuereinrichtung (10, 12, 14) zum Ändern der Aufnah merichtungen der Kamera (40), so dass das bewegte Objekt nicht außerhalb des Aufnahmebereichs der Kamera (40) liegt, auf der Grundlage von Bildern des be wegten Objekts, die von der Bewegtobjekt-Bildextraktionseinrichtung (14) heraus gelöst sind, wenn die Bewegungsgeschwindigkeit des bewegten Objekts durch die Geschwindigkeits-Bestimmungseinrichtung als hoch bestimmt wird, oder wenn das Bild des bewegten Objekts von der Bereichs-Bestimmungseinrichtung (14) als au ßerhalb des Bereichs der Totzone liegend bestimmt wird, und um Änderungen in der Aufnahmerichtung der Kamera (40) anzuhalten, wenn die Bewegungsge schwindigkeit des bewegten Objekts durch die Geschwindigkeits- Bestimmungseinrichtung (14) als gering bestimmt wird und das Bild des bewegten Objekts durch die Bereichs-Bestimmungseinrichtung (14) als innerhalb des Be reichs der Totzone liegend bestimmt wird.
einer Bewegtobjekt-Bildextraktionseinrichtung (14) zum Herauslösen von Bildern eines bewegten Objekts aus Bilder, die von einer Kamera (40) aufgenommen wer den;
einer Geschwindigkeits-Bestimmungseinrichtung (14) zur Beurteilung, ob die Be wegungsgeschwindigkeit eines bewegten Objekts eine geringe Geschwindigkeit oder eine große Geschwindigkeit ist, auf der Grundlage von Bildern des bewegten Objekts, die von der Bewegtobjekt-Bildextraktionseinrichtung (14) herausgelöst sind;
einer Bereichs-Bestimmungseinrichtung (14) zur Beurteilung, ob Bilder des beweg ten Objekts innerhalb eines Bereichs einer vorbestimmten Totzone liegen, die auf einem Aufnahmebildschirm der Kamera (40) festgelegt ist, wenn die Bewegungs geschwindigkeit des bewegten Objekts durch die Geschwindigkeits- Bestimmungseinrichtung als gering bestimmt ist; und
einer Aufnahmerichtungs-Steuereinrichtung (10, 12, 14) zum Ändern der Aufnah merichtungen der Kamera (40), so dass das bewegte Objekt nicht außerhalb des Aufnahmebereichs der Kamera (40) liegt, auf der Grundlage von Bildern des be wegten Objekts, die von der Bewegtobjekt-Bildextraktionseinrichtung (14) heraus gelöst sind, wenn die Bewegungsgeschwindigkeit des bewegten Objekts durch die Geschwindigkeits-Bestimmungseinrichtung als hoch bestimmt wird, oder wenn das Bild des bewegten Objekts von der Bereichs-Bestimmungseinrichtung (14) als au ßerhalb des Bereichs der Totzone liegend bestimmt wird, und um Änderungen in der Aufnahmerichtung der Kamera (40) anzuhalten, wenn die Bewegungsge schwindigkeit des bewegten Objekts durch die Geschwindigkeits- Bestimmungseinrichtung (14) als gering bestimmt wird und das Bild des bewegten Objekts durch die Bereichs-Bestimmungseinrichtung (14) als innerhalb des Be reichs der Totzone liegend bestimmt wird.
6. Nachführvorrichtung, die Aufnahmerichtungen einer Kamera (40) ändert, um ei
nem bewegten Objekt zu folgen, wobei:
Aufnahmerichtungen der Kamera (40) nicht geändert werden, wenn das bewegte Objekt sich auf einen Bildschirmmittelpunkt auf einem Aufnahmebildschirm der Kamera (40) hinbewegt, und wobei Aufnahmerichtungen der Kamera (40) geän dert werden, so dass das bewegte Objekt nicht aus dem Aufnahmebildschirm he rausläuft, wenn das bewegte Objekt sich vom Mittelpunkt des Bildschirms zum Rand des Bildschirms bewegt.
Aufnahmerichtungen der Kamera (40) nicht geändert werden, wenn das bewegte Objekt sich auf einen Bildschirmmittelpunkt auf einem Aufnahmebildschirm der Kamera (40) hinbewegt, und wobei Aufnahmerichtungen der Kamera (40) geän dert werden, so dass das bewegte Objekt nicht aus dem Aufnahmebildschirm he rausläuft, wenn das bewegte Objekt sich vom Mittelpunkt des Bildschirms zum Rand des Bildschirms bewegt.
Applications Claiming Priority (6)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2000-327617 | 2000-10-26 | ||
JP2000327617A JP4725693B2 (ja) | 2000-10-26 | 2000-10-26 | 自動追尾装置 |
JP2000363392A JP2002171438A (ja) | 2000-11-29 | 2000-11-29 | 自動追尾装置 |
JP2000363393A JP2002171439A (ja) | 2000-11-29 | 2000-11-29 | 自動追尾装置 |
JP2000-363392 | 2000-11-29 | ||
JP2000-363393 | 2000-11-29 |
Publications (2)
Publication Number | Publication Date |
---|---|
DE10152883A1 true DE10152883A1 (de) | 2002-10-17 |
DE10152883B4 DE10152883B4 (de) | 2007-08-23 |
Family
ID=27345036
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE10152883A Expired - Fee Related DE10152883B4 (de) | 2000-10-26 | 2001-10-26 | Nachführvorrichtung |
Country Status (3)
Country | Link |
---|---|
US (1) | US7256817B2 (de) |
DE (1) | DE10152883B4 (de) |
GB (1) | GB2368741B (de) |
Families Citing this family (30)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20040100563A1 (en) | 2002-11-27 | 2004-05-27 | Sezai Sablak | Video tracking system and method |
US8098290B2 (en) * | 2004-01-30 | 2012-01-17 | Siemens Corporation | Multiple camera system for obtaining high resolution images of objects |
US7189909B2 (en) * | 2004-11-23 | 2007-03-13 | Román Viñoly | Camera assembly for finger board instruments |
US8031226B2 (en) * | 2005-03-01 | 2011-10-04 | Fujifilm Corporation | Image output apparatus, image output method, image output program, image trimming apparatus, image trimming method, and image trimming program |
US20080002031A1 (en) * | 2005-05-06 | 2008-01-03 | John-Paul P. Cana | Multi-axis control of a fixed or moving device based on a wireless tracking location of one or many target devices |
JP2007028383A (ja) * | 2005-07-20 | 2007-02-01 | Canon Inc | 撮像装置及びその制御方法 |
US8035691B2 (en) * | 2006-08-01 | 2011-10-11 | Pelco, Inc. | Method and apparatus for compensating for movement of a video surveillance camera |
JP4709101B2 (ja) | 2006-09-01 | 2011-06-22 | キヤノン株式会社 | 自動追尾カメラ装置 |
JP4911472B2 (ja) * | 2006-12-05 | 2012-04-04 | 富士フイルム株式会社 | 出力装置、出力方法、及びプログラム |
JP4697810B2 (ja) * | 2007-03-05 | 2011-06-08 | パナソニック株式会社 | 自動追尾装置及び自動追尾方法 |
JP2009049810A (ja) * | 2007-08-21 | 2009-03-05 | Canon Inc | 撮像装置及びその制御方法及びプログラム |
JP2010021598A (ja) * | 2008-07-08 | 2010-01-28 | Victor Co Of Japan Ltd | 撮像装置および撮像方法 |
US8199194B2 (en) * | 2008-10-07 | 2012-06-12 | The Boeing Company | Method and system involving controlling a video camera to track a movable target object |
JP5395512B2 (ja) * | 2009-05-26 | 2014-01-22 | オリンパスイメージング株式会社 | 撮影装置 |
JP2011139231A (ja) * | 2009-12-28 | 2011-07-14 | Sony Corp | 画像処理装置、画像処理方法、プログラム |
JP5875453B2 (ja) * | 2012-04-19 | 2016-03-02 | キヤノン株式会社 | 自動追尾装置 |
US9213781B1 (en) | 2012-09-19 | 2015-12-15 | Placemeter LLC | System and method for processing image data |
US9100572B2 (en) | 2013-05-24 | 2015-08-04 | Xerox Corporation | Methods and systems for confidence-based image processing |
US9696404B1 (en) | 2014-05-06 | 2017-07-04 | The United States Of America As Represented By The Secretary Of The Air Force | Real-time camera tracking system using optical flow feature points |
WO2015184440A2 (en) | 2014-05-30 | 2015-12-03 | Placemeter Inc. | System and method for activity monitoring using video data |
US9324136B2 (en) * | 2014-06-12 | 2016-04-26 | Htc Corporation | Method, electronic apparatus, and computer readable medium for processing reflection in image |
US10447979B2 (en) | 2014-12-25 | 2019-10-15 | Panasonic Intellectual Property Management Co., Ltd. | Projection device for detecting and recognizing moving objects |
WO2016151925A1 (ja) * | 2015-03-26 | 2016-09-29 | 富士フイルム株式会社 | 追尾制御装置、追尾制御方法、追尾制御プログラム、及び、自動追尾撮影システム |
US10043078B2 (en) | 2015-04-21 | 2018-08-07 | Placemeter LLC | Virtual turnstile system and method |
US10460453B2 (en) * | 2015-12-30 | 2019-10-29 | Texas Instruments Incorporated | Feature point identification in sparse optical flow based tracking in a computer vision system |
US11100335B2 (en) * | 2016-03-23 | 2021-08-24 | Placemeter, Inc. | Method for queue time estimation |
JP6967603B2 (ja) * | 2017-03-17 | 2021-11-17 | ユニティ アイピーアール エイピーエスUnity Ipr Aps | 自動化されたカメラコリジョンおよび構図保存のための方法およびシステム |
JP6994901B2 (ja) * | 2017-10-24 | 2022-01-14 | キヤノン株式会社 | 制御装置、制御方法、及びプログラム |
CN109246394A (zh) * | 2018-10-19 | 2019-01-18 | 刘景江 | 一种户外用自动监控设备 |
CN112702516B (zh) * | 2020-12-24 | 2023-06-16 | 维沃移动通信(杭州)有限公司 | 调焦方法、装置和电子设备 |
Family Cites Families (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0614698B2 (ja) | 1983-05-13 | 1994-02-23 | 株式会社日立製作所 | 自動追尾カメラ |
US4805018A (en) * | 1986-03-07 | 1989-02-14 | Matsushita Electric Industrial Co., Ltd. | Video signal processing apparatus for separating an image of a moving object from video signals |
US5473369A (en) * | 1993-02-25 | 1995-12-05 | Sony Corporation | Object tracking apparatus |
US5519669A (en) * | 1993-08-19 | 1996-05-21 | At&T Corp. | Acoustically monitored site surveillance and security system for ATM machines and other facilities |
WO1995010915A1 (en) * | 1993-10-12 | 1995-04-20 | Orad, Inc. | Sports event video |
JPH09186927A (ja) | 1995-12-28 | 1997-07-15 | Sony Corp | 追尾装置および追尾方法 |
DE19701186C2 (de) | 1996-01-12 | 2001-10-18 | Fraunhofer Ges Forschung | Interaktives Überwachungssystem |
JPH1139495A (ja) * | 1997-07-24 | 1999-02-12 | Nec Corp | 画像監視装置 |
CN1178467C (zh) * | 1998-04-16 | 2004-12-01 | 三星电子株式会社 | 自动跟踪运动目标的方法和装置 |
JP2000175101A (ja) | 1998-12-04 | 2000-06-23 | Fuji Photo Optical Co Ltd | 自動追尾装置 |
JP4243883B2 (ja) * | 1999-03-15 | 2009-03-25 | フジノン株式会社 | リモコン雲台システム |
EP1107584B1 (de) * | 1999-12-03 | 2008-08-27 | Fujinon Corporation | Automatische Folgevorrichtung |
WO2001069932A1 (en) * | 2000-03-10 | 2001-09-20 | Sensormatic Electronics Corporation | Method and apparatus for object tracking and detection |
JP3440916B2 (ja) | 2000-03-30 | 2003-08-25 | 日本電気株式会社 | 自動追尾装置、自動追尾方法及び自動追尾プログラムを記録した記録媒体 |
US6766035B1 (en) * | 2000-05-03 | 2004-07-20 | Koninklijke Philips Electronics N.V. | Method and apparatus for adaptive position determination video conferencing and other applications |
WO2002003702A1 (en) * | 2000-06-30 | 2002-01-10 | The Muller Sports Group, Inc. | Sporting events broadcasting system |
-
2001
- 2001-10-25 US US09/983,588 patent/US7256817B2/en not_active Expired - Lifetime
- 2001-10-26 GB GB0125772A patent/GB2368741B/en not_active Expired - Fee Related
- 2001-10-26 DE DE10152883A patent/DE10152883B4/de not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
US20020051057A1 (en) | 2002-05-02 |
US7256817B2 (en) | 2007-08-14 |
GB2368741B (en) | 2004-12-15 |
GB2368741A (en) | 2002-05-08 |
GB0125772D0 (en) | 2001-12-19 |
DE10152883B4 (de) | 2007-08-23 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
DE10152883A1 (de) | Nachführvorrichtung | |
DE602005000090T2 (de) | Autofokussystem | |
DE10017072C2 (de) | Hecküberwachungssystem für ein Fahrzeug | |
DE60009000T2 (de) | System zur Einparkhilfe | |
DE102014116140B4 (de) | Einparkhilfsvorrichtung und Einparkhilfsverfahren für ein Fahrzeug | |
DE4336288C1 (de) | Einrichtung zur Überwachung des Rück- bzw. Frontraumes eines einparkenden Kraftfahrzeugs | |
DE602006000272T2 (de) | Autofokuseinrichtung mit Fokus-Nachführung für Objekte in Bewegung | |
EP1583022A2 (de) | Verfahren und Anordnung zur Aufnahme interessierender Bereiche von beweglichen Objekten | |
DE10103924B4 (de) | Vorrichtung zur Umgebungsüberwachung eines Fahrzeugs | |
DE10306070A1 (de) | Digitale Kamera zum Aufnehmen eines Paars stereoskopischer Bilder | |
EP3552144A1 (de) | Kameravorrichtung sowie verfahren zur situationsangepassten erfassung eines umgebungsbereichs eines fahrzeugs | |
DE112010005086T5 (de) | Kameraplattformsystem | |
DE10306069A1 (de) | Kamera zum Erzeugen eines stereoskopischen Bildpaars | |
DE4118605C2 (de) | Fahrzeugzwischenabstands-Erfassungseinrichtung zur automatischen Zielverfolgung eines vorausfahrenden Fahrzeugs | |
DE10338248A1 (de) | Kamerasystem und Fokusinformation-Anzeigeeinrichtung | |
DE602005003634T2 (de) | Autofokussystem | |
DE4041922C2 (de) | Entfernungssensorvorrichtung zur Messung der Entfernung von einem bewegten Objekt | |
DE69919514T2 (de) | Abstandsmessgerät | |
EP1553758A1 (de) | Optische Vorrichtung zur Ausgleich des Bildverwakelns mit Anzeige der durchgeführten Korrektur | |
EP1860492B1 (de) | Verfahren zur Raumfilterung und Bildaufnahmegerät | |
DE4420422C2 (de) | Technisches Komplexauge für dynamisches maschinelles Sehen | |
DE69721520T2 (de) | System mit einem Photosensor, insbesonder zur Zeitmessung bei Wettkämpfen, und Einstellverfahren zum Ausrichten eines solchen Systems auf eine Ziellinie | |
AT521845B1 (de) | Verfahren zur Fokuseinstellung einer Filmkamera | |
WO2020127748A1 (de) | Vorrichtung mit einer multiaperturabbildungsvorrichtung zum akkumulieren von bildinformation | |
WO1998048309A1 (de) | Optisches abbildungssystem und graphische benutzerschnittstelle |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
8110 | Request for examination paragraph 44 | ||
8127 | New person/name/address of the applicant |
Owner name: FUJINON CORP., SAITAMA, JP |
|
8364 | No opposition during term of opposition | ||
R119 | Application deemed withdrawn, or ip right lapsed, due to non-payment of renewal fee |