DE60128018T2 - Objektüberwachungsvorrichtung - Google Patents

Objektüberwachungsvorrichtung Download PDF

Info

Publication number
DE60128018T2
DE60128018T2 DE60128018T DE60128018T DE60128018T2 DE 60128018 T2 DE60128018 T2 DE 60128018T2 DE 60128018 T DE60128018 T DE 60128018T DE 60128018 T DE60128018 T DE 60128018T DE 60128018 T2 DE60128018 T2 DE 60128018T2
Authority
DE
Germany
Prior art keywords
signal
video signal
image
camera
focused position
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
DE60128018T
Other languages
English (en)
Other versions
DE60128018D1 (de
Inventor
Michio Urayasu-shi Miwa
Makoto Machida-shi Sato
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Corp
Original Assignee
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Matsushita Electric Industrial Co Ltd filed Critical Matsushita Electric Industrial Co Ltd
Publication of DE60128018D1 publication Critical patent/DE60128018D1/de
Application granted granted Critical
Publication of DE60128018T2 publication Critical patent/DE60128018T2/de
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B7/00Mountings, adjusting means, or light-tight connections, for optical elements
    • G02B7/28Systems for automatic generation of focusing signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/67Focus control based on electronic image sensor signals
    • H04N23/673Focus control based on electronic image sensor signals based on contrast or high frequency components of image signals, e.g. hill climbing method

Landscapes

  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Optics & Photonics (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Automatic Focus Adjustment (AREA)
  • Measurement Of Optical Distance (AREA)
  • Image Input (AREA)
  • Studio Devices (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Focusing (AREA)

Description

  • Diese Erfindung betrifft eine Objektüberwachungsvorrichtung, die eine Kamera umfasst.
  • Die japanische Patentanmeldung mit der Veröffentlichungsnummer 11-044837 offenbart eine automatische Fokussierungseinrichtung für eine Kamera. Die Einrichtung in der japanischen Anmeldung 11-044837 umfasst einen Brennpunktdetektor. Ein Bild eines Objekts wird wiederholt fotoelektrisch in ein Objektbildsignal umgewandelt, das aus Pixeln entsprechenden Signalen besteht. Der Brennpunktdetektor gibt das Objektbildsignal an einen Bewegungsvorhersagerechner aus. Der Bewegungsvorhersagerechner speichert das Objektbildsignal in einem internen Speicher.
  • Bei der Einrichtung der japanischen Anmeldung 11-044837 teilt ein Bewegungsbestimmungsteilabschnitt das jüngste von dem Brennpunktdetektor ausgegebene Objektbildsignal in Blöcke auf. Der Bewegungsbestimmungsteilabschnitt greift auf das vorherige Objektbildsignal zu, das in dem Speicher in dem Bewegungsvorhersagerechner gespeichert ist. Der Bewegungsbestimmungsteilabschnitt teilt das vorherige Objektbildsignal in Blöcke auf. Der Bewegungsbestimmungsteilabschnitt wertet die Korrelation zwischen dem neuesten Objektbildsignal und dem vorherigen Objektbildsignal auf einer Block-für-Block-Übereinstimmungsbasis aus. Der Bewegungsbestimmungsteilabschnitt informiert den Bewegungsvorhersagerechner über die ausgewertete Korrelation. Der Bewegungsvorhersagerechner berechnet die von dem Objekt in einer Richtung entlang der optischen Achse der Kameralinse zurückgelegten Länge auf der Grundlage der ausgewerteten Korrelation. Ein Defokussierungsrechner sagt in Ansprechen auf die berechnete zurückgelegte Länge die Distanz zwischen dem Objekt und einer Kamera vorher, was zu einem vorbestimmten Zeitpunkt nach dem gegenwärtigen Moment stattfindet. Ein Sequenzcontroller steuert die Kameralinse in Ansprechen auf die vorhergesagte Distanz an, um eine automatische Fokussierungssteuerung zu realisieren.
  • Das US-Patent Nr. 5,777,690 offenbart eine Einrichtung zum Detektieren von sich bewegenden Objekten. Die Einrichtung in dem US-Patent 5,777,690 umfasst eine Lichtflussextraktionseinheit zum Extrahieren von Lichtflüssen für die jeweiligen lokalen Regionen in den gemessenen Bildern, eine Expansionspunkt-Berechnungseinheit (FOE-Berechnungseinheit) zum Berechnen eines FOE einer durch die extrahierten Lichtflüsse verlängerten geraden Linie und eine Detektionseinheit für sich bewegende Hindernisse zum Analysieren einer temporären Änderung des berechneten FOE, um das Vorhandensein des sich bewegenden Hindernisses zu bewerten, wenn die temporäre Positionsänderung größer als ein vorbestimmter Schwankungsumfang ist.
  • Die japanische Patentanmeldung mit der Veröffentlichungsnummer 5-332725 offenbart eine Vorrichtung, die eine Linse, eine Blende und einen Bildwandler umfasst. Die Blende folgt der Linse unverzüglich. Der Bildwandler folgt der Blende. Der Bildwandler ist relativ zu der Linse bewegbar. Wenn sich der Bildwandler in einer Position befindet, bei der ein Bild eines Objekts fokussiert ist, bleiben die Größe und Form des Bilds unabhängig von der Änderung der Blende unverändert. Andererseits, wenn sich der Bildwandler außerhalb einer solchen fokussierten Position befindet, variieren die Größe und Form des Bilds gemäß einer Änderung der Blende. In der Vorrichtung der japanischen Anmeldung 5-332725 wird ein von dem Bildwandler ausgegebenes Signal verarbeitet, während der Bildwandler bewegt wird und die Blende verändert wird. Genauer gesagt werden Komponenten des Bildsignals überwacht, die in dem Bild Ränder darstellen. Die Ränder darstellenden Signalkomponenten werden beim Bestimmen verwendet, ob sich die Größe und Form des Bilds gemäß der Veränderung der Blende ändert oder nicht. Das Bestimmungsergebnis liefert eine Detektion einer fokussierten Position für den Bildwandler.
  • A. Pentland et al. berichtete eine einfache Echtzeitbereichskamera, 1989 IEEE, Seiten 256–260. Die Kamera von Pentland umfasst einen einfachen Bildbereichssensor, der auf der Messung eines Fokusfehlers basiert. Genauer gesagt wird der Fokusfehler durch Vergleichen von zwei geometrisch identischen Bildern gemessen, eines mit einer großen Öffnung, so dass Objekte außerhalb der Brennebene verschwommen sind, mit einem Bild mit einer kleinen Öffnung, bei dem alles scharf fokussiert ist. Die Bilder werden gleichzeitig erfasst, so dass eine Szenenbewegung kein Problem ist, und werden entlang der gleichen optischen Achse mit der gleichen Brennweite erfasst, so dass es keine geometrische Verzerrung gibt.
  • Es gibt eine denkbare visuelle Überwachungsvorrichtung, die keinen Stand der Technik für diese Erfindung bildet. Die denkbare visuelle Überwachungsvorrichtung ist mit einer Kamera versehen, die eine fotoelektrische Umwandlungseinrichtung, eine Linse, die sich vor der fotoelektrischen Umwandlungseinrichtung befindet, und einen Aktor zum Bewegen der Linse relativ zu der fotoelektrischen Umwandlungseinrichtung umfasst. Durch die Linse gelangt Licht, bevor es die fotoelektrische Umwandlungseinrichtung erreicht und daran ein Bild einer Szene ausbildet, die sich vor der Kamera erstreckt. Die fotoelektrische Umwandlungseinrichtung wandelt das Bild in ein entsprechendes Videosignal um. Die fotoelektrische Umwandlungseinrichtung gibt das Videosignal aus. Bei der denkbaren visuellen Überwachungsvorrichtung ist der Aktor gesteuert, um die Distanz zwischen der Linse und der fotoelektrischen Umwandlungseinrichtung zwischen drei verschiedenen Werten periodisch und zyklisch zu verändern. Gemäß der Distanzveränderung wird die Ebene, auf die die Kamera eingestellt ist, zwischen drei separaten Positionen verändert (erste, zweite und dritte fokussierte Position).
  • Bei der denkbaren visuellen Überwachungsvorrichtung wird ein erster Speicher mit dem Videosignal geladen, das ein Bild darstellt, welches vorliegt, wenn die erste fokussierte Position eingenommen wird. Ein zweiter Speicher wird mit dem Videosignal geladen, das ein Bild darstellt, welches vorliegt, wenn die zweite fokussierte Position eingenommen wird. Ein dritter Speicher wird mit dem Videosignal geladen, das ein Bild darstellt, welches vorliegt, wenn die dritte fokussierte Position eingenommen wird. Die Videosignale in dem ersten, zweiten und dritten Speicher werden analysiert, um ein gemeinsames Objekt zu finden, das in den Bildern enthalten ist. Zusätzlich wird der Fokusgrad für das Objekt hinsichtlich jedes der Bilder berechnet. Die berechneten Fokusgrade für das Objekt werden verglichen, um zu bestimmen, welches der Bilder dem besten Fokus entspricht. Die Position oder der Positionsbereich des Objekts entlang einer optischen Achse der Kamera wird auf der Grundlage der fokussierten Position ermittelt, die dem Bild mit dem besten Fokus entspricht.
  • Bei der denkbaren visuellen Überwachungsvorrichtung bleibt der Aktor ungeachtet dessen, ob sich ein betreffendes Objekt bewegt oder feststehend ist, periodisch und zyklisch angesteuert. Demgemäß hat die denkbare visuelle Überwachungsvorrichtung die Tendenz dazu, in hohem Maße Energie zu verbrauchen.
  • EP 0 908 846 A offenbart eine Bildverarbeitungsvorrichtung, durch die ein sich bewegendes Objekt detektiert werden kann und die Distanz des sich bewegenden Objekts zu einer vorbestimmten Position gemessen werden kann.
  • US 5 623 708 offenbart eine Kamera mit einer Autofokus-Einstellungseinrichtung, die eine Bildebenenbewegungsgeschwindigkeit verwendet, um sich bewegende Objekte zu detektieren.
  • Es ist ein Ziel dieser Erfindung, eine verbesserte Objektüberwachungsvorrichtung bereitzustellen.
  • Gemäß der vorliegenden Erfindung wird eine Objektüberwachungsvorrichtung vorgesehen, umfassend:
    eine Kamera zum Erzeugen eines Videosignals eines Bilds eines Objekts mit einer bewegbaren Linse, die unter der Steuerung eines Controllers bewegt wird, um eine fokussierte Position zu verändern, und
    ein erstes Mittel zum Umwandeln des Bilds, das durch durch die Linse gelangendes Licht dargestellt wird, in das Videosignal;
    einen Bewegungsdetektor zum Detektieren eines sich bewegenden Objekts in einem Bild, das durch das durch die Kamera erzeugte Videosignal dargestellt wird; und
    eine Ausgabeeinheit zum Ausgeben des Videosignals, das ein Bild des durch den Bewegungsdetektor detektierten sich bewegenden Objekts darstellt;
    gekennzeichnet durch:
    den Controller, der angeordnet ist, um, wenn der Bewegungsdetektor ein sich bewegendes Objekt detektiert, die fokussierte Position, auf die die Kamera eingestellt ist, zwischen vorbestimmten Positionen, die voneinander verschieden sind, zu verändern;
    einen Prozessor zum Detektieren von Fokusgraden von Bildern, die durch durch die Kamera erzeugte Videosignale dargestellt werden, wenn die fokussierte Position mit den jeweils vorbestimmten Positionen zusammenfällt, um einen größten der Fokusgrade zu bestimmen und um die Ausgabeeinheit zu steuern, um das Videosignal auszugeben, das das Bild mit dem größten Fokusgrad darstellt.
  • Die vorliegende Erfindung wird nachstehend unter Bezugnahme auf beispielhafte Ausführungsformen und die begleitenden Zeichnungen beschrieben, in denen:
  • 1 ein Blockdiagramm einer denkbaren visuellen Überwachungsvorrichtung ist,
  • 2 ein Blockdiagramm einer Objektüberwachungsvorrichtung gemäß einer ersten Ausführungsform dieser Erfindung ist,
  • 3 eine schematische perspektivische Ansicht eines Objekts und einer Kamera von 2 ist,
  • 4, 5 und 6 Bilddiagramme des Objekts in 3 sind, die erzeugt werden, wenn die Kamera auf jeweilige verschiedene Positionen eingestellt ist,
  • 7 eine schematische perspektivische Ansicht von Eindringlingen und der Kamera in 2 ist,
  • 8 ein Blockdiagramm einer Objektüberwachungsvorrichtung gemäß einer zweiten Ausführungsform dieser Erfindung ist,
  • 9 ein Diagramm eines Frames, eines Blocks und einer DCT-Koeffizientenmatrix ist,
  • 10 ein Blockdiagramm einer Objektüberwachungsvorrichtung gemäß einer dritten Ausführungsform dieser Erfindung ist,
  • 11 ein Diagramm einer DCT-Koeffizientenmatrix und ein erstes Beispiel einer darin festgelegten Bandregion (Fensterregion) ist,
  • 12 ein Diagramm einer DCT-Koeffizientenmatrix und ein zweites Beispiel der darin festgelegten Bandregion (Fensterregion) ist,
  • 13 ein Blockdiagramm einer Objektüberwachungsvorrichtung gemäß einer vierten Ausführungsform dieser Erfindung ist,
  • 14 ein Diagramm eines Objekts, einer Linse und von Bildern des Objekts ist, die jeweils an verschiedenen Projektionsebenen ausgebildet sind,
  • 15 eine schematische Teilansicht eines Kondensors von 13 ist,
  • 16 ein Diagramm eines Expansions-Kontraktions-Elements von 13 ist,
  • 17 ein Blockdiagramm eines Abschnitts einer Objektüberwachungsvorrichtung gemäß einer fünften Ausführungsform dieser Erfindung ist,
  • 18 eine schematische Draufsicht von ursprünglichen Linsen und einer Kombinationslinse von 17 ist,
  • 19 ein Blockdiagramm eines Abschnitts einer Objektüberwachungsvorrichtung gemäß einer sechsten Ausführungsform dieser Erfindung ist,
  • 20 ein Blockdiagramm einer Objektüberwachungsvorrichtung gemäß einer siebten Ausführungsform dieser Erfindung ist,
  • 21 ein Diagramm eines mit der Objektüberwachungsvorrichtung von 20 versehenen Fahrzeugs ist,
  • 22 ein Blockdiagramm einer Objektüberwachungsvorrichtung gemäß einer achten Ausführungsform dieser Erfindung ist,
  • 23 ein Flussdiagramm eines Segments eines Programms für einen Signalprozessor von 22 ist,
  • 24 ein Blockdiagramm einer Objektüberwachungsvorrichtung gemäß einer neunten Ausführungsform dieser Erfindung ist,
  • 25 ein Flussdiagramm eines Segments eines Programms für einen Signalprozessor von 24 ist,
  • 26 ein Flussdiagramm eines Blocks von 25 ist.
  • Nachstehend wird für ein besseres Verständnis dieser Erfindung eine denkbare visuelle Überwachungsvorrichtung erläutert.
  • Bezug nehmend auf 1 umfasst eine denkbare visuelle Überwachungsvorrichtung (nicht Stand der Technik für diese Erfindung) eine Kamera 173. Die Kamera 173 weist eine bewegbare Linse 171, einen elektrisch betriebenen Aktor 172 und eine fotoelektrische Umwandlungseinrichtung 174 auf. Die Linse 171 ist vor der fotoelektrischen Umwandlungseinrichtung 174 angeordnet. Der Aktor 172 dient dazu, die Linse 171 relativ zu der fotoelektrischen Umwandlungseinrichtung 174 zu bewegen. Durch die Linse 171 gelangt Licht, bevor es die fotoelektrische Umwandlungseinrichtung 174 erreicht und daran ein Bild einer Szene ausbildet, die sich vor der Kamera 173 erstreckt. Die fotoelektrische Umwandlungseinrichtung 174 wandelt das Bild in ein entsprechendes Videosignal um. Die fotoelektrische Umwandlungseinrichtung 174 gibt das Videosignal aus. Die fotoelektrische Umwandlungseinrichtung 174 ist vom CCD-basierten Typ.
  • Die denkbare Vorrichtung von 1 umfasst ferner eine Signalverteilungseinrichtung 175, einen Controller 176, einen ersten Speicher 177, einen zweiten Speicher 178, einen dritten Speicher 179, einen Signalprozessor 180 und eine Anzeige 181. Die Signalverteilungseinrichtung 175 ist mit der fotoelektrischen Umwandlungseinrichtung 174 in der Kamera 173 verbunden. Zusätzlich ist die Signalverteilungseinrichtung 175 mit dem Controller 176 und den Speichern 177, 178 und 179 verbunden. Der Controller 176 ist mit dem Aktor 172 in der Kamera 173 verbunden. Der Signalprozessor 180 ist mit den Speichern 177, 178 und 179 und der Anzeige 181 verbunden.
  • In der denkbaren Vorrichtung von 1 umfasst der Controller 176 einen Signalgenerator, der ein periodisches Steuersignal erzeugt. Der Controller 176 gibt das erzeugte Steuersignal an den Aktor 172 in der Kamera 173 aus. Der Controller 176 gibt auch das Steuersignal an die Signalverteilungseinrichtung 175 aus. In der Kamera 173 bewegt der Aktor 172 die Linse 171 in Ansprechen auf das von dem Controller 176 zugeführte Steuersignal. Genauer gesagt verändert der Aktor 172 die Distanz zwischen der Linse 171 und der fotoelektrischen Umwandlungseinrichtung 174 zwischen drei verschiedenen Werten periodisch und zyklisch. Gemäß der Distanzveränderung wird die Ebene, auf die die Kamera 173 eingestellt ist, zwischen drei separaten Positionen (erste, zweite und dritte fokussierte Position) verändert. Die erste, zweite und dritte fokussierte Position sind gleich der entferntesten, der mittleren bzw. der nächsten Position von der Kamera 173 aus gesehen. Mindestens ein vollständiges Bild (ein Frame) wird durch die fotoelektrische Umwandlungseinrichtung 174 jedes Mal umgewandelt, wenn die erste, zweite oder dritte fokussierte Position eingenommen wird.
  • In der denkbaren Vorrichtung von 1 empfängt die Signalverteilungseinrichtung 175 das Videosignal von der fotoelektrischen Umwandlungseinrichtung 174 in der Kamera 173. Die Signalverteilungseinrichtung 175 erkennt, welche der ersten, zweiten und dritten fokussierten Position momentan eingenommen ist, indem auf das von dem Controller 176 zugeführte Steuersignal Bezug genommen wird. Somit erkennt die Signalverteilungseinrichtung 175, welcher der ersten, zweiten und dritten fokussierten Position ein momentan durch das Videosignal dargestelltes Bild entspricht. Die Signalverteilungseinrichtung 175 umfasst eine Speichersteuerungseinrichtung, die in Ansprechen auf das von dem Controller 176 zugeführte Steuersignal auf die Speicher 177, 178 und 179 einwirkt. Wenn ein momentan durch das Videosignal dargestelltes Bild der ersten fokussierten Position entspricht, speichert die Signalverteilungseinrichtung 175 das Videosignal in den ersten Speicher 177. Wenn ein momentan durch das Videosignal dargestelltes Bild der zweiten fokussierten Position entspricht, speichert die Signalverteilungseinrichtung 175 das Videosignal in den zweiten Speicher 178. Wenn ein momentan durch das Videosignal dargestelltes Bild der dritten fokussierten Position entspricht, speichert die Signalverteilungseinrichtung 175 das Videosignal in den dritten Speicher 179.
  • Bei der denkbaren Vorrichtung von 1 arbeitet der Signalprozessor 180 gemäß einem in seinem internen ROM gespeicherten Programm. Das Programm ist entworfen, um dem Signalprozessor 180 zu ermöglichen, später angeführte Prozesse zu realisieren. Der Signalprozessor 180 greift auf die Videosignale in den Speichern 177, 178 und 179 zu. Der Signalprozessor 180 analysiert die Videosignale, um ein gemeinsames Objekt zu finden, das in durch die Videosignale dargestellten Bildern enthalten ist. Der Signalprozessor 180 berechnet den Fokusgrad für das Objekt unter Betrachtung jedes der Bilder auf einer Pixel-für-Pixel-Basis. Der Signalprozessor 180 vergleicht die berechneten Fokusgrade für das Objekt und bestimmt in Ansprechen auf die Vergleichsergebnisse, welches der Bilder dem besten Fokus entspricht. Der Signalprozessor 180 ermittelt die Position oder den Positionsbereich des Objekts entlang einer optischen Achse der Kamera 173 auf der Grundlage der fokussierten Position entsprechend dem Bild mit dem besten Fokus.
  • Bei der denkbaren Vorrichtung von 1 bleibt der Aktor 172 ungeachtet dessen, ob sich ein betreffendes Objekt bewegt oder feststehend ist, periodisch und zyklisch angesteuert. Demgemäß hat die denkbare Vorrichtung die Tendenz dazu, in hohem Maße Energie zu verbrauchen.
  • Erste Ausführungsform
  • 2 zeigt eine Objektüberwachungsvorrichtung gemäß einer ersten Ausführungsform dieser Erfindung. Die Vorrichtung von 2 umfasst eine bewegbare Linse 1, einen elektrisch betriebenen Aktor 2 und eine fotoelektrische Umwandlungseinrichtung 3, die in einer Kamera oder einer Bilderfassungseinrichtung 4 vorgesehen sind. Die Linse 1 befindet sich vor der fotoelektrischen Umwandlungseinrichtung 3. Der Aktor 2 dient dazu, die Linse 1 relativ zu der fotoelektrischen Umwandlungseinrichtung 3 zu bewegen. Durch die Linse 1 gelangt Licht, bevor es die fotoelektrische Umwandlungseinrichtung 3 erreicht und daran ein Bild einer Szene ausbildet, die sich vor der Kamera 4 erstreckt. Die fotoelektrische Umwandlungseinrichtung 3 wandelt das Bild in ein entsprechendes Videosignal um. Die fotoelektrische Umwandlungseinrichtung 3 gibt das Videosignal aus. Die fotoelektrische Umwandlungseinrichtung 3 realisiert ein periodisches Absuchen, so dass das Videosignal eine Folge von Frames darstellt. Die fotoelektrische Umwandlungseinrichtung 3 ist beispielsweise vom CCD-basierten Typ.
  • Die Vorrichtung von 2 umfasst ferner eine Signalverteilungseinrichtung 5, einen Bewegungsdetektor 6, einen Controller 7, einen ersten Speicher 8, einen zweiten Speicher 9, einen dritten Speicher 10, einen Signalprozessor 11 und eine Anzeige 12. Die Signalverteilungseinrichtung 5 ist mit der fotoelektrischen Umwandlungseinrichtung 3 in der Kamera 4 verbunden. Zusätzlich ist die Signalverteilungseinrichtung 5 mit dem Bewegungsdetektor 6, dem Controller 7 und den Speichern 8, 9 und 10 verbunden. Der Bewegungsdetektor 6 ist mit dem Controller 7 verbunden. Der Controller 7 ist mit dem Aktor 2 in der Kamera 4 verbunden. Zusätzlich ist der Controller 7 mit dem Signalprozessor 11 verbunden. Der Signalprozessor 11 ist mit den Speichern 8, 9 und 10 und der Anzeige 12 verbunden.
  • Der Controller 7 umfasst einen Signalgenerator, der durch ein von dem Bewegungsdetektor 6 zugeführtes Auslösesignal gestartet wird. Der Signalgenerator wird durch ein von dem Bewegungsdetektor 6 zugeführtes Abschaltesignal deaktiviert. Bei einem Start erzeugt der Signalgenerator ein periodisches aktives Steuersignal. Der Controller 7 gibt das erzeugte aktive Steuersignal an den Aktor 2 in der Kamera 4 aus. Der Controller 7 gibt das aktive Steuersignal auch an die Signalverteilungseinrichtung 5 und den Signalprozessor 11 aus. Bei einer Deaktivierung durch ein von dem Bewegungsdetektor 6 zugeführtes Abschaltesignal erzeugt der Signalgenerator in dem Controller 7 das aktive Steuersignal nicht.
  • Bei einem Vorhandensein des von dem Controller 7 ausgegebenen aktiven Steuersignals arbeitet die Kamera 4 wie folgt. Der Aktor 2 bewegt die Linse 1 in Ansprechen auf das aktive Steuersignal. Genauer gesagt verändert der Aktor 2 die Distanz zwischen der Linse 1 und der fotoelektrischen Umwandlungseinrichtung 3 zwischen drei verschiedenen Werten periodisch und zyklisch. Gemäß der Distanzveränderung wird die Ebene, auf die Kamera 4 eingestellt ist, zwischen drei separaten Positionen (erste, zweite und dritte fokussierte Position) P1, P2 und P3 verändert. Es ist in 3 gezeigt, dass die erste, zweite und dritte fokussierte Position P1, P2 und P3 gleich der entferntesten, der mittleren bzw. der nächsten Position von der Kamera 4 aus gesehen sind. Jedes Mal, wenn die erste, zweite oder dritte fokussierte Position P1, P2 und P3 eingenommen wird, wird mindestens ein vollständiges Bild (ein Frame) durch die fotoelektrische Umwandlungseinrichtung 3 umgewandelt.
  • Einer der drei verschiedenen Werte der Distanz zwischen der Linse 1 und der fotoelektrischen Umwandlungseinrichtung 3 ist als ein Anfangswert oder ein normaler Wert spezifiziert. Bei Nichtvorhandensein des von dem Controller 7 ausgegebenen aktiven Steuersignals bleibt die Distanz zwischen der Linse 1 und der fotoelektrischen Umwandlungseinrichtung 3 gleich dem Anfangswert (dem normalen Wert). Demgemäß bleibt bei Nichtvorhandensein des aktiven Steuersignals die erste, zweite oder dritte fokussierte Position P1, P2 und P3, die der anfänglichen Distanz zwischen der Linse 1 und der fotoelektrischen Umwandlungseinrichtung 3 entspricht, weiterhin eingenommen. Diese erste, zweite oder dritte fokussierte Position P1, P2 und P3 wird auch als die anfängliche fokussierte Position oder die normale fokussierte Position bezeichnet. Vorzugsweise wird die zweite fokussierte Position P2 als die anfängliche fokussierte Position verwendet. Um zu ermöglichen, dass die anfängliche fokussierte Position bei Nichtvorhandensein des aktiven Steuersignals eingenommen wird, ist der Aktor 2 mit einem Rückkehrmechanismus oder einem Selbstpositionierungsmechanismus versehen. In dem Fall, in dem das von dem Controller 7 ausgegebene aktive Steuersignal weiterhin nicht vorhanden ist, d.h. in dem Fall, in dem die anfängliche fokussierte Position weiterhin eingenommen bleibt, wandelt die fotoelektrische Umwandlungseinrichtung 3 ein daran ausgebildetes Bild periodisch in ein Videosignal um.
  • Die Signalverteilungseinrichtung 5 empfängt das Videosignal von der fotoelektrischen Umwandlungseinrichtung 3 in der Kamera 4. Die Signal verteilungseinrichtung 5 führt das Videosignal zu dem Bewegungsdetektor 6. Der Bewegungsdetektor 6 dient dazu, eine Objektbewegung in einem Strom von Bildern zu detektieren, die durch das Videosignal dargestellt sind. Wenn die Einrichtung 6 eine Objektbewegung detektiert, gibt die Einrichtung 6 ein die detektierte Objektbewegung darstellendes Signal als ein Auslösesignal an den Controller 7 aus. Bei Nichtvorhandensein einer detektierten Objektbewegung gibt der Bewegungsdetektor 6 kein Auslösesignal an den Controller 7 aus. Wenn eine detektierte Objektbewegung verschwindet, gibt der Bewegungsdetektor 6 ein Abschaltesignal an den Controller 7 aus.
  • Beispielsweise umfasst die Signalverteilungseinrichtung 5 einen programmierbaren Signalprozessor. In diesem Fall arbeitet die Signalverteilungseinrichtung 5 gemäß einem in ihrem internen ROM gespeicherten Programm. Das Programm ist entworfen, um der Signalverteilungseinrichtung 5 zu ermöglichen, später erläuterte Prozesse zu realisieren. Die Signalverteilungseinrichtung 5 erkennt, welche der ersten, zweiten und dritten Position P1, P2 und P3 momentan eingenommen ist, indem auf das von dem Controller 7 zugeführte aktive Steuersignal Bezug genommen wird. Somit erkennt die Signalverteilungseinrichtung 5, welcher der ersten, zweiten und dritten fokussierten Position P1, P2 und P3 ein momentan durch das Videosignal dargestelltes Bild entspricht. Die Signalverteilungseinrichtung 5 umfasst eine Speichersteuereinrichtung, die in Ansprechen auf das von dem Controller 7 zugeführte aktive Steuersignal auf die Speicher 8, 9 und 10 einwirkt. In dem Fall, in dem die erste, zweite und dritte fokussierte Position P1, P2 und P3 periodisch und zyklisch abwechselnd eingenommen werden, arbeitet die Signalverteilungseinrichtung 5 wie folgt. Wenn ein momentan durch das Videosignal dargestelltes Bild der ersten fokussierten Position P1 entspricht, speichert die Signalverteilungseinrichtung 5 das Videosignal in den ersten Speicher 8. Wenn ein momentan durch das Videosignal dargestelltes Bild der zweiten fokussierten Position P2 entspricht, speichert die Signalverteilungseinrichtung 5 das Videosignal in den zweiten Speicher 9. Wenn ein momentan durch das Videosignal dargestelltes Bild der dritten fokussierten Position P3 entspricht, speichert die Signalverteilungseinrichtung 5 das Videosignal in den dritten Speicher 10. Andererseits speichert die Signalverteilungseinrichtung 5 in dem Fall, in dem die anfängliche fokussierte Position (die zweite fokussierte Position P2) weiterhin eingenommen bleibt, das Videosignal in keinen der Speicher 8, 9 und 10.
  • Da die erste, zweite und dritte fokussierte Position P1, P2 und P3 von der Kamera 4 um jeweilige verschiedene Distanzen beabstandet sind, bildet ein realer Bereich mit gleicher Größe Regionen von Bildern mit verschiedener Größe, die durch Videosignale dargestellt sind, die der ersten, zweiten und dritten fokussierten Position P1, P2 und P3 entsprechen. Die Signalverteilungseinrichtung 5 kompensiert solch eine Bildgrößenschwankung. Genauer gesagt unterzieht die Signalverteilungseinrichtung 5, wenn ein momentan durch das Videosignal dargestelltes Bild der ersten fokussierten Position P1 entspricht, das Videosignal einer Bildgrößenkorrektur, um eine Gleichheit zu einer Bildgröße bereitzustellen, die der zweiten fokussierten Position P2 entspricht. Dann speichert die Signalverteilungseinrichtung 5 das sich aus der Korrektur ergebende Videosignal in den ersten Speicher 8. Wenn ein momentan durch das Videosignal dargestelltes Bild der dritten fokussierten Position P3 entspricht, unterzieht die Signalverteilungseinrichtung 5 das Videosignal einer Bildgrößenkorrektur, um eine Gleichheit zu einer Bildgröße bereitzustellen, die der zweiten fokussierten Position P2 entspricht. Dann speichert die Signalverteilungseinrichtung 5 das sich aus der Korrektur ergebende Videosignal in den dritten Speicher 10.
  • Beispielsweise ist der Signalprozessor 11 vom programmierbaren Typ. In diesem Fall arbeitet der Signalprozessor 11 gemäß einem in seinem internen ROM gespeicherten Programm. Das Programm ist entworfen, um dem Signalprozessor 11 zu ermöglichen, später angeführte Prozesse zu realisieren. Der Signalprozessor 11 bestimmt, ob das aktive Steuersignal von dem Controller 7 ausgegeben wird oder nicht. Mit anderen Worten bestimmt der Signalprozessor 11, ob die erste, zweite und dritte fokussierte Position P1, P2 und P3 periodisch und zyklisch abwechselnd eingenommen werden oder nicht, und bestimmt somit, ob die anfängliche fokussierte Position (die zweite fokussierte Position P2) weiterhin eingenommen bleibt oder nicht. In dem Fall, in dem die erste, zweite und dritte fokussierte Position P1, P2 und P3 periodisch und zyklisch abwechselnd eingenommen werden, greift der Signalprozessor 11 auf die Videosignale in den Speichern 8, 9 und 10 zu. Der Signalprozessor 11 analysiert die Videosignale, um ein in den durch die Videosignale dargestellten Bildern enthaltenes gemeinsames Objekt zu finden. Der Signalprozessor 11 berechnet den Fokusgrad für das Objekt in Bezug auf jedes der Bilder auf einer Pixel-für-Pixel-Basis. Der Signalprozessor 11 vergleicht die berechneten Fokusgrade für das Objekt und bestimmt in Ansprechen auf die Vergleichsergebnisse, welches der Bilder dem besten Fokus entspricht. Der Signalprozessor 11 überträgt das Videosignal, das das Bild mit dem besten Fokus darstellt, von dem in Beziehung stehenden Speicher (dem Speicher 8, 9 und 10) an die Anzeige 12. Der Signalprozessor 11 steuert die Anzeige 12, um das durch das übertragene Videosignal dargestellte Bild mit dem besten Fokus anzugeben. Andererseits greift der Signalprozessor 11 in dem Fall, in dem die anfängliche fokussierte Position (die zweite fokussierte Position P2) weiterhin eingenommen bleibt, auf keinen der Speicher 8, 9 und 10 zu.
  • Bezug nehmend auf 3 hat ein sich bewegendes Objekt 22 gerade die zweite fokussierte Position P2 erreicht. In diesem Fall enthält, wie es in
  • 5 gezeigt ist, ein durch das Videosignal, das der zweiten fokussierten Position P2 entspricht, dargestellter Frame ein Bild des Objekts 22, das fokussiert ist. Andererseits enthält, wie in 4 gezeigt ist, ein durch das Videosignal, das der ersten fokussierten Position P2 entspricht, dargestellter Frame ein unscharfes Bild des Objekts 22. Ähnlich enthält, wie in 6 gezeigt, ein durch das Videosignal, das der dritten fokussierten Position P3 entspricht, dargestellter Frame ein unscharfes Bild des Objekts 22.
  • Bezug nehmend auf 7 gelangen Eindringlinge 31 und 32 in das Sichtfeld 33 der Kamera 4. Wenn der Bewegungsdetektor 6 eine Bewegung von mindestens einem der Eindringlinge 31 und 32 detektiert, gibt die Einrichtung 6 ein Auslösesignal an den Controller 7 aus. Der Controller 7 erzeugt in Ansprechen auf das Auslösesignal ein aktives Steuersignal und gibt das erzeugte aktive Steuersignal an den Aktor 2, die Signalverteilungseinrichtung 5 und den Signalprozessor 11 aus. Als ein Ergebnis wird die Kamera 4 in dem Modus betrieben, in dem die erste, zweite und dritte fokussierte Position P1, P2 und P3 periodisch und zyklisch abwechselnd eingenommen werden. Zusätzlich verteilt die Einrichtung 5 ein Videosignal an die Speicher 8, 9 und 10. Ferner realisiert der Signalprozessor 11 die zuvor angeführte Signalverarbeitung. Somit wählt der Signalprozessor 11 das Bild mit dem besten Fokus aus drei verschiedenen Bildern aus, die der ersten, zweiten und dritten Position P1, P2 und P3 entsprechen, und bestimmt dieses. Der Signalprozessor 11 überträgt das Videosignal, das das Bild mit dem besten Fokus darstellt, von dem in Beziehung stehenden Speicher (dem Speicher 8, 9 oder 10) an die Anzeige 12. Der Signalprozessor 11 steuert die Anzeige 12, um das Bild mit dem besten Fokus anzugeben, das durch das übertragene Videosignal angezeigt wird. Als ein Ergebnis wird ein Bild des betreffenden Eindringlings an der Anzeige 12 angezeigt.
  • Die Position des betreffenden Eindringlings kann in Ansprechen darauf geschätzt werden, welcher der ersten, zweiten und dritten fokussierten Position P1, P2 und P3 das Bild mit dem besten Fokus entspricht. In diesem Fall ist es vorzuziehen, dass der Signalprozessor 11 das Videosignal, das das Bild mit dem besten Fokus darstellt, nur von dem in Beziehung stehenden Speicher (Speicher 8, 9 oder 10) an die Anzeige 12 überträgt, wenn der betreffende Eindringling (der Eindringling 31 in 7) einen spezifizierten Bereich "A" betritt, der an der zweiten fokussierten Position P2 zentriert ist. Somit wird nur, wenn der betreffende Eindringling den spezifizierten Bereich "A" betritt, ein Bild hiervon an der Anzeige 12 angezeigt.
  • Zweite Ausführungsform
  • 8 zeigt eine Objektüberwachungsvorrichtung gemäß einer zweiten Ausführungsform dieser Erfindung. Die Vorrichtung von 8 ist der Vorrichtung von 2 bis auf später aufgeführte Konstruktionsveränderungen ähnlich.
  • Die Vorrichtung von 8 umfasst einen Signalprozessor 41, einen Signalgenerator 42, Speicher 43, 44, 45 und 46, einen Signalprozessor 47, eine Anzeige 48, ein Signalprozessor 49 und einen Speicher 50. Der Signalprozessor 41 ist mit den Speichern 8, 9 und 10 verbunden. Zusätzlich ist der Signalprozessor 41 mit dem Signalgenerator 42, den Speichern 43, 44, 45 und 46 und dem Signalprozessor 49 verbunden. Der Signalgenerator 42 ist mit dem Signalprozessor 47 verbunden. Der Signalprozessor 47 ist mit den Speichern 8, 9 und 10 verbunden. Zusätzlich ist der Signalprozessor 47 mit den Speichern 43, 44, 45, 46 und 50, der Anzeige 48 und dem Signalgenerator 49 verbunden.
  • In der Vorrichtung von 8 ist es vorzuziehen, dass der Controller 6 kontinuierlich aktiv ist. Somit wird die Kamera 4 fortwährend in dem Modus betrieben, in dem die erste, zweite und dritte fokussierte Position P1, P2 und P3 periodisch und zyklisch abwechselnd eingenommen werden. Die Signalverteilungseinrichtung 5 lädt den Speicher 8 mit einem Videosignal, das der ersten fokussierten Position P1 entspricht. Die Signalverteilungseinrichtung 5 lädt den Speicher 9 mit einem Videosignal, das der zweiten fokussierten Position P2 entspricht. Die Signalverteilungseinrichtung 5 lädt den Speicher 10 mit einem Videosignal, das der dritten fokussierten Position P3 entspricht.
  • Wie in 9 gezeigt, wird ein durch jedes der Videosignale in den Speichern 8, 9 und 10 dargestellter Frame 51 in mehrere Blöcke 52 geteilt, die jeweils 8 mal 8 Pixel aufweisen. Der Signalgenerator 49 umfasst einen Taktsignalgenerator und einen Zähler, der auf das Ausgangssignal von dem Taktsignalgenerator anspricht. Der Zähler erzeugt ein periodisch aktualisiertes Blockadressensignal. Das Blockadressensignal bezeichnet einen von den Blöcken, die einen Frame bilden. Der bezeichnete Block wird periodisch von einem zu einem anderen verändert, so dass alle Blöcke, die einen Frame bilden, sequentiell abgesucht werden. Der Signalgenerator 49 gibt das Blockadressensignal an die Signalprozessoren 41 und 47 aus.
  • Beispielsweise ist der Signalprozessor 41 vom programmierbaren Typ. In diesem Fall arbeitet der Signalprozessor 41 gemäß einem in seinem internen ROM gespeicherten Programm. Das Programm ist entworfen, um dem Signalprozessor 41 zu ermöglichen, später angeführte Prozesse zu realisieren. Der Signalprozessor 41 verwendet den Speicher 43, um die Prozesse zu realisieren. Beispielsweise ist der Signalprozessor 47 vom programmierbaren Typ. In diesem Fall arbeitet der Signalprozessor 47 gemäß einem in seinem internen ROM gespeicherten Programm. Das Programm ist entworfen, um dem Signalprozessor 47 zu ermöglichen, später angeführte Prozesse zu realisieren.
  • Der Signalprozessor 41 liest in Ansprechen auf das Blockadressensignal einen Abschnitt des Videosignals von dem Speicher 8 aus. Genauer gesagt entspricht der ausgelesene Videosignalabschnitt dem durch das Blockadressensignal bezeichneten Block. Der Signalprozessor 41 unterzieht den dem Block entsprechenden Videosignalabschnitt gemäß der folgenden Gleichung einer DCT (diskreten Kosinustransformation).
    Figure 00210001
    wobei f(x, y) den dem Block entsprechenden Videosignalabschnitt auf einer Pixel-für-Pixel-Basis bezeichnet. Die DCT liefert 64 DCT-Koeffizienten Anm, die wie in 9 gezeigt in einer 8-mal-8-Matrix 54 angeordnet sind. In der Matrix 54 entspricht ein DCT-Koeffizient, der sich an der obersten Position ganz links befindet, einer DC-Signalkomponente. Ein DCT-Koeffizient an einer Position, die näher an der untersten Position ganz rechts liegt, entspricht einer AC-Signalkomponente höher Frequenz. Eine variable und verschiebbare Fensterregion (eine variable und verschiebbare Bandregion), die einem bewegbaren Frequenzband entspricht, wird in der Matrix festgelegt. Dieser Prozess entspricht dem Betrieb des Signalgenerators 42. In 9 ist die Fensterregion (die Bandregion) als der schraffierte Bereich in der Matrix 54 dargestellt. Genauer gesagt werden in der Matrix 54 zwei parallele schräge Linien LA56 und LB57 festgelegt. Die DCT-Koeffizienten an den Positionen auf den Linien LA56 und LB57 und die DCT-Koeffizienten an den Positionen zwischen den Linien LA56 und LB57 bilden die Bandregion (die Fensterregion). Die Linien LA56 und LB57 werden aus 14 parallelen schrägen Linien ausgewählt, die in der Matrix 54 in 9 als gestrichelte Linien gezeigt sind. Um die Bandregion zu variieren und zu verschieben, werden die ausgewählten Linien LA56 und LB57 verändert. Demgemäß ist die Breite der Bandregion variabel, während die zentrale Position dieser verschiebbar ist. Der Signalprozessor 41 empfängt ein Signal von dem Signalgenerator 42, das eine momentane Bandregion angibt. Der Signalprozessor 41 summiert die Quadrate der DCT-Koeffizienten an Positionen in der momentanen Bandregion gemäß der folgenden Gleichung. S = Σ(Anm)2 (60)
  • Der Signalprozessor 41 verwendet "S1" als eine Angabe des Summierungsergebnisses. Der Signalprozessor 41 speichert Daten, die das Summierungsergebnis S1 darstellen, in den Speicher 44.
  • Der Signalprozessor 41 realisiert eine Signalverarbeitung für das Videosignal in dem Speicher 9 und das Videosignal in dem Speicher 10, die der oben erläuterten Verarbeitung für das Videosignal in dem Speicher 8 ähnlich ist. In Bezug auf das Videosignal in dem Speicher 9 speichert der Signalprozessor 41 Daten, die ein Summierungsergebnis S2 darstellen, in den Speicher 45. In Bezug auf das Videosignal in dem Speicher 10 speichert der Signalprozessor 41 Daten, die ein Summierungsergebnis S3 darstellen, in den Speicher 46.
  • Der Signalprozessor 47 liest die Daten, die die Summierungsergebnisse S1, S2 und S3 darstellen, aus den Speichern 44, 45 und 46 aus. Der Signalprozessor 47 berechnet die Varianz T der Summierungsergebnisse S1, S2 und S3 gemäß der folgenden Gleichung.
    Figure 00230001
    wobei S0 einen Mittelwert der Summierungsergebnisse S1, S2 und S3 bezeichnet. Der Signalprozessor 47 speichert Daten, die die berechnete Varianz T darstellen, in den Speicher 50. Der Signalprozessor 47 wird durch den Signalgenerator 42 über die momentane Bandregion informiert.
  • Der Signalprozessor 47 speichert Daten, die die momentane Bandregion darstellen, in den Speicher 50. Der Signalprozessor 47 kann Daten, die die momentane Bandregion darstellen, in den Speicher 43 speichern. Dann gibt der Signalprozessor 47 ein Änderungsanforderungssignal an den Signalgenerator 42 aus.
  • Der Signalgenerator 42 aktualisiert sein Ausgangssignal in Ansprechen auf das Änderungsanforderungssignal, wodurch die Bandregion variiert oder verschoben wird, um eine neue Bandregion festzulegen. Die Signalprozessoren 41 und 47 wiederholen die zuvor angeführte Signalverarbeitung für die neue Bandregion (die momentane Bandregion). Der Signalprozessor 47 berechnet eine neue Varianz T(neu). Der Signalprozessor 47 liest die Daten, die die vorherige Varianz T(alt) darstellen, aus dem Speicher 50 aus. Der Signalprozessor 47 vergleicht die neue Varianz T(neu) und die vorherige Varianz T(alt) miteinander. Wenn die neue Varianz T(neu) größer als die vorherige Varianz T(alt) ist, ersetzt der Signalprozes sor 47 die Daten der vorherigen Varianz T(alt) in dem Speicher 50 durch Daten der neuen Varianz T(neu), um die Varianzdaten in dem Speicher 50 zu aktualisieren. Zusätzlich ersetzt der Signalprozessor 47 die Daten der vorherigen Bandregion in dem Speicher 50 durch Daten der neuen Bandregion (der momentanen Bandregion), um die Bandregiondaten in dem Speicher 50 zu aktualisieren. In dem Fall, in dem die Bandregiondaten in dem Speicher 43 gespeichert sind, ersetzt der Signalprozessor 47 die Daten der vorherigen Bandregion in dem Speicher 43 durch Daten der neuen Bandregion (der momentanen Bandregion), um die Bandregiondaten in dem Speicher 43 zu aktualisieren. Andererseits aktualisiert, wenn die neue Varianz T(neu) gleich oder kleiner der vorherigen Varianz T(alt) ist, der Signalprozessor 47 die Varianzdaten in dem Speicher 50 und die Bandregiondaten in dem Speicher 50 (oder dem Speicher 43) nicht. Somit bleiben die Daten der vorherigen Varianz und die Daten der vorherigen Bandregion in diesem Fall in dem Speicher 50 (oder den Speichern 43 und 50) wie sie sind. Dann gibt der Signalprozessor 47 ein Änderungsanforderungssignal an den Signalgenerator 42 aus.
  • Die Signalprozessoren 41 und 47 wiederholen die zuvor angeführte Signalverarbeitung, während die durch das Ausgangssignal des Signalgenerators 42 dargestellte Bandregion (die Fensterregion) verschoben und variiert wird. Wenn die ausgewählte Bandregion zwischen allen möglichen Bandregionen verändert wurde, sind Daten der größten Varianz in dem Speicher 50 vorhanden und sind auch Daten der Bandregion, die der größten Varianz entspricht, in dem Speicher 50 (oder dem Speicher 43) vorhanden. Der Signalprozessor 41 greift auf den Speicher 50 (oder den Speicher 43) zu und erhält die Information der Bandregion mit der größten Varianz. Der Signalprozessor 41 erhält die Summierungsergebnisse S1, S2 und S3 für die Bandregion mit der größten Varianz. Der Signalprozessor 41 speichert die Daten des Summierungsergebnisses S1, die Daten des Summierungsergebnisses S2 und die Daten des Summierungsergebnisses S3 in die Speicher 44, 45 bzw. 46. Der Signalprozessor 47 liest die Daten der Summierungsergebnisse S1, S2 und S3 aus den Speichern 44, 45 und 46 aus. Der Signalprozessor 47 vergleicht die Summierungsergebnisse S1, S2 und S3, um das größte der Summierungsergebnisse S1, S2 und S3 zu finden. Wenn das Summierungsergebnis S1 das größte ist, liest der Signalprozessor 47 in Ansprechen auf das Blockadressensignal einen Abschnitt des Videosignals von dem Speicher 8 aus. Wenn das Summierungsergebnis S2 das größte ist, liest der Signalprozessor 47 in Ansprechen auf das Blockadressensignal einen Abschnitt des Videosignals von dem Speicher 9 aus. Wenn das Summierungsergebnis S3 das größte ist, liest der Signalprozessor 47 in Ansprechen auf das Blockadressensignal einen Abschnitt des Videosignals von dem Speicher 10 aus. Genauer gesagt entspricht der ausgelesene Videosignalabschnitt dem durch das Blockadressensignal bezeichneten Block. Der Signalprozessor 47 speichert den ausgelesenen Videosignalabschnitt in einen Speicher in der Anzeige 48. Auf diese Weise wird der Videosignalabschnitt in dem Speicher 8, der Videosignalabschnitt in dem Speicher 9 oder der Videosignalabschnitt in dem Speicher 10, der dem bezeichneten Block und dem größten der Summierungsergebnisse S1, S2 und S3 entspricht, ausgewählt, bevor er an den Speicher in der Anzeige 48 übertragen wird.
  • Danach aktualisiert der Signalgenerator 49 das Blockadressensignal, um den bezeichneten Block auf den nächsten zu verändern. Die Signalprozessoren 41 und 47 wiederholen die zuvor angeführte Signalverarbeitung, während der bezeichnete Block periodisch von einem auf einen anderen geändert wird. Wenn alle Blöcke, die einen Frame bilden, abgesucht wurden, wird der Speicher in der Anzeige 48 mit einem vollständigen Satz von einem Block entsprechenden Videosignalabschnitten geladen, der einem Frame entspricht. Die Anzeige 48 zeigt ein durch den vollständigen Satz der einem Block entsprechenden Videosignalabschnitte dargestelltes Bild an.
  • Im Allgemeinen sind DCT-Koeffizienten, die höheren Frequenzen entsprechen, größer, wenn sich der Fokusgrad für ein Objekt in einem durch das in Beziehung stehende Videosignal dargestellten Bild erhöht. Demgemäß gibt das Summierungsergebnis S1 den Fokusgrad für ein Objekt in einem Teilbild an, das durch den in Beziehung stehenden einem Block entsprechenden Videosignalabschnitt in dem Speicher 8 dargestellt ist. Ähnlich gibt das Summierungsergebnis S2 den Fokusgrad für ein Objekt in einem Teilbild an, das durch den in Beziehung stehenden einem Block entsprechenden Videosignalabschnitt in dem Speicher 9 dargestellt ist. Außerdem gibt das Summierungsergebnis S3 den Fokusgrad für ein Objekt in einem Teilbild an, das durch den in Beziehung stehenden einem Block entsprechenden Videosignalabschnitt in dem Speicher 10 dargestellt ist. Das größte der Summierungsergebnisse S1, S2 und S3 entspricht dem besten Fokus. Demgemäß wird für jeden der Blöcke, die einen Frame bilden, der Videosignalabschnitt mit dem besten Fokus aus den einem Block entsprechenden Signalabschnitten in den Speichern 8, 9 und 10 ausgewählt und dann an den Speicher in der Anzeige 48 übertragen. Als ein Ergebnis wird das Bild mit dem besten Fokus durch die Anzeige 48 angezeigt. In der DCT-Koeffizientenmatrix ist die Bandregion, bei der die Varianz T den Spitzenwert erreicht, für eine genaue Auswertung der Fokusgrade auf der Grundlage der Summierungsergebnisse S1, S2 und S3 geeignet.
  • Dritte Ausführungsform
  • 10 zeigt eine Objektüberwachungsvorrichtung gemäß einer dritten Ausführungsform dieser Erfindung. Die Vorrichtung von 10 ist bis auf später aufgeführte Konstruktionsveränderungen der Vorrichtung von 8 ähnlich.
  • Die Vorrichtung von 10 umfasst anstatt dem Signalgenerator 42 (siehe 8) einen Signalgenerator 42A. Die Vorrichtung von 10 umfasst eine Eingabeeinrichtung 61 und einen Speicher 62, die mit dem Signalgenerator 42A verbunden sind.
  • Der Speicher 62 speichert Daten, die mehrere verschiedene Muster einer Fensterregion (einer Bandregion) darstellen. Die Eingabeeinrichtung 61 kann durch einen Benutzer bedient werden. Die Eingabeeinrichtung 61 gibt bei einer Bedienung durch einen Benutzer ein Musterauswahlsignal an den Signalgenerator 42A aus. Der Signalgenerator 42A liest ein Datenstück aus dem Speicher 62 aus, das ein durch das Musterauswahlsignal bezeichnetes Muster darstellt. Somit wählt der Signalgenerator 42A gemäß dem Musterauswahlsignal eines aus den verschiedenen Mustern aus. Der Signalgenerator 42A legt eine momentane Fensterregion (eine momentane Bandregion) des ausgewählten Musters fest. Der Signalgenerator 42A erzeugt ein Signal, das die momentane Fensterregion (die momentane Bandregion) darstellt. Der Signalgenerator 42A gibt das Fensterregionsignal an die Signalprozessoren 41 und 47 aus. Der Signalgenerator 42A aktualisiert sein Ausgangssignal in Ansprechen auf ein von dem Signalprozessor 47 zugeführtes Änderungsanforderungssignal, wodurch die Fensterregion verschoben oder variiert wird, um eine neue Fensterregion festzulegen.
  • 11 zeigt ein erstes Beispiel des Musters der Fensterregion (der Bandregion) 71, das durch den Signalgenerator 42A geliefert wird. Das Muster in 11 entspricht einer vertikalen Linie oder einer Spalte in einer DCT-Koeffizientenmatrix. In diesem Fall wird die Fensterregion 71 während des Absuchens der DCT-Koeffizientenmatrix von der Spalte ganz links zu der Spalte ganz rechts verschoben. Das Muster in 11 ist beispielsweise für Objekte geeignet, die zu einem hohen Grad in einer vertikalen Richtung optisch veränderbar sind, beispielsweise Objekte mit horizontalen Streifen. Wenn der Benutzer an solchen Objekten interessiert ist, bedient der Benutzer die Eingabeeinrichtung 61, um das Muster in 11 auszuwählen.
  • 12 zeigt ein zweites Beispiel des Musters der Fensterregion (der Bandregion) 72, das durch den Signalgenerator 42A geliefert wird. Das Muster in 12 entspricht einer horizontalen Linie oder einer Zeile in einer DCT-Koeffizientenmatrix. In diesem Fall wird die Fensterregion 72 während des Absuchens der DCT-Koeffizientenmatrix von der obersten Zeile zu der untersten Zeile verschoben. Das Muster in 12 ist für Objekte geeignet, die zu einem hohen Grad in einer horizontalen Richtung optisch veränderbar sind, beispielsweise Objekte mit vertikalen Streifen. Wenn der Benutzer an solchen Objekten interessiert ist, bedient der Benutzer die Eingabeeinrichtung 61, um das Muster in 12 auszuwählen.
  • Vierte Ausführungsform
  • 13 zeigt eine Objektüberwachungsvorrichtung gemäß einer vierten Ausführungsform dieser Erfindung. Die Vorrichtung von 13 ist der Vorrichtung von 2 bis auf später aufgeführte Konstruktionsveränderungen ähnlich.
  • Die Vorrichtung von 13 umfasst anstatt der Kamera 4 (siehe 2) eine Kamera 4A. Die Kamera 4A weist Kondensoren 81, Expansions-Kontraktions-Elemente 82 und eine CCD-basierte fotoelektrische Umwandlungseinrichtung 83 auf. Die Kondensoren 81 sind in einem Gitter oder einer Matrix angeordnet. Die Kondensoren 81 sind durch die Expansions-Kontraktions-Elemente 82 verbunden. Die Vorrichtung von 13 umfasst eine Ansteuereinrichtung 84 für die Extraktions-Kontraktions-Elemente 82. Die Ansteuereinrichtung 84 ist mit dem Controller 7 verbunden.
  • Mit Bezug auf 14 ist eine Linse 91 von einem Objekt 92 getrennt. Die Linse 91 weist einen Brennpunkt F99 auf, der sich auf der optischen Achse 100 hiervon erstreckt. Es werden drei verschiedenen Projektionsebenen 93, 94 und 95 betrachtet, die sich von dem Brennpunkt F99 nach hinten erstrecken und die in dieser Reihenfolge angeordnet sind. Ein erster Lichtstrahl, der von dem Objekt 92 ankommt und parallel zu der optischen Achse 100 ist, gelangt durch die Linse 91, bevor er durch den Brennpunkt F99 gelangt. Ein zweiter Lichtstrahl, der von dem Objekt 92 zu dem Mittelpunkt der Linse 91 hin ankommt, verläuft geradeaus. An einer Position, an der sich der erste Lichtstrahl und der zweite Lichtstrahl schneiden, wird ein Bild des Objekts 92 ausgebildet. In 14 fällt die Schnittposition mit der Projektionsebene 94 zusammen. Demgemäß ist an der Projektionsebene 94 ein Bild 97 des Objekts 92 fokussiert. Andererseits sind die Bilder 96 und 98 des Objekts 92 an den Projektionsebenen 93 und 95, die sich vor und hinter der Projektionsebene 94 erstrecken, unscharf, während sie an den Schnittpunkten zwischen den Projektionsebenen 93 und 95 und der geraden Linie, die durch das Objekt 92 und den Mittelpunkt der Linse 91 führt, zentriert sind. Somit wird an einer Projektionsebene, die näher an dem Brennpunkt F99 liegt, ein kleineres Bild des Objekts 92 ausgebildet. Daher variiert die Bildgröße dementsprechend, welche der Projektionsebenen 93, 94 und 95 hergenommen wird. Somit variiert die Bildgröße dementsprechend, welche der ersten, zweiten und dritten fokussierten Position P1, P2 und P3 hergenommen wird. Die Vorrichtung von 13 weist eine Struktur auf, die die Bildgrößen schwankung kompensiert. Die Kompensationsstruktur wird nachstehend beschrieben.
  • Wie in 15 gezeigt umfasst der Kondensor 81 eine Linse 101, ein Prisma 102 und ein Lichtleitkabel 103. Durch die Linse 101 konzentriertes Licht wird durch das Prisma 102 an das Lichtleitkabel 103 übertragen. Das Licht wird entlang dem Lichtleitkabel 103 verbreitet, bevor es ein entsprechendes Segment, beispielsweise ein entsprechendes Pixelsegment, der fotoelektrischen Umwandlungseinrichtung 83 (13) erreicht.
  • Wie in 16 gezeigt umfasst das Expansions-Kontraktions-Element 82 eine Feder 111, ein Formgedächtnislegierungselement 112, eine Heizeinrichtung 113 und Verbindungseinrichtungen 114A und 114B. Die Verbindungseinrichtungen 114A und 114B sind jeweils mit benachbarten Kondensoren 81 gekoppelt. Die Feder 111 und das Formgedächtnislegierungselement 112 sind zwischen den Verbindungseinrichtungen 114A und 114B vorgesehen. Die Heizeinrichtung 113 gehört zu dem Formgedächtnislegierungselement 112. Die Heizeinrichtung 113 ist elektrisch mit der Ansteuereinrichtung 84 (siehe 13) verbunden. Die Feder 111 zwingt die Verbindungseinrichtungen 114A und 114B in Richtung zueinander. Das Formgedächtnislegierungselement 112 zwingt die Verbindungseinrichtungen 114A und 114B in Richtung voneinander weg, wenn es durch die Heizeinrichtung 113 erwärmt wird.
  • Wieder Bezug nehmend auf 13 empfängt die Ansteuereinrichtung 84 ein aktives Steuersignal von dem Controller 7. Die Ansteuereinrichtung 84 erkennt, welche der ersten, zweiten und dritten fokussierten Position P1, P2 und P3 momentan eingenommen ist, indem auf das aktive Steuersignal Bezug genommen wird. Die Ansteuereinrichtung 84 steuert die Heizeinrichtungen 113 in den Expansions-Kontraktions-Elementen 82 in Anspre chen auf das von dem Controller 7 gelieferte aktive Steuersignal, d.h. in Ansprechen darauf, welche der ersten, zweiten und dritten fokussierten Position P1, P2 und P3 momentan eingenommen ist. Wenn die Heizeinrichtungen 113 in den Expansions-Kontraktions-Elementen 82 durch die Ansteuereinrichtung 84 aktiviert oder deaktiviert werden, verändern sich die Distanzen zwischen den Kondensoren 81, und somit variiert die effektive Größe eines an der fotoelektrischen Umwandlungseinrichtung 83 ausgebildeten Bilds. Die Steuerung der Heizeinrichtungen 113 durch die Ansteuereinrichtung 84 ist entworfen, um die zuvor erwähnte Bildgrößenschwankung zu kompensieren, die durch eine Änderung zwischen der ersten, zweiten und dritten fokussierten Position P1, P2 und P3 verursacht werden würde.
  • In der Vorrichtung von 13 ist es nicht notwendig, dass die Signalverteilungseinrichtung 5 für die Bildgrößenschwankung eine Kompensation ausführt.
  • Fünfte Ausführungsform
  • 17 zeigt einen Abschnitt einer Objektüberwachungsvorrichtung gemäß einer fünften Ausführungsform dieser Erfindung. Die Vorrichtung von 17 ist der Vorrichtung von 2 oder 8 bis auf später aufgeführte Konstruktionsveränderungen ähnlich.
  • Die Vorrichtung von 17 umfasst statt der Kamera 4 (siehe 2 oder 8) eine Kamera 4B. Die Kamera 4B weist eine Kombinationslinse 121, Trennwände 122A und 122B, Kondensoren 123A, 123B und 123C und eine fotoelektrische Umwandlungseinrichtung 3B auf.
  • Die Kombinationslinse 121 besteht aus Segmenten 121A, 121B und 121C. Wie in 18 gezeigt, gibt es ursprüngliche Linsen 131, 132 und 133 mit jeweils verschiedenen Brennweiten. Die Mittelabschnitte der ursprünglichen Linsen 131, 132 und 133 werden ausgeschnitten. Die Mittelabschnitte der ursprünglichen Linsen 131, 132 und 133 werden zu der Kombinationslinse 121 kombiniert. Genauer gesagt werden die Segmente 121A, 121B und 12C der Kombinationslinse 121 durch die Mittelabschnitte der ursprünglichen Linsen 131, 132 bzw. 133 ausgebildet.
  • Die Trennwände 122A und 122B trennen optische Pfade voneinander, die sich zwischen der Kombinationslinse 121 und den Kondensoren 123A, 123B und 123C erstrecken. Die Kondensoren 123A, 123B und 123C sind optisch mit einem ersten, zweiten bzw. dritten Segment der fotoelektrischen Umwandlungseinrichtung 3B gekoppelt. Das erste, zweite und dritte Segment der fotoelektrischen Umwandlungseinrichtung 3B sind mit dem ersten, zweiten bzw. dritten Speicher 8, 9 bzw. 10 verbunden.
  • Licht, das durch das Segment 121A der Kombinationslinse 121 gelangt, tritt in den Kondensor 123A ein und erreicht dann das erste Segment der fotoelektrischen Umwandlungseinrichtung 3B und bildet daran ein Bild aus. Das erste Segment der fotoelektrischen Umwandlungseinrichtung 3B wandelt das Bild in ein entsprechendes Videosignal um, das in den Speicher 8 gespeichert wird.
  • Licht, das durch das Segment 121B der Kombinationslinse 121 gelangt, tritt in den Kondensor 123B ein und erreicht dann das zweite Segment der fotoelektrischen Umwandlungseinrichtung 3B und bildet daran ein Bild aus. Das zweite Segment der fotoelektrischen Umwandlungseinrichtung 3B wandelt das Bild in ein entsprechendes Videosignal um, das in den Speicher 9 gespeichert wird.
  • Licht, das durch das Segment 121C der Kombinationslinse 121 gelangt, tritt in den Kondensor 123C ein und erreicht dann das dritte Segment der fotoelektrischen Umwandlungseinrichtung 3B und bildet daran ein Bild aus. Das dritte Segment der fotoelektrischen Umwandlungseinrichtung 3B wandelt das Bild in ein entsprechendes Videosignal um, das dann in den Speicher 10 gespeichert wird.
  • Es ist nicht notwendig, dass die Vorrichtung von 17 die Linsenposition periodisch und zyklisch verändert.
  • Sechste Ausführunhsform
  • 19 zeigt einen Abschnitt einer Objektüberwachungsvorrichtung gemäß einer sechsten Ausführungsform dieser Erfindung. Die Vorrichtung von 19 ist der Vorrichtung von 17 bis auf später aufgeführte Konstruktionsveränderungen ähnlich.
  • Die Vorrichtung von 19 umfasst eine Lichtempfangseinheit 143, in der die Kombinationslinse 121 vorgesehen ist. Die Lichtempfangseinheit 143 enthält auch die Trennwände 122A und 122B und die Kondensoren 123A, 123B und 123C (siehe 17). Ein Lichtleitkabel 141 verbindet die Lichtempfangseinheit 143 mit einer Detektionseinheit 142. Genauer gesagt sind die Ausgangsenden der Kondensoren in der Lichtempfangseinheit 143 optisch mit Einlassenden des Lichtleitkabels 141 gekoppelt. Auslassenden des Lichtleitkabels 141 sind optisch mit der fotoelektrischen Umwandlungseinrichtung 3B gekoppelt, die an der Detektionseinheit 142 vorgesehen ist. Das erste, zweite und dritte Segment der fotoelektrischen Umwandlungseinrichtung 3B sind mit dem ersten, zweiten und dritten Speicher 8, 9 und 10 verbunden, die jeweils in der Detektionseinheit 142 vorgesehen sind.
  • Da die Detektionseinheit 142 und die Lichtempfangseinheit 143 durch das Lichtleitkabel 141 verbunden sind, ist es möglich, die Einheiten 142 und 143 an Positionen anzuordnen, die sehr weit voneinander entfernt sind.
  • Siebte Ausführungsform
  • 20 zeigt eine Objektüberwachungsvorrichtung gemäß einer siebten Ausführungsform dieser Erfindung. Die Vorrichtung von 20 ist der Vorrichtung von 19 bis auf später aufgeführte Konstruktionsveränderungen ähnlich.
  • Die Vorrichtung von 20 umfasst mehrere Lichtleitkabel 141(1), 141(2), ... und 141(N), mehrere Detektionseinheiten 142(1), 142(2), ... und 142(N) und mehrere Lichtempfangseinheiten 143(1), 143(2), ... und 143(N), wobei "N" eine vorbestimmte natürliche Zahl bezeichnet, beispielsweise B. Die Detektionseinheiten 142(1), 142(2), ... und 142(N) sind jeweils durch die Lichtleitkabel 141(1), 141(2), ... und 141(N) mit den Lichtempfangseinheiten 143(1), 143(2), ... und 143(N) verbunden.
  • Von den Detektionseinheiten 142(1), 142(2), ... und 142(N) ausgegebene Videosignale werden durch eine Bildkombinationseinrichtung 151 zu einem Mehrfachbild-Videosignal kombiniert. Das Mehrfachbild-Videosignal wird durch eine Mehrfachbildanzeige 152 angezeigt.
  • Wie in 21 gezeigt, werden die Lichtempfangseinheiten 143(1), 143(2), ... und 143(N) an einem Fahrzeug 180 angebracht, um die Umgebung des Fahrzeugs 180 zu überwachen, d.h. die Umgebung eines durch den Kör per des Fahrzeugs 180 definierten Rechtecks. Die Bildkombinationseinrichtung 151 und die Mehrfachbildanzeige 152 sind in dem Fahrzeug 180 angeordnet.
  • Achte Ausführungsform
  • 22 zeigt eine Objektüberwachungsvorrichtung gemäß einer achten Ausführungsform dieser Erfindung. Die Vorrichtung von 22 umfasst eine bewegbare Linse 201, einen elektrisch betriebenen Aktor 202 und eine fotoelektrische Umwandlungseinrichtung 203, die in einer Kamera oder einer Bilderfassungseinrichtung 204 vorgesehen sind. Die Linse 201 befindet sich vor der fotoelektrischen Umwandlungseinrichtung 203. Der Aktor 202 dient dazu, die Linse 201 relativ zu der fotoelektrischen Umwandlungseinrichtung 203 zu bewegen. Durch die Linse 201 gelangt Licht, bevor es die fotoelektrische Umwandlungseinrichtung 203 erreicht und daran ein Bild einer Szene ausbildet, die sich vor der Kamera 204 erstreckt. Die fotoelektrische Umwandlungseinrichtung 203 wandelt das Bild in ein entsprechendes Videosignal um. Die fotoelektrische Umwandlungseinrichtung 203 gibt das Videosignal aus. Die fotoelektrische Umwandlungseinrichtung 203 realisiert ein periodisches Absuchen, so dass das Videosignal eine Folge von Frames darstellt. Die fotoelektrische Umwandlungseinrichtung 203 ist beispielsweise vom CCD-basierten Typ.
  • Die Vorrichtung von 22 umfasst ferner einen Signalprozessor 210, eine Anzeige 212 und eine Bedieneinheit 214. Der Signalprozessor 210 umfasst eine Kombination aus einem Eingabe/Ausgabe-Port 210A, einem Verarbeitungsteilabschnitt 210B, einem ROM 210C und einem RAM 210D. Der Signalprozessor 210 arbeitet gemäß einem in dem ROM 210C gespeicherten Programm.
  • Der Eingabe/Ausgabe-Port 210A in dem Signalprozessor 210 ist mit der fotoelektrischen Umwandlungseinrichtung 203 verbunden. Der Eingabe/Ausgabe-Port 210A empfängt das Videosignal von der fotoelektrischen Umwandlungseinrichtung 203. Wie es später deutlich gemacht wird, verarbeitet die Einrichtung 210 das empfangene Videosignal.
  • Der Eingabe/Ausgabe-Port 210A in dem Signalprozessor 210 ist mit dem Aktor 202 verbunden. Der Eingabe/Ausgabe-Port 210A gibt ein Ansteuerungssignal an den Aktor 202 aus. Wie es später deutlich gemacht wird, steuert der Signalprozessor 210 den Aktor 202.
  • Der Eingabe/Ausgabe-Port 210A in dem Signalprozessor 210 ist mit der Anzeige 212 verbunden. Wie es später deutlich gemacht wird, gibt der Eingabe/Ausgabe-Port 210A ein sich aus einer Verarbeitung ergebendes Videosignal an die Anzeige 212 aus. Das sich aus einer Verarbeitung ergebende Videosignal wird durch die Anzeige 212 visualisiert. Der Signalcontroller 210 kann die Anzeige 212 steuern.
  • Der Eingabe/Ausgabe-Port 210A in dem Signalprozessor 210 ist mit der Bedieneinheit 214 verbunden. Die Bedieneinheit 214 kann durch einen Benutzer betätigt werden. Die Bedieneinheit 214 gibt bei einer Betätigung durch den Benutzer ein Anschaltesignal oder ein Abschaltesignal an den Eingabe/Ausgabe-Port 210A aus.
  • Der Aktor 202 kann die Position der Linse 201 relativ zu der fotoelektrischen Umwandlungseinrichtung 203 zwischen drei verschiedenen Positionen verändern. Somit kann der Aktor 202 die Distanz zwischen der Linse 201 und der fotoelektrischen Umwandlungseinrichtung 203 zwischen drei verschiedenen Werten verändern. Gemäß der Distanzveränderung wird die Ebene, auf die die Kamera 204 eingestellt ist, zwischen drei separaten Positionen (erste, zweite und dritte fokussierte Position) P1, P2 und P3 verändert. Die erste, zweite und dritte fokussierte Position P1, P2 und P3 sind gleich der entferntesten, der mittleren bzw. der nächsten Position von der Kamera 204 aus gesehen.
  • Wie zuvor erwähnt, arbeitet der Signalprozessor 210 gemäß einem Programm. 23 ist ein Flussdiagramm eines Segments des Programms, das in Ansprechen auf ein von der Bedieneinheit 214 zugeführtes Anschaltesignal gestartet wird.
  • Wie in 23 gezeigt, steuert der erste Schritt 301 des Programmsegments den Aktor 202, so dass die zweite fokussierte Position P2 eingenommen wird.
  • Ein Schritt 302, der Schritt 301 folgt, verarbeitet das von der fotoelektrischen Umwandlungseinrichtung 203 zugeführte Videosignal. Genauer gesagt unterzieht Schritt 302 das Videosignal einem Bewegungsdetektionsprozess. Beispielsweise basiert der Bewegungsdetektionsprozess auf einem Vergleich zwischen zwei aufeinander folgenden Frames, die durch das Videosignal dargestellt sind.
  • Ein Schritt 303, der Schritt 302 folgt, bestimmt, ob ein sich bewegendes Objekt in einem durch das Videosignal dargestellten Bild vorhanden oder nicht vorhanden ist. Wenn kein sich bewegendes Objekt vorhanden ist, springt das Programm von Schritt 303 zu einem Schritt 314. Andernfalls rückt das Programm von Schritt 303 zu einem Schritt 304 vor.
  • Schritt 304 speichert ein einem Frame entsprechendes Segment des Videosignals in einem zweiten Bereich in dem RAM 210D.
  • Ein Schritt 305, der Schritt 304 folgt, steuert den Aktor 202 derart, dass die dritte fokussierte Position P3 eingenommen wird.
  • Ein Schritt 306, der Schritt 305 folgt, unterzieht ein einem Frame entsprechendes Segment des Videosignals einer Bildgrößenkorrektur, um ein sich aus einer Korrektur ergebendes Videosignal zu erzeugen. Die Bildgrößenkorrektur ist entworfen, um eine Bildgröße gleich jener bereitzustellen, die der zweiten fokussierten Position P2 entspricht.
  • Ein Schritt 307, der Schritt 306 folgt, speichert ein einem Frame entsprechendes Segment des sich aus einer Korrektur ergebenden Videosignals in einen dritten Bereich in dem RAM 210D.
  • Ein Schritt 308, der Schritt 306 folgt, steuert den Aktor 202 derart, dass die erste fokussierte Position P1 eingenommen wird.
  • Ein Schritt 309, der Schritt 308 folgt, unterzieht ein einem Frame entsprechendes Segment des Videosignals einer Bildgrößenkorrektur, um ein sich aus einer Korrektur ergebendes Videosignal zu erzeugen. Die Bildgrößenkorrektur ist entworfen, um eine Bildgröße bereitzustellen, die gleich jener ist, die der zweiten fokussierten Position P2 entspricht.
  • Ein Schritt 310, der Schritt 309 folgt, speichert ein einem Frame entsprechendes Segment des sich aus der Korrektur ergebenden Videosignals in einen ersten Bereich in dem RAM 210D.
  • Ein Schritt 311, der Schritt 310 folgt, liest die Videosignale aus dem ersten, zweiten und dritten Bereich in dem RAM 210D aus, um auf diese Weise dargestellte Bilder zu erhalten. Schritt 311 berechnet die Fokusgrade für das sich bewegende Objekt hinsichtlich der jeweiligen Bilder. Die Berechnung der Fokusgrade kann in der zweiten Ausführungsform dieser Erfindung eine Technik verwenden, die auf der Ausführung einer DCT und der Summierung von DCT-Koeffizienten basiert.
  • Ein Schritt 312, der Schritt 311 folgt, vergleicht die berechneten Fokusgrade miteinander und bestimmt in Ansprechen auf die Vergleichsergebnisse, welches der Bilder dem besten Fokus entspricht.
  • Ein Schritt 313, der Schritt 312 folgt, gibt das Videosignal, das das Bild mit dem besten Fokus darstellt, an die Anzeige 212 aus. Schritt 313 steuert die Anzeige 212, um das durch das Videosignal dargestellte Bild mit dem besten Fokus anzugeben. Nach Schritt 313 rückt das Programm zu Schritt 314 vor.
  • Schritt 314 bestimmt, ob ein Abschaltesignal von der Bedieneinheit 214 zugeführt wird oder nicht. Wenn ein Abschaltesignal von der Bedieneinheit 214 zugeführt wird, verlässt das Programm Schritt 314, und dann endet der momentane Ausführungszyklus des Programmsegments. Andernfalls springt das Programm von Schritt 314 zu Schritt 301 zurück.
  • Neunte Ausführungsform
  • 24 zeigt eine Objektüberwachungsvorrichtung gemäß einer neunten Ausführungsform dieser Erfindung. Die Vorrichtung von 24 umfasst eine bewegbare Linse 401, einen elektrisch betriebenen Aktor 402 und eine fotoelektrische Umwandlungseinrichtung 403, die in einer Kamera oder einer Bilderfassungseinrichtung 404 vorgesehen sind. Die Linse 401 befindet sich vor der fotoelektrischen Umwandlungseinrichtung 403. Der Aktor 402 dient dazu, die Linse 401 relativ zu der fotoelektrischen Umwandlungseinrichtung 403 zu bewegen. Durch die Linse 401 gelangt Licht, bevor es die fotoelektrische Umwandlungseinrichtung 403 erreicht und daran ein Bild einer Szene ausbildet, die sich vor der Kamera 404 erstreckt. Die fotoelektrische Umwandlungseinrichtung 403 wandelt das Bild in ein entsprechendes Videosignal um. Die fotoelektrische Umwandlungseinrichtung 403 gibt das Videosignal aus. Die fotoelektrische Umwandlungseinrichtung realisiert ein periodisches Absuchen, so dass das Videosignal eine Folge von Frames darstellt. Die fotoelektrische Umwandlungseinrichtung 403 ist beispielsweise vom CCD-basierten Typ.
  • Die Vorrichtung von 24 umfasst ferner einen Signalprozessor 410, eine Anzeige 412 und eine Bedieneinheit 414. Der Signalprozessor 410 umfasst eine Kombination aus einem Eingabe/Ausgabe-Port 410A, einem Verarbeitungsteilabschnitt 410B, einem ROM 410C und einem RAM 410D. Der Signalprozessor 410 arbeitet gemäß einem in dem ROM 410C gespeicherten Programm.
  • Der Eingabe/Ausgabe-Port 410A in dem Signalprozessor 410 ist mit der fotoelektrischen Umwandlungseinrichtung 403 verbunden. Der Eingabe/Ausgabe-Port 410A empfängt das Videosignal von der fotoelektrischen Umwandlungseinrichtung 403. Wie es später deutlich gemacht wird, verarbeitet die Einrichtung 410 das empfangene Videosignal.
  • Der Eingabe/Ausgabe-Port 410A in dem Signalprozessor 410 ist mit dem Aktor 402 verbunden. Der Eingabe/Ausgabe-Port 410A gibt ein Ansteuerungssignal an den Aktor 402 aus. Wie es später deutlich gemacht wird, steuert der Signalprozessor 410 den Aktor 402.
  • Der Eingabe/Ausgabe-Port 410A in dem Signalprozessor 410 ist mit der Anzeige 412 verbunden. Wie es später deutlich gemacht wird, gibt der Eingabe/Ausgabe-Port 410A ein sich aus einer Verarbeitung ergebendes Videosignal an die Anzeige 412 aus. Das sich aus einer Verarbeitung ergebende Videosignal wird durch die Anzeige 412 visualisiert. Der Signalprozessor 410 kann die Anzeige 412 steuern.
  • Der Eingabe/Ausgabe-Port 410A in dem Signalprozessor 410 ist mit der Bedieneinheit 414 verbunden. Die Bedieneinheit 414 kann durch einen Benutzer betätigt werden. Die Bedieneinheit 414 gibt bei einer Betätigung durch den Benutzer ein Anschaltesignal oder ein Abschaltesignal an den Eingabe/Ausgabe-Port 410A aus.
  • Der Aktor 402 kann die Position der Linse 401 relativ zu der fotoelektrischen Umwandlungseinrichtung 403 zwischen drei verschiedenen Positionen verändern. Somit kann der Aktor 402 die Distanz zwischen der Linse 401 und der fotoelektrischen Umwandlungseinrichtung 403 zwischen drei verschiedenen Werten ändern. Gemäß der Distanzveränderung wird die Ebene, auf die die Kamera 404 eingestellt ist, zwischen drei separaten Positionen (erste, zweite und dritte fokussierte Position) P1, P2 und P3 verändert. Die erste, zweite und dritte fokussierte Position P1, P2 und P3 sind gleich der entferntesten, der mittleren bzw. der nächsten Position von der Kamera 404 aus gesehen.
  • Wie zuvor erwähnt, arbeitet der Signalprozessor 410 gemäß einem Programm. 25 ist ein Flussdiagramm eines Segments des Programms, das in Ansprechen auf ein von der Bedieneinheit 414 zugeführtes Anschaltesignal gestartet wird.
  • Wie in 25 gezeigt, steuert ein erster Schritt 501 des Programmsegments den Aktor 402, so dass die erste fokussierte Position P1 eingenommen wird.
  • Ein Schritt 502, der Schritt 501 folgt, unterzieht ein einem Frame entsprechendes Segment des Videosignals einer Bildgrößenkorrektur, um ein sich aus einer Korrektur ergebendes Videosignal zu erzeugen. Die Bildgrößenkorrektur ist entworfen, um eine Bildgröße bereitzustellen, die gleich jener ist, die der zweiten fokussierten Position P2 entspricht.
  • Ein Schritt 503, der Schritt 502 folgt, speichert ein einem Frame entsprechendes Segment des sich aus der Korrektur ergebenden Videosignals in einen ersten Bereich in dem RAM 410D.
  • Ein Schritt 504, der Schritt 503 folgt, steuert den Aktor 402 derart, dass die zweite fokussierte Position P1 eingenommen wird.
  • Ein Schritt 505, der Schritt 504 folgt, speichert ein einem Frame entsprechendes Segment des Videosignals in einen zweiten Bereich in dem RAM 410D.
  • Ein Schritt 506, der Schritt 505 folgt, steuert den Aktor 402 derart, dass die dritte fokussierte Position P1 eingenommen wird.
  • Ein Schritt 507, der Schritt 506 folgt, unterzieht ein einem Frame entsprechendes Segment des Videosignals einer Bildgrößenkorrektur, um ein sich aus einer Korrektur ergebendes Videosignal zu erzeugen. Die Bildgrößenkorrektur ist entworfen, um eine Bildgröße gleich jener bereitzustellen, die der zweiten fokussierten Position P2 entspricht.
  • Ein Schritt 508, der Schritt 507 folgt, speichert ein einem Frame entsprechendes Segment des sich aus einer Korrektur ergebenden Videosignals in einen dritten Bereich in dem RAM 410D.
  • Schritt 508 folgt ein Signalverarbeitungsblock 509. Nach dem Block 509 rückt das Programm zu einem Schritt 510 vor.
  • Schritt 510 bestimmt, ob ein Abschaltesignal von der Bedieneinheit 414 zugeführt wird oder nicht. Wenn das Abschaltesignal von der Bedieneinheit 414 zugeführt wird, verlässt das Programm Schritt 510, und dann endet der momentane Ausführungszyklus des Programmsegments. Andernfalls springt das Programm von Schritt 510 zu Schritt 501 zurück.
  • Wie in 26 gezeigt, weist der Signalverarbeitungsblock 509 einen ersten Schritt 601 auf, der Schritt 508 folgt (siehe 25). Schritt 601 initialisiert Werte J, K und L mit "1". Zusätzlich initialisiert Schritt 601 einen Wert Tmax mit "0". Der Wert Tmax bezeichnet eine maximale Varianz. Der Wert J bezeichnet einen von Blöcken, die einen Frame bilden. Genauer gesagt sind Blöcken, die einen Frame bilden, jeweils verschiedene Werte J (1, 2, 3,... und J0) zugeordnet. Demgemäß bezeichnet einer der Werte J einen der Blöcke. Der Wert K bezeichnet einen des ersten, zweiten und dritten Bereichs in dem RAM 410D oder eines der Videosignale in dem ersten, zweiten und dritten Bereich in dem RAM 410D. Genauer gesagt ist der Wert K, der "1" ist, dem ersten Bereich in dem RAM 410D oder dem Videosignal in dem ersten Bereich in dem RAM 410D zugeordnet. Der Wert K, der gleich "2" ist, ist dem zweiten Bereich in dem RAM 410D oder dem Videosignal in dem zweiten Bereich in dem RAM 410D zugeordnet. Der Wert K, der gleich "3" ist, ist dem dritten Bereich in dem RAM 410D oder dem Videosignal in dem dritten Bereich in dem RAM 410D zugeordnet. Der Wert L bezeichnet eine von verschiedenen Fensterregionen in einer DCT-Koeffizientenmatrix. Die Fensterregionen weisen verschiedene Positionen und Größen auf. Die Fensterregionen entsprechen jeweils verschiedenen Frequenzbändern. Genauer gesagt sind den Fensterregionen jeweils verschiedene Werte L (1, 2, 3, ... und L0) zugeordnet. Demge mäß bezeichnet einer der Werte L eine der Fensterregionen als ein ausgewähltes Fenster. Hier bezeichnet L0 einen Wert, der gleich der Gesamtanzahl der Fensterregionen ist. Nach Schritt 601 rückt das Programm zu einem Schritt 602 vor.
  • Schritt 602 liest einen Abschnitt des Videosignals aus dem ersten, zweiten oder dritten Bereich in dem RAM 410D aus, der mit dem Wert K bezeichnet ist. Genauer gesagt ist der erste Bereich in dem RAM 410D bezeichnet, wenn der Wert K "1" ist. Der zweite Bereich in dem RAM 410D ist bezeichnet, wenn der Wert K "2" ist. Der dritte Bereich in dem RAM 410D ist bezeichnet, wenn der Wert K "3" ist. Der ausgelesene Videosignalabschnitt entspricht dem durch den Wert J bezeichneten Block.
  • Ein Schritt 603, der Schritt 602 folgt, unterzieht den einem Block entsprechenden Videosignalabschnitt einer DCT (diskreten Kosinustransformation) gemäß den vorher angegebenen Gleichungen (58), (59A) und (59B).
  • Ein Schritt 604, der Schritt 603 folgt, legt eine Bandregion (eine Fensterregion) in der DCT-Koeffizientenmatrix fest, die durch den Wert L bezeichnet ist. Schritt 604 summiert die Quadrate von DCT-Koeffizienten in der Bandregion entsprechend der zuvor angegebenen Gleichung (60). Somit erhält Schritt 604 das Summierungsergebnis S(K).
  • Ein Schritt 605, der Schritt 604 folgt, inkrementiert den Wert K um "1". Ein Schritt 606, der Schritt 605 folgt, bestimmt, ob der Wert K "3" übersteigt oder nicht. Wenn der Wert K "3" übersteigt, rückt das Programm von Schritt 606 zu einem Schritt 607 vor. Andernfalls springt das Programm von Schritt 606 zu Schritt 602 zurück.
  • Als ein Ergebnis werden die Summierungsergebnisse S(1), S(2) und S(3) durch Schritt 604 erzeugt.
  • Schritt 607 berechnet die Varianz T(L) der Summierungsergebnisse S(1), S(2) und S(3) gemäß der zuvor angegebenen Gleichung (61).
  • Ein Schritt 608, der Schritt 607 folgt, vergleicht die berechnete Varianz T(L) mit einer maximalen Varianz Tmax. Es sei angemerkt, dass der Anfangswert der maximalen Varianz Tmax "0" ist. Wenn die berechnete Varianz T(L) größer als die maximale Varianz Tmax ist, rückt das Programm von Schritt 608 zu einem Schritt 609 vor. Andernfalls springt das Programm von Schritt 608 zu einem Schritt 610.
  • Schritt 609 aktualisiert die maximale Varianz Tmax. Schritt 609 aktualisiert auch eine Zahl Lmax, die der maximalen Varianz Tmax entspricht. Die Zahl Lmax gibt die Bandregion mit der größten Varianz an. Genauer gesagt gleicht Schritt 609 die maximale Varianz Tmax mit der berechneten Varianz T(L) ab. Schritt 609 gleicht die Zahl Lmax mit dem Wert L ab. Nach Schritt 609 rückt das Programm zu Schritt 610 vor.
  • Schritt 610 inkrementiert den Wert L um "1". Ein Schritt 611, der Schritt 610 folgt, setzt den Wert K auf "1" zurück. Ein Schritt 612, der Schritt 611 folgt, bestimmt, ob der Wert L eine vorbestimmte Zahl L0 übersteigt oder nicht. Wenn der Wert L die vorbestimmte Zahl L0 übersteigt, rückt das Programm von Schritt 612 zu einem Schritt 613 vor. Andernfalls springt das Programm von Schritt 612 zu Schritt 602 zurück.
  • Schritt 613 erhält von dem Wert Lmax eine Information über die Bandregion mit der größten Varianz. Schritt 613 fragt die Summierungsergebnisse S(1), S(2) und S(3) für die Bandregion mit der größten Varianz ab.
  • Ein Schritt 614, der Schritt 613 folgt, vergleicht die abgefragten Summierungsergebnisse S(1), S(2) und S(3) und findet somit die größten der Summierungsergebnisse S(1), S(2) und (S3).
  • Ein Schritt 615, der Schritt 614 folgt, liest einen Abschnitt des Videosignals von dem ersten, dem zweiten oder dem dritten Bereich in dem RAM 410D aus, der dem größten Summierungsergebnis entspricht. Genauer gesagt liest Schritt 615 einen Abschnitt des Videosignals aus dem ersten Bereich in dem RAM 410D aus, wenn das Summierungsergebnis S(1) das größte ist. Schritt 615 liest einen Abschnitt des Videosignals aus dem zweiten Bereich in dem RAM 410D aus, wenn das Summierungsergebnis S(2) das größte ist. Schritt 615 liest einen Abschnitt des Videosignals aus dem dritten Bereich in dem RAM 410D aus, wenn das Summierungsergebnis S(3) das größte ist. Der ausgelesene Abschnitt des Videosignals entspricht dem durch die Blockzahl J bezeichneten Block. Schritt 615 gibt den ausgelesenen Videosignalabschnitt an die Anzeige 412 aus und speichert ihn in einen Speicher in der Anzeige 412.
  • Ein Schritt 616 inkrementiert den Wert J um "1". Ein Schritt 617, der Schritt 616 folgt, setzt den Wert L auf "1" zurück. Ein Schritt 618, der Schritt 617 folgt, bestimmt, ob der Wert J eine vorbestimmte Zahl J0 übersteigt oder nicht. Wenn der Wert J die vorbestimmte Zahl J0 übersteigt, rückt das Programm von Schritt 618 zu Schritt 510 (siehe 25) vor. Andernfalls springt das Programm von Schritt 618 zu Schritt 602 zurück.
  • Wie aus der vorherigen Beschreibung zu verstehen ist, wird der Videosignalabschnitt in dem ersten Bereich in dem RAM 410D, der Videosignalabschnitt in dem zweiten Bereich in dem RAM 410D oder der Videosignalab schnitt in dem dritten Bereich in dem RAM 410D, der dem bezeichneten Block und dem größten der Summierungsergebnisse S(1), S(2) und S(3) entspricht, vor einer Übertragung an den Speicher in der Anzeige 412 ausgewählt.
  • Nachfolgend wird der bezeichnete Block auf den nächsten geändert. Die zuvor erwähnte Signalverarbeitung wird wiederholt, während der bezeichnete Block periodisch von einem zu einem anderen geändert wird. Wenn alle Blöcke, die einen Frame bilden, abgesucht worden sind, wird der Speicher in der Anzeige 412 mit einem vollständigen Satz von einem Block entsprechenden Videosignalabschnitten geladen, der einem Frame entspricht. Die Anzeige 412 zeigt ein durch den vollständigen Satz der einem Block entsprechenden Videosignalabschnitte dargestelltes Bild an.
  • Im Allgemeinen sind DCT-Koeffizienten, die höheren Frequenzen entsprechen, größer, wenn sich der Fokusgrad für ein Objekt in einem durch das in Beziehung stehende Videosignal dargestellten Bild erhöht. Demgemäß gibt das Summierungsergebnis S(1) den Fokusgrad für ein Objekt in einem Teilbild an, das durch den in Beziehung stehenden einem Block entsprechenden Videosignalabschnitt in dem ersten Bereich in dem RAM 410D dargestellt ist. Ähnlich gibt das Summierungsergebnis S(2) den Fokusgrad für ein Objekt in einem Teilbild an, das durch den in Beziehung stehenden einem Block entsprechenden Videosignalabschnitt in dem zweiten Bereich in dem RAM 410D dargestellt ist. Außerdem gibt das Summierungsergebnis S(3) den Fokusgrad für ein Objekt in einem Teilbild an, das durch den in Beziehung stehenden einem Block entsprechenden Videosignalabschnitt in dem dritten Bereich in dem RAM 410D dargestellt ist. Das größte der Summierungsergebnisse S(1), S(2) und S(3) entspricht dem besten Fokus. Demgemäß wird für jeden der Blöcke, die einen Frame bilden, der Videosignalabschnitt mit dem besten Fokus aus den einem Block entsprechenden Signalabschnitten in dem ersten, zweiten und dritten Bereich in dem RAM 410D ausgewählt und dann an den Speicher in der Anzeige 412 übertragen. Als ein Ergebnis wird das Bild mit dem besten Fokus durch die Anzeige 412 angezeigt. In der DCT-Koeffizientenmatrix ist die Bandregion, bei der die Varianz T einen Spitzenwert erreicht, für eine genaue Auswertung der Fokusgrade auf der Grundlage der Summierungsergebnisse S(1), S(2) und S(3) geeignet.

Claims (6)

  1. Objektüberwachungsvorrichtung, umfassend: eine Kamera (4) zum Erzeugen eines Videosignals eines Bilds eines Objekts mit einer bewegbaren Linse (1), die unter der Steuerung eines Controllers (7) bewegt wird, um eine fokussierte Position zu verändern, und ein erstes Mittel (3) zum Umwandeln des Bilds, das durch durch die Linse gelangendes Licht dargestellt wird, in das Videosignal; einen Bewegungsdetektor (6) zum Detektieren eines sich bewegenden Objekts in einem Bild, das durch das durch die Kamera erzeugte Videosignal dargestellt wird; und eine Ausgabeeinheit (12) zum Ausgeben des Videosignals, das ein Bild des durch den Bewegungsdetektor detektierten sich bewegenden Objekts dargestellt; gekennzeichnet durch: den Controller (7), der angeordnet ist, um, wenn der Bewegungsdetektor ein sich bewegendes Objekt detektiert, die fokussierte Position, auf die die Kamera eingestellt ist, zwischen vorbestimmten Positionen, die voneinander verschieden sind, zu verändern; einen Prozessor (11) zum Detektieren von Fokusgraden von Bildern, die durch durch die Kamera erzeugte Videosignale dargestellt werden, wenn die fokussierte Position mit den jeweils vorbestimmten Positionen zusammenfällt, um einen größten der Fokusgrade zu bestimmen und um die Ausgabeeinheit zu steuern, um das Videosignal auszugeben, das das Bild mit dem größten Fokusgrad darstellt.
  2. Objektüberwachungsvorrichtung nach Anspruch 1, wobei der Bewegungsdetektor (6) ferner geeignet ist, um zu bestimmen, ob ein sich bewegendes Objekt in einem Bild, das durch das durch die Kamera erzeugte Videosignal dargestellt wird, vorhanden ist oder nicht vorhanden ist; der Controller (7) ferner geeignet ist, um in Fällen, in denen der Bewegungsdetektor (6) bestimmt, dass ein sich bewegendes Objekt in einem durch das Videosignal dargestellten Bild vorhanden ist, eine fokussierte Position, auf die die Kamera eingestellt ist, zwischen den vorbestimmten Positionen zu verändern, die mindestens eine erste und eine zweite vorbestimmte Position umfassen; und der Prozessor (11) ferner geeignet ist, um einen ersten Fokusgrad eines Bilds zu detektieren, das durch ein durch die Kamera erzeugtes erstes Videosignal dargestellt wird, wenn die fokussierte Position mit der ersten vorbestimmten Position zusammenfällt, und um einen zweiten Fokusgrad eines Bilds zu detektieren, das durch ein durch die Kamera erzeugtes zweites Videosignal dargestellt wird, wenn die fokussierte Position mit der zweiten vorbestimmten Position zusammenfällt, um einen größten des ersten und zweiten Fokusgrads zu bestimmen und um aus dem ersten und zweiten Videosignal eines auszuwählen, das das Bild mit dem größten Fokusgrad darstellt.
  3. Objektüberwachungsvorrichtung nach Anspruch 2, wobei der Prozessor (11) ein Mittel zum Unterziehen des ersten und zweiten Videosignals einer diskreten Kosinustransformation (DCT), um erste und zweite DCT-Koeffizienten zu erzeugen, ein Mittel zum Summieren von Quadraten von aus den ersten und zweiten DCT-Koeffizienten ausgewählten DCT-Koeffizienten, um erste und zweite Summationsergebnisse zu erzeugen, und ein Mittel zum Detektieren des ersten und zweiten Fokusgrads in Ansprechen auf die ersten und zweiten Summationsergebnisse umfasst.
  4. Objektüberwachungsvorrichtung nach einem der vorangehenden Ansprüche, wobei der Controller (7) die fokussierte Position auf einer normalen fokussierten Position beibehält, wenn der Bewegungsdetektor (6) kein sich bewegendes Objekt in dem Bild detektiert, das durch das durch die Kamera erzeugte Videosignal dargestellt wird.
  5. Objektüberwachungsvorrichtung nach Anspruch 4, wobei die normale fokussierte Position eine der vorbestimmten Positionen ist.
  6. Objektüberwachungsvorrichtung nach einem der vorangehenden Ansprüche, wobei die Ausgabeeinheit (12) eine Anzeige zum Anzeigen des Videosignals umfasst, das das Bild des sich bewegenden Objekts darstellt.
DE60128018T 2000-02-15 2001-02-14 Objektüberwachungsvorrichtung Expired - Fee Related DE60128018T2 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2000036120A JP2001227914A (ja) 2000-02-15 2000-02-15 物体監視装置
JP2000036120 2000-02-15

Publications (2)

Publication Number Publication Date
DE60128018D1 DE60128018D1 (de) 2007-06-06
DE60128018T2 true DE60128018T2 (de) 2007-12-27

Family

ID=18560203

Family Applications (1)

Application Number Title Priority Date Filing Date
DE60128018T Expired - Fee Related DE60128018T2 (de) 2000-02-15 2001-02-14 Objektüberwachungsvorrichtung

Country Status (4)

Country Link
US (1) US20010015763A1 (de)
EP (2) EP1128666B1 (de)
JP (1) JP2001227914A (de)
DE (1) DE60128018T2 (de)

Families Citing this family (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7289679B2 (en) * 2003-08-12 2007-10-30 International Business Machines Corporation System and method for measuring image quality using compressed image data
US20070160265A1 (en) * 2003-12-19 2007-07-12 Matsushita Electric Industrial Co., Ltd. Iris image pickup camera and iris authentication system
KR100645636B1 (ko) * 2004-12-09 2006-11-15 삼성전기주식회사 Dct 계수를 이용한 카메라의 자동초점조절장치 및 그방법
CN101346933A (zh) * 2005-12-22 2009-01-14 皇家飞利浦电子股份有限公司 针对多重身份用户的环境适配
JP4665125B2 (ja) * 2006-08-17 2011-04-06 独立行政法人産業技術総合研究所 高さを測定する方法及びそのための装置
JP4833115B2 (ja) * 2007-03-02 2011-12-07 Kddi株式会社 掌紋認証装置、携帯電話端末、プログラム、および掌紋認証方法
JP5228438B2 (ja) * 2007-10-22 2013-07-03 株式会社明電舎 トロリー線の摩耗量計測装置
US8507834B2 (en) * 2009-02-10 2013-08-13 Intermec Ip Corp. System and method for autofocusing an optical system through image spectral analysis
WO2012017577A1 (ja) 2010-08-06 2012-02-09 パナソニック株式会社 撮像装置および撮像方法
JP5548310B2 (ja) * 2011-04-27 2014-07-16 パナソニック株式会社 撮像装置、撮像装置を備える撮像システム、及び撮像方法
CN103999449A (zh) * 2011-10-21 2014-08-20 株式会社尼康 摄像元件
WO2013080551A1 (ja) 2011-11-30 2013-06-06 パナソニック株式会社 撮像装置
JP5681954B2 (ja) * 2011-11-30 2015-03-11 パナソニックIpマネジメント株式会社 撮像装置及び撮像システム
US9619021B2 (en) * 2013-01-09 2017-04-11 Lg Electronics Inc. Head mounted display providing eye gaze calibration and control method thereof
KR20140090552A (ko) 2013-01-09 2014-07-17 엘지전자 주식회사 시선 캘리브레이션을 제공하는 헤드 마운트 디스플레이 및 그 제어 방법
US9835642B2 (en) * 2013-11-08 2017-12-05 The Johns Hopkins University High speed image processing device
WO2015080480A1 (ko) * 2013-11-29 2015-06-04 (주)넥스틴 웨이퍼 영상 검사 장치

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE69127112T2 (de) * 1990-02-28 1998-03-05 Sanyo Electric Co Automatisches Fokussierungsgerät zur automatischen Fokusanpassung in Abhängigkeit von Videosignalen
JP3103587B2 (ja) * 1990-04-25 2000-10-30 オリンパス光学工業株式会社 自動合焦装置
JP3183902B2 (ja) * 1991-04-02 2001-07-09 オリンパス光学工業株式会社 自動焦点装置
JP2996806B2 (ja) * 1992-06-11 2000-01-11 キヤノン株式会社 カメラ、自動焦点調節装置及び焦点調節方法
JPH0876003A (ja) * 1994-09-07 1996-03-22 Nikon Corp 自動焦点調節装置
US5777690A (en) * 1995-01-20 1998-07-07 Kabushiki Kaisha Toshiba Device and method for detection of moving obstacles
JPH08248303A (ja) * 1995-03-07 1996-09-27 Minolta Co Ltd 焦点検出装置
JP3963568B2 (ja) * 1997-05-28 2007-08-22 オリンパス株式会社 カメラの自動焦点調節装置
EP0908846A3 (de) * 1997-10-07 2000-03-29 Canon Kabushiki Kaisha Verfahren und Einrichtung zur Feststellung eines sich bewegenden Objektes

Also Published As

Publication number Publication date
DE60128018D1 (de) 2007-06-06
EP1128666A3 (de) 2003-07-16
EP1128666A2 (de) 2001-08-29
EP1499130A1 (de) 2005-01-19
US20010015763A1 (en) 2001-08-23
EP1128666B1 (de) 2007-04-25
JP2001227914A (ja) 2001-08-24

Similar Documents

Publication Publication Date Title
DE60128018T2 (de) Objektüberwachungsvorrichtung
DE10152883B4 (de) Nachführvorrichtung
DE10017072C2 (de) Hecküberwachungssystem für ein Fahrzeug
DE60131759T2 (de) Bilderzeugungsvorrichtung und -verfahren
DE602005000090T2 (de) Autofokussystem
EP1589484B1 (de) Verfahren zur Erkennung und/oder Verfolgung von Objekten
DE3931934C2 (de) Bild-Ein/Ausgabevorrichtung
DE602004008360T2 (de) Digitale Kamera mit entfernungsabhängigem Fokussierungsverfahren
EP2433092B1 (de) Luftbildkamera-system und verfahren zum korrigieren von verzerrungen in einer luftbildaufnahme
DE69825525T2 (de) Vorrichtung zur Erstellung eines Bildes sowie Verfahren und Vorrichtung zur Entfernungsmessung
DE60201849T2 (de) Abbildungssystem, Programm zur Kontrolle der Bilddaten dieses Systems, Verfahren zur Korrektur von Verzerrungen von aufgenommenen Bildern dieses Systems und Aufzeichnungsmedium zur Speicherung von diesem Verfahren
CH686207A5 (de) Verfahren und Einrichtung zum Erzeugen eines Bilds hoher Auflosung.
EP2701380A1 (de) Kamera und Verfahren zur Aufnahme scharfer Bilder
DE4041922C2 (de) Entfernungssensorvorrichtung zur Messung der Entfernung von einem bewegten Objekt
DE19730976C2 (de) Einrichtung zum Scharfstellen des Objektivs einer Kamera
DE10338248A1 (de) Kamerasystem und Fokusinformation-Anzeigeeinrichtung
DE102008024851A1 (de) Benutzerunterstützter Autofokus
DE3245675C2 (de) Mit Bildkorrelation arbeitender Fokusdetektor
DE69628492T2 (de) Anordnung mit Vorrichtung zum Bestimmen der Blichrichtung
DE3203788C2 (de)
DE3049397C2 (de) Automatische Scharfeinstellvorrichtung für eine Kamera
DE3004878C2 (de) Einrichtung zur Bestimmung der Scharfeinstellung einer Kamera
DE60004667T2 (de) Ausrichtbares autofokussystem
DE10338246A1 (de) Autofokussystem
DE602004006752T2 (de) Autofokussystem

Legal Events

Date Code Title Description
8364 No opposition during term of opposition
8327 Change in the person/name/address of the patent owner

Owner name: PANASONIC CORP., KADOMA, OSAKA, JP

8339 Ceased/non-payment of the annual fee