DE60123534T2 - Gerät zum Verfolgen eines sich bewegenden Objekts - Google Patents

Gerät zum Verfolgen eines sich bewegenden Objekts Download PDF

Info

Publication number
DE60123534T2
DE60123534T2 DE60123534T DE60123534T DE60123534T2 DE 60123534 T2 DE60123534 T2 DE 60123534T2 DE 60123534 T DE60123534 T DE 60123534T DE 60123534 T DE60123534 T DE 60123534T DE 60123534 T2 DE60123534 T2 DE 60123534T2
Authority
DE
Germany
Prior art keywords
information
image
image information
moving object
tracking
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
DE60123534T
Other languages
English (en)
Other versions
DE60123534D1 (de
Inventor
Yoshio Niiza-shi Fukuhara
Kiyoshi Kyotonabe-shi Kumata
Shinichi Nara-shi Tanaka
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sharp Corp
Original Assignee
Sharp Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sharp Corp filed Critical Sharp Corp
Application granted granted Critical
Publication of DE60123534D1 publication Critical patent/DE60123534D1/de
Publication of DE60123534T2 publication Critical patent/DE60123534T2/de
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S3/00Direction-finders for determining the direction from which infrasonic, sonic, ultrasonic, or electromagnetic waves, or particle emission, not having a directional significance, are being received
    • G01S3/78Direction-finders for determining the direction from which infrasonic, sonic, ultrasonic, or electromagnetic waves, or particle emission, not having a directional significance, are being received using electromagnetic waves other than radio waves
    • G01S3/782Systems for determining direction or deviation from predetermined direction
    • G01S3/785Systems for determining direction or deviation from predetermined direction using adjustment of orientation of directivity characteristics of a detector or detector system to give a desired condition of signal derived from that detector or detector system
    • G01S3/786Systems for determining direction or deviation from predetermined direction using adjustment of orientation of directivity characteristics of a detector or detector system to give a desired condition of signal derived from that detector or detector system the desired condition being maintained automatically
    • G01S3/7864T.V. type tracking systems

Landscapes

  • Physics & Mathematics (AREA)
  • Electromagnetism (AREA)
  • Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Studio Devices (AREA)

Description

  • HINTERGRUND DER ERFINDUNG
  • 1. GEBIET DER ERFINDUNG:
  • Die Erfindung bezieht sich auf eine Vorrichtung zum Verfolgen eines sich bewegenden Objekts, um ein sich bewegendes Objekt in der Umgebung automatisch zu verfolgen, bei der Gesichtsfeldinformationen in einer Umgebung unter Verwendung einer Videokamera oder dergleichen eingefangen werden und die eingefangenen Bildinformationen unter Verwendung einer Bildverarbeitungstechnik verarbeitet werden, um das sich bewegende Objekt zu erfassen.
  • 2. BESCHREIBUNG DES STANDES DER TECHNIK:
  • In letzter Zeit wurde auf dem Gebiet von Überwachungskameras zur Überwachung von Eindringlingen in einen gefährlichen Bereich oder zur Verhinderung eines Zusammenstoßes einer sich bewegenden Vorrichtung die Aufmerksamkeit auf eine Vorrichtung zum Verfolgen eines sich bewegenden Objekts gerichtet, um ein sich bewegendes Objekt in einer Umgebung automatisch zu verfolgen, wobei Gesichtsfeldinformationen in der Umgebung unter Verwendung einer Videokamera oder dergleichen eingefangen werden und wobei die eingefangenen Bildinformationen unter Verwendung einer Bildverarbeitungstechnik verarbeitet werden, um das sich bewegende Objekt zu erfassen. Herkömmlich folgt eine Kamera selbst einem sich bewegenden Objekt.
  • Zum Beispiel:
    • (1) Die japanische Offenlegungsschrift Nr. 8-9227 offenbart eine Bildeinfangvorrichtung mit einer automatischen Verfolgungsfunktion, bei der eine einzige Kamera, die einen Betrachtungswinkel ändern kann (z. B. Schwenk-, Neige- und Zoom-Eigenschaften), abhängig von der Bewegung eines sich bewegenden Objekts gedreht wird, um das sich bewegende Objekt zu verfolgen.
    • (2) Die japanische Offenlegungsschrift Nr. 7-114642 offenbart eine Messvor richtung für ein sich bewegendes Objekt, bei der zur Glättung der Verfolgung der zuvor in (1) beschriebenen Kamera die Position eines sich bewegenden Objekts vorhergesagt wird und ein Zielwert, der anhand der vorhergesagten Position berechnet wurde, Mitteln zum Antreiben der Kamera bereitgestellt wird.
    • (3) Die japanische Offenlegungsschrift Nr. 9-322052 offenbart eine Verfolgungsvorrichtung unter Verwendung von mehreren Kameras (ein automatisch photographierendes Kamerasystem), bei der zwei Kameras, die "Sensor-Kameras" genannt werden, verwendet werden, um die Koordinaten eines sich bewegenden Objekts gemäß dem trigonometrischen Prinzip zu ermitteln. Die Kameras werden in Übereinstimmung mit den Koordinaten gesteuert (z. B. geschwenkt, geneigt oder gezoomt), um so das sich bewegende Objekt zu verfolgen.
    • (4) WO 99/45511 offenbart ein kombiniertes Weitwinkel- und Engwinkel-Bildgebungssystem zur Überwachung und Beobachtung. Bildinformationen von dem Weitwinkelsystem werden analysiert, um Objekte in einem breiten Blickfeld zu erfassen und um Betrachtungsparameter zu erzeugen, die verwendet werden, um ein Schwenken, Neigen und Zoomen von einer oder mehreren Kameras zu steuern, um hoch aufgelöste vergrößerte Bilder der Objekte zu erhalten.
  • Die zuvor beschriebene Vorrichtung (1) funktioniert jedoch nicht, so lange sich kein sich bewegendes Objekt im Beobachtungswinkel der Kamera befindet, so dass die Vorrichtung das sich bewegende Objekt nicht verfolgen kann, wenn ein sich bewegendes Zielobjekt sich schnell bewegt und aus dem Betrachtungswinkel der Kamera gerät. Obwohl die zuvor beschriebene Vorrichtung (2) ein besseres Verfolgungsverhalten als die Vorrichtung (1) aufweist, sind eine Hochleistungs- und eine Hochgeschwindigkeits-Steuervorrichtung für die Kamera erforderlich. Die zuvor beschriebenen Vorrichtungen (3) und (4) nutzen mehrere Kameras, um so einen breiten Bereich an Informationen in der Umgebung einzufangen und sie haben folglich ein verbessertes Verfolgungsverhalten. Die Verwendung von mehreren Kameras erhöht jedoch die Kosten des Systems und ferner wird eine Steuerschaltung zur Steuerung der Kameras entsprechend kompliziert.
  • Wenn eine Kamera gedreht wird, ist die Verfolgungsgeschwindigkeit in jedem Fall begrenzt, wie es zuvor beschrieben wurde, und ein gleichzeitig eingefangenes Bild wird durch den Betrachtungswinkel der Kamera eingeschränkt, so dass es einen toten Winkel gibt. Da ein mechanischer Antriebsabschnitt zum Drehen einer Kamera erforderlich ist, ist es darüber hinaus erforderlich, den mechanischen Antriebsabschnitt instand zu halten, wenn er für eine lange Zeit betrieben wird.
  • Es wurde ein Verfahren vorgestellt, das einen sich drehenden Spiegel zum Einfangen von Bildern in allen Richtungen gleichzeitig ohne einen mechanischen Antriebsabschnitt verwendet. Unter anderem kann ein Verfahren unter Verwendung eines Hyperboloidspiegels ein Eingangsbild in ein Bild umsetzen, das von dem Brennpunkt des Spiegels aus betrachtet wird (ein perspektivisches Projektionsbild, das im Wesentlichen einem Bild entspricht, das durch eine typische Kamera aufgenommen wurde), oder in ein Bild, das durch Drehen einer Kamera um eine vertikale Achse erhalten wurde (ein zylinderförmiges Panoramabild). Folglich kann ein derartiges Verfahren im Vergleich zu Verfahren, die Spiegel mit anderen Formen nutzen, verschiedene Arten von Bildverarbeitung durchführen. Ein derartiges visuelles Allrichtungssystem, das den Hyperboloidspiegel nutzt, ist in der japanischen Offenlegungsschrift Nr. 6-295333 offenbart.
  • ZUSAMMENFASSUNG DER ERFINDUNG
  • Gemäß einem Aspekt der Erfindung wird eine Vorrichtung zum Verfolgen eines sich bewegenden Objekts geschaffen, um ein oder mehrere sich bewegende Objekte in einer Umgebung zu erfassen und zu verfolgen, mit:
    einem optischen System, das einen Hyperboloidspiegel aufweist, um Gesichtsfeldinformationen in einer 360°-Umgebung einzufangen;
    einer stationären Kamera zum Umsetzen der eingefangenen Gesichtsfeldinformationen in Bildinformationen; und
    einem Informationsverarbeitungsabschnitt zum Verarbeiten der Bildinformationen, um so das eine oder die mehreren sich bewegenden Objekte anhand der Bildinformationen zu erfassen;
    wobei die Vorrichtung eine einzige Kamera besitzt, die die stationäre Kamera ist, und der Informationsverarbeitungsabschnitt so beschaffen ist, dass er die Bildinformationen von der einzigen stationären Kamera verarbeitet, um so das eine oder die mehreren sich bewegenden Objekte zu verfolgen, wobei der Informationsverarbeitungsabschnitt einen jeweiligen Markierer für das entsprechende eine oder die entsprechenden mehreren sich bewegenden Objekte nur dann bereitstellt, wenn die Größe des einen oder der mehreren sich bewegenden Objekte oberhalb eines vorgegebenen Schwellenwerts liegt.
  • Gemäß den zuvor beschriebenen Merkmalen können durch ein optisches System mit einem Hyperboloidspiegel Gesichtsfeldinformationen in einer 360°-Umgebung eingefangen werden. Die durch das optische System erhaltenen Gesichtsfeldinformationen werden unter Verwendung einer einzigen stationären Kamera (die nicht gedreht wird) in Bildinformationen umgesetzt. Durch Verarbeitung derartiger Bildinformationen kann ein sich bewegendes Objekt in der Umgebung erfasst und verfolgt werden. Folglich ist es möglich, eine Verfolgungsvorrichtung zu realisieren, die eine einzige Kamera ohne einen mechanischen Abschnitt enthält, bei der kein toter Winkel auftritt. Bei herkömmlichen Vorrichtungen zum Verfolgen sich bewegender Objekte muss eine Kamera selbst mechanisch betrieben werden (z. B. Schwenken und Neigen), oder es müssen mehrere Kameras geschaltet werden. Im Gegensatz können die zuvor beschriebenen Probleme gemäß der Erfindung durch Verwendung eines Hyperboloidspiegels gelöst werden, wodurch es möglich wird, eine Vorrichtung zum Verfolgen eines sich bewegenden Objekts mit niedrigen Kosten und hoher Präzision zu verwirklichen.
  • Wie es später beschrieben wird, können beispielsweise Daten von dem jeweiligen sich bewegenden Objekt gekennzeichnet werden, um so verwaltet und identifiziert werden zu können, wenn das sich bewegende Objekt durch Bildverarbeitung erfasst wird. Dadurch können eines oder mehrere sich bewegende Objekte in einem Bild verfolgt werden.
  • Bei einer Ausführungsform dieser Erfindung enthalten die Bildinformationen Allrichtungs-Bildinformationen. Der Informationsverarbeitungsabschnitt setzt wenigstens einen Teil der Allrichtungs-Bildinformationen in Panorama-Bildinformationen um. Der Informationsverarbeitungsabschnitt stellt in den Panorama-Bildinformationen einen Markierer für jedes Objekt des einen oder der mehreren sich bewegenden Objekte bereit.
  • Gemäß dem zuvor beschriebenen Merkmal kann ein Allrichtungsbild einer 360°-Umgebung unter Verwendung eines Panoramabilds einfach betrachtet werden. Durch Verwendung eines Markierers wird eine Identifizierung eines sich bewegenden Objekts einfacher gemacht.
  • Bei einer Ausführungsform dieser Erfindung stellt der Informationsverarbeitungsabschnitt einen Markierer für jedes des einen oder der mehreren sich bewegenden Objekte bereit, abhängig von einer Größe des jeweiligen des einen oder der mehreren sich bewegenden Objekte.
  • Gemäß dem zuvor beschriebenen Merkmal kann ein Bereich eines Bildes, in dem ein Versuch unternommen wird, ein sich bewegendes Objekt zu erfassen, klar definiert werden, indem die Größe eines Markierers geändert wird.
  • Bei einer Ausführungsform dieser Erfindung enthalten die Bildinformationen Allrichtungs-Bildinformationen, und der Informationsverarbeitungsabschnitt setzt wenigstens einen Teil der Allrichtungs-Bildinformationen in Bildinformationen einer perspektivischen Projektion um.
  • Gemäß dem zuvor beschriebenen Merkmal werden eingefangene Bildinformationen in ein perspektivisches Projektionsbild umgesetzt, das ein Bild ist, das von einem Brennpunkt eines Hyperboloidspiegels betrachtet wird. Folglich kann eine Bild ohne Verzerrung wegen des Hyperboloidspiegels erhalten werden.
  • Bei einer Ausführungsform dieser Erfindung verarbeitet der Informationsverarbeitungsabschnitt die Bildinformationen unter Verwendung einer im Voraus erstellten Tabelle.
  • Gemäß dem zuvor beschriebenen Merkmal kann eine Bildumsetzung unter Verwendung einer im Voraus erstellten Tabelle beschleunigt werden.
  • Bei einer Ausführungsform dieser Erfindung verarbeitet der Informationsverarbeitungsabschnitt die Bildinformationen unter Verwendung lediglich eines Datentyps von RGB-Daten in den Bildinformationen.
  • Gemäß dem zuvor beschriebenen Merkmal wird die Menge der Bildverarbeitung verringert, da lediglich ein Datentyp von RGB-Daten bei der Bildverarbeitung verwendet wird. Folglich kann die Bildverarbeitung beschleunigt werden.
  • Bei einer Ausführungsform dieser Erfindung erfasst der Informationsverarbeitungsabschnitt das eine oder die mehreren sich bewegenden Objekte anhand einer Helligkeitsdifferenz zwischen vorgegebenen Rahmeninformationen der Bildinformationen und Rahmeninformationen, die den vorgegebenen Rahmeninformationen der Bildinformationen vorhergehen.
  • Folglich ermöglicht die hier beschriebene Erfindung die Vorteile der Schaffung einer Vorrichtung zum Verfolgen eines sich bewegenden Objekts unter Verwendung eines optischen Systems, das einen Hyperboloidspiegel nutzt, bei dem 360°-Gesichtsfeldinformationen in einer Umgebung eingefangen werden, wobei ein sich bewegendes Objekt von den eingefangenen Bildinformationen unter Verwendung einer Bildverarbeitungstechnik erfasst wird, um es zu verfolgen. Folglich ist kein mechanischer Antriebsabschnitt erforderlich und es gibt keinen toten Winkel in der Vorrichtung zum Verfolgen eines sich bewegenden Objekts.
  • Gemäß einem weiteren Aspekt der Erfindung wird ein Verfahren geschaffen, das die folgenden Schritte enthält: Einfangen von Bildinformationen aus einem 360°-Gesichtsfeld mittels eines Hyperboloidspiegels (10; 70); Verarbeiten der eingefangenen Informationen, um ein oder mehrere Objekte in dem Gesichtsfeld zu erfassen, und Verfolgen des einen oder der mehreren Objekte, wobei sowohl die Objekterfassung als auch die Objektverfolgung unter Verwendung einer einzigen stationären Kamera ausgeführt wird, die die Bildinformationen von dem Hyperboloidspiegel einfängt, indem die eingefangenen Informationen verarbeitet werden und jedem erfassten sich bewegenden Objekt ein Markierer zugewiesen wird, falls das sich bewegende Objekt eine Größe oberhalb eines vorgegebenen Schwellenwerts besitzt.
  • Diese und weitere Vorteile der Erfindung werden für den Fachmann auf dem Gebiet offensichtlich, wenn er die folgende ausführliche Beschreibung anhand der beigefügten Figuren liest und versteht.
  • KURZBESCHREIBUNG DER ZEICHNUNG
  • 1 ist eine Darstellung, die eine Vorrichtung zum Verfolgen eines sich bewegenden Objekts gemäß einem Beispiel der Erfindung zeigt.
  • 2 ist eine Darstellung, die ein Allrichtungsbild zeigt, das Gesichtsfeldinformationen über die 360°-Umgebung enthält, die auf einem Bildschirm in einem Beispiel der Erfindung angezeigt werden.
  • 3 ist eine Darstellung, die ein Bild zeigt, das erhalten wurde, indem ein Allrichtungsbild einer Panoramaumsetzung in einem Beispiel der Erfindung unterzogen wurde.
  • 4 ist eine Darstellung, die ein perspektivisches Projektionsbild in einem Beispiel der Erfindung zeigt.
  • 5A und 5B sind Darstellungen zur Erklärung eines Schwenkvorgangs in einem perspektivischen Projektionsbild in einem Beispiel der Erfindung.
  • 6 ist eine Darstellung zur Erklärung einer Positionsbeziehung zwischen einem Hyperboloidspiegel und einer Kamera in einem optischen System in einem Beispiel der Erfindung.
  • 7 ist eine Darstellung, die eine Vorrichtung zum Verfolgen eines sich bewegenden Objekts gemäß einem Beispiel der Erfindung zeigt.
  • 8 ist eine Darstellung, die eine Bildverarbeitungskarte in einem Beispiel der Erfindung zeigt.
  • 9 ist eine Darstellung, die ein Allrichtungsbild zeigt, das auf einem Bildschirm eines Personalcomputers in einem Beispiel der Erfindung angezeigt wird.
  • 10 ist eine Darstellung, die ein Allrichtungsbild, ein Panoramabild und ein perspektivisches Projektionsbild zeigt, die auf einem Bildschirm eines Personalcomputers in einem Beispiel der Erfindung angezeigt werden.
  • 11 ist ein Ablaufdiagramm zur Erklärung eines Verfahrensablaufs, gemäß dem ein sich bewegendes Objekt in einem Allrichtungsbild erfasst wird, dem sich bewegenden Objekt ein Markierer zugewiesen wird, und eine Panoramaumsetzung sowie eine perspektivische Projektionsumsetzung in einem Beispiel der Erfindung durchgeführt werden.
  • 12 ist eine Darstellung zur Erklärung eines Koordinatensystems eines Allrichtungsbildes in einem Beispiel der Erfindung.
  • 13A und 13B sind Darstellungen zur Erklärung einer Umsetzung von einem Allrichtungsbild in ein Panoramabild in einem Beispiel der Erfindung.
  • 14A und 14B sind Darstellungen zur Erklärung einer Umsetzung von einem Allrichtungsbild in ein perspektivisches Projektionsbild in einem Beispiel der Erfindung.
  • 15 ist eine Darstellung, die zeigt, wie ein Objekt durch einen Hyperboloidspiegel in einem Beispiel der Erfindung projiziert wird.
  • BESCHREIBUNG DER BEVORZUGTEN AUSFÜHRUNGSFORMEN
  • Die Erfindung wird nachfolgend mittels veranschaulichender Beispiele anhand der beigefügten Zeichnung beschrieben.
  • Eine Vorrichtung zum Verfolgen eines sich bewegenden Objekts gemäß der Erfindung nutzt ein optisches System unter Verwendung eines Hyperboloidspiegels zum Einfangen von 360°-Gesichtsfeldinformationen, bei dem die durch das optische System erhaltenen Gesichtsfeldinformationen durch eine Kamera in Bildinformationen umgesetzt werden, und ein sich bewegendes Objekt unter Verwendung einer Bildverarbeitungstechnik erfasst und verfolgt wird.
  • Üblicherweise bezieht sich der Begriff "Bild" auf ein Standbild, und der Begriff "Video" bezieht sich auf ein sich bewegendes Bild. "Video" besteht aus mehreren Standbildern, folglich ist "Video" hier als eine Art "Bild" enthalten. Die Erfindung kann Bilder in allen Richtungen gleichzeitig in Echtzeit einfangen. "Bild" kann hier als eine Art "Video" enthalten sein.
  • 1 ist ein Blockdiagramm, das eine schematische Anordnung einer Vorrichtung zum Verfolgen eines sich bewegenden Objekts 1000 gemäß einem Beispiel der Erfindung zeigt. Die Vorrichtung zum Verfolgen eines sich bewe genden Objekts 1000 umfasst einen Hyperboloidspiegel 10, eine Videokamera 11 und einen Informationsverarbeitungsabschnitt 14. Der Informationsverarbeitungsabschnitt 14 umfasst eine Bildverarbeitungskarte 12 und ein Computersystem 13. In der Vorrichtung zum Verfolgen eines sich bewegenden Objekts 1000 wird der Hyperboloidspiegel 10, der 360°-Gesichtsfeldinformationen erhalten kann, als ein optisches System verwendet, und ein durch das optische System erhaltenes Video der Umgebung wird durch die Videokamera 11 in Bildinformationen umgesetzt. Die Bildinformationen werden durch eine Bildverarbeitungskarte 12 in digitale Informationen umgesetzt, und die digitalen Informationen werden in einem Speicher eines Computersystems 13 gespeichert. Die digitalen Informationen werden einer Bildverarbeitung unterzogen, wie es später beschrieben wird, wodurch ein sich bewegendes Objekt erfasst und verfolgt wird.
  • 2 zeigt einen Bildschirm 20 des Computersystems 13, der die digitalen Informationen anzeigt, die unter Verwendung der Videokamera 11 durch Einfangen eines Allrichtungsbildes 21 der 360°-Umgebung erhalten wurden, das durch den Hyperboloidspiegel 10 erhalten und durch die Bildverarbeitungskarte 12 umgesetzt wurde. Folglich kann ein Video (Bild) der 360°-Umgebung (d. h. ein bestimmter Bereich eines Bildes, das auf den Hyperboloidspiegel 10 projiziert wurde) gleichzeitig in Echtzeit eingefangen werden. Sich bewegende Objekte werden unter Verwendung einer Bildverarbeitung erfasst, wie es später beschrieben wird, und die Daten des jeweiligen sich bewegenden Objekts werden gekennzeichnet, um so verwaltet und identifiziert werden zu können. Folglich können ein oder mehrere sich bewegende Objekte, die in einem Bild enthalten sind, verfolgt werden.
  • 3 ist ein Panoramabild 30, das erhalten wurde, indem das 360°-Allrichtungsbild von 2 einer später beschriebenen Bildverarbeitung unterzogen wird (Panoramaumsetzung), um das 360°-Allrichtungsbild leicht betrachten zu können. Mit dem Panoramabild 30 kann ein Video (d. h. ein Bild) der 360°-Umgebung gleichzeitig gesehen werden. Sich bewegende Objekte 33 und 34, die in dem Panoramabild 30 erfasst wurden, werden einer später beschriebenen Bildverarbeitung unterzogen, um den sich bewegenden Objekten 33 und 34 entsprechende Markierer 31 und 32 zuzuweisen, wodurch es einfach gemacht wird, die sich bewegenden Objekte 33 und 34 zu identifizieren. Wenn die Größen der Markierer 31 und 32 abhängig von den Flächen der in dem Panorama bild 30 erfassten sich bewegenden Objekte 33 und 34 ermittelt wurden, ist es einfacher, die sich bewegenden Objekt 33 und 34 zu identifizieren.
  • Das Panoramabild 30 ist ein Bild, das durch Entwickeln (Ausbreiten) des Allrichtungsvideos erhalten wurde, das durch den Hyperboloidspiegel 10 in einer θ-Richtung erhalten wurde, und es enthält eine Verzerrung wegen des Hyperboloidspiegels 10. Folglich wird das Panoramabild 30 einer später beschriebenen Bildverarbeitung unterzogen, um es in ein perspektivisches Projektionsbild 40 umzusetzen, das ein Bild ist, das von einem Brennpunkt des Hyperboloidspiegels 10 betrachtet wird, wie es in 4 gezeigt ist (ein Bild, das durch eine typische Kamera photographiert wurde), wodurch ein Bild ohne Verzerrung erhalten wird. Algorithmen zur Panoramaumsetzung und zur perspektivischen Projektionsumsetzung für Bilder, die durch den Hyperboloidspiegel 10 erhalten wurden, sind beispielsweise in der japanischen Offenlegungsschrift Nr. 6-295333 offenbart.
  • Das perspektivische Projektionsbild 40 von 4 ist ein Bild ohne Verzerrung, das von dem Allrichtungsbild 21 von 2 umgesetzt wurde, und es wird auch als ein Bild betrachtet, das von dem Panoramabild 30 von 3 ausgeschnitten wurde. Durch Änderung von Abschnitten, die aus dem Panoramabild 30 unter Verwendung einer später beschriebenen Bildverarbeitungstechnik ausgeschnitten werden sollen, können folglich Vorgänge entsprechend einem Schwenken und Neigen durchgeführt werden, ohne dass eine Kamera bewegt wird, wie es in 5A und 5B gezeigt ist. 5A ist ein perspektivisches Projektionsbild 50 und 5B ist ein perspektivisches Projektionsbild 51 nach einem Schwenkvorgang.
  • Wie es zuvor beschrieben wurde, sind Algorithmen für eine Panoramaumsetzung und für eine perspektivische Projektionsumsetzung für mit dem Hyperboloidspiegel 10 erhaltene Bilder beispielsweise in der japanischen Offenlegungsschrift Nr. 6-295333 beschrieben. Eine Berechnung von Umsetzungsformeln, die in dieser Veröffentlichung beschrieben sind, ist jedoch außerordentlich zeitaufwändig, so dass eine Bildverarbeitung nicht in Echtzeit durchgeführt werden kann. Folglich sind in der Erfindung Daten, die für die Umsetzungsformeln erforderlich sind, in einer Menge, die der Anzahl an Bildpunkten einer Anzeige entspricht (d. h. die Auflösung eines eingefangenen Bildes), in einem Speicher des Computersystems 13 oder dergleichen als ein Tabelle im Voraus erstellt worden. Wenn die Umsetzung erforderlich ist, werden die Berechnungsergebnisse der Umsetzungsformeln ohne Berechnung aus der Tabelle ausgelesen, wodurch es möglich wird, die Bildverarbeitung zu beschleunigen.
  • Wenn das durch den Hyperboloidspiegel 10 erhaltene Allrichtungsvideo durch die Bildverarbeitungskarte 12 in digitale Informationen umgesetzt wird, wie es zuvor beschrieben wurde, werden ferner drei Datenarten (R, G und B) bei Farbvideo erhalten, wenn eine Videokamera Farbbilder einfängt. Die später beschriebene Bildverarbeitung muss nicht für alle drei Arten von Daten (R, G und B) durchgeführt werden, und beispielsweise wird lediglich eine Art von Daten (z. B. R) verwendet, um ein sich bewegendes Objekt zu erfassen, wodurch die Menge an Bildverarbeitung verringert und folglich die Verarbeitung beschleunigt wird. Beispielsweise wurde das in 2 gezeigte Allrichtungsbild 21 durch Verarbeitung lediglich von R-Daten erhalten.
  • Nachfolgend wird ein Beispiel der Erfindung ausführlicher beschrieben.
  • Details des visuellen Allrichtungssystems, das den Hyperboloidspiegel 10 nutzt, der als das optische System der Erfindung verwendet wird, sind in der japanischen Offenlegungsschrift Nr. 6-295333 offenbart. Wie es in 6 gezeigt ist, ist der Mittelpunkt einer Kameralinse 61 eines Bildeinfangabschnittes (d. h. die Videokamera 11) bei einem zweiten Brennpunkt 63 gegenüber einem ersten Brennpunkt 62 eines Hyperboloidspiegels 60 angeordnet (entsprechend dem Hyperboloidspiegel 10 von 1), und eine Bildeinfangebene 64 des Bildeinfangabschnitts ist bei einer Brennweite der Kameralinse 61 von der Kameralinse 61 weg angeordnet. Folglich werden die 360°-Gesichtsfeldinformationen auf die Bildeinfangebene 64 projiziert, wodurch das in 2 gezeigte Allrichtungsbild 21 erhalten wird.
  • In 6 wird eine Koordinatensystem wie folgt definiert. Der Schnittpunkt 0 der asymptotischen Linien 65 und 66 ist ein Ursprung, eine horizontale Ebene wird durch die X-Achse und die Y-Achse gebildet, und eine vertikale Achse (eine Richtung, die den ersten Brennpunkt 62 und den zweiten Brennpunkt 63 verbindet) ist die Z-Achse. In einem derartigen Koordinatensystem wird eine Hyperboloidfläche dargestellt durch: (X2 + Y2)/a2 – Z2/b2 = –1 (1) c2 = (a2 + b2) (2),wobei a und b numerische Werte (Abstände) sind, die die Form der Hyperboloidfläche bestimmen, und c ein numerischer Wert ist, der einen Abstand von dem Schnittpunkt 0 der asymptotischen Linien 65 und 66 zu dem jeweiligen Brennpunkt 62 und 63 darstellt.
  • 7 ist eine Darstellung, die eine schematische Anordnung einer Vorrichtung zum Verfolgen eines sich bewegenden Objekts 2000 gemäß einem Beispiel der Erfindung zeigt. Die Vorrichtung zum Verfolgen eines sich bewegenden Objekts 2000 umfasst einen Hyperboloidspiegel 70, eine Schutzkuppel 71, ein Halteelement 72, eine Videokamera 73, ein Kamerahalteelement 74 und einen Informationsverarbeitungsabschnitt 90. Der Informationsverarbeitungsabschnitt 90 umfasst einen Kameraadapter 75, eine Bildverarbeitungskarte 76 und einen Personalcomputer 77. In diesem Beispiel wird ein Aluminiummaterial geformt und eine resultierende Oberfläche wird einer Metallabscheidung unterzogen, wodurch ein Hyperboloidspiegel 70 mit einem Durchmesser von 65 mm (a = 17,93, b = 21,43 und c = 27,94) erhalten wird. Ferner wird die aus Acryl hergestellte Schutzkuppel 71 an dem Hyperboloidspiegel 70 befestigt, und die Videokamera 73 ist mit dem Halteelement 72 befestigt, um Informationen in der Umgebung einzufangen. Die Videokamera 73 wird durch das Kamerahalteelement 74 gehalten, um so zu verhindern, dass die Kamera 73 herunterfällt.
  • In dieser Konstruktion wird ein Betrachtungswinkel erhalten, bei dem der horizontale Betrachtungswinkel 360° beträgt, der vertikale Betrachtungswinkel etwa 90° beträgt, der Erhebungswinkel etwa 25° beträgt und der Depressionswinkel etwa 65° beträgt. Obwohl in diesem Beispiel Metall geformt wird, um den Hyperboloidspiegel 70 herzustellen, kann Kunststoff unter Verwendung einer Gießform geformt werden, und eine resultierende Oberfläche wird in Massenproduktion einer Metallabscheidung unterzogen, wodurch es ermöglicht wird, Produktionskosten zu verringern.
  • Als ein Bildeinfangabschnitt (die Videokamera 73) wird eine Farb-CCD-Kamera mit f = 4 mm und einer Auflösung von 410.000 Bildpunkten verwendet. Ein zusammengesetztes Videosignal von der CCD-Kamera wird durch den Kameraadapter 75 in ein RGB-Signal umgesetzt, und das RGB-Signal wird in einem Bildspeicher 81 (8) in der Bildverarbeitungskarte 76 gespeichert, die in ei nem erweiterten Einbauplatz des Personalcomputers 77 angebracht ist. Eine von Sharp Semiconductor hergestellte GPB-K wird als die Bildverarbeitungskarte 76 verwendet. Diese Karte enthält eine umfangreiche Bildverarbeitungsbibliothek und sie hat eine Bildverarbeitungsgeschwindigkeit von 40 nsec pro Bildpunkt. Ferner umfasst der Personalcomputer 77 beispielsweise eine Celeron 400 MHz als Zentraleinheit (CPU), einen Speicher mit 64 MB und Windows NT als Betriebssystem.
  • 8 ist eine Darstellung, die einen inneren Strukturblock in der Bildverarbeitungskarte 76 von 7 zeigt, und die zur Erklärung eines Betriebs des inneren Strukturblocks verwendet wird. Durch den Kameraadapter 75 in ein RGB-Signal umgesetzte Allrichtungs-Bilddaten werden durch einen AD-Umsetzer 80 in digitale Daten mit 8 Bits in jede Farbe von R, G und B umgesetzt, und die resultierenden digitalen Daten werden in einem Bildspeicher 81 gespeichert. Daten in dem Bildspeicher 81 werden mittels eines internen Bildbusses 85 zu einem Bildverarbeitungsabschnitt 84 übertragen und verschiedene Arten einer Bildverarbeitung (11) werden unter Verwendung der zuvor beschriebenen Bildverarbeitungsbibliothek in Hochgeschwindigkeit durchgeführt. Verarbeitete Daten werden mittels einer PCI-Brücke 83 zu einem PCI-Bus des erweiterten Einbauplatzes des Personalcomputers 77 übertragen und in einem Speicher 77a des Personalcomputers 77 gespeichert. Die Daten werden auf einer Anzeige 78 angezeigt. Eine in 7 gezeigte Tastatur 79 ist ein Mittel, um Befehle zu empfangen, um Abläufe der Vorrichtung zum Verfolgen eines sich bewegenden Objekts 2000 zu starten und zu beenden. Der in 8 gezeigte Steuerabschnitt 82 steuert eine Übertragung und einen Empfang von Hauptrechnerbefehlen, den Bildspeicher 81 und den Bildverarbeitungsabschnitt 84.
  • 9 zeigt ein Fenster der Anzeige 78, das Daten anzeigt, die in dem Speicher 77a gespeichert sind, die erhalten wurden, indem Allrichtungs-Bilddaten, die in dem Bildspeicher 81 der Bildverarbeitungskarte 76 eingefangen wurden, an den Personalcomputer 77 übertragen wurden. Die Bildschirmgröße dieses Fensters ist ein VGA-Bildschirm von beispielsweise 640 × 480 Bildpunkten. Das Fenster entspricht dem Bildschirm 20 von 2. Wenn das Allrichtungsbild 91 auf einem VGA-Bildschirm mit einer Auflösung von 640 × 480 Bildpunkten angezeigt wird, ist die Auflösung von 410.000 Bildpunkten der CCD-Kamera ausreichend. Es wird angemerkt, dass eine Kamera mit einer höheren Auflösung erforderlich ist, um die Auflösung eines Bildes zu erhöhen.
  • 10 zeigt das zuvor beschriebene Fenster, in das ein Panoramabild 101, das erhalten wird, indem das Allrichtungsbild 91 von 9 einer Panoramaumsetzung unterzogen wird, und ein perspektivisches Projektionsbild 100, das erhalten wird, indem das Allrichtungsbild 91 einer perspektivischen Projektionsumsetzung unterzogen wird, eingebunden sind. In diesem Fall hat das Panoramabild 101 eine Größe von 640 × 160 Bildpunkten, während das perspektivische Projektionsbild 100 eine Größe von 120 × 120 Bildpunkten hat. Ein Markierer 102 wird einem sich bewegenden Objekt 103 in dem Panoramabild 101 zugewiesen.
  • Nachfolgend wird anhand 11 ein Verfahrensablauf beschrieben, bei dem das sich bewegende Objekt 103 von dem Allrichtungsbild 91 von 9 erfasst wird, der Markierer 102 dem sich bewegenden Objekt 103 zugewiesen wird, und das Panoramabild 101 und das perspektivische Projektionsbild 100 erzeugt werden.
  • Allrichtungsbilddaten werden durch den Kameraadapter 75 von 7 in ein RGB-Signal umgesetzt, das RGB-Signal wird durch den AD-Umsetzer 80 von 8 in digitale Daten mit 8 Bits in jeder Farbe von R, G und B umgesetzt, und die digitalen Daten werden in dem Bildspeicher 81 gespeichert. Im Schritt 110 von 11 werden Allrichtungsbild-Rahmendaten, die in einem vorherigen Rahmen eingefangen wurden, und Allrichtungsbild-Rahmendaten, die in einem gegenwärtigen Rahmen eingefangen sind, einem Subtraktionsvorgang unterzogen, um so eine Rahmendifferenz zu berechnen.
  • Als eine Nachverarbeitung der Rahmendifferenz oder als eine Vorausbearbeitung einer nachfolgenden binären Umsetzung wird im Schritt 111 ein maximaler Bildpunktwert in einem 3 × 3 Bildpunkt-Fenster ermittelt. Dadurch wird das Bild ausgedehnt. Da es wahrscheinlich ist, dass in diesem Fall ein sich bewegendes Objekt in einer Binärumsetzung in getrennte Objekte aufgeteilt wird, wird die Ausdehnung des Bildes ausgeführt, um die getrennten Objekte zu vereinigen.
  • Daraufhin wird im Schritt 112 ein 256-Graustufenbild in ein 2-Graustufenbild mit einer Graustufe für einen Hintergrund und der anderen Graustufe für ein zu verfolgendes sich bewegendes Objekt umgesetzt. Als ein Ergebnis der Be rechnung der Rahmendifferenz weist der Hintergrund mit im Wesentlichen keinem Bewegungsbeitrag eine Helligkeitsdifferenz von Null auf. Das sich bewegende Objekt weist eine Helligkeitsdifferenz zwischen einem vorherigen Rahmen und einem gegenwärtigen Rahmen auf, so dass die Helligkeitsdifferenz größer als oder gleich einem vorgegebenen Wert als ein sich bewegendes Objekt erfasst wird. Das sich bewegende Objekt kann verfolgt werden, indem eine derartige Helligkeitsdifferenz zwischen den jeweiligen Rahmen erfasst wird. In 12 sind die Positionen der sich bewegenden Objekte 33 und 34 in dem gegenwärtigen Rahmen unterschiedlich von den entsprechenden Positionen der sich bewegenden Objekte 33' und 34' in dem vorhergehenden Rahmen. Folglich sind Helligkeitsdifferenzen bei den Positionen der sich bewegenden Objekte 33, 34, 33' und 34' vorhanden. Sich bewegende Objekte können verfolgt werden, indem derartige Helligkeitsdifferenzen zwischen den Rahmen erfasst werden.
  • Im Schritt 113 werden daraufhin verbundene Bereiche in den binären Bilddaten nummeriert (gekennzeichnet). Durch eine Kennzeichnung kann die Fläche oder der Schwerpunkt eines (später beschriebenen) verbundenen Bereichs für das jeweilige Kennzeichen extrahiert werden. Durch Kennzeichnung können ferner mehrere sich bewegende Objekte unterschieden werden. Wie es in 12 gezeigt ist, kann in diesem Beispiel ein X-Y-Koordinatensystem, bei dem die obere linke Ecke ein Ursprung ist, als ein Koordinatensystem für das Allrichtungsbild 21 in einem VGA-Bildschirm mit 640 × 480 Bildpunkten (der Bildschirm 20) verwendet werden.
  • In Schritt 114 wird daraufhin die Fläche (die Anzahl von Bildpunkten) von jedem gekennzeichneten verbundenen Bereich berechnet. Im Schritt 115 wird ermittelt, ob die Fläche größer oder gleich einem Schwellenwert ist. Wenn die Fläche kleiner als der Schwellenwert ist, wird der gekennzeichnete verbunden Bereich als Rauschen bestimmt. Folglich ist der Verfahrensablauf der Erfindung stabil gegenüber Rauschen.
  • Im Schritt 116 werden die extrahierten Flächen nach kleiner werdender Größe sortiert. Im Schritt 117 werden die baryzentrischen Koordinaten für jede der n größten Flächen berechnet. Die baryzentrischen Koordinaten des jeweiligen verbundenen Bereichs, der im Schritt 113 gekennzeichnet wurde, werden durch ein Moment erster Ordnung berechnet, das für den verbundenen Bereich berechnet wurde, der durch die Fläche geteilt wurde (Moment 0-ter Ordnung).
  • Daraufhin werden in Schritt 118 die n Sätze von baryzentrischen Koordinaten in einem gegenwärtigen Rahmen, die im Schritt 117 extrahiert wurden, und die n Sätze von baryzentrischen Koordinaten in einem vorherigen Rahmen identifiziert, wodurch sich bewegende Objekte erfasst werden und jedes sich bewegende Objekt verfolgt wird.
  • Auf diese Weise können sich bewegende Objekte erfasst und deren baryzentrische Koordinaten berechnet werden. Folglich werden im Schritt 119 anhand der baryzentrischen Koordinaten ein Radius und ein Winkel des jeweiligen sich bewegenden Objekts in einem Polarkoordinatensystem berechnet. Im Schritt 120 wird daraufhin das Allrichtungsbild eines gegenwärtigen Rahmens in ein Panoramabild umgesetzt. Im Schritt 121 wird das Allrichtungsbild eines gegenwärtigen Rahmens in ein perspektivisches Projektionsbild umgesetzt. Wenn die Panoramaumsetzung ausgeführt worden ist, wird ferner im Schritt 120 einem sich bewegenden Objekt, das im Schritt 119 erfasst wurde, ein Markierer zugewiesen. Indem ein Markierer einem sich bewegenden Objekt zugewiesen wird, können folglich mehrere sich bewegende Objekte in einem Allrichtungsbild ohne Schwierigkeit verfolgt werden.
  • In dem Ablauf zum Erfassen eines sich bewegenden Objekts von Schritt 110 bis Schritt 119 können lediglich G-Daten der RGB-Daten verwendet werden, um so beispielsweise die Erfassungsverarbeitung von sich bewegenden Objekten zu beschleunigen. In Schritt 120 und 121 werden alle RGB-Daten verwendet, um so ein Farbbild zu verarbeiten.
  • Folglich werden sich bewegende Objekte von Allrichtungs-Bilddaten in einem gegenwärtigen Rahmen erfasst, und die Allrichtungs-Bilddaten können zu Panoramabilddaten und zu perspektivischen Projektionsbilddaten umgesetzt werden, die Markierer haben. Die umgesetzten Bilddaten werden in dem Speicher 77a des Personalcomputers 77 gespeichert und an die Anzeige 78 übertragen, auf der die Bilddaten dargestellt werden (9 und 10). Nach dem zuvor beschriebenen Verfahren wird ein nächstes Allrichtungsbild eingefangen und nachfolgende Rahmendaten werden verarbeitet, so dass ein sich bewegendes Bild angezeigt werden kann.
  • Nachfolgend werden Verfahren zum Umsetzen eines Allrichtungsbildes in ein Panoramabild und in ein perspektivisches Projektionsbild in Schritt 120 und 121 beschrieben. Algorithmen für eine Panoramaumsetzung und für eine perspektivische Projektionsumsetzung werden beispielsweise in der japanischen Offenlegungsschrift Nr. 6-295333 beschrieben.
  • Zuerst wird anhand 13A und 13B eine Panoramaumsetzung beschrieben. Wie es in der japanischen Offenlegungsschrift Nr. 6-295333 offenbart wurde, kann ein Objekt P (Bildpunkt), das durch Koordinaten (x, y) auf einem in 13A gezeigten Bildschirm 130 dargestellt wird, auf einen in 13B gezeigten Panoramabildschirm projiziert werden, indem ein Radius r und ein Winkel θ des Objekts P in einem Allrichtungsbild 131 berechnet werden, wobei die Koordinaten des Mittelpunkts des Allrichtungsbilds 131 (Cx, Cy) sind. Es ist jedoch sehr zeitaufwändig, einen derartigen Umsetzungsvorgang für jeden Bildpunkt durchzuführen. Folglich werden in diesem Beispiel die Koordinaten in dem Allrichtungsbild 131, die anhand des Koordinatensystems des Panoramabildes 132 entsprechend allen Bildpunkten in dem Panoramabild 132 berechnet wurden, im Voraus als eine Tabelle 86 (8) erstellt, und eine Panoramaumsetzung wird ausgeführt, indem lediglich auf die Tabelle 86 verwiesen wird. Die Tabelle 86 ist beispielsweise in dem Bildspeicher 81 gespeichert.
  • Insbesondere wird ein Bildpunkt, der in dem Panoramabild 132 als (r, θ) bezeichnet wird, in dem Allrichtungsbild 131 durch (x, y) dargestellt, d. h., x = Cx + r × cosθ (3) y = Cy + r × sinθ (4).
  • In der Tabelle 86 sind für den Radius r und für den Winkel θ von jedem Bildpunkt in dem Panoramabild 132 eine entsprechende x-Koordinate im Voraus in Übereinstimmung mit Formel (3) berechnet und eine entsprechende y-Koordinate ist im Voraus in Übereinstimmung mit der Formel (4) berechnet worden. Diese x- und y-Koordinaten sind in entsprechenden Tabellen tbx und tby gespeichert. In diesem Fall geht der Winkel θ von 0° bis 360° in 1/100°-Schritten und der Radius r geht von 0 Bildpunkten bis zu 160 Bildpunkten. Folglich beträgt die Größe des Panoramabildes 101 160 Bildpunkte in einer Längsrichtung, wie es in 10 gezeigt ist.
  • Es wird angemerkt, dass ein Schwenkvorgang in dem Panoramabild 132 durchgeführt werden kann, indem ein Versatz (offset) zu jeden Winkel θ addiert wird, wenn die Tabelle erstellt wird. Folglich kann ein derartiger Schwenkvorgang in den Panoramabild 132 durch Bildverarbeitung bei hoher Geschwindigkeit durchgeführt werden. Da der Radius und der Winkel eines sich bewegenden Objekts in Schritt 119 (11) ermittelt werden, wird für einen Vorgang des Hinzufügens eines Markierers ein Markierer anhand derartiger Informationen bei einem entsprechenden Abschnitt in einem Panoramabild angezeigt (hinzugefügt).
  • Nachfolgend wird eine perspektivische Projektionsumsetzung anhand 14A und 14B beschrieben. Beispielsweise wird ein Sektorabschnitt, der in einem Allrichtungsbild 141 auf einem in 14A gezeigten Bildschirm 140 von A, B, C und D umgeben ist, einer perspektivischen Projektionsumsetzung unterzogen. Es werden ein Radius r und eine Winkel θ eines Objekts P (Bildpunkt) ermittelt, das in Bezug auf die Koordinate des Mittelpunkts (Cx, Cy) des Allrichtungsbildes 141 als Koordinaten (x, y) bezeichnet wird. Dadurch wird der Sektorabschnitt als ein perspektivisches Projektionsbild 143 auf ein Panoramabild 142 projiziert, wie es in 14B gezeigt ist. Einen derartigen Umsetzungsvorgang für jeden Bildpunkt durchzuführen, ist jedoch zeitaufwändig. Wie es zuvor für die Panoramaumsetzung beschrieben wurde, werden folglich in diesem Beispiel die Koordinaten in dem Allrichtungsbild 141, die allen Bildpunkten in dem Panoramabild 142 entsprechen, im Voraus als die Tabelle 86 (8) erstellt, und eine perspektivische Projektionsumsetzung wird ausgeführt, indem lediglich auf die Tabelle 86 verwiesen wird.
  • Wie es in 15 gezeigt ist, wird insbesondere angenommen, dass es eine perspektivische Projektionsebene 156 gibt, die ein Objekt P in einem dreidimensionalen Raum enthält, wobei die Koordinaten des Objekts P (Tx, Ty, Tz) sind. Es wird außerdem angenommen, dass ein Bild des Objekts P in einem Allrichtungsbild 141 auf einer Bildeinfangebene 154 der Videokamera 73 (7) gesehen wird. In diesem Fall werden die Polarkoordinaten (r, θ) des Objekts P (Bildpunkt) in dem Allrichtungsbild 141 auf der perspektivischen Projektionsebene 156 unter Verwendung der Tabelle 86 erhalten. Unter Bezug auf die zuvor beschriebene x-Koordinatentabelle tbx und auf die y-Koordinatentabelle tby werden daraufhin Koordinaten (x, y) in dem Allrichtungsbild 141 erhalten, wodurch es möglich wird, eine perspektivische Projektionsumsetzung durchzuführen.
  • Insbesondere wird ein Bildpunkt, der in dem perspektivischen Projektionsbild 143 (14B) durch die Koordinaten (r, θ) dargestellt wird, unter Verwendung der Formeln (3) und (4) in Koordinaten (x, y) in dem Allrichtungsbild 141 umgesetzt. Wie es in 15 gezeigt ist, werden der Radius r und der Winkel θ in dem perspektivischen Projektionsbild 143 dargestellt durch: α = arctan(Tz/sqrt(Tx2 + Ty2)) (5) β = arctan(((b2 + c2) × sinα – 2 × b × c)/(b2 – c2) × cosα) (6),wobei die dreidimensionalen Koordinaten des Objekts P (Tx, Ty, Tz) sind, ein Winkel des Objekts P von einem ersten Brennpunkt 152 eines Hyperboloidspiegels 150 aus in Bezug auf eine Tx-Achse α ist, ein Winkel des auf den Hyperboloidspiegel 150 projizierten Objekts P von dem Mittelpunkt einer Kameralinse 151 der Videokamera 151 aus in Bezug auf die Tx-Achse β ist, sowie a, b und c numerische Werte sind, die die Form des Hyperboloidspiegels 150 bestimmen und die Formeln (1) und (2) erfüllt. Der Radius r und der Winkel θ erfüllen außerdem θ = –arctan(Ty/Tx) (7) r = F × tan((π/2) – β) (8),wobei F die Brennweite der Kameralinse 151 ist.
  • Ein Radius r und ein Winkel θ werden im Voraus für einen Satz von Koordinaten (Tx, Ty, Tz) entsprechend dem jeweiligen Bildpunkt auf der perspektivischen Projektionsebene 156 in Übereinstimmung mit den Formeln (7) und (8) berechnet, um eine θ-Koordinatentabelle tbθ und eine r-Koordinatentabelle tbr als einen Abschnitt der Tabelle 86 zu erstellen. In diesem Beispiel beträgt die Größe der perspektivischen Projektionsebene 156 beispielsweise 120 × 120 Bildpunkte, wie es zuvor beschrieben wurde. Folglich entspricht diese Größe dem Betrachtungswinkel, der erhalten wird, wenn angenommen wird, dass die Videokamera 73 bei dem ersten Brennpunkt 152 des Hyperboloidspiegels 150 angeordnet ist.
  • Folglich kann jeder Bildpunkt auf der perspektivischen Projektionsebene 156 in Polarkoordinaten (r, θ) auf dem Allrichtungsbild 141 umgesetzt werden, indem lediglich auf die Tabelle tbθ und auf die Tabelle tbr verwiesen wird. Daraufhin werden die Polarkoordinaten (r, θ) zu Koordinaten (x, y) auf dem Allrichtungsbild 141 umgesetzt, indem lediglich auf die Tabelle tbx und die Tabelle tby verwiesen wird.
  • Ein Schwenkvorgang kann in dem perspektivischen Projektionsbild 143 durchgeführt werden, indem wie bei dem Panoramabild 142 zu einem Winkel θ ein Versatz (offset) addiert wird, wenn die Tabelle tbθ erzeugt wird. Ein Neigungsvorgang kann in dem perspektivischen Projektionsbild 143 ebenfalls durchgeführt werden, indem eine besondere Tabelle tbtr eines Radius r erstellt wird. Die Neigungstabelle tbtr listet einen durch die Formeln (6) und (8) erhaltenen Radius in Bezug auf einen Winkel α auf, der durch einen Neigungswinkel erhalten wird. Folglich können ein Schwenkvorgang und ein Neigungsvorgang des perspektivischen Projektionsbilds 143 durch Bildverarbeitung bei hoher Geschwindigkeit durchgeführt werden.
  • Wie es zuvor beschrieben wurde, werden in diesem Beispiel die Abläufe in den Schritten 110 bis 114 und im Schritt 117 von 11 unter Verwendung von Funktionen durchgeführt, die in einer Bildverarbeitungs-Bibliothek enthalten sind, die in einer Bildverarbeitungskarte enthalten ist. Die Erfassung eines sich bewegenden Objekts wird durchgeführt, indem lediglich G-Daten von RGB-Daten verwendet werden. Ein Allrichtungsbild wird unter Verwendung von mehreren im Voraus erstellen Tabellen in ein Panoramabild oder in ein perspektivisches Projektionsbild umgesetzt. Folglich kann eine Verarbeitung eines sich bewegenden Bildes mit einer Geschwindigkeit von 10 Rahmen pro Sekunde in diesem Beispiel erzielt werden. Um eine Verarbeitung eines sich bewegenden Bildes mit einer Geschwindigkeit von beispielsweise 30 Rahmen pro Sekunde zu erzielen, ist eine Bildverarbeitungskarte mit einer Verarbeitungsgeschwindigkeit erforderlich, die ein Dreifaches von jener der zuvor beschriebenen Bildverarbeitungskarte beträgt. Die Abläufe in den Schritten 115, 116, 118 und 119 können von einer Zentraleinheit (CPU) eines Personalcomputers anstelle einer Bildverarbeitungskarte durchgeführt werden.
  • Gemäß der Erfindung werden, wie es zuvor beschrieben wurde, ein optisches System mit einem Hyperboloidspiegel und mit einer stationären Kamera anstelle eines mechanischen Antriebsabschnitts verwendet. Folglich ist während eines Langzeitbetriebs im Wesentlichen keine Instandhaltung erforderlich, und ein sehr zuverlässiger und stabiler Betrieb kann verwirklicht werden. Ferner ist lediglich eine Kamera erforderlich, was eine kostengünstige Vorrichtung zum Verfolgen eines sich bewegenden Objekts zur Folge hat. Ferner können Gesichtsfeldinformationen in der 360°-Umgebung gleichzeitig eingefangen werden. Folglich ist ein Verlieren einer Spur eines sich bewegenden Objekts unwahrscheinlich, und es ist außerdem möglich, ein sich bewegendes Objekt zu verfolgen, das sich um die Kamera bewegt.
  • Ein Allrichtungsbild, das unter Verwendung eines Hyperboloidspiegels in einem optischen System erhalten wurde, kann in ein Panoramabild umgesetzt werden, um so einfach betrachtet werden zu können, oder in ein perspektivisches Projektionsbild, um ein im Wesentlichen verzerrungsfreies Bild zu erhalten. Folglich kann die Erkennungsgenauigkeit eines sich bewegenden Objekts verbessert werden. Die Vorrichtung zum Verfolgen eines sich bewegenden Objekts der Erfindung kann bei verschiedenen Anwendungen verwendet werden, etwa bei einer Innen- oder Außenraum-Überwachungsvorrichtung, in einem beweglichen Roboter und in einem Fahrzeug.
  • Eine Erfassung und Verfolgung eines sich bewegenden Objekts kann durch die zuvor beschriebenen einfachen Algorithmen realisiert werden. Die Abwandlung eines Betrachtungswinkels wie etwa Schwenken oder Neigen kann durchgeführt werden. Ferner ist eine komplizierte Schaltung zur Steuerung der Bewegungen einer Kamera wie in der herkömmlichen Technologie nicht erforderlich. Folglich kann das gesamte System einfach gehalten werden. Eine Vorrichtung zum Verfolgen eines sich bewegenden Objekts, die mit beweglichen Farbbildern umgehen kann, kann auch klein gehalten werden.
  • Gemäß der Erfindung wird eine Bildinformationsverarbeitung unter Verwendung einer Umsetzungstabelle durchgeführt, die zuvor in Abhängigkeit von der Auflösung eines eingefangenen Bildes erstellt wurde, wodurch eine Bildinformationsverarbeitung beschleunigt wird. Ferner können sich bewegende Farbbilder bei hoher Geschwindigkeit verarbeitet werden, indem lediglich eine Farbdatenart der RGB-Daten einer Bildverarbeitung unterzogen wird.
  • Verschiedene weitere Abwandlungen gehen für einen Fachmann auf dem Gebiet hervor und können leicht von diesem durchgeführt werden, ohne den Umfang dieser Erfindung zu verlassen und vom Erfindungsgedanken abzuweichen. Entsprechend ist es nicht beabsichtigt, dass der Umfang der hier beigefügten Ansprüche auf die hier dargelegte Beschreibung beschränkt ist, sondern dass die Ansprüche breit ausgelegt werden.

Claims (7)

  1. Vorrichtung zum Verfolgen eines sich bewegenden Objekts, um ein oder mehrere sich bewegende Objekte (33, 34) in einer Umgebung zu erfassen und zu verfolgen, mit: einem optischen System, das einen Hyperboloidspiegel (10; 70) aufweist, um Gesichtsfeldinformationen in einer 360°-Umgebung einzufangen; einer stationären Kamera (11; 73) zum Umsetzen der eingefangenen Gesichtsfeldinformationen in Bildinformationen; und einem Informationsverarbeitungsabschnitt (14; 90) zum Verarbeiten der Bildinformationen, um so das eine oder die mehreren sich bewegenden Objekte anhand der Bildinformationen zu erfassen; wobei die Vorrichtung eine einzige Kamera besitzt, die die stationäre Kamera ist, und der Informationsverarbeitungsabschnitt so beschaffen ist, dass er die Bildinformationen von der einzigen stationären Kamera verarbeitet, um so das eine oder die mehreren sich bewegenden Objekte zu verfolgen, wobei der Informationsverarbeitungsabschnitt einen jeweiligen Markierer für das entsprechende eine oder die entsprechenden mehreren sich bewegenden Objekte nur dann bereitstellt, wenn die Größe des einen oder der mehreren sich bewegenden Objekte oberhalb eines vorgegebenen Schwellenwerts liegt.
  2. Vorrichtung zum Verfolgen eines sich bewegenden Objekts nach Anspruch 1, bei der: die Bildinformationen Allrichtungs-Bildinformationen enthalten; und der Informationsverarbeitungsabschnitt wenigstens einen Teil der Allrichtungs-Bildinformationen in Panorama-Bildinformationen umsetzt.
  3. Vorrichtung zum Verfolgen eines sich bewegenden Objekts nach einem vorhergehenden Anspruch, bei der: die Bildinformationen Allrichtungs-Bildinformationen enthalten; und der Informationsverarbeitungsabschnitt wenigstens einen Teil der Allrichtungs-Bildinformationen in Bildinformationen einer perspektivischen Projektion umsetzt.
  4. Vorrichtung zum Verfolgen eines sich bewegenden Objekts nach einem vorhergehenden Anspruch, bei der der Informationsverarbeitungsabschnitt die Bildinformationen unter Verwendung einer im Voraus erstellten Tabelle (86) verarbeitet.
  5. Vorrichtung zum Verfolgen eines sich bewegenden Objekts nach einem vorhergehenden Anspruch, bei der der Informationsverarbeitungsabschnitt die Bildinformationen unter Verwendung lediglich eines Datentyps von RGB-Daten in den Bildinformationen verarbeitet.
  6. Vorrichtung zum Verfolgen eines sich bewegenden Objekts nach einem vorhergehenden Anspruch, bei der der Informationsverarbeitungsabschnitt das eine oder die mehreren sich bewegenden Objekte anhand einer Helligkeitsdifferenz zwischen vorgegebenen Rahmeninformationen und Rahmeninformationen, die den vorgegebenen Rahmeninformationen der Bildinformationen vorhergehen, erfasst.
  7. Verfahren, das die folgenden Schritte enthält: Einfangen von Bildinformationen aus einem 360°-Gesichtsfeld mittels eines Hyperboloidspiegels (10; 70); Verarbeiten der eingefangenen Informationen, um ein oder mehrere Objekte in dem Gesichtsfeld zu erfassen, und Verfolgen des einen oder der mehreren Objekte, wobei sowohl die Objekterfassung als auch die Objektverfolgung unter Verwendung einer einzigen stationären Kamera ausgeführt wird, die die Bildinformationen von dem Hyperboloidspiegel einfängt, indem die eingefangenen Informationen verarbeitet werden und jedem erfassten sich bewegenden Objekt ein Markierer zugewiesen wird, falls das sich bewegende Objekt eine Größe oberhalb eines vorgegebenen Schwellenwerts besitzt.
DE60123534T 2000-08-17 2001-08-08 Gerät zum Verfolgen eines sich bewegenden Objekts Expired - Lifetime DE60123534T2 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2000247885A JP2002064812A (ja) 2000-08-17 2000-08-17 移動物体追尾装置
JP2000247885 2000-08-17

Publications (2)

Publication Number Publication Date
DE60123534D1 DE60123534D1 (de) 2006-11-16
DE60123534T2 true DE60123534T2 (de) 2007-06-06

Family

ID=18737887

Family Applications (1)

Application Number Title Priority Date Filing Date
DE60123534T Expired - Lifetime DE60123534T2 (de) 2000-08-17 2001-08-08 Gerät zum Verfolgen eines sich bewegenden Objekts

Country Status (4)

Country Link
US (1) US20020024599A1 (de)
EP (1) EP1182465B1 (de)
JP (1) JP2002064812A (de)
DE (1) DE60123534T2 (de)

Families Citing this family (31)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4211292B2 (ja) 2002-06-03 2009-01-21 ソニー株式会社 画像処理装置および画像処理方法、プログラム並びにプログラム記録媒体
JP4614653B2 (ja) * 2003-12-12 2011-01-19 ソニー株式会社 監視装置
JP4587166B2 (ja) * 2004-09-14 2010-11-24 キヤノン株式会社 移動体追跡システム、撮影装置及び撮影方法
TWI258682B (en) * 2005-05-06 2006-07-21 Sunplus Technology Co Ltd Interactive video game system
KR100715026B1 (ko) 2005-05-26 2007-05-09 한국과학기술원 단일카메라 전방향 양안시 영상 획득 장치
JP4685561B2 (ja) * 2005-09-12 2011-05-18 株式会社日立国際電気 カメラシステムの表示方法及びカメラシステム
US20070152157A1 (en) * 2005-11-04 2007-07-05 Raydon Corporation Simulation arena entity tracking system
US7542671B2 (en) * 2006-06-30 2009-06-02 Opt Corporation Omni directional photographing device
US20080049099A1 (en) * 2006-08-25 2008-02-28 Imay Software Co., Ltd. Entire-view video image process system and method thereof
US8072482B2 (en) 2006-11-09 2011-12-06 Innovative Signal Anlysis Imaging system having a rotatable image-directing device
TWI398819B (zh) * 2007-02-14 2013-06-11 Chung Shan Inst Of Science Fast target tracking device
JP4288428B2 (ja) * 2007-03-15 2009-07-01 日本電気株式会社 映像解析システムおよび映像解析方法
US20080306708A1 (en) * 2007-06-05 2008-12-11 Raydon Corporation System and method for orientation and location calibration for image sensors
JP5469894B2 (ja) * 2008-07-05 2014-04-16 株式会社トプコン 測量装置及び自動追尾方法
US9092951B2 (en) * 2008-10-01 2015-07-28 Ncr Corporation Surveillance camera assembly for a checkout system
IL194701A (en) * 2008-10-12 2012-08-30 Rafael Advanced Defense Sys Method and system for displaying a panoramic view to an operator
JP5469899B2 (ja) * 2009-03-31 2014-04-16 株式会社トプコン 自動追尾方法及び測量装置
US9430923B2 (en) 2009-11-30 2016-08-30 Innovative Signal Analysis, Inc. Moving object detection, tracking, and displaying systems
US8675090B2 (en) * 2010-12-15 2014-03-18 Panasonic Corporation Image generating apparatus, image generating method, and recording medium
US8947524B2 (en) 2011-03-10 2015-02-03 King Abdulaziz City For Science And Technology Method of predicting a trajectory of an asteroid
JP5906028B2 (ja) 2011-06-22 2016-04-20 キヤノン株式会社 画像処理装置、画像処理方法
CN102895093A (zh) * 2011-12-13 2013-01-30 冷春涛 一种基于rgb-d传感器的助行机器人跟踪系统及方法
JP5896781B2 (ja) * 2012-02-29 2016-03-30 キヤノン株式会社 画像処理装置および画像処理方法
CN103248806A (zh) * 2013-04-26 2013-08-14 黑龙江科技学院 单摄像机实现空间360度环形全景和局部精确成像装置
US10474921B2 (en) 2013-06-14 2019-11-12 Qualcomm Incorporated Tracker assisted image capture
US10139819B2 (en) 2014-08-22 2018-11-27 Innovative Signal Analysis, Inc. Video enabled inspection using unmanned aerial vehicles
KR102676837B1 (ko) 2016-12-16 2024-06-21 삼성전자주식회사 디스플레이장치 및 그 제어방법
CN106961597B (zh) * 2017-03-14 2019-07-26 深圳Tcl新技术有限公司 全景视频的目标追踪显示方法及装置
JP6894398B2 (ja) * 2018-03-28 2021-06-30 Kddi株式会社 オブジェクト追跡装置、オブジェクト追跡方法、及びオブジェクト追跡プログラム
CN111882578A (zh) * 2019-07-19 2020-11-03 广州虎牙科技有限公司 前景图像获取方法、前景图像获取装置和电子设备
JP7472553B2 (ja) * 2020-03-09 2024-04-23 株式会社リコー 画像処理システム、情報処理装置および方法

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
ATE199603T1 (de) * 1993-08-25 2001-03-15 Univ Australian Weitwinkliges, abbildendes system
KR100235344B1 (ko) * 1994-12-29 1999-12-15 전주범 영역 분할 부호화 방식의 전경/배경 화상 선택 장치
US5953449A (en) * 1996-03-15 1999-09-14 Kabushiki Kaisha Toshiba Measuring apparatus and measuring method
US6226035B1 (en) * 1998-03-04 2001-05-01 Cyclo Vision Technologies, Inc. Adjustable imaging system with wide angle capability
US6215519B1 (en) * 1998-03-04 2001-04-10 The Trustees Of Columbia University In The City Of New York Combined wide angle and narrow angle imaging system and method for surveillance and monitoring
US6304285B1 (en) * 1998-06-16 2001-10-16 Zheng Jason Geng Method and apparatus for omnidirectional imaging

Also Published As

Publication number Publication date
EP1182465A3 (de) 2004-02-04
DE60123534D1 (de) 2006-11-16
EP1182465B1 (de) 2006-10-04
JP2002064812A (ja) 2002-02-28
EP1182465A2 (de) 2002-02-27
US20020024599A1 (en) 2002-02-28

Similar Documents

Publication Publication Date Title
DE60123534T2 (de) Gerät zum Verfolgen eines sich bewegenden Objekts
DE69624550T2 (de) Gerät und Verfahren zur Extraktion von dreidimensionalen Formen
DE69520329T2 (de) Kamerasteuervorrichtung und -Verfahren
DE112005000929B4 (de) Automatisches Abbildungsverfahren und Vorrichtung
DE69232663T2 (de) Rundumsichtausrichtungssystem mit bewegungsloser kamera
DE10251880B4 (de) Bilderkennungsvorrichtung
DE69428686T2 (de) Bildaufnahmevorrichtung und verfahren zur bestimmung von fokusinformationen
DE69831181T2 (de) Positionsbestimmung
DE60301026T2 (de) System zur Untersuchung von stereoskopischen Bildmerkmalen
DE69624980T2 (de) Objektüberwachungsverfahren und -gerät mit zwei oder mehreren Kameras
DE102006055758B4 (de) Verfahren zur Kalibrierung von Kameras und Projektoren
DE60310145T2 (de) Rundum-Beobachtungssystem und -verfahren
DE102016120954A1 (de) Abbildungseinrichtung und Abbildungsverfahren
EP1583022A2 (de) Verfahren und Anordnung zur Aufnahme interessierender Bereiche von beweglichen Objekten
DE112010004767T5 (de) Punktwolkedaten-Verarbeitungsvorrichtung, Punktwolkedaten-Verarbeitungsverfahren und Punktwolkedaten-Verarbeitungsprogramm
DE10296593T5 (de) Fahrunterstützungsvorrichtung
DE102008016215A1 (de) Informationsvorrichtungsbediengerät
DE60305084T2 (de) Kamera für Überwachungssystem
DE102013220669A1 (de) Dynamische Rückspiegelanzeigemerkmale
DE60201849T2 (de) Abbildungssystem, Programm zur Kontrolle der Bilddaten dieses Systems, Verfahren zur Korrektur von Verzerrungen von aufgenommenen Bildern dieses Systems und Aufzeichnungsmedium zur Speicherung von diesem Verfahren
DE102004033114A1 (de) Verfahren zur Kalibrierung eines Abstandsbildsensors
DE112012003685T5 (de) Bildverarbeitungsvorrichtung und Bildverarbeitungsverfahren
EP3136711A1 (de) Verfahren zur erzeugung und auswertung eines bilds
DE19511713A1 (de) Verfahren und Vorrichtung zur automatischen Bildaufnahme von Gesichtern
AT518895B1 (de) Biegemaschine mit einer Arbeitsbereich-Bilderfassungsvorrichtung

Legal Events

Date Code Title Description
8364 No opposition during term of opposition