DE60034555T2 - System zur objekterkennung und -verfolgung - Google Patents

System zur objekterkennung und -verfolgung Download PDF

Info

Publication number
DE60034555T2
DE60034555T2 DE60034555T DE60034555T DE60034555T2 DE 60034555 T2 DE60034555 T2 DE 60034555T2 DE 60034555 T DE60034555 T DE 60034555T DE 60034555 T DE60034555 T DE 60034555T DE 60034555 T2 DE60034555 T2 DE 60034555T2
Authority
DE
Germany
Prior art keywords
detector
tracking system
type
object recognition
recognition
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
DE60034555T
Other languages
English (en)
Other versions
DE60034555D1 (de
Inventor
Peter Geoffrey Rose Park COHEN
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beonic Corp Pty Ltd
Original Assignee
Beonic Corp Pty Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beonic Corp Pty Ltd filed Critical Beonic Corp Pty Ltd
Application granted granted Critical
Publication of DE60034555D1 publication Critical patent/DE60034555D1/de
Publication of DE60034555T2 publication Critical patent/DE60034555T2/de
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/66Radar-tracking systems; Analogous systems
    • G01S13/70Radar-tracking systems; Analogous systems for range tracking only
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/02Systems using reflection of radio waves, e.g. primary radar systems; Analogous systems
    • G01S13/04Systems determining presence of a target
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/66Radar-tracking systems; Analogous systems
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/87Combinations of radar systems, e.g. primary radar and secondary radar
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/89Radar or analogous systems specially adapted for specific applications for mapping or imaging
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/02Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
    • G01S7/40Means for monitoring or calibrating
    • G01S7/4004Means for monitoring or calibrating of parts of a radar system
    • G01S7/4008Means for monitoring or calibrating of parts of a radar system of transmitters
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/255Detecting or recognising potential candidate objects based on visual cues, e.g. shapes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • G06V20/54Surveillance or monitoring of activities, e.g. for recognising suspicious objects of traffic, e.g. cars on the road, trains or boats
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/62Extraction of image or video features relating to a temporal dimension, e.g. time-based feature extraction; Pattern tracking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/08Detecting or categorising vehicles

Description

  • GEBIET DER ERFINDUNG
  • Die vorliegende Erfindung betrifft ein Objekterkennungs- und -verfolgungssystem.
  • HINTERGRUND DER ERFINDUNG
  • Systeme zum Zählen von Objekten wie Menschen, die einen Gang beispielsweise in einem Shopping-Center entlang gehen, wurden bereits vorgeschlagen, doch eignen sich solche Systeme nicht zur Erkennung oder Unterscheidung von bestimmten oder verschiedenen Arten von Objekten und ihrer Position und zur Verfolgung solcher Objekte über die Zeit.
  • Die veröffentlichte Internationale Patentanmeldung Nr. WO 98/08208 offenbart ein System zur Überwachung des Verkehrsflusses, insbesondere des Fußgängerverkehrs, durch einen Bereich mit einer einzigen Überkopf-Videokamera.
  • Die US-PS 5,809,161 offenbart ein System zur Überwachung des Fortkommens von Fahrzeugen auf Fahrbahnen. Dieses System sieht mehrere Kameras an verschiedenen Stellen vor, die durch Fernmeldeleitungen derart miteinander verbunden sind, dass sie einen Austausch von gesammelten Informationen (einschließlich Fahrzeugidentifikationsinformationen, Datum, Zeit und Ort, an dem ein Bild gemacht wurde) gestatten.
  • Ziel der vorliegenden Erfindung ist die Schaffung eines Objekterkennungs- und -verfolgungssystems.
  • KURZE BESCHREIBUNG DER ERFINDUNG
  • Die Erfindung ist ein Objekterkennungs- und -verfolgungssystem mit mehreren Detektoranordnungen, wobei die oder jede Detektoranordnung einen ersten Detektortyp und einen zweiten Detektortyp aufweist, der erste Detektortyp zum Nachweis der Anwesenheit eines Objekts in einem von mehreren Überwachungsräumen und zur Bestimmung der Position des Objekts angepasst ist, der zweite Detektortyp zur Verwendung der bestimmten Objektposition zur Identifizierung oder Erkennung des Objekts oder zur Zählung oder zur Aufzeichnung der Anwesenheit des Objekts angepasst ist, wenn dieses von einem ausgewählten Typ ist, und mit Mitteln zum Verfolgen des bestimmten Objekts im Überwachungsraum, wobei das Objekterkennungs- und -verfolgungssystem Mittel zur Kommunikation zwischen benachbarten Detektoranordnungen zur Übergabe der Verfolgung eines bestimmten Objekts von einem Überwachungsraum zu einem benachbarten Überwachungsraum aufweist, wobei der eine Überwachungsraum dem anderen Überwachungsraum Informationen darüber liefert, dass ein Objekt an einer bestimmten Stelle eintritt.
  • Durch diese Kommunikationsmittel kann das System sich bewegende Objekte eines bestimmten Typs innerhalb eines viel größeren Bereichs als in einem Raum mit einem einzigen Detektor verfolgen. Das könnte beispielsweise dann von Nutzen sein, wenn der Bedarf besteht, Objekte überall in einem Shopping-Center sowie in einzelnen Überwachungsräumen wie einem Ausstellungsbereich zu verfolgen.
  • Die Anwesenheit eines Objekts wie durch den ersten Detektor bestimmt kann durch eine Veränderung der Kontrastgrenzen oder durch eine Veränderung des Musters oder durch eine Bewegung und somit zum Nachweis von sich innerhalb des Überwachungsraums bewegenden Objekten festgestellt werden.
  • Die Detektoren können zur Verwendung eines Teils des elektromagnetischen Spektrums, ausgewählt aus Radar, Mikrowelle, Hochfrequenz, Infrarot, Mikrowelle, Millimeterwelle, Licht oder einem anderen Teil des elektromagnetischen Spektrums, oder zur Verwendung eines Sonar- oder irgendeines anderen Detektionssystems geeignet sein.
  • Der erste und der zweite Detektortyp können vom selben Typ oder von unterschiedlichen Typen sein. So kann der erste Detektortyp ein Videosystem mit niedriger Auflösung und der zweite Detektortyp ein Hochfrequenzüberwachungssystem sein.
  • Sind der erste Detektor und der zweite Detektor tatsächlich gleiche Detektoren, kann der zweite Detektor mit einer höheren Auflösung als der erste Detektor arbeiten oder von einem bestimmten Identifikationstyp sein.
  • In einer bevorzugten Ausführungsform der Erfindung kann der erste Detektortyp vom Typ Insektenauge sein. Das heißt, ein Detektor, der Kontrastveränderungen zwischen benachbarten Pixels in einem Verkaufsraum feststellen kann und nicht die Gegenstände absolut identifiziert. In einer solchen Ausführungsform der Erfindung kann der zweite Detektortyp ein Digitalsignalprozessor-Detektor wie ein digitaler Videodetektor sein. Dann liegt die Funktion des ersten Detektortyps darin, einen bestimmten interessierenden Bereich innerhalb eines Überwachungsraums zu identifizieren, und der Digitalsignalprozessor-Detektor braucht dann nur das Objekt zu identifizieren, indem er den bestimmten Bereich des Raums betrachtet und nicht ein komplettes Videobild des Überwachungsraums verarbeitet. Dadurch wird erheblich weniger Verarbeitungsenergie benötigt, und es kann eine bessere Leistung erzielt werden.
  • Der erste und der zweite Detektor könnten eine einzige Vorrichtung sein, wobei der zweite Detektor als zweite Stufe des Prozesses fungiert.
  • Somit können in einer alternativen Ausführungsform der Erfindung der erste und der zweite Detektortyp durch einen einzigen Videodetektor gebildet sind, dessen Beobachtungsbild auf zwei verschiedene Arten verarbeitet wird. Auf eine erste Art kann das Beobachtungsbild digitalisiert und in aufeinanderfolgenden Speicherplätzen abgespeichert werden, und dann können sequenzielle Bilder gescannt werden, um Veränderungen des digitalisierten Bilds über aufeinanderfolgende Rahmen nachzuweisen, die eine sich bewegende Kontrastgrenze anzeigen würden. Dadurch wird ein sich bewegendes Objekt im Überwachungsraum definiert, und dasselbe digitale Bild kann dann in diesem speziellen Bereich des Überwachungsraums vom zweiten Detektortyp analysiert werden. Der zweite Detektortyp könnte die nachfolgenden oder vorhergehenden Rahmen verwenden, um die Erkennung oder das Ergebnis in Bezug auf das interessierende Objekt zu verbessern.
  • Wenn der Erkennungsprozess keine vorherbestimmten oder künstlich erlernten Zuverlässigkeitsschwellenwerte erreicht, dann könnten weiters gespeicherte oder heruntergeladene Algorithmen in einem interaktiven Prozess so lange verwendet werden, bis bessere Ergebnisse erzielt werden.
  • Während der erste Detektortyp zur Identifikation eines interessierenden Objekts verwendet wird, wird der zweite Detektortyp für Erkennungszwecke eingesetzt. Jedes Objekt besitzt eine Anzahl von Merkmalen wie Masse, Höhe, Form, Kontrast, Helligkeit, Farbe, Muster, Geschwindigkeit, Wärme, Reflektivität, Signatur und viele andere. Jedes Merkmal eignet sich nicht unbedingt für sich allein als Merkmal zur Verwendung für die Erkennung eines Objekts an sich, und manche Merkmale sind leichter zu identifizieren als andere. Ein bevorzugter Teil der vorliegenden Erfindung ist die Analyse der am einfachsten erkennbaren Merkmale als erstes, dann verbessert das System durch die rechtzeitige Verwendung anderer Merkmale und aufeinanderfolgender Rahmen in jedem Schritt des iterativen Analyseprozesses die Wahrscheinlichkeit der Erkennung eines Objekts mit höherer Genauigkeit. Die Bestimmung, welche Merkmale zuerst analysiert werden und die Reihenfolge, in welcher sie analysiert werden, ist ein sehr bevorzugter Aspekt der vorliegenden Erfindung.
  • In einer alternativen Ausführungsform der Erfindung kann das System mit einer künstlichen Intelligenz konstruiert sein, um diese Entscheidungen ohne Eingriff von außen zu treffen. Dabei bestimmt das System, welche Merkmale zuerst analysiert würden. Mit fortschreitender Dauer kann das System neue Merkmale oder eine neue Abfolge von Merkmalen, die ein interessierendes Objekt besser identifizieren können, festlegen und sich somit selbst verbessern. Dabei werden selbstverbesserte Verfahren oder Algorithmen in einer bestehenden, speichereigenen Bibliothek für künftige Bezugnahme gespeichert. Das System würde eine künstliche Intelligenzanalyse verwenden, um unter Einsatz einer Wahrscheinlichkeitsanalyse zu entscheiden, welcher Algorithmus sich aufgrund seines Erfolgs und der Erkennungsgeschwindigkeit besser eignet.
  • Im Allgemeinen offenbart die Erfindung daher ein System, das sich in eine Anzahl von Stufen unterteilen lässt. Die erste Stufe des Prozesses enthält eine Objektdetektionsmaschine zur Erfassung und Ladung der digitalisierten Bildsequenzen von der Hardware in einem entsprechenden digitalen Format für die Objekterkennungsmaschine. Der erste Detektortyp kann die Begrenzung eines Objekts, wie es über aufeinanderfolgende Rahmen ermittelt wurde, identifizieren, wenn sich das Objekt durch den Überwachungsraum bewegt. Der zweite Detektortyp, der eine zweite Stufe des Systems bilden könnte, wäre eine Objekterkennungsmaschine, die erstens zur Umwandlung bestimmter Merkmale in nützliche mathematische Bilder oder Algorithmen verwendet würde und zweitens zur Erbringung und Aufzeichnung von Resultaten über die Zeit eingesetzt werden kann, um bestimmte Merkmale der betreffenden Objekte zu analysieren. Die Merkmale, die analysiert werden, können unter anderem ein oder mehr Elemente wie Masse, Höhe, Form, Farbe, Muster, Kontrast, Textur, Wärme, Reflektivität, Häufigkeit, Geschwindigkeit, Signalstrahlung, Signatur etc. umfassen. jedem Merkmal des detektierten Objekts wird eine Wahrscheinlichkeitschance eingeräumt, ein interessierendes Objekt zu sein. Um höhere Genauigkeitsgrade zu erhalten, können aufeinanderfolgende digitalisierte Bilder unter Verwendung von gespeicherten Verfahren, gespeicherten Bibliotheken, Analysealgorithmen und einem iterativen Analyseprozess, der die Beobachtung mehrerer Merkmale von mehreren Objekten in Echtzeit besorgen kann, über die Zeit analysiert werden.
  • Jede Analyseiteration erhöht (oder senkt gegebenenfalls) die Chance, dass ein detektiertes Objekt ein interessierendes Objekt ist. Erreicht das Wahrscheinlichkeitsniveau ein vorherbestimmtes Akzeptanz- oder Schwellenwertniveau, wird das Objekt als interessierendes Objekt erkannt. Zur Verbesserung der Wahrscheinlichkeitsanalyse können weitere Arten des zweiten Detektortyps innerhalb eines einzigen Überwachungsraums aufgenommen werden, um verschiedene Merkmale eines interessierenden Objekts zu beobachten, damit die Erkennungswahrscheinlichkeit eines Objekts verbessert wird.
  • Zusätzliche Detektorentypen können an verschiedenen Stellen unter verschiedenen Blickwinkeln, aber zur Beobachtung ein- und desselben Überwachungsraums positioniert sein, um die Chance zu erhöhen, Objekte zu differenzieren, Objekte in einem dreidimensionalen Raum anzuordnen oder zu positionieren, oder ein Objekt zu lokalisieren, das andernfalls bei Verwendung nur eines einzigen Detektortyps verdeckt wäre.
  • Der zweite Detektortyp kann zum Abfragen einer dem Objekt zugeordneten abfragbaren Einrichtung angepasst sein. In einer solchen Ausführungsform kann der erste Detektor so ausgebildet sein, dass er ein sich innerhalb eines Überwachungsraums bewegendes Objekts beobach tet, und dann ist die Abfrageeinrichtung des zweiten Detektors eingerichtet, einen HF-Signarur-Chip wie einen Smartcard-Chip oder einen Transponder abzufragen, um eine positive Identifikation des Objekts und seiner Durchquerung des Überwachungsraums zu liefern.
  • Die Detektoranordnung ist zur Kommunikation mit benachbarten Detektoranordnungen in einem Raum mit mehreren Detektoren angeordnet, um Informationen weiterzuleiten oder zu empfangen, die sie empfangen bzw. gelernt hat. Diese Übertragung von Informationen könnte über ein geschlossenes Netz wie ein Intranet oder über ein offenes Netz wie das Internet erfolgen. Entscheidungen oder Informationen würden an aufeinanderfolgende Detektoren oder andere Dritteinrichtungen geleitet, die solche Informationen benötigen, um programmierte Aktionen nach Bedarf zu aktivieren. Die Detektoren können Entscheidungen fällen, Instruktionen erteilen oder andere Arten von Tätigkeiten ohne menschlichen Eingriffinitiieren.
  • Eine dritte Stufe des Systems kann von der Nachführmaschine ausgeführt werden. Nach Erkennen eines interessierenden Objekts kann die Nachführmaschine Aufgaben wie Gitterinitialisierung, 2D- oder 3D Abbildung, Markierungszuordnung, Markierungsnachführung und Markierungsübergabe in aufeinanderfolgenden Überwachungsräumen durchführen. Dies beansprucht wesentlich weniger Verarbeitungsenergie als die Objekterkennungsmaschine, da sich das identifizierte und markierte Objekt durch einen Überwachungsraum in einen anderen bewegt. Erscheint ein Objekt in einem nachfolgenden Überwachungsraum, das, weil durch ein anderes Objekt verdeckt, zuvor nicht detektiert wurde, dann kann der Prozess durch alle möglichen aufgezeichneten Bildrahmen zurückverfolgt und können die Aufzeichnungen entsprechend justiert werden. Das ganze System wird anhand dieser neuen Informationen aktualisiert. Das bedeutet eine wesentliche Steigerung der Genauigkeit des Systems. Ab diesem Zeitpunkt kann das Objekt so lange verfolgt werden, bis es sämtliche Überwachungsräume verlässt. Nach Erkennen des Typs des zu verfolgenden Objekts wird in der Folge die Position jedes interessierenden Objekts im Wesentlichen auf ein Universalgitter über die Zeit abgebildet. Da die zum Nachführen erforderliche Verarbeitungsenergie in aufeinanderfolgenden Überwachungsräumen wesentlich reduziert ist, können mehrere Objekte mit einem hohen Grad an Genauigkeit und Verlässlichkeit verfolgt werden.
  • Es ist zu bemerken, dass Objekte, die sich im Überwachungsraum nicht bewegen, wie Möbelstücke oder andere feststehende Objekte, vom ersten Detektortyp nicht beobachtet werden, der nur sich bewegende Kontrastgrenzen oder Veränderungen, beispielsweise zwischen benachbarten Rahmen eines Videobilds, sieht, und daher auch nicht vom zweiten Detektor verfolgt oder beobachtet werden. Dadurch wird erhebliche Verarbeitungsenergie eingespart.
  • Es ist zu erkennen, dass bei Vorsehen der Detektoranordnung in der Decke eines Gebäudes im wesentlichen nach unten gerichtet in einem Gang beispielsweise ein Objekt, wenn es sich direkt unterhalb des Detektors befindet, ein bestimmtes Profil hat, aber wenn sich das Objekt durch den Überwachungsraum bewegt, das beobachtete Profil von einer fixen Detektoranordnung je nach Beobachtungswinkel variieren wird, und daher kann gemäß einer bevorzugten Ausführungsform der Erfindung die Verarbeitungsvorrichtung zur Identifizierung eines sich bewegenden Objekts im Überwachungsraum Mittel zur Berücksichtigung des Winkels des Objekts von der Detektoranordnung oder der Bewegung von Objekten außerhalb der Mitte im Raum enthalten.
  • Das Objekterkennungs- und -verfolgungssystem kann seine oder manche Detektoranordnungen auf einer Seite des jeweiligen Überwachungsraums wie z.B. an einer eine Grenze eines Überwachungsraums definierenden Wand oder in einer Ecke eines Überwachungsraums angeordnet haben.
  • Das erfindungsgemäße Objekterkennungs- und -verfolgungssystem kann zur Zählung von Menschen in Supermärkten od. dgl. oder für den sich entlang einer Straße fortbewegenden Verkehr, zur Sicherheitsüberwachung und für Überwachungsanwendungen sowie zur Bestimmung von menschlichen Präferenzen beim Durchgehen durch ein Geschäft oder einen Ausstellungsbereich oder auch zur Bestimmung der Anzahl von Menschen verwendet werden, die sich innerhalb eines dreidimensionalen Raums wie eines Saals oder eines Bereichs aufhalten.
  • Das erfindungsgemäße Objekterkennungs- und -verfolgungssystem kann zur Verfolgung von scheinbar willkürlichen Bewegungen zur Bestimmung von Mustern oder Trends über die Zeit verwendet werden.
  • Das erfindungsgemäße Detektorsystem kann als Überwachungssystem mit einer menschlichen Schnittstelle verwendet werden, um ein lesbares Bild dessen zu erzeugen, was der Detektor wie eine Videokamera sieht.
  • Es sei bemerkt, dass die Detektoranordnung auf einer sich bewegenden Vorrichtung wie einem Kraftfahrzeug montiert sein kann und ihre Beobachtungen stationäre Objekte wie Straßenschilder oder Ampellichter betreffen. Sie kann zum Nachweis der Anwesenheit von Fußgängern verwendet werden.
  • Die Erfindung wird nachstehend unter Bezugnahme auf die angeschlossenen Zeichnungen allgemein beschrieben, die eine bevorzugte Ausführungsform der Erfindung zeigen.
  • In den Zeichnungen zeigt:
  • 1 einen Überwachungsraum mit einigen Objekten innerhalb des Überwachungsraums;
  • 2 die Objekte und Bereiche, die vom ersten Detektortyp beobachtet werden;
  • 3 den Detektorbereich und die vom zweiten Detektortyp durchgeführte Detektion;
  • 4 einen vergrößerten Überwachungsraum mit mehreren Detektoranordnungen und sich durch den Überwachungsraum bewegenden Objekten;
  • 5 eine realistischere Position von Objekten, die vom ersten Detektortyp in einem Überwachungsraum beobachtet werden;
  • 6 die Objekte der 5, beobachtet vom zweiten Detektortyp;
  • 7 eine schematische schaubildliche Darstellung eines erfindungsgemäßen Erkennungs- und Verfolgungssystems;
  • 8 eine schematische schaubildliche Darstellung eines Überwachungssystems gemäß einer alternativen Ausführungsform der vorliegenden Erfindung;
  • 9 eine schematische schaubildliche Darstellung eines Überwachungssystems gemäß einer alternativen Ausführungsform der vorliegenden Erfindung;
  • 10 eine schematische schaubildliche Darstellung eines Überwachungssystems gemäß einer alternativen Ausführungsform der vorliegenden Erfindung; und
  • 11 eine schematische schaubildliche Darstellung eines Überwachungssystems gemäß einer alternativen Ausführungsform der vorliegenden Erfindung.
  • 12 zeigt eine schematische schaubildliche Darstellung eines Überwachungssystems gemäß einer alternativen Ausführungsform der vorliegenden Erfindung unter Verwendung eines Transpondersignatur-Identifikationssystems.
  • DETAILLIERTE BESCHREIBUNG BEVORZUGTER AUSFÜHRUNGSFORMEN DER ERFINDUNG
  • Bei näherer Betrachtung der Zeichnungen und der in den 1 bis 3 gezeigten Anordnungen ist zu sehen, dass sich eine Reihe von Objekten im Überwachungsraum 1 befindet. Ein erstes Objekt ist eine Person 2, die einen Einkaufswagen 3 schiebt, und weitere Objekte sind zwei Personen 4 und 5, die sich eng nebeneinander bewegen.
  • Wie aus 2 ersichtlich, sind die einzigen Teile der vom ersten Detektortyp 7 erfassten Objekte die Begrenzung 8 der Person 2, die Begrenzung 9 des Einkaufswagens 3 und die Begrenzungen 10 und 11 der Personen 4 und 5.
  • Die Information über diese Begrenzungen, die im Detail zu beobachtende Bereiche definieren, wird an den zweiten Detektortyp 15 gesendet, und das beobachtete Bild, z.B. ein digitalisiertes Videobild, wird nur in dem durch punktierte Linien gezeigten Bereich beobachtet. Der Bereich 1G wird zur Identifizierung des Objekts 2 beobachtet, der Bereich 17 wird zur Identifizierung des Einkaufswagens 3 beobachtet, da der Einkaufswagen aber kein zu zählendes Objekt ist, zieht die Verarbeitungsvorrichtung für das Nachführsystem den Einkaufswagen 3 ab und zählt ihn nicht. Die beiden Personen 4 und 5 werden durch Beobachtung der Bereiche 18 und 19 beobachtet und als zwei miteinander gehende Personen identifiziert.
  • Die vorliegende Erfindung zählt daher in diesem beobachteten Raum drei Personen; die sich innerhalb des Raums bewegen, und ignoriert das vierte Objekt, nämlich den Einkaufswagen.
  • In 4 sind sechs Überwachungsräume 20, 21, 22, 23, 24 und 25 zu sehen. Eine Person 28 betritt den Überwachungsraum 21, geht durch diesen Raum in den Überwachungsraum 23 und verlässt dann den Überwachungsraum 23 an der Ecke des Überwachungsraums 23 zum Überwachungsraum 25. Eine einen Einkaufswagen 30 schiebende Person 29 betritt den Überwachungsraum 20 und bewegt sich diagonal durch diesen in den Überwachungsraum 22 und dann in den Überwachungsraum 24.
  • Die Detektoranordnung 31 im Überwachungsraum 21 beobachtet die den Überwachungsraum betretende Person, markiert sie fiktiv und verfolgt sie über ihren Überwachungsraum, dann liefert sie eine Information an die Detektoranordnung 32 im Überwachungsraum 23, dass eine Person an einer bestimmten Stelle eintritt, und die Detektoranordnung 32 übernimmt die Verfolgung der markierten Person, bis diese den Überwachungsraum verlässt. Es wird die kontinuierliche Bewegung dieser Person beobachtet, so dass anhand eines Protokolls festgestellt werden kann, warum sich diese Person im Überwachungsraum 23 eventuell umgedreht hat und nicht geradewegs weiter gegangen ist. Durch die Beobachtung einer Anzahl von Menschen, die sich in den verschiedenen Überwachungsräumen fortbewegen, können bestimmte Trends beobachtet werden, die einen Hinweis darauf geben können, warum eine solche Aktion stattfindet. Die den Einkaufswagen 30 schiebende Person 29 hat sich jedoch in gerader Linie von einem Überwachungsraum zum nächsten bewegt. Die Übergabeanordnung ist jedoch so, dass die Person 28 nur einmal gezählt wird, auch wenn sie sich in zwei Überwachungsräumen aufgehalten hat, und die Person 29 wird nur einmal gezählt, auch wenn sie sich in drei Überwachungsräumen aufgehalten hat. Der Einkaufswagen 30 wird überhaupt nicht gezählt, weil die Detektorvorrichtungen nur zur Beobachtung von sich bewegenden Personen ausgelegt sind.
  • Klarerweise können es natürlich für anderen Detektoranordnungen sich bewegende Wägen oder Fahrzeuge sein, die zu beobachten sind, und Personen können ignoriert werden.
  • Die 5 und 6 zeigen eine realistischere Anordnung, wobei innerhalb eines Überwachungsraums 40 ein erster Typ von Detektoranordnung 41 ein unregelmäßig geformtes Objekt 42 und ein anderes unregelmäßig geformtes Objekt 43 beobachtet. Dies deswegen, weil sich die unter Beobachtung stehenden Objekte nicht direkt unterhalb der Detektoranordnung 41 aufhalten, und da nur in Bewegung befindliche Kontrastgrenzen beobachtet werden, wird in jedem Fall nur eine ziemlich unregelmäßige Kontrastgrenze definiert. Details dieser Objektbegrenzung werden an die zweite Anordnung 44 wie in 6 gezeigt übermittelt, und es wird nur ein beschränkter Bereich beobachtet, wobei festgestellt wird, dass es sich angesichts des Beobachtungswinkels beim sich bewegenden Objekt 42 tatsächlich um eine Person handelt und das Objekt 43 ein Einkaufswagen ist. Von ähnlich unregelmäßiger Gestalt sind die beiden Objekte 47 und 48 in 5, doch aufgrund ihres Winkels vom Detektor 41 werden sie als Personen 49 und 50 identifiziert.
  • Wie in 7 zu sehen, umfasst eine Detektoranordnung 60 einen ersten Detektortyp 61 und einen zweiten Detektortyp 62 zur Beobachtung eines Überwachungsraums 63. Ein der Detektoranordnung zugeordneter Primärsignalprozessor 64 empfängt die Signale vom ersten Detektortyp 61, verarbeitet sie und sendet Instruktionen, was im Raum zu beobachten ist, an den zweiten Detektortyp 62. Details zu den entsprechenden Beobachtungen werden an eine zentrale Stelle 65 übermittelt, die auch Informationen von benachbarten Detektoranordnungen auf Leitungen 66 und 67 empfängt und die Verfolgung von Objekten zwischen benachbarten Überwachungsräumen ermöglicht. Die entsprechenden Informationen wie Zählungen werden an eine weitere Detektoranordnung oder Vorrichtung im Netz oder an eine Zählvorrichtung 68 geliefert.
  • Gemäß 8 ist eine Detektoranordnung 70 auf einer Seite eines Überwachungsraums angeordnet, und sie hat eine Ausleuchtzone 71 umfassend einen Überwachungsraum mit vier Sektoren 72, 73, 74 und 75. In dieser Ausführungsform enthält die Detektoranordnung 70 sowohl den ersten Detektortyp als auch den zweiten Detektortyp und kann in mehreren Detektionsräumen beobachten, die durch die vier Sektoren 72, 73, 74 und 75 veranschaulicht sind.
  • In 9 weist eine Detektoranordnung 76 im Wesentlichen dieselbe Ausgestaltung wie in 8 auf, mit einer Ausleuchtzone 71, die einen Überwachungsraum mit vier Sektoren 72, 73, 74 und 75 umschließt. In dieser Ausführungsform weist die Detektoranordnung 70 einen ersten Detektortyp 77 und einen separaten zweiten Detektortyp 78 auf. So kann der erste Detektortyp 77 die Bewegung von Objekten in mehreren, durch die vier Sektoren 72, 73, 74 und 75 veranschaulichten Überwachungsräumen detektieren und der zweite Detektortyp 78 das oder jedes Objekt identifizieren.
  • 10 zeigt eine Detektoranordnungsausgestalrung, bei der zwei Detektoranordnungen 80 und 81, u.zw. je eine auf einer Seite eines Überwachungsraums mit vier Sektoren 72, 73, 74 und 75, angeordnet sind. Die Detektoranordnung 80 hat eine Ausleuchtzone 83, die die Detektion und Identifikation von Objekten innerhalb der Sektoren 72 und 73 des Überwachungsraums gestattet. Die Detektoranordnung 81 hat eine Ausleuchtzone 84, die die Detektion und Identifikation von Objekten innerhalb der Sektoren 74 und 75 des Überwachungsraums gestattet.
  • In 11 haben die Detektoranordnungen 80 und 81 im Wesenttichen dieselbe Ausgestaltung wie in 10 mit den entsprechenden Ausleuchtzonen 85 und 86, doch ermöglichen diese nur die Detektion in den Sektoren 73 bzw. 75, wogegen die Detektion in den Sektoren 72 und 74 von entsprechenden Überkopf-Detektoranordnungen 87 und 88 vorgenommen wird.
  • 12 zeigt eine Straße 90, entlang welcher Autos 91 und 92 fahren. Die Autos 91 und 92 fahren in verschiedenen Richtungen entlang der Straße. Das Auto 91 hat einen Transponder-Chip 93 und das Auto 92 einen Transponder-Chip 94 eingebaut. Auf einer Seite der Straße 90 befindet sich eine Detektoranordnung mit einem ersten Detektor, wie einem Videodetektor 95, der im Infrarotbereich des elektromagnetischen Spektrums arbeitet, und einem zweiten, einem Mikrowellendetektor 97, der zur Abfrage der Transponder 93 und 94 angepasst ist. Die Ausleuchtzone 96 des Videodetektors 95 deckt beide Seiten der Straße ab und kann somit die fahrenden Autos 91 und 92 detektieren. Da jedes Auto detektiert wird, wird der zweite, d.h. der Mikrowellendetektor 97, aktiviert, um die Transponder 93 bzw. 94 mit fokussierten Strahlen 99 bzw. 98 abzufragen. Dadurch wird nicht nur die Tatsache, dass ein bestimmtes Auto eine bestimmte Stelle passiert hat, aufgezeichnet, sondern es kann auch die Fahrtrichtung aufgenommen werden. Ohne erste Detektionsstufe könnte die Detektoranordnung zwar feststellen, dass ein Transponder eine bestimmte Stelle passiert hat, die Fahrrichtung würde aber nicht aufgezeichnet.
  • In der vorliegenden Beschreibung wurden verschiedene Angaben zum Umfang der vorliegenden Erfindung gemacht, doch ist die Erfindung keineswegs auf diese beschränkt, sondern kann auch aus einer Kombination von zwei oder mehreren davon bestehen. Die Beispiele sind nur zur Illustration und nicht zur Einschränkung angeführt.
  • Wenn vom Kontext nicht anders verlangt, sind die Wörter „umfassen" und „enthalten" und Abwandlungen davon wie „umfassend" und „enthaltend" so zu verstehen, dass sie die Einbeziehung eines genannten Elements oder einer Gruppe von Elementen, nicht aber den Ausschluss irgendeines anderen Elements oder einer Gruppe von Elementen implizieren.

Claims (17)

  1. Objekterkennungs- und -verfolgungssystem mit mehreren Detektoranordnungen, wobei jede Detektoranordnung einen ersten Detektortyp (7) und einen zweiten Detektortyp (15) aufweist, der erste Detektortyp (7) zum Nachweis der Anwesenheit eines Objekts in einem von mehreren Überwachungsräumen (2025) und zur Bestimmung der Position des Objekts angepasst ist, der zweite Detektortyp (15) zur Verwendung der bestimmten Objektposition zur Identifizierung oder Erkennung des Objekts oder zur Zählung oder zur Aufzeichnung der Anwesenheit des Objekts angepasst ist, wenn dieses von einem ausgewählten Typ ist, und mit Mitteln zum Verfolgen des bestimmten Objekts im Überwachungsraum, wobei das Objekterkennungs- und -verfolgungssystem Mittel zur Kommunikation zwischen benachbarten Detektoranordnungen zur Übergabe der Verfolgung eines bestimmten Objekts von einem Überwachungsraum zu einem benachbarten Überwachungsraum aufweist, wobei der eine Überwachungsraum dem anderen Überwachungsraum Informationen darüber liefert, dass ein Objekt an einer bestimmten Stelle eintritt.
  2. Objekterkennungs- und -verfolgungssystem nach Anspruch 1, wobei die Anwesenheit eines Objekts wie durch den ersten Detektor bestimmt durch eine Veränderung der Kontrastgrenzen oder durch eine Veränderung des Musters oder durch eine Bewegung und somit zum Nachweis von sich innerhalb des Überwachungsraums bewegenden Objekten nachgewiesen werden kann.
  3. Objekterkennungs- und -verfolgungssystem nach Anspruch 1, wobei die Detektoren zur Verwendung eines Teils des aus Radar, Mikrowelle, Hochfrequenz, Infrarot, Mikrowelle, Millimeterwelle oder Licht ausgewählten elektromagnetischen Spektrums oder zur Verwendung eines Sonar- oder irgendeines anderen Detektionssystems geeignet sind.
  4. Objekterkennungs- und -verfolgungssystem nach Anspruch 1, wobei der erste Detektortyp vom Typ Insektenauge ist und der zweite Detektortyp einen Digitalsignalprozessor aufweist.
  5. Objekterkennungs- und -verfolgungssystem nach Anspruch 1, wobei der erste und der zweite Detektor der gleiche Detektor sind und der zweite Detektor mit einer höheren Auflösung als der erste Detektor fokussiert oder arbeitet.
  6. Objekterkennungs- und -verfolgungssystem nach Anspruch 1, wobei der erste und der zweite Detektortyp durch einen einzigen Videodetektor gebildet sind, dessen Beobachtungsbild auf zwei verschiedene Arten verarbeitet wird, wobei auf eine erste Art das Beobachtungsbild digitalisiert und die sequenziellen Bilder gescannt werden können, um Veränderungen des digitalisierten Bilds über aufeinanderfolgende Rahmen nachzuweisen, die die Anwesenheit eines Objekts anzeigen würden, und auf eine zweite Art dasselbe digitale Bild dann genauer in einem speziellen Bereich des Überwachungsraums analysiert werden kann.
  7. Objekterkennungs- und -verfolgungssystem nach Anspruch 1, wobei der zweite Detektortyp zur Verwendung von nachfolgenden oder vorhergehenden Rahmen geeignet ist, um die Erkennung oder das Ergebnis bezüglich des interessierenden Objekts zu verbessern.
  8. Objekterkennungs- und -verfolgungssystem nach Anspruch 1, wobei ein oder mehr Merkmale wie Masse, Höhe, Gestalt, Kontrast, Helligkeit, Farbe, Muster, Geschwindigkeit, Wärme, Reflektivität, Signatur zur Bestimmung und Identifizierung eines Objekts verwendet werden.
  9. Objekterkennungs- und -verfolgungssystem nach Anspruch 1, wobei der zweite Detektortyp zum Abfragen einer zum Objekt gehörenden abfragbaren Einrichtung geeignet ist.
  10. Objekterkennungs- und -verfolgungssystem nach Anspruch 1, weiters mit einer künstlichen Intelligenz zur Unterstützung der Bestimmung bzw. Identifizierung eines Objekts.
  11. Objekterkennungs- und -verfolgungssystem nach Anspruch 1, wobei die Mittel zum Verfolgen des bestimmten Objekts eine Nachführmaschine aufweisen.
  12. Objekterkennungs- und -verfolgungssystem nach Anspruch 1, wobei die Mittel zur Kommunikation zwischen benachbarten Detektoranordnungen Mittel zur Weitergabe von Informationen an nachfolgende Detektoren oder Dritteinrichtungen enthalten, die solche Informationen benötigen, um je nach Erfordernis programmierte Aktionen ohne menschliche Intervention auszulösen.
  13. Objekterkennungs- und -verfolgungssystem nach Anspruch 1, weiters mit Mitteln zur Berücksichtigung des Winkels des Objekts von der Detektoranordnung aus oder der Bewegung von Objekten außerhalb der Mitte im zwei- oder dreidimensionalen Raum.
  14. Objekterkennungs- und -verfolgungssystem nach Anspruch 1, wobei die oder jede Detektoranordnung im Wesentlichen über ihrem jeweiligen Überwachungsraum angeordnet ist.
  15. Objekterkennungs- und -verfolgungssystem nach Anspruch 1, wobei die oder jede Detektoranordnung auf einer Seite des jeweiligen Überwachungsraums angeordnet ist.
  16. Objekterkennungs- und -verfolgungssystem nach einem der vorhergehenden Ansprüche zur Verwendung zum Zählen von Menschen in Supermärkten od. dgl. oder für den sich entlang einer Straße fortbewegenden Verkehr, zur Sicherheitsüberwachung und für Überwachungsanwendungen sowie zur Bestimmung von Mustern oder Trends aus scheinbar willkürlichen Bewegungen über die Zeit, wie beim Durchgehen durch ein Geschäft oder einen Ausstellungsbereich.
  17. Objekterkennungs- und -verfolgungssystem nach einem der vorhergehenden Ansprüche zur Verwendung auf einem sich bewegenden Fahrzeug zum Nachweis von Objekten, die in Bezug auf das Fahrzeug relativ stationär sind.
DE60034555T 1999-02-01 2000-02-01 System zur objekterkennung und -verfolgung Expired - Lifetime DE60034555T2 (de)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
AUPP8391A AUPP839199A0 (en) 1999-02-01 1999-02-01 Object recognition & tracking system
AUPP839199 1999-02-01
PCT/AU2000/000051 WO2000046743A1 (en) 1999-02-01 2000-02-01 Object recognition and tracking system

Publications (2)

Publication Number Publication Date
DE60034555D1 DE60034555D1 (de) 2007-06-06
DE60034555T2 true DE60034555T2 (de) 2007-12-27

Family

ID=3812591

Family Applications (1)

Application Number Title Priority Date Filing Date
DE60034555T Expired - Lifetime DE60034555T2 (de) 1999-02-01 2000-02-01 System zur objekterkennung und -verfolgung

Country Status (18)

Country Link
US (1) US6754368B1 (de)
EP (1) EP1157355B1 (de)
JP (1) JP2002536646A (de)
KR (1) KR20010113663A (de)
CN (1) CN1206610C (de)
AT (1) ATE360858T1 (de)
AU (1) AUPP839199A0 (de)
BR (1) BR0007899A (de)
CA (1) CA2361486A1 (de)
DE (1) DE60034555T2 (de)
HK (1) HK1042152A1 (de)
IL (2) IL144588A0 (de)
NO (1) NO20013726L (de)
NZ (1) NZ513232A (de)
RU (1) RU2251739C2 (de)
TR (1) TR200102222T2 (de)
WO (1) WO2000046743A1 (de)
ZA (1) ZA200106386B (de)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2534929B1 (de) 2010-02-09 2019-03-13 Signify Holding B.V. Präsenzerkennungssystem und beleuchtungssystem mit einem solchen system

Families Citing this family (88)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003242489A (ja) * 2002-02-20 2003-08-29 Canon Inc 画像入力装置及び指紋認識装置
CN1235172C (zh) * 2002-02-20 2006-01-04 佳能株式会社 图像输入装置
SE524603C2 (sv) * 2002-05-28 2004-08-31 Tagmaster Ab Förfarande och anordning för passage- och behörighetskontroll
GB2395779A (en) * 2002-11-29 2004-06-02 Sony Uk Ltd Face detection
US7471846B2 (en) 2003-06-26 2008-12-30 Fotonation Vision Limited Perfecting the effect of flash within an image acquisition devices using face detection
US7574016B2 (en) 2003-06-26 2009-08-11 Fotonation Vision Limited Digital image processing using face detection information
US8989453B2 (en) 2003-06-26 2015-03-24 Fotonation Limited Digital image processing using face detection information
US7565030B2 (en) 2003-06-26 2009-07-21 Fotonation Vision Limited Detecting orientation of digital images using face detection information
US8593542B2 (en) 2005-12-27 2013-11-26 DigitalOptics Corporation Europe Limited Foreground/background separation using reference images
US7620218B2 (en) 2006-08-11 2009-11-17 Fotonation Ireland Limited Real-time face tracking with reference images
US8948468B2 (en) * 2003-06-26 2015-02-03 Fotonation Limited Modification of viewing parameters for digital images using face detection information
US8682097B2 (en) 2006-02-14 2014-03-25 DigitalOptics Corporation Europe Limited Digital image enhancement with reference images
US7844076B2 (en) 2003-06-26 2010-11-30 Fotonation Vision Limited Digital image processing using face detection and skin tone information
US8896725B2 (en) 2007-06-21 2014-11-25 Fotonation Limited Image capture device with contemporaneous reference image capture mechanism
US8498452B2 (en) 2003-06-26 2013-07-30 DigitalOptics Corporation Europe Limited Digital image processing using face detection information
US8494286B2 (en) 2008-02-05 2013-07-23 DigitalOptics Corporation Europe Limited Face detection in mid-shot digital images
US8330831B2 (en) 2003-08-05 2012-12-11 DigitalOptics Corporation Europe Limited Method of gathering visual meta data using a reference image
US9129381B2 (en) 2003-06-26 2015-09-08 Fotonation Limited Modification of post-viewing parameters for digital images using image region or feature information
US7792970B2 (en) 2005-06-17 2010-09-07 Fotonation Vision Limited Method for establishing a paired connection between media devices
US7269292B2 (en) 2003-06-26 2007-09-11 Fotonation Vision Limited Digital image adjustable compression and resolution using face detection information
US8155397B2 (en) 2007-09-26 2012-04-10 DigitalOptics Corporation Europe Limited Face tracking in a camera processor
US7440593B1 (en) 2003-06-26 2008-10-21 Fotonation Vision Limited Method of improving orientation and color balance of digital images using face detection information
US9692964B2 (en) 2003-06-26 2017-06-27 Fotonation Limited Modification of post-viewing parameters for digital images using image region or feature information
US7092815B2 (en) 2003-12-17 2006-08-15 Vrbia, Inc. Traffic control systems for vehicle spacing to dissipate traffic gridlock
EP1571584A1 (de) 2004-03-03 2005-09-07 Honda Research Institute Europe GmbH Integrierung von visuellen Informationen und Objektinformationen in ein überall vorhandenes Rechnernetzwerk
WO2005096568A1 (en) * 2004-03-31 2005-10-13 Koninklijke Philips Electronics, N.V. Method for positioning of wireless medical devices with short-range radio frequency technology
US8320641B2 (en) 2004-10-28 2012-11-27 DigitalOptics Corporation Europe Limited Method and apparatus for red-eye detection using preview or other reference images
US7315631B1 (en) 2006-08-11 2008-01-01 Fotonation Vision Limited Real-time face tracking in a digital image acquisition device
US8503800B2 (en) 2007-03-05 2013-08-06 DigitalOptics Corporation Europe Limited Illumination detection using classifier chains
US7710452B1 (en) 2005-03-16 2010-05-04 Eric Lindberg Remote video monitoring of non-urban outdoor sites
US7714726B2 (en) 2005-05-06 2010-05-11 Dominic M. Kotab Semi-transparent RFID tags
DE602005017376D1 (de) 2005-06-27 2009-12-10 Honda Res Inst Europe Gmbh Räumliche Annäherung und Objekterkennung für humanoiden Roboter
JP4290164B2 (ja) * 2006-01-31 2009-07-01 キヤノン株式会社 識別領域を示す表示を画像と共に表示させる表示方法、コンピュータ装置に実行させるプログラム、および、撮像装置
US8184154B2 (en) * 2006-02-27 2012-05-22 Texas Instruments Incorporated Video surveillance correlating detected moving objects and RF signals
DE602007012246D1 (de) 2006-06-12 2011-03-10 Tessera Tech Ireland Ltd Fortschritte bei der erweiterung der aam-techniken aus grauskalen- zu farbbildern
US7916897B2 (en) 2006-08-11 2011-03-29 Tessera Technologies Ireland Limited Face tracking for controlling imaging parameters
US7403643B2 (en) 2006-08-11 2008-07-22 Fotonation Vision Limited Real-time face tracking in a digital image acquisition device
US8103061B2 (en) * 2006-10-02 2012-01-24 Johnson & Johnson Consumer Companies, Inc. Method and apparatus for identifying facial regions
DE102006049454A1 (de) * 2006-10-17 2008-04-24 Wolfgang Krieger Verfahren und Vorrichtung zur Identifizierung von mit RFID-Transpondern gekennzeichneten Objekten
US8055067B2 (en) 2007-01-18 2011-11-08 DigitalOptics Corporation Europe Limited Color segmentation
ATE472140T1 (de) 2007-02-28 2010-07-15 Fotonation Vision Ltd Trennung der direktionalen beleuchtungsvariabilität in der statistischen gesichtsmodellierung auf basis von texturraumzerlegungen
US8649604B2 (en) 2007-03-05 2014-02-11 DigitalOptics Corporation Europe Limited Face searching and detection in a digital image acquisition device
CN101669406B (zh) * 2007-04-24 2014-06-04 皇家飞利浦电子股份有限公司 基于关键字输入来自动创建气氛,尤其是照明气氛的方法、系统和用户接口
US7916971B2 (en) 2007-05-24 2011-03-29 Tessera Technologies Ireland Limited Image processing method and apparatus
EP2075740A1 (de) * 2007-12-24 2009-07-01 Katholieke Hogeschool limburg industriele Wetenschappen en technologie Entscheidungsverfahren
US7855737B2 (en) 2008-03-26 2010-12-21 Fotonation Ireland Limited Method of making a digital camera image of a scene including the camera user
JP5547730B2 (ja) 2008-07-30 2014-07-16 デジタルオプティックス・コーポレイション・ヨーロッパ・リミテッド 顔検知を用いた顔及び肌の自動美化
US8319666B2 (en) 2009-02-20 2012-11-27 Appareo Systems, Llc Optical image monitoring system and method for vehicles
US8319665B2 (en) * 2009-02-20 2012-11-27 Appareo Systems, Llc Adaptive instrument and operator control recognition
US8379917B2 (en) 2009-10-02 2013-02-19 DigitalOptics Corporation Europe Limited Face recognition performance using additional image features
IT1397821B1 (it) * 2009-12-23 2013-02-04 Gd Spa Unita' di uscita di una macchina confezionatrice di contenitori di prodotti da fumo.
US9508213B2 (en) * 2010-03-22 2016-11-29 Dominic M. Kotab Systems and methods of reading gaming chips and other stacked items
US8527445B2 (en) * 2010-12-02 2013-09-03 Pukoa Scientific, Llc Apparatus, system, and method for object detection and identification
US8947524B2 (en) 2011-03-10 2015-02-03 King Abdulaziz City For Science And Technology Method of predicting a trajectory of an asteroid
KR101287522B1 (ko) 2011-08-10 2013-07-19 엘아이지넥스원 주식회사 기동패턴을 고려하여 위협 표적을 식별하기 위한 방법
CN102592288B (zh) * 2012-01-04 2014-07-02 西安理工大学 一种光照环境变化情况下的行人目标匹配跟踪方法
WO2013120103A1 (en) 2012-02-10 2013-08-15 Appareo Systems, Llc Frequency-adaptable structural health and usage monitoring system
US10607424B2 (en) 2012-02-10 2020-03-31 Appareo Systems, Llc Frequency-adaptable structural health and usage monitoring system (HUMS) and method with smart sensors
JP6013756B2 (ja) * 2012-04-12 2016-10-25 株式会社日立情報通信エンジニアリング シミュレータ
DE102012104742A1 (de) * 2012-06-01 2013-12-05 Continental Safety Engineering International Gmbh Verfahren und Vorrichtung zur Objektdetektion
RU2619059C2 (ru) * 2012-07-27 2017-05-11 Ниссан Мотор Ко., Лтд. Устройство обнаружения трехмерных объектов и способ обнаружения трехмерных объектов
DK2701133T3 (en) * 2012-08-22 2016-02-29 Kapsch Trafficcom Ag Method and devices for image recording of a vehicle speed border
DE102013200817A1 (de) * 2013-01-18 2014-07-24 Hella Kgaa Hueck & Co. Verfahren zur Erkennung einer Belegung einer überwachten Zone
DE102013209484A1 (de) * 2013-05-22 2014-11-27 Hella Kgaa Hueck & Co. Verfahren zur Ermittlung eines Flächenbelegungsgrads oder eines Volumenbelegungsgrads
US10325375B2 (en) 2013-05-29 2019-06-18 Sicpa Brasil Industria De Tintas E Sistemas Ltda. Method and device for counting objects in image data in frames, a frame of said image data in frames including at least one object, such as cans, bottles, and packaging, computer program and computer program product
KR101466300B1 (ko) * 2013-07-05 2014-11-28 삼성중공업 주식회사 레이더 영상 표시 장치 및 방법
US9672463B2 (en) 2013-11-07 2017-06-06 Hanwha Techwin Co., Ltd. People counting method and apparatus
KR102158834B1 (ko) 2013-12-05 2020-09-22 한화테크윈 주식회사 사람들을 계수하는 방법 및 장치
KR102150706B1 (ko) 2013-11-07 2020-09-01 한화테크윈 주식회사 사람들을 계수하는 방법 및 장치
KR101527876B1 (ko) * 2013-11-21 2015-06-11 한국해양과학기술원 소나 영상의 실시간 영상처리를 이용한 수중물체의 인식 및 추적방법
CN104504906B (zh) * 2014-12-25 2017-09-19 深圳市捷顺科技实业股份有限公司 一种车牌识别方法及系统
DE102015007028A1 (de) * 2015-05-29 2016-12-01 Mbda Deutschland Gmbh Verfahren zur Fokussierung eines hochenergetischen Strahls auf einem Haltepunkt auf der Oberfläche eines fliegenden Flugobjekts
CN105425308A (zh) * 2015-12-18 2016-03-23 同方威视技术股份有限公司 物品跟踪系统和方法
DE102016000532B4 (de) * 2016-01-21 2019-04-25 Jenoptik Robot Gmbh Verfahren und Vorrichtung zum Betreiben eines Verkehrsüberwachungsgerätes, Verkehrsüberwachungsgerät und Verkehrsüberwachungssystem
KR102618759B1 (ko) * 2016-04-01 2023-12-28 주식회사 에이치엘클레무브 물체의 이동경로감지장치, 이동경로감지방법 및 그에 포함되는 물체감지장치
US10317218B2 (en) * 2016-07-12 2019-06-11 David Byron Douglas Planetary surveillance system
WO2018035148A1 (en) * 2016-08-15 2018-02-22 The Arizona Board Of Regents On Behalf Of The University Of Arizona Novel automotive radar using 3d printed luneburg lens
US10585185B2 (en) 2017-02-03 2020-03-10 Rohde & Schwarz Gmbh & Co. Kg Security scanning system with walk-through-gate
US10725152B2 (en) * 2017-03-14 2020-07-28 Aptiv Technologies Limited Detector device including a shifted multi-dimensional array of detector elements
US11423791B2 (en) * 2018-01-05 2022-08-23 Gopro, Inc. Adaptive object detection
CN108416254A (zh) * 2018-01-17 2018-08-17 上海鹰觉科技有限公司 一种用于人流行为识别和人数统计的统计系统以及方法
CN109143221B (zh) * 2018-07-23 2022-06-10 奇瑞汽车股份有限公司 目标跟踪方法及装置
KR102636740B1 (ko) * 2018-12-17 2024-02-15 현대자동차주식회사 차량 및 그 제어방법
CN110245653A (zh) * 2019-06-06 2019-09-17 深圳市宏电技术股份有限公司 一种物体识别装置及方法
US11231498B1 (en) * 2020-07-21 2022-01-25 International Business Machines Corporation Concealed object detection
CN111913177A (zh) * 2020-08-11 2020-11-10 中国原子能科学研究院 对目标物探测方法、装置以及存储介质
CN113064805A (zh) * 2021-03-29 2021-07-02 联想(北京)有限公司 一种电子设备的控制方法以及控制装置
CN113740838B (zh) * 2021-09-13 2024-02-06 四川启睿克科技有限公司 一种基于毫米波雷达的全屋人员追踪方法

Family Cites Families (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CA2020748A1 (en) * 1989-08-22 1991-02-23 Thomas F. Look Method and apparatus for machine reading of retroreflective vehicle identification articles
US5610815A (en) * 1989-12-11 1997-03-11 Caterpillar Inc. Integrated vehicle positioning and navigation system, apparatus and method
IL99823A0 (en) * 1990-11-16 1992-08-18 Orbot Instr Ltd Optical inspection method and apparatus
WO1992009904A1 (en) * 1990-11-29 1992-06-11 Vpl Research, Inc. Absolute position tracker
US5153722A (en) * 1991-01-14 1992-10-06 Donmar Ltd. Fire detection system
CA2132515C (en) * 1992-03-20 2006-01-31 Glen William Auty An object monitoring system
US5512743A (en) * 1994-01-25 1996-04-30 The United States Of America As Represented By The Secretary Of The Navy Space-based asteroid detection and monitoring system
EP0804779B1 (de) * 1995-01-17 2006-03-29 Sarnoff Corporation Verfahren und vorrichtung zur detektierung von objektbewegung in einer bilderfolge
US5517019A (en) * 1995-03-07 1996-05-14 Lopez; Luis R. Optical compound eye sensor with ommatidium sensor and related methods
DE19511713A1 (de) * 1995-03-30 1996-10-10 C Vis Computer Vision Und Auto Verfahren und Vorrichtung zur automatischen Bildaufnahme von Gesichtern
AU699910B2 (en) * 1996-07-12 1998-12-17 Beonic Corporation Pty Ltd A traffic analysis system
IT1286684B1 (it) * 1996-07-26 1998-07-15 Paolo Sodi Dispositivo e metodo per il rilevamento di infrazioni stradali con sistemi di puntamento dinamico
GB9617592D0 (en) * 1996-08-22 1996-10-02 Footfall Limited Video imaging systems
SE510810C2 (sv) * 1997-01-13 1999-06-28 Qualisys Ab Rörelseanalyssystem
EP0878965A3 (de) * 1997-05-14 2000-01-12 Hitachi Denshi Kabushiki Kaisha Verfahrn zur Verfolgung eines eintretenden Objektes und Gerät zu dessen Verfolgung und Überwachung
JP3567066B2 (ja) * 1997-10-31 2004-09-15 株式会社日立製作所 移動体組合せ検出装置および方法
US6154133A (en) * 1998-01-22 2000-11-28 Ross & Baruzzini, Inc. Exit guard system

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2534929B1 (de) 2010-02-09 2019-03-13 Signify Holding B.V. Präsenzerkennungssystem und beleuchtungssystem mit einem solchen system
EP2534929B2 (de) 2010-02-09 2022-02-16 Signify Holding B.V. Präsenzerkennungssystem und beleuchtungssystem mit einem solchen system

Also Published As

Publication number Publication date
EP1157355B1 (de) 2007-04-25
EP1157355A4 (de) 2005-06-29
NO20013726D0 (no) 2001-07-30
HK1042152A1 (zh) 2002-08-02
WO2000046743A1 (en) 2000-08-10
BR0007899A (pt) 2001-10-23
ATE360858T1 (de) 2007-05-15
ZA200106386B (en) 2002-02-11
NZ513232A (en) 2003-06-30
RU2251739C2 (ru) 2005-05-10
IL144588A0 (en) 2002-05-23
JP2002536646A (ja) 2002-10-29
AUPP839199A0 (en) 1999-02-25
TR200102222T2 (tr) 2001-12-21
IL144588A (en) 2009-07-20
CA2361486A1 (en) 2000-08-10
EP1157355A1 (de) 2001-11-28
NO20013726L (no) 2001-09-20
KR20010113663A (ko) 2001-12-28
DE60034555D1 (de) 2007-06-06
US6754368B1 (en) 2004-06-22
CN1206610C (zh) 2005-06-15
CN1339137A (zh) 2002-03-06

Similar Documents

Publication Publication Date Title
DE60034555T2 (de) System zur objekterkennung und -verfolgung
EP1210680B1 (de) Verfahren und anordnung zur erfassung und analyse des rezeptionsvrhaltens von personen
EP0853299B1 (de) Verfahren und Vorrichtung zur Ansteuerung von Türanlagen in Abhängigkeit von der Anwesenheit von Personen
EP1589484B1 (de) Verfahren zur Erkennung und/oder Verfolgung von Objekten
DE60209760T2 (de) Gesichtsbilderzeugungssystem zur bildaufnahme und automatisierte bestätigung der identität
EP0515635B1 (de) Richtungsempfindliche zähl- und schaltvorrichtung
AT506928B1 (de) Verfahren zur videoanalyse
EP3014569B1 (de) Inspektion der konturierten fläche des unterbodens eines kraftfahrzeugs
DE102013104443A1 (de) Verkehrsüberwachungssystem zur Geschwindigkeitsmessung und Zuordnung von bewegten Fahrzeugen bei einem Mehrziel-Aufnahmemodul
DE69738287T2 (de) Verfahren zum Anzeigen eines sich bewegenden Objekts, dessen Bahn zu identifizieren ist, Anzeigesystem unter Verwendung dieses Verfahrens und Programmaufzeichnungsmedium dafür
EP2174260A2 (de) Vorrichtung zur erkennung und/oder klassifizierung von bewegungsmustern in einer bildsequenz von einer überwachungsszene, verfahren sowie computerprogramm
DE102017218917A1 (de) Überwachungsvorrichtung, Industrieanlage, Verfahren zur Überwachung sowie Computerprogramm
DE69738270T2 (de) Erfassungssystem
DE102012000459A1 (de) Verfahren zur Objektdetektion
EP1189187B1 (de) Verfahren zum Überwachen eines vorbestimmten Bereichs und entsprechendes System
DE10049366A1 (de) Verfahren zum Überwachen eines Sicherheitsbereichs und entsprechendes System
DE102016223106A1 (de) Verfahren und System zum Detektieren eines sich innerhalb eines Parkplatzes befindenden erhabenen Objekts
EP0777864B1 (de) System und verfahren zur bildauswertung
DE60307979T2 (de) Videoüberwachungssystem und -verfahren
CH678461A5 (de)
EP2359308B1 (de) Vorrichtung zur erzeugung und/oder verarbeitung einer objektsignatur, überwachungsvorrichtung, verfahren und computerprogramm
EP3611659B1 (de) Vorrichtung zum bereitstellen einer mehrzahl von biometrischen merkmalen einer mehrzahl von personen einer personengruppe
EP4075396A1 (de) Verfahren und anordnung zur optischen erfassung eines kopfes einer person
DE19956266A1 (de) Überwachungsanlage
EP3352111B1 (de) Verfahren zum erkennen von kritischen ereignissen

Legal Events

Date Code Title Description
8364 No opposition during term of opposition