DE112009000480T5 - Dynamische Objektklassifikation - Google Patents

Dynamische Objektklassifikation Download PDF

Info

Publication number
DE112009000480T5
DE112009000480T5 DE112009000480T DE112009000480T DE112009000480T5 DE 112009000480 T5 DE112009000480 T5 DE 112009000480T5 DE 112009000480 T DE112009000480 T DE 112009000480T DE 112009000480 T DE112009000480 T DE 112009000480T DE 112009000480 T5 DE112009000480 T5 DE 112009000480T5
Authority
DE
Germany
Prior art keywords
camera system
classification module
classifier
class
module
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE112009000480T
Other languages
English (en)
Inventor
Mahesh Saptharishi
Dimitri A. Lisin
Aleksey Lipchin
Igor Reyzin
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Motorola Solutions Inc
Original Assignee
VideoIQ Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by VideoIQ Inc filed Critical VideoIQ Inc
Publication of DE112009000480T5 publication Critical patent/DE112009000480T5/de
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/80Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/213Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods
    • G06F18/2132Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods based on discrimination criteria, e.g. discriminant analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/245Classification techniques relating to the decision surface
    • G06F18/2453Classification techniques relating to the decision surface non-linear, e.g. polynomial classifier
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/40Software arrangements specially adapted for pattern recognition, e.g. user interfaces or toolboxes therefor
    • G06F18/41Interactive pattern learning with a human teacher
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/41Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/64Three-dimensional objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • G06V30/24Character recognition characterised by the processing or recognition method
    • G06V30/242Division of the character sequences into groups prior to recognition; Selection of dictionaries
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/103Static body considered as a whole, e.g. static pedestrian or occupant recognition
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/61Control of cameras or camera modules based on recognised objects
    • H04N23/611Control of cameras or camera modules based on recognised objects where the recognised objects include parts of the human body
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/631Graphical user interfaces [GUI] specially adapted for controlling image capture or setting capture parameters
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/66Remote control of cameras or camera parts, e.g. by remote control devices
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/66Remote control of cameras or camera parts, e.g. by remote control devices
    • H04N23/661Transmitting camera control signals through networks, e.g. control via the Internet
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/181Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a plurality of remote sources
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2218/00Aspects of pattern recognition specially adapted for signal processing
    • G06F2218/12Classification; Matching
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30232Surveillance

Abstract

Kamerasystem (100) mit:
einer Bilderfassungsvorrichtung (102) mit einem Blickfeld, die Bilddaten erzeugt, die ein Bild des Blickfeldes darstellen; und
einem Objektklassifikationsmodul (210), das mit der Bilderfassungsvorrichtung (102) verbunden ist, wobei das Objektklassifikationsmodul (210) betriebsfähig ist, um festzustellen, ob ein Objekt in einem Bild ein Mitglied einer Objektklasse ist oder nicht, wobei das Objektklassifikationsmodul (210) N Entscheidungsschritte (400) umfasst, die in einer Kaskadenkonfiguration konfiguriert sind, wobei mindestens einer der N Entscheidungsschritte (400) betriebsfähig ist, um (a) ein Objekt als Mitglied der Objektklasse anzunehmen, (b) ein Objekt als Mitglied der Objektklasse abzulehnen, und (c) einen nächsten Schritt (400) heranzuziehen, um festzustellen, ob ein Objekt ein Mitglied der Objektklasse ist oder nicht.

Description

  • Verwandte Anmeldungen
  • Diese Anmeldung beansprucht den Nutzen unter 35 U. S. C. § 119(e) der vorläufigen US-Anmeldung Nr. 61/033 349 mit dem Titel "Method of Dynamic Object and Event Classification", eingereicht am 3. März 2008, und der vorläufigen US-Anmeldung Nr. 61/033 284 mit dem Titel "Method and System for Tracking Objects Under Video Surveillance", eingereicht am 3. März 2008, die beide durch den Hinweis in ihren Gesamtheiten hierin aufgenommen werden.
  • Technisches Gebiet
  • Diese Offenbarung bezieht sich im Allgemeinen, aber nicht ausschließlich auf eine Videoüberwachung und insbesondere auf eine Objektklassifikation.
  • Hintergrundinformationen
  • Automatisierte Sicherheits- und Überwachungssysteme verwenden typischerweise Videokameras oder andere Bilderfassungsvorrichtungen oder Sensoren, um Bilddaten zu sammeln. In den einfachsten Systemen werden durch die Bilddaten dargestellte Bilder für eine zeitgleiche Rasterung durch Sicherheitspersonal angezeigt und/oder für eine spätere Bezugnahme nach einem Sicherheitsbruch aufgezeichnet. In diesen Systemen wird die Aufgabe der Detektion von interessierenden Objekten von einem menschlichen Beobachter durchgeführt. Ein signifikanter Vorteil tritt auf, wenn das System selbst die Objektdetektion und -klassifikation entweder teilweise oder vollständig durchführen kann.
  • In einem typischen Überwachungssystem kann man beispielsweise an der Detektion von Objekten wie z. B. Menschen, Fahrzeugen, Tieren, usw., die sich durch die Umgebung bewegen, interessiert sein. Verschiedene Objekte könnten verschiedene Bedrohungen oder Alarmniveaus darstellen. Ein Tier in der Szene kann beispielsweise normal sein, aber ein Mensch oder ein Fahrzeug in der Szene kann eine Ursache für einen Alarm sein und kann die unmittelbare Aufmerksamkeit eines Sicherheitsbediensteten erfordern. Existierende Systeme, die in der Lage sind, detektierte Objekte zu klassifizieren, verwenden gewöhnlich eine einfache Heuristik, um breite Kategorien von Objekten voneinander zu unterscheiden. Vorbestimmte Erwartungen für das Seitenverhältnis und die Höhe werden beispielsweise verwendet, um ein detektiertes Objekt als Menschen zu klassifizieren. Theoretisch sind heuristische Verfahren rechnerisch günstig und leicht zu implementieren, aber sie sind viel weniger robust als optimierte Parameterklassifikatoren, die unter Verwendung von bekannten Maschinenlernalgorithmen gebildet werden, wie z. B. Adaptive Boosting (AdaBoost). Bekannte Parameterklassifikatoren leiden jedoch unter einem oder mehreren von (1) dem Mangel an bezeichneten Daten zum Trainieren und (2) der Unfähigkeit, sich automatisch zu entwickeln.
  • Klassifikatoren des Standes der Technik erfordern typischerweise eine manuelle geometrische Kalibrierung und Abstimmung. Eine solche Kalibrierung und Abstimmung konzentrieren sich typischerweise auf eine Zwischenbenutzereingabe (z. B. Objekthöhen), die die Leistung des Systems direkt beeinflusst und typischerweise zeitaufwändige Arbeit durch geschultes Personal während der Installation erfordert. Überdies ist typischerweise eine Neuabstimmung und Kalibrierung erforderlich, wenn die Jahreszeiten wechseln oder wenn eine Kamera bewegt wird.
  • Kurzbeschreibung der Zeichnungen
  • 1 ist ein bildhaftes Diagramm eines Kamerasystems gemäß einem Ausführungsbeispiel.
  • 2 ist ein vereinfachtes Blockdiagramm von einer der Bilderfassungsvorrichtungen in dem in 1 gezeigten System.
  • 3 ist ein Blockdiagramm des in 2 gezeigten Objektklassifikationsmoduls.
  • 4 ist ein Blockdiagramm von einem der Klassifikatoren von 3.
  • 5A ist ein Blockdiagramm, das einen der anfänglichen N-1 Schritte in dem in 4 gezeigten Klassifikator zeigt.
  • 5B ist eine Darstellung von Annahme- und Ablehnungsschwellenwerten, die in dem in 5A gezeigten Schritt verwendet werden.
  • 6 ist ein Ablaufplan, der ein Verfahren zur Verwendung eines Kamerasystems gemäß einem Ausführungsbeispiel darstellt.
  • 7 ist ein Ablaufdiagramm, das ein Objektverfolgungsverfahren zeigt.
  • 8 ist ein Ablaufplan eines Objektklassifikator-Trainingsverfahrens.
  • 9 ist ein Ablaufplan eines weiteren Objektklassifikator-Trainingsverfahrens.
  • 10 stellt einen Prozess zum Gewinnen einer Rückmeldung von einem Benutzer, der eine Benutzerschnittstelle bedient, dar.
  • 11 ist ein Blockdiagramm eines spezialisierten Klassifikators.
  • 12 ist ein Ablaufplan eines Spezialisierungstrainingsprozesses, einschließlich einer aktiven Überprüfung.
  • 13 stellt einen passiven Überprüfungsprozess genauer dar.
  • 14 ist ein Ablaufplan eines aktiven Überprüfungsprozesses.
  • 15 zeigt einen Rückmeldungssammel- und Verallgemeinerungsprozess.
  • 16 ist ein Blockdiagramm eines Kiassifikators mit einem hinzugefügten Schritt, um einen neuen Objekttyp zu erkennen.
  • 17 ist ein Ablaufplan eines Kalibrierungsverfahrens, das eine Größenfunktion verwendet und aktualisiert.
  • 18 ist ein Blockdiagramm des Videoanalysemoduls von 3 gemäß einem weiteren Ausführungsbeispiel.
  • Ausführliche Beschreibung von Ausführungsbeispielen
  • Mit Bezug auf die vorstehend aufgelisteten Zeichnungen beschreibt dieser Abschnitt spezielle Ausführungsbeispiele und ihre ausführliche Konstruktion und Operation. Die hierin beschriebenen Ausführungsbeispiele werden nur zur Erläuterung und nicht zur Begrenzung dargelegt. Der Fachmann auf dem Gebiet wird angesichts der Lehren hierin erkennen, dass ein Bereich von Äquivalenten zu den hierin beschriebenen Beispielausführungsbeispielen besteht. Vor allem sind andere Ausführungsbeispiele möglich, Veränderungen können an den hierin beschriebenen Ausführungsbeispielen vorgenommen werden und es können Äquivalente zu den Komponenten, Teilen oder Schritten bestehen, die die beschriebenen Ausführungsbeispiele bilden.
  • Der Deutlichkeit und Kürze halber werden bestimmte Aspekte von Komponenten oder Schritten von bestimmten Ausführungsbeispielen ohne übermäßiges Detail dargestellt, wenn ein solches Detail für den Fachmann auf dem Gebiet angesichts der Lehren hierin ersichtlich wäre und/oder wenn ein solches Detail ein Verständnis von relevanteren Aspekten der Ausführungsbeispiele verschleiern würde.
  • Überblick
  • Wie ein Fachmann auf dem Gebiet angesichts dieser Offenbarung erkennen wird, können bestimmte Ausführungsbeispiele bestimmte Vorteile gegenüber dem bekannten Stand der Technik erreichen, einschließlich vielleicht einiger oder aller der folgenden: (1) verbesserte Objektklassifikationsgenauigkeit; (2) Verwendung einer Benutzerrückmeldung zum Training und zur Anpassung eines Objektklassifikators, (3) Lernen von neuen Objektklassen in einem am Einsatzort aufgestellten Kamerasystems; (4) Online-Auswertung und -Einsatz von neuen Objektklassifikatoren; (5) Gewinnen einer Rückmeldung von einer Gemeinschaft von Kamerasystemen, um neue und/oder genauere allgemeine Objektklassifikatoren zu trainieren; (6) Kalibrieren eines am Einsatzort aufgestellten Kamerasystems während des Live-Betriebs; (7) Verringerung oder sogar Beseitigung des Bedarfs an einer manuellen Kalibrierung von Systemen am Einsatzort während der Installation und Abstimmung der Systeme danach aufgrund von Jahreszeitenwechseln oder einer Kamerabewegung; und (8) automatische Anpassung des Kamerasystems an sich ändernde Bedingungen. Diese und weitere Vorteile von verschiedenen Ausführungsbeispielen sind beim Lesen des Rests dieses Dokuments ersichtlich.
  • Gemäß einem Ausführungsbeispiel umfasst ein Kamerasystem eine Bilderfassungsvorrichtung und ein Objektklassifikationsmodul, das mit der Bilderfassungsvorrichtung verbunden ist. Die Bilderfassungsvorrichtung weist ein Blickfeld auf und erzeugt Bilddaten, die ein Bild des Blickfeldes darstellen. Das Objektklassifikationsmodul ist betriebsfähig, um festzustellen, ob ein Objekt in einem Bild ein Mitglied einer Objektklasse ist oder nicht. Das Objektklassifikationsmodul umfasst N Entscheidungsschritte, die in einer Kaskadenkonfiguration konfiguriert sind, wobei mindestens einer der N Entscheidungsschritte betriebsfähig ist, um (a) ein Objekt als Mitglied der Objektklasse anzunehmen, (b) ein Objekt als Mitglied der Objektklasse abzulehnen, und (c) einen nächsten Schritt heranzuziehen, um festzustellen, ob ein Objekt ein Mitglied der Objektklasse ist oder nicht.
  • Gemäß einem weiteren Ausführungsbeispiel klassifiziert ein Verfahren ein Objekt, das von einem Kamerasystem erfasst wird, das ein Objektklassifikationsmodul mit N Entscheidungsschritten umfasst, die in einer Kaskadenkonfiguration konfiguriert sind. Das Verfahren erfasst ein Bild eines Objekts, überträgt Bilddaten, die das Objekt darstellen, zu einem ersten der N Entscheidungsschritte. Das Verfahren identifiziert ein Merkmal des Objekts, das in den Bilddaten dargestellt ist, um festzustellen, ob das Objekt ein Mitglied einer Objektklasse ist, wobei ein Entscheidungsschrittwert vom Merkmal des Objekts abgeleitet wird. Das Verfahren trifft eine Entscheidung, um entweder das Objekt als Mitglied der Objektklasse anzunehmen, das Objekt als Mitglied der Objektklasse abzulehnen oder die Bilddaten zu einem zweiten der N Entscheidungsschritte zur weiteren Analyse weiterzuleiten. Die Entscheidung basiert auf einem Vergleich des Entscheidungsschrittwerts mit einem oder mehreren eines Annahmeschwellenwerts und eines Ablehnungsschwellenwerts. Der Annahmeschwellenwert ist ein höherer Wert als der Ablehnungsschwellenwert. Das Objekt wird als Mitglied der Objektklasse angenommen, wenn der Entscheidungsschrittwert über dem Annahmeschwellenwert liegt. Das Objekt wird als Mitglied der Objektklasse abgelehnt, wenn der Entscheidungsschrittwert unter dem Ablehnungsschwellenwert liegt. Die Bilddaten werden zum zweiten Entscheidungsschritt weitergeleitet, wenn der Entscheidungsschrittwert zwischen dem Annahme- und dem Ablehnungsschwellenwert liegt.
  • Gemäß einem weiteren Ausführungsbeispiel umfasst ein Kamerasystem eine Bilderfassungsvorrichtung und ein Objektklassifikationsmodul, das mit der Bilderfassungsvorrichtung verbunden ist. Die Bilderfassungsvorrichtung weist ein Blickfeld auf und erzeugt Bilddaten, die ein Bild des Blickfeldes darstellen. Das Objektklassifikationsmodul ist betriebsfähig, um festzustellen, ob ein Objekt im Bild ein Mitglied einer Objektklasse ist oder nicht. Das Objektklassifikationsmodul umfasst N Entscheidungsschritte, die in einer Kaskadenkonfiguration konfiguriert sind. Jeder der Entscheidungsschritte umfasst eine oder mehrere Stufen zum Abbilden von Objektmerkmalen auf Skalarwerte. Eine erste der Stufen umfasst eine erste Diskriminantenfunktion zum Bestimmen eines ersten Skalarwerts und eine zweite der Stufen umfasst eine zweite Diskriminantenfunktion zum Bestimmen eines zweiten Skalarwerts. Die erste und die zweite Diskriminantenfunktion sind von verschiedenen Typen.
  • Gemäß einem weiteren Ausführungsbeispiel klassifiziert ein Verfahren ein Objekt, das von einem Kamerasystem erfasst wird. Das Verfahren erzeugt Bilddaten, die ein Bild eines Objekts darstellen, das von dem Kamerasystem erfasst wird, und identifiziert ein erstes und ein zweites Merkmal des in den Bilddaten dargestellten Objekts. Das Verfahren bildet das erste und das zweite Merkmal des Objekts auf einen jeweiligen ersten und zweiten Skalarwert ab. Eine erste Diskriminantenfunktion wird verwendet, um den ersten Skalarwert zu erzeugen, und eine zweite Diskriminantenfunktion wird verwendet, um den zweiten Skalarwert zu erzeugen. Die erste und die zweite Diskriminantenfunktion werden während einer Trainingsoperation aus einer Gruppe ausgewählt, die aus mehreren verschiedenen Diskriminantenfunktionen besteht. Das Verfahren stellt auf der Basis eines Entscheidungsschrittwerts, der vom ersten und vom zweiten Skalarwert abgeleitet, wird, fest, ob das Objekt ein Mitglied einer Objektklasse ist.
  • Gemäß einem weiteren Ausführungsbeispiel umfasst ein Kamerasystem eine Bilderfassungsvorrichtung, ein Objektklassifikationsmodul, das mit der Bilderfassungsvorrichtung verbunden ist, und ein Kalibrierungsmodul, das mit dem Objektklassifikationsmodul verbunden ist. Die Bilderfassungsvorrichtung weist ein Blickfeld und eine Bildebene auf. Die Bilderfassungsvorrichtung erzeugt die Bilddaten, die ein Bild des Blickfeldes darstellen, das auf die Bildebene projiziert wird. Das Objektklassifikationsmodul ist betriebsfähig, um Objekte auf der Basis der Bilddaten zu detektieren und zu klassifizieren, die im Blickfeld erfasst werden. Das Objektklassifikationsmodul ist betriebsfähig, um Objekte als Mitglieder oder Nicht-Mitglieder einer Objektklasse zu klassifizieren. Das mit dem Objektklassifikationsmodul verbundene Kalibrierungsmodul dient zum Abschätzen von repräsentativen Größen von Mitgliedern der Objektklasse, wobei die repräsentativen Größen verschiedenen Bereichen der Bildebene entsprechen. Das Kalibrierungsmodul ist betriebsfähig, um die repräsentativen Größen in Reaktion auf Klassifikationen, die durch das Objektklassifikationsmodul während des Live-Betriebs durchgeführt werden, automatisch zu aktualisieren. Das Kalibrierungsmodul ist betriebsfähig, um Informationen, die die aktualisierten repräsentativen Größen darstellen, zum Objektklassifikationsmodul zu liefern, um seine Objektklassifikationsleistung zu verbessern.
  • Gemäß einem weiteren Ausführungsbeispiel kalibriert ein Verfahren automatisch ein am Einsatzort aufgestelltes Kamerasystem. Das Verfahren erfasst mehrere Bilder eines Blickfeldes des Kamerasystems. Die mehreren Bilder entsprechen einer Bildebene des Kamerasystems, auf die das Blickfeld projiziert wird. Das Verfahren detektiert ein erstes Objekt in den mehreren Bildern. Das erste Objekt wird an verschiedenen Stellen der Bildebene in den mehreren Bildern detektiert. Bilder des ersten Objekts weisen verschiedene Größen entsprechend den verschiedenen Stellen auf. Das Verfahren klassifiziert das erste Objekt als erstes Mitglied einer Objektklasse und berechnet einen Parameter einer Größenfunktion für die Bildebene auf der Basis der verschiedenen Größen des ersten Objekts. Die Größenfunktion wird verwendet, um repräsentative Größen der Objektklasse für die Bildebene abzuschätzen. Das Verfahren aktualisiert den Parameter der Größenfunktion in Reaktion auf die Detektion und Klassifikation eines zweiten Mitglieds der Objektklasse. Das zweite Mitglied wird während des Live-Betriebs des Kamerasystems detektiert und klassifiziert.
  • Gemäß einem weiteren Ausführungsbeispiel modifiziert ein Verfahren ein Objektklassifikationsmodul, das von einem Benutzer in einem am Einsatzort aufgestellten Kamerasystem verwendet wird. Das Verfahren erfasst mehrere Bilder in einem Blickfeld des Kamerasystems. Die mehreren Bilder enthalten Darstellungen von mehreren Objekten. Ein erster Satz der mehreren Objekte sind Mitglieder einer Objektklasse und ein zweiter Satz der mehreren Objekte sind keine Mitglieder der Objektklasse. Das Verfahren klassifiziert die mehreren Objekte als entweder Mitglieder oder Nicht-Mitglieder der Objektklasse, wobei das Objektklassifikationsmodul eine oder mehrere irrtümliche Klassifikationen erzeugt. Das Verfahren erzeugt Fehlermetadaten auf der Basis einer Bestätigung durch den Benutzer von mindestens einigen der einen oder mehreren irrtümlichen Klassifikationen. Das Verfahren modifiziert das Objektklassifikationsmodul auf der Basis der Fehlermetadaten, um eine Anzahl von irrtümlichen Klassifikationen zu verringern, wobei das Modifizieren während der Verwendung am Einsatzort des Kamerasystems durchgeführt wird.
  • Gemäß einem weiteren Ausführungsbeispiel umfasst ein Kamerasystem eine Bilderfassungsvorrichtung, ein Objektklassifikationsmodul, das mit der Bilderfassungsvorrichtung verbunden ist, eine Benutzerstation, die mit der Bilderfassungsvorrichtung verbunden ist, und ein Klassifikatorentwicklungsmodul. Die Bilderfassungsvorrichtung weist ein Blickfeld auf und erzeugt Bilddaten, die Bilder des Blickfeldes darstellen. Das Objektklassifikationsmodul ist betriebsfähig, um festzustellen, ob Objekte in den Bildern Mitglieder einer Objektklasse sind oder nicht, wobei das Objektklassifikationsmodul irrtümliche Klassifikationen erzeugt. Die Benutzerstation weist eine Anzeige zum Darstellen von Bildern des Blickfeldes für einen Benutzer auf. Die Benutzerstation ist betriebsfähig, um auf der Anzeige Darstellungen der irrtümlichen Klassifikationen darzustellen, die durch das Objektklassifikationsmodul erzeugt werden. Die Benutzerstation ist betriebsfähig, um Benutzerrückmeldungsinformationen in Reaktion auf eine Benutzerbestätigung der irrtümlichen Klassifikationen zu erzeugen. Die Benutzerrückmeldung erzeugt Fehlermetadaten. Das Klassifikatorentwicklungsmodul empfängt die Fehlermetadaten und ist betriebsfähig, um das Objektklassifikationsmodul unter Verwendung der Fehlermetadaten zu modifizieren, um die Anzahl von irrtümlichen Klassifikationen zu verringern. Das Klassifikatorentwicklungsmodul erzeugt dadurch einen spezialisierten Klassifikator.
  • Gemäß noch einem weiteren Ausführungsbeispiel konstruiert ein Verfahren ein neues Objektklassifikationsmodul für die Verwendung in einem am Einsatzort aufgestellten Kamerasystem. Das neue Objektklassifikationsmodul klassifiziert Objekte als Mitglieder oder Nicht-Mitglieder einer von einem Benutzer ausgewählten neuen Objektklasse. Das Verfahren erfasst mehrere Bilder eines Blickfeldes des Kamerasystems. Die mehreren Bilder enthalten Darstellungen von mehreren Objekten, wobei ein erster Satz der mehreren Objekte Mitglieder der neuen Objektklasse sind und ein zweiter Satz der mehreren Objekte keine Mitglieder der neuen Objektklasse sind. Das Verfahren verwendet ein eingesetztes Objektklassifikationsmodul, um die mehreren Objekte als Mitglieder einer eingesetzten Objektklasse zu klassifizieren. Das Verfahren stellt auf einer Anzeige Darstellungen der mehreren Objekte dar, die durch das eingesetzte Objektklassifikationsmodul klassifiziert werden. Ein Benutzer bezeichnet die mehreren Objekte als entweder Mitglieder oder Nicht-Mitglieder der neuen Objektklasse. Das Verfahren erzeugt Metadaten auf der Basis der Bezeichnungen und konstruiert die neue Objektklassifikation durch Modifizieren des eingesetzten Objektklassifikationsmoduls auf der Basis der Metadaten.
  • Zusätzliche Aspekte und Details der Konstruktion und Operation der vorangehenden Ausführungsbeispiele und weiterer Ausführungsbeispiele sind in den folgenden Unterabschnitten mit Bezug auf die zugehörigen Zeichnungen dargelegt.
  • Gesamtsystem
  • 1 ist ein bildhaftes Diagramm eines Kamerasystems 100 gemäß einem Ausführungsbeispiel. Das Kamerasystem 100 umfasst Bilderfassungsvorrichtungen 102, eine Benutzerschnittstelle 104 und eine entfernte Speicher/Verarbeitungseinheit 106, die in einem Netzwerk 108 miteinander verbunden sind. Das Netzwerk 108 kann einen beliebigen Typ von verdrahtetem oder drahtlosem Netzwerk umfassen. Obwohl das Kamerasystem 100 von 1 mehrere Bilderfassungsvorrichtungen 102 umfasst, die in einem Netzwerk verbunden sind, kann das Kamerasystem 100 eine einzelne Bilderfassungsvorrichtung 102 umfassen. Die Bilderfassungsvorrichtungen 102 können ein internes Speichersystem 110 mit einem Festplattenlaufwerk (HD) 111 und einer Metadaten-Datenbank (DB) 112 umfassen. Die Bilderfassungsvorrichtungen 102 können beispielsweise ein Speichersystem umfassen, das in der im gemeinsamen Besitz stehenden US-Patentanmeldung Nrn. 12/105 971 und 12/105 893 mit dem Titel "Content Aware Storage of Video Data" bzw. "Extending the Operational Lifetime of a Hard-Disk Drive Used in Video Data Storage Applications" beschrieben ist, die beide durch den Hinweis in ihren Gesamtheiten hierin aufgenommen werden. Die Benutzerschnittstelle 104 umfasst eine Anzeige 114 und eine Eingabevorrichtung 116. Die Bilderfassungsvorrichtungen 102 erfassen Bilder von ihren jeweiligen Blickfeldern und erzeugen Bilddaten, die die Bilder darstellen. Es soll selbstverständlich sein, dass Bilder sich auf Standbilder oder Bewegungsvideobilder beziehen können. Die Bilddaten werden über das Netzwerk 108 zur Benutzerschnittstelle 104 übertragen und Bilder von einem oder mehreren der Blickfelder werden auf der Anzeige 114 dargestellt. Die Eingabevorrichtung 116 ist betriebsfähig, um einem Benutzer zu ermöglichen, Benutzerrückmeldungsinformationen für das Kamerasystem 100 bereitzustellen. Die Bilddaten können auch über das Netzwerk 108 zur entfernten Speicher/Verarbeitungseinheit 106 übertragen werden, wo das (die) Speichersystem(e) 110 oder Teile davon oder ähnliche Speichersysteme alternativ oder zusätzlich angeordnet sein können.
  • 2 ist ein vereinfachtes Blockdiagramm von einer der Bilderfassungsvorrichtungen 102. Die Bilderfassungsvorrichtung 102 kann eine Videokamera mit hoher Auflösung wie z. B. eine Megapixel-Videokamera sein. Die Bilderfassungsvorrichtung 102 kann auch Daten von außerhalb des sichtbaren Spektrums (z. B. Wärmeenergie) erfassen. Zusätzlich zum Speichersystem 110 umfasst die Bilderfassungsvorrichtung 102 eine Bildverarbeitungseinheit, die ein Videoanalysemodul 200 zum Analysieren von Bildern, die durch die Bilderfassungsvorrichtung 102 erfasst werden, umfasst. Daten, die vom Videoanalysemodul 200 erzeugt werden, können von einer Regelmaschine (nicht dargestellt) verwendet werden, um festzustellen, ob eine oder mehrere vom Benutzer festgelegte Regeln verletzt wurden oder nicht. Die Regelmaschine kann beispielsweise einen Alarm auslösen, der auf der Anzeige 114 der Benutzerschnittstelle 104 dargestellt wird, wenn ein Mensch im Blickfeld von einer der Bilderfassungsvorrichtungen 102 detektiert wird. Die Bildverarbeitungseinheit muss nicht in einem Gehäuse 202 der Bilderfassungsvorrichtung 102 enthalten sein, wie in 2 dargestellt. Überdies kann die entfernte Speicher/Verarbeitungseinheit 106 auch eine Bildverarbeitungseinheit umfassen.
  • Das Videoanalysemodul 200 umfasst eine Anzahl von Modulen zum Durchführen von verschiedenen Aufgaben. Das Videoanalysemodul 200 umfasst beispielsweise ein Objektdetektionsmodul 204 zum Detektieren von Objekten, die im Blickfeld der Bilderfassungsvorrichtung 102 erscheinen. Die Eingabe in das Objektdetektionsmodul 204 sind Videodaten, vorzugsweise Live-Videodaten von einem Bildwandler (nicht dargestellt) oder einem Videopufferspeicher (nicht dargestellt). Das Objektdetektionsmodul 204 kann ein beliebiges bekanntes Objektdetektionsverfahren wie beispielsweise eine Bewegungsdetektion und Fleckdetektion verwenden. Das Objektdetektionsmodul 204 kann die Systeme umfassen und die Detektionsverfahren verwenden, die in der im gemeinsamen Besitz stehenden US-Patentanmeldung Nr. 10/884 486 mit dem Titel "Methods and Systems for Detecting Objekts of Interest in Spatio-Temporal Signals" beschrieben sind, deren gesamter Inhalt durch den Hinweis hierin aufgenommen wird.
  • Das Videoanalysemodul 200 umfasst auch ein Objektverfolgungsmodul 206, das mit dem Objektdetektionsmodul 204 verbunden ist. Wie hierin verwendet, bedeutet der Begriff ”verbunden” direkt oder indirekt über eine oder mehrere Vermittler logisch oder physikalisch verbunden. Das Objektverfolgungsmodul 206 ist betriebsfähig, um Fälle eines durch das Objektdetektionsmodul 204 detektierten Objekts zeitlich zuzuordnen. Das Objektverfolgungsmodul 206 kann die Systeme umfassen und die Verfahren verwenden, die in der im gemeinsamen Besitz stehenden US-Patentanmeldung Nr. _/_,_ (Anwaltsregisternr. 37686/7:2) mit dem Titel "Objekt Matching for Tracking, Indexing, and Search" beschrieben sind, deren gesamter Inhalt durch den Hinweis hierin aufgenommen wird. Das Objektverfolgungsmodul 206 erzeugt Metadaten entsprechend Objekten, die es verfolgt. Die Metadaten können Signaturen des Objekts entsprechen, die das Aussehen oder andere Merkmale des Objekts darstellen. Die Metadaten können zur Metadaten-Datenbank 112 zur Speicherung übertragen werden.
  • Das Videoanalysemodul 200 umfasst auch ein zeitliches Objektklassifikationsmodul 208, das mit dem Objektverfolgungsmodul 206 verbunden ist. Das zeitliche Objektklassifikationsmodul 208 ist betriebsfähig, um ein Objekt gemäß seinem Typ (z. B. Mensch, Fahrzeug, Tier) durch Betrachten des Aussehens des Objekts über die Zeit zu klassifizieren. Mit anderen Worten, das Objektverfolgungsmodul 206 verfolgt ein Objekt für mehrere Rahmen (d. h. mehrere Bilder) und das zeitliche Objektklassifikationsmodul 208 bestimmt den Typ des Objekts auf der Basis seines Aussehens in den mehreren Rahmen. Eine Ganganalyse der Art, in der eine Person geht, kann beispielsweise nützlich sein, um eine Person zu klassifizieren, oder die Analyse der Beine einer Person kann nützlich sein, um einen Fahrradfahrer zu klassifizieren. Das zeitliche Objektklassifikationsmodul 208 kann Informationen hinsichtlich der Bahn eines Objekts (z. B. ob die Bahn glatt oder chaotisch ist, ob sich das Objekt bewegt oder bewegungslos ist) und das Vertrauen von Klassifikationen, die durch ein Objektklassifikationsmodul 210 (nachstehend im Einzelnen beschrieben) durchgeführt werden, die über mehrere Rahmen gemittelt werden, kombinieren. Klassifikationsvertrauenswerte, die durch das Objektklassifikationsmodul 210 bestimmt werden, können beispielsweise auf der Basis der Gleichmäßigkeit der Bahn des Objekts eingestellt werden. Das zeitliche Objektklassifikationsmodul 208 kann ein Objekt einer unbekannten Klasse zuweisen, bis das Objekt durch das Objektklassifikationsmodul eine ausreichende Anzahl von Malen klassifiziert wird und eine vorbestimmte Anzahl von Statistiken erhoben wurde. Beim Klassifizieren eines Objekts kann das zeitliche Objektklassifikationsmodul 208 auch berücksichtigen, wie lange das Objekt im Blickfeld war. Das zeitliche Objektklassifikationsmodul kann eine Endbestimmung über die Klasse eines Objekts auf der Basis der vorstehend beschriebenen Informationen durchführen. Das zeitliche Objektklassifikationsmodul 208 kann auch eine Hysteresemethode zum Ändern der Klasse eines Objekts verwenden. Insbesondere kann ein Schwellenwert für den Übergang der Klassifikation eines Objekts von einer unbekannten in eine bestimmte Klasse festgelegt werden und dieser Schwellenwert kann größer sein als ein Schwellenwert für den entgegengesetzten Übergang (z. B. von einem Menschen zu unbekannt). Das zeitliche Objektklassifikationsmodul 208 kann Metadaten in Bezug auf die Klasse eines Objekts erzeugen und die Metadaten können in der Metadaten-Datenbank 112 gespeichert werden. Das zeitliche Objektklassifikationsmodul 208 kann die durch das Objektklassifikationsmodul 210 durchgeführten Klassifikationen zusammenfassen.
  • Objektklassifikation
  • Das Videoanalysemodul 200 umfasst auch das Objektklassifikationsmodul 210, das vorzugsweise mit dem Objektdetektionsmodul 204 direkt oder indirekt verbunden ist. Im Gegensatz zum zeitlichen Objektklassifikationsmodul 208 kann das Objektklassifikationsmodul 210 den Typ eines Objekts auf der Basis eines einzelnen Falls (d. h. eines einzelnen Bildes) des Objekts bestimmen. Die Eingabe in das Objektklassifikationsmodul 208 sind vorzugsweise vielmehr Objekte als Video- oder Bilddaten. Ein Vorteil der Eingabe von Objekten in das Objektklassifikationsmodul 208 besteht darin, dass nicht die ganze Szene für die Klassifikation analysiert werden muss, wodurch weniger Verarbeitungsleistung benötigt wird. Andere vorbereitende Module wie z. B. Module auf Heuristikbasis, um offensichtliche Klassifikationen zu erfassen, können auch enthalten sein, um die Komplexität des Objektklassifikationsmoduls 210 weiter zu vereinfachen.
  • Das Objektdetektions-, das Objektverfolgungs- und das zeitliche Objektklassifikationsmodul 204, 206 und 208 sind optionale, aber bevorzugte Komponenten des Videoanalysemoduls 200. In einer alternativen Anordnung ist das Objektklassifikationsmodul 210 nach dem Objektdetektionsmodul 210 und vor dem Objektverfolgungsmodul 206 angeordnet, so dass die Objektklassifikation vor der Objektverfolgung stattfindet. In einer anderen alternativen Anordnung stehen das Objektdetektions-, Objektverfolgungs-, zeitliche Klassifikations- und Klassifikationsmodul 204210 miteinander in Beziehung, wie in der vorstehend angeführten US-Patentanmeldung Nr. 10/884 486 beschrieben.
  • Das Objektklassifikationsmodul 210 umfasst eine Anzahl von Objektklassifikatoren, wie im Blockdiagramm von 3 dargestellt. Das Objektklassifikationsmodul 210 kann beispielsweise einen Klassifikator 300 für einen vollständigen menschlichen Körper, der feststellt, ob ein Bild eines detektierten Objekts einem vollständigen menschlichen Körper entspricht, einen Klassifikator 302 für einen menschlichen Torso, der feststellt, ob ein Bild eines detektierten Objekts einem menschlichen Torso entspricht, und einen Fahrzeug-Klassifikator 304, der feststellt, ob ein Bild eines detektierten Objekts einem Fahrzeug entspricht, umfassen. Das Objektklassifikationsmodul 210 kann eine beliebige Anzahl von verschiedenen Klassifikatoren umfassen, und, wie nachstehend genauer beschrieben, kann ein Benutzer neue Klassen von Objekten für das Objektklassifikationsmodul 210 erzeugen, selbst wenn das Kamerasystem aufgestellt ist und funktioniert. Mit anderen Worten, das Objektklassifikationsmodul 210 ist am Einsatzort trainierbar.
  • Die Objektklassifikatoren sind betriebsfähig, um ein Objekt auf der Basis der Merkmale des Objekts (z. B. Aussehenseigenschaften) zu klassifizieren. Der Klassifikator 300 für den vollständigen menschlichen Körper empfängt beispielsweise Daten (d. h. ein Eingangsmuster X), die den Merkmalen eines Objekts entsprechen, und stellt fest, ob das Objekt einem vollständigen menschlichen Körper entspricht oder nicht. Nachdem das Objektklassifikationsmodul 210 ein Objekt klassifiziert, können Metadaten, die die Klasse des Objekts und die Merkmale des Objekts darstellen, in der Metadaten-Datenbank 112 gespeichert werden.
  • Merkmale, die vom Objektklassifikationsmodul 210 verwendet werden können, werden nun genauer beschrieben. Ein Trainingsalgorithmus, der nachstehend beschrieben wird, wählt eine Teilmenge von Merkmalen F ^ = {fk1, fk2, ..., fkm} aus einem Satz von Merkmalen F = {f1, f2, ..., fn}. Das Eingangsmuster X besteht aus den Elementen von F. Die Elemente von F können als eine gewisse Transformation eines Bildbereichs R eines Objekts betrachtet werden. Folglich kann X die folgende Form annehmen:
    Figure 00150001
  • Die Merkmale f1, f2, ..., fm eines Objekts können einer Anzahl von Aussehenseigenschaften entsprechen, wie z. B., jedoch nicht begrenzt auf das Seitenverhältnis, die Farbe, Kantenorientierungen und normierte Sättigung.
  • Überdies können die Merkmale f ^1, f ^2, .., f ^m Merkmalsvektoren (z. B. Histogramme, in denen die Histogrammintervallbereiche Vektorkomponenten entsprechen) der Aussehenseigenschaften darstellen und können von einem oder mehreren Objektklassifikatoren verwendet werden, um die Klasse des Objekts (d. h. Typ) zu bestimmen. Histogramme der Kantenorientierungen eines Objekts können beispielsweise für verschiedene Bereiche (z. B. Unterfenster) des Bildes des Objekts konstruiert werden. Mit anderen Worten, ein Bild eines Objekts kann in Unterfenster unterteilt werden und Kantenorientierungen können für jedes Pixel der Unterfenster berechnet werden. Die Kantenorientierung eines Pixels kann unter Verwendung eines steuerbaren Filters (z. B. unter Verwendung eines Gauß-Ableitungsfilters in mehreren Richtungen) abgeleitet werden. Die Verwendung eines steuerbaren Filters ermöglicht, dass dominante Richtungen den Pixeln eines Unterfensters zugewiesen werden, und ermöglicht; dass ein Histogramm der Richtungen für das Unterfenster konstruiert wird. Für ein gegebenes Pixel kann beispielsweise ein steuerbares Filter in mehreren Richtungen verwendet werden, um mehrere Antworten zu erzeugen, und die Richtung, die der maximalen Richtungsableitungsantwort entspricht, wird als Richtung des Pixels zugewiesen.
  • Das Klassifikationsproblem für einen der Objektklassifikatoren kann im Allgemeinen durch eine Klassifikatorfunktion Γ(X) definiert werden, in der ein durch das Eingangsmuster X dargestelltes Objekt als Mitglied der Objektklasse deklariert wird, wenn Γ(X) > 0, oder als Nicht-Mitglied der Objektklasse, wenn Γ(X) < 0. Im Allgemeinen wird die Klassifikatorfunktion Γ(X) mit einem Satz von Parametern parametrisiert und das Eingangsmuster X besteht aus den vorstehend beschriebenen Merkmalen. Ein spezieller Klassifikator Γc(X) wird für jede interessierende Objektklasse trainiert. Das Mehrklassen-Klassifikationsmodell, das durch das Objektklassifikationsmodul 210 von 3 dargestellt wird, kann mathematisch wie folgt definiert werden. Ω = {ω1, ω2, ..., ωc} ω = ωc : (Γc(X) > 0 und Γc(X) > Γu(X) ∀ u ∊ {1, 2, ..., C}, u ≠ c) (2) wobei ω eine Objektklasse darstellt und Ω den Satz aller Objektklassen darstellt.
  • Ein Beispiel einer Struktur des Objektklassifikationsmoduls 210 wird nun mit Bezug auf 46 genauer beschrieben. Der Deutlichkeit halber wird der Klassifikator 300 für den vollständigen menschlichen Körper im Einzelnen beschrieben. Die folgende Beschreibung ist jedoch gleichermaßen auf die anderen Objektklassifikatoren des Objektklassifikationsmoduls 210 anwendbar. Der Klassifikator 300 umfasst mehrere Schritte 400 (N Entscheidungsschritte), die in einer Kaskadenkonfiguration konfiguriert sind (d. h. Schritt 1, gefolgt von Schritt 2, gefolgt von Schritt 3, ..., gefolgt von Schritt N), wie in 4 gezeigt. Die N Schritte arbeiten zum Feststellen, ob das Aussehen eines Objekts der Objektklasse (d. h. vollständiger menschlicher Körper) entspricht oder nicht. Im Gegensatz zu einem bekannten Kaskadenklassifikationssystem, das in Paul Viola & Michael Jones, "Robust Real-Time Face Detection", International Journal of Computer Vision, S. 137–154 (2004), vorgeschlagen ist, in dem ein Objekt in den N-1 anfänglichen Schritten (d. h. allen bis auf den letzten Schritt) entweder abgelehnt oder weitergeleitet wird, ist jeder der anfänglichen N-1 Schritte des Klassifikators 300 betriebsfähig, um eine von drei Entscheidungen zu treffen: (1) Annehmen des Objekts als Mitglied der Objektklasse (d. h. positive Klasse), (2) Ablehnen des Objekts als Mitglied der Objektklasse (d. h. negative Klasse) und (3) Weiterleiten der Entscheidung zum nächsten Schritt. Das Eingangsmuster X eines Objekts wird beispielsweise zu Schritt 1 geliefert und Schritt 1 entscheidet, ob (1) das Objekt als vollständiger menschlicher Körper angenommen werden soll, (2) das Objekt als vollständiger menschlicher Körper abgelehnt werden soll, oder (3) das Eingangsmuster X zu Schritt 2 weitergeleitet werden soll, um die Bestimmung durchzuführen. Die Entscheidung zum Annehmen, Ablehnen oder Weiterleiten basiert auf einem durch den Schritt erzeugten Wert (d. h. einem Entscheidungsschrittwert). Der letzte oder N-te Schritt ist betriebsfähig, um entweder (1) das Objekt als vollständigen menschlichen Körper anzunehmen oder (2) das Objekt als vollständigen menschlichen Körper abzulehnen.
  • 5A ist ein Blockdiagramm, das einen der anfänglichen N-1 Schritte 400 genauer zeigt. Jeder Schritt 400 umfasst eine oder mehrere Stufen 500. Für jede der Stufen 500 wird eines der Merkmale f ^1, f ^2, .., f ^m vom Eingangsmuster X extrahiert (durch die Blöcke 502 dargestellt) und zu seiner entsprechenden Stufe 500 geliefert. Jede Stufe 500 weist daher ein entsprechendes Merkmal auf, das ihr zugeordnet ist. Die Stufen/Merkmals-Kombination kann durch einen Lernalgorithmus während eines Trainingsprozesses vorbestimmt werden, wie nachstehend beschrieben. Überdies kann ein zur ersten Stufe (Stufe 1) von 5 geliefertes Merkmal beispielsweise verschieden sein von oder dasselbe sein wie das zur zweiten Stufe (Stufe 2) gelieferte Merkmal.
  • Im Allgemeinen kann eine Stufe 500 durch eine Stufenfunktion g dargestellt werden, die folgendermaßen definiert ist: g : x → γ, wobei g ∊ G x ∊ X und γ ∊ [–1, 1] (3) wobei G einen allgemeinen Satz darstellt, aus dem die spezifische Stufenfunktion g gewählt ist, und x eine willkürliche Eingabe in die Stufe darstellt. Der Satz G kann eine reiche Schar von Funktionen sein, die einen Merkmalssatz auf einen Skalarwert abbilden, dessen Vorzeichen die Klasse eines Objekts angibt. Wie vorstehend beschrieben, empfängt jede Stufe 500 als Eingabe eines der Merkmale f ^1, f ^2, .., f ^m. Der Satz G kann daher als G = F × T geschrieben werden, wobei F vorstehend definiert ist und T einen Satz von möglichen Transformationen (d. h. Abbildungen) darstellt, so dass für t ∊ T, t : f ^i → γ. Folglich kann die Stufenfunktion g die folgende erweiterte Form annehmen: gi(x) = t(f ^k), f ^k ∊ F (4)
  • Eine Stufe 500 stellt eine Diskriminantenfunktion dar, die einen Gewichtsvektor w - und eine Aktivierungsfunktion β umfasst. Wie vorstehend angegeben, können die Merkmale f ^1, f ^2, .., f ^m Merkmalsvektoren darstellen. Die Stufenfunktion kann wie folgt umgeschrieben werden: gi(x) = βi(w -i·f ^k) (5) wobei w -i·f ^k das innere Produkt des Gewichtsvektors w - und des Merkmalsvektors f ^k darstellt. Die Aktivierungsfunktion βi kann irgendeine Funktion sein, wie z. B., jedoch nicht begrenzt auf eine S-förmige Funktion oder eine Funktion auf radialer Basis. Die Aktivierungsfunktion βi wird verwendet, um das innere Produkt des Gewichtsvektors w - und des Merkmalsvektors f ^k auf einen Wert zwischen null und eins abzubilden. Der Skalarwert γ kann durch Berechnen eines Differentials der Diskriminantenfunktion bestimmt werden. Im Gegensatz zu bekannten Kaskadenklassifikatoren, die dieselbe Diskriminantenfunktion für alle Stufen umfassen, können die Diskriminantenfunktionen für die Stufen des vorliegenden Ausführungsbeispiels voneinander verschieden sein. Überdies werden der Gewichtsvektor w -i und die Aktivierungsfunktion βi für jede Stufe 500 während des Trainings automatisch bestimmt, wie nachstehend beschrieben.
  • Jeder Schritt 400 ist eine lineare Kombination (durch den Skalierungs- und Summierblock 504 dargestellt) von einer oder mehreren der Stufen 500. Mit anderen Worten, die Skalarwerte γ der Stufen 500 werden skaliert und summiert, um den Entscheidungsschrittwert s(X) zu erzeugen. Im Allgemeinen kann diese Funktion mathematisch wie folgt dargestellt werden:
    Figure 00190001
  • Da s(X) (d. h. der Entscheidungsschrittwert) eine konvexe Kombination von Stufen ist, weisen s(X) und g(x) denselben Bereich auf. Gewichtungskoeffizienten α werden durch einen Lernalgorithmus während des Trainings gewählt. Der Entscheidungsschrittwert wird mit einem oder beiden eines Annahmeschwellenwerts τa und eines Ablehnungsschwellenwerts τr verglichen (durch den Block 506 dargestellt), um festzustellen, ob das Objekt als vollständiger menschlicher Körper angenommen werden soll, das Objekt als vollständiger menschlicher Körper abgelehnt werden soll oder die Entscheidung zum nächsten Schritt 400 weitergeleitet werden soll. Der Vergleich kann folgendermaßen dargestellt werden: Annehmen, wenn τa < s(X) ≤ 1 Weiterleiten, wenn τr < s(X) ≤ τa Ablehnen, wenn –1 < s(X) ≤ τr (7)
  • 5B stellt ein Beispiel des Annahme- und des Ablehnungsschwellenwerts im Intervall [–1, +1] dar. Der Annahmeschwellenwert τa und der Ablehnungsschwellenwert τr werden während des Trainings durch einen Lernalgorithmus auf der Basis von benutzerspezifischen falsch positiven und falsch negativen Raten gewählt. Jeder Schritt 400 kann Werte für τa und τr aufweisen, die verschieden sind von oder dieselben sind wie die anderen Schritte 400. Eine Entscheidung zum ”Annehmen” impliziert, dass der Klassifikator zuversichtlich ist, dass das Eingangsmuster X zur positiven Klasse gehört (z. B. ein vollständiger menschlicher Körper). Eine Entscheidung zum ”Weiterleiten” impliziert, dass der Klassifikator unsicher ist und die Entscheidung zum nächsten Schritt verschiebt. Eine Entscheidung zum ”Ablehnen” impliziert, dass der Klassifikator zuversichtlich ist, dass das Eingangsmuster X zur negativen Klasse gehört (z. B. kein vollständiger menschlicher Körper). In irgendeinem Schritt wird, wenn die Entscheidung nicht darin besteht, zum nächsten Schritt 400 ”weiterzuleiten”, die Annahme/Ablehnungs-Entscheidung an diesem Punkt getroffen und die Auswertung ist vollständig. Der Entscheidungsschrittwert kann einem Entscheidungsvertrauensniveau für den entsprechenden Schritt 400 entsprechen. Ein Entscheidungsschrittwert nahe eins kann beispielsweise darstellen, dass der entsprechende Schritt 400 zuversichtlicher ist, dass ein Objekt ein vollständiger menschlicher Körper ist, im Vergleich zu einem Entscheidungsschrittwert, der geringfügig über dem Annahmeschwellenwert τa liegt. Alternativ kann eine Erhöhung des Entscheidungsschrittwerts nicht notwendigerweise einem höheren Entscheidungsvertrauensniveau entsprechen (d. h. eine Wahrscheinlichkeit, dass die Entscheidung korrekt war). Das Vertrauensniveau, das jedem Entscheidungsschrittwert zugeordnet ist, kann während des Trainings empirisch abgeschätzt werden, wenn Objekte mit verschiedenen Entscheidungsschrittwerten korrekt und falsch klassifiziert werden. Die Vertrauensniveaus der Entscheidungsschrittwerte werden nachstehend genauer beschrieben. Wie vorstehend angegeben, wird die Endstufe (Stufe N) im Klassifikator dazu gezwungen, immer anzunehmen oder abzulehnen: Annehmen, wenn 0 < s(X) ≤ 1 Ablehnen, wenn –1 < s(X) ≤ 0 (8)
  • 6 ist ein Ablaufplan, der ein Verfahren 600 zur Verwendung eines Kamerasystems gemäß einem Ausführungsbeispiel darstellt. Das Verfahren 600 wird mit Bezug auf das Kamerasystem 100 nur als Beispiel beschrieben; das Verfahren 600 ist mit einem beliebigen geeigneten Kamerasystem betriebsfähig. Zuerst wird ein Bild eines Objekts durch eine der Bilderfassungsvorrichtungen 102 erfasst (Schritt 602). Das Objekt wird durch das Objektdetektionsmodul 204 detektiert (Schritt 604). Das Eingangsmuster X wird zum ersten Schritt 400 beispielsweise des Klassifikators 300 für den vollständigen menschlichen Körper übertragen (Schritt 606). Alternativ können anstelle der Übertragung des Musters X zum ersten Schritt 400 die kombinierten Merkmale, die von den Stufen 500 des ersten Schritts 400 verwendet werden, ausgewählt werden und nur diese Merkmale können zum ersten Schritt 400 übertragen werden. Die Merkmale für die erste bis S-te Stufe 500 werden im Eingangsmuster X identifiziert und aus diesem ausgewählt (Schritt 608). Die gewählten Merkmale werden zu ihren jeweiligen Stufen 500 geliefert und die Stufen 500 bilden die gewählten Merkmale auf Skalarwerte ab (Schritt 610). Die Skalarwerte werden skaliert (d. h. gewichtet) und summiert, um einen Entscheidungsschrittwert s(X) zu erzeugen (Schritt 612). Der Entscheidungsschrittwert wird mit einem oder mehreren des Annahmeschwellenwerts τa und des Ablehnungsschwellenwerts τr verglichen (Schritt 614). Wenn der Entscheidungsschrittwert größer ist als der Annahmeschwellenwert τa, wird das Objekt als Mitglied der Objektklasse angenommen (z. B. als vollständiger menschlicher Körper angenommen) (Schritt 616). Wenn der Entscheidungsschrittwert geringer als oder gleich dem Ablehnungsschwellenwert τr ist, wird das Objekt als Mitglied der Objektklasse abgelehnt (z. B. als vollständiger menschlicher Körper abgelehnt) (Schritt 618). Wenn der Entscheidungsschrittwert größer ist als der Ablehnungsschwellenwert τr, aber geringer als oder gleich dem Annahmeschwellenwert τa ist, wird das Eingangsmuster X zum zweiten Schritt 400 weitergeleitet (oder als Alternative werden nur diejenigen Merkmalskombinationen, die vom zweiten Schritt 400 verwendet werden, zum zweiten Schritt 400 übertragen) (Schritt 620). Ein Objekt kann als Mitglied der Objektklasse in irgendeinem Schritt 400 innerhalb der Kaskade angenommen oder abgelehnt werden.
  • Das Eingangsmuster X kann gleichzeitig zu allen Klassifikatoren des Objektklassifikationsmoduls 210 geliefert werden, in dem jeder Klassifikator das Objekt als Mitglied seiner entsprechenden Klasse entweder annimmt oder ablehnt. Wenn mehr als ein Objektklassifikator das Objekt als Mitglied seiner Klasse annimmt, kann die Ausgabe der Objektklassifikator-Entscheidungsschrittwerte der Objektklassifikatoren, die das Objekt angenommen haben, verglichen werden. Beispielsweise können der Klassifikator 300 für den vollständigen menschlichen Körper und der Fahrzeug-Klassifikator 304 feststellen, dass ein Objekt ein vollständiger menschlicher Körper bzw. ein Fahrzeug ist. In diesem Fall können die Entscheidungsschrittwerte, die durch die Schritte erzeugt werden, die das Objekt angenommen haben, verglichen werden, und das Objekt kann der Klasse zugewiesen werden, die dem Klassifikator mit dem vertrauenswürdigsten (z. B. größten) Entscheidungsschrittwert entspricht. Wenn beispielsweise der Entscheidungsschrittwert des Klassifikators für den vollständigen Menschen einem Vertrauensniveau von 90% entspricht und der Entscheidungsschrittwert des Fahrzeug-Klassifikators einem Vertrauensniveau von 80% entspricht, wird das Objekt als vollständiger menschlicher Körper klassifiziert. Wenn keiner der Klassifikatoren eine positive Ausgabe deklariert (das Objekt nicht als Mitglied irgendeiner Klasse angenommen wird), dann kann das Objekt als unbekannt klassifiziert werden.
  • Eine Verfolgung, wie z. B. durch das Objektverfolgungsmodul 206 durchgeführt, kann berücksichtigt werden, wenn das Objektklassifikationsmodul 210 die Klasse eines Objekts bestimmt. 7 ist ein Ablaufdiagramm, das ein Objektverfolgungsverfahren 700 zeigt. Das Verfahren 700 wird nur als Beispiel mit Bezug auf das Objektverfolgungsmodul 206 beschrieben, das in Verbindung mit dem Objektklassifikationsmodul 210 verwendet wird. Das Verfahren 700 ist mit einem beliebigen geeigneten System betriebsfähig. Das Verfahren 700 ordnet ein Bild eines Objekts einem vorherigen Fall des Objekts zu (Block 702). Das Verfahren 700 ruft die Klasse und das Klassifikationsvertrauensniveau, die mit dem vorherigen Fall des Objekts in Beziehung stehen, auf. Das Objektklassifikationsmodul 210 stellt fest, ob das Objekt vorher mit hohem Vertrauen klassifiziert wurde (Block 704). Vertrauensniveaus, die als hohes Vertrauen betrachtet werden, können von einem Benutzer vorbestimmt werden (z. B. 70% Vertrauen oder darüber). Wenn das Objektklassifikationsmodul feststellt, dass das Objekt vorher nicht mit hohem Vertrauen klassifiziert wurde, dann werden mehrere Objektklassifikatoren ausgeführt (Block 705). Wenn das Verfahren 700 feststellt, dass das Objekt vorher mit hohem Vertrauen klassifiziert wurde, kann ein Teil des Klassifikators, der der vorher deklarierten Klasse des Objekts entspricht, ausgeführt werden (Block 706), anstatt mehrere Klassifikatoren auszuführen. Beispielsweise kann nur der erste Schritt 400 des Klassifikators, der der vorher deklarierten Klasse entspricht, ausgewertet werden. Die Ausgabe des ersten Schritts 400 kann geprüft werden, um festzustellen, ob sie mit der vorher deklarierten Klasse konsistent ist (Block 708). Wenn die Ausgabe des ersten Schritts 400 mit der vorher deklarierten Klasse konsistent ist, ist keine weitere Auswertung erforderlich; die Klasse des Objekts für das aktuelle Bild wird bestimmt und der Verlauf des Objekts wird aktualisiert und in der Metadaten-Datenbank 112 gespeichert (Block 710). Wenn andererseits die Entscheidung des ersten Schritts 400 darin besteht, das Objekt als Mitglied der Objektklasse abzulehnen, dann werden einer oder mehrere der anderen Objektklassifikatoren ausgeführt (Block 705). Wenn die Ausgabe des ersten Schritts 400 darin besteht, weiterzuleiten, können einer oder mehrere der anderen Schritte 400 ausgewertet werden, bis die Ausgabe mit der vorher deklarierten Klasse konsistent oder inkonsistent ist.
  • Training der Objektklassifikatoren
  • Ein Verfahren zum Trainieren der Objektklassifikatoren des Objektklassifikationsmoduls 210 wird nun beschrieben. Herkömmliche Klassifikationssysteme können mit dem Lernalgorithmus AdaBoost oder einer gewissen Variante von AdaBoost trainiert werden. Obwohl AdaBoost in einigen Anwendungen seinen Wert bewiesen hat, haben der Algorithmus und die Zielfunktion, die in diesem Lernprozess verwendet wird, gewisse Begrenzungen. Damit AdaBoost wirksam ist, können beispielsweise Mitglieder und Nicht-Mitglieder einer Objektklasse einander nicht signifikant im Merkmalsraum überlappen. Mit anderen Worten, die Merkmale der Objekte sollten einen Klassifikationsraum gut trennen. Da AdaBoost schwache Lerner verwendet, kann überdies eine große Sammlung von schwachen Lernern erforderlich sein, um einen vollständigen Klassifikator zu bilden, der in der Lage ist, eine gewünschte Genauigkeit zu erreichen.
  • Gemäß einem Ausführungsbeispiel wird eine alternative Zielfunktion und ein Lernalgorithmus, der Sequentielle Diskriminantenfehlerminimierung (SDEM) genannt wird, vorzugsweise verwendet, um die Objektklassifikatoren des Objektklassifikationsmoduls 210 zu trainieren. SDEM wurde in Saptharishi, "Sequential Discriminant Error Minimization: The Theory and its Application to Real-Time Video Object Recognition" (Carnegie Mellon University, 2005), vorgeschlagen, dessen gesamter Inhalt durch den Hinweis hierin aufgenommen wird. SDEM kann Merkmale behandeln, die einen Klassifikationsraum nicht notwendigerweise gut auftrennen. Im Gegensatz zu AdaBoost und anderen ähnlichen Unterstützungsverfahren kann SDEM schwache Lerner oder andere Diskriminantenfunktionen verwenden, die nicht notwendigerweise als schwach betrachtet werden. Folglich kann die Anzahl von Schritten 400 und Stufen 500 eines Objektklassifikators unter Verwendung von SDEM zum Training im Vergleich zu AdaBoost signifikant geringer sein. Für ein gegebenes Merkmal ist SDEM häufig in der Lage, den besten Klassifikator für den entsprechenden Merkmalsraum zu lernen. Die besten Merkmale von Objekten können automatisch für ein gegebenes Klassifikationsproblem ausgewählt werden.
  • Im Allgemeinen wird der SDEM-Algorithmus verwendet, um die Kombination von Stufen 500 für jeden Schritt 400 zu trainieren. Wie in Gleichung (4) definiert, umfasst eine Stufe 500 eine Stufenfunktion gi(x), die gleich einer Transformation t eines Merkmals f ^k ist. Die Trainingsaufgabe wählt die beste Transformation t zusammen mit dem besten Merkmal f ^k, so dass, wenn eine spezielle Stufe 500 zu einem Schritt 400 hinzugefügt wird, die Leistung des Objektklassifikators maximiert wird. Mit anderen Worten, der SDEM-Algorithmus wählt die Transformation t und das Merkmal f ^k für eine spezielle Stufe so aus, dass eine Zielfunktion maximiert wird. Der Satz F von Merkmalen kann endlich sein und der Satz T von Transformationen kann kontinuierlich und differenzierbar sein. Gemäß dem SDEM-Algorithmus wird für jede Wahl von f ^k eine Suche in dem Satz T durchgeführt, um die Transformation t zu identifizieren, die an einem Trainingsdatensatz am besten arbeitet. Die Suche im Satz T kann unter Verwendung von uneingeschränkten Standard-Optimierungsverfahren durchgeführt werden, wie z. B., jedoch nicht begrenzt auf ein Quasi-Newton-Optimierungsverfahren. Sobald die beste Transformation t für jede Wahl von f ^k identifiziert ist, kann das beste Merkmal gemäß einem abgeschätzten Verallgemeinerungsfehler ∊ ^(g) ausgewählt werden. Die Auswahl des besten Merkmals kann folgendermaßen geschrieben werden:
    Figure 00250001
  • Eine der Eigenschaften des SDEM-Algorithmus besteht darin, dass, wenn eine Stufe 500 zu einem Schritt 400 hinzugefügt wird, das Hinzfügen der Stufe 500 die Leistung des Objektklassifikators an dem Trainingsdatensatz verbessert. Wenn eine neue Stufe nicht identifiziert werden kann, die die Leistung des Objektklassifikators verbessert, endet der SDEM-Algorithmus automatisch. Anstatt zu warten, bis der SDEM-Algorithmus automatisch endet, kann alternativ eine Anzahl von Stufen 500 eines Schritts 400 durch einen Systementwickler bestimmt werden. Mit anderen Worten, der SDEM-Algorithmus beendet das Training, wenn eine maximale Anzahl von Stufen 500, die vom Entwickler festgelegt werden, erreicht ist oder wenn keine Stufe 500 hinzugefügt werden kann, die die Leistung verbessert.
  • Der SDEM-Algorithmus wählt eine Reihe von Merkmalen/Transformationen derart aus, dass, wenn sie kombiniert werden, die Kombination eine einzelne der Merkmale/Transformationen übertrifft. Obwohl das Seitenverhältnis eines Objekts beispielsweise ein schlechtes Merkmal für die Verwendung zur Klassifikation allein sein könnte, kann, wenn es mit lokalen Gradienteninformationen kombiniert wird, das Seitenverhältnis die Klassifikationsgenauigkeit, die den lokalen Gradienteninformationen allein entspricht, verbessern. Eine Anzahl von einfachen Merkmalen und Transformationen kann kombiniert werden, um einen sehr genauen Objektklassifikator zu erzeugen. Tatsächlich erzeugt die Trainingsaufgabe Supermerkmale durch Kombinieren eines Satzes von Aussehensmerkmalen für ein Objekt.
  • Ein Trainingsverfahren 800 zum Aufbauen der Stufen 500 des ersten Schritts 400 wird nun mit Bezug auf den Ablaufplan von 8 genauer beschrieben. Die folgende Beschreibung ist auch auf die Stufen 500 der anderen Schritte 400 anwendbar. Der Trainingsdatensatz für einen Klassifikator umfasst Darstellungen von Mitgliedern und Nicht-Mitgliedern der speziellen Objektklasse. Um beispielsweise den Klassifikator 300 für den vollständigen menschlichen Körper zu trainieren, umfasst der Trainingsdatensatz Darstellungen von Bildern von vollständigen menschlichen Körpern und Bilder von anderen Objekten. Die Merkmale f ^1, f ^2, ..., f ^m der Objekte können aus dem Trainingsdatensatz extrahiert werden. Die Objekte des Trainingsdatensatzes können von einem Benutzer als entweder Mitglied oder Nicht-Mitglied der speziellen Objektklasse manuell bezeichnet werden, was zu bezeichneten Objekten 802 führt. Die Merkmale f ^1, f ^2, ..., f ^m jedes bezeichneten Objekts 802 werden identifiziert und extrahiert (Schritte 804a, 804b und 804c). Jedes Merkmal f ^1, f ^2, ..., f ^m wird verwendet, um eine separate Stufe zu trainieren, und die Stufe, die den Wert der Zielfunktion maximiert, wird ausgewählt. Irgendeine Anzahl von Merkmalen kann verwendet werden. Von M (z. B. M = 60) Merkmalen kann beispielsweise eines ein Seitenverhältnis sein und die anderen M-1 Merkmale können die Vektoren der Größe B sein, die Kantenorientierungshistogrammen mit B Intervallbereichen für M-1 verschiedene Bereiche eines Bildes eines bezeichneten Objekts entsprechen.
  • Nachdem die Merkmale f ^1, f ^2, ..., f ^m aus den bezeichneten Objekten 802 extrahiert sind, wird die beste Transformation t für jedes der Merkmale f ^1, f ^2, ..., f ^m ausgewählt (Schritte 806a, 806b und 806c). Die Transformationen können auf der Basis von Standard-Optimierungsverfahren ausgewählt werden. Eine Transformation t kann als Entscheidungsgrenze betrachtet werden, die die bezeichneten Objekte im Merkmalsraum trennt. Folglich entspricht die beste Transformation t einer Entscheidungsgrenze, die die Mitglieder und Nicht-Mitglieder der Objektklasse am besten trennt. Im Zusammenhang mit der Diskriminantenfunktion, die aus dem Gewichtsvektor w -i und der Aktivierungsfunktion βi besteht, entspricht die Auswahl der besten Transformation t der Auswahl der Aktivierungsfunktion βi und der Komponenten des Gewichtsvektors w -i, die die Mitglieder und Nicht-Mitglieder der Objektklasse am besten trennen. Die Aktivierungsfunktion βi kann aus einem Satz von mehreren Funktionstypen ausgewählt werden, wie z. B., jedoch nicht begrenzt auf eine S-förmige Funktion und eine Funktion auf radialer Basis (z. B. eine Gauß-Funktion). Im Gegensatz zu bekannten Kaskaden-Klassifikatoren kann somit eine erste Stufe einen anderen Typ von Diskriminantenfunktion im Vergleich zu einer zweiten Stufe umfassen.
  • Nachdem die Transformationen für die Merkmale f ^1, f ^2, ..., f ^m ausgewählt sind, wird ein Wert einer Zielfunktion entsprechend jeder Merkmals/Transformations-Kombination berechnet (Schritte 808a, 808b und 808c). Die Zielfunktion kann zu einem Maß von Klassifikationsfehlern proportional sein oder sie kann eine nichtlineare, aber monoton veränderliche Funktion der Klassifikationsfehler sein. Die berechneten Werte der Zielfunktion können mit der Anzahl und/oder Schwere von Klassifikationsfehlern in Zusammenhang stehen, die von den verschiedenen Merkmals/Transformations-Kombinationen gemacht werden. Ein erster berechneter Wert kann beispielsweise mit der Anzahl von Klassifikationsfehlern in Zusammenhang stehen, der vom Merkmal f ^1, und seiner entsprechenden Transformation gemacht wird. Die berechneten Werte der Zielfunktion werden verglichen und die Merkmals/Transformations-Kombination, die den maximalen berechneten Wert aufweist, wird für die erste Stufe 500 des ersten Schritts 400 ausgewählt (Schritt 810).
  • Nachdem das Merkmal und die Transformation für die erste Stufe 500 ausgewählt sind, werden die bezeichneten Objekte 802 mit verschiedenen Gewichten unter Berücksichtigung der von der ersten Stufe 500 getroffenen Entscheidungen gewichtet (Schritt 812). Die Objekte können als Funktion dessen gewichtet werden, wie nahe ihre entsprechenden Datenpunkte im Merkmalsraum an der durch die erste Stufe 500 dargestellten Entscheidungsgrenze liegen. Die Objekte, die Datenpunkten nahe der Entscheidungsgrenze im Merkmalsraum entsprechen, können beispielsweise mit höheren Gewichten im Vergleich zu Objekten mit Datenpunkten, die von der Entscheidungsgrenze weit weg liegen, gewichtet werden, so dass eine zweite Stufe 500 trainiert werden kann, indem man sich mehr auf diejenigen Objekte konzentriert, die die erste Stufe 500 etwas verwirrt haben. Der Abstand zwischen einem Datenpunkt eines Objekts und der Entscheidungsgrenze der ersten Stufe 500 kann mit dem für das Objekt berechneten Skalarwert γ in Beziehung stehen.
  • Das Trainingsverfahren 800 wird für die nächste Stufe wiederholt. Nachdem die bezeichneten Objekte gewichtet sind, wird die beste Transformation wieder für die Merkmale f ^1, f ^2, ..., f ^m ausgewählt (Schritte 806a, 806b und 806c werden wiederholt). Die Merkmale f ^1, f ^2, ..., f ^m werden jedoch nun gewichtet und die beste Transformation t für jedes der Merkmale f ^1, f ^2, ..., f ^m wird unter Berücksichtigung der ersten Stufe 500 ausgewählt. Die beste Transformation t kann der Transformation entsprechen, die zur größten Erhöhung des Zielfunktionswerts führt. Die Werte der Zielfunktion werden wieder berechnet und verglichen, um die Funktion/Transformation für die zweite Stufe 500 zu bestimmen (Schritte 808a, 808b, 808c und 810 werden wiederholt). Um eine dritte Stufe 500 aufzubauen, werden die bezeichneten Objekte erneut gewichtet, wobei den Objekten, die für die erste und die zweite Stufe 500 etwas verwirrend waren, höhere Gewichte gegeben werden. Wieder werden die Schritte 806a, 806b und 806c wiederholt, aber die Merkmale f ^1, f ^2, ..., f ^m werden erneut gewichtet und die beste Transformation t für jedes der Merkmale f ^1, f ^2, ..., f ^m wird unter Berücksichtigung der ganzen ersten und zweiten Stufe 500 ausgewählt. Die Werte der Zielfunktion werden wieder berechnet und verglichen, um die Funktion/Transformation für die dritte Stufe 500 zu bestimmen (Schritte 808a, 808b, 808c und 810 werden wiederholt). Der Prozess des Auswählens des besten Merkmals/der besten Transformation und der Gewichtung der bezeichneten Objekte über jede Iteration des Trainings einer neuen Stufe kann sich als Gradientenanstieg im Funktionsraum oder als Prozess zum Erhöhen des Gesamtwerts der Zielfunktion vorgestellt werden.
  • Sobald der erste Schritt 400 trainiert ist, sind die Schwellenwerte τa und τr derart, dass gewünschte falsch positive und falsch negative Raten festgelegt werden können. Wenn die Stufen 500 für den ersten Schritt 400 konstruiert werden, werden überdies die Gewichtungskoeffizienten α auch ausgewählt. Wenn jede Stufe 500 zum ersten Schritt 400 hinzugefügt wird, werden beispielsweise die Gewichtungskoeffizienten α für die Stufen eingestellt, um die Werte für die Gewichtungskoeffizienten α zu finden, die der niedrigsten Gesamtfehlerrate für den ersten Schritt 400 entsprechen. Die Gewichtungskoeffizienten α können beispielsweise unter Verwendung einer Liniensuchoptimierungsstrategie ausgewählt werden.
  • Nachdem der erste Schritt 400 trainiert ist, können die Stufen 500 eines zweiten Schritts 400 trainiert werden. Die zum Trainieren des zweiten Schritts 400 verwendeten Trainingsdaten sind jedoch eine Teilmenge des zum Trainieren des ersten Schritts 400 verwendeten Trainingsdatensatzes. Die Teilmenge der Trainingsdaten entspricht den bezeichneten Objekten, die der erste Schritt 400 als Mitglied der Objektklasse weder annehmen noch ablehnen konnte. Mit anderen Worten, der zweite Schritt 400 wird mit den bezeichneten Objekten trainiert, die einen entsprechenden Entscheidungsschrittwert hatten, der größer war als der Ablehnungsschwellenwert τr, aber geringer als oder gleich dem Annahmeschwellenwert τa war. Dies ermöglicht, dass sich der zweite Schritt 400 nur auf diejenigen Objekte konzentriert, die der erste Schritt 400 verwirrend fand.
  • Aufgrund der stufenweisen Progression des Trainingsverfahrens 800 sollte es natürlich die beste Reihenfolge der Kriterien in den N Schritten des Klassifikators 300 bestimmen und zu den wenigsten Schritten führen, die erforderlich sind, um die Klassifikation durchzuführen. Folglich sollte die Klassifikation, die in einem aufgestellten, trainierten Einsatzortsystem durchgeführt wird, sowohl die Ausführungszeit, die erforderlich ist, um eine Klassifikation auszugeben, als auch die Verarbeitungsleistung, die erforderlich ist, um die Klassifikation zu erzeugen, minimieren.
  • Sobald ein Objektklassifikator mit den bezeichneten Objekten trainiert ist, kann der Objektklassifikator durch andere Trainingsschritte fortfahren, um die für die verschiedenen Stufen ausgewählten Merkmale/Transformationen zu verfeinern. Eine Methode hoher Ebene für das Trainieren eines Objektklassifikators ist im Ablaufplan von 9 gezeigt, der ein Trainingsverfahren 900 darstellt. Bilddaten 901 (z. B. rohe Videodaten) werden zu einem einfachen Basis- oder Keimsystem geliefert, das zu einer Basisdetektion, -verfolgung und -klassifikation von Objekten in der Lage ist. Das Basissystem detektiert, verfolgt und klassifiziert Objekte, die in den Bilddaten 901 dargestellt sind, und erzeugt Metadaten, die den Objekten entsprechen (Schritt 902). Das Basissystem wählt einen Satz von Objekten aus, die detektiert und verfolgt werden (Schritt 904). Die Auswahl der Objekte kann von der Menge an Zeit abhängen, die sich ein Objekt im Blickfeld einer Bilderfassungsvorrichtung 102 befand, oder kann davon abhängen, wie zuversichtlich das Basissystem bei seiner Klassifikation eines Objekts war. Andere Regeln können festgelegt werden, um vorzugeben, ob ein Objekt durch das Basissystem ausgewählt wird oder nicht.
  • Bilder der Objekte, die vom Basisklassifikator ausgewählt werden, werden einem Benutzer auf einer Anzeige präsentiert, so dass der Benutzer die Objekte als Mitglieder oder Nicht-Mitglieder der speziellen Objektklasse des trainierten Objektklassifikators manuell bezeichnen kann. Der Benutzer an der Benutzerschnittstelle 104 bezeichnet die Objekte manuell und die bezeichneten Objekte werden zum trainierten Objektklassifikator geliefert (Schritt 906). Die vom Benutzer manuell bezeichneten Objekte können den vorstehend beschriebenen bezeichneten Objekten entsprechen. Der Objektklassifikator wird mit den bezeichneten Objekten trainiert, wie z. B. gemäß dem Trainingsverfahren 800, wie vorstehend mit Bezug auf 8 beschrieben. Bilddaten 901 werden zum trainierten Objektklassifikator geliefert. Der trainierte Objektklassifikator klassifiziert die in den Bilddaten 901 dargestellten Objekte und erzeugt Metadaten, die die Klassen der Objekte darstellen (Schritt 910). Jedes vom trainierten Objektklassifikator klassifizierte Objekt weist ein Klassifikationsvertrauensniveau auf, das ihm zugeordnet ist. Das Klassifikationsvertrauensniveau entspricht dem Entscheidungsschrittwert des Schritts 400, der das Objekt als Mitglied oder Nicht-Mitglied der Objektklasse klassifiziert hat. Die durch den trainierten Objektklassifikator erzeugten Klassifikationsvertrauensniveaus werden analysiert, um Objekte zu identifizieren, die für den trainierten Objektklassifikator verwirrend waren (z. B. Objekte mit einem niedrigen Klassifikationsvertrauensniveau). Die Leistung des trainierten Objektklassifikators wird ausgewertet, um festzustellen, ob die Leistung des Objektklassifikators annehmbar ist (Schritt 912).
  • Um festzustellen, ob die Leistung des Objektklassifikators annehmbar ist, kann ein zerlegter Testsatz verwendet werden, wobei die Klasse der Objekte des zerlegten Testsatzes vor der Klassifikation durch den trainierten Objektklassifikator bekannt ist. Die Bilddaten 901, die zum trainierten Objektklassifikator geliefert werden, können dem zerlegten Testsatz entsprechen, und die durch den trainierten Objektklassifikator durchgeführten Klassifikationen können mit den tatsächlichen Klassen der Objekte verglichen werden. Aus diesem Vergleich kann die Leistung des trainierten. Objektklassifikators bestimmt werden. Wenn die Leistung nicht gleich der oder über irgendeinem vordefinierten Leistungsniveau liegt, werden die verwirrenden Objekte für den Benutzer für manuelle Bezeichnungen dargestellt (Schritt 904). Der Benutzer bezeichnet die Verwirrungsobjekte und die neuen bezeichneten Objekte werden verwendet, um den Objektklassifikator erneut zu trainieren (Schritte 906 und 800). Wenn der Objektklassifikator erneut trainiert wird, können die Merkmals/Transformations-Kombinationen für die verschiedenen Stufen 500 auf der Basis der neuen bezeichneten Objekte aktualisiert werden. Der erneut trainierte Objektklassifikator wird verwendet, um Objekte zu klassifizieren, die in den Bilddaten 901 dargestellt sind, und die Leistung des erneut trainierten Objektklassifikators wird ausgewertet (Schritte 910 und 912). Der Neutrainingsprozess kann fortfahren, bis die Leistung des trainierten Objektklassifikators annehmbar ist. Wenn die Leistung des trainierten Objektklassifikators annehmbar ist, kann er eingesetzt werden (Schritt 914). Der Trainingsprozess kann in die folgenden Schritte umgestaltet werden:
    • 1. Manuelles Bezeichnen eines gewissen kleinen Bruchteils eines Datensatzes.
    • 2. Trainieren eines Objektklassifikators unter Verwendung des Bruchteils des Datensatzes.
    • 3. Verwenden eines neu trainierten Klassifikators, um den vollständigen Datensatz automatisch zu bezeichnen.
    • 4. Auswählen eines Satzes von automatisch bezeichneten Datenpunkten, die für den Objektklassifikator verwirrend waren.
    • 5. Manuelles Bezeichnen der verwirrenden Datenpunkte.
    • 6. Wiederholen des Trainings mit allen neuen bezeichneten Datenpunkten.
    • 7. Gehen zu Schritt 3.
  • Klassifikationsvertrauen
  • Der Entscheidungsschrittwert s(X) wird mit dem Vertrauen in die Klassifikation korreliert. Die Korrelation kann nicht linear sein, d. h. der Schritt 400 kann einen hohen positiven Wert erzeugen, aber das Objekt kann nicht ein Mitglied der Objektklasse sein. Durch den Trainingsprozess gilt typischerweise, je höher der Wert von s(X) ist, desto weniger wahrscheinlich hat Schritt 400 einen Fehler gemacht. Das Vertrauensniveau, das einem bestimmten Wert von s(X) zugeordnet ist, kann berechnet werden, indem zuerst eine Indikatorfunktion ε(Γ(X)) definiert wird, in der gilt:
    Figure 00330001
  • Eine Vertrauensfunktion Ψ(Γ(X)) kann als Wahrscheinlichkeit, dass der Schritt 400 ein Objekt als zur positiven Klasse gehörend deklariert hat und dass es für eine Ausgabe von s(X) = v korrekt war, definiert werden. Folglich kann für ein kleines Quantisierungsintervall [v – Δ, v + Δ] die Vertrauensfunktion folgendermaßen ausgedrückt werden:
    Figure 00330002
  • Es ist zu beachten, dass betrachtet werden kann, dass der Schritt 400 ein Objekt als zur positiven Klasse gehörend deklariert, wenn s(X) > 0, d. h. P,Ω|Γ(ω = +Klasse | s(X) > 0) = 1. Für v > 0, kann folglich die Gleichung (11) ausgedrückt werden als:
    Figure 00330003
  • Gleichung (12) stellt die wahre positive Rate dar, wenn v ∊ [Δ, 1 – Δ] und s(X) ∊ [v – Δ, v + Δ].
  • Ebenso kann das Vertrauen eines Schritts 400 beim Deklarieren, dass das Objekt zur negativen Klasse für v ≤ –Δ gehört, ausgedrückt werden als:
    Figure 00340001
  • Gleichung (13) stellt die wahre negative Rate dar, wenn v ∊ [–1 + Δ, –Δ] und s(X) ∊ [v – Δ, v + Δ]. Wenn die Wahrscheinlichkeit (wie in Gleichungen (12) und (13) definiert), dass der Schritt 400 für irgendeinen beobachteten Ausgangswert s(X) = v korrekt ist, hoch ist, dann wird folglich Schritt 400 als in seiner Antwort vertrauenswürdig betrachtet. Für diese Selbstbewertung des Vertrauens wird ein Wahrscheinlichkeitsmaß p ^ε|jΩΓ aus dem Trainingsdatensatz abgeschätzt und die Vertrauensfunktion Ψ(Γ(X)) wird gefolgert. Wenn die Vertrauensfunktion Ψ(Γ(X)) geringer ist als ein kritischer Vertrauensschwellenwert ψc für einen gegebenen Ausgangswert von s(X), dann wird Schritt 400 für diesen Ausgangswert als unsicher oder verwirrt betrachtet. Unsichere Klassifikationen werden zum nächsten Schritt 400 weitergeleitet. Somit kann die Vertrauensfunktion Ψ(Γ(X)) während des Trainings verwendet werden, um die Objekte, die für einen Objektklassifikator verwirrend sind, zu identifizierten. Wenn Diskriminantenfunktionen, die die Stufen 500 bilden, eine gute Näherung für die optimale Bayes-Entscheidungsgrenze sind, dann steht der Entscheidungsschrittwert s(X) monoton mit der Vertrauensfunktion Ψ(Γ(X)) in Beziehung. Für die anfänglichen Schritte 400 kann der Objektklassifikator sich nicht gut der Bayes-Entscheidungsgrenze nähern. Folglich können der Entscheidungsschrittwert s(X) für einen gegebenen Schritt 400 und die Vertrauensfunktion Ψ(Γ(X)) nicht immer monoton in Beziehung stehen.
  • Die Vertrauensfunktion Ψ(Γ(X)) kann verwendet werden, um den Annahmeschwellenwert τa und den Ablehnungsschwellenwert τr für die verschiedenen Schritte 400 zu bestimmen. Im Gegensatz zu anderen Kaskaden-Klassifikatorarchitekturen kann, wenn die Vertrauensfunktion Ψ(Γ(X)) für die positive Klasse mit dem Entscheidungsschrittwert s(X) monoton zunimmt, der Annahmeschwellenwert τa derart gewählt werden, dass wahre positive Einschränkungen erfüllt werden. Wenn die Vertrauensfunktion Ψ(Γ(X)) nicht mit dem Entscheidungsschrittwert s(X) monoton zunimmt, dann kann der Annahmeschwellenwert τa bei 1 gesättigt bleiben, d. h. keine Muster werden als positive Klasse im entsprechenden Schritt 400 angenommen. Ein Mangel an Monotonie deutet darauf hin, dass im positiven Bereich die Entscheidungsgrenze den optimalen Bayes-Klassifikator nicht ausreichend gut widerspiegelt. Ebenso wird der Ablehnungsschwellenwert τr gewählt, wenn das Vertrauen der negativen Klasse monoton mit dem Entscheidungsschrittwert s(X) in Beziehung steht. In der Praxis kann die negative Klasse weitaus dichter im Merkmalsraum besetzt sein als die positive Klasse. Obwohl eine monotone Beziehung für die positive Klasse in frühen Schritten nicht existieren kann, existiert sie folglich sehr wahrscheinlich für die negative Klasse in den frühen Schritten.
  • Laufzeitklassifikatorentwicklung
  • Bis zu diesem Punkt wurden das Klassifikatormodell, seine Klassifikationsoperation und sein aktives Offline-Lernen beschrieben. Als nächstes wird die Online-Entwicklung des Klassifikators beschrieben. Die Online-Laufzeitklassifikatorentwicklung ist ähnlich zum vorstehend beschriebenen und in 9 dargestellten aktiven Offline-Lernprozess. Die Laufzeitentwicklung umfasst die folgenden Schritte: (1) Gewinnen einer Benutzerrückmeldung; (2) Trainieren eines neuen zusätzlichen Schritts für den Klassifikator; (3) Überprüfen des Klassifikators über eine passive Beobachtung; (4) wenn der Klassifikator passiv überprüft ist, Anfordern einer Benutzerüberprüfung und Einsetzen des Klassifikators; und, falls möglich, (5) Hochladen des spezialisierten Klassifikators mit einer Leistungsstatistik und Ortsinformationen in einen zentralen Rückmeldungsserver, so dass ein allgemeinerer Klassifikator, der die Spezialisierung aufnimmt, erzeugt und trainiert werden kann.
  • 10 stellt einen Prozess 1000 zum Gewinnen einer Rückmeldung von einem Benutzer, der die Benutzerschnittstelle 104 bedient, dar. In vielen Sicherheits- und Überwachungssystemen reagiert ein Benutzer wie z. B. ein Sicherheitsbediensteter auf Alarme und bestätigt diese. Wenn ein Alarm als falsch erachtet wird, kann er als Fehlalarm dokumentiert werden oder er kann ignoriert werden. Bei einem bevorzugten Ausführungsbeispiel eines Systems mit einer Laufzeitklassifikatorentwicklung informiert der Benutzer das System explizit, wenn der Alarm ein Fehlalarm ist. Folglich stellt das Verfahren 1000 den (die) Alarm(e) für den Benutzer dar (Schritt 1002). Der dem Benutzer präsentierte Alarm umfasst das Klassifikationsergebnis (d. h. die Klassifikation des Objekts, wie durch den Klassifikator bestimmt) und Videodaten, in denen dieses Objekt erscheint. Der Benutzer kann eine Bestätigung oder eine Ablehnung der Klassifikation eingeben. Das Verfahren 1000 nimmt diese Benutzerrückmeldung an (Schritt 1010) und stellt fest, ob der Klassifikator das Objekt falsch klassifiziert hat (Schritt 1012). Das Verfahren 1000 sammelt den Satz von Merkmalen, die für die Klassifikation verwendet werden, und speichert ihn als ”Fehlermetadaten” (Schritt 1014). Wenn die Anzahl von Fehlern einen vorgegebenen Wert übersteigt, kann das Verfahren 1000 eine ”Spezialisierungs”-Korrekturtrainingsprozedur einleiten.
  • Ein Fehler kann die Form eines falsch positiven Resultats annehmen, was bedeutet, dass der Klassifikator ein Objekt fälschlich als Teil einer positiven Klasse in einem vorherigen Schritt in der Kaskade angenommen hat (z. B. der Klassifikator einen Nicht-Menschen als Objekt des menschlichen Typs klassifiziert hat). Ein Fehler kann auch die Form eines falsch negativen Resultats annehmen, was bedeutet, dass der Klassifikator ein Objekt abgelehnt hat und geschlussfolgert hat, dass es sich um ein Nicht-Mitglied einer Objektklasse handelt, wenn das Objekt tatsächlich ein Mitglied dieser Klasse ist (z. B. der Klassifikator einen Menschen nicht als Objekt vom menschlichen Typ klassifiziert hat). Der Klassifikator kann beispielsweise einem Objekt, das er nicht mit ausreichendem Vertrauen klassifizieren kann, eine ”verdächtige” oder ”unbekannte” Klasse zuweisen. Wenn ein solches Objekt tatsächlich ein Mensch oder ein Fahrzeug oder dergleichen ist, kann der Benutzer diesen Fehler angeben.
  • Eine Spezialisierungstrainingsprozedur kann das Hinzufügen eines zusätzlichen Schritts am Ende der Kaskade von Schritten, die den Klassifikator bilden, und das Trainieren dieses neuen Schritts, um Fehlalarme von gültigen oder ”echten” Alarmen zu trennen, wie durch die Benutzerrückmeldung angegeben, zur Folge haben. Der zusätzliche Schritt, der zum Klassifikator hinzugefügt wird, kann als ”Spezialisierungsschritt” bezeichnet werden. In einer Hinsicht unterstützt der Spezialisierungsschritt den Klassifikator, damit er beim Klassifizieren von Objekten spezialisierter wird, die diesem speziellen Klassifikator in Anbetracht seines Orts, Kamera(s) usw. präsentiert werden.
  • Gemäß einem Ausführungsbeispiel nimmt die Spezialisierung eine von zwei Formen an: (1) Ortsspezialisierung und (2) Kameraspezialisierung. In diesem Ausführungsbeispiel werden diese Spezialisierungsschritte unter Verwendung von Fehlalarmfehlern trainiert. Wie in 11 dargestellt, hat somit der Klassifikator 300 eine fehlerhafte positive Klassifikation in irgendeinem Schritt 1 bis N in seiner Kaskade durchgeführt. Die falsch positiven Resultate werden vom Klassifikator 300 zu einem Ortsspezialisierungsschritt 1110 übertragen und dann, falls erforderlich, zu einem Kameraspezialisierungsschritt 1120, falls vorhanden.
  • Der Ortsspezialisierungsschritt 1110 ist ein allgemeiner Schritt, der trainiert wird, um Fehlalarme zu verringern, unter Verwendung von Merkmalen, die als Teil der Operation des allgemeinen Klassifikators 300 extrahiert werden. Die zum Trainieren des Ortsspezialisierungsschritts 1110 verwendeten Daten sind ortsspezifisch. Folglich kann ein ortsspezialisierter Klassifikator 1130 (d. h. ein Klassifikator, der so modifiziert oder verbessert ist, dass er den Ortsspezialisierungsschritt 1110 umfasst) an einem anderen Ort nicht mit erhöhter Genauigkeit funktionieren.
  • Der Kameraspezialisierungsschritt 1120 ist ein Schritt, der trainiert wird, um Fehlalarme nur für eine spezifische Kamera zu verringern. Wenn es dem ortsspezialisierten Klassifikator 1130 misslingt, die Anzahl von Fehlalarmen zu verringern, dann kann ein kameraspezialisierter Klassifikator 1140 trainiert werden.
  • 12 ist ein Ablaufplan eines Spezialisierungstrainingsprozesses 1200 mit aktiver Überprüfung. Nachdem eine ausreichende Anzahl von Fehlern gesammelt wurde (Schritte 1202 und 1204), wird ein Ortsspezialisierungsschritt hinzugefügt und trainiert (Schritt 1206). Die Leistung des ortsspezialisierten Klassifikators wird über einen Überprüfungsprozess bewertet (Schritt 1208). Wenn seine Leistung annehmbar ist, d. h. wenn seine Fehlerrate ausreichend niedriger ist als jene des allgemeinen Klassifikators (Schritt 1210), dann geht das Verfahren zu Schritt 1218 weiter. Wenn jedoch die Fehlerrate nicht ausreichend verringert ist, dann wird ein Kameraspezialisierungsschritt für jede Kamera hinzugefügt, die eine Quelle der Fehler war (Schritt 1212). Die Leistung des kameraspezialisierten Klassifikators wird über einen Überprüfungsprozess bewertet (Schritt 1214). Wenn seine Leistung annehmbar ist (Schritt 1216), dann geht das Verfahren zu Schritt 1218 weiter. Wenn die Nettofehlerrate immer noch nicht ausreichend verringert ist, dann wird der Benutzerrückmeldungssammelschritt 1202 fortgesetzt. Wenn ein verbesserter Klassifikator konstruiert wird, dann werden irgendwelche vorher trainierten Spezialisierungen getestet (1218), um festzustellen, ob sie mit der neuen Spezialisierung konsistent sind. Wenn eine vorher trainierte Spezialisierung existiert, die konsistent ist, dann wird die vorher trainierte Spezialisierung ausgewählt (Schritt 1220) und zu einem passiven Überprüfungsschritt 1224 des Verfahrens 1200 gelenkt. Ansonsten wird die neu trainierte Spezialisierung ausgewählt (Schritt 1222) und in Schritt 1224 des Verfahrens 1200 passiv überprüft. Wenn die neue Spezialisierung überprüft ist und eingesetzt werden kann (Schritt 1226), wird sie zur Datenbank von Spezialisierungsschritten hinzugefügt (Schritt 1228) und tatsächlich eingesetzt (Schritt 1230). Der Speicherschritt 1228 ist vorteilhaft, da verschiedene Spezialisierungen für verschiedene Jahreszeiten des Jahres oder verschiedene Konfigurationen der überwachten Szene erforderlich sein können. Folglich ist es möglich, dass eine vorher eingesetzte Spezialisierung zu einem späteren Zeitpunkt wieder verwendet wird.
  • Zwei unterschiedliche Überprüfungsoperationen können ausgeführt werden, bevor ein Klassifikator eingesetzt wird. Erstens vergleicht die passive Überprüfung die vom Benutzer gebotene Rückmeldung, die die Alarme und die Entscheidungen des spezialisierten Klassifikators bestätigt. Wenn der spezialisierte Klassifikator mit dem Benutzer konsistenter ist als der eingesetzte Klassifikator, wird der spezialisierte Klassifikator als gültig betrachtet und kann dann einer aktiven Überprüfung unterzogen werden, die der zweite Typ von Überprüfung ist. Während der aktiven Überprüfung präsentiert das System dem Benutzer den spezialisierten Klassifikator aktiv, wobei es die Fehlalarme, die der spezialisierte Klassifikator abgelehnt hat, und/oder wahre positive Resultate, die vom spezialisierten Klassifikator abgelehnt wurden, zeigt. Der Benutzer wählt die Fehler aus, die annehmbar sind, und jene, die es nicht sind. Das System versucht dann, den Ablehnungsschwellenwert τr und/oder den Annahmeschwellenwert τa für den spezialisierten Klassifikator derart einzustellen, dass die Vorlieben des Benutzers am genauesten erfüllt werden. Wenn das Leistungsziel nicht erfüllt werden kann, dann wird der Klassifikator als ungültig deklariert und der Datensammelschritt fährt fort. Ansonsten wird der spezialisierte Klassifikator eingesetzt.
  • 13 stellt einen passiven Überprüfungsprozess 1300 genauer dar. Der Prozess 1300 stellt (einen) Alarm(e) für eine Kamera 102 sowohl für einen Benutzer als auch einen spezialisierten Klassifikator dar (Schritte 1302 und 1312). Der Benutzer an der Benutzerschnittstelle 104 bestätigt entweder den (die) Alarm(e) oder lehnt ihn (sie) ab und diese Benutzerrückmeldung wird vom Prozess 1300 angenommen (Schritt 1310). Ebenso nimmt der spezialisierte Klassifikator entweder die einen Alarm auslösenden Objekte als Mitglieder der Klasse an, die den Fehlalarm ausgelöst haben, oder lehnt sie ab und diese Entscheidungsergebnisse werden vom Verfahren 1300 angenommen (Schritt 1340). Der Prozess 1300 vergleicht automatisch die Benutzerrückmeldung, die Alarme bestätigt, mit Entscheidungen, die vom spezialisierten Klassifikator getroffen werden (Schritt 1350). Wenn der spezialisierte Klassifikator mit dem Benutzer nicht konsistenter ist als der eingesetzte Klassifikator (Schritt 1360), dann wird er der fortgesetzten Verfeinerung unterzogen (Schritt 1370). Wenn der spezialisierte Klassifikator mit dem Benutzer konsistenter ist als der eingesetzte Klassifikator (Schritt 1360), wird der spezialisierte Klassifikator als gültig betrachtet und wird zu einer aktiven Überprüfungsoperation übergeben (Schritt 1380). Eine Erhöhung der Konsistenz bedeutet, dass die Spezialisierung die Mehrheit von Fehlalarmen ablehnen kann, während echte Alarme nicht abgelehnt werden. Nur konsistentere Spezialisierungen werden zum aktiven Überprüfungsschritt 1380 weitergeleitet und schließlich eingesetzt (Schritt 1390).
  • 14 zeigt einen aktiven Überprüfungsprozess 1400, der einen Benutzer aktiv in Anspruch nimmt, um einen spezialisierten Klassifikator zu überprüfen. Der im aktiven Überprüfungsprozess verwendete Benutzer ist vorzugsweise ein Aufseher, Manager oder eine andere höherrangige Person, die in der Erfassung von Fehlern oder absichtlicher Sabotage an dem System erfahrener ist. Der Prozess 1400 unterteilt Inkonsistenzen von spezialisierten Klassifikatoren in falsch positive Resultate und falsch negative Resultate (Schritt 1410). Der Prozess 1400 stellt beide für den Benutzer dar (Schritte 1420 und 1430). Der Benutzer an der Benutzerschnittstelle 104 kategorisiert dann Fehler als annehmbar oder unannehmbar. Ein Kompromiss von Fehlalarm/falsch negativem Resultat wird automatisch durch entsprechendes Wählen von τr durchgeführt (Schritt 1440). Das Erhöhen von τr erhöht die Anzahl von falsch negativen Resultaten, während die Anzahl von falsch positiven Resultaten verringert wird. Das System versucht, τr so einzustellen, dass der spezialisierte Klassifikator die Vorlieben des Benutzers am genauesten erfüllt. Wenn die Leistung unannehmbar ist (Schritt 1450), wird der Klassifikator für ungültig erklärt und der Datensammelschritt fährt fort (Schritt 1460). Ansonsten wird der spezialisierte Klassifikator eingesetzt (Schritt 1470).
  • Durch Lernen und/oder Spezialisierung kann der Klassifikator sich an seine Umgebung und Änderungen daran automatisch anpassen. Ein Kamerasystem mit einem solchen Klassifikator kann wenig oder keine manuelle geometrische Kalibrierung oder Abstimmung am Einsatzort benötigen. Dies kann zu beträchtlichen Kosteneinsparungen durch Verringern oder Beseitigen des Bedarfs für Arbeit durch geschultes Personal zum Installieren des Systems oder zum Einstellen des Systems führen, wie z. B. wenn die Jahreszeiten wechseln oder eine Kamera bewegt wird. Ein Kamerasystem unter Verwendung eines Klassifikators, wie hierin beschrieben, kann häufig durch irgendjemanden installiert werden, der mit der Kamerainstallation vertraut ist.
  • Ein weiterer Vorteil eines genauen Klassifikators besteht darin, dass eine verbesserte Genauigkeit bei der Klassifikation von Objekten die Qualität der Rückmeldung verbessern kann, die zu einem Objektdetektionsmodul und seinen Komponenten geliefert wird, wie z. B. einer Vordergrund/Hintergrund-Trennvorrichtung, wie in der vorstehend angeführten US-Patentanmeldung Nr. 10/884 486 beschrieben, wodurch die Leistung des Gesamtsystems weiter verbessert wird.
  • Ein weiterer Vorteil kann auftreten, wenn eine Rückmeldung über genaue Klassifikatoren von verschiedenen Orten gesammelt wird. Insbesondere wenn eine Spezialisierung trainiert wird und der Ortsspezialisierungsschritt eine beträchtliche Leistungsverbesserung bietet, dann kann der spezialisierte Klassifikator in einen zentralen Rückmeldungsserver hochgeladen werden. 15 zeigt einen Rückmeldungssammel- und Verallgemeinerungsprozess 1500 im Einzelnen. Wenn es vom Benutzer/Ort zugelassen wird, werden Fehlermetadaten für Fehler, die mit Spezialisierung korrigiert werden, gesammelt (Schritt 1505), mit Leistungsstatistiken und Ortsinformationen gebündelt (Schritt 1510) und zu einem Rückmeldungsserver über ein Netzwerk 1520 übermittelt (Schritt 1515). Am Rückmeldungsserver werden die Metadaten und zugehörigen Daten in einer Rückmeldungsdatenbank 1525 gespeichert. Der Prozess 1500 bewertet die Leistung des spezialisierten Klassifikators unter Verwendung der Fehlermetadaten und Videodaten, die in einer Videodatenbank 1530 gespeichert sind, die sich am Rückmeldungsserver befindet oder für diesen zugänglich ist (Schritt 1535). In dieser Weise kann der spezialisierte Klassifikator verwendet werden, um automatisch eine große Sammlung von Trainingsdaten zu bezeichnen. Unbezeichnete Daten, für die der allgemeine Klassifikator nicht mit dem spezialisierten Klassifikator übereinstimmt, können dem Benutzer zum Bezeichnen an der zentralen Trainingseinrichtung (nicht dargestellt) präsentiert werden. Ein neuer allgemeiner Klassifikator wird dann so trainiert, dass er mit dem spezialisierten Klassifikator für diejenigen Muster konsistent ist, die er korrekt klassifiziert hat (Schritt 1540). Spezialisierungen, die von mehreren Orten gesammelt werden, können in einer ähnlichen Weise verwendet werden. Wenn ein neuer allgemeiner Klassifikator trainiert werden kann, der mit allen hochgeladenen spezialisierten Klassifikatoren konsistenter ist, wird der neue allgemeine Klassifikator zu allen Orten für einen möglichen Einsatz verteilt. insbesondere testet der Prozess 1500, ob der allgemeine Klassifikator besser ist als vorherige (Schritt 1545). Wenn ja, kann er als neuer allgemeiner Klassifikator für den Einsatz an Orten verteilt werden (Schritt 1550). Wenn nicht, dann wird der spezialisierte Klassifikator als Ortsschablone markiert. Wenn die Leistung eines spezialisierten Klassifikators als ortsspezifisch erachtet wird, werden seine Entscheidungen mit gespeicherten Ortsschablonen verglichen (Schritt 1555). Wenn eine Ortsschablone existiert, die mit dem spezialisierten Klassifikator konsistenter ist, dann kann die Ortsschablone hochgeladen werden (1565). Ansonsten kann der spezialisierte Klassifikator als neue Ortsschablone gespeichert werden (Schritt 1560).
  • Wahlweise kann der Prozess 1500 testen, ob die Ortsschablone eine jahreszeitliche Verbesserung ist (Schritt 1570), und wenn ja, die Spezialisierung als solche planen (Schritt 1575).
  • Eine zentrale Vereinigung und Verteilung einer Rückmeldung und von aktualisierten neuen oder aktualisierten Klassifikatoren oder Klassifikatorparametern ermöglicht die Integration einer Gemeinschaftsrückmeldung auf der Basis von Erkennungsfehlern. Daten für Kundenorte, die ähnliche Probleme erleben, können vereinigt werden und ein neuer Klassifikator kann dann trainiert und verteilt werden. Diese Rückmeldung auf breiter Basis ermöglicht eine breite Sammlung von Informationen, die in das Training eines neuen Klassifikators integriert werden sollen; beispielsweise können Informationen über Fehlalarme von verschiedenen Systemen geteilt werden. Im Allgemeinen umfassen Metadaten ausreichend Informationen, damit der Klassifikator lernt, ohne auf die ursprünglichen Videodaten zugreifen zu müssen. Wenn ein neuer Klassifikator intern an einem Kundenort aktualisiert wird, wird die neue Version des Klassifikators auch zu anderen Kunden übertragen. Der neue Klassifikator kann beispielsweise verwendet werden, um festzustellen, welche Kundenorte ähnliche Quellen für Fehlalarme haben. Wenn die Anzahl von eingesetzten Systemen zunimmt, können die Menge und die Qualität der gesammelten Rückmeldung auch zunehmen, wodurch die Erzeugung von genaueren allgemeinen Klassifikatoren auf der Basis dieser Rückmeldung ermöglicht wird.
  • Periodische Aktualisierungen können zu allen vernetzten Kameras geschoben werden, ganz wie ein Antivirus-System. Die Klassifikatorspezifikation kann als neue Objektdefinitionsdatei betrachtet werden. Jede neue Definitionsdatei kann beim Kunden unter Verwendung von passiven und aktiven Überprüfungsmechanismen überprüft werden. Wenn die neue Definitionsdatei überprüft ist, dann wird sie dem Benutzer für den Einsatz präsentiert.
  • Das Lernen von neuen allgemeinen Objektklassen folgt derselben Prozedur wie der vorher beschriebene aktive Lernprozess. Das ortsspezifische Lernen von neuen Objektklassen folgt demselben Prozess wie der Fehlalarm-Verringerungsprozess. In einem typischen Fall ist eine neue Klasse gewöhnlich ein spezifischer Typ einer allgemeineren Klasse. Ein Benutzer kann beispielsweise einen Lieferwagen von anderen Fahrzeugen unterscheiden wollen. Folglich ist die Klasse ”Lieferwagen” ein spezifischer Typ von Fahrzeug. Eine Spezialisierungsarchitektur, wie z. B. in 16 gezeigt, mit einem neuen Objektklassifikator 1610 kann dann vielmehr als separater Klassifikator als als Modifikation einer existierenden Klasse ausgeführt werden. Der Spezialisierungsprozess kann als Fehlalarm-Verringerungsprozess betrachtet werden, in dem Fahrzeuge, die keine Lieferwägen sind, Fehlalarme sind. Passive und aktive Überprüfungsoperationen werden vorzugsweise vollendet, bevor ein neuer Klassifikator für die neue Objektklasse eingesetzt wird.
  • Automatische Kalibrierung
  • Ein Kalibrierungsmodul kann im Videoanalysemodul 200 (2) enthalten sein, um repräsentative Größen von verschiedenen klassifizierten Objekten in Reaktion auf Klassifikationen, die vom Objektklassifikationsmodul 210 während des Live-Betriebs durchgeführt werden, automatisch zu aktualisieren. Dagegen kann das Kalibrierungsmodul Informationen, die aktualisierte repräsentative Größen darstellen, zum Objektklassifikationsmodul liefern, um seine Klassifikationsleistung zu verbessern.
  • 17 ist ein Ablaufplan eines Verfahrens 1700, das eine Größenfunktion verwendet und aktualisiert, die eine Größe eines Objekts eines gegebenen Typs mit seinem Ort in einem Blickfeld in Beziehung bringt. Die Größenfunktion kann eine parametrisierte Funktion der Position sein, wie z. B. ein Polynom zweiter Ordnung in X- und Y-Koordinaten. Wenn klassifizierte Objekte 1702, die eine im Allgemeinen konstante Abmessung über alle Mitglieder der Klasse aufweisen (z. B. Höhe von erwachsenen Menschen), durch das Objektklassifikationsmodul zur Verfügung gestellt werden, stellt das Verfahren 1700 fest, ob sie als Mitglieder dieser Klasse mit hohem oder niedrigem Vertrauen klassifiziert werden (Schritt 1710), vorzugsweise durch Untersuchen der vorstehend beschriebenen Vertrauensabschätzung. Wenn das Vertrauen niedrig ist, dann wird die Größenfunktion auf das Objekt in seiner aktuellen Position angewendet (Schritt 1720) und der Wert, der durch die Größenfunktion zurückgegeben wird, wird mit der tatsächlichen Größe in dem Bild verglichen, um festzustellen, ob sie ausreichend eng übereinstimmen (Schritt 1725). Wenn ja, dann kann die Klassifikation des Objekts 1702 als Mitglied der Objektklasse als korrekt bestätigt werden (Schritt 1730). Wenn die tatsächliche und die durch die Größenfunktion berechnete Größe nicht ausreichend eng übereinstimmen, dann klassifiziert das Verfahren 1700 das Objekt als Nicht-Mitglied der Objektklasse (Schritt 1735). In beiden Fällen ist, sobald das Vertrauen des Klassifikators niedrig ist, die Größenfunktion unverändert, da es unvorsichtig wäre, zu versuchen, die Größenfunktion unter Verwendung von fraglichen Daten zu kalibrieren.
  • Wenn das Vertrauen der Klassifikation hoch ist, dann wird das Objekt ungeachtet seiner Größe als Mitglied der Klasse klassifiziert (Schritt 1730). In diesem Fall wird überdies die Größenfunktion unter Verwendung der tatsächlichen Größe des Objekts als zusätzlicher Datenpunkt für die erwartete Größe dieser Klasse des Objekts an dem Ort, an dem es im Bild erscheint, aktualisiert (Schritt 1740). Die Größenfunktion wird durch Modifizieren ihrer Parameter, wie z. B. durch einen rekursiven Algorithmus kleinster Quadrate oder einen ähnlichen Algorithmus, aktualisiert. Das nächste Mal, wenn ein Objekt mit niedrigem Vertrauen dargestellt wird, wird folglich die aktualisierte Größenfunktion angewendet, um die Klassifikation entweder zu bestätigen oder abzulehnen. In dieser Weise wird die Objektklassifikation automatisch während des Laufzeitbetriebs unter Verwendung von zuverlässigen Live-Daten kalibriert.
  • Die Größenfunktion kann eine beliebige parametrisierte Funktion sein, deren Parameter durch Anpassung bestimmt und eingestellt werden können. Eine Höhengrößenfunktion der folgenden Form kann beispielsweise verwendet werden: Höhe (x, y) = ax + by + c (14)
  • Andere Funktionen, wie z. B. Polynome höherer Ordnung, können verwendet werden, falls erwünscht. Die Parameter a, b, und c können auf der Basis einer Anpassung kleinster Fehlerquadrate oder anderer geeigneter Kriterien bestimmt werden, die vorzugsweise rekursiv durchgeführt wird, wobei eine Iteration jedes Mal stattfindet, wenn der Schritt 1740 durchgeführt wird.
  • Es ist auch möglich, eine optionale Größenfehlerfunktion zu verwenden, um den Größenabschätzungsfehler abzuschätzen. Die Größenfehlerfunktion ist ebenso eine parametrisierte Funktion der Koordinaten im Bildblickfeld, Fehler (x, y), und ist eine Abschätzung der Differenz zwischen der Größenfunktion und der tatsächlichen Größe. Die Größenfehlerfunktion selbst kann jedes Mal, wenn eine tatsächliche Größe eines Objekts gemessen wird, rekursiv aktualisiert werden. Wenn die Größenfehlerfunktion einen Wert zurückgibt, der zu hoch ist (d. h. über einem Schwellenwert), dann kann die Größenfunktion ungültig sein und sollte nicht verwendet werden, um zu helfen, Objekte, die durch das Objektklassifikationsmodul 210 mit niedrigem Vertrauen klassifiziert werden, zu klassifizieren. Folglich kann die Größenfehlerfunktion als Selbstprüfverfahren für die automatische Kalibrierung dienen, was eine fehlerhafte Kalibrierung verhindert. Wenn mehrere Male für Objekte mit hohem Vertrauen große Fehler bestehen, dann kann die Kalibrierung für ungültig erklärt werden, vielleicht aufgrund einer externen Änderung wie z. B. einer Bewegung der Kamera. Während Perioden, in denen die Kalibrierung ausgeschaltet ist, kann das Verfahren 1700 weiterhin die Größen- und Größenfehlerfunktionen aktualisieren (d. h. im Zweig des hohen Vertrauens auf der rechten Seite von 17), bis der Größenfehler annehmbar wird, zu welchem Zeitpunkt eine automatische Bestätigung/Ablehnung auf Größenbasis von Objekten mit niedrigem Vertrauen (d. h. im Zweig des niedrigen Vertrauens auf der linken Seite von 17) fortfahren kann.
  • Ein Objekthöhengitter kann wahlweise in der Bildebene konstruiert werden, in der für jede Gitterzelle die mittlere Höhe eines Objekts ohne Hilfe von manueller Kalibrierung abgeschätzt wird. Eine Polynomanpassung kann dann abgeschätzt werden, um den unteren Ort eines Objekts auf seinen oberen Ort abzubilden und umgekehrt. Über die Zeit können genaue Objektgrößenabschätzungen automatisch für verschiedene Teile der Szene erzeugt werden, mit oder ohne Integration einer aktiven Benutzerrückmeldung. In einem bevorzugten Ausführungsbeispiel ist ein manueller Kalibrierungsprozess nicht erforderlich, um genaue Objektgrößenabschätzungen zu erreichen. Wenn eine größere Genauigkeit entwickelt wird, steigt das Vertrauensniveau der gelernten Informationen an, so dass Objektgrößenabschätzungen verwendet werden können, um falsche Detektionen zu verringern. Unter Verwendung von Höheninformationen von überprüften und verfolgten Objekten zusammen mit Kameralinseninformationen kann dann ein vollständiger Satz von Kameraparametern abgeschätzt werden und wiederum verwendet werden, um eine Bodenebene und eine Koordinatenabbildung vom Bild in die reale Welt abzuschätzen. Mit ausreichendem Vertrauen können geometrische Informationen für die Verwendung beim Detektieren von Objekten, die über der Bodenebene liegen, beispielsweise auf oberen Ebenen einer Parkgarage, in der mehrere Stockwerke ähnliche Fahrzeuge enthalten, übertragbar sein.
  • 18 ist ein Blockdiagramm des Videoanalysemoduls 200 gemäß einem weiteren Ausführungsbeispiel mit einem Kalibrierungsmodul 240, das einen automatischen Kalibrierungsprozess, wie z. B. das vorstehend beschriebene Verfahren 1700, durchführt. 18 stellt auch eine Anzahl von anderen optionalen Modulen dar, wie z. B. ein Geschwindigkeitsabschätzmodul 250, das in Verbindung mit dem Kalibrierungsmodul 240 verwendet werden kann, um Geschwindigkeiten von klassifizierten Objekten im Blickfeld unter Verwendung von Maßstabsinformationen abzuschätzen, die von den durch das Kalibrierungsmodul 240 erzeugten Größeninformationen abgeleitet sind.
  • 18 stellt auch ein Klassifikatorentwicklungsmodul 260 dar, das ein Selbstlernen oder eine Entwicklung des Objektklassifikationsmoduls am Einsatzort oder bei der Verwendung durchführen kann, wie z. B. durch irgendeines der hierin beschriebenen Verfahren. 18 stellt auch ein oder mehrere steuerbare Filter 220 dar, die verwendet werden können, um Kantenorientierungswerte zu berechnen. Schließlich stellt 18 eine oder mehrere Histogramm-Datenstrukturen 230 dar, die verschiedene Histogramme darstellen, wie z. B. Kantenorientierungshistogramme oder Farbhistogramme, die als Objektmerkmale für die Zwecke der Objektklassifikation verwendet werden. Histogramm-Informationen können in einer Datenstruktur mit einer Anzahl von Intervallbereichen und Intervallbereichszahlen gespeichert werden, deren Werte Vorkommnisse einer Variable zwischen Intervallbereichsgrenzen darstellen. Anders als gezeigt können ein oder mehrere der Module und anderen Objekte, die in 18 dargestellt sind, vom Videoanalysemodul 200 separat sein und können sich anderswo in der Kamera 102 oder in einem anderen Teil des Kamerasystems 100 befinden.
  • Wie hierin verwendet, ist der Begriff ”Modul” eine Komponente, die ein oder mehrere Hardware-Schaltungen oder -vorrichtungen und/oder eine oder mehrere Softwareroutinen, Funktionen, ein Objekt oder dergleichen umfassen kann. Ein Modul kann vollständig Hardware, vollständig Software sein, Firmware umfassen oder eine gewisse Kombination der vorangehenden umfassen. Wie hierin verwendet, bezieht sich der Begriff ”System” auf eine materielle Sache.
  • Die Verfahren, Module und Systeme, die hierin dargestellt und beschrieben sind, können in einer Vielfalt von Formen sowohl aktiv als auch inaktiv existieren. Sie können beispielsweise teilweise oder vollständig als ein oder mehrere Softwareprogramme existieren, die aus Programmanweisungen in Quellencode, Objektcode, ausführbarem Code oder anderen Formaten bestehen. Irgendeines der obigen kann in komprimierter oder unkomprimierter Form auf einem computerlesbaren Medium, das Speichervorrichtungen umfasst, verkörpert sein. Beispielhafte computerlesbare Speichervorrichtungen umfassen einen RAM (Direktzugriffsspeicher) ROM (Festwertspeicher), EPROM (löschbarer, programmierbarer ROM), EEPROM (elektrisch löschbarer, programmierbarer ROM), Flash-Speicher eines herkömmlichen Computersystems und magnetische oder optische Platten oder Bänder.
  • Abschluss
  • Die vorstehend verwendeten Begriffe und Beschreibungen sind nur zur Erläuterung dargelegt und sind nicht als Begrenzungen gemeint. Der Klassifikator kann beispielsweise ein Teil sein von – und die Klassifikationsverfahren können durchgeführt werden an – einer entfernten Verarbeitungseinheit wie z. B. der entfernten Speicher/Verarbeitungseinheit 106 (1), einem Computer, der der Benutzerschnittstelle 104 zugeordnet ist, einem anderen Knoten im Kameranetzwerk 108 oder einem anderen Server, wie z. B. einem an einem zentralen Ort oder in einem anderen Netzwerk. Der Fachmann auf dem Gebiet wird erkennen, dass diese und viele andere Variationen, Verbesserungen und Modifikationen der hierin beschriebenen Konzepte möglich sind, ohne von den zugrunde liegenden Prinzipien der Erfindung abzuweichen. Der Schutzbereich der Erfindung sollte daher nur durch die folgenden Ansprüche und ihre Äquivalente bestimmt sein.
  • Zusammenfassung
  • Ein Kamerasystem (100) umfasst eine Bilderfassungsvorrichtung (102) und ein Objektklassifikationsmodul (210), das mit der Bilderfassungsvorrichtung (102) verbunden ist. Die Bilderfassungsvorrichtung (102) weist ein Blickfeld auf und erzeugt Bilddaten, die ein Bild des Blickfeldes darstellen. Das Objektklassifikationsmodul (210) ist betriebsfähig, um festzustellen, ob ein Objekt in einem Bild ein Mitglied einer Objektklasse ist oder nicht. Das Objektklassifikationsmodul (210) umfasst N Entscheidungsschritte (400), die in einer Kaskadenkonfiguration konfiguriert sind, wobei mindestens einer der N Entscheidungsschritte (400) betriebsfähig ist, um (a) ein Objekt als Mitglied der Objektklasse anzunehmen, (b) ein Objekt als Mitglied der Objektklasse abzulehnen, und (c) einen nächsten Schritt (400) heranzuziehen, um festzustellen, ob ein Objekt ein Mitglied der Objektklasse ist oder nicht.
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Nicht-Patentliteratur
    • ”Method of Dynamic Object and Event Classification”, eingereicht am 3. März 2008 [0001]
    • ”Method and System for Tracking Objects Under Video Surveillance”, eingereicht am 3. März 2008 [0001]
    • ”Content Aware Storage of Video Data” bzw. ”Extending the Operational Lifetime of a Hard-Disk Drive Used in Video Data Storage Applications” [0038]
    • ”Methods and Systems for Detecting Objekts of Interest in Spatio-Temporal Signals” [0040]
    • ”Objekt Matching for Tracking, Indexing, and Search” [0041]
    • Paul Viola & Michael Jones, ”Robust Real-Time Face Detection”, International Journal of Computer Vision, S. 137–154 (2004) [0051]
    • ”Sequential Discriminant Error Minimization: The Theory and its Application to Real-Time Video Object Recognition” (Carnegie Mellon University, 2005) [0062]

Claims (60)

  1. Kamerasystem (100) mit: einer Bilderfassungsvorrichtung (102) mit einem Blickfeld, die Bilddaten erzeugt, die ein Bild des Blickfeldes darstellen; und einem Objektklassifikationsmodul (210), das mit der Bilderfassungsvorrichtung (102) verbunden ist, wobei das Objektklassifikationsmodul (210) betriebsfähig ist, um festzustellen, ob ein Objekt in einem Bild ein Mitglied einer Objektklasse ist oder nicht, wobei das Objektklassifikationsmodul (210) N Entscheidungsschritte (400) umfasst, die in einer Kaskadenkonfiguration konfiguriert sind, wobei mindestens einer der N Entscheidungsschritte (400) betriebsfähig ist, um (a) ein Objekt als Mitglied der Objektklasse anzunehmen, (b) ein Objekt als Mitglied der Objektklasse abzulehnen, und (c) einen nächsten Schritt (400) heranzuziehen, um festzustellen, ob ein Objekt ein Mitglied der Objektklasse ist oder nicht.
  2. Kamerasystem (100) nach Anspruch 1, das ferner umfasst: ein Objektdetektionsmodul (204), das mit der Bilderfassungsvorrichtung (102) und dem Objektklassifikationsmodul (210) verbunden ist, wobei das Objektdetektionsmodul (204) die Bilddaten empfängt und betriebsfähig ist, um zu detektieren, ob ein Objekt sich im Blickfeld der Bilderfassungsvorrichtung (102) befindet oder nicht, wobei das Objektdetektionsmodul (204) ein detektiertes Objekt an das Objektklassifikationsmodul (210) übergibt.
  3. Kamerasystem (100) nach Anspruch 1, wobei der mindestens eine der N Entscheidungsschritte (400) eine Stufe (500) zur Abbildung eines Objektmerkmals auf einen Skalarwert umfasst.
  4. Kamerasystem (100) nach Anspruch 3, wobei die Stufe (500) eine Diskriminantenfunktion zum Bestimmen des Skalarwerts umfasst.
  5. Kamerasystem (100) nach Anspruch 4, wobei der Skalarwert mit einem Klassifikationsvertrauen korreliert ist.
  6. Kamerasystem (100) nach Anspruch 3, wobei das Objektmerkmal ein Seitenverhältnis eines Objekts ist.
  7. Kamerasystem (100) nach Anspruch 3, wobei das Objektmerkmal ein Kantenorientierungshistogramm eines Objekts ist.
  8. Kamerasystem (100) nach Anspruch 7, wobei das Kantenorientierungshistogramm unter Verwendung eines steuerbaren Filters erzeugt wird.
  9. Kamerasystem (100) nach Anspruch 1, wobei mehrere Merkmale des Objekts identifiziert werden, wobei der mindestens eine der N Entscheidungsschritte (400) eine Stufe (500) zur Abbildung von mehreren Objektmerkmalen auf einen Skalarwert umfasst.
  10. Kamerasystem (100) nach Anspruch 1, wobei das Objektklassifikationsmodul (210) betriebsfähig ist, um ein Objekt als Menschen oder Nicht-Menschen zu klassifizieren.
  11. Kamerasystem (100) nach Anspruch 1, wobei das Objektklassifikationsmodul (210) betriebsfähig ist, um ein Objekt als Fahrzeug oder Nicht-Fahrzeug zu klassifizieren.
  12. Verfahren (600) zum Klassifizieren eines Objekts, das von einem Kamerasystem (100) erfasst wird, wobei das Kamerasystem (100) ein Objektklassifikationsmodul (210) mit N Entscheidungsschritten (400) umfasst, die in einer Kaskadenkonfiguration konfiguriert sind, wobei das Verfahren umfasst: Erfassen (602) eines Bildes eines Objekts; Übertragen (606) von Bilddaten, die das Objekt darstellen, zu einem ersten der N Entscheidungsschritte (400); Identifizieren (608) eines Merkmals des Objekts, das in den Bilddaten dargestellt ist, um festzustellen, ob das Objekt ein Mitglied einer Objektklasse ist, wobei ein Entscheidungsschrittwert von dem Merkmal des Objekts abgeleitet wird; und Treffen einer Entscheidung, um entweder das Objekt als Mitglied der Objektklasse anzunehmen, das Objekt als Mitglied der Objektklasse abzulehnen, oder die Bilddaten zu einem zweiten der N Entscheidungsschritte (400) zur weiteren Analyse weiterzuleiten, wobei die Entscheidung auf einem Vergleich des Entscheidungsschrittwerts mit einem oder mehreren eines Annahmeschwellenwerts (τa) und eines Ablehnungsschwellenwerts (τr) basiert, wobei der Annahmeschwellenwert ein höherer Wert ist als der Ablehnungsschwellenwert (τr), wobei das Objekt als Mitglied der Objektklasse angenommen wird, wenn der Entscheidungsschrittwert über dem Annahmeschwellenwert (τa) liegt, das Objekt als Mitglied der Objektklasse abgelehnt wird, wenn der Entscheidungsschrittwert unter dem Ablehnungsschwellenwert (τr) liegt, und die Bilddaten zum zweiten Entscheidungsschritt (400) weitergeleitet werden, wenn der Entscheidungsschrittwert zwischen dem Annahme- und dem Ablehnungsschwellenwert liegt.
  13. Verfahren (600) nach Anspruch 12, das ferner umfasst: Detektieren (604) des Objekts.
  14. Verfahren (600) nach Anspruch 13, wobei das Objekt als Mitglied der Objektklasse abgelehnt wird, wenn der Entscheidungsschrittwert auf oder unterhalb des Ablehnungsschwellenwerts (τr) liegt.
  15. Verfahren (600) nach Anspruch 13, wobei die Bilddaten als Mitglied der Objektklasse angenommen werden, wenn der Entscheidungsschrittwert auf oder über dem Annahmeschwellenwert (τa) liegt.
  16. Verfahren (600) nach Anspruch 13, wobei mehrere Merkmale des Objekts identifiziert werden und der Entscheidungsschrittwert von den mehreren Merkmalen abgeleitet wird.
  17. Kamerasystem (100) mit: einer Bilderfassungsvorrichtung (102) mit einem Blickfeld, die Bilddaten erzeugt, die ein Bild des Blickfeldes darstellen; und einem Objektklassifikationsmodul (210), das mit der Bilderfassungsvorrichtung (102) verbunden ist, wobei das Objektklassifikationsmodul (210) betriebsfähig ist, um festzustellen, ob ein Objekt in dem Bild ein Mitglied einer Objektklasse ist oder nicht, wobei das Objektklassifikationsmodul (210) N Entscheidungsschritte (400) umfasst, die in einer Kaskadenkonfiguration konfiguriert sind, wobei jeder der Entscheidungsschritte (400) eine oder mehrere Stufen (500) zur Abbildung von Objektmerkmalen auf Skalarwerte umfasst, wobei eine erste der Stufen (500) eine erste Diskriminantenfunktion zum Bestimmen eines ersten Skalarwerts umfasst, eine zweite der Stufen (500) eine zweite Diskriminantenfunktion zum Bestimmen eines zweiten Skalarwerts umfasst und die erste und die zweite Diskriminantenfunktion von verschiedenen Typen sind.
  18. Kamerasystem (100) nach Anspruch 17, das ferner umfasst: ein Objektdetektionsmodul (204), das mit der Bilderfassungsvorrichtung (102) und dem Objektklassifikationsmodul (210) verbunden ist, wobei das Objektdetektionsmodul (204) die Bilddaten empfängt und betriebsfähig ist, um zu detektieren, ob sich ein Objekt im Blickfeld der Bilderfassungsvorrichtung (102) befindet oder nicht.
  19. Kamerasystem (100) nach Anspruch 17, wobei die erste und die zweite Stufe (500) demselben Entscheidungsschritt (400) entsprechen.
  20. Kamerasystem (100) nach Anspruch 19, wobei das Objektklassifikationsmodul (210) betriebsfähig ist, um einen ersten und einen zweiten Gewichtungskoeffizienten auf den ersten bzw. den zweiten Skalarwert anzuwenden, und das Objektklassifikationsmodul (210) betriebsfähig ist, um den gewichteten ersten und zweiten Skalarwert zu addieren, um einen Entscheidungsschrittwert zu erzeugen.
  21. Kamerasystem (100) nach Anspruch 17, wobei die erste und die zweite Stufe (500) verschiedenen der N Entscheidungsschritte (400) entsprechen.
  22. Kamerasystem (100) nach Anspruch 17, wobei die erste Stufe (500) betriebsfähig ist, um ein erstes Objektmerkmal auf den ersten Skalarwert abzubilden, und die zweite Stufe (500) betriebsfähig ist, um ein zweites Objektmerkmal auf den zweiten Skalarwert abzubilden.
  23. Kamerasystem (100) nach Anspruch 22, wobei das erste Objektmerkmal einem Seitenverhältnis eines Objekts entspricht und das zweite Objektmerkmal einem Kantenorientierungshistogramm des Objekts entspricht.
  24. Kamerasystem (100) nach Anspruch 23, wobei das Kantenorientierungshistogramm unter Verwendung eines steuerbaren Filters erzeugt wird.
  25. Kamerasystem (100) nach Anspruch 17, wobei die erste Diskriminantenfunktion eine Funktion auf radialer Basis umfasst und die zweite Diskriminantenfunktion eine S-förmige Funktion umfasst.
  26. Verfahren zum Klassifizieren eines Objekts, das von einem Kamerasystem (100) erfasst wird, wobei das Verfahren umfasst: Erzeugen (602) von Bilddaten, die ein Bild eines Objekts darstellen, das von dem Kamerasystem (100) erfasst wird; Identifizierten (608) eines ersten und eines zweiten Merkmals des Objekts, das in den Bilddaten dargestellt ist; Abbilden des ersten und des zweiten Merkmals des Objekts auf einen jeweiligen ersten und zweiten Skalarwert, wobei eine erste Diskriminantenfunktion verwendet wird, um den ersten Skalarwert zu erzeugen, eine zweite Diskriminantenfunktion verwendet wird, um den zweiten Skalarwert zu erzeugen, und die erste und die zweite Diskriminantenfunktion während einer Trainingsoperation aus einer Gruppe ausgewählt werden, die aus mehreren verschiedenen Diskriminantenfunktionen besteht; und Feststellen, ob das Objekt ein Mitglied einer Objektklasse ist, auf der Basis eines Entscheidungsschrittwerts, der vom ersten und vom zweiten Skalarwert abgeleitet ist.
  27. Kamerasystem (100) mit: einer Bilderfassungsvorrichtung (102) mit einem Blickfeld und einer Bildebene, wobei die Bilderfassungsvorrichtung (102) Bilddaten erzeugt, die ein Bild des Blickfeldes darstellen, das auf die Bildebene projiziert wird; einem Objektklassifikationsmodul (210), das mit der Bilderfassungsvorrichtung (102) verbunden ist und betriebsfähig ist, um Objekte auf der Basis der Bilddaten zu detektieren und zu klassifizieren, die im Blickfeld erfasst werden, wobei das Objektklassifikationsmodul (210) betriebsfähig ist, um Objekte als Mitglieder oder Nicht-Mitglieder einer Objektklasse zu klassifizieren; und einem Kalibrierungsmodul, das mit dem Objektklassifikationsmodul (210) verbunden ist, zum Abschätzen von repräsentativen Größen von Mitgliedern der Objektklasse, wobei die repräsentativen Größen verschiedenen Bereichen der Bildebene entsprechen, wobei das Kalibrierungsmodul betriebsfähig ist, um automatisch die repräsentativen Größen in Reaktion auf Klassifikationen, die vom Objektklassifikationsmodul (210) während des Live-Betriebs durchgeführt werden, zu aktualisieren, und das Kalibrierungsmodul betriebsfähig ist, um Informationen, die die aktualisierten repräsentativen Größen darstellen, zum Objektklassifikationsmodul (210) zu liefern, um seine Objektklassifikationsleistung zu verbessern.
  28. Kamerasystem (100) nach Anspruch 27, wobei, wenn das Objektklassifikationsmodul (210) ein Objekt als Mitglied einer Objektklasse klassifiziert, ein Vertrauensparameter dieser Klassifikation zugeordnet wird, und wobei das Kalibrierungsmodul die repräsentativen Größen nur dann aktualisiert, wenn der Vertrauensparameter auf ein hohes Vertrauen hindeutet, dass die Klassifikation korrekt ist.
  29. Kamerasystem (100) nach Anspruch 27, das ferner umfasst: eine Benutzerstation (104) mit einer Anzeige (114) und einer Eingabevorrichtung (116) zum Vorsehen von Benutzerrückmeldungsinformationen in Reaktion auf Klassifikationen, die vom Objektklassifikationsmodul (210) durchgeführt werden, wobei das Kalibrierungsmodul betriebsfähig ist, um die Benutzerrückmeldungsinformationen zu verwenden, um die repräsentativen Größen zu aktualisieren.
  30. Kamerasystem (100) nach Anspruch 27, wobei das Objektklassifikationsmodul (210) betriebsfähig ist, um Kalibrierungsinformationen vom Kalibrierungsmodul zu verwenden, um die Objektdetektions- und Objektklassifikationsgenauigkeit zu verbessern.
  31. Kamerasystem (100) nach Anspruch 27, das ferner umfasst: ein Geschwindigkeitsabschätzungsmodul, das mit dem Kalibrierungsmodul verbunden ist und betriebsfähig ist, um Geschwindigkeiten von klassifizierten Objekten, die sich in verschiedenen Bereichen des Blickfeldes befinden, abzuschätzen.
  32. Kamerasystem (100) nach Anspruch 27, wobei das Objektklassifikationsmodul (210) betriebsfähig ist, um Objekte zu detektieren und zu klassifizieren, ohne eine anfängliche manuelle Kalibrierung zu erfordern.
  33. Kamerasystem (100) nach Anspruch 27, wobei das Objektklassifikationsmodul (210) ein Kantenorientierungshistogramm eines Objekts konstruiert.
  34. Kamerasystem (100) nach Anspruch 33, wobei das Objektklassifikationsmodul (210) ein steuerbares Filter umfasst, das das Kantenorientierungshistogramm erzeugt.
  35. Verfahren (1700) zum automatischen Kalibrieren eines am Einsatzort aufgestellten Kamerasystems (100), wobei das Verfahren umfasst: Erfassen von mehreren Bildern eines Blickfeldes des Kamerasystems (100), wobei die mehreren Bilder einer Bildebene des Kamerasystems (100), auf die das Blickfeld projiziert wird, entsprechen; Detektieren eines ersten Objekts in den mehreren Bildern, wobei das erste Objekt an verschiedenen Stellen der Bildebene in den mehreren Bildern detektiert wird, und Bilder des ersten Objekts verschiedene Größen aufweisen, die den verschiedenen Stellen entsprechen; Klassifizieren des ersten Objekts als erstes Mitglied einer Objektklasse; Berechnen eines Parameters einer Größenfunktion für die Bildebene auf der Basis der verschiedenen Größen des ersten Objekts, wobei die Größenfunktion verwendet wird, um repräsentative Größen der Objektklasse für die Bildebene abzuschätzen; und Aktualisieren (1740) des Parameters der Größenfunktion in Reaktion auf die Detektion und Klassifikation eines zweiten Mitglieds der Objektklasse, wobei das zweite Mitglied während des Live-Betriebs des Kamerasystems (100) detektiert und klassifiziert wird.
  36. Verfahren (1700) nach Anspruch 35, wobei das erste Mitglied der Objektklasse und das zweite Mitglied der Objektkasse beide dem ersten Objekt entsprechen.
  37. Verfahren (1700) nach Anspruch 35, wobei das zweite Mitglied der Objektklasse einem zweiten Objekt, das vom ersten Objekt verschieden ist, entspricht.
  38. Verfahren (1700) nach Anspruch 35, wobei die Klassifikation des zweiten Mitglieds der Objektklasse einen Vertrauensparameter erzeugt, der ein Maß des Vertrauens darstellt, dass das zweite Objekt ein Mitglied der Objektklasse ist, und wobei der Aktualisierungsschritt nur dann durchgeführt wird, wenn der Vertrauensparameter ein hohes Vertrauen angibt, dass die Klassifikation korrekt ist.
  39. Verfahren zum Modifizieren eines Objektklassifikationsmoduls (210), das von einem Benutzer in einem am Einsatzort aufgestellten Kamerasystem (100) verwendet wird, wobei das Verfahren umfasst: Erfassen von mehreren Bildern eines Blickfeldes des Kamerasystems (100), wobei die mehreren Bilder Darstellungen von mehreren Objekten umfassen, wobei ein erster Satz der mehreren Objekte Mitglieder einer Objektklasse sind und ein zweiter Satz der mehreren Objekte nicht Mitglieder der Objektklasse sind; Klassifizieren der mehreren Objekte als entweder Mitglieder oder Nicht-Mitglieder der Objektklasse, wobei das Objektklassifikationsmodul (210) ein oder mehrere irrtümliche Klassifikationen erzeugt; Erzeugen von Fehlermetadaten auf der Basis einer Bestätigung vom Benutzer von zumindest einigen der einen oder mehreren irrtümlichen Klassifikationen; und Modifizieren des Objektklassifikationsmoduls (210) auf der Basis der Fehlermetadaten, um eine Anzahl von irrtümlichen Klassifikationen zu verringern, wobei die Modifikation automatisch während der Verwendung des Kamerasystems (100) am Einsatzort durchgeführt wird.
  40. Verfahren nach Anspruch 39, wobei das Objektklassifikationsmodul (210) anfänglich N Entscheidungsschritte (400) umfasst, die in einer Kaskadenkonfiguration konfiguriert sind, und wobei der Modifikationsschritt das Konstruieren eines zusätzlichen Schritts (1110, 1120) von den Fehlermetadaten umfasst, um ihn zu den N Entscheidungsschritten (400) des Objektklassifikationsmoduls (210) hinzuzufügen, wodurch sich ein Objektklassifikationsmodul (210) mit N + 1 Schritten (400) ergibt.
  41. Verfahren nach Anspruch 39, wobei die irrtümlichen Klassifikationen Fehlalarme sind, die Fälle darstellen, in denen das Objektklassifikationsmodul (210) Objekte des zweiten Satzes als Mitglieder der Objektklasse klassifiziert.
  42. Verfahren nach Anspruch 39, das ferner umfasst: Anzeigen von Darstellungen der irrtümlichen Klassifikationen auf einer Anzeige (114) für die Bestätigung durch den Benutzer.
  43. Verfahren nach Anspruch 39, wobei das Objektklassifikationsmodul (210) vor der Durchführung des Modifikationsschritts einen eingesetzten Klassifikator darstellt und das Objektklassifikationsmodul (210) nach der Durchführung des Modifikationsschritts einen spezialisierten Klassifikator (1130, 1140) darstellt, wobei das Verfahren ferner das Überprüfen des spezialisierten Klassifikators (1130, 1140) umfasst.
  44. Verfahren nach Anspruch 43, wobei der Überprüfungsschritt eine passive Überprüfung (1300) des spezialisierten Klassifikators umfasst, wobei die passive Überprüfung umfasst: Klassifizieren von Objekten mit dem spezialisierten Klassifikator (1130, 1140); Klassifizieren der Objekte mit dem eingesetzten Klassifikator, wobei der eingesetzte Klassifikator Fehlalarme und echte Alarme erzeugt; Darstellen (1302) der Fehlalarme und echten Alarme für einen Benutzer zur Bestätigung; Erzeugen (1310) von Rückmeldungsinformationen auf der Basis der Benutzerbestätigung der Fehlalarme und echten Alarme; und Vergleichen (1350) der Klassifikationen des spezialisierten Klassifikators (1130, 1140) mit den Rückmeldungsinformationen.
  45. Verfahren nach Anspruch 43, wobei der Überprüfungsschritt eine aktive Überprüfung (1400) des spezialisierten Klassifikators (1130, 1140) umfasst, wobei die aktive Überprüfung umfasst: Klassifizieren der Objekte mit dem eingesetzten Klassifikator; Klassifizieren von Objekten mit dem spezialisierten Klassifikator (1130, 1140), wobei einige der Klassifikationen des spezialisierten Klassifikators mit den Klassifikationen des eingesetzten Klassifikators inkonsistent sind; und Präsentieren von Darstellungen der inkonsistenten Klassifikationen des spezialisierten Klassifikators (1130, 1140) für einen Benutzer zur Überprüfung.
  46. Verfahren nach Anspruch 39, wobei das Kamerasystem (100) mehrere Bilderfassungsvorrichtungen (102) mit verschiedenen Blickfeldern umfasst, wobei das Blickfeld des Kamerasystems (100) den verschiedenen Blickfeldern der Bilderfassungsvorrichtungen (102) entspricht, und der Modifikationsschritt einen Ortsspezialisierungsschritt (1110, 1120) darstellt.
  47. Verfahren nach Anspruch 46, wobei der Modifikationsschritt einen Kameraspezialisierungsschritt (11100, 1120) für eine der mehreren Bilderfassungsvorrichtungen (102) darstellt.
  48. Verfahren nach Anspruch 39, wobei das Kamerasystem (100) mit einem zentralen Rückmeldungsserver über ein Netzwerk verbunden ist, wobei das Verfahren ferner umfasst: Übertragen der Fehlermetadaten zum zentralen Rückmeldungsserver, wo die Fehlermetadaten zum Trainieren anderer Objektklassifikatoren verwendet werden.
  49. Verfahren nach Anspruch 48, wobei das Kamerasystem (100) an einem Ort aufgestellt wird, wobei das Verfahren ferner umfasst: Übertragen einer Leistungsstatistik des Objektklassifikationsmoduls (210) zum zentralen Rückmeldungsserver; und Übertragen von Informationen, die den Ort darstellen, an dem das Kamerasystem (100) aufgestellt ist, zum zentralen Rückmeldungsserver.
  50. Kamerasystem (100) mit: einer Bilderfassungsvorrichtung (102) mit einem Blickfeld, die Bilddaten erzeugt, die Bilder des Blickfeldes darstellen; einem Objektklassifikationsmodul (210), das mit der Bilderfassungsvorrichtung (102) verbunden ist, wobei das Objektklassifikationsmodul (210) betriebsfähig ist, um festzustellen, ob Objekte in den Bildern Mitglieder einer Objektklasse sind oder nicht, wobei das Objektklassifikationsmodul (210) irrtümliche Klassifikationen erzeugt; einer Benutzerstation (104), die mit der Bilderfassungsvorrichtung (102) verbunden ist und eine Anzeige (114) zum Darstellen von Bildern des Blickfeldes für einen Benutzer aufweist, wobei die Benutzerstation (104) betriebsfähig ist, um Darstellungen der irrtümlichen Klassifikationen, die vom Objektklassifikationsmodul (210) erzeugt werden, auf der Anzeige (114) darzustellen, wobei die Benutzerstation (104) betriebsfähig ist, um Benutzerrückmeldungsinformationen in Reaktion auf eine Benutzerbestätigung der irrtümlichen Klassifikationen zu erzeugen, wobei die Benutzerrückmeldung Fehlermetadaten erzeugt; und einem Klassifikatorentwicklungsmodul, das die Fehlermetadaten empfängt und betriebsfähig ist, um das Objektklassifikationsmodul (210) unter Verwendung der Fehlermetadaten zu modifizieren, um die Anzahl von irrtümlichen Klassifikationen zu verringern, wobei das Klassifikatorentwicklungsmodul dadurch einen spezialisierten Klassifikator erzeugt.
  51. Kamerasystem (100) nach Anspruch 50, das ferner umfasst: ein Objektdetektionsmodul (204), das mit der Bilderfassungsvorrichtung (102) und mit dem Objektkmassifikationsmodul (210) verbunden ist, wobei das Objektdetektionsmodul (204) die Bilddaten empfängt, wobei das Objektdetektionsmodul (204) betriebsfähig ist, um zu detektieren, ob sich Objekte im Blickfeld der Bilderfassungsvorrichtung (102) befinden oder nicht.
  52. Kamerasystem (100) nach Anspruch 50, wobei das Objektklassifikationsmodul (210) N Entscheidungsschritte (400) umfasst, die in einer Kaskadenkonfiguration konfiguriert sind, und wobei der spezialisierte Klassifikator die N Entscheidungsschritte (400) und einen zusätzlichen Schritt (400) umfasst, der auf der Basis der Fehlermetadaten konstruiert ist, wodurch sich ein spezialisierter Klassifikator mit N + 1 Schritten (400) ergibt.
  53. Kamerasystem (100) nach Anspruch 50, wobei die irrtümlichen Klassifikationen Fehlalarme umfassen, die Fälle darstellen, in denen das Objektklassifikationsmodul (210) Objekte fälschlich als Mitglieder der Objektklasse klassifiziert.
  54. Kamerasystem (100) nach Anspruch 50, wobei das Klassifikatorentwicklungsmodul entfernt von der Bilderfassungsvorrichtung (102), vom Objektklassifikationsmodul (210) und von der Benutzerstation (104) angeordnet ist.
  55. Kamerasystem (100) nach Anspruch 50, wobei die Bilderfassungsvorrichtung (102), das Objektklassifikationsmodul (210), die Benutzerstation (104) und das Klassifikatorentwicklungsmodul gemeinsam an einem gleichen Ort angeordnet sind.
  56. Verfahren zum Konstruieren eines neuen Objektklassifikationsmoduls (210) zur Verwendung in einem am Einsatzort aufgestellten Kamerasystem (100), wobei das neue Objektklassifikationsmodul (210) zum Klassifizieren von Objekten als Mitglieder oder Nicht-Mitglieder einer neuen Objektklasse, die durch einen Benutzer ausgewählt wird, dient, wobei das Verfahren umfasst: Erfassen von mehreren Bildern eines Blickfeldes des Kamerasystems (100), wobei die mehreren Bilder Darstellungen von mehreren Objekten enthalten, wobei ein erster Satz der mehreren Objekte Mitglieder der neuen Objektklasse sind und ein zweiter Satz der mehreren Objekte nicht Mitglieder der neuen Objektklasse sind; Verwenden eines eingesetzten Objektklassifikationsmoduls (210), um die mehreren Objekte als Mitglieder einer eingesetzten Objektklasse zu klassifizieren; Präsentieren von Darstellungen der mehreren Objekte, die durch das eingesetzte Objektklassifikationsmodul (210) klassifiziert werden, auf einer Anzeige (114), wobei ein Benutzer die mehreren Objekte als entweder Mitglieder oder Nicht-Mitglieder der neuen Objektklasse bezeichnet; Erzeugen von Metadaten auf der Basis der Bezeichnungen; und Konstruieren des neuen Objektklassifikationsmoduls (210) durch Modifizieren des eingesetzten Objektklassifikationsmoduls (210) auf der Basis der Metadaten.
  57. Verfahren nach Anspruch 56, das ferner umfasst: Überprüfen des neuen Objektklassifikationsmoduls (210).
  58. Verfahren nach Anspruch 56, wobei die neue Objektklasse eine Unterklasse der eingesetzten Objektklasse ist.
  59. Verfahren nach Anspruch 56, wobei die neue Objektklasse Objekte darstellt, deren Klassifikation unbekannt ist.
  60. Verfahren nach Anspruch 56, wobei das eingesetzte Objektklassifikationsmodul (210) N Entscheidungsschritte (400) umfasst, die in einer Kaskadenkonfiguration konfiguriert sind, und wobei das neue Objektklassifikationsmodul (210) die N Entscheidungsschritte (400) des eingesetzten Objektklassifikationsmoduls (210) und einen zusätzlichen Schritt (400) umfasst, der durch die Metadaten trainiert wird, um Mitglieder der eingesetzten Objektklasse als entweder Mitglieder oder Nicht-Mitglieder der neuen Objektklasse zu klassifizieren, wodurch sich das neue Objektklassifikationsmodul (210) mit N + 1 Schritten (400) ergibt.
DE112009000480T 2008-03-03 2009-03-03 Dynamische Objektklassifikation Pending DE112009000480T5 (de)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
US3328408P 2008-03-03 2008-03-03
US3334908P 2008-03-03 2008-03-03
US61/033,349 2008-03-03
US61/033,284 2008-03-03
PCT/US2009/035916 WO2009111499A2 (en) 2008-03-03 2009-03-03 Dynamic object classification

Publications (1)

Publication Number Publication Date
DE112009000480T5 true DE112009000480T5 (de) 2011-04-07

Family

ID=41056612

Family Applications (2)

Application Number Title Priority Date Filing Date
DE112009000485T Pending DE112009000485T5 (de) 2008-03-03 2009-03-03 Objektvergleich für Verfolgung, Indizierung und Suche
DE112009000480T Pending DE112009000480T5 (de) 2008-03-03 2009-03-03 Dynamische Objektklassifikation

Family Applications Before (1)

Application Number Title Priority Date Filing Date
DE112009000485T Pending DE112009000485T5 (de) 2008-03-03 2009-03-03 Objektvergleich für Verfolgung, Indizierung und Suche

Country Status (7)

Country Link
US (14) US8224029B2 (de)
KR (3) KR101607224B1 (de)
CN (3) CN101965576B (de)
DE (2) DE112009000485T5 (de)
GB (6) GB2492247B (de)
TW (4) TWI489394B (de)
WO (2) WO2009111498A2 (de)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102019207700A1 (de) * 2019-05-27 2020-12-03 Zf Friedrichshafen Ag Klassifikationsvorrichtung zur Objektdetektion in Umfeldsensordaten und Verfahren

Families Citing this family (605)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8711217B2 (en) 2000-10-24 2014-04-29 Objectvideo, Inc. Video surveillance system employing video primitives
US8564661B2 (en) 2000-10-24 2013-10-22 Objectvideo, Inc. Video analytic rule detection system and method
US9892606B2 (en) 2001-11-15 2018-02-13 Avigilon Fortress Corporation Video surveillance system employing video primitives
US7424175B2 (en) 2001-03-23 2008-09-09 Objectvideo, Inc. Video segmentation using statistical pixel modeling
US10271017B2 (en) 2012-09-13 2019-04-23 General Electric Company System and method for generating an activity summary of a person
US20160321253A1 (en) 2005-10-26 2016-11-03 Cortica, Ltd. System and method for providing recommendations based on user profiles
US10180942B2 (en) 2005-10-26 2019-01-15 Cortica Ltd. System and method for generation of concept structures based on sub-concepts
US9646005B2 (en) 2005-10-26 2017-05-09 Cortica, Ltd. System and method for creating a database of multimedia content elements assigned to users
US10607355B2 (en) 2005-10-26 2020-03-31 Cortica, Ltd. Method and system for determining the dimensions of an object shown in a multimedia content item
US10698939B2 (en) 2005-10-26 2020-06-30 Cortica Ltd System and method for customizing images
US9477658B2 (en) 2005-10-26 2016-10-25 Cortica, Ltd. Systems and method for speech to speech translation using cores of a natural liquid architecture system
US10387914B2 (en) 2005-10-26 2019-08-20 Cortica, Ltd. Method for identification of multimedia content elements and adding advertising content respective thereof
US10848590B2 (en) 2005-10-26 2020-11-24 Cortica Ltd System and method for determining a contextual insight and providing recommendations based thereon
US9384196B2 (en) 2005-10-26 2016-07-05 Cortica, Ltd. Signature generation for multimedia deep-content-classification by a large-scale matching system and method thereof
US9031999B2 (en) 2005-10-26 2015-05-12 Cortica, Ltd. System and methods for generation of a concept based database
US9218606B2 (en) 2005-10-26 2015-12-22 Cortica, Ltd. System and method for brand monitoring and trend analysis based on deep-content-classification
US10380267B2 (en) 2005-10-26 2019-08-13 Cortica, Ltd. System and method for tagging multimedia content elements
US10614626B2 (en) 2005-10-26 2020-04-07 Cortica Ltd. System and method for providing augmented reality challenges
US10360253B2 (en) 2005-10-26 2019-07-23 Cortica, Ltd. Systems and methods for generation of searchable structures respective of multimedia data content
US10380623B2 (en) 2005-10-26 2019-08-13 Cortica, Ltd. System and method for generating an advertisement effectiveness performance score
US9639532B2 (en) 2005-10-26 2017-05-02 Cortica, Ltd. Context-based analysis of multimedia content items using signatures of multimedia elements and matching concepts
US8312031B2 (en) 2005-10-26 2012-11-13 Cortica Ltd. System and method for generation of complex signatures for multimedia data content
US11032017B2 (en) 2005-10-26 2021-06-08 Cortica, Ltd. System and method for identifying the context of multimedia content elements
US11003706B2 (en) 2005-10-26 2021-05-11 Cortica Ltd System and methods for determining access permissions on personalized clusters of multimedia content elements
US9466068B2 (en) 2005-10-26 2016-10-11 Cortica, Ltd. System and method for determining a pupillary response to a multimedia data element
US10585934B2 (en) 2005-10-26 2020-03-10 Cortica Ltd. Method and system for populating a concept database with respect to user identifiers
US9529984B2 (en) 2005-10-26 2016-12-27 Cortica, Ltd. System and method for verification of user identification based on multimedia content elements
US9767143B2 (en) 2005-10-26 2017-09-19 Cortica, Ltd. System and method for caching of concept structures
US10372746B2 (en) 2005-10-26 2019-08-06 Cortica, Ltd. System and method for searching applications using multimedia content elements
US9372940B2 (en) 2005-10-26 2016-06-21 Cortica, Ltd. Apparatus and method for determining user attention using a deep-content-classification (DCC) system
US10193990B2 (en) 2005-10-26 2019-01-29 Cortica Ltd. System and method for creating user profiles based on multimedia content
US11386139B2 (en) 2005-10-26 2022-07-12 Cortica Ltd. System and method for generating analytics for entities depicted in multimedia content
US20140093844A1 (en) * 2005-10-26 2014-04-03 Cortica, Ltd. Method for identification of food ingredients in multimedia content
US10776585B2 (en) 2005-10-26 2020-09-15 Cortica, Ltd. System and method for recognizing characters in multimedia content
US8266185B2 (en) 2005-10-26 2012-09-11 Cortica Ltd. System and methods thereof for generation of searchable structures respective of multimedia data content
US10691642B2 (en) 2005-10-26 2020-06-23 Cortica Ltd System and method for enriching a concept database with homogenous concepts
US8326775B2 (en) 2005-10-26 2012-12-04 Cortica Ltd. Signature generation for multimedia deep-content-classification by a large-scale matching system and method thereof
US10949773B2 (en) 2005-10-26 2021-03-16 Cortica, Ltd. System and methods thereof for recommending tags for multimedia content elements based on context
US11604847B2 (en) 2005-10-26 2023-03-14 Cortica Ltd. System and method for overlaying content on a multimedia content element based on user interest
US11216498B2 (en) 2005-10-26 2022-01-04 Cortica, Ltd. System and method for generating signatures to three-dimensional multimedia data elements
US9953032B2 (en) 2005-10-26 2018-04-24 Cortica, Ltd. System and method for characterization of multimedia content signals using cores of a natural liquid architecture system
US11620327B2 (en) 2005-10-26 2023-04-04 Cortica Ltd System and method for determining a contextual insight and generating an interface with recommendations based thereon
US10621988B2 (en) 2005-10-26 2020-04-14 Cortica Ltd System and method for speech to text translation using cores of a natural liquid architecture system
US9558449B2 (en) 2005-10-26 2017-01-31 Cortica, Ltd. System and method for identifying a target area in a multimedia content element
US10635640B2 (en) 2005-10-26 2020-04-28 Cortica, Ltd. System and method for enriching a concept database
US10742340B2 (en) 2005-10-26 2020-08-11 Cortica Ltd. System and method for identifying the context of multimedia content elements displayed in a web-page and providing contextual filters respective thereto
US11403336B2 (en) 2005-10-26 2022-08-02 Cortica Ltd. System and method for removing contextually identical multimedia content elements
US10535192B2 (en) 2005-10-26 2020-01-14 Cortica Ltd. System and method for generating a customized augmented reality environment to a user
US9191626B2 (en) 2005-10-26 2015-11-17 Cortica, Ltd. System and methods thereof for visual analysis of an image on a web-page and matching an advertisement thereto
US11019161B2 (en) 2005-10-26 2021-05-25 Cortica, Ltd. System and method for profiling users interest based on multimedia content analysis
US10191976B2 (en) 2005-10-26 2019-01-29 Cortica, Ltd. System and method of detecting common patterns within unstructured data elements retrieved from big data sources
US11361014B2 (en) 2005-10-26 2022-06-14 Cortica Ltd. System and method for completing a user profile
US8818916B2 (en) 2005-10-26 2014-08-26 Cortica, Ltd. System and method for linking multimedia data elements to web pages
US9489431B2 (en) 2005-10-26 2016-11-08 Cortica, Ltd. System and method for distributed search-by-content
US10380164B2 (en) 2005-10-26 2019-08-13 Cortica, Ltd. System and method for using on-image gestures and multimedia content elements as search queries
EP2013817A2 (de) 2006-04-17 2009-01-14 Objectvideo, Inc. Videosegmentierung mittels statistischer pixelmodellierung
US10733326B2 (en) 2006-10-26 2020-08-04 Cortica Ltd. System and method for identification of inappropriate multimedia content
TWI489394B (zh) 2008-03-03 2015-06-21 Videoiq Inc 用於追蹤、索引及搜尋之物件匹配
JP5141317B2 (ja) * 2008-03-14 2013-02-13 オムロン株式会社 対象画像検出デバイス、制御プログラム、および該プログラムを記録した記録媒体、ならびに対象画像検出デバイスを備えた電子機器
US11792538B2 (en) 2008-05-20 2023-10-17 Adeia Imaging Llc Capturing and processing of images including occlusions focused on an image sensor by a lens stack array
US8866920B2 (en) 2008-05-20 2014-10-21 Pelican Imaging Corporation Capturing and processing of images using monolithic camera array with heterogeneous imagers
US8902321B2 (en) 2008-05-20 2014-12-02 Pelican Imaging Corporation Capturing and processing of images using monolithic camera array with heterogeneous imagers
EP2288520B1 (de) * 2008-06-25 2014-09-24 Autoliv Development AB Vorrichtung zum erfassen von objekten in der nähe eines fahrzeugs
US8855360B2 (en) * 2008-07-23 2014-10-07 Qualcomm Technologies, Inc. System and method for face tracking
US9633275B2 (en) * 2008-09-11 2017-04-25 Wesley Kenneth Cobb Pixel-level based micro-feature extraction
US8433175B2 (en) * 2008-10-28 2013-04-30 Yahoo! Inc. Video comparing using fingerprint representations
US8004576B2 (en) 2008-10-31 2011-08-23 Digimarc Corporation Histogram methods and systems for object recognition
JP5279517B2 (ja) * 2009-01-09 2013-09-04 キヤノン株式会社 物体検知装置及び物体検知方法
DE102009000173A1 (de) * 2009-01-13 2010-07-15 Robert Bosch Gmbh Vorrichtung zum Zählen von Objekten, Verfahren sowie Computerprogramm
US8812226B2 (en) * 2009-01-26 2014-08-19 GM Global Technology Operations LLC Multiobject fusion module for collision preparation system
US8494909B2 (en) * 2009-02-09 2013-07-23 Datalogic ADC, Inc. Automatic learning in a merchandise checkout system with visual recognition
US20100306067A1 (en) * 2009-05-30 2010-12-02 Richard Hui Automated sell system
TWI401473B (zh) * 2009-06-12 2013-07-11 Chung Shan Inst Of Science 影像式夜間行人偵測系統及方法
KR101404208B1 (ko) * 2009-09-29 2014-06-11 인텔 코오퍼레이션 이질적 컨텐트 소스들의 링크
WO2011041904A1 (en) 2009-10-07 2011-04-14 Telewatch Inc. Video analytics method and system
US9788017B2 (en) 2009-10-07 2017-10-10 Robert Laganiere Video analytics with pre-processing at the source end
US9984203B2 (en) 2009-10-14 2018-05-29 Trice Imaging, Inc. Systems and methods for converting and delivering medical images to mobile devices and remote communications systems
US9712498B2 (en) 2009-10-14 2017-07-18 Trice Imaging, Inc. Systems and devices for encrypting, converting and interacting with medical images
US11948678B2 (en) * 2009-10-14 2024-04-02 Trice Imaging, Inc. Systems and devices for encrypting, converting and interacting with medical images
US11206245B2 (en) * 2009-10-14 2021-12-21 Trice Imaging, Inc. Systems and devices for encrypting, converting and interacting with medical images
US11462314B2 (en) 2009-10-14 2022-10-04 Trice Imaging, Inc. Systems and devices for encrypting, converting and interacting with medical images
JP5385752B2 (ja) * 2009-10-20 2014-01-08 キヤノン株式会社 画像認識装置、その処理方法及びプログラム
JP5740574B2 (ja) * 2009-11-04 2015-06-24 パナソニックIpマネジメント株式会社 情報分類装置、情報分類方法およびそのプログラム
WO2011063347A2 (en) 2009-11-20 2011-05-26 Pelican Imaging Corporation Capturing and processing of images using monolithic camera array with heterogeneous imagers
AU2009243528B2 (en) 2009-12-04 2013-08-01 Canon Kabushiki Kaisha Location-based signature selection for multi-camera object tracking
DE102009055127A1 (de) * 2009-12-22 2011-06-30 Robert Bosch GmbH, 70469 Vorrichtung und Verfahren zum Überwachen von Videoobjekten
US20110182497A1 (en) * 2010-01-22 2011-07-28 Aricent Inc. Cascade structure for classifying objects in an image
KR101434768B1 (ko) * 2010-02-19 2014-08-27 가부시끼가이샤 도시바 이동 물체 추적 시스템 및 이동 물체 추적 방법
US9082278B2 (en) * 2010-03-19 2015-07-14 University-Industry Cooperation Group Of Kyung Hee University Surveillance system
TW201136315A (en) * 2010-04-13 2011-10-16 Hon Hai Prec Ind Co Ltd Monitoring system and method
US8909950B1 (en) 2010-04-18 2014-12-09 Aptima, Inc. Systems and methods of power management
US20110264530A1 (en) 2010-04-23 2011-10-27 Bryan Santangelo Apparatus and methods for dynamic secondary content and data insertion and delivery
US9143739B2 (en) 2010-05-07 2015-09-22 Iwatchlife, Inc. Video analytics with burst-like transmission of video data
SG10201503516VA (en) 2010-05-12 2015-06-29 Pelican Imaging Corp Architectures for imager arrays and array cameras
US9135514B2 (en) * 2010-05-21 2015-09-15 Qualcomm Incorporated Real time tracking/detection of multiple targets
NL2004829C2 (en) * 2010-06-07 2011-12-08 Univ Amsterdam Method for automated categorization of human face images based on facial traits.
TW201206192A (en) * 2010-07-23 2012-02-01 Hon Hai Prec Ind Co Ltd Detection device and method
US9020216B2 (en) 2010-07-28 2015-04-28 Varian Medical Systems, Inc. Knowledge-based automatic image segmentation
US8885007B2 (en) 2010-08-04 2014-11-11 Iwatchlife, Inc. Method and system for initiating communication via a communication network
CA2748065A1 (en) 2010-08-04 2012-02-04 Iwatchlife Inc. Method and system for locating an individual
US8860771B2 (en) 2010-08-04 2014-10-14 Iwatchlife, Inc. Method and system for making video calls
US8781152B2 (en) 2010-08-05 2014-07-15 Brian Momeyer Identifying visual media content captured by camera-enabled mobile device
US8615105B1 (en) * 2010-08-31 2013-12-24 The Boeing Company Object tracking system
US8824554B2 (en) * 2010-09-02 2014-09-02 Intersil Americas LLC Systems and methods for video content analysis
US10645344B2 (en) 2010-09-10 2020-05-05 Avigilion Analytics Corporation Video system with intelligent visual display
US9177259B1 (en) * 2010-11-29 2015-11-03 Aptima Inc. Systems and methods for recognizing and reacting to spatiotemporal patterns
US8498444B2 (en) 2010-12-13 2013-07-30 Texas Instruments Incorporated Blob representation in video processing
US8878950B2 (en) 2010-12-14 2014-11-04 Pelican Imaging Corporation Systems and methods for synthesizing high resolution images using super-resolution processes
US9615064B2 (en) * 2010-12-30 2017-04-04 Pelco, Inc. Tracking moving objects using a camera network
US9268996B1 (en) 2011-01-20 2016-02-23 Verint Systems Inc. Evaluation of models generated from objects in video
CN102622366B (zh) * 2011-01-28 2014-07-30 阿里巴巴集团控股有限公司 相似图像的识别方法和装置
US8675953B1 (en) * 2011-02-02 2014-03-18 Intuit Inc. Calculating an object size using images
US8737688B2 (en) 2011-02-10 2014-05-27 William A. Murphy Targeted content acquisition using image analysis
US8600172B2 (en) 2011-03-16 2013-12-03 Sensormatic Electronics, LLC Video based matching and tracking by analyzing one or more image abstractions
US9785835B2 (en) * 2011-03-22 2017-10-10 Rochester Institute Of Technology Methods for assisting with object recognition in image sequences and devices thereof
EP2689362A1 (de) * 2011-03-23 2014-01-29 Hologic, Inc. Verfahren zum automatischen platzieren von zuvor klassifizierten bildern unter bildern von zielobjekten einer probe
US8724890B2 (en) * 2011-04-06 2014-05-13 GM Global Technology Operations LLC Vision-based object detection by part-based feature synthesis
US8588534B2 (en) 2011-05-06 2013-11-19 Microsoft Corporation Staged element classification
EP2708019B1 (de) 2011-05-11 2019-10-16 FotoNation Limited Systeme und verfahren zum senden und empfangen von arraykamera-bilddaten
CN102831385B (zh) * 2011-06-13 2017-03-01 索尼公司 多相机监控网络中的目标识别设备和方法
DE102011105356A1 (de) * 2011-06-22 2012-12-27 Audi Ag Verfahren zur Auslösung wenigstens einer irreversiblen Rückhalteeinrichtung eines Kraftfahrzeugs
US20120328184A1 (en) * 2011-06-22 2012-12-27 Feng Tang Optically characterizing objects
US20130265459A1 (en) 2011-06-28 2013-10-10 Pelican Imaging Corporation Optical arrangements for use with an array camera
US8799201B2 (en) * 2011-07-25 2014-08-05 Toyota Motor Engineering & Manufacturing North America, Inc. Method and system for tracking objects
JP5848551B2 (ja) * 2011-08-26 2016-01-27 キヤノン株式会社 学習装置、学習装置の制御方法、検出装置、検出装置の制御方法、およびプログラム
US11288472B2 (en) 2011-08-30 2022-03-29 Digimarc Corporation Cart-based shopping arrangements employing probabilistic item identification
US9367770B2 (en) 2011-08-30 2016-06-14 Digimarc Corporation Methods and arrangements for identifying objects
US10474858B2 (en) 2011-08-30 2019-11-12 Digimarc Corporation Methods of identifying barcoded items by evaluating multiple identification hypotheses, based on data from sensors including inventory sensors and ceiling-mounted cameras
WO2013043761A1 (en) 2011-09-19 2013-03-28 Pelican Imaging Corporation Determining depth from multiple views of a scene that include aliasing using hypothesized fusion
US8917913B2 (en) 2011-09-22 2014-12-23 International Business Machines Corporation Searching with face recognition and social networking profiles
KR101175597B1 (ko) * 2011-09-27 2012-08-21 (주)올라웍스 아다부스트 학습 알고리즘을 이용하여 얼굴 특징점 위치를 검출하기 위한 방법, 장치, 및 컴퓨터 판독 가능한 기록 매체
EP2761534B1 (de) 2011-09-28 2020-11-18 FotoNation Limited Systeme zur kodierung von lichtfeldbilddateien
US8908962B2 (en) 2011-09-30 2014-12-09 Ebay Inc. Item recommendations using image feature data
CN103959309B (zh) * 2011-10-03 2017-09-12 惠普发展公司,有限责任合伙企业 用于伪造品确定的区域选择
WO2013074060A1 (en) * 2011-11-14 2013-05-23 Intel Corporation Video analytic encoding
EP2600109A3 (de) * 2011-11-30 2015-03-25 Sony Ericsson Mobile Communications AB Verfahren zur Kalibrierung einer Sensoreinheit und diese umfassendes Zubehörteil
US9342735B2 (en) 2011-12-01 2016-05-17 Finding Rover, Inc. Facial recognition lost pet identifying system
FR2983607B1 (fr) * 2011-12-02 2014-01-17 Morpho Procede et dispositif de suivi d'un objet dans une sequence d'au moins deux images
US8891907B2 (en) 2011-12-06 2014-11-18 Google Inc. System and method of identifying visual objects
EP2788839A4 (de) * 2011-12-06 2015-12-16 Thomson Licensing Verfahren und system zum antworten auf benutzergesten zur auswahl von in drei dimensionen angezeigten objekten
US10095954B1 (en) * 2012-01-17 2018-10-09 Verint Systems Ltd. Trajectory matching across disjointed video views
US9898682B1 (en) 2012-01-22 2018-02-20 Sr2 Group, Llc System and method for tracking coherently structured feature dynamically defined within migratory medium
US9917739B2 (en) 2012-02-20 2018-03-13 Aptima, Inc. Systems and methods for network pattern matching
WO2013126578A1 (en) 2012-02-21 2013-08-29 Pelican Imaging Corporation Systems and methods for the manipulation of captured light field image data
US8798325B2 (en) * 2012-02-21 2014-08-05 Xerox Corporation Efficient and fault tolerant license plate matching method
US8737745B2 (en) 2012-03-27 2014-05-27 The Nielsen Company (Us), Llc Scene-based people metering for audience measurement
US9185456B2 (en) * 2012-03-27 2015-11-10 The Nielsen Company (Us), Llc Hybrid active and passive people metering for audience measurement
TWI479431B (zh) * 2012-04-03 2015-04-01 Univ Chung Hua 物件追蹤方法
US9210392B2 (en) 2012-05-01 2015-12-08 Pelican Imaging Coporation Camera modules patterned with pi filter groups
US9374399B1 (en) 2012-05-22 2016-06-21 Google Inc. Social group suggestions within a social network
US8688782B1 (en) * 2012-05-22 2014-04-01 Google Inc. Social group suggestions within a social network
WO2014005123A1 (en) 2012-06-28 2014-01-03 Pelican Imaging Corporation Systems and methods for detecting defective camera arrays, optic arrays, and sensors
US20140002674A1 (en) 2012-06-30 2014-01-02 Pelican Imaging Corporation Systems and Methods for Manufacturing Camera Modules Using Active Alignment of Lens Stack Arrays and Sensors
US9449259B1 (en) * 2012-07-25 2016-09-20 Hrl Laboratories, Llc Opportunistic cascade and cascade training, evaluation, and execution for vision-based object detection
WO2014021005A1 (ja) * 2012-07-31 2014-02-06 日本電気株式会社 画像処理システム、画像処理方法及びプログラム
CA2822217A1 (en) 2012-08-02 2014-02-02 Iwatchlife Inc. Method and system for anonymous video analytics processing
US9443414B2 (en) 2012-08-07 2016-09-13 Microsoft Technology Licensing, Llc Object tracking
DE102012107392B3 (de) * 2012-08-13 2013-12-12 Chui-Min Chiu Rundum Sicherung für ein Kraftfahrzeug
AU2013305770A1 (en) 2012-08-21 2015-02-26 Pelican Imaging Corporation Systems and methods for parallax detection and correction in images captured using array cameras
US20140055632A1 (en) 2012-08-23 2014-02-27 Pelican Imaging Corporation Feature based high resolution motion estimation from low resolution images captured using an array source
US9471838B2 (en) 2012-09-05 2016-10-18 Motorola Solutions, Inc. Method, apparatus and system for performing facial recognition
US9081466B2 (en) 2012-09-10 2015-07-14 Sap Se Dynamic chart control that triggers dynamic contextual actions
US10783584B1 (en) 2012-09-10 2020-09-22 Allstate Insurance Company Recommendation of insurance products based on an inventory analysis
WO2014041912A1 (ja) * 2012-09-13 2014-03-20 日本電気株式会社 画像処理システム、画像処理方法及びプログラム
US9256807B1 (en) * 2012-09-27 2016-02-09 Google Inc. Generating labeled images
EP4307659A1 (de) 2012-09-28 2024-01-17 Adeia Imaging LLC Erzeugung von bildern aus lichtfeldern mithilfe virtueller blickpunkte
JP2014071832A (ja) * 2012-10-01 2014-04-21 Toshiba Corp 物体検出装置及びその検出方法
US20140098991A1 (en) * 2012-10-10 2014-04-10 PixArt Imaging Incorporation, R.O.C. Game doll recognition system, recognition method and game system using the same
US9727586B2 (en) * 2012-10-10 2017-08-08 Samsung Electronics Co., Ltd. Incremental visual query processing with holistic feature feedback
US9224184B2 (en) 2012-10-21 2015-12-29 Digimarc Corporation Methods and arrangements for identifying objects
US9489635B1 (en) * 2012-11-01 2016-11-08 Google Inc. Methods and systems for vehicle perception feedback to classify data representative of types of objects and to request feedback regarding such classifications
JP5936993B2 (ja) * 2012-11-08 2016-06-22 東芝テック株式会社 商品認識装置及び商品認識プログラム
WO2014078443A1 (en) 2012-11-13 2014-05-22 Pelican Imaging Corporation Systems and methods for array camera focal plane control
US9197861B2 (en) 2012-11-15 2015-11-24 Avo Usa Holding 2 Corporation Multi-dimensional virtual beam detection for video analytics
US9367733B2 (en) 2012-11-21 2016-06-14 Pelco, Inc. Method and apparatus for detecting people by a surveillance system
US10009579B2 (en) 2012-11-21 2018-06-26 Pelco, Inc. Method and system for counting people using depth sensor
DE102012223121A1 (de) * 2012-12-13 2014-06-18 Cassidian Optronics Gmbh Verfahren zur Verfolgung wenigstens eines Objekts und Überwachungsvorrichtung
US10509963B2 (en) 2012-12-20 2019-12-17 Microsoft Technology Licensing, Llc Discovering authoritative images of people entities
US8867789B2 (en) * 2013-01-14 2014-10-21 Cyberlink Corp. Systems and methods for tracking an object in a video
KR20140092211A (ko) * 2013-01-15 2014-07-23 삼성전자주식회사 미디어 컨텐츠 재생 중에 가상 카메라 기능을 수행하는 방법 및 장치
US8874471B2 (en) * 2013-01-29 2014-10-28 Wal-Mart Stores, Inc. Retail loss prevention using biometric data
WO2014130849A1 (en) 2013-02-21 2014-08-28 Pelican Imaging Corporation Generating compressed light field representation data
US9374512B2 (en) 2013-02-24 2016-06-21 Pelican Imaging Corporation Thin form factor computational array cameras and modular array cameras
US10546204B1 (en) 2013-03-05 2020-01-28 Amazon Technologies, Inc. Item information discovery with a wearable device
WO2014138695A1 (en) 2013-03-08 2014-09-12 Pelican Imaging Corporation Systems and methods for measuring scene information while capturing images using array cameras
US8866912B2 (en) 2013-03-10 2014-10-21 Pelican Imaging Corporation System and methods for calibration of an array camera using a single captured image
IN2013CH01043A (de) 2013-03-12 2015-08-14 Yahoo Inc
WO2014164909A1 (en) 2013-03-13 2014-10-09 Pelican Imaging Corporation Array camera architecture implementing quantum film sensors
US9106784B2 (en) 2013-03-13 2015-08-11 Pelican Imaging Corporation Systems and methods for controlling aliasing in images captured by an array camera for use in super-resolution processing
US9124831B2 (en) 2013-03-13 2015-09-01 Pelican Imaging Corporation System and methods for calibration of an array camera
WO2014165244A1 (en) 2013-03-13 2014-10-09 Pelican Imaging Corporation Systems and methods for synthesizing images from image data captured by an array camera using restricted depth of field depth maps in which depth estimation precision varies
WO2014153098A1 (en) 2013-03-14 2014-09-25 Pelican Imaging Corporation Photmetric normalization in array cameras
WO2014159779A1 (en) 2013-03-14 2014-10-02 Pelican Imaging Corporation Systems and methods for reducing motion blur in images or video in ultra low light with array cameras
US10122993B2 (en) 2013-03-15 2018-11-06 Fotonation Limited Autofocus system for a conventional camera that uses depth information from an array camera
US11743431B2 (en) 2013-03-15 2023-08-29 James Carey Video identification and analytical recognition system
WO2014150856A1 (en) 2013-03-15 2014-09-25 Pelican Imaging Corporation Array camera implementing quantum dot color filters
US9438888B2 (en) 2013-03-15 2016-09-06 Pelican Imaging Corporation Systems and methods for stereo imaging with camera arrays
US9497429B2 (en) 2013-03-15 2016-11-15 Pelican Imaging Corporation Extended color processing on pelican array cameras
US9762865B2 (en) 2013-03-15 2017-09-12 James Carey Video identification and analytical recognition system
US11039108B2 (en) 2013-03-15 2021-06-15 James Carey Video identification and analytical recognition system
US9639747B2 (en) * 2013-03-15 2017-05-02 Pelco, Inc. Online learning method for people detection and counting for retail stores
US9445003B1 (en) 2013-03-15 2016-09-13 Pelican Imaging Corporation Systems and methods for synthesizing high resolution images using image deconvolution based on motion and depth information
JP6273685B2 (ja) * 2013-03-27 2018-02-07 パナソニックIpマネジメント株式会社 追尾処理装置及びこれを備えた追尾処理システム並びに追尾処理方法
US20140317078A1 (en) * 2013-04-18 2014-10-23 SkillPages Holdings Limited Method and system for retrieving information
WO2014172624A2 (en) 2013-04-19 2014-10-23 James Carey Video identification and analytical recognition system
US9471849B2 (en) * 2013-05-05 2016-10-18 Qognify Ltd. System and method for suspect search
CA2815161A1 (en) 2013-05-06 2014-11-06 Hydro-Quebec Quantitative analysis of signal related measurements for trending and pattern recognition
US10949804B2 (en) 2013-05-24 2021-03-16 Amazon Technologies, Inc. Tote based item tracking
US10860976B2 (en) 2013-05-24 2020-12-08 Amazon Technologies, Inc. Inventory tracking
US10984372B2 (en) 2013-05-24 2021-04-20 Amazon Technologies, Inc. Inventory transitions
US9542585B2 (en) * 2013-06-06 2017-01-10 Apple Inc. Efficient machine-readable object detection and tracking
US10268983B2 (en) * 2013-06-26 2019-04-23 Amazon Technologies, Inc. Detecting item interaction and movement
US10176513B1 (en) * 2013-06-26 2019-01-08 Amazon Technologies, Inc. Using gestures and expressions to assist users
US10176456B2 (en) * 2013-06-26 2019-01-08 Amazon Technologies, Inc. Transitioning items from a materials handling facility
US10296814B1 (en) 2013-06-27 2019-05-21 Amazon Technologies, Inc. Automated and periodic updating of item images data store
US9594983B2 (en) 2013-08-02 2017-03-14 Digimarc Corporation Learning systems and methods
US10353982B1 (en) 2013-08-13 2019-07-16 Amazon Technologies, Inc. Disambiguating between users
US9659033B2 (en) 2013-08-19 2017-05-23 Nant Holdings Ip, Llc Metric based recognition, systems and methods
US9454827B2 (en) 2013-08-27 2016-09-27 Qualcomm Incorporated Systems, devices and methods for tracking objects on a display
JP6253311B2 (ja) * 2013-08-28 2017-12-27 キヤノン株式会社 画像処理装置、画像処理方法
US10366306B1 (en) 2013-09-19 2019-07-30 Amazon Technologies, Inc. Item identification among item variations
US10664795B1 (en) 2013-09-20 2020-05-26 Amazon Technologies, Inc. Weight based item tracking
US10515309B1 (en) 2013-09-20 2019-12-24 Amazon Technologies, Inc. Weight based assistance determination
US10796358B1 (en) 2013-09-24 2020-10-06 Amazon Technologies, Inc. Identifying companion gestures and behavior
WO2015048694A2 (en) 2013-09-27 2015-04-02 Pelican Imaging Corporation Systems and methods for depth-assisted perspective distortion correction
WO2015070105A1 (en) 2013-11-07 2015-05-14 Pelican Imaging Corporation Methods of manufacturing array camera modules incorporating independently aligned lens stacks
KR102126868B1 (ko) * 2013-11-15 2020-06-25 한화테크윈 주식회사 영상 처리 장치 및 방법
US10119808B2 (en) 2013-11-18 2018-11-06 Fotonation Limited Systems and methods for estimating depth from projected texture using camera arrays
US11615460B1 (en) 2013-11-26 2023-03-28 Amazon Technologies, Inc. User path development
WO2015081279A1 (en) 2013-11-26 2015-06-04 Pelican Imaging Corporation Array camera configurations incorporating multiple constituent array cameras
US10438259B1 (en) 2013-12-09 2019-10-08 Amazon Technologies, Inc. Propagating and presenting user specific information
US10510109B1 (en) 2013-12-09 2019-12-17 Amazon Technologies, Inc. Controlling routing of output information to output devices
US10319021B1 (en) 2013-12-17 2019-06-11 Amazon Technologies, Inc. Notifying users of item expiration
US10322881B1 (en) 2013-12-17 2019-06-18 Amazon Technologies, Inc. Notifying users to provide picked items to a drop off location for processing
EP2887258A1 (de) * 2013-12-18 2015-06-24 Microsoft Technology Licensing, LLC Objektverfolgung
US10929661B1 (en) * 2013-12-19 2021-02-23 Amazon Technologies, Inc. System for user identification
US9778817B2 (en) 2013-12-31 2017-10-03 Findo, Inc. Tagging of images based on social network tags or comments
US8886387B1 (en) 2014-01-07 2014-11-11 Google Inc. Estimating multi-vehicle motion characteristics by finding stable reference points
WO2015134996A1 (en) 2014-03-07 2015-09-11 Pelican Imaging Corporation System and methods for depth regularization and semiautomatic interactive matting using rgb-d images
KR102213867B1 (ko) * 2014-03-12 2021-02-08 에스케이플래닛 주식회사 서비스 제공 장치와 사용자 장치, 그를 포함하는 단일 영상 기반의 분류 시스템, 그 제어 방법 및 컴퓨터 프로그램이 기록된 기록매체
US10366174B2 (en) 2014-03-13 2019-07-30 Ebay Inc. Social fitting room experience utilizing interactive mirror and polling of target users experienced with garment type
TWI505113B (zh) * 2014-03-18 2015-10-21 Vivotek Inc 監視系統及其影像搜尋方法
US10040628B1 (en) 2014-03-25 2018-08-07 Amazon Technologies, Inc. Item replacement assistance
US10713614B1 (en) 2014-03-25 2020-07-14 Amazon Technologies, Inc. Weight and vision based item tracking
US10657411B1 (en) 2014-03-25 2020-05-19 Amazon Technologies, Inc. Item identification
US10332183B1 (en) 2014-03-28 2019-06-25 Amazon Technologies, Inc. Fulfilling items to users
US10163149B1 (en) 2014-03-28 2018-12-25 Amazon Technologies, Inc. Providing item pick and place information to a user
EP2933753A1 (de) 2014-04-14 2015-10-21 Sequeris Verfahren und Vorrichtung zur Steuerung der von einem IT-System ausgeführten Aktionen
US9412048B2 (en) 2014-04-21 2016-08-09 Haier Us Appliance Solutions, Inc. Systems and methods for cookware detection
US9449220B2 (en) * 2014-04-21 2016-09-20 Haier Us Appliance Solutions, Inc. Systems and methods for cookware detection
US9509960B2 (en) * 2014-05-08 2016-11-29 Verizon Patent And Licensing Inc. Vehicle anomaly detection and reporting
US20150339324A1 (en) * 2014-05-20 2015-11-26 Road Warriors International, Inc. System and Method for Imagery Warehousing and Collaborative Search Processing
US10037509B1 (en) 2014-06-17 2018-07-31 Amazon Technologies, Inc. Efficient monitoring of inventory items
US10410170B1 (en) 2014-06-18 2019-09-10 Amazon Technologies, Inc. Propagating and expiring presentation information
US9521319B2 (en) 2014-06-18 2016-12-13 Pelican Imaging Corporation Array cameras and array camera modules including spectral filters disposed outside of a constituent image sensor
US10303133B1 (en) 2014-06-23 2019-05-28 Amazon Technologies, Inc. Presenting predicted items to users
US10339493B1 (en) 2014-06-24 2019-07-02 Amazon Technologies, Inc. Associating users with totes
US11030541B1 (en) * 2014-06-24 2021-06-08 Amazon Technologies, Inc. Proactive resolution of event information
US9836655B2 (en) * 2014-06-24 2017-12-05 Nec Corporation Information processing apparatus, information processing method, and computer-readable medium
US10242393B1 (en) 2014-06-24 2019-03-26 Amazon Technologies, Inc. Determine an item and user action in a materials handling facility
US9420331B2 (en) 2014-07-07 2016-08-16 Google Inc. Method and system for categorizing detected motion events
US9501915B1 (en) 2014-07-07 2016-11-22 Google Inc. Systems and methods for analyzing a video stream
US10140827B2 (en) 2014-07-07 2018-11-27 Google Llc Method and system for processing motion event notifications
CN105323572A (zh) * 2014-07-10 2016-02-10 坦亿有限公司 立体影像处理系统、装置与方法
US10609273B2 (en) * 2014-07-31 2020-03-31 Maxell, Ltd. Image pickup device and method of tracking subject thereof
US10176449B1 (en) 2014-08-08 2019-01-08 Amazon Technologies, Inc. Timeout durations for radio frequency identification tags
US10769579B1 (en) 2014-09-08 2020-09-08 Amazon Technologies, Inc. Tote association
KR20170063827A (ko) 2014-09-29 2017-06-08 포토네이션 케이맨 리미티드 어레이 카메라들의 동적 교정을 위한 시스템들 및 방법들
US10268984B1 (en) 2014-09-29 2019-04-23 Amazon Technologies, Inc. Inventory item release locations
US11851279B1 (en) 2014-09-30 2023-12-26 Amazon Technologies, Inc. Determining trends from materials handling facility information
USD782495S1 (en) 2014-10-07 2017-03-28 Google Inc. Display screen or portion thereof with graphical user interface
DE102014221888A1 (de) * 2014-10-28 2016-04-28 Robert Bosch Gmbh Verfahren und Vorrichtung zur Lokalisierung eines Fahrzeugs in seinem Umfeld
US10217223B2 (en) 2014-10-28 2019-02-26 Hewlett-Packard Development Company, L.P. Image data segmentation
US10643174B1 (en) * 2014-12-11 2020-05-05 Amazon Technologies, Inc. Dynamic item facing
US9928708B2 (en) 2014-12-12 2018-03-27 Hawxeye, Inc. Real-time video analysis for security surveillance
JP6417917B2 (ja) * 2014-12-15 2018-11-07 カシオ計算機株式会社 商品登録装置、緊急通報方法及び緊急通報装置
US10671856B1 (en) 2014-12-19 2020-06-02 Amazon Technologies, Inc. Detecting item actions and inventory changes at an inventory location
US9791541B2 (en) * 2014-12-19 2017-10-17 The Boeing Company System and method to improve object tracking using multiple tracking systems
US10169660B1 (en) 2014-12-19 2019-01-01 Amazon Technologies, Inc. Counting inventory items using image analysis
US10169677B1 (en) 2014-12-19 2019-01-01 Amazon Technologies, Inc. Counting stacked inventory using image analysis
US9996818B1 (en) 2014-12-19 2018-06-12 Amazon Technologies, Inc. Counting inventory items using image analysis and depth information
US9940726B2 (en) 2014-12-19 2018-04-10 The Boeing Company System and method to improve object tracking using tracking fingerprints
US10438277B1 (en) 2014-12-23 2019-10-08 Amazon Technologies, Inc. Determining an item involved in an event
US10134004B1 (en) 2014-12-23 2018-11-20 Amazon Technologies, Inc. Processing image data from a camera cluster
US10108157B1 (en) 2014-12-23 2018-10-23 Amazon Technologies, Inc. Reducing power consumption and data transmission
US10291862B1 (en) 2014-12-23 2019-05-14 Amazon Technologies, Inc. Camera hierarchy for monitoring large facilities
US10552750B1 (en) 2014-12-23 2020-02-04 Amazon Technologies, Inc. Disambiguating between multiple users
US10475185B1 (en) 2014-12-23 2019-11-12 Amazon Technologies, Inc. Associating a user with an event
US10696454B1 (en) 2014-12-26 2020-06-30 Amazon Technologies, Inc. Combination carrying device
CN104537359B (zh) * 2015-01-15 2019-02-15 浙江宇视科技有限公司 一种车辆目标检测方法及装置
KR102366522B1 (ko) * 2015-02-09 2022-02-23 한화테크윈 주식회사 물체 검출 방법 및 이 방법을 채용한 감시 시스템
US10448692B2 (en) 2015-03-06 2019-10-22 Illinois Tool Works Inc. Sensor assisted head mounted displays for welding
EP3268949B1 (de) 2015-03-09 2021-05-26 Illinois Tool Works Inc. Verfahren und vorrichtung zur bereitstellung visueller informationen in zusammenhang mit schweissvorgängen
US10210464B2 (en) 2015-03-11 2019-02-19 Qualcomm Incorporated Online training for object recognition system
WO2016146847A1 (en) * 2015-03-19 2016-09-22 Idaso Limited A method of analysing a multimedia file
US11523090B2 (en) * 2015-03-23 2022-12-06 The Chamberlain Group Llc Motion data extraction and vectorization
US11205270B1 (en) 2015-03-25 2021-12-21 Amazon Technologies, Inc. Collecting user pattern descriptors for use in tracking a movement of a user within a materials handling facility
US10810539B1 (en) 2015-03-25 2020-10-20 Amazon Technologies, Inc. Re-establishing tracking of a user within a materials handling facility
US10586203B1 (en) 2015-03-25 2020-03-10 Amazon Technologies, Inc. Segmenting a user pattern into descriptor regions for tracking and re-establishing tracking of a user within a materials handling facility
US10679177B1 (en) 2015-03-25 2020-06-09 Amazon Technologies, Inc. Using depth sensing cameras positioned overhead to detect and track a movement of a user within a materials handling facility
US9977242B2 (en) 2015-03-26 2018-05-22 Illinois Tool Works Inc. Control of mediated reality welding system based on lighting conditions
US9666160B2 (en) * 2015-03-26 2017-05-30 Illinois Tool Works Inc. Control of mediated reality welding system based on lighting conditions
US11416805B1 (en) 2015-04-06 2022-08-16 Position Imaging, Inc. Light-based guidance for package tracking systems
US11501244B1 (en) 2015-04-06 2022-11-15 Position Imaging, Inc. Package tracking systems and methods
US9501707B2 (en) * 2015-04-16 2016-11-22 Xerox Corporation Method and system for bootstrapping an OCR engine for license plate recognition
US9942474B2 (en) 2015-04-17 2018-04-10 Fotonation Cayman Limited Systems and methods for performing high speed video capture and depth estimation using array cameras
US10043078B2 (en) * 2015-04-21 2018-08-07 Placemeter LLC Virtual turnstile system and method
US20160335432A1 (en) * 2015-05-17 2016-11-17 Bitdefender IPR Management Ltd. Cascading Classifiers For Computer Security Applications
US10552933B1 (en) 2015-05-20 2020-02-04 Digimarc Corporation Image processing methods and arrangements useful in automated store shelf inspections
US9996749B2 (en) * 2015-05-29 2018-06-12 Accenture Global Solutions Limited Detecting contextual trends in digital video content
US9361011B1 (en) 2015-06-14 2016-06-07 Google Inc. Methods and systems for presenting multiple live video feeds in a user interface
US9870620B2 (en) 2015-06-18 2018-01-16 The Johns Hopkins University Non-linear associator and motion discriminator
US10388019B1 (en) 2015-06-23 2019-08-20 Amazon Technologies, Inc. Associating an agent with an event based on multiple inputs
US10891736B1 (en) 2015-06-23 2021-01-12 Amazon Technologies, Inc. Associating an agent with an event using motion analysis
US10363632B2 (en) 2015-06-24 2019-07-30 Illinois Tool Works Inc. Time of flight camera for welding machine vision
US10787187B1 (en) 2015-06-26 2020-09-29 Amazon Technologies, Inc. Self-bagging carts
CN104994296A (zh) * 2015-07-02 2015-10-21 安徽状元郎电子科技有限公司 一种教师自动跟踪摄像系统
US9911290B1 (en) 2015-07-25 2018-03-06 Gary M. Zalewski Wireless coded communication (WCC) devices for tracking retail interactions with goods and association to user accounts
CA2994712A1 (en) * 2015-08-04 2017-02-09 James Carey Video identification and analytical recognition system
EP3133455B1 (de) * 2015-08-17 2021-04-14 Honda Research Institute Europe GmbH Vorrichtung zum autonomen oder teilweise autonomen fahren eines fahrzeugs mit einem kommunikationsmodul zum erhalt zusätzlicher daten von einem fahrzeugfahrer und entsprechendes verfahren
CN105187785B (zh) * 2015-08-31 2018-05-11 桂林电子科技大学 一种基于动态选取显著特征的跨卡口行人识别系统与方法
US9817471B2 (en) * 2015-09-04 2017-11-14 Panasonic Intellectual Property Corporation Of America Method for adding information and server apparatus
US10616465B2 (en) * 2015-09-16 2020-04-07 Microsoft Technology Licensing, Llc Bandwidth efficient video surveillance system
US10592742B1 (en) 2015-09-28 2020-03-17 Amazon Technologies, Inc. Agent re-identification
US10262172B1 (en) 2015-09-29 2019-04-16 Amazon Technologies, Inc. Inventory tracking using RFID
US10037449B1 (en) 2015-09-29 2018-07-31 Amazon Technologies, Inc. Inventory tracking using RFID
US10089505B1 (en) 2015-09-29 2018-10-02 Amazon Technologies, Inc. Inventory tracking using RFID
EP3862948A1 (de) * 2015-09-30 2021-08-11 The Nielsen Company (US), LLC Interaktives produktaudit mit einer mobilen vorrichtung
TWI621076B (zh) * 2015-10-19 2018-04-11 陳冠魁 結帳管理系統
CN107037962B (zh) 2015-10-23 2020-06-16 株式会社摩如富 图像处理装置、电子设备以及图像处理方法
CN105357475A (zh) * 2015-10-28 2016-02-24 小米科技有限责任公司 用于视频播放的方法及装置
US9959468B2 (en) 2015-11-06 2018-05-01 The Boeing Company Systems and methods for object tracking and classification
KR102410268B1 (ko) * 2015-11-20 2022-06-20 한국전자통신연구원 객체 추적 방법 및 그 방법을 수행하는 객체 추적 장치
TWI587246B (zh) * 2015-11-20 2017-06-11 晶睿通訊股份有限公司 影像物件判別方法及其具有影像物件判別功能的攝影系統
WO2017105641A1 (en) 2015-12-15 2017-06-22 Cortica, Ltd. Identification of key points in multimedia data elements
US11195043B2 (en) 2015-12-15 2021-12-07 Cortica, Ltd. System and method for determining common patterns in multimedia content elements based on key points
CN108431876B (zh) 2015-12-16 2021-03-12 日本电气株式会社 设置辅助设备、设置辅助方法和程序记录介质
EP3391339A2 (de) * 2015-12-18 2018-10-24 Iris Automation, Inc. System für visuelles echtzeitsituationsbewusstsein
GB2545900B (en) * 2015-12-21 2020-08-12 Canon Kk Method, device, and computer program for re-identification of objects in images obtained from a plurality of cameras
US10121121B1 (en) 2015-12-28 2018-11-06 Amazon Technologies, Inc. Smart shelves
WO2017120375A1 (en) * 2016-01-05 2017-07-13 Wizr Llc Video event detection and notification
US10650368B2 (en) * 2016-01-15 2020-05-12 Ncr Corporation Pick list optimization method
US10008115B2 (en) * 2016-02-29 2018-06-26 Analog Devices Global Visual vehicle parking occupancy sensor
JP2017156956A (ja) * 2016-03-01 2017-09-07 株式会社東芝 機器選択装置、その方法及びそのプログラム
US9911055B2 (en) * 2016-03-08 2018-03-06 Conduent Business Services, Llc Method and system for detection and classification of license plates
US10735659B2 (en) 2016-03-17 2020-08-04 Flir Systems, Inc. Rotation-adaptive video analytics camera and method
GB2566369B (en) 2016-03-17 2021-08-25 Avigilon Corp System and method for training object classifier by machine learning
US11030775B2 (en) 2016-03-17 2021-06-08 Flir Systems, Inc. Minimal user input video analytics systems and methods
US10717001B2 (en) 2016-03-25 2020-07-21 Zero Latency PTY LTD System and method for saving tracked data in the game server for replay, review and training
US10486061B2 (en) 2016-03-25 2019-11-26 Zero Latency Pty Ltd. Interference damping for continuous game play
US10071306B2 (en) 2016-03-25 2018-09-11 Zero Latency PTY LTD System and method for determining orientation using tracking cameras and inertial measurements
US10277831B2 (en) * 2016-03-25 2019-04-30 Fuji Xerox Co., Ltd. Position identifying apparatus and method, path identifying apparatus, and non-transitory computer readable medium
US9916496B2 (en) 2016-03-25 2018-03-13 Zero Latency PTY LTD Systems and methods for operating a virtual reality environment using colored marker lights attached to game objects
US10421012B2 (en) 2016-03-25 2019-09-24 Zero Latency PTY LTD System and method for tracking using multiple slave servers and a master server
JP2019513274A (ja) * 2016-03-29 2019-05-23 ボサ ノバ ロボティクス アイピー, インク.Bossa Nova Robotics Ip, Inc. 品物の設置、特定および計数のためのシステムおよび方法
TWI553592B (zh) * 2016-03-29 2016-10-11 Next Animation Studio Ltd The method of tracking objects in the video
DE102016206361A1 (de) * 2016-04-15 2017-10-19 Robert Bosch Gmbh Kameraeinrichtung für den Außenbereich eines Gebäudes
US10586023B2 (en) 2016-04-21 2020-03-10 Time Warner Cable Enterprises Llc Methods and apparatus for secondary content management and fraud prevention
US10558627B2 (en) * 2016-04-21 2020-02-11 Leantaas, Inc. Method and system for cleansing and de-duplicating data
WO2017192457A1 (en) 2016-05-02 2017-11-09 Focal Systems, Inc. Expedited checkout system through portable checkout units
US9984314B2 (en) * 2016-05-06 2018-05-29 Microsoft Technology Licensing, Llc Dynamic classifier selection based on class skew
US10522013B2 (en) 2016-05-20 2019-12-31 Vivint, Inc. Street watch
KR102386982B1 (ko) * 2016-05-26 2022-04-14 삼성에스디에스 주식회사 영상 분석을 이용한 카메라 캘리브레이션 방법 및 그 장치
US10506237B1 (en) 2016-05-27 2019-12-10 Google Llc Methods and devices for dynamic adaptation of encoding bitrate for video streaming
US10121515B2 (en) 2016-06-06 2018-11-06 Avigilon Corporation Method, system and computer program product for interactively identifying same individuals or objects present in video recordings
US10402643B2 (en) * 2016-06-15 2019-09-03 Google Llc Object rejection system and method
US10037471B2 (en) * 2016-07-05 2018-07-31 Nauto Global Limited System and method for image analysis
EP3481661A4 (de) 2016-07-05 2020-03-11 Nauto, Inc. System und verfahren zur automatischen fahreridentifikation
US10380429B2 (en) 2016-07-11 2019-08-13 Google Llc Methods and systems for person detection in a video feed
US10192415B2 (en) 2016-07-11 2019-01-29 Google Llc Methods and systems for providing intelligent alerts for events
US10957171B2 (en) * 2016-07-11 2021-03-23 Google Llc Methods and systems for providing event alerts
US10223067B2 (en) 2016-07-15 2019-03-05 Microsoft Technology Licensing, Llc Leveraging environmental context for enhanced communication throughput
KR101917354B1 (ko) * 2016-07-18 2018-11-09 단국대학교 천안캠퍼스 산학협력단 모바일 환경 객체 신뢰도 평가와 학습을 통한 융합 객체 추적 시스템 및 방법
US9916493B2 (en) 2016-08-03 2018-03-13 At&T Intellectual Property I, L.P. Method and system for aggregating video content
WO2018031678A1 (en) 2016-08-09 2018-02-15 Nauto Global Limited System and method for precision localization and mapping
US10751609B2 (en) 2016-08-12 2020-08-25 Zero Latency PTY LTD Mapping arena movements into a 3-D virtual world
US11436553B2 (en) 2016-09-08 2022-09-06 Position Imaging, Inc. System and method of object tracking using weight confirmation
TWI622938B (zh) 2016-09-13 2018-05-01 創意引晴(開曼)控股有限公司 避免辨識結果混淆之影像辨識方法
EP3513265A4 (de) 2016-09-14 2020-04-22 Nauto Global Limited Systeme und verfahren zur bestimmung von beinahekollisionen
US10733460B2 (en) 2016-09-14 2020-08-04 Nauto, Inc. Systems and methods for safe route determination
TWI617930B (zh) * 2016-09-23 2018-03-11 李雨暹 空間物件搜尋排序方法、系統與電腦可讀取儲存裝置
RU2632473C1 (ru) * 2016-09-30 2017-10-05 ООО "Ай Ти Ви групп" Способ обмена данными между ip видеокамерой и сервером (варианты)
JP6975416B2 (ja) 2016-10-25 2021-12-01 アウル カメラズ, インコーポレイテッドOwl Cameras, Inc. ビデオベースのデータ収集、画像のキャプチャおよび解析構成
US10246014B2 (en) 2016-11-07 2019-04-02 Nauto, Inc. System and method for driver distraction determination
WO2018091110A1 (de) * 2016-11-21 2018-05-24 Robert Bosch Gmbh Anzeigevorrichtung für eine überwachungsanlage eines überwachungsbereiches, überwachungsanlage mit der anzeigevorrichtung, verfahren zur überwachung eines überwachungsbereiches mit einer überwachungsanlage und computerprogramm zur durchführung des verfahrens
GB2556923B (en) * 2016-11-25 2020-04-15 Canon Kk Generation of VCA Reference results for VCA Auto-setting
CN106454991B (zh) * 2016-11-28 2019-06-11 陕西尚品信息科技有限公司 一种移动机器人网络中的高效路由方法
WO2018102919A1 (en) 2016-12-05 2018-06-14 Avigilon Corporation System and method for appearance search
DE112017006136T5 (de) 2016-12-05 2019-08-22 Avigilon Corporation System und Verfahren zur CNN-Schichtenteilung
KR20180068578A (ko) 2016-12-14 2018-06-22 삼성전자주식회사 복수의 센서를 이용하여 객체를 인식하는 전자 기기 및 방법
EP3340106B1 (de) * 2016-12-23 2023-02-08 Hexagon Technology Center GmbH Verfahren und system zur zuweisung von speziellen klassen von interesse in messdaten
US11300662B1 (en) 2016-12-27 2022-04-12 Amazon Technologies, Inc. Detecting and locating interactions using LIDAR devices
US10839203B1 (en) * 2016-12-27 2020-11-17 Amazon Technologies, Inc. Recognizing and tracking poses using digital imagery captured from multiple fields of view
US10895628B2 (en) * 2016-12-29 2021-01-19 Htc Corporation Tracking system, tracking device and tracking method
US11798064B1 (en) 2017-01-12 2023-10-24 Digimarc Corporation Sensor-based maximum-likelihood estimation of item assignments
US11094212B2 (en) 2017-01-18 2021-08-17 Microsoft Technology Licensing, Llc Sharing signal segments of physical graph
US10482900B2 (en) 2017-01-18 2019-11-19 Microsoft Technology Licensing, Llc Organization of signal segments supporting sensed features
US10606814B2 (en) 2017-01-18 2020-03-31 Microsoft Technology Licensing, Llc Computer-aided tracking of physical entities
US10437884B2 (en) 2017-01-18 2019-10-08 Microsoft Technology Licensing, Llc Navigation of computer-navigable physical feature graph
US10679669B2 (en) 2017-01-18 2020-06-09 Microsoft Technology Licensing, Llc Automatic narration of signal segment
US10637814B2 (en) 2017-01-18 2020-04-28 Microsoft Technology Licensing, Llc Communication routing based on physical status
US10635981B2 (en) * 2017-01-18 2020-04-28 Microsoft Technology Licensing, Llc Automated movement orchestration
US10909371B2 (en) 2017-01-19 2021-02-02 Samsung Electronics Co., Ltd. System and method for contextual driven intelligence
EP3559804B1 (de) 2017-01-19 2024-03-06 Samsung Electronics Co., Ltd. Sichtintelligenzverwaltung für elektronische vorrichtungen
WO2018144650A1 (en) 2017-01-31 2018-08-09 Focal Systems, Inc. Automated checkout system through mobile shopping units
US10275687B2 (en) * 2017-02-16 2019-04-30 International Business Machines Corporation Image recognition with filtering of image classification output distribution
US10789291B1 (en) * 2017-03-01 2020-09-29 Matroid, Inc. Machine learning in video classification with playback highlighting
EP3596618A4 (de) * 2017-03-17 2021-01-13 Neurala, Inc. Inkrementelles online-lernen in echtzeit zum markieren und kennzeichnen von datenströmen für tiefe neuronale netzwerke und anwendungen neuronaler netzwerke
US10482625B1 (en) 2017-03-28 2019-11-19 Amazon Technologies, Inc. Calibration of networked imaging devices to a global color space
EP3383055A1 (de) * 2017-03-28 2018-10-03 Rohde & Schwarz GmbH & Co. KG Verfahren und vorrichtung zur überwachung von daten im zusammenhang mit rundfunk und/oder streaming
US10943465B1 (en) 2017-03-28 2021-03-09 Amazon Technologies, Inc. Device notification and aggregation
US10699421B1 (en) 2017-03-29 2020-06-30 Amazon Technologies, Inc. Tracking objects in three-dimensional space using calibrated visual cameras and depth cameras
US10223591B1 (en) 2017-03-30 2019-03-05 Amazon Technologies, Inc. Multi-video annotation
US11055872B1 (en) * 2017-03-30 2021-07-06 Hrl Laboratories, Llc Real-time object recognition using cascaded features, deep learning and multi-target tracking
JP7120250B2 (ja) * 2017-03-31 2022-08-17 横河電機株式会社 画像ベースによる異常検知の方法およびシステム
CN108734061A (zh) * 2017-04-19 2018-11-02 台达电子工业股份有限公司 人员检测器的非警戒区域设定系统及其设定方法
TWI660156B (zh) * 2017-04-28 2019-05-21 宏達國際電子股份有限公司 追蹤系統及方法
KR102486986B1 (ko) 2017-05-04 2023-01-10 한화테크윈 주식회사 객체 검출 시스템, 방법 및 컴퓨터 판독 가능한 기록매체
EP3622438A4 (de) 2017-05-09 2021-03-10 Neurala, Inc. Systeme und verfahren zur ermöglichung von kontinuierlichem speicherbegrenztem lernen in künstlicher intelligenz und tiefenlernenden kontinuierlich arbeitenden anwendungen über vernetzte rechnerkanten
US10671050B2 (en) * 2017-05-11 2020-06-02 Turing Video, Inc. Surveillance system with intelligent robotic surveillance device
CA3063176A1 (en) * 2017-05-12 2018-11-15 Focal Systems, Inc. Automatic labeling of products via expedited checkout system
US11475671B2 (en) 2017-05-26 2022-10-18 Turing Video Multiple robots assisted surveillance system
US11783010B2 (en) 2017-05-30 2023-10-10 Google Llc Systems and methods of person recognition in video streams
US10599950B2 (en) 2017-05-30 2020-03-24 Google Llc Systems and methods for person recognition data management
US10417816B2 (en) * 2017-06-16 2019-09-17 Nauto, Inc. System and method for digital environment reconstruction
WO2018229550A1 (en) 2017-06-16 2018-12-20 Nauto Global Limited System and method for adverse vehicle event determination
EP3638542B1 (de) 2017-06-16 2022-01-26 Nauto, Inc. System und verfahren zur bestimmung des kontextualisierten betriebs eines fahrzeugs
WO2018232680A1 (en) * 2017-06-22 2018-12-27 Baidu.Com Times Technology (Beijing) Co., Ltd. EVALUATION FRAME FOR PREDICTED TRAJECTORIES IN A SELF-CONTAINING VEHICLE TRAFFIC PREDICTION
US11257057B1 (en) 2017-06-22 2022-02-22 Amazon Technologies, Inc. Secure dual-monitor point-of-sale system
US10491808B1 (en) 2017-06-27 2019-11-26 Amazon Technologies, Inc. Detecting sunlight in images
US10650246B1 (en) 2017-06-27 2020-05-12 Amazon Technologies, Inc. System for determining a camera radiance
US10863105B1 (en) 2017-06-27 2020-12-08 Amazon Technologies, Inc. High dynamic range imaging for event detection and inventory management
WO2019008581A1 (en) 2017-07-05 2019-01-10 Cortica Ltd. DETERMINATION OF DRIVING POLICIES
WO2019008734A1 (ja) * 2017-07-07 2019-01-10 日本電気株式会社 物体識別装置、物体識別方法、計算装置、システムおよび記録媒体
WO2019012527A1 (en) 2017-07-09 2019-01-17 Cortica Ltd. ORGANIZATION OF DEPTH LEARNING NETWORKS
US10332272B2 (en) 2017-08-07 2019-06-25 Caterpillar Inc. Systems and methods for testing an automatic perception system
US10482618B2 (en) 2017-08-21 2019-11-19 Fotonation Limited Systems and methods for hybrid depth regularization
US10769500B2 (en) * 2017-08-31 2020-09-08 Mitsubishi Electric Research Laboratories, Inc. Localization-aware active learning for object detection
US11284062B2 (en) * 2017-09-05 2022-03-22 Texas Instruments Incorporated Automotive display validation
US10621406B2 (en) * 2017-09-15 2020-04-14 Key Technology, Inc. Method of sorting
TWI624793B (zh) * 2017-09-19 2018-05-21 財團法人成大研究發展基金會 物件偵測的適應系統與方法
US10664688B2 (en) 2017-09-20 2020-05-26 Google Llc Systems and methods of detecting and responding to a visitor to a smart home environment
US11134227B2 (en) 2017-09-20 2021-09-28 Google Llc Systems and methods of presenting appropriate actions for responding to a visitor to a smart home environment
US11232294B1 (en) 2017-09-27 2022-01-25 Amazon Technologies, Inc. Generating tracklets from digital imagery
US10599395B1 (en) * 2017-10-11 2020-03-24 Amperity, Inc. Dynamically merging database tables
US10417882B2 (en) 2017-10-24 2019-09-17 The Chamberlain Group, Inc. Direction sensitive motion detector camera
US11023707B2 (en) 2017-10-27 2021-06-01 Avigilon Corporation System and method for selecting a part of a video image for a face detection operation
DE102017219402A1 (de) * 2017-10-27 2019-05-02 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Vorrichtung und verfahren zum erkennen und verfolgen von objekten in einer videosequenz
US11003916B2 (en) * 2017-11-03 2021-05-11 Toyota Research Institute, Inc. Systems and methods for object historical association
JP7070584B2 (ja) * 2017-11-07 2022-05-18 日本電気株式会社 判別モデル生成装置、判別モデル生成方法および判別モデル生成プログラム
US11328513B1 (en) 2017-11-07 2022-05-10 Amazon Technologies, Inc. Agent re-verification and resolution using imaging
US10127440B1 (en) * 2017-11-16 2018-11-13 Eagle Eye Networks Insect indicia-based alert suppression apparatus, system, and method of operation
CN108040295B (zh) * 2017-11-17 2021-05-07 上海哔哩哔哩科技有限公司 众裁方法、服务器、用户端及众裁系统
US10506202B2 (en) 2017-11-20 2019-12-10 Cisco Technology, Inc. System and method for protecting critical data on camera systems from physical attack
US10417501B2 (en) * 2017-12-06 2019-09-17 International Business Machines Corporation Object recognition in video
US10185628B1 (en) * 2017-12-07 2019-01-22 Cisco Technology, Inc. System and method for prioritization of data file backups
CN107818571B (zh) * 2017-12-11 2018-07-20 珠海大横琴科技发展有限公司 基于深度学习网络和均值漂移的船只自动跟踪方法及系统
US10956726B1 (en) 2017-12-12 2021-03-23 Amazon Technologies, Inc. Obfuscating portions of video data
US11030442B1 (en) 2017-12-13 2021-06-08 Amazon Technologies, Inc. Associating events with actors based on digital imagery
US10664962B1 (en) 2017-12-13 2020-05-26 Amazon Technologies, Inc. Determining direction of illumination
US10699152B1 (en) 2017-12-13 2020-06-30 Amazon Technologies, Inc. Image data illumination detection
US11284041B1 (en) 2017-12-13 2022-03-22 Amazon Technologies, Inc. Associating items with actors based on digital imagery
WO2019116497A1 (ja) * 2017-12-14 2019-06-20 日本電気株式会社 識別装置、識別方法、および記憶媒体
WO2019133755A1 (en) * 2017-12-27 2019-07-04 General Electric Company Automated scope limiting for video analytics
WO2019133891A1 (en) 2017-12-29 2019-07-04 Ebay Inc. Computer vision user segment, and missing item determination
US10475191B2 (en) 2018-01-17 2019-11-12 Sensormatic Electronics, LLC System and method for identification and suppression of time varying background objects
US20190236305A1 (en) * 2018-01-29 2019-08-01 International Business Machines Corporation Detecting unauthorized use of sensitive information in content communicated over a network
US10678848B2 (en) 2018-02-12 2020-06-09 Wipro Limited Method and a system for recognition of data in one or more images
TWI666595B (zh) 2018-02-26 2019-07-21 財團法人工業技術研究院 物件標示系統及方法
EP3759700B1 (de) 2018-02-27 2023-03-15 Nauto, Inc. Verfahren zur bestimmung einer fahrrichtlinie
CA3088781A1 (en) * 2018-03-23 2019-09-26 Avigilon Coporation Method and system for interfacing with a user to facilitate an image search for an object-of-interest
CN110324528A (zh) * 2018-03-28 2019-10-11 富泰华工业(深圳)有限公司 摄像装置、影像处理系统及方法
US10929675B2 (en) * 2018-03-29 2021-02-23 Ncr Corporation Decentralized video tracking
TWI661721B (zh) * 2018-04-03 2019-06-01 奇景光電股份有限公司 動作偵測電路與方法
CN110348270B (zh) * 2018-04-03 2023-06-09 扬智科技股份有限公司 影像物件辨识方法与影像物件辨识系统
US10999524B1 (en) 2018-04-12 2021-05-04 Amazon Technologies, Inc. Temporal high dynamic range imaging using time-of-flight cameras
CN110415264B (zh) * 2018-04-25 2023-10-24 奇景光电股份有限公司 动作检测电路与方法
US11257132B1 (en) 2018-05-04 2022-02-22 Allstate Insurance Company Processing systems and methods having a machine learning engine for providing a surface dimension output
US11436648B1 (en) 2018-05-04 2022-09-06 Allstate Insurance Company Processing system having a machine learning engine for providing a surface dimension output
US10679362B1 (en) * 2018-05-14 2020-06-09 Vulcan Inc. Multi-camera homogeneous object trajectory alignment
US11120070B2 (en) * 2018-05-21 2021-09-14 Microsoft Technology Licensing, Llc System and method for attribute-based visual search over a computer communication network
US10674063B2 (en) 2018-06-20 2020-06-02 Amazon Technologies, Inc. Synchronizing time-of-flight cameras
US10708484B2 (en) 2018-06-20 2020-07-07 Amazon Technologies, Inc. Detecting interference between time-of-flight cameras using modified image sensor arrays
US11468698B1 (en) 2018-06-28 2022-10-11 Amazon Technologies, Inc. Associating events with actors using digital imagery and machine learning
US11482045B1 (en) 2018-06-28 2022-10-25 Amazon Technologies, Inc. Associating events with actors using digital imagery and machine learning
US11468681B1 (en) 2018-06-28 2022-10-11 Amazon Technologies, Inc. Associating events with actors using digital imagery and machine learning
CN108833928B (zh) * 2018-07-03 2020-06-26 中国科学技术大学 交通监控视频编码方法
US11100367B2 (en) 2018-07-12 2021-08-24 EMC IP Holding Company LLC Dynamic digital information retrieval implemented via artificial intelligence
US10846544B2 (en) 2018-07-16 2020-11-24 Cartica Ai Ltd. Transportation prediction system and method
US10846554B2 (en) 2018-07-17 2020-11-24 Avigilon Corporation Hash-based appearance search
CA3106694A1 (en) * 2018-07-18 2020-01-23 Robert Laganiere System and method for tracking customer movements in a customer service environment
US10681338B1 (en) 2018-07-24 2020-06-09 Amazon Technologies, Inc. Detecting interference in depth images captured using overlapping depth cameras
US10650547B2 (en) * 2018-07-26 2020-05-12 Microsoft Technology Licensing, Llc Blob detection using feature match scores
US11164037B2 (en) 2018-08-01 2021-11-02 International Business Machines Corporation Object instance ambiguity resolution
CN109284673B (zh) * 2018-08-07 2022-02-22 北京市商汤科技开发有限公司 对象跟踪方法及装置、电子设备及存储介质
US11244509B2 (en) * 2018-08-20 2022-02-08 Fisher-Rosemount Systems, Inc. Drift correction for industrial augmented reality applications
CA3112157A1 (en) 2018-09-20 2020-03-26 Avigilon Coporation Region proposal with tracker feedback
CA3111595A1 (en) * 2018-09-21 2020-03-26 Position Imaging, Inc. Machine-learning-assisted self-improving object-identification system and method
US11013140B1 (en) 2018-09-25 2021-05-18 Amazon Technologies, Inc. Wall-mounted cable housing assemblies
US20200133308A1 (en) 2018-10-18 2020-04-30 Cartica Ai Ltd Vehicle to vehicle (v2v) communication less truck platooning
US10839694B2 (en) 2018-10-18 2020-11-17 Cartica Ai Ltd Blind spot alert
US11126870B2 (en) 2018-10-18 2021-09-21 Cartica Ai Ltd. Method and system for obstacle detection
US11181911B2 (en) 2018-10-18 2021-11-23 Cartica Ai Ltd Control transfer of a vehicle
US11126869B2 (en) 2018-10-26 2021-09-21 Cartica Ai Ltd. Tracking after objects
US11188763B2 (en) * 2019-10-25 2021-11-30 7-Eleven, Inc. Topview object tracking using a sensor array
US20200160089A1 (en) * 2018-11-15 2020-05-21 International Business Machines Corporation Visual pattern recognition with selective illumination for assisted inspection
US10872424B2 (en) 2018-11-19 2020-12-22 Accenture Global Solutions Limited Object tracking using object attributes
JP6810359B2 (ja) * 2018-11-22 2021-01-06 キヤノンマーケティングジャパン株式会社 情報処理装置、制御方法、プログラム
US10789535B2 (en) 2018-11-26 2020-09-29 Cartica Ai Ltd Detection of road elements
KR102002024B1 (ko) * 2018-12-06 2019-07-22 주식회사 아임클라우드 객체 라벨링 처리 방법 및 객체 관리 서버
US11386306B1 (en) 2018-12-13 2022-07-12 Amazon Technologies, Inc. Re-identification of agents using image analysis and machine learning
US10915783B1 (en) 2018-12-14 2021-02-09 Amazon Technologies, Inc. Detecting and locating actors in scenes based on degraded or supersaturated depth data
WO2020119924A1 (en) * 2018-12-14 2020-06-18 Xovis Ag Method and arrangement for determining a group of persons to be considered
US11126861B1 (en) 2018-12-14 2021-09-21 Digimarc Corporation Ambient inventorying arrangements
CA3104641A1 (en) * 2018-12-18 2020-06-25 Rovi Guides, Inc. Systems and methods for automated tracking using a client device
KR20200084395A (ko) 2018-12-20 2020-07-13 삼성전자주식회사 영상에서 오브젝트를 인식하는 전자 장치 및 그 동작 방법
EP4242586A3 (de) * 2019-01-03 2023-11-22 Leica Geosystems AG Messsystem
US11089232B2 (en) 2019-01-11 2021-08-10 Position Imaging, Inc. Computer-vision-based object tracking and guidance module
US10805556B1 (en) 2019-01-22 2020-10-13 Amazon Technologies, Inc. Storage units with shifted-lens cameras
US11521512B2 (en) 2019-02-19 2022-12-06 Illinois Tool Works Inc. Systems for simulating joining operations using mobile devices
US11450233B2 (en) 2019-02-19 2022-09-20 Illinois Tool Works Inc. Systems for simulating joining operations using mobile devices
US11643005B2 (en) 2019-02-27 2023-05-09 Autobrains Technologies Ltd Adjusting adjustable headlights of a vehicle
US11699078B2 (en) 2019-03-08 2023-07-11 Ai Concepts, Llc Intelligent recognition and alert methods and systems
US10776695B1 (en) 2019-03-08 2020-09-15 Ai Concepts, Llc Intelligent recognition and alert methods and systems
US11285963B2 (en) 2019-03-10 2022-03-29 Cartica Ai Ltd. Driver-based prediction of dangerous events
US11694088B2 (en) 2019-03-13 2023-07-04 Cortica Ltd. Method for object detection using knowledge distillation
US11132548B2 (en) 2019-03-20 2021-09-28 Cortica Ltd. Determining object information that does not explicitly appear in a media unit signature
US11163820B1 (en) 2019-03-25 2021-11-02 Gm Cruise Holdings Llc Object search service employing an autonomous vehicle fleet
US11908242B2 (en) * 2019-03-31 2024-02-20 Cortica Ltd. Efficient calculation of a robust signature of a media unit
US11222069B2 (en) 2019-03-31 2022-01-11 Cortica Ltd. Low-power calculation of a signature of a media unit
US11488290B2 (en) 2019-03-31 2022-11-01 Cortica Ltd. Hybrid representation of a media unit
US10796444B1 (en) 2019-03-31 2020-10-06 Cortica Ltd Configuring spanning elements of a signature generator
US10776669B1 (en) 2019-03-31 2020-09-15 Cortica Ltd. Signature generation and object detection that refer to rare scenes
US10789527B1 (en) 2019-03-31 2020-09-29 Cortica Ltd. Method for object detection using shallow neural networks
US11544505B1 (en) * 2019-04-01 2023-01-03 Alarm.Com Incorporated Semi-supervised learning based on clustering objects in video from a property
CN110097724B (zh) * 2019-04-24 2021-06-29 苏州浪潮智能科技有限公司 一种基于fpga的物品自动看护方法及系统
US11580785B1 (en) 2019-06-10 2023-02-14 Amazon Technologies, Inc. Detecting interactions with non-discretized items and associating interactions with actors using digital images
US11927472B1 (en) 2019-06-26 2024-03-12 Amazon Technologies, Inc. Modular storage systems
KR20210009066A (ko) 2019-07-16 2021-01-26 삼성전자주식회사 사용자의 의도를 추정하는 방법 및 장치
US10894627B1 (en) 2019-08-09 2021-01-19 Amazon Technologies, Inc. Pinch-sealed adhesive sleeves
US11138477B2 (en) * 2019-08-15 2021-10-05 Collibra Nv Classification of data using aggregated information from multiple classification modules
WO2021034681A1 (en) 2019-08-16 2021-02-25 Bossa Nova Robotics Ip, Inc. Systems and methods for image capture and shelf content detection
US11109310B1 (en) 2019-09-17 2021-08-31 Amazon Technologies, Inc. Infrastructure-based access point load balancing
WO2021055585A1 (en) 2019-09-17 2021-03-25 Boston Polarimetrics, Inc. Systems and methods for surface modeling using polarization cues
US11012601B1 (en) 2019-09-23 2021-05-18 Amazon Technologies, Inc. Dual camera module systems
US11403849B2 (en) * 2019-09-25 2022-08-02 Charter Communications Operating, Llc Methods and apparatus for characterization of digital content
US11804076B2 (en) * 2019-10-02 2023-10-31 University Of Iowa Research Foundation System and method for the autonomous identification of physical abuse
BR112022006617A2 (pt) 2019-10-07 2022-06-28 Boston Polarimetrics Inc Sistemas e métodos para detecção por sensor de normais à superfície com polarização
TWI699708B (zh) * 2019-10-09 2020-07-21 鼎天國際股份有限公司 貨櫃空間計算裝置
JP2021077039A (ja) * 2019-11-07 2021-05-20 キヤノン株式会社 画像処理装置、画像処理方法、及びプログラム。
EP4062328A4 (de) * 2019-11-20 2023-08-16 PayPal, Inc. Verfahren zur nutzung von posttransaktionsdaten für vorherige transaktionen zur verwendung kürzlicher transaktionsdaten
CN110971819A (zh) * 2019-11-24 2020-04-07 西安呱牛信息技术有限公司 基于卫星导航用于拍摄的无人机路径控制方法及其系统
US10769807B1 (en) * 2019-11-25 2020-09-08 Pet3D Corp System, method, and apparatus for clothing a pet
US11322037B2 (en) 2019-11-25 2022-05-03 Illinois Tool Works Inc. Weld training simulations using mobile devices, modular workpieces, and simulated welding equipment
US11721231B2 (en) 2019-11-25 2023-08-08 Illinois Tool Works Inc. Weld training simulations using mobile devices, modular workpieces, and simulated welding equipment
CN110969115B (zh) * 2019-11-28 2023-04-07 深圳市商汤科技有限公司 行人事件的检测方法及装置、电子设备和存储介质
EP4066001A4 (de) 2019-11-30 2024-01-24 Boston Polarimetrics Inc Systeme und verfahren zur transparenten objektsegmentierung unter verwendung von polarisationshinweisen
US11893795B2 (en) 2019-12-09 2024-02-06 Google Llc Interacting with visitors of a connected home environment
US11083102B1 (en) 2019-12-10 2021-08-03 Amazon Technologies, Inc. Modular distribution frames and assemblies
FR3104774B1 (fr) * 2019-12-11 2022-01-07 Bull Sas Procédé de suivi d’un élément, dispositif électronique et produit programme d’ordinateur associés
US10748022B1 (en) 2019-12-12 2020-08-18 Cartica Ai Ltd Crowd separation
US11593662B2 (en) 2019-12-12 2023-02-28 Autobrains Technologies Ltd Unsupervised cluster generation
US11587384B1 (en) 2019-12-13 2023-02-21 Amazon Technologies, Inc. Group determination and association
US20210188205A1 (en) * 2019-12-19 2021-06-24 Zf Friedrichshafen Ag Vehicle vision system
US11100702B2 (en) 2019-12-27 2021-08-24 Industrial Technology Research Institute 3D image labeling method based on labeling information of 2D image and 3D image labeling device
KR20220132620A (ko) 2020-01-29 2022-09-30 인트린식 이노베이션 엘엘씨 물체 포즈 검출 및 측정 시스템들을 특성화하기 위한 시스템들 및 방법들
JP2023511747A (ja) 2020-01-30 2023-03-22 イントリンジック イノベーション エルエルシー 偏光画像を含む異なる撮像モダリティで統計モデルを訓練するためのデータを合成するためのシステムおよび方法
US11410122B1 (en) 2020-01-31 2022-08-09 Amazon Technologies, Inc. Determining inventory levels using switch-equipped strips and patterns of activated or deactivated indicators
EP3862902B1 (de) * 2020-02-05 2023-11-01 C2RO Cloud Robotics Inc. System und verfahren zur privatsphärenbewussten analyse von videoströmen
EP3994661A4 (de) * 2020-02-24 2023-08-02 Thales Canada Inc. Verfahren zur semantischen objektdetektion mit wissensgraphen
US11590988B2 (en) 2020-03-19 2023-02-28 Autobrains Technologies Ltd Predictive turning assistant
US11755989B2 (en) 2020-03-27 2023-09-12 Toshiba Global Commerce Solutions Holdings Corporation Preventing theft at retail stores
CN111405203B (zh) * 2020-03-30 2022-11-04 杭州海康威视数字技术股份有限公司 一种画面切换的确定方法、装置、电子设备及存储介质
US11827215B2 (en) 2020-03-31 2023-11-28 AutoBrains Technologies Ltd. Method for training a driving related object detector
US11398094B1 (en) 2020-04-06 2022-07-26 Amazon Technologies, Inc. Locally and globally locating actors by digital cameras and machine learning
US11443516B1 (en) 2020-04-06 2022-09-13 Amazon Technologies, Inc. Locally and globally locating actors by digital cameras and machine learning
KR20210128736A (ko) 2020-04-17 2021-10-27 삼성전자주식회사 멀티 카메라를 포함하는 전자 장치 및 촬영 방법
US11295167B2 (en) 2020-04-27 2022-04-05 Toshiba Global Commerce Solutions Holdings Corporation Automated image curation for machine learning deployments
US11138439B1 (en) * 2020-04-30 2021-10-05 Honeywell International Inc. Systems and methods for detecting patterns within video content
WO2021243088A1 (en) 2020-05-27 2021-12-02 Boston Polarimetrics, Inc. Multi-aperture polarization optical systems using beam splitters
US11937019B2 (en) * 2021-06-07 2024-03-19 Elementary Robotics, Inc. Intelligent quality assurance and inspection device having multiple camera modules
US11756424B2 (en) 2020-07-24 2023-09-12 AutoBrains Technologies Ltd. Parking assist
KR102448267B1 (ko) 2020-09-23 2022-09-28 임진성 다층구조의 물탱크
WO2022074643A1 (en) * 2020-10-08 2022-04-14 Edgy Bees Ltd. Improving geo-registration using machine-learning based object identification
US11896144B1 (en) 2020-12-03 2024-02-13 Amazon Technologies, Inc. Determining inventory levels using rotatable counting devices and visual imagery
US11514766B1 (en) 2020-12-10 2022-11-29 Amazon Technologies, Inc. Detecting interactions with storage units based on RFID signals and auxiliary signals
KR102271379B1 (ko) * 2020-12-16 2021-06-30 주식회사 두잉랩 영상 내의 객체를 인식하여 판별하는 방법 및 서버
AU2022219015A1 (en) * 2021-02-12 2023-09-28 Wyze Labs, Inc. Self-supervised collaborative approach to machine learning by models deployed on edge devices
US11676383B2 (en) * 2021-03-15 2023-06-13 Sensormatic Electronics, LLC Object counting system for high volume traffic
US11676384B2 (en) 2021-03-15 2023-06-13 Sensormatic Electronics, LLC Object counting system for high volume traffic
CN113033551A (zh) * 2021-03-16 2021-06-25 北京嘀嘀无限科技发展有限公司 对象检测的方法、装置、设备和存储介质
EP4064120B1 (de) * 2021-03-25 2023-07-26 Axis AB Verfahren zur bestimmung von bildern, die wahrscheinlich eine falsch-negative objektdetektion aufweisen
US11954886B2 (en) 2021-04-15 2024-04-09 Intrinsic Innovation Llc Systems and methods for six-degree of freedom pose estimation of deformable objects
US11290658B1 (en) 2021-04-15 2022-03-29 Boston Polarimetrics, Inc. Systems and methods for camera exposure control
US11810350B2 (en) 2021-05-21 2023-11-07 Western Digital Technologies, Inc. Processing of surveillance video streams using image classification and object detection
KR102343049B1 (ko) * 2021-06-17 2021-12-24 주식회사 인피닉 인공지능 학습을 위한 이미지 메타데이터 생성 방법 및 이를 실행하기 위하여 기록매체에 기록된 컴퓨터 프로그램
KR102343051B1 (ko) * 2021-06-17 2021-12-24 주식회사 인피닉 라이다 점군으로부터 카메라 이미지의 바운딩 박스를 조정하는 방법 및 이를 실행하기 위하여 기록매체에 기록된 컴퓨터 프로그램
KR102356907B1 (ko) * 2021-06-17 2022-02-08 주식회사 인피닉 인공지능 학습용 데이터의 메타데이터 입력 방법 및 이를 실행하기 위하여 기록매체에 기록된 컴퓨터 프로그램
US11810361B2 (en) 2021-06-25 2023-11-07 Western Digital Technologies, Inc. Site-based calibration of object detection parameters
US11940320B1 (en) 2021-06-25 2024-03-26 Amazon Technologies, Inc. Compressing load signal transmissions
US11689813B2 (en) 2021-07-01 2023-06-27 Intrinsic Innovation Llc Systems and methods for high dynamic range imaging using crossed polarizers
US11635167B1 (en) 2021-09-09 2023-04-25 Amazon Technologies, Inc. Quick-connect camera mounts with multiple degrees of freedom
US11483479B1 (en) 2021-09-24 2022-10-25 Amazon Technologies, Inc. Targeted image stabilization
US11743580B1 (en) 2022-05-16 2023-08-29 Motorola Solutions, Inc. Method and system for controlling operation of a fixed position camera
US11893847B1 (en) 2022-09-23 2024-02-06 Amazon Technologies, Inc. Delivering items to evaluation rooms while maintaining customer privacy

Family Cites Families (104)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4760604A (en) 1985-02-15 1988-07-26 Nestor, Inc. Parallel, multi-unit, adaptive, nonlinear pattern class separator and identifier
US4639784A (en) 1985-02-19 1987-01-27 Rca Corporation Video signal recursive filter adaptively controlled responsive to the history of image motion
US4779095A (en) 1986-10-28 1988-10-18 H & G Systems, Inc. Image change detection system
US4931868A (en) 1988-05-31 1990-06-05 Grumman Aerospace Corporation Method and apparatus for detecting innovations in a scene
US5099322A (en) 1990-02-27 1992-03-24 Texas Instruments Incorporated Scene change detection system and method
US5091780A (en) 1990-05-09 1992-02-25 Carnegie-Mellon University A trainable security system emthod for the same
KR920003198A (ko) 1990-07-06 1992-02-29 카가야세이치 화상처리에 의한 이동물체검출방법 및 그 장치와 이 장치를 사용한 거리측정 장치
US5253070A (en) 1990-12-31 1993-10-12 Goldstar Co., Ltd. System and method for automatically detecting a variation of video information
US5268967A (en) 1992-06-29 1993-12-07 Eastman Kodak Company Method for automatic foreground and background detection in digital radiographic images
DE69429145T2 (de) 1993-08-19 2002-07-18 Hitachi Ltd Klassifikation und Prüfvorrichtung für Teilchen in einer Flüssigkeit
US5473737A (en) * 1993-10-12 1995-12-05 International Business Machines Corporation Method and apparatus for displaying a composite image made up of a foreground image and a background image
WO1996009598A1 (en) * 1994-09-20 1996-03-28 Neopath, Inc. Cytological slide scoring apparatus
US5825936A (en) * 1994-09-22 1998-10-20 University Of South Florida Image analyzing device using adaptive criteria
US5793888A (en) * 1994-11-14 1998-08-11 Massachusetts Institute Of Technology Machine learning apparatus and method for image searching
US6741655B1 (en) 1997-05-05 2004-05-25 The Trustees Of Columbia University In The City Of New York Algorithms and system for object-oriented content-based video search
US6301370B1 (en) 1998-04-13 2001-10-09 Eyematic Interfaces, Inc. Face recognition from video images
US7634662B2 (en) * 2002-11-21 2009-12-15 Monroe David A Method for incorporating facial recognition technology in a multimedia surveillance system
US6226388B1 (en) * 1999-01-05 2001-05-01 Sharp Labs Of America, Inc. Method and apparatus for object tracking for automatic controls in video devices
US6377296B1 (en) * 1999-01-28 2002-04-23 International Business Machines Corporation Virtual map system and method for tracking objects
US6577762B1 (en) * 1999-10-26 2003-06-10 Xerox Corporation Background surface thresholding
US6940998B2 (en) 2000-02-04 2005-09-06 Cernium, Inc. System for automated screening of security cameras
DE10136739A1 (de) 2000-08-10 2002-02-21 Univ Ilmenau Tech Verfahren zur Realisierung eines lernfähigen, adaptiven Klassifikators
US8711217B2 (en) * 2000-10-24 2014-04-29 Objectvideo, Inc. Video surveillance system employing video primitives
US8564661B2 (en) * 2000-10-24 2013-10-22 Objectvideo, Inc. Video analytic rule detection system and method
US7099510B2 (en) 2000-11-29 2006-08-29 Hewlett-Packard Development Company, L.P. Method and system for object detection in digital images
US20090231436A1 (en) 2001-04-19 2009-09-17 Faltesek Anthony E Method and apparatus for tracking with identification
US20020176001A1 (en) * 2001-05-11 2002-11-28 Miroslav Trajkovic Object tracking based on color distribution
FI20011370A (fi) * 2001-06-27 2002-12-28 Nokia Corp Biotunnistusmenetelmä ja sitä hyödyntävä laite
US7167576B2 (en) 2001-07-02 2007-01-23 Point Grey Research Method and apparatus for measuring dwell time of objects in an environment
KR100792283B1 (ko) * 2001-08-07 2008-01-07 삼성전자주식회사 이동물체 자동 추적장치 및 방법
JP2003058861A (ja) * 2001-08-15 2003-02-28 Communication Research Laboratory データエラーの検出方法及び装置、ソフトウェア並びにその記憶媒体
US6970083B2 (en) 2001-10-09 2005-11-29 Objectvideo, Inc. Video tripwire
CN1596420A (zh) * 2001-10-11 2005-03-16 爱科赛亚有限责任公司 用于学习模式分类和判定值估计的方法和装置
KR100459893B1 (ko) 2002-01-08 2004-12-04 삼성전자주식회사 동영상에서 칼라 기반의 객체를 추적하는 방법 및 그 장치
US20030204368A1 (en) 2002-03-29 2003-10-30 Emre Ertin Adaptive sequential detection network
JP3999561B2 (ja) * 2002-05-07 2007-10-31 松下電器産業株式会社 監視システムと監視カメラ
JP3767692B2 (ja) * 2002-05-08 2006-04-19 ソニー株式会社 信号処理装置および方法、記録媒体、並びにプログラム
CN1456970A (zh) * 2002-05-10 2003-11-19 天瀚科技股份有限公司 动态影像内的物件的替换方法
US7227988B2 (en) * 2002-07-01 2007-06-05 Xerox Corporation Prioritized PDL segmentation producing two bit selector
US7020337B2 (en) * 2002-07-22 2006-03-28 Mitsubishi Electric Research Laboratories, Inc. System and method for detecting objects in images
US7489802B2 (en) 2002-09-10 2009-02-10 Zeev Smilansky Miniature autonomous agents for scene interpretation
US7221775B2 (en) * 2002-11-12 2007-05-22 Intellivid Corporation Method and apparatus for computerized image background analysis
US6993960B2 (en) 2002-12-26 2006-02-07 Woodward Governor Company Method and apparatus for detecting combustion instability in continuous combustion systems
JP4228745B2 (ja) 2003-03-28 2009-02-25 株式会社日立製作所 多スペクトル撮像画像解析装置
GB2402796B (en) 2003-06-12 2005-04-20 Phasor Ltd A method and device for identifying information on the surface of an article
US7627171B2 (en) * 2003-07-03 2009-12-01 Videoiq, Inc. Methods and systems for detecting objects of interest in spatio-temporal signals
WO2005022343A2 (en) * 2003-08-29 2005-03-10 Exscientia, Llc System and methods for incrementally augmenting a classifier
EP1668469A4 (de) * 2003-09-19 2007-11-21 Bae Systems Advanced Informati Verfolgungssysteme und -verfahren
US7450735B1 (en) * 2003-10-16 2008-11-11 University Of Central Florida Research Foundation, Inc. Tracking across multiple cameras with disjoint views
US20050104958A1 (en) * 2003-11-13 2005-05-19 Geoffrey Egnal Active camera video-based surveillance systems and methods
US20050105764A1 (en) * 2003-11-17 2005-05-19 Mei Han Video surveillance system with connection probability computation that is a function of object size
EP1687806A1 (de) 2003-11-18 2006-08-09 Koninklijke Philips Electronics N.V. Vergleichen von datenobjekten durch vergleichen abgeleiteter fingerabdrücke
KR100627500B1 (ko) * 2004-03-10 2006-09-21 엘지전자 주식회사 모바일폰의 단문 메시지 제공시스템 및 그 제공방법
WO2006083283A2 (en) * 2004-06-01 2006-08-10 Sarnoff Corporation Method and apparatus for video surveillance
US7738705B2 (en) * 2004-06-30 2010-06-15 Stefano Casadei Hierarchical method and system for pattern recognition and edge detection
WO2006012645A2 (en) 2004-07-28 2006-02-02 Sarnoff Corporation Method and apparatus for total situational awareness and monitoring
US7639840B2 (en) * 2004-07-28 2009-12-29 Sarnoff Corporation Method and apparatus for improved video surveillance through classification of detected objects
JP4130820B2 (ja) * 2004-08-27 2008-08-06 株式会社豊田中央研究所 顔中心位置検出装置及び方法並びにプログラム
JP4180027B2 (ja) * 2004-08-27 2008-11-12 株式会社豊田中央研究所 顔部品位置検出装置及び方法並びにプログラム
US7450766B2 (en) * 2004-10-26 2008-11-11 Hewlett-Packard Development Company, L.P. Classifier performance
US20080181453A1 (en) * 2005-03-17 2008-07-31 Li-Qun Xu Method of Tracking Objects in a Video Sequence
WO2006100743A1 (ja) 2005-03-18 2006-09-28 Fujitsu Limited 表示機能付情報メディア
US8139896B1 (en) * 2005-03-28 2012-03-20 Grandeye, Ltd. Tracking moving objects accurately on a wide-angle video
US7760908B2 (en) 2005-03-31 2010-07-20 Honeywell International Inc. Event packaged video sequence
US20080291278A1 (en) 2005-04-05 2008-11-27 Objectvideo, Inc. Wide-area site-based video surveillance system
US7366972B2 (en) 2005-04-29 2008-04-29 Microsoft Corporation Dynamically mediating multimedia content and devices
US7657100B2 (en) * 2005-05-09 2010-02-02 Like.Com System and method for enabling image recognition and searching of images
US7643674B2 (en) * 2005-05-12 2010-01-05 Hewlett-Packard Development Company, L.P. Classification methods, classifier determination methods, classifiers, classifier determination devices, and articles of manufacture
US20090041297A1 (en) * 2005-05-31 2009-02-12 Objectvideo, Inc. Human detection and tracking for security applications
WO2006137071A2 (en) 2005-06-23 2006-12-28 Israel Aerospace Industries Ltd. A system and method for tracking moving objects
DE602006009191D1 (de) * 2005-07-26 2009-10-29 Canon Kk Bildaufnahmegerät und -verfahren
US8284254B2 (en) * 2005-08-11 2012-10-09 Sightlogix, Inc. Methods and apparatus for a wide area coordinated surveillance system
US20070058836A1 (en) * 2005-09-15 2007-03-15 Honeywell International Inc. Object classification in video data
US8310554B2 (en) * 2005-09-20 2012-11-13 Sri International Method and apparatus for performing coordinated multi-PTZ camera tracking
TW200713021A (en) 2005-09-29 2007-04-01 Univ Nat Cheng Kung Hybrid picture classification method
JP4241709B2 (ja) * 2005-10-11 2009-03-18 ソニー株式会社 画像処理装置
US7519567B2 (en) 2005-10-31 2009-04-14 Hewlett-Packard Development Company, L.P. Enhanced classification of marginal instances
US7646922B2 (en) * 2005-12-30 2010-01-12 Honeywell International Inc. Object classification in video images
US7716157B1 (en) 2006-01-26 2010-05-11 Adobe Systems Incorporated Searching images with extracted objects
US8571272B2 (en) * 2006-03-12 2013-10-29 Google Inc. Techniques for enabling or establishing the use of face recognition algorithms
US7949186B2 (en) * 2006-03-15 2011-05-24 Massachusetts Institute Of Technology Pyramid match kernel and related techniques
JP4556891B2 (ja) * 2006-03-17 2010-10-06 ソニー株式会社 情報処理装置および方法、記録媒体、並びにプログラム
US7523081B1 (en) * 2006-03-22 2009-04-21 Google Inc. Method and apparatus for producing a signature for an object
KR20060031832A (ko) * 2006-03-22 2006-04-13 뷰웨이 주식회사 실시간 행위분석 및 상황인지 기반 스마트 영상 보안시스템
CN101051385B (zh) * 2006-04-07 2011-11-23 欧姆龙株式会社 特定被摄体跟踪方法和装置以及特征部跟踪方法和装置
US20070237387A1 (en) * 2006-04-11 2007-10-11 Shmuel Avidan Method for detecting humans in images
US8009861B2 (en) 2006-04-28 2011-08-30 Vobile, Inc. Method and system for fingerprinting digital video object based on multiresolution, multirate spatial and temporal signatures
CN101563710B (zh) * 2006-05-22 2013-12-04 安讯士有限公司 识别由视频监视摄像机检测到的对象的特性的方法及装置
CN101449293A (zh) 2006-05-31 2009-06-03 汤姆森许可贸易公司 视频对象的多跟踪
US8184166B2 (en) * 2006-07-06 2012-05-22 Nokia Corporation Method, device, mobile terminal and computer program product for a camera motion detection based scheme for improving camera input user interface functionalities
US20080052262A1 (en) 2006-08-22 2008-02-28 Serhiy Kosinov Method for personalized named entity recognition
US8165397B2 (en) 2006-12-04 2012-04-24 Lockheed Martin Company Identifying descriptor for person or object in an image
US7898576B2 (en) 2007-02-28 2011-03-01 Honeywell International Inc. Method and system for indexing and searching objects of interest across a plurality of video streams
US7925112B2 (en) 2007-02-28 2011-04-12 Honeywell International Inc. Video data matching using clustering on covariance appearance
US8559516B2 (en) 2007-06-14 2013-10-15 Sony Corporation Video sequence ID by decimated scene signature
US8094971B2 (en) * 2007-09-05 2012-01-10 Seiko Epson Corporation Method and system for automatically determining the orientation of a digital image
KR100903961B1 (ko) 2007-12-17 2009-06-25 한국전자통신연구원 시그니처 파일을 이용한 고차원 데이터 색인 및 검색방법과 그 시스템
TWI489394B (zh) * 2008-03-03 2015-06-21 Videoiq Inc 用於追蹤、索引及搜尋之物件匹配
US8872940B2 (en) 2008-03-03 2014-10-28 Videoiq, Inc. Content aware storage of video data
US8611701B2 (en) 2008-05-21 2013-12-17 Yuvad Technologies Co., Ltd. System for facilitating the search of video content
WO2010011991A2 (en) 2008-07-25 2010-01-28 Anvato, Inc. Method and apparatus for detecting near-duplicate videos using perceptual video signatures
AU2008264232B2 (en) 2008-12-30 2012-05-17 Canon Kabushiki Kaisha Multi-modal object signature
CN102292726B (zh) 2009-01-23 2014-10-22 日本电气株式会社 视频标识符提取设备
US8625033B1 (en) 2010-02-01 2014-01-07 Google Inc. Large-scale matching of audio and video

Non-Patent Citations (7)

* Cited by examiner, † Cited by third party
Title
"Content Aware Storage of Video Data" bzw. "Extending the Operational Lifetime of a Hard-Disk Drive Used in Video Data Storage Applications"
"Method and System for Tracking Objects Under Video Surveillance", eingereicht am 3. März 2008
"Method of Dynamic Object and Event Classification", eingereicht am 3. März 2008
"Methods and Systems for Detecting Objekts of Interest in Spatio-Temporal Signals"
"Objekt Matching for Tracking, Indexing, and Search"
"Sequential Discriminant Error Minimization: The Theory and its Application to Real-Time Video Object Recognition" (Carnegie Mellon University, 2005)
Paul Viola & Michael Jones, "Robust Real-Time Face Detection", International Journal of Computer Vision, S. 137-154 (2004)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102019207700A1 (de) * 2019-05-27 2020-12-03 Zf Friedrichshafen Ag Klassifikationsvorrichtung zur Objektdetektion in Umfeldsensordaten und Verfahren

Also Published As

Publication number Publication date
TW200945218A (en) 2009-11-01
US20190303667A1 (en) 2019-10-03
US10699115B2 (en) 2020-06-30
US20220027618A1 (en) 2022-01-27
US11669979B2 (en) 2023-06-06
KR101592889B1 (ko) 2016-02-11
GB2492247A8 (en) 2013-01-30
GB201211438D0 (en) 2012-08-08
KR20100126468A (ko) 2010-12-01
GB201014669D0 (en) 2010-10-20
GB2471036A (en) 2010-12-15
US10417493B2 (en) 2019-09-17
US8934709B2 (en) 2015-01-13
US20150278607A1 (en) 2015-10-01
US20140176727A1 (en) 2014-06-26
GB2492246A8 (en) 2013-01-30
TWI534719B (zh) 2016-05-21
US10339379B2 (en) 2019-07-02
GB2492246B (en) 2013-04-10
US10127445B2 (en) 2018-11-13
GB2492248A8 (en) 2013-01-30
GB201211437D0 (en) 2012-08-08
GB2470520A (en) 2010-11-24
GB201211440D0 (en) 2012-08-08
US8224029B2 (en) 2012-07-17
US10133922B2 (en) 2018-11-20
US20090245573A1 (en) 2009-10-01
US20160259975A1 (en) 2016-09-08
US11176366B2 (en) 2021-11-16
TW201005656A (en) 2010-02-01
CN106657812A (zh) 2017-05-10
CN106657812B (zh) 2020-04-03
WO2009111498A2 (en) 2009-09-11
GB2492248A (en) 2012-12-26
CN101965729A (zh) 2011-02-02
TWI489394B (zh) 2015-06-21
US20190354757A1 (en) 2019-11-21
US8655020B2 (en) 2014-02-18
US20150092054A1 (en) 2015-04-02
CN101965729B (zh) 2017-01-11
US20120274777A1 (en) 2012-11-01
KR101607224B1 (ko) 2016-03-29
KR20150123968A (ko) 2015-11-04
GB2492248B (en) 2013-04-10
US9830511B2 (en) 2017-11-28
GB201211439D0 (en) 2012-08-08
GB2492247A (en) 2012-12-26
WO2009111499A3 (en) 2009-12-03
TWI506565B (zh) 2015-11-01
US9076042B2 (en) 2015-07-07
WO2009111498A3 (en) 2009-12-03
US9317753B2 (en) 2016-04-19
GB2471036B (en) 2012-08-22
US20180060656A1 (en) 2018-03-01
GB2492246A (en) 2012-12-26
US20150093035A1 (en) 2015-04-02
US20190073530A1 (en) 2019-03-07
GB2470520B (en) 2012-11-28
CN101965576B (zh) 2013-03-06
GB2492247B (en) 2013-04-10
CN101965576A (zh) 2011-02-02
WO2009111499A2 (en) 2009-09-11
TWI508003B (zh) 2015-11-11
GB201014670D0 (en) 2010-10-20
US20170262702A1 (en) 2017-09-14
US9697425B2 (en) 2017-07-04
KR20100124309A (ko) 2010-11-26
US20090244291A1 (en) 2009-10-01
DE112009000485T5 (de) 2011-03-17
TW201535276A (zh) 2015-09-16
TW201601072A (zh) 2016-01-01
GB2491987A (en) 2012-12-19
GB2491987B (en) 2013-03-27
KR101564383B1 (ko) 2015-10-30

Similar Documents

Publication Publication Date Title
DE112009000480T5 (de) Dynamische Objektklassifikation
DE102018218586A1 (de) Verfahren, Vorrichtung und Computerprogramm zum Erzeugen robuster automatisch lernender Systeme und Testen trainierter automatisch lernender Systeme
DE112009000949T5 (de) Detektion eines freien Fahrpfads für ein Fahrzeug
DE102009048892A1 (de) Pixelbasierte strukturreiche Detektion eines freien Pfads
DE112020000448T5 (de) Kameraselbstkalibrierungsnetz
DE112020005223T5 (de) Objektverfolgungseinrichtung und Objektverfolgungsverfahren
DE102018220892A1 (de) Vorrichtung und Verfahren zur Generierung von Labelobjekten für die Umgebung eines Fahrzeugs
DE102021201124A1 (de) Trainieren von bildklassifizierernetzen
DE102021201178A1 (de) Computerimplementiertes verfahren zum erzeugen von zuverlässigkeitsangaben für computervision
DE102021200348A1 (de) Computerimplementiertes verfahren zum trainieren eines computervisionsmodells
DE102021210417A1 (de) Systeme und Verfahren mit robusten Klassifikatoren zur Abwehr von Patch-Angriffen
DE102021204040A1 (de) Verfahren, Vorrichtung und Computerprogramm zur Erstellung von Trainingsdaten im Fahrzeug
DE102021201445A1 (de) Computerimplementiertes Verfahren zum Testen der Konformität zwischen realen und synthetischen Bildern für maschinelles Lernen
DE102020208828A1 (de) Verfahren und Vorrichtung zum Erstellen eines maschinellen Lernsystems
DE102020208080A1 (de) Erkennung von Objekten in Bildern unter Äquivarianz oder Invarianz gegenüber der Objektgröße
CN111476129A (zh) 一种基于深度学习的土壤杂质检测方法
DE102020101444A1 (de) Ein Verfahren zum Detektieren sich bewegender Objekte
DE102022201112A1 (de) Vorrichtung und computer- implementiertes Verfahren zum maschinellen Lernen
DE202023106486U1 (de) Ein automatisiertes Bewegungsobjekt-Erkennungssystem für Videoüberwachungsanwendungen
DE102020216188A1 (de) Vorrichtung und Verfahren zum Trainieren eines Klassifizierers
CN117456257A (zh) 一种基于改进YOLOv5的农业病虫害识别方法
DE102022110871A1 (de) Automatische annotation unter verwendung von ground-truth-daten für modelle des maschinellen lernens
DE102020211714A1 (de) Verfahren und Vorrichtung zum Erstellen eines maschinellen Lernsystems
DE102021212731A1 (de) Überprüfen von test- und/oder trainings-datensätzen für ein computerbasiertes maschinenlernmodul
EP4083939A1 (de) Objekterkennung für ein hausgerät

Legal Events

Date Code Title Description
R082 Change of representative

Representative=s name: HOFSTETTER, SCHURACK & PARTNER PATENT- UND REC, DE

R081 Change of applicant/patentee

Owner name: AVO USA HOLDING 2 CORPORATION, BILLERICA, US

Free format text: FORMER OWNER: VIDEOIQ, INC., BEDFORD, MASS., US

Effective date: 20150127

Owner name: AVIGILON PATENT HOLDING 2 CORPORATION, CA

Free format text: FORMER OWNER: VIDEOIQ, INC., BEDFORD, MASS., US

Effective date: 20150127

Owner name: AVIGILON ANALYTICS CORPORATION, CA

Free format text: FORMER OWNER: VIDEOIQ, INC., BEDFORD, MASS., US

Effective date: 20150127

R082 Change of representative

Representative=s name: HOFSTETTER, SCHURACK & PARTNER PATENT- UND REC, DE

Effective date: 20150127

Representative=s name: ZIMMERMANN & PARTNER PATENTANWAELTE MBB, DE

Effective date: 20150127

R081 Change of applicant/patentee

Owner name: AVIGILON PATENT HOLDING 2 CORPORATION, CA

Free format text: FORMER OWNER: AVO USA HOLDING 2 CORPORATION, BILLERICA, MASS., US

Owner name: AVIGILON ANALYTICS CORPORATION, CA

Free format text: FORMER OWNER: AVO USA HOLDING 2 CORPORATION, BILLERICA, MASS., US

R082 Change of representative

Representative=s name: SCHUMACHER & WILLSAU PATENTANWALTSGESELLSCHAFT, DE

Representative=s name: HOFSTETTER, SCHURACK & PARTNER PATENT- UND REC, DE

Representative=s name: ZIMMERMANN & PARTNER PATENTANWAELTE MBB, DE

R012 Request for examination validly filed
R081 Change of applicant/patentee

Owner name: AVIGILON ANALYTICS CORPORATION, CA

Free format text: FORMER OWNER: AVIGILON PATENT HOLDING 2 CORPORATION, VANCOUVER, CA

R082 Change of representative

Representative=s name: SCHUMACHER & WILLSAU PATENTANWALTSGESELLSCHAFT, DE

Representative=s name: HOFSTETTER, SCHURACK & PARTNER PATENT- UND REC, DE

Representative=s name: ZIMMERMANN & PARTNER PATENTANWAELTE MBB, DE

R082 Change of representative

Representative=s name: SCHUMACHER & WILLSAU PATENTANWALTSGESELLSCHAFT, DE

Representative=s name: ZIMMERMANN & PARTNER PATENTANWAELTE MBB, DE

R016 Response to examination communication
R082 Change of representative

Representative=s name: SCHUMACHER & WILLSAU PATENTANWALTSGESELLSCHAFT, DE

R079 Amendment of ipc main class

Free format text: PREVIOUS MAIN CLASS: G06K0009620000

Ipc: G06V0030190000

R081 Change of applicant/patentee

Owner name: MOTOROLA SOLUTIONS, INC., CHICAGO, US

Free format text: FORMER OWNER: AVIGILON ANALYTICS CORPORATION, VANCOUVER, CA

R002 Refusal decision in examination/registration proceedings