DE112009000480T5 - Dynamische Objektklassifikation - Google Patents
Dynamische Objektklassifikation Download PDFInfo
- Publication number
- DE112009000480T5 DE112009000480T5 DE112009000480T DE112009000480T DE112009000480T5 DE 112009000480 T5 DE112009000480 T5 DE 112009000480T5 DE 112009000480 T DE112009000480 T DE 112009000480T DE 112009000480 T DE112009000480 T DE 112009000480T DE 112009000480 T5 DE112009000480 T5 DE 112009000480T5
- Authority
- DE
- Germany
- Prior art keywords
- camera system
- classification module
- classifier
- class
- module
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 claims description 145
- 230000006870 function Effects 0.000 claims description 109
- 238000012549 training Methods 0.000 claims description 52
- 241000282414 Homo sapiens Species 0.000 claims description 39
- 238000001514 detection method Methods 0.000 claims description 32
- 230000000875 corresponding effect Effects 0.000 claims description 22
- 238000011161 development Methods 0.000 claims description 13
- 230000004044 response Effects 0.000 claims description 13
- 238000012552 review Methods 0.000 claims description 9
- 238000012986 modification Methods 0.000 claims description 7
- 230000004048 modification Effects 0.000 claims description 7
- 238000013507 mapping Methods 0.000 claims description 6
- 238000012795 verification Methods 0.000 claims description 6
- 238000012790 confirmation Methods 0.000 claims description 5
- 230000002596 correlated effect Effects 0.000 claims description 2
- 238000012546 transfer Methods 0.000 claims description 2
- 230000008569 process Effects 0.000 description 35
- 230000009466 transformation Effects 0.000 description 26
- 238000010586 diagram Methods 0.000 description 13
- 238000003860 storage Methods 0.000 description 13
- 230000002123 temporal effect Effects 0.000 description 13
- 239000013598 vector Substances 0.000 description 12
- 238000012545 processing Methods 0.000 description 10
- 230000004913 activation Effects 0.000 description 7
- 230000008901 benefit Effects 0.000 description 7
- 238000000844 transformation Methods 0.000 description 6
- 238000012360 testing method Methods 0.000 description 5
- 230000008859 change Effects 0.000 description 4
- 238000005457 optimization Methods 0.000 description 4
- 238000010200 validation analysis Methods 0.000 description 4
- 241001465754 Metazoa Species 0.000 description 3
- 238000011156 evaluation Methods 0.000 description 3
- 230000006872 improvement Effects 0.000 description 3
- 238000009434 installation Methods 0.000 description 3
- 238000010276 construction Methods 0.000 description 2
- 238000013480 data collection Methods 0.000 description 2
- 238000013500 data storage Methods 0.000 description 2
- 230000007423 decrease Effects 0.000 description 2
- 230000010354 integration Effects 0.000 description 2
- 238000011946 reduction process Methods 0.000 description 2
- 230000001932 seasonal effect Effects 0.000 description 2
- 230000007704 transition Effects 0.000 description 2
- BUHVIAUBTBOHAG-FOYDDCNASA-N (2r,3r,4s,5r)-2-[6-[[2-(3,5-dimethoxyphenyl)-2-(2-methylphenyl)ethyl]amino]purin-9-yl]-5-(hydroxymethyl)oxolane-3,4-diol Chemical compound COC1=CC(OC)=CC(C(CNC=2C=3N=CN(C=3N=CN=2)[C@H]2[C@@H]([C@H](O)[C@@H](CO)O2)O)C=2C(=CC=CC=2)C)=C1 BUHVIAUBTBOHAG-FOYDDCNASA-N 0.000 description 1
- 230000006978 adaptation Effects 0.000 description 1
- 230000003044 adaptive effect Effects 0.000 description 1
- 230000002155 anti-virotic effect Effects 0.000 description 1
- 230000000739 chaotic effect Effects 0.000 description 1
- 238000013145 classification model Methods 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 230000003247 decreasing effect Effects 0.000 description 1
- 238000009826 distribution Methods 0.000 description 1
- 230000002349 favourable effect Effects 0.000 description 1
- 230000005021 gait Effects 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000000737 periodic effect Effects 0.000 description 1
- 238000013139 quantization Methods 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 229920006395 saturated elastomer Polymers 0.000 description 1
- 238000012216 screening Methods 0.000 description 1
- 238000010998 test method Methods 0.000 description 1
- 230000001960 triggered effect Effects 0.000 description 1
- 238000001429 visible spectrum Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/80—Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/246—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/222—Studio circuitry; Studio devices; Studio equipment
- H04N5/262—Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/213—Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods
- G06F18/2132—Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods based on discrimination criteria, e.g. discriminant analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/22—Matching criteria, e.g. proximity measures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/245—Classification techniques relating to the decision surface
- G06F18/2453—Classification techniques relating to the decision surface non-linear, e.g. polynomial classifier
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/40—Software arrangements specially adapted for pattern recognition, e.g. user interfaces or toolboxes therefor
- G06F18/41—Interactive pattern learning with a human teacher
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
- G06V20/41—Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/52—Surveillance or monitoring of activities, e.g. for recognising suspicious objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/60—Type of objects
- G06V20/64—Three-dimensional objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V30/00—Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
- G06V30/10—Character recognition
- G06V30/24—Character recognition characterised by the processing or recognition method
- G06V30/242—Division of the character sequences into groups prior to recognition; Selection of dictionaries
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/103—Static body considered as a whole, e.g. static pedestrian or occupant recognition
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/61—Control of cameras or camera modules based on recognised objects
- H04N23/611—Control of cameras or camera modules based on recognised objects where the recognised objects include parts of the human body
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/63—Control of cameras or camera modules by using electronic viewfinders
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/63—Control of cameras or camera modules by using electronic viewfinders
- H04N23/631—Graphical user interfaces [GUI] specially adapted for controlling image capture or setting capture parameters
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/66—Remote control of cameras or camera parts, e.g. by remote control devices
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/66—Remote control of cameras or camera parts, e.g. by remote control devices
- H04N23/661—Transmitting camera control signals through networks, e.g. control via the Internet
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N7/00—Television systems
- H04N7/18—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N7/00—Television systems
- H04N7/18—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
- H04N7/181—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a plurality of remote sources
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2218/00—Aspects of pattern recognition specially adapted for signal processing
- G06F2218/12—Classification; Matching
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30232—Surveillance
Abstract
einer Bilderfassungsvorrichtung (102) mit einem Blickfeld, die Bilddaten erzeugt, die ein Bild des Blickfeldes darstellen; und
einem Objektklassifikationsmodul (210), das mit der Bilderfassungsvorrichtung (102) verbunden ist, wobei das Objektklassifikationsmodul (210) betriebsfähig ist, um festzustellen, ob ein Objekt in einem Bild ein Mitglied einer Objektklasse ist oder nicht, wobei das Objektklassifikationsmodul (210) N Entscheidungsschritte (400) umfasst, die in einer Kaskadenkonfiguration konfiguriert sind, wobei mindestens einer der N Entscheidungsschritte (400) betriebsfähig ist, um (a) ein Objekt als Mitglied der Objektklasse anzunehmen, (b) ein Objekt als Mitglied der Objektklasse abzulehnen, und (c) einen nächsten Schritt (400) heranzuziehen, um festzustellen, ob ein Objekt ein Mitglied der Objektklasse ist oder nicht.
Description
- Verwandte Anmeldungen
- Diese Anmeldung beansprucht den Nutzen unter 35 U. S. C. § 119(e) der vorläufigen US-Anmeldung Nr. 61/033 349 mit dem Titel "Method of Dynamic Object and Event Classification", eingereicht am 3. März 2008, und der vorläufigen US-Anmeldung Nr. 61/033 284 mit dem Titel "Method and System for Tracking Objects Under Video Surveillance", eingereicht am 3. März 2008, die beide durch den Hinweis in ihren Gesamtheiten hierin aufgenommen werden.
- Technisches Gebiet
- Diese Offenbarung bezieht sich im Allgemeinen, aber nicht ausschließlich auf eine Videoüberwachung und insbesondere auf eine Objektklassifikation.
- Hintergrundinformationen
- Automatisierte Sicherheits- und Überwachungssysteme verwenden typischerweise Videokameras oder andere Bilderfassungsvorrichtungen oder Sensoren, um Bilddaten zu sammeln. In den einfachsten Systemen werden durch die Bilddaten dargestellte Bilder für eine zeitgleiche Rasterung durch Sicherheitspersonal angezeigt und/oder für eine spätere Bezugnahme nach einem Sicherheitsbruch aufgezeichnet. In diesen Systemen wird die Aufgabe der Detektion von interessierenden Objekten von einem menschlichen Beobachter durchgeführt. Ein signifikanter Vorteil tritt auf, wenn das System selbst die Objektdetektion und -klassifikation entweder teilweise oder vollständig durchführen kann.
- In einem typischen Überwachungssystem kann man beispielsweise an der Detektion von Objekten wie z. B. Menschen, Fahrzeugen, Tieren, usw., die sich durch die Umgebung bewegen, interessiert sein. Verschiedene Objekte könnten verschiedene Bedrohungen oder Alarmniveaus darstellen. Ein Tier in der Szene kann beispielsweise normal sein, aber ein Mensch oder ein Fahrzeug in der Szene kann eine Ursache für einen Alarm sein und kann die unmittelbare Aufmerksamkeit eines Sicherheitsbediensteten erfordern. Existierende Systeme, die in der Lage sind, detektierte Objekte zu klassifizieren, verwenden gewöhnlich eine einfache Heuristik, um breite Kategorien von Objekten voneinander zu unterscheiden. Vorbestimmte Erwartungen für das Seitenverhältnis und die Höhe werden beispielsweise verwendet, um ein detektiertes Objekt als Menschen zu klassifizieren. Theoretisch sind heuristische Verfahren rechnerisch günstig und leicht zu implementieren, aber sie sind viel weniger robust als optimierte Parameterklassifikatoren, die unter Verwendung von bekannten Maschinenlernalgorithmen gebildet werden, wie z. B. Adaptive Boosting (AdaBoost). Bekannte Parameterklassifikatoren leiden jedoch unter einem oder mehreren von (1) dem Mangel an bezeichneten Daten zum Trainieren und (2) der Unfähigkeit, sich automatisch zu entwickeln.
- Klassifikatoren des Standes der Technik erfordern typischerweise eine manuelle geometrische Kalibrierung und Abstimmung. Eine solche Kalibrierung und Abstimmung konzentrieren sich typischerweise auf eine Zwischenbenutzereingabe (z. B. Objekthöhen), die die Leistung des Systems direkt beeinflusst und typischerweise zeitaufwändige Arbeit durch geschultes Personal während der Installation erfordert. Überdies ist typischerweise eine Neuabstimmung und Kalibrierung erforderlich, wenn die Jahreszeiten wechseln oder wenn eine Kamera bewegt wird.
- Kurzbeschreibung der Zeichnungen
-
1 ist ein bildhaftes Diagramm eines Kamerasystems gemäß einem Ausführungsbeispiel. -
2 ist ein vereinfachtes Blockdiagramm von einer der Bilderfassungsvorrichtungen in dem in1 gezeigten System. -
3 ist ein Blockdiagramm des in2 gezeigten Objektklassifikationsmoduls. -
4 ist ein Blockdiagramm von einem der Klassifikatoren von3 . -
5A ist ein Blockdiagramm, das einen der anfänglichen N-1 Schritte in dem in4 gezeigten Klassifikator zeigt. -
5B ist eine Darstellung von Annahme- und Ablehnungsschwellenwerten, die in dem in5A gezeigten Schritt verwendet werden. -
6 ist ein Ablaufplan, der ein Verfahren zur Verwendung eines Kamerasystems gemäß einem Ausführungsbeispiel darstellt. -
7 ist ein Ablaufdiagramm, das ein Objektverfolgungsverfahren zeigt. -
8 ist ein Ablaufplan eines Objektklassifikator-Trainingsverfahrens. -
9 ist ein Ablaufplan eines weiteren Objektklassifikator-Trainingsverfahrens. -
10 stellt einen Prozess zum Gewinnen einer Rückmeldung von einem Benutzer, der eine Benutzerschnittstelle bedient, dar. -
11 ist ein Blockdiagramm eines spezialisierten Klassifikators. -
12 ist ein Ablaufplan eines Spezialisierungstrainingsprozesses, einschließlich einer aktiven Überprüfung. -
13 stellt einen passiven Überprüfungsprozess genauer dar. -
14 ist ein Ablaufplan eines aktiven Überprüfungsprozesses. -
15 zeigt einen Rückmeldungssammel- und Verallgemeinerungsprozess. -
16 ist ein Blockdiagramm eines Kiassifikators mit einem hinzugefügten Schritt, um einen neuen Objekttyp zu erkennen. -
17 ist ein Ablaufplan eines Kalibrierungsverfahrens, das eine Größenfunktion verwendet und aktualisiert. -
18 ist ein Blockdiagramm des Videoanalysemoduls von3 gemäß einem weiteren Ausführungsbeispiel. - Ausführliche Beschreibung von Ausführungsbeispielen
- Mit Bezug auf die vorstehend aufgelisteten Zeichnungen beschreibt dieser Abschnitt spezielle Ausführungsbeispiele und ihre ausführliche Konstruktion und Operation. Die hierin beschriebenen Ausführungsbeispiele werden nur zur Erläuterung und nicht zur Begrenzung dargelegt. Der Fachmann auf dem Gebiet wird angesichts der Lehren hierin erkennen, dass ein Bereich von Äquivalenten zu den hierin beschriebenen Beispielausführungsbeispielen besteht. Vor allem sind andere Ausführungsbeispiele möglich, Veränderungen können an den hierin beschriebenen Ausführungsbeispielen vorgenommen werden und es können Äquivalente zu den Komponenten, Teilen oder Schritten bestehen, die die beschriebenen Ausführungsbeispiele bilden.
- Der Deutlichkeit und Kürze halber werden bestimmte Aspekte von Komponenten oder Schritten von bestimmten Ausführungsbeispielen ohne übermäßiges Detail dargestellt, wenn ein solches Detail für den Fachmann auf dem Gebiet angesichts der Lehren hierin ersichtlich wäre und/oder wenn ein solches Detail ein Verständnis von relevanteren Aspekten der Ausführungsbeispiele verschleiern würde.
- Überblick
- Wie ein Fachmann auf dem Gebiet angesichts dieser Offenbarung erkennen wird, können bestimmte Ausführungsbeispiele bestimmte Vorteile gegenüber dem bekannten Stand der Technik erreichen, einschließlich vielleicht einiger oder aller der folgenden: (1) verbesserte Objektklassifikationsgenauigkeit; (2) Verwendung einer Benutzerrückmeldung zum Training und zur Anpassung eines Objektklassifikators, (3) Lernen von neuen Objektklassen in einem am Einsatzort aufgestellten Kamerasystems; (4) Online-Auswertung und -Einsatz von neuen Objektklassifikatoren; (5) Gewinnen einer Rückmeldung von einer Gemeinschaft von Kamerasystemen, um neue und/oder genauere allgemeine Objektklassifikatoren zu trainieren; (6) Kalibrieren eines am Einsatzort aufgestellten Kamerasystems während des Live-Betriebs; (7) Verringerung oder sogar Beseitigung des Bedarfs an einer manuellen Kalibrierung von Systemen am Einsatzort während der Installation und Abstimmung der Systeme danach aufgrund von Jahreszeitenwechseln oder einer Kamerabewegung; und (8) automatische Anpassung des Kamerasystems an sich ändernde Bedingungen. Diese und weitere Vorteile von verschiedenen Ausführungsbeispielen sind beim Lesen des Rests dieses Dokuments ersichtlich.
- Gemäß einem Ausführungsbeispiel umfasst ein Kamerasystem eine Bilderfassungsvorrichtung und ein Objektklassifikationsmodul, das mit der Bilderfassungsvorrichtung verbunden ist. Die Bilderfassungsvorrichtung weist ein Blickfeld auf und erzeugt Bilddaten, die ein Bild des Blickfeldes darstellen. Das Objektklassifikationsmodul ist betriebsfähig, um festzustellen, ob ein Objekt in einem Bild ein Mitglied einer Objektklasse ist oder nicht. Das Objektklassifikationsmodul umfasst N Entscheidungsschritte, die in einer Kaskadenkonfiguration konfiguriert sind, wobei mindestens einer der N Entscheidungsschritte betriebsfähig ist, um (a) ein Objekt als Mitglied der Objektklasse anzunehmen, (b) ein Objekt als Mitglied der Objektklasse abzulehnen, und (c) einen nächsten Schritt heranzuziehen, um festzustellen, ob ein Objekt ein Mitglied der Objektklasse ist oder nicht.
- Gemäß einem weiteren Ausführungsbeispiel klassifiziert ein Verfahren ein Objekt, das von einem Kamerasystem erfasst wird, das ein Objektklassifikationsmodul mit N Entscheidungsschritten umfasst, die in einer Kaskadenkonfiguration konfiguriert sind. Das Verfahren erfasst ein Bild eines Objekts, überträgt Bilddaten, die das Objekt darstellen, zu einem ersten der N Entscheidungsschritte. Das Verfahren identifiziert ein Merkmal des Objekts, das in den Bilddaten dargestellt ist, um festzustellen, ob das Objekt ein Mitglied einer Objektklasse ist, wobei ein Entscheidungsschrittwert vom Merkmal des Objekts abgeleitet wird. Das Verfahren trifft eine Entscheidung, um entweder das Objekt als Mitglied der Objektklasse anzunehmen, das Objekt als Mitglied der Objektklasse abzulehnen oder die Bilddaten zu einem zweiten der N Entscheidungsschritte zur weiteren Analyse weiterzuleiten. Die Entscheidung basiert auf einem Vergleich des Entscheidungsschrittwerts mit einem oder mehreren eines Annahmeschwellenwerts und eines Ablehnungsschwellenwerts. Der Annahmeschwellenwert ist ein höherer Wert als der Ablehnungsschwellenwert. Das Objekt wird als Mitglied der Objektklasse angenommen, wenn der Entscheidungsschrittwert über dem Annahmeschwellenwert liegt. Das Objekt wird als Mitglied der Objektklasse abgelehnt, wenn der Entscheidungsschrittwert unter dem Ablehnungsschwellenwert liegt. Die Bilddaten werden zum zweiten Entscheidungsschritt weitergeleitet, wenn der Entscheidungsschrittwert zwischen dem Annahme- und dem Ablehnungsschwellenwert liegt.
- Gemäß einem weiteren Ausführungsbeispiel umfasst ein Kamerasystem eine Bilderfassungsvorrichtung und ein Objektklassifikationsmodul, das mit der Bilderfassungsvorrichtung verbunden ist. Die Bilderfassungsvorrichtung weist ein Blickfeld auf und erzeugt Bilddaten, die ein Bild des Blickfeldes darstellen. Das Objektklassifikationsmodul ist betriebsfähig, um festzustellen, ob ein Objekt im Bild ein Mitglied einer Objektklasse ist oder nicht. Das Objektklassifikationsmodul umfasst N Entscheidungsschritte, die in einer Kaskadenkonfiguration konfiguriert sind. Jeder der Entscheidungsschritte umfasst eine oder mehrere Stufen zum Abbilden von Objektmerkmalen auf Skalarwerte. Eine erste der Stufen umfasst eine erste Diskriminantenfunktion zum Bestimmen eines ersten Skalarwerts und eine zweite der Stufen umfasst eine zweite Diskriminantenfunktion zum Bestimmen eines zweiten Skalarwerts. Die erste und die zweite Diskriminantenfunktion sind von verschiedenen Typen.
- Gemäß einem weiteren Ausführungsbeispiel klassifiziert ein Verfahren ein Objekt, das von einem Kamerasystem erfasst wird. Das Verfahren erzeugt Bilddaten, die ein Bild eines Objekts darstellen, das von dem Kamerasystem erfasst wird, und identifiziert ein erstes und ein zweites Merkmal des in den Bilddaten dargestellten Objekts. Das Verfahren bildet das erste und das zweite Merkmal des Objekts auf einen jeweiligen ersten und zweiten Skalarwert ab. Eine erste Diskriminantenfunktion wird verwendet, um den ersten Skalarwert zu erzeugen, und eine zweite Diskriminantenfunktion wird verwendet, um den zweiten Skalarwert zu erzeugen. Die erste und die zweite Diskriminantenfunktion werden während einer Trainingsoperation aus einer Gruppe ausgewählt, die aus mehreren verschiedenen Diskriminantenfunktionen besteht. Das Verfahren stellt auf der Basis eines Entscheidungsschrittwerts, der vom ersten und vom zweiten Skalarwert abgeleitet, wird, fest, ob das Objekt ein Mitglied einer Objektklasse ist.
- Gemäß einem weiteren Ausführungsbeispiel umfasst ein Kamerasystem eine Bilderfassungsvorrichtung, ein Objektklassifikationsmodul, das mit der Bilderfassungsvorrichtung verbunden ist, und ein Kalibrierungsmodul, das mit dem Objektklassifikationsmodul verbunden ist. Die Bilderfassungsvorrichtung weist ein Blickfeld und eine Bildebene auf. Die Bilderfassungsvorrichtung erzeugt die Bilddaten, die ein Bild des Blickfeldes darstellen, das auf die Bildebene projiziert wird. Das Objektklassifikationsmodul ist betriebsfähig, um Objekte auf der Basis der Bilddaten zu detektieren und zu klassifizieren, die im Blickfeld erfasst werden. Das Objektklassifikationsmodul ist betriebsfähig, um Objekte als Mitglieder oder Nicht-Mitglieder einer Objektklasse zu klassifizieren. Das mit dem Objektklassifikationsmodul verbundene Kalibrierungsmodul dient zum Abschätzen von repräsentativen Größen von Mitgliedern der Objektklasse, wobei die repräsentativen Größen verschiedenen Bereichen der Bildebene entsprechen. Das Kalibrierungsmodul ist betriebsfähig, um die repräsentativen Größen in Reaktion auf Klassifikationen, die durch das Objektklassifikationsmodul während des Live-Betriebs durchgeführt werden, automatisch zu aktualisieren. Das Kalibrierungsmodul ist betriebsfähig, um Informationen, die die aktualisierten repräsentativen Größen darstellen, zum Objektklassifikationsmodul zu liefern, um seine Objektklassifikationsleistung zu verbessern.
- Gemäß einem weiteren Ausführungsbeispiel kalibriert ein Verfahren automatisch ein am Einsatzort aufgestelltes Kamerasystem. Das Verfahren erfasst mehrere Bilder eines Blickfeldes des Kamerasystems. Die mehreren Bilder entsprechen einer Bildebene des Kamerasystems, auf die das Blickfeld projiziert wird. Das Verfahren detektiert ein erstes Objekt in den mehreren Bildern. Das erste Objekt wird an verschiedenen Stellen der Bildebene in den mehreren Bildern detektiert. Bilder des ersten Objekts weisen verschiedene Größen entsprechend den verschiedenen Stellen auf. Das Verfahren klassifiziert das erste Objekt als erstes Mitglied einer Objektklasse und berechnet einen Parameter einer Größenfunktion für die Bildebene auf der Basis der verschiedenen Größen des ersten Objekts. Die Größenfunktion wird verwendet, um repräsentative Größen der Objektklasse für die Bildebene abzuschätzen. Das Verfahren aktualisiert den Parameter der Größenfunktion in Reaktion auf die Detektion und Klassifikation eines zweiten Mitglieds der Objektklasse. Das zweite Mitglied wird während des Live-Betriebs des Kamerasystems detektiert und klassifiziert.
- Gemäß einem weiteren Ausführungsbeispiel modifiziert ein Verfahren ein Objektklassifikationsmodul, das von einem Benutzer in einem am Einsatzort aufgestellten Kamerasystem verwendet wird. Das Verfahren erfasst mehrere Bilder in einem Blickfeld des Kamerasystems. Die mehreren Bilder enthalten Darstellungen von mehreren Objekten. Ein erster Satz der mehreren Objekte sind Mitglieder einer Objektklasse und ein zweiter Satz der mehreren Objekte sind keine Mitglieder der Objektklasse. Das Verfahren klassifiziert die mehreren Objekte als entweder Mitglieder oder Nicht-Mitglieder der Objektklasse, wobei das Objektklassifikationsmodul eine oder mehrere irrtümliche Klassifikationen erzeugt. Das Verfahren erzeugt Fehlermetadaten auf der Basis einer Bestätigung durch den Benutzer von mindestens einigen der einen oder mehreren irrtümlichen Klassifikationen. Das Verfahren modifiziert das Objektklassifikationsmodul auf der Basis der Fehlermetadaten, um eine Anzahl von irrtümlichen Klassifikationen zu verringern, wobei das Modifizieren während der Verwendung am Einsatzort des Kamerasystems durchgeführt wird.
- Gemäß einem weiteren Ausführungsbeispiel umfasst ein Kamerasystem eine Bilderfassungsvorrichtung, ein Objektklassifikationsmodul, das mit der Bilderfassungsvorrichtung verbunden ist, eine Benutzerstation, die mit der Bilderfassungsvorrichtung verbunden ist, und ein Klassifikatorentwicklungsmodul. Die Bilderfassungsvorrichtung weist ein Blickfeld auf und erzeugt Bilddaten, die Bilder des Blickfeldes darstellen. Das Objektklassifikationsmodul ist betriebsfähig, um festzustellen, ob Objekte in den Bildern Mitglieder einer Objektklasse sind oder nicht, wobei das Objektklassifikationsmodul irrtümliche Klassifikationen erzeugt. Die Benutzerstation weist eine Anzeige zum Darstellen von Bildern des Blickfeldes für einen Benutzer auf. Die Benutzerstation ist betriebsfähig, um auf der Anzeige Darstellungen der irrtümlichen Klassifikationen darzustellen, die durch das Objektklassifikationsmodul erzeugt werden. Die Benutzerstation ist betriebsfähig, um Benutzerrückmeldungsinformationen in Reaktion auf eine Benutzerbestätigung der irrtümlichen Klassifikationen zu erzeugen. Die Benutzerrückmeldung erzeugt Fehlermetadaten. Das Klassifikatorentwicklungsmodul empfängt die Fehlermetadaten und ist betriebsfähig, um das Objektklassifikationsmodul unter Verwendung der Fehlermetadaten zu modifizieren, um die Anzahl von irrtümlichen Klassifikationen zu verringern. Das Klassifikatorentwicklungsmodul erzeugt dadurch einen spezialisierten Klassifikator.
- Gemäß noch einem weiteren Ausführungsbeispiel konstruiert ein Verfahren ein neues Objektklassifikationsmodul für die Verwendung in einem am Einsatzort aufgestellten Kamerasystem. Das neue Objektklassifikationsmodul klassifiziert Objekte als Mitglieder oder Nicht-Mitglieder einer von einem Benutzer ausgewählten neuen Objektklasse. Das Verfahren erfasst mehrere Bilder eines Blickfeldes des Kamerasystems. Die mehreren Bilder enthalten Darstellungen von mehreren Objekten, wobei ein erster Satz der mehreren Objekte Mitglieder der neuen Objektklasse sind und ein zweiter Satz der mehreren Objekte keine Mitglieder der neuen Objektklasse sind. Das Verfahren verwendet ein eingesetztes Objektklassifikationsmodul, um die mehreren Objekte als Mitglieder einer eingesetzten Objektklasse zu klassifizieren. Das Verfahren stellt auf einer Anzeige Darstellungen der mehreren Objekte dar, die durch das eingesetzte Objektklassifikationsmodul klassifiziert werden. Ein Benutzer bezeichnet die mehreren Objekte als entweder Mitglieder oder Nicht-Mitglieder der neuen Objektklasse. Das Verfahren erzeugt Metadaten auf der Basis der Bezeichnungen und konstruiert die neue Objektklassifikation durch Modifizieren des eingesetzten Objektklassifikationsmoduls auf der Basis der Metadaten.
- Zusätzliche Aspekte und Details der Konstruktion und Operation der vorangehenden Ausführungsbeispiele und weiterer Ausführungsbeispiele sind in den folgenden Unterabschnitten mit Bezug auf die zugehörigen Zeichnungen dargelegt.
- Gesamtsystem
-
1 ist ein bildhaftes Diagramm eines Kamerasystems100 gemäß einem Ausführungsbeispiel. Das Kamerasystem100 umfasst Bilderfassungsvorrichtungen102 , eine Benutzerschnittstelle104 und eine entfernte Speicher/Verarbeitungseinheit106 , die in einem Netzwerk108 miteinander verbunden sind. Das Netzwerk108 kann einen beliebigen Typ von verdrahtetem oder drahtlosem Netzwerk umfassen. Obwohl das Kamerasystem100 von1 mehrere Bilderfassungsvorrichtungen102 umfasst, die in einem Netzwerk verbunden sind, kann das Kamerasystem100 eine einzelne Bilderfassungsvorrichtung102 umfassen. Die Bilderfassungsvorrichtungen102 können ein internes Speichersystem110 mit einem Festplattenlaufwerk (HD)111 und einer Metadaten-Datenbank (DB)112 umfassen. Die Bilderfassungsvorrichtungen102 können beispielsweise ein Speichersystem umfassen, das in der im gemeinsamen Besitz stehenden US-Patentanmeldung Nrn. 12/105 971 und 12/105 893 mit dem Titel "Content Aware Storage of Video Data" bzw. "Extending the Operational Lifetime of a Hard-Disk Drive Used in Video Data Storage Applications" beschrieben ist, die beide durch den Hinweis in ihren Gesamtheiten hierin aufgenommen werden. Die Benutzerschnittstelle104 umfasst eine Anzeige114 und eine Eingabevorrichtung116 . Die Bilderfassungsvorrichtungen102 erfassen Bilder von ihren jeweiligen Blickfeldern und erzeugen Bilddaten, die die Bilder darstellen. Es soll selbstverständlich sein, dass Bilder sich auf Standbilder oder Bewegungsvideobilder beziehen können. Die Bilddaten werden über das Netzwerk108 zur Benutzerschnittstelle104 übertragen und Bilder von einem oder mehreren der Blickfelder werden auf der Anzeige114 dargestellt. Die Eingabevorrichtung116 ist betriebsfähig, um einem Benutzer zu ermöglichen, Benutzerrückmeldungsinformationen für das Kamerasystem100 bereitzustellen. Die Bilddaten können auch über das Netzwerk108 zur entfernten Speicher/Verarbeitungseinheit106 übertragen werden, wo das (die) Speichersystem(e)110 oder Teile davon oder ähnliche Speichersysteme alternativ oder zusätzlich angeordnet sein können. -
2 ist ein vereinfachtes Blockdiagramm von einer der Bilderfassungsvorrichtungen102 . Die Bilderfassungsvorrichtung102 kann eine Videokamera mit hoher Auflösung wie z. B. eine Megapixel-Videokamera sein. Die Bilderfassungsvorrichtung102 kann auch Daten von außerhalb des sichtbaren Spektrums (z. B. Wärmeenergie) erfassen. Zusätzlich zum Speichersystem110 umfasst die Bilderfassungsvorrichtung102 eine Bildverarbeitungseinheit, die ein Videoanalysemodul200 zum Analysieren von Bildern, die durch die Bilderfassungsvorrichtung102 erfasst werden, umfasst. Daten, die vom Videoanalysemodul200 erzeugt werden, können von einer Regelmaschine (nicht dargestellt) verwendet werden, um festzustellen, ob eine oder mehrere vom Benutzer festgelegte Regeln verletzt wurden oder nicht. Die Regelmaschine kann beispielsweise einen Alarm auslösen, der auf der Anzeige114 der Benutzerschnittstelle104 dargestellt wird, wenn ein Mensch im Blickfeld von einer der Bilderfassungsvorrichtungen102 detektiert wird. Die Bildverarbeitungseinheit muss nicht in einem Gehäuse202 der Bilderfassungsvorrichtung102 enthalten sein, wie in2 dargestellt. Überdies kann die entfernte Speicher/Verarbeitungseinheit106 auch eine Bildverarbeitungseinheit umfassen. - Das Videoanalysemodul
200 umfasst eine Anzahl von Modulen zum Durchführen von verschiedenen Aufgaben. Das Videoanalysemodul200 umfasst beispielsweise ein Objektdetektionsmodul204 zum Detektieren von Objekten, die im Blickfeld der Bilderfassungsvorrichtung102 erscheinen. Die Eingabe in das Objektdetektionsmodul204 sind Videodaten, vorzugsweise Live-Videodaten von einem Bildwandler (nicht dargestellt) oder einem Videopufferspeicher (nicht dargestellt). Das Objektdetektionsmodul204 kann ein beliebiges bekanntes Objektdetektionsverfahren wie beispielsweise eine Bewegungsdetektion und Fleckdetektion verwenden. Das Objektdetektionsmodul204 kann die Systeme umfassen und die Detektionsverfahren verwenden, die in der im gemeinsamen Besitz stehenden US-Patentanmeldung Nr. 10/884 486 mit dem Titel "Methods and Systems for Detecting Objekts of Interest in Spatio-Temporal Signals" beschrieben sind, deren gesamter Inhalt durch den Hinweis hierin aufgenommen wird. - Das Videoanalysemodul
200 umfasst auch ein Objektverfolgungsmodul206 , das mit dem Objektdetektionsmodul204 verbunden ist. Wie hierin verwendet, bedeutet der Begriff ”verbunden” direkt oder indirekt über eine oder mehrere Vermittler logisch oder physikalisch verbunden. Das Objektverfolgungsmodul206 ist betriebsfähig, um Fälle eines durch das Objektdetektionsmodul204 detektierten Objekts zeitlich zuzuordnen. Das Objektverfolgungsmodul206 kann die Systeme umfassen und die Verfahren verwenden, die in der im gemeinsamen Besitz stehenden US-Patentanmeldung Nr. _/_,_ (Anwaltsregisternr. 37686/7:2) mit dem Titel "Objekt Matching for Tracking, Indexing, and Search" beschrieben sind, deren gesamter Inhalt durch den Hinweis hierin aufgenommen wird. Das Objektverfolgungsmodul206 erzeugt Metadaten entsprechend Objekten, die es verfolgt. Die Metadaten können Signaturen des Objekts entsprechen, die das Aussehen oder andere Merkmale des Objekts darstellen. Die Metadaten können zur Metadaten-Datenbank112 zur Speicherung übertragen werden. - Das Videoanalysemodul
200 umfasst auch ein zeitliches Objektklassifikationsmodul208 , das mit dem Objektverfolgungsmodul206 verbunden ist. Das zeitliche Objektklassifikationsmodul208 ist betriebsfähig, um ein Objekt gemäß seinem Typ (z. B. Mensch, Fahrzeug, Tier) durch Betrachten des Aussehens des Objekts über die Zeit zu klassifizieren. Mit anderen Worten, das Objektverfolgungsmodul206 verfolgt ein Objekt für mehrere Rahmen (d. h. mehrere Bilder) und das zeitliche Objektklassifikationsmodul208 bestimmt den Typ des Objekts auf der Basis seines Aussehens in den mehreren Rahmen. Eine Ganganalyse der Art, in der eine Person geht, kann beispielsweise nützlich sein, um eine Person zu klassifizieren, oder die Analyse der Beine einer Person kann nützlich sein, um einen Fahrradfahrer zu klassifizieren. Das zeitliche Objektklassifikationsmodul208 kann Informationen hinsichtlich der Bahn eines Objekts (z. B. ob die Bahn glatt oder chaotisch ist, ob sich das Objekt bewegt oder bewegungslos ist) und das Vertrauen von Klassifikationen, die durch ein Objektklassifikationsmodul210 (nachstehend im Einzelnen beschrieben) durchgeführt werden, die über mehrere Rahmen gemittelt werden, kombinieren. Klassifikationsvertrauenswerte, die durch das Objektklassifikationsmodul210 bestimmt werden, können beispielsweise auf der Basis der Gleichmäßigkeit der Bahn des Objekts eingestellt werden. Das zeitliche Objektklassifikationsmodul208 kann ein Objekt einer unbekannten Klasse zuweisen, bis das Objekt durch das Objektklassifikationsmodul eine ausreichende Anzahl von Malen klassifiziert wird und eine vorbestimmte Anzahl von Statistiken erhoben wurde. Beim Klassifizieren eines Objekts kann das zeitliche Objektklassifikationsmodul208 auch berücksichtigen, wie lange das Objekt im Blickfeld war. Das zeitliche Objektklassifikationsmodul kann eine Endbestimmung über die Klasse eines Objekts auf der Basis der vorstehend beschriebenen Informationen durchführen. Das zeitliche Objektklassifikationsmodul208 kann auch eine Hysteresemethode zum Ändern der Klasse eines Objekts verwenden. Insbesondere kann ein Schwellenwert für den Übergang der Klassifikation eines Objekts von einer unbekannten in eine bestimmte Klasse festgelegt werden und dieser Schwellenwert kann größer sein als ein Schwellenwert für den entgegengesetzten Übergang (z. B. von einem Menschen zu unbekannt). Das zeitliche Objektklassifikationsmodul208 kann Metadaten in Bezug auf die Klasse eines Objekts erzeugen und die Metadaten können in der Metadaten-Datenbank112 gespeichert werden. Das zeitliche Objektklassifikationsmodul208 kann die durch das Objektklassifikationsmodul210 durchgeführten Klassifikationen zusammenfassen. - Objektklassifikation
- Das Videoanalysemodul
200 umfasst auch das Objektklassifikationsmodul210 , das vorzugsweise mit dem Objektdetektionsmodul204 direkt oder indirekt verbunden ist. Im Gegensatz zum zeitlichen Objektklassifikationsmodul208 kann das Objektklassifikationsmodul210 den Typ eines Objekts auf der Basis eines einzelnen Falls (d. h. eines einzelnen Bildes) des Objekts bestimmen. Die Eingabe in das Objektklassifikationsmodul208 sind vorzugsweise vielmehr Objekte als Video- oder Bilddaten. Ein Vorteil der Eingabe von Objekten in das Objektklassifikationsmodul208 besteht darin, dass nicht die ganze Szene für die Klassifikation analysiert werden muss, wodurch weniger Verarbeitungsleistung benötigt wird. Andere vorbereitende Module wie z. B. Module auf Heuristikbasis, um offensichtliche Klassifikationen zu erfassen, können auch enthalten sein, um die Komplexität des Objektklassifikationsmoduls210 weiter zu vereinfachen. - Das Objektdetektions-, das Objektverfolgungs- und das zeitliche Objektklassifikationsmodul
204 ,206 und208 sind optionale, aber bevorzugte Komponenten des Videoanalysemoduls200 . In einer alternativen Anordnung ist das Objektklassifikationsmodul210 nach dem Objektdetektionsmodul210 und vor dem Objektverfolgungsmodul206 angeordnet, so dass die Objektklassifikation vor der Objektverfolgung stattfindet. In einer anderen alternativen Anordnung stehen das Objektdetektions-, Objektverfolgungs-, zeitliche Klassifikations- und Klassifikationsmodul204 –210 miteinander in Beziehung, wie in der vorstehend angeführten US-Patentanmeldung Nr. 10/884 486 beschrieben. - Das Objektklassifikationsmodul
210 umfasst eine Anzahl von Objektklassifikatoren, wie im Blockdiagramm von3 dargestellt. Das Objektklassifikationsmodul210 kann beispielsweise einen Klassifikator300 für einen vollständigen menschlichen Körper, der feststellt, ob ein Bild eines detektierten Objekts einem vollständigen menschlichen Körper entspricht, einen Klassifikator302 für einen menschlichen Torso, der feststellt, ob ein Bild eines detektierten Objekts einem menschlichen Torso entspricht, und einen Fahrzeug-Klassifikator304 , der feststellt, ob ein Bild eines detektierten Objekts einem Fahrzeug entspricht, umfassen. Das Objektklassifikationsmodul210 kann eine beliebige Anzahl von verschiedenen Klassifikatoren umfassen, und, wie nachstehend genauer beschrieben, kann ein Benutzer neue Klassen von Objekten für das Objektklassifikationsmodul210 erzeugen, selbst wenn das Kamerasystem aufgestellt ist und funktioniert. Mit anderen Worten, das Objektklassifikationsmodul210 ist am Einsatzort trainierbar. - Die Objektklassifikatoren sind betriebsfähig, um ein Objekt auf der Basis der Merkmale des Objekts (z. B. Aussehenseigenschaften) zu klassifizieren. Der Klassifikator
300 für den vollständigen menschlichen Körper empfängt beispielsweise Daten (d. h. ein Eingangsmuster X), die den Merkmalen eines Objekts entsprechen, und stellt fest, ob das Objekt einem vollständigen menschlichen Körper entspricht oder nicht. Nachdem das Objektklassifikationsmodul210 ein Objekt klassifiziert, können Metadaten, die die Klasse des Objekts und die Merkmale des Objekts darstellen, in der Metadaten-Datenbank112 gespeichert werden. - Merkmale, die vom Objektklassifikationsmodul
210 verwendet werden können, werden nun genauer beschrieben. Ein Trainingsalgorithmus, der nachstehend beschrieben wird, wählt eine Teilmenge von Merkmalen F ^ = {fk1, fk2, ..., fkm} aus einem Satz von Merkmalen F = {f1, f2, ..., fn}. Das Eingangsmuster X besteht aus den Elementen von F. Die Elemente von F können als eine gewisse Transformation eines Bildbereichs R eines Objekts betrachtet werden. Folglich kann X die folgende Form annehmen: - Die Merkmale f1, f2, ..., fm eines Objekts können einer Anzahl von Aussehenseigenschaften entsprechen, wie z. B., jedoch nicht begrenzt auf das Seitenverhältnis, die Farbe, Kantenorientierungen und normierte Sättigung.
- Überdies können die Merkmale f ^1, f ^2, .., f ^m Merkmalsvektoren (z. B. Histogramme, in denen die Histogrammintervallbereiche Vektorkomponenten entsprechen) der Aussehenseigenschaften darstellen und können von einem oder mehreren Objektklassifikatoren verwendet werden, um die Klasse des Objekts (d. h. Typ) zu bestimmen. Histogramme der Kantenorientierungen eines Objekts können beispielsweise für verschiedene Bereiche (z. B. Unterfenster) des Bildes des Objekts konstruiert werden. Mit anderen Worten, ein Bild eines Objekts kann in Unterfenster unterteilt werden und Kantenorientierungen können für jedes Pixel der Unterfenster berechnet werden. Die Kantenorientierung eines Pixels kann unter Verwendung eines steuerbaren Filters (z. B. unter Verwendung eines Gauß-Ableitungsfilters in mehreren Richtungen) abgeleitet werden. Die Verwendung eines steuerbaren Filters ermöglicht, dass dominante Richtungen den Pixeln eines Unterfensters zugewiesen werden, und ermöglicht; dass ein Histogramm der Richtungen für das Unterfenster konstruiert wird. Für ein gegebenes Pixel kann beispielsweise ein steuerbares Filter in mehreren Richtungen verwendet werden, um mehrere Antworten zu erzeugen, und die Richtung, die der maximalen Richtungsableitungsantwort entspricht, wird als Richtung des Pixels zugewiesen.
- Das Klassifikationsproblem für einen der Objektklassifikatoren kann im Allgemeinen durch eine Klassifikatorfunktion Γ(X) definiert werden, in der ein durch das Eingangsmuster X dargestelltes Objekt als Mitglied der Objektklasse deklariert wird, wenn Γ(X) > 0, oder als Nicht-Mitglied der Objektklasse, wenn Γ(X) < 0. Im Allgemeinen wird die Klassifikatorfunktion Γ(X) mit einem Satz von Parametern parametrisiert und das Eingangsmuster X besteht aus den vorstehend beschriebenen Merkmalen. Ein spezieller Klassifikator Γc(X) wird für jede interessierende Objektklasse trainiert. Das Mehrklassen-Klassifikationsmodell, das durch das Objektklassifikationsmodul
210 von3 dargestellt wird, kann mathematisch wie folgt definiert werden.Ω = {ω1, ω2, ..., ωc} ω = ωc : (Γc(X) > 0 und Γc(X) > Γu(X) ∀ u ∊ {1, 2, ..., C}, u ≠ c) (2) - Ein Beispiel einer Struktur des Objektklassifikationsmoduls
210 wird nun mit Bezug auf4 –6 genauer beschrieben. Der Deutlichkeit halber wird der Klassifikator300 für den vollständigen menschlichen Körper im Einzelnen beschrieben. Die folgende Beschreibung ist jedoch gleichermaßen auf die anderen Objektklassifikatoren des Objektklassifikationsmoduls210 anwendbar. Der Klassifikator300 umfasst mehrere Schritte400 (N Entscheidungsschritte), die in einer Kaskadenkonfiguration konfiguriert sind (d. h. Schritt1 , gefolgt von Schritt2 , gefolgt von Schritt3 , ..., gefolgt von Schritt N), wie in4 gezeigt. Die N Schritte arbeiten zum Feststellen, ob das Aussehen eines Objekts der Objektklasse (d. h. vollständiger menschlicher Körper) entspricht oder nicht. Im Gegensatz zu einem bekannten Kaskadenklassifikationssystem, das in Paul Viola & Michael Jones, "Robust Real-Time Face Detection", International Journal of Computer Vision, S. 137–154 (2004), vorgeschlagen ist, in dem ein Objekt in den N-1 anfänglichen Schritten (d. h. allen bis auf den letzten Schritt) entweder abgelehnt oder weitergeleitet wird, ist jeder der anfänglichen N-1 Schritte des Klassifikators300 betriebsfähig, um eine von drei Entscheidungen zu treffen: (1) Annehmen des Objekts als Mitglied der Objektklasse (d. h. positive Klasse), (2) Ablehnen des Objekts als Mitglied der Objektklasse (d. h. negative Klasse) und (3) Weiterleiten der Entscheidung zum nächsten Schritt. Das Eingangsmuster X eines Objekts wird beispielsweise zu Schritt1 geliefert und Schritt1 entscheidet, ob (1) das Objekt als vollständiger menschlicher Körper angenommen werden soll, (2) das Objekt als vollständiger menschlicher Körper abgelehnt werden soll, oder (3) das Eingangsmuster X zu Schritt2 weitergeleitet werden soll, um die Bestimmung durchzuführen. Die Entscheidung zum Annehmen, Ablehnen oder Weiterleiten basiert auf einem durch den Schritt erzeugten Wert (d. h. einem Entscheidungsschrittwert). Der letzte oder N-te Schritt ist betriebsfähig, um entweder (1) das Objekt als vollständigen menschlichen Körper anzunehmen oder (2) das Objekt als vollständigen menschlichen Körper abzulehnen. -
5A ist ein Blockdiagramm, das einen der anfänglichen N-1 Schritte400 genauer zeigt. Jeder Schritt400 umfasst eine oder mehrere Stufen500 . Für jede der Stufen500 wird eines der Merkmale f ^1, f ^2, .., f ^m vom Eingangsmuster X extrahiert (durch die Blöcke502 dargestellt) und zu seiner entsprechenden Stufe500 geliefert. Jede Stufe500 weist daher ein entsprechendes Merkmal auf, das ihr zugeordnet ist. Die Stufen/Merkmals-Kombination kann durch einen Lernalgorithmus während eines Trainingsprozesses vorbestimmt werden, wie nachstehend beschrieben. Überdies kann ein zur ersten Stufe (Stufe 1) von5 geliefertes Merkmal beispielsweise verschieden sein von oder dasselbe sein wie das zur zweiten Stufe (Stufe 2) gelieferte Merkmal. - Im Allgemeinen kann eine Stufe
500 durch eine Stufenfunktion g dargestellt werden, die folgendermaßen definiert ist:g : x → γ, wobei g ∊ G x ∊ X und γ ∊ [–1, 1] (3) 500 als Eingabe eines der Merkmale f ^1, f ^2, .., f ^m. Der Satz G kann daher als G = F × T geschrieben werden, wobei F vorstehend definiert ist und T einen Satz von möglichen Transformationen (d. h. Abbildungen) darstellt, so dass für t ∊ T, t : f ^i → γ. Folglich kann die Stufenfunktion g die folgende erweiterte Form annehmen:gi(x) = t(f ^k), f ^k ∊ F (4) - Eine Stufe
500 stellt eine Diskriminantenfunktion dar, die einen Gewichtsvektor w - und eine Aktivierungsfunktion β umfasst. Wie vorstehend angegeben, können die Merkmale f ^1, f ^2, .., f ^m Merkmalsvektoren darstellen. Die Stufenfunktion kann wie folgt umgeschrieben werden:gi(x) = βi(w -i·f ^k) (5) 500 während des Trainings automatisch bestimmt, wie nachstehend beschrieben. - Jeder Schritt
400 ist eine lineare Kombination (durch den Skalierungs- und Summierblock504 dargestellt) von einer oder mehreren der Stufen500 . Mit anderen Worten, die Skalarwerte γ der Stufen500 werden skaliert und summiert, um den Entscheidungsschrittwert s(X) zu erzeugen. Im Allgemeinen kann diese Funktion mathematisch wie folgt dargestellt werden: - Da s(X) (d. h. der Entscheidungsschrittwert) eine konvexe Kombination von Stufen ist, weisen s(X) und g(x) denselben Bereich auf. Gewichtungskoeffizienten α werden durch einen Lernalgorithmus während des Trainings gewählt. Der Entscheidungsschrittwert wird mit einem oder beiden eines Annahmeschwellenwerts τa und eines Ablehnungsschwellenwerts τr verglichen (durch den Block
506 dargestellt), um festzustellen, ob das Objekt als vollständiger menschlicher Körper angenommen werden soll, das Objekt als vollständiger menschlicher Körper abgelehnt werden soll oder die Entscheidung zum nächsten Schritt400 weitergeleitet werden soll. Der Vergleich kann folgendermaßen dargestellt werden:Annehmen, wenn τa < s(X) ≤ 1 Weiterleiten, wenn τr < s(X) ≤ τa Ablehnen, wenn –1 < s(X) ≤ τr (7) -
5B stellt ein Beispiel des Annahme- und des Ablehnungsschwellenwerts im Intervall [–1, +1] dar. Der Annahmeschwellenwert τa und der Ablehnungsschwellenwert τr werden während des Trainings durch einen Lernalgorithmus auf der Basis von benutzerspezifischen falsch positiven und falsch negativen Raten gewählt. Jeder Schritt400 kann Werte für τa und τr aufweisen, die verschieden sind von oder dieselben sind wie die anderen Schritte400 . Eine Entscheidung zum ”Annehmen” impliziert, dass der Klassifikator zuversichtlich ist, dass das Eingangsmuster X zur positiven Klasse gehört (z. B. ein vollständiger menschlicher Körper). Eine Entscheidung zum ”Weiterleiten” impliziert, dass der Klassifikator unsicher ist und die Entscheidung zum nächsten Schritt verschiebt. Eine Entscheidung zum ”Ablehnen” impliziert, dass der Klassifikator zuversichtlich ist, dass das Eingangsmuster X zur negativen Klasse gehört (z. B. kein vollständiger menschlicher Körper). In irgendeinem Schritt wird, wenn die Entscheidung nicht darin besteht, zum nächsten Schritt400 ”weiterzuleiten”, die Annahme/Ablehnungs-Entscheidung an diesem Punkt getroffen und die Auswertung ist vollständig. Der Entscheidungsschrittwert kann einem Entscheidungsvertrauensniveau für den entsprechenden Schritt400 entsprechen. Ein Entscheidungsschrittwert nahe eins kann beispielsweise darstellen, dass der entsprechende Schritt400 zuversichtlicher ist, dass ein Objekt ein vollständiger menschlicher Körper ist, im Vergleich zu einem Entscheidungsschrittwert, der geringfügig über dem Annahmeschwellenwert τa liegt. Alternativ kann eine Erhöhung des Entscheidungsschrittwerts nicht notwendigerweise einem höheren Entscheidungsvertrauensniveau entsprechen (d. h. eine Wahrscheinlichkeit, dass die Entscheidung korrekt war). Das Vertrauensniveau, das jedem Entscheidungsschrittwert zugeordnet ist, kann während des Trainings empirisch abgeschätzt werden, wenn Objekte mit verschiedenen Entscheidungsschrittwerten korrekt und falsch klassifiziert werden. Die Vertrauensniveaus der Entscheidungsschrittwerte werden nachstehend genauer beschrieben. Wie vorstehend angegeben, wird die Endstufe (Stufe N) im Klassifikator dazu gezwungen, immer anzunehmen oder abzulehnen:Annehmen, wenn 0 < s(X) ≤ 1 Ablehnen, wenn –1 < s(X) ≤ 0 (8) -
6 ist ein Ablaufplan, der ein Verfahren600 zur Verwendung eines Kamerasystems gemäß einem Ausführungsbeispiel darstellt. Das Verfahren600 wird mit Bezug auf das Kamerasystem100 nur als Beispiel beschrieben; das Verfahren600 ist mit einem beliebigen geeigneten Kamerasystem betriebsfähig. Zuerst wird ein Bild eines Objekts durch eine der Bilderfassungsvorrichtungen102 erfasst (Schritt602 ). Das Objekt wird durch das Objektdetektionsmodul204 detektiert (Schritt604 ). Das Eingangsmuster X wird zum ersten Schritt400 beispielsweise des Klassifikators300 für den vollständigen menschlichen Körper übertragen (Schritt606 ). Alternativ können anstelle der Übertragung des Musters X zum ersten Schritt400 die kombinierten Merkmale, die von den Stufen500 des ersten Schritts400 verwendet werden, ausgewählt werden und nur diese Merkmale können zum ersten Schritt400 übertragen werden. Die Merkmale für die erste bis S-te Stufe500 werden im Eingangsmuster X identifiziert und aus diesem ausgewählt (Schritt608 ). Die gewählten Merkmale werden zu ihren jeweiligen Stufen500 geliefert und die Stufen500 bilden die gewählten Merkmale auf Skalarwerte ab (Schritt610 ). Die Skalarwerte werden skaliert (d. h. gewichtet) und summiert, um einen Entscheidungsschrittwert s(X) zu erzeugen (Schritt612 ). Der Entscheidungsschrittwert wird mit einem oder mehreren des Annahmeschwellenwerts τa und des Ablehnungsschwellenwerts τr verglichen (Schritt614 ). Wenn der Entscheidungsschrittwert größer ist als der Annahmeschwellenwert τa, wird das Objekt als Mitglied der Objektklasse angenommen (z. B. als vollständiger menschlicher Körper angenommen) (Schritt616 ). Wenn der Entscheidungsschrittwert geringer als oder gleich dem Ablehnungsschwellenwert τr ist, wird das Objekt als Mitglied der Objektklasse abgelehnt (z. B. als vollständiger menschlicher Körper abgelehnt) (Schritt618 ). Wenn der Entscheidungsschrittwert größer ist als der Ablehnungsschwellenwert τr, aber geringer als oder gleich dem Annahmeschwellenwert τa ist, wird das Eingangsmuster X zum zweiten Schritt400 weitergeleitet (oder als Alternative werden nur diejenigen Merkmalskombinationen, die vom zweiten Schritt400 verwendet werden, zum zweiten Schritt400 übertragen) (Schritt620 ). Ein Objekt kann als Mitglied der Objektklasse in irgendeinem Schritt400 innerhalb der Kaskade angenommen oder abgelehnt werden. - Das Eingangsmuster X kann gleichzeitig zu allen Klassifikatoren des Objektklassifikationsmoduls
210 geliefert werden, in dem jeder Klassifikator das Objekt als Mitglied seiner entsprechenden Klasse entweder annimmt oder ablehnt. Wenn mehr als ein Objektklassifikator das Objekt als Mitglied seiner Klasse annimmt, kann die Ausgabe der Objektklassifikator-Entscheidungsschrittwerte der Objektklassifikatoren, die das Objekt angenommen haben, verglichen werden. Beispielsweise können der Klassifikator300 für den vollständigen menschlichen Körper und der Fahrzeug-Klassifikator304 feststellen, dass ein Objekt ein vollständiger menschlicher Körper bzw. ein Fahrzeug ist. In diesem Fall können die Entscheidungsschrittwerte, die durch die Schritte erzeugt werden, die das Objekt angenommen haben, verglichen werden, und das Objekt kann der Klasse zugewiesen werden, die dem Klassifikator mit dem vertrauenswürdigsten (z. B. größten) Entscheidungsschrittwert entspricht. Wenn beispielsweise der Entscheidungsschrittwert des Klassifikators für den vollständigen Menschen einem Vertrauensniveau von 90% entspricht und der Entscheidungsschrittwert des Fahrzeug-Klassifikators einem Vertrauensniveau von 80% entspricht, wird das Objekt als vollständiger menschlicher Körper klassifiziert. Wenn keiner der Klassifikatoren eine positive Ausgabe deklariert (das Objekt nicht als Mitglied irgendeiner Klasse angenommen wird), dann kann das Objekt als unbekannt klassifiziert werden. - Eine Verfolgung, wie z. B. durch das Objektverfolgungsmodul
206 durchgeführt, kann berücksichtigt werden, wenn das Objektklassifikationsmodul210 die Klasse eines Objekts bestimmt.7 ist ein Ablaufdiagramm, das ein Objektverfolgungsverfahren700 zeigt. Das Verfahren700 wird nur als Beispiel mit Bezug auf das Objektverfolgungsmodul206 beschrieben, das in Verbindung mit dem Objektklassifikationsmodul210 verwendet wird. Das Verfahren700 ist mit einem beliebigen geeigneten System betriebsfähig. Das Verfahren700 ordnet ein Bild eines Objekts einem vorherigen Fall des Objekts zu (Block702 ). Das Verfahren700 ruft die Klasse und das Klassifikationsvertrauensniveau, die mit dem vorherigen Fall des Objekts in Beziehung stehen, auf. Das Objektklassifikationsmodul210 stellt fest, ob das Objekt vorher mit hohem Vertrauen klassifiziert wurde (Block704 ). Vertrauensniveaus, die als hohes Vertrauen betrachtet werden, können von einem Benutzer vorbestimmt werden (z. B. 70% Vertrauen oder darüber). Wenn das Objektklassifikationsmodul feststellt, dass das Objekt vorher nicht mit hohem Vertrauen klassifiziert wurde, dann werden mehrere Objektklassifikatoren ausgeführt (Block705 ). Wenn das Verfahren700 feststellt, dass das Objekt vorher mit hohem Vertrauen klassifiziert wurde, kann ein Teil des Klassifikators, der der vorher deklarierten Klasse des Objekts entspricht, ausgeführt werden (Block706 ), anstatt mehrere Klassifikatoren auszuführen. Beispielsweise kann nur der erste Schritt400 des Klassifikators, der der vorher deklarierten Klasse entspricht, ausgewertet werden. Die Ausgabe des ersten Schritts400 kann geprüft werden, um festzustellen, ob sie mit der vorher deklarierten Klasse konsistent ist (Block708 ). Wenn die Ausgabe des ersten Schritts400 mit der vorher deklarierten Klasse konsistent ist, ist keine weitere Auswertung erforderlich; die Klasse des Objekts für das aktuelle Bild wird bestimmt und der Verlauf des Objekts wird aktualisiert und in der Metadaten-Datenbank112 gespeichert (Block710 ). Wenn andererseits die Entscheidung des ersten Schritts400 darin besteht, das Objekt als Mitglied der Objektklasse abzulehnen, dann werden einer oder mehrere der anderen Objektklassifikatoren ausgeführt (Block705 ). Wenn die Ausgabe des ersten Schritts400 darin besteht, weiterzuleiten, können einer oder mehrere der anderen Schritte400 ausgewertet werden, bis die Ausgabe mit der vorher deklarierten Klasse konsistent oder inkonsistent ist. - Training der Objektklassifikatoren
- Ein Verfahren zum Trainieren der Objektklassifikatoren des Objektklassifikationsmoduls
210 wird nun beschrieben. Herkömmliche Klassifikationssysteme können mit dem Lernalgorithmus AdaBoost oder einer gewissen Variante von AdaBoost trainiert werden. Obwohl AdaBoost in einigen Anwendungen seinen Wert bewiesen hat, haben der Algorithmus und die Zielfunktion, die in diesem Lernprozess verwendet wird, gewisse Begrenzungen. Damit AdaBoost wirksam ist, können beispielsweise Mitglieder und Nicht-Mitglieder einer Objektklasse einander nicht signifikant im Merkmalsraum überlappen. Mit anderen Worten, die Merkmale der Objekte sollten einen Klassifikationsraum gut trennen. Da AdaBoost schwache Lerner verwendet, kann überdies eine große Sammlung von schwachen Lernern erforderlich sein, um einen vollständigen Klassifikator zu bilden, der in der Lage ist, eine gewünschte Genauigkeit zu erreichen. - Gemäß einem Ausführungsbeispiel wird eine alternative Zielfunktion und ein Lernalgorithmus, der Sequentielle Diskriminantenfehlerminimierung (SDEM) genannt wird, vorzugsweise verwendet, um die Objektklassifikatoren des Objektklassifikationsmoduls
210 zu trainieren. SDEM wurde in Saptharishi, "Sequential Discriminant Error Minimization: The Theory and its Application to Real-Time Video Object Recognition" (Carnegie Mellon University, 2005), vorgeschlagen, dessen gesamter Inhalt durch den Hinweis hierin aufgenommen wird. SDEM kann Merkmale behandeln, die einen Klassifikationsraum nicht notwendigerweise gut auftrennen. Im Gegensatz zu AdaBoost und anderen ähnlichen Unterstützungsverfahren kann SDEM schwache Lerner oder andere Diskriminantenfunktionen verwenden, die nicht notwendigerweise als schwach betrachtet werden. Folglich kann die Anzahl von Schritten400 und Stufen500 eines Objektklassifikators unter Verwendung von SDEM zum Training im Vergleich zu AdaBoost signifikant geringer sein. Für ein gegebenes Merkmal ist SDEM häufig in der Lage, den besten Klassifikator für den entsprechenden Merkmalsraum zu lernen. Die besten Merkmale von Objekten können automatisch für ein gegebenes Klassifikationsproblem ausgewählt werden. - Im Allgemeinen wird der SDEM-Algorithmus verwendet, um die Kombination von Stufen
500 für jeden Schritt400 zu trainieren. Wie in Gleichung (4) definiert, umfasst eine Stufe500 eine Stufenfunktion gi(x), die gleich einer Transformation t eines Merkmals f ^k ist. Die Trainingsaufgabe wählt die beste Transformation t zusammen mit dem besten Merkmal f ^k, so dass, wenn eine spezielle Stufe500 zu einem Schritt400 hinzugefügt wird, die Leistung des Objektklassifikators maximiert wird. Mit anderen Worten, der SDEM-Algorithmus wählt die Transformation t und das Merkmal f ^k für eine spezielle Stufe so aus, dass eine Zielfunktion maximiert wird. Der Satz F von Merkmalen kann endlich sein und der Satz T von Transformationen kann kontinuierlich und differenzierbar sein. Gemäß dem SDEM-Algorithmus wird für jede Wahl von f ^k eine Suche in dem Satz T durchgeführt, um die Transformation t zu identifizieren, die an einem Trainingsdatensatz am besten arbeitet. Die Suche im Satz T kann unter Verwendung von uneingeschränkten Standard-Optimierungsverfahren durchgeführt werden, wie z. B., jedoch nicht begrenzt auf ein Quasi-Newton-Optimierungsverfahren. Sobald die beste Transformation t für jede Wahl von f ^k identifiziert ist, kann das beste Merkmal gemäß einem abgeschätzten Verallgemeinerungsfehler ∊ ^(g) ausgewählt werden. Die Auswahl des besten Merkmals kann folgendermaßen geschrieben werden: - Eine der Eigenschaften des SDEM-Algorithmus besteht darin, dass, wenn eine Stufe
500 zu einem Schritt400 hinzugefügt wird, das Hinzfügen der Stufe500 die Leistung des Objektklassifikators an dem Trainingsdatensatz verbessert. Wenn eine neue Stufe nicht identifiziert werden kann, die die Leistung des Objektklassifikators verbessert, endet der SDEM-Algorithmus automatisch. Anstatt zu warten, bis der SDEM-Algorithmus automatisch endet, kann alternativ eine Anzahl von Stufen500 eines Schritts400 durch einen Systementwickler bestimmt werden. Mit anderen Worten, der SDEM-Algorithmus beendet das Training, wenn eine maximale Anzahl von Stufen500 , die vom Entwickler festgelegt werden, erreicht ist oder wenn keine Stufe500 hinzugefügt werden kann, die die Leistung verbessert. - Der SDEM-Algorithmus wählt eine Reihe von Merkmalen/Transformationen derart aus, dass, wenn sie kombiniert werden, die Kombination eine einzelne der Merkmale/Transformationen übertrifft. Obwohl das Seitenverhältnis eines Objekts beispielsweise ein schlechtes Merkmal für die Verwendung zur Klassifikation allein sein könnte, kann, wenn es mit lokalen Gradienteninformationen kombiniert wird, das Seitenverhältnis die Klassifikationsgenauigkeit, die den lokalen Gradienteninformationen allein entspricht, verbessern. Eine Anzahl von einfachen Merkmalen und Transformationen kann kombiniert werden, um einen sehr genauen Objektklassifikator zu erzeugen. Tatsächlich erzeugt die Trainingsaufgabe Supermerkmale durch Kombinieren eines Satzes von Aussehensmerkmalen für ein Objekt.
- Ein Trainingsverfahren
800 zum Aufbauen der Stufen500 des ersten Schritts400 wird nun mit Bezug auf den Ablaufplan von8 genauer beschrieben. Die folgende Beschreibung ist auch auf die Stufen500 der anderen Schritte400 anwendbar. Der Trainingsdatensatz für einen Klassifikator umfasst Darstellungen von Mitgliedern und Nicht-Mitgliedern der speziellen Objektklasse. Um beispielsweise den Klassifikator300 für den vollständigen menschlichen Körper zu trainieren, umfasst der Trainingsdatensatz Darstellungen von Bildern von vollständigen menschlichen Körpern und Bilder von anderen Objekten. Die Merkmale f ^1, f ^2, ..., f ^m der Objekte können aus dem Trainingsdatensatz extrahiert werden. Die Objekte des Trainingsdatensatzes können von einem Benutzer als entweder Mitglied oder Nicht-Mitglied der speziellen Objektklasse manuell bezeichnet werden, was zu bezeichneten Objekten802 führt. Die Merkmale f ^1, f ^2, ..., f ^m jedes bezeichneten Objekts802 werden identifiziert und extrahiert (Schritte804a ,804b und804c ). Jedes Merkmal f ^1, f ^2, ..., f ^m wird verwendet, um eine separate Stufe zu trainieren, und die Stufe, die den Wert der Zielfunktion maximiert, wird ausgewählt. Irgendeine Anzahl von Merkmalen kann verwendet werden. Von M (z. B. M = 60) Merkmalen kann beispielsweise eines ein Seitenverhältnis sein und die anderen M-1 Merkmale können die Vektoren der Größe B sein, die Kantenorientierungshistogrammen mit B Intervallbereichen für M-1 verschiedene Bereiche eines Bildes eines bezeichneten Objekts entsprechen. - Nachdem die Merkmale f ^1, f ^2, ..., f ^m aus den bezeichneten Objekten
802 extrahiert sind, wird die beste Transformation t für jedes der Merkmale f ^1, f ^2, ..., f ^m ausgewählt (Schritte806a ,806b und806c ). Die Transformationen können auf der Basis von Standard-Optimierungsverfahren ausgewählt werden. Eine Transformation t kann als Entscheidungsgrenze betrachtet werden, die die bezeichneten Objekte im Merkmalsraum trennt. Folglich entspricht die beste Transformation t einer Entscheidungsgrenze, die die Mitglieder und Nicht-Mitglieder der Objektklasse am besten trennt. Im Zusammenhang mit der Diskriminantenfunktion, die aus dem Gewichtsvektor w -i und der Aktivierungsfunktion βi besteht, entspricht die Auswahl der besten Transformation t der Auswahl der Aktivierungsfunktion βi und der Komponenten des Gewichtsvektors w -i, die die Mitglieder und Nicht-Mitglieder der Objektklasse am besten trennen. Die Aktivierungsfunktion βi kann aus einem Satz von mehreren Funktionstypen ausgewählt werden, wie z. B., jedoch nicht begrenzt auf eine S-förmige Funktion und eine Funktion auf radialer Basis (z. B. eine Gauß-Funktion). Im Gegensatz zu bekannten Kaskaden-Klassifikatoren kann somit eine erste Stufe einen anderen Typ von Diskriminantenfunktion im Vergleich zu einer zweiten Stufe umfassen. - Nachdem die Transformationen für die Merkmale f ^1, f ^2, ..., f ^m ausgewählt sind, wird ein Wert einer Zielfunktion entsprechend jeder Merkmals/Transformations-Kombination berechnet (Schritte
808a ,808b und808c ). Die Zielfunktion kann zu einem Maß von Klassifikationsfehlern proportional sein oder sie kann eine nichtlineare, aber monoton veränderliche Funktion der Klassifikationsfehler sein. Die berechneten Werte der Zielfunktion können mit der Anzahl und/oder Schwere von Klassifikationsfehlern in Zusammenhang stehen, die von den verschiedenen Merkmals/Transformations-Kombinationen gemacht werden. Ein erster berechneter Wert kann beispielsweise mit der Anzahl von Klassifikationsfehlern in Zusammenhang stehen, der vom Merkmal f ^1, und seiner entsprechenden Transformation gemacht wird. Die berechneten Werte der Zielfunktion werden verglichen und die Merkmals/Transformations-Kombination, die den maximalen berechneten Wert aufweist, wird für die erste Stufe500 des ersten Schritts400 ausgewählt (Schritt810 ). - Nachdem das Merkmal und die Transformation für die erste Stufe
500 ausgewählt sind, werden die bezeichneten Objekte802 mit verschiedenen Gewichten unter Berücksichtigung der von der ersten Stufe500 getroffenen Entscheidungen gewichtet (Schritt812 ). Die Objekte können als Funktion dessen gewichtet werden, wie nahe ihre entsprechenden Datenpunkte im Merkmalsraum an der durch die erste Stufe500 dargestellten Entscheidungsgrenze liegen. Die Objekte, die Datenpunkten nahe der Entscheidungsgrenze im Merkmalsraum entsprechen, können beispielsweise mit höheren Gewichten im Vergleich zu Objekten mit Datenpunkten, die von der Entscheidungsgrenze weit weg liegen, gewichtet werden, so dass eine zweite Stufe500 trainiert werden kann, indem man sich mehr auf diejenigen Objekte konzentriert, die die erste Stufe500 etwas verwirrt haben. Der Abstand zwischen einem Datenpunkt eines Objekts und der Entscheidungsgrenze der ersten Stufe500 kann mit dem für das Objekt berechneten Skalarwert γ in Beziehung stehen. - Das Trainingsverfahren
800 wird für die nächste Stufe wiederholt. Nachdem die bezeichneten Objekte gewichtet sind, wird die beste Transformation wieder für die Merkmale f ^1, f ^2, ..., f ^m ausgewählt (Schritte806a ,806b und806c werden wiederholt). Die Merkmale f ^1, f ^2, ..., f ^m werden jedoch nun gewichtet und die beste Transformation t für jedes der Merkmale f ^1, f ^2, ..., f ^m wird unter Berücksichtigung der ersten Stufe500 ausgewählt. Die beste Transformation t kann der Transformation entsprechen, die zur größten Erhöhung des Zielfunktionswerts führt. Die Werte der Zielfunktion werden wieder berechnet und verglichen, um die Funktion/Transformation für die zweite Stufe500 zu bestimmen (Schritte808a ,808b ,808c und810 werden wiederholt). Um eine dritte Stufe500 aufzubauen, werden die bezeichneten Objekte erneut gewichtet, wobei den Objekten, die für die erste und die zweite Stufe500 etwas verwirrend waren, höhere Gewichte gegeben werden. Wieder werden die Schritte806a ,806b und806c wiederholt, aber die Merkmale f ^1, f ^2, ..., f ^m werden erneut gewichtet und die beste Transformation t für jedes der Merkmale f ^1, f ^2, ..., f ^m wird unter Berücksichtigung der ganzen ersten und zweiten Stufe500 ausgewählt. Die Werte der Zielfunktion werden wieder berechnet und verglichen, um die Funktion/Transformation für die dritte Stufe500 zu bestimmen (Schritte808a ,808b ,808c und810 werden wiederholt). Der Prozess des Auswählens des besten Merkmals/der besten Transformation und der Gewichtung der bezeichneten Objekte über jede Iteration des Trainings einer neuen Stufe kann sich als Gradientenanstieg im Funktionsraum oder als Prozess zum Erhöhen des Gesamtwerts der Zielfunktion vorgestellt werden. - Sobald der erste Schritt
400 trainiert ist, sind die Schwellenwerte τa und τr derart, dass gewünschte falsch positive und falsch negative Raten festgelegt werden können. Wenn die Stufen500 für den ersten Schritt400 konstruiert werden, werden überdies die Gewichtungskoeffizienten α auch ausgewählt. Wenn jede Stufe500 zum ersten Schritt400 hinzugefügt wird, werden beispielsweise die Gewichtungskoeffizienten α für die Stufen eingestellt, um die Werte für die Gewichtungskoeffizienten α zu finden, die der niedrigsten Gesamtfehlerrate für den ersten Schritt400 entsprechen. Die Gewichtungskoeffizienten α können beispielsweise unter Verwendung einer Liniensuchoptimierungsstrategie ausgewählt werden. - Nachdem der erste Schritt
400 trainiert ist, können die Stufen500 eines zweiten Schritts400 trainiert werden. Die zum Trainieren des zweiten Schritts400 verwendeten Trainingsdaten sind jedoch eine Teilmenge des zum Trainieren des ersten Schritts400 verwendeten Trainingsdatensatzes. Die Teilmenge der Trainingsdaten entspricht den bezeichneten Objekten, die der erste Schritt400 als Mitglied der Objektklasse weder annehmen noch ablehnen konnte. Mit anderen Worten, der zweite Schritt400 wird mit den bezeichneten Objekten trainiert, die einen entsprechenden Entscheidungsschrittwert hatten, der größer war als der Ablehnungsschwellenwert τr, aber geringer als oder gleich dem Annahmeschwellenwert τa war. Dies ermöglicht, dass sich der zweite Schritt400 nur auf diejenigen Objekte konzentriert, die der erste Schritt400 verwirrend fand. - Aufgrund der stufenweisen Progression des Trainingsverfahrens
800 sollte es natürlich die beste Reihenfolge der Kriterien in den N Schritten des Klassifikators300 bestimmen und zu den wenigsten Schritten führen, die erforderlich sind, um die Klassifikation durchzuführen. Folglich sollte die Klassifikation, die in einem aufgestellten, trainierten Einsatzortsystem durchgeführt wird, sowohl die Ausführungszeit, die erforderlich ist, um eine Klassifikation auszugeben, als auch die Verarbeitungsleistung, die erforderlich ist, um die Klassifikation zu erzeugen, minimieren. - Sobald ein Objektklassifikator mit den bezeichneten Objekten trainiert ist, kann der Objektklassifikator durch andere Trainingsschritte fortfahren, um die für die verschiedenen Stufen ausgewählten Merkmale/Transformationen zu verfeinern. Eine Methode hoher Ebene für das Trainieren eines Objektklassifikators ist im Ablaufplan von
9 gezeigt, der ein Trainingsverfahren900 darstellt. Bilddaten901 (z. B. rohe Videodaten) werden zu einem einfachen Basis- oder Keimsystem geliefert, das zu einer Basisdetektion, -verfolgung und -klassifikation von Objekten in der Lage ist. Das Basissystem detektiert, verfolgt und klassifiziert Objekte, die in den Bilddaten901 dargestellt sind, und erzeugt Metadaten, die den Objekten entsprechen (Schritt902 ). Das Basissystem wählt einen Satz von Objekten aus, die detektiert und verfolgt werden (Schritt904 ). Die Auswahl der Objekte kann von der Menge an Zeit abhängen, die sich ein Objekt im Blickfeld einer Bilderfassungsvorrichtung102 befand, oder kann davon abhängen, wie zuversichtlich das Basissystem bei seiner Klassifikation eines Objekts war. Andere Regeln können festgelegt werden, um vorzugeben, ob ein Objekt durch das Basissystem ausgewählt wird oder nicht. - Bilder der Objekte, die vom Basisklassifikator ausgewählt werden, werden einem Benutzer auf einer Anzeige präsentiert, so dass der Benutzer die Objekte als Mitglieder oder Nicht-Mitglieder der speziellen Objektklasse des trainierten Objektklassifikators manuell bezeichnen kann. Der Benutzer an der Benutzerschnittstelle
104 bezeichnet die Objekte manuell und die bezeichneten Objekte werden zum trainierten Objektklassifikator geliefert (Schritt906 ). Die vom Benutzer manuell bezeichneten Objekte können den vorstehend beschriebenen bezeichneten Objekten entsprechen. Der Objektklassifikator wird mit den bezeichneten Objekten trainiert, wie z. B. gemäß dem Trainingsverfahren800 , wie vorstehend mit Bezug auf8 beschrieben. Bilddaten901 werden zum trainierten Objektklassifikator geliefert. Der trainierte Objektklassifikator klassifiziert die in den Bilddaten901 dargestellten Objekte und erzeugt Metadaten, die die Klassen der Objekte darstellen (Schritt910 ). Jedes vom trainierten Objektklassifikator klassifizierte Objekt weist ein Klassifikationsvertrauensniveau auf, das ihm zugeordnet ist. Das Klassifikationsvertrauensniveau entspricht dem Entscheidungsschrittwert des Schritts400 , der das Objekt als Mitglied oder Nicht-Mitglied der Objektklasse klassifiziert hat. Die durch den trainierten Objektklassifikator erzeugten Klassifikationsvertrauensniveaus werden analysiert, um Objekte zu identifizieren, die für den trainierten Objektklassifikator verwirrend waren (z. B. Objekte mit einem niedrigen Klassifikationsvertrauensniveau). Die Leistung des trainierten Objektklassifikators wird ausgewertet, um festzustellen, ob die Leistung des Objektklassifikators annehmbar ist (Schritt912 ). - Um festzustellen, ob die Leistung des Objektklassifikators annehmbar ist, kann ein zerlegter Testsatz verwendet werden, wobei die Klasse der Objekte des zerlegten Testsatzes vor der Klassifikation durch den trainierten Objektklassifikator bekannt ist. Die Bilddaten
901 , die zum trainierten Objektklassifikator geliefert werden, können dem zerlegten Testsatz entsprechen, und die durch den trainierten Objektklassifikator durchgeführten Klassifikationen können mit den tatsächlichen Klassen der Objekte verglichen werden. Aus diesem Vergleich kann die Leistung des trainierten. Objektklassifikators bestimmt werden. Wenn die Leistung nicht gleich der oder über irgendeinem vordefinierten Leistungsniveau liegt, werden die verwirrenden Objekte für den Benutzer für manuelle Bezeichnungen dargestellt (Schritt904 ). Der Benutzer bezeichnet die Verwirrungsobjekte und die neuen bezeichneten Objekte werden verwendet, um den Objektklassifikator erneut zu trainieren (Schritte906 und800 ). Wenn der Objektklassifikator erneut trainiert wird, können die Merkmals/Transformations-Kombinationen für die verschiedenen Stufen500 auf der Basis der neuen bezeichneten Objekte aktualisiert werden. Der erneut trainierte Objektklassifikator wird verwendet, um Objekte zu klassifizieren, die in den Bilddaten901 dargestellt sind, und die Leistung des erneut trainierten Objektklassifikators wird ausgewertet (Schritte910 und912 ). Der Neutrainingsprozess kann fortfahren, bis die Leistung des trainierten Objektklassifikators annehmbar ist. Wenn die Leistung des trainierten Objektklassifikators annehmbar ist, kann er eingesetzt werden (Schritt914 ). Der Trainingsprozess kann in die folgenden Schritte umgestaltet werden: - 1. Manuelles Bezeichnen eines gewissen kleinen Bruchteils eines Datensatzes.
- 2. Trainieren eines Objektklassifikators unter Verwendung des Bruchteils des Datensatzes.
- 3. Verwenden eines neu trainierten Klassifikators, um den vollständigen Datensatz automatisch zu bezeichnen.
- 4. Auswählen eines Satzes von automatisch bezeichneten Datenpunkten, die für den Objektklassifikator verwirrend waren.
- 5. Manuelles Bezeichnen der verwirrenden Datenpunkte.
- 6. Wiederholen des Trainings mit allen neuen bezeichneten Datenpunkten.
- 7. Gehen zu Schritt
3 . - Klassifikationsvertrauen
- Der Entscheidungsschrittwert s(X) wird mit dem Vertrauen in die Klassifikation korreliert. Die Korrelation kann nicht linear sein, d. h. der Schritt
400 kann einen hohen positiven Wert erzeugen, aber das Objekt kann nicht ein Mitglied der Objektklasse sein. Durch den Trainingsprozess gilt typischerweise, je höher der Wert von s(X) ist, desto weniger wahrscheinlich hat Schritt400 einen Fehler gemacht. Das Vertrauensniveau, das einem bestimmten Wert von s(X) zugeordnet ist, kann berechnet werden, indem zuerst eine Indikatorfunktion ε(Γ(X)) definiert wird, in der gilt: - Eine Vertrauensfunktion Ψ(Γ(X)) kann als Wahrscheinlichkeit, dass der Schritt
400 ein Objekt als zur positiven Klasse gehörend deklariert hat und dass es für eine Ausgabe von s(X) = v korrekt war, definiert werden. Folglich kann für ein kleines Quantisierungsintervall [v – Δ, v + Δ] die Vertrauensfunktion folgendermaßen ausgedrückt werden: -
- Gleichung (12) stellt die wahre positive Rate dar, wenn v ∊ [Δ, 1 – Δ] und s(X) ∊ [v – Δ, v + Δ].
-
- Gleichung (13) stellt die wahre negative Rate dar, wenn v ∊ [–1 + Δ, –Δ] und s(X) ∊ [v – Δ, v + Δ]. Wenn die Wahrscheinlichkeit (wie in Gleichungen (12) und (13) definiert), dass der Schritt
400 für irgendeinen beobachteten Ausgangswert s(X) = v korrekt ist, hoch ist, dann wird folglich Schritt400 als in seiner Antwort vertrauenswürdig betrachtet. Für diese Selbstbewertung des Vertrauens wird ein Wahrscheinlichkeitsmaß p ^ε|jΩΓ aus dem Trainingsdatensatz abgeschätzt und die Vertrauensfunktion Ψ(Γ(X)) wird gefolgert. Wenn die Vertrauensfunktion Ψ(Γ(X)) geringer ist als ein kritischer Vertrauensschwellenwert ψc für einen gegebenen Ausgangswert von s(X), dann wird Schritt400 für diesen Ausgangswert als unsicher oder verwirrt betrachtet. Unsichere Klassifikationen werden zum nächsten Schritt400 weitergeleitet. Somit kann die Vertrauensfunktion Ψ(Γ(X)) während des Trainings verwendet werden, um die Objekte, die für einen Objektklassifikator verwirrend sind, zu identifizierten. Wenn Diskriminantenfunktionen, die die Stufen500 bilden, eine gute Näherung für die optimale Bayes-Entscheidungsgrenze sind, dann steht der Entscheidungsschrittwert s(X) monoton mit der Vertrauensfunktion Ψ(Γ(X)) in Beziehung. Für die anfänglichen Schritte400 kann der Objektklassifikator sich nicht gut der Bayes-Entscheidungsgrenze nähern. Folglich können der Entscheidungsschrittwert s(X) für einen gegebenen Schritt400 und die Vertrauensfunktion Ψ(Γ(X)) nicht immer monoton in Beziehung stehen. - Die Vertrauensfunktion Ψ(Γ(X)) kann verwendet werden, um den Annahmeschwellenwert τa und den Ablehnungsschwellenwert τr für die verschiedenen Schritte
400 zu bestimmen. Im Gegensatz zu anderen Kaskaden-Klassifikatorarchitekturen kann, wenn die Vertrauensfunktion Ψ(Γ(X)) für die positive Klasse mit dem Entscheidungsschrittwert s(X) monoton zunimmt, der Annahmeschwellenwert τa derart gewählt werden, dass wahre positive Einschränkungen erfüllt werden. Wenn die Vertrauensfunktion Ψ(Γ(X)) nicht mit dem Entscheidungsschrittwert s(X) monoton zunimmt, dann kann der Annahmeschwellenwert τa bei 1 gesättigt bleiben, d. h. keine Muster werden als positive Klasse im entsprechenden Schritt400 angenommen. Ein Mangel an Monotonie deutet darauf hin, dass im positiven Bereich die Entscheidungsgrenze den optimalen Bayes-Klassifikator nicht ausreichend gut widerspiegelt. Ebenso wird der Ablehnungsschwellenwert τr gewählt, wenn das Vertrauen der negativen Klasse monoton mit dem Entscheidungsschrittwert s(X) in Beziehung steht. In der Praxis kann die negative Klasse weitaus dichter im Merkmalsraum besetzt sein als die positive Klasse. Obwohl eine monotone Beziehung für die positive Klasse in frühen Schritten nicht existieren kann, existiert sie folglich sehr wahrscheinlich für die negative Klasse in den frühen Schritten. - Laufzeitklassifikatorentwicklung
- Bis zu diesem Punkt wurden das Klassifikatormodell, seine Klassifikationsoperation und sein aktives Offline-Lernen beschrieben. Als nächstes wird die Online-Entwicklung des Klassifikators beschrieben. Die Online-Laufzeitklassifikatorentwicklung ist ähnlich zum vorstehend beschriebenen und in
9 dargestellten aktiven Offline-Lernprozess. Die Laufzeitentwicklung umfasst die folgenden Schritte: (1) Gewinnen einer Benutzerrückmeldung; (2) Trainieren eines neuen zusätzlichen Schritts für den Klassifikator; (3) Überprüfen des Klassifikators über eine passive Beobachtung; (4) wenn der Klassifikator passiv überprüft ist, Anfordern einer Benutzerüberprüfung und Einsetzen des Klassifikators; und, falls möglich, (5) Hochladen des spezialisierten Klassifikators mit einer Leistungsstatistik und Ortsinformationen in einen zentralen Rückmeldungsserver, so dass ein allgemeinerer Klassifikator, der die Spezialisierung aufnimmt, erzeugt und trainiert werden kann. -
10 stellt einen Prozess1000 zum Gewinnen einer Rückmeldung von einem Benutzer, der die Benutzerschnittstelle104 bedient, dar. In vielen Sicherheits- und Überwachungssystemen reagiert ein Benutzer wie z. B. ein Sicherheitsbediensteter auf Alarme und bestätigt diese. Wenn ein Alarm als falsch erachtet wird, kann er als Fehlalarm dokumentiert werden oder er kann ignoriert werden. Bei einem bevorzugten Ausführungsbeispiel eines Systems mit einer Laufzeitklassifikatorentwicklung informiert der Benutzer das System explizit, wenn der Alarm ein Fehlalarm ist. Folglich stellt das Verfahren1000 den (die) Alarm(e) für den Benutzer dar (Schritt1002 ). Der dem Benutzer präsentierte Alarm umfasst das Klassifikationsergebnis (d. h. die Klassifikation des Objekts, wie durch den Klassifikator bestimmt) und Videodaten, in denen dieses Objekt erscheint. Der Benutzer kann eine Bestätigung oder eine Ablehnung der Klassifikation eingeben. Das Verfahren1000 nimmt diese Benutzerrückmeldung an (Schritt1010 ) und stellt fest, ob der Klassifikator das Objekt falsch klassifiziert hat (Schritt1012 ). Das Verfahren1000 sammelt den Satz von Merkmalen, die für die Klassifikation verwendet werden, und speichert ihn als ”Fehlermetadaten” (Schritt1014 ). Wenn die Anzahl von Fehlern einen vorgegebenen Wert übersteigt, kann das Verfahren1000 eine ”Spezialisierungs”-Korrekturtrainingsprozedur einleiten. - Ein Fehler kann die Form eines falsch positiven Resultats annehmen, was bedeutet, dass der Klassifikator ein Objekt fälschlich als Teil einer positiven Klasse in einem vorherigen Schritt in der Kaskade angenommen hat (z. B. der Klassifikator einen Nicht-Menschen als Objekt des menschlichen Typs klassifiziert hat). Ein Fehler kann auch die Form eines falsch negativen Resultats annehmen, was bedeutet, dass der Klassifikator ein Objekt abgelehnt hat und geschlussfolgert hat, dass es sich um ein Nicht-Mitglied einer Objektklasse handelt, wenn das Objekt tatsächlich ein Mitglied dieser Klasse ist (z. B. der Klassifikator einen Menschen nicht als Objekt vom menschlichen Typ klassifiziert hat). Der Klassifikator kann beispielsweise einem Objekt, das er nicht mit ausreichendem Vertrauen klassifizieren kann, eine ”verdächtige” oder ”unbekannte” Klasse zuweisen. Wenn ein solches Objekt tatsächlich ein Mensch oder ein Fahrzeug oder dergleichen ist, kann der Benutzer diesen Fehler angeben.
- Eine Spezialisierungstrainingsprozedur kann das Hinzufügen eines zusätzlichen Schritts am Ende der Kaskade von Schritten, die den Klassifikator bilden, und das Trainieren dieses neuen Schritts, um Fehlalarme von gültigen oder ”echten” Alarmen zu trennen, wie durch die Benutzerrückmeldung angegeben, zur Folge haben. Der zusätzliche Schritt, der zum Klassifikator hinzugefügt wird, kann als ”Spezialisierungsschritt” bezeichnet werden. In einer Hinsicht unterstützt der Spezialisierungsschritt den Klassifikator, damit er beim Klassifizieren von Objekten spezialisierter wird, die diesem speziellen Klassifikator in Anbetracht seines Orts, Kamera(s) usw. präsentiert werden.
- Gemäß einem Ausführungsbeispiel nimmt die Spezialisierung eine von zwei Formen an: (1) Ortsspezialisierung und (2) Kameraspezialisierung. In diesem Ausführungsbeispiel werden diese Spezialisierungsschritte unter Verwendung von Fehlalarmfehlern trainiert. Wie in
11 dargestellt, hat somit der Klassifikator300 eine fehlerhafte positive Klassifikation in irgendeinem Schritt1 bis N in seiner Kaskade durchgeführt. Die falsch positiven Resultate werden vom Klassifikator300 zu einem Ortsspezialisierungsschritt1110 übertragen und dann, falls erforderlich, zu einem Kameraspezialisierungsschritt1120 , falls vorhanden. - Der Ortsspezialisierungsschritt
1110 ist ein allgemeiner Schritt, der trainiert wird, um Fehlalarme zu verringern, unter Verwendung von Merkmalen, die als Teil der Operation des allgemeinen Klassifikators300 extrahiert werden. Die zum Trainieren des Ortsspezialisierungsschritts1110 verwendeten Daten sind ortsspezifisch. Folglich kann ein ortsspezialisierter Klassifikator1130 (d. h. ein Klassifikator, der so modifiziert oder verbessert ist, dass er den Ortsspezialisierungsschritt1110 umfasst) an einem anderen Ort nicht mit erhöhter Genauigkeit funktionieren. - Der Kameraspezialisierungsschritt
1120 ist ein Schritt, der trainiert wird, um Fehlalarme nur für eine spezifische Kamera zu verringern. Wenn es dem ortsspezialisierten Klassifikator1130 misslingt, die Anzahl von Fehlalarmen zu verringern, dann kann ein kameraspezialisierter Klassifikator1140 trainiert werden. -
12 ist ein Ablaufplan eines Spezialisierungstrainingsprozesses1200 mit aktiver Überprüfung. Nachdem eine ausreichende Anzahl von Fehlern gesammelt wurde (Schritte1202 und1204 ), wird ein Ortsspezialisierungsschritt hinzugefügt und trainiert (Schritt1206 ). Die Leistung des ortsspezialisierten Klassifikators wird über einen Überprüfungsprozess bewertet (Schritt1208 ). Wenn seine Leistung annehmbar ist, d. h. wenn seine Fehlerrate ausreichend niedriger ist als jene des allgemeinen Klassifikators (Schritt1210 ), dann geht das Verfahren zu Schritt1218 weiter. Wenn jedoch die Fehlerrate nicht ausreichend verringert ist, dann wird ein Kameraspezialisierungsschritt für jede Kamera hinzugefügt, die eine Quelle der Fehler war (Schritt1212 ). Die Leistung des kameraspezialisierten Klassifikators wird über einen Überprüfungsprozess bewertet (Schritt1214 ). Wenn seine Leistung annehmbar ist (Schritt1216 ), dann geht das Verfahren zu Schritt1218 weiter. Wenn die Nettofehlerrate immer noch nicht ausreichend verringert ist, dann wird der Benutzerrückmeldungssammelschritt1202 fortgesetzt. Wenn ein verbesserter Klassifikator konstruiert wird, dann werden irgendwelche vorher trainierten Spezialisierungen getestet (1218 ), um festzustellen, ob sie mit der neuen Spezialisierung konsistent sind. Wenn eine vorher trainierte Spezialisierung existiert, die konsistent ist, dann wird die vorher trainierte Spezialisierung ausgewählt (Schritt1220 ) und zu einem passiven Überprüfungsschritt1224 des Verfahrens1200 gelenkt. Ansonsten wird die neu trainierte Spezialisierung ausgewählt (Schritt1222 ) und in Schritt1224 des Verfahrens1200 passiv überprüft. Wenn die neue Spezialisierung überprüft ist und eingesetzt werden kann (Schritt1226 ), wird sie zur Datenbank von Spezialisierungsschritten hinzugefügt (Schritt1228 ) und tatsächlich eingesetzt (Schritt1230 ). Der Speicherschritt1228 ist vorteilhaft, da verschiedene Spezialisierungen für verschiedene Jahreszeiten des Jahres oder verschiedene Konfigurationen der überwachten Szene erforderlich sein können. Folglich ist es möglich, dass eine vorher eingesetzte Spezialisierung zu einem späteren Zeitpunkt wieder verwendet wird. - Zwei unterschiedliche Überprüfungsoperationen können ausgeführt werden, bevor ein Klassifikator eingesetzt wird. Erstens vergleicht die passive Überprüfung die vom Benutzer gebotene Rückmeldung, die die Alarme und die Entscheidungen des spezialisierten Klassifikators bestätigt. Wenn der spezialisierte Klassifikator mit dem Benutzer konsistenter ist als der eingesetzte Klassifikator, wird der spezialisierte Klassifikator als gültig betrachtet und kann dann einer aktiven Überprüfung unterzogen werden, die der zweite Typ von Überprüfung ist. Während der aktiven Überprüfung präsentiert das System dem Benutzer den spezialisierten Klassifikator aktiv, wobei es die Fehlalarme, die der spezialisierte Klassifikator abgelehnt hat, und/oder wahre positive Resultate, die vom spezialisierten Klassifikator abgelehnt wurden, zeigt. Der Benutzer wählt die Fehler aus, die annehmbar sind, und jene, die es nicht sind. Das System versucht dann, den Ablehnungsschwellenwert τr und/oder den Annahmeschwellenwert τa für den spezialisierten Klassifikator derart einzustellen, dass die Vorlieben des Benutzers am genauesten erfüllt werden. Wenn das Leistungsziel nicht erfüllt werden kann, dann wird der Klassifikator als ungültig deklariert und der Datensammelschritt fährt fort. Ansonsten wird der spezialisierte Klassifikator eingesetzt.
-
13 stellt einen passiven Überprüfungsprozess1300 genauer dar. Der Prozess1300 stellt (einen) Alarm(e) für eine Kamera102 sowohl für einen Benutzer als auch einen spezialisierten Klassifikator dar (Schritte1302 und1312 ). Der Benutzer an der Benutzerschnittstelle104 bestätigt entweder den (die) Alarm(e) oder lehnt ihn (sie) ab und diese Benutzerrückmeldung wird vom Prozess1300 angenommen (Schritt1310 ). Ebenso nimmt der spezialisierte Klassifikator entweder die einen Alarm auslösenden Objekte als Mitglieder der Klasse an, die den Fehlalarm ausgelöst haben, oder lehnt sie ab und diese Entscheidungsergebnisse werden vom Verfahren1300 angenommen (Schritt1340 ). Der Prozess1300 vergleicht automatisch die Benutzerrückmeldung, die Alarme bestätigt, mit Entscheidungen, die vom spezialisierten Klassifikator getroffen werden (Schritt1350 ). Wenn der spezialisierte Klassifikator mit dem Benutzer nicht konsistenter ist als der eingesetzte Klassifikator (Schritt1360 ), dann wird er der fortgesetzten Verfeinerung unterzogen (Schritt1370 ). Wenn der spezialisierte Klassifikator mit dem Benutzer konsistenter ist als der eingesetzte Klassifikator (Schritt1360 ), wird der spezialisierte Klassifikator als gültig betrachtet und wird zu einer aktiven Überprüfungsoperation übergeben (Schritt1380 ). Eine Erhöhung der Konsistenz bedeutet, dass die Spezialisierung die Mehrheit von Fehlalarmen ablehnen kann, während echte Alarme nicht abgelehnt werden. Nur konsistentere Spezialisierungen werden zum aktiven Überprüfungsschritt1380 weitergeleitet und schließlich eingesetzt (Schritt1390 ). -
14 zeigt einen aktiven Überprüfungsprozess1400 , der einen Benutzer aktiv in Anspruch nimmt, um einen spezialisierten Klassifikator zu überprüfen. Der im aktiven Überprüfungsprozess verwendete Benutzer ist vorzugsweise ein Aufseher, Manager oder eine andere höherrangige Person, die in der Erfassung von Fehlern oder absichtlicher Sabotage an dem System erfahrener ist. Der Prozess1400 unterteilt Inkonsistenzen von spezialisierten Klassifikatoren in falsch positive Resultate und falsch negative Resultate (Schritt1410 ). Der Prozess1400 stellt beide für den Benutzer dar (Schritte1420 und1430 ). Der Benutzer an der Benutzerschnittstelle104 kategorisiert dann Fehler als annehmbar oder unannehmbar. Ein Kompromiss von Fehlalarm/falsch negativem Resultat wird automatisch durch entsprechendes Wählen von τr durchgeführt (Schritt1440 ). Das Erhöhen von τr erhöht die Anzahl von falsch negativen Resultaten, während die Anzahl von falsch positiven Resultaten verringert wird. Das System versucht, τr so einzustellen, dass der spezialisierte Klassifikator die Vorlieben des Benutzers am genauesten erfüllt. Wenn die Leistung unannehmbar ist (Schritt1450 ), wird der Klassifikator für ungültig erklärt und der Datensammelschritt fährt fort (Schritt1460 ). Ansonsten wird der spezialisierte Klassifikator eingesetzt (Schritt1470 ). - Durch Lernen und/oder Spezialisierung kann der Klassifikator sich an seine Umgebung und Änderungen daran automatisch anpassen. Ein Kamerasystem mit einem solchen Klassifikator kann wenig oder keine manuelle geometrische Kalibrierung oder Abstimmung am Einsatzort benötigen. Dies kann zu beträchtlichen Kosteneinsparungen durch Verringern oder Beseitigen des Bedarfs für Arbeit durch geschultes Personal zum Installieren des Systems oder zum Einstellen des Systems führen, wie z. B. wenn die Jahreszeiten wechseln oder eine Kamera bewegt wird. Ein Kamerasystem unter Verwendung eines Klassifikators, wie hierin beschrieben, kann häufig durch irgendjemanden installiert werden, der mit der Kamerainstallation vertraut ist.
- Ein weiterer Vorteil eines genauen Klassifikators besteht darin, dass eine verbesserte Genauigkeit bei der Klassifikation von Objekten die Qualität der Rückmeldung verbessern kann, die zu einem Objektdetektionsmodul und seinen Komponenten geliefert wird, wie z. B. einer Vordergrund/Hintergrund-Trennvorrichtung, wie in der vorstehend angeführten US-Patentanmeldung Nr. 10/884 486 beschrieben, wodurch die Leistung des Gesamtsystems weiter verbessert wird.
- Ein weiterer Vorteil kann auftreten, wenn eine Rückmeldung über genaue Klassifikatoren von verschiedenen Orten gesammelt wird. Insbesondere wenn eine Spezialisierung trainiert wird und der Ortsspezialisierungsschritt eine beträchtliche Leistungsverbesserung bietet, dann kann der spezialisierte Klassifikator in einen zentralen Rückmeldungsserver hochgeladen werden.
15 zeigt einen Rückmeldungssammel- und Verallgemeinerungsprozess1500 im Einzelnen. Wenn es vom Benutzer/Ort zugelassen wird, werden Fehlermetadaten für Fehler, die mit Spezialisierung korrigiert werden, gesammelt (Schritt1505 ), mit Leistungsstatistiken und Ortsinformationen gebündelt (Schritt1510 ) und zu einem Rückmeldungsserver über ein Netzwerk1520 übermittelt (Schritt1515 ). Am Rückmeldungsserver werden die Metadaten und zugehörigen Daten in einer Rückmeldungsdatenbank1525 gespeichert. Der Prozess1500 bewertet die Leistung des spezialisierten Klassifikators unter Verwendung der Fehlermetadaten und Videodaten, die in einer Videodatenbank1530 gespeichert sind, die sich am Rückmeldungsserver befindet oder für diesen zugänglich ist (Schritt1535 ). In dieser Weise kann der spezialisierte Klassifikator verwendet werden, um automatisch eine große Sammlung von Trainingsdaten zu bezeichnen. Unbezeichnete Daten, für die der allgemeine Klassifikator nicht mit dem spezialisierten Klassifikator übereinstimmt, können dem Benutzer zum Bezeichnen an der zentralen Trainingseinrichtung (nicht dargestellt) präsentiert werden. Ein neuer allgemeiner Klassifikator wird dann so trainiert, dass er mit dem spezialisierten Klassifikator für diejenigen Muster konsistent ist, die er korrekt klassifiziert hat (Schritt1540 ). Spezialisierungen, die von mehreren Orten gesammelt werden, können in einer ähnlichen Weise verwendet werden. Wenn ein neuer allgemeiner Klassifikator trainiert werden kann, der mit allen hochgeladenen spezialisierten Klassifikatoren konsistenter ist, wird der neue allgemeine Klassifikator zu allen Orten für einen möglichen Einsatz verteilt. insbesondere testet der Prozess1500 , ob der allgemeine Klassifikator besser ist als vorherige (Schritt1545 ). Wenn ja, kann er als neuer allgemeiner Klassifikator für den Einsatz an Orten verteilt werden (Schritt1550 ). Wenn nicht, dann wird der spezialisierte Klassifikator als Ortsschablone markiert. Wenn die Leistung eines spezialisierten Klassifikators als ortsspezifisch erachtet wird, werden seine Entscheidungen mit gespeicherten Ortsschablonen verglichen (Schritt1555 ). Wenn eine Ortsschablone existiert, die mit dem spezialisierten Klassifikator konsistenter ist, dann kann die Ortsschablone hochgeladen werden (1565 ). Ansonsten kann der spezialisierte Klassifikator als neue Ortsschablone gespeichert werden (Schritt1560 ). - Wahlweise kann der Prozess
1500 testen, ob die Ortsschablone eine jahreszeitliche Verbesserung ist (Schritt1570 ), und wenn ja, die Spezialisierung als solche planen (Schritt1575 ). - Eine zentrale Vereinigung und Verteilung einer Rückmeldung und von aktualisierten neuen oder aktualisierten Klassifikatoren oder Klassifikatorparametern ermöglicht die Integration einer Gemeinschaftsrückmeldung auf der Basis von Erkennungsfehlern. Daten für Kundenorte, die ähnliche Probleme erleben, können vereinigt werden und ein neuer Klassifikator kann dann trainiert und verteilt werden. Diese Rückmeldung auf breiter Basis ermöglicht eine breite Sammlung von Informationen, die in das Training eines neuen Klassifikators integriert werden sollen; beispielsweise können Informationen über Fehlalarme von verschiedenen Systemen geteilt werden. Im Allgemeinen umfassen Metadaten ausreichend Informationen, damit der Klassifikator lernt, ohne auf die ursprünglichen Videodaten zugreifen zu müssen. Wenn ein neuer Klassifikator intern an einem Kundenort aktualisiert wird, wird die neue Version des Klassifikators auch zu anderen Kunden übertragen. Der neue Klassifikator kann beispielsweise verwendet werden, um festzustellen, welche Kundenorte ähnliche Quellen für Fehlalarme haben. Wenn die Anzahl von eingesetzten Systemen zunimmt, können die Menge und die Qualität der gesammelten Rückmeldung auch zunehmen, wodurch die Erzeugung von genaueren allgemeinen Klassifikatoren auf der Basis dieser Rückmeldung ermöglicht wird.
- Periodische Aktualisierungen können zu allen vernetzten Kameras geschoben werden, ganz wie ein Antivirus-System. Die Klassifikatorspezifikation kann als neue Objektdefinitionsdatei betrachtet werden. Jede neue Definitionsdatei kann beim Kunden unter Verwendung von passiven und aktiven Überprüfungsmechanismen überprüft werden. Wenn die neue Definitionsdatei überprüft ist, dann wird sie dem Benutzer für den Einsatz präsentiert.
- Das Lernen von neuen allgemeinen Objektklassen folgt derselben Prozedur wie der vorher beschriebene aktive Lernprozess. Das ortsspezifische Lernen von neuen Objektklassen folgt demselben Prozess wie der Fehlalarm-Verringerungsprozess. In einem typischen Fall ist eine neue Klasse gewöhnlich ein spezifischer Typ einer allgemeineren Klasse. Ein Benutzer kann beispielsweise einen Lieferwagen von anderen Fahrzeugen unterscheiden wollen. Folglich ist die Klasse ”Lieferwagen” ein spezifischer Typ von Fahrzeug. Eine Spezialisierungsarchitektur, wie z. B. in
16 gezeigt, mit einem neuen Objektklassifikator1610 kann dann vielmehr als separater Klassifikator als als Modifikation einer existierenden Klasse ausgeführt werden. Der Spezialisierungsprozess kann als Fehlalarm-Verringerungsprozess betrachtet werden, in dem Fahrzeuge, die keine Lieferwägen sind, Fehlalarme sind. Passive und aktive Überprüfungsoperationen werden vorzugsweise vollendet, bevor ein neuer Klassifikator für die neue Objektklasse eingesetzt wird. - Automatische Kalibrierung
- Ein Kalibrierungsmodul kann im Videoanalysemodul
200 (2 ) enthalten sein, um repräsentative Größen von verschiedenen klassifizierten Objekten in Reaktion auf Klassifikationen, die vom Objektklassifikationsmodul210 während des Live-Betriebs durchgeführt werden, automatisch zu aktualisieren. Dagegen kann das Kalibrierungsmodul Informationen, die aktualisierte repräsentative Größen darstellen, zum Objektklassifikationsmodul liefern, um seine Klassifikationsleistung zu verbessern. -
17 ist ein Ablaufplan eines Verfahrens1700 , das eine Größenfunktion verwendet und aktualisiert, die eine Größe eines Objekts eines gegebenen Typs mit seinem Ort in einem Blickfeld in Beziehung bringt. Die Größenfunktion kann eine parametrisierte Funktion der Position sein, wie z. B. ein Polynom zweiter Ordnung in X- und Y-Koordinaten. Wenn klassifizierte Objekte1702 , die eine im Allgemeinen konstante Abmessung über alle Mitglieder der Klasse aufweisen (z. B. Höhe von erwachsenen Menschen), durch das Objektklassifikationsmodul zur Verfügung gestellt werden, stellt das Verfahren1700 fest, ob sie als Mitglieder dieser Klasse mit hohem oder niedrigem Vertrauen klassifiziert werden (Schritt1710 ), vorzugsweise durch Untersuchen der vorstehend beschriebenen Vertrauensabschätzung. Wenn das Vertrauen niedrig ist, dann wird die Größenfunktion auf das Objekt in seiner aktuellen Position angewendet (Schritt1720 ) und der Wert, der durch die Größenfunktion zurückgegeben wird, wird mit der tatsächlichen Größe in dem Bild verglichen, um festzustellen, ob sie ausreichend eng übereinstimmen (Schritt1725 ). Wenn ja, dann kann die Klassifikation des Objekts1702 als Mitglied der Objektklasse als korrekt bestätigt werden (Schritt1730 ). Wenn die tatsächliche und die durch die Größenfunktion berechnete Größe nicht ausreichend eng übereinstimmen, dann klassifiziert das Verfahren1700 das Objekt als Nicht-Mitglied der Objektklasse (Schritt1735 ). In beiden Fällen ist, sobald das Vertrauen des Klassifikators niedrig ist, die Größenfunktion unverändert, da es unvorsichtig wäre, zu versuchen, die Größenfunktion unter Verwendung von fraglichen Daten zu kalibrieren. - Wenn das Vertrauen der Klassifikation hoch ist, dann wird das Objekt ungeachtet seiner Größe als Mitglied der Klasse klassifiziert (Schritt
1730 ). In diesem Fall wird überdies die Größenfunktion unter Verwendung der tatsächlichen Größe des Objekts als zusätzlicher Datenpunkt für die erwartete Größe dieser Klasse des Objekts an dem Ort, an dem es im Bild erscheint, aktualisiert (Schritt1740 ). Die Größenfunktion wird durch Modifizieren ihrer Parameter, wie z. B. durch einen rekursiven Algorithmus kleinster Quadrate oder einen ähnlichen Algorithmus, aktualisiert. Das nächste Mal, wenn ein Objekt mit niedrigem Vertrauen dargestellt wird, wird folglich die aktualisierte Größenfunktion angewendet, um die Klassifikation entweder zu bestätigen oder abzulehnen. In dieser Weise wird die Objektklassifikation automatisch während des Laufzeitbetriebs unter Verwendung von zuverlässigen Live-Daten kalibriert. - Die Größenfunktion kann eine beliebige parametrisierte Funktion sein, deren Parameter durch Anpassung bestimmt und eingestellt werden können. Eine Höhengrößenfunktion der folgenden Form kann beispielsweise verwendet werden:
Höhe (x, y) = ax + by + c (14) - Andere Funktionen, wie z. B. Polynome höherer Ordnung, können verwendet werden, falls erwünscht. Die Parameter a, b, und c können auf der Basis einer Anpassung kleinster Fehlerquadrate oder anderer geeigneter Kriterien bestimmt werden, die vorzugsweise rekursiv durchgeführt wird, wobei eine Iteration jedes Mal stattfindet, wenn der Schritt
1740 durchgeführt wird. - Es ist auch möglich, eine optionale Größenfehlerfunktion zu verwenden, um den Größenabschätzungsfehler abzuschätzen. Die Größenfehlerfunktion ist ebenso eine parametrisierte Funktion der Koordinaten im Bildblickfeld, Fehler (x, y), und ist eine Abschätzung der Differenz zwischen der Größenfunktion und der tatsächlichen Größe. Die Größenfehlerfunktion selbst kann jedes Mal, wenn eine tatsächliche Größe eines Objekts gemessen wird, rekursiv aktualisiert werden. Wenn die Größenfehlerfunktion einen Wert zurückgibt, der zu hoch ist (d. h. über einem Schwellenwert), dann kann die Größenfunktion ungültig sein und sollte nicht verwendet werden, um zu helfen, Objekte, die durch das Objektklassifikationsmodul
210 mit niedrigem Vertrauen klassifiziert werden, zu klassifizieren. Folglich kann die Größenfehlerfunktion als Selbstprüfverfahren für die automatische Kalibrierung dienen, was eine fehlerhafte Kalibrierung verhindert. Wenn mehrere Male für Objekte mit hohem Vertrauen große Fehler bestehen, dann kann die Kalibrierung für ungültig erklärt werden, vielleicht aufgrund einer externen Änderung wie z. B. einer Bewegung der Kamera. Während Perioden, in denen die Kalibrierung ausgeschaltet ist, kann das Verfahren1700 weiterhin die Größen- und Größenfehlerfunktionen aktualisieren (d. h. im Zweig des hohen Vertrauens auf der rechten Seite von17 ), bis der Größenfehler annehmbar wird, zu welchem Zeitpunkt eine automatische Bestätigung/Ablehnung auf Größenbasis von Objekten mit niedrigem Vertrauen (d. h. im Zweig des niedrigen Vertrauens auf der linken Seite von17 ) fortfahren kann. - Ein Objekthöhengitter kann wahlweise in der Bildebene konstruiert werden, in der für jede Gitterzelle die mittlere Höhe eines Objekts ohne Hilfe von manueller Kalibrierung abgeschätzt wird. Eine Polynomanpassung kann dann abgeschätzt werden, um den unteren Ort eines Objekts auf seinen oberen Ort abzubilden und umgekehrt. Über die Zeit können genaue Objektgrößenabschätzungen automatisch für verschiedene Teile der Szene erzeugt werden, mit oder ohne Integration einer aktiven Benutzerrückmeldung. In einem bevorzugten Ausführungsbeispiel ist ein manueller Kalibrierungsprozess nicht erforderlich, um genaue Objektgrößenabschätzungen zu erreichen. Wenn eine größere Genauigkeit entwickelt wird, steigt das Vertrauensniveau der gelernten Informationen an, so dass Objektgrößenabschätzungen verwendet werden können, um falsche Detektionen zu verringern. Unter Verwendung von Höheninformationen von überprüften und verfolgten Objekten zusammen mit Kameralinseninformationen kann dann ein vollständiger Satz von Kameraparametern abgeschätzt werden und wiederum verwendet werden, um eine Bodenebene und eine Koordinatenabbildung vom Bild in die reale Welt abzuschätzen. Mit ausreichendem Vertrauen können geometrische Informationen für die Verwendung beim Detektieren von Objekten, die über der Bodenebene liegen, beispielsweise auf oberen Ebenen einer Parkgarage, in der mehrere Stockwerke ähnliche Fahrzeuge enthalten, übertragbar sein.
-
18 ist ein Blockdiagramm des Videoanalysemoduls200 gemäß einem weiteren Ausführungsbeispiel mit einem Kalibrierungsmodul240 , das einen automatischen Kalibrierungsprozess, wie z. B. das vorstehend beschriebene Verfahren1700 , durchführt.18 stellt auch eine Anzahl von anderen optionalen Modulen dar, wie z. B. ein Geschwindigkeitsabschätzmodul250 , das in Verbindung mit dem Kalibrierungsmodul240 verwendet werden kann, um Geschwindigkeiten von klassifizierten Objekten im Blickfeld unter Verwendung von Maßstabsinformationen abzuschätzen, die von den durch das Kalibrierungsmodul240 erzeugten Größeninformationen abgeleitet sind. -
18 stellt auch ein Klassifikatorentwicklungsmodul260 dar, das ein Selbstlernen oder eine Entwicklung des Objektklassifikationsmoduls am Einsatzort oder bei der Verwendung durchführen kann, wie z. B. durch irgendeines der hierin beschriebenen Verfahren.18 stellt auch ein oder mehrere steuerbare Filter220 dar, die verwendet werden können, um Kantenorientierungswerte zu berechnen. Schließlich stellt18 eine oder mehrere Histogramm-Datenstrukturen230 dar, die verschiedene Histogramme darstellen, wie z. B. Kantenorientierungshistogramme oder Farbhistogramme, die als Objektmerkmale für die Zwecke der Objektklassifikation verwendet werden. Histogramm-Informationen können in einer Datenstruktur mit einer Anzahl von Intervallbereichen und Intervallbereichszahlen gespeichert werden, deren Werte Vorkommnisse einer Variable zwischen Intervallbereichsgrenzen darstellen. Anders als gezeigt können ein oder mehrere der Module und anderen Objekte, die in18 dargestellt sind, vom Videoanalysemodul200 separat sein und können sich anderswo in der Kamera102 oder in einem anderen Teil des Kamerasystems100 befinden. - Wie hierin verwendet, ist der Begriff ”Modul” eine Komponente, die ein oder mehrere Hardware-Schaltungen oder -vorrichtungen und/oder eine oder mehrere Softwareroutinen, Funktionen, ein Objekt oder dergleichen umfassen kann. Ein Modul kann vollständig Hardware, vollständig Software sein, Firmware umfassen oder eine gewisse Kombination der vorangehenden umfassen. Wie hierin verwendet, bezieht sich der Begriff ”System” auf eine materielle Sache.
- Die Verfahren, Module und Systeme, die hierin dargestellt und beschrieben sind, können in einer Vielfalt von Formen sowohl aktiv als auch inaktiv existieren. Sie können beispielsweise teilweise oder vollständig als ein oder mehrere Softwareprogramme existieren, die aus Programmanweisungen in Quellencode, Objektcode, ausführbarem Code oder anderen Formaten bestehen. Irgendeines der obigen kann in komprimierter oder unkomprimierter Form auf einem computerlesbaren Medium, das Speichervorrichtungen umfasst, verkörpert sein. Beispielhafte computerlesbare Speichervorrichtungen umfassen einen RAM (Direktzugriffsspeicher) ROM (Festwertspeicher), EPROM (löschbarer, programmierbarer ROM), EEPROM (elektrisch löschbarer, programmierbarer ROM), Flash-Speicher eines herkömmlichen Computersystems und magnetische oder optische Platten oder Bänder.
- Abschluss
- Die vorstehend verwendeten Begriffe und Beschreibungen sind nur zur Erläuterung dargelegt und sind nicht als Begrenzungen gemeint. Der Klassifikator kann beispielsweise ein Teil sein von – und die Klassifikationsverfahren können durchgeführt werden an – einer entfernten Verarbeitungseinheit wie z. B. der entfernten Speicher/Verarbeitungseinheit
106 (1 ), einem Computer, der der Benutzerschnittstelle104 zugeordnet ist, einem anderen Knoten im Kameranetzwerk108 oder einem anderen Server, wie z. B. einem an einem zentralen Ort oder in einem anderen Netzwerk. Der Fachmann auf dem Gebiet wird erkennen, dass diese und viele andere Variationen, Verbesserungen und Modifikationen der hierin beschriebenen Konzepte möglich sind, ohne von den zugrunde liegenden Prinzipien der Erfindung abzuweichen. Der Schutzbereich der Erfindung sollte daher nur durch die folgenden Ansprüche und ihre Äquivalente bestimmt sein. - Zusammenfassung
- Ein Kamerasystem (
100 ) umfasst eine Bilderfassungsvorrichtung (102 ) und ein Objektklassifikationsmodul (210 ), das mit der Bilderfassungsvorrichtung (102 ) verbunden ist. Die Bilderfassungsvorrichtung (102 ) weist ein Blickfeld auf und erzeugt Bilddaten, die ein Bild des Blickfeldes darstellen. Das Objektklassifikationsmodul (210 ) ist betriebsfähig, um festzustellen, ob ein Objekt in einem Bild ein Mitglied einer Objektklasse ist oder nicht. Das Objektklassifikationsmodul (210 ) umfasst N Entscheidungsschritte (400 ), die in einer Kaskadenkonfiguration konfiguriert sind, wobei mindestens einer der N Entscheidungsschritte (400 ) betriebsfähig ist, um (a) ein Objekt als Mitglied der Objektklasse anzunehmen, (b) ein Objekt als Mitglied der Objektklasse abzulehnen, und (c) einen nächsten Schritt (400 ) heranzuziehen, um festzustellen, ob ein Objekt ein Mitglied der Objektklasse ist oder nicht. - ZITATE ENTHALTEN IN DER BESCHREIBUNG
- Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
- Zitierte Nicht-Patentliteratur
-
- ”Method of Dynamic Object and Event Classification”, eingereicht am 3. März 2008 [0001]
- ”Method and System for Tracking Objects Under Video Surveillance”, eingereicht am 3. März 2008 [0001]
- ”Content Aware Storage of Video Data” bzw. ”Extending the Operational Lifetime of a Hard-Disk Drive Used in Video Data Storage Applications” [0038]
- ”Methods and Systems for Detecting Objekts of Interest in Spatio-Temporal Signals” [0040]
- ”Objekt Matching for Tracking, Indexing, and Search” [0041]
- Paul Viola & Michael Jones, ”Robust Real-Time Face Detection”, International Journal of Computer Vision, S. 137–154 (2004) [0051]
- ”Sequential Discriminant Error Minimization: The Theory and its Application to Real-Time Video Object Recognition” (Carnegie Mellon University, 2005) [0062]
Claims (60)
- Kamerasystem (
100 ) mit: einer Bilderfassungsvorrichtung (102 ) mit einem Blickfeld, die Bilddaten erzeugt, die ein Bild des Blickfeldes darstellen; und einem Objektklassifikationsmodul (210 ), das mit der Bilderfassungsvorrichtung (102 ) verbunden ist, wobei das Objektklassifikationsmodul (210 ) betriebsfähig ist, um festzustellen, ob ein Objekt in einem Bild ein Mitglied einer Objektklasse ist oder nicht, wobei das Objektklassifikationsmodul (210 ) N Entscheidungsschritte (400 ) umfasst, die in einer Kaskadenkonfiguration konfiguriert sind, wobei mindestens einer der N Entscheidungsschritte (400 ) betriebsfähig ist, um (a) ein Objekt als Mitglied der Objektklasse anzunehmen, (b) ein Objekt als Mitglied der Objektklasse abzulehnen, und (c) einen nächsten Schritt (400 ) heranzuziehen, um festzustellen, ob ein Objekt ein Mitglied der Objektklasse ist oder nicht. - Kamerasystem (
100 ) nach Anspruch 1, das ferner umfasst: ein Objektdetektionsmodul (204 ), das mit der Bilderfassungsvorrichtung (102 ) und dem Objektklassifikationsmodul (210 ) verbunden ist, wobei das Objektdetektionsmodul (204 ) die Bilddaten empfängt und betriebsfähig ist, um zu detektieren, ob ein Objekt sich im Blickfeld der Bilderfassungsvorrichtung (102 ) befindet oder nicht, wobei das Objektdetektionsmodul (204 ) ein detektiertes Objekt an das Objektklassifikationsmodul (210 ) übergibt. - Kamerasystem (
100 ) nach Anspruch 1, wobei der mindestens eine der N Entscheidungsschritte (400 ) eine Stufe (500 ) zur Abbildung eines Objektmerkmals auf einen Skalarwert umfasst. - Kamerasystem (
100 ) nach Anspruch 3, wobei die Stufe (500 ) eine Diskriminantenfunktion zum Bestimmen des Skalarwerts umfasst. - Kamerasystem (
100 ) nach Anspruch 4, wobei der Skalarwert mit einem Klassifikationsvertrauen korreliert ist. - Kamerasystem (
100 ) nach Anspruch 3, wobei das Objektmerkmal ein Seitenverhältnis eines Objekts ist. - Kamerasystem (
100 ) nach Anspruch 3, wobei das Objektmerkmal ein Kantenorientierungshistogramm eines Objekts ist. - Kamerasystem (
100 ) nach Anspruch 7, wobei das Kantenorientierungshistogramm unter Verwendung eines steuerbaren Filters erzeugt wird. - Kamerasystem (
100 ) nach Anspruch 1, wobei mehrere Merkmale des Objekts identifiziert werden, wobei der mindestens eine der N Entscheidungsschritte (400 ) eine Stufe (500 ) zur Abbildung von mehreren Objektmerkmalen auf einen Skalarwert umfasst. - Kamerasystem (
100 ) nach Anspruch 1, wobei das Objektklassifikationsmodul (210 ) betriebsfähig ist, um ein Objekt als Menschen oder Nicht-Menschen zu klassifizieren. - Kamerasystem (
100 ) nach Anspruch 1, wobei das Objektklassifikationsmodul (210 ) betriebsfähig ist, um ein Objekt als Fahrzeug oder Nicht-Fahrzeug zu klassifizieren. - Verfahren (
600 ) zum Klassifizieren eines Objekts, das von einem Kamerasystem (100 ) erfasst wird, wobei das Kamerasystem (100 ) ein Objektklassifikationsmodul (210 ) mit N Entscheidungsschritten (400 ) umfasst, die in einer Kaskadenkonfiguration konfiguriert sind, wobei das Verfahren umfasst: Erfassen (602 ) eines Bildes eines Objekts; Übertragen (606 ) von Bilddaten, die das Objekt darstellen, zu einem ersten der N Entscheidungsschritte (400 ); Identifizieren (608 ) eines Merkmals des Objekts, das in den Bilddaten dargestellt ist, um festzustellen, ob das Objekt ein Mitglied einer Objektklasse ist, wobei ein Entscheidungsschrittwert von dem Merkmal des Objekts abgeleitet wird; und Treffen einer Entscheidung, um entweder das Objekt als Mitglied der Objektklasse anzunehmen, das Objekt als Mitglied der Objektklasse abzulehnen, oder die Bilddaten zu einem zweiten der N Entscheidungsschritte (400 ) zur weiteren Analyse weiterzuleiten, wobei die Entscheidung auf einem Vergleich des Entscheidungsschrittwerts mit einem oder mehreren eines Annahmeschwellenwerts (τa) und eines Ablehnungsschwellenwerts (τr) basiert, wobei der Annahmeschwellenwert ein höherer Wert ist als der Ablehnungsschwellenwert (τr), wobei das Objekt als Mitglied der Objektklasse angenommen wird, wenn der Entscheidungsschrittwert über dem Annahmeschwellenwert (τa) liegt, das Objekt als Mitglied der Objektklasse abgelehnt wird, wenn der Entscheidungsschrittwert unter dem Ablehnungsschwellenwert (τr) liegt, und die Bilddaten zum zweiten Entscheidungsschritt (400 ) weitergeleitet werden, wenn der Entscheidungsschrittwert zwischen dem Annahme- und dem Ablehnungsschwellenwert liegt. - Verfahren (
600 ) nach Anspruch 12, das ferner umfasst: Detektieren (604 ) des Objekts. - Verfahren (
600 ) nach Anspruch 13, wobei das Objekt als Mitglied der Objektklasse abgelehnt wird, wenn der Entscheidungsschrittwert auf oder unterhalb des Ablehnungsschwellenwerts (τr) liegt. - Verfahren (
600 ) nach Anspruch 13, wobei die Bilddaten als Mitglied der Objektklasse angenommen werden, wenn der Entscheidungsschrittwert auf oder über dem Annahmeschwellenwert (τa) liegt. - Verfahren (
600 ) nach Anspruch 13, wobei mehrere Merkmale des Objekts identifiziert werden und der Entscheidungsschrittwert von den mehreren Merkmalen abgeleitet wird. - Kamerasystem (
100 ) mit: einer Bilderfassungsvorrichtung (102 ) mit einem Blickfeld, die Bilddaten erzeugt, die ein Bild des Blickfeldes darstellen; und einem Objektklassifikationsmodul (210 ), das mit der Bilderfassungsvorrichtung (102 ) verbunden ist, wobei das Objektklassifikationsmodul (210 ) betriebsfähig ist, um festzustellen, ob ein Objekt in dem Bild ein Mitglied einer Objektklasse ist oder nicht, wobei das Objektklassifikationsmodul (210 ) N Entscheidungsschritte (400 ) umfasst, die in einer Kaskadenkonfiguration konfiguriert sind, wobei jeder der Entscheidungsschritte (400 ) eine oder mehrere Stufen (500 ) zur Abbildung von Objektmerkmalen auf Skalarwerte umfasst, wobei eine erste der Stufen (500 ) eine erste Diskriminantenfunktion zum Bestimmen eines ersten Skalarwerts umfasst, eine zweite der Stufen (500 ) eine zweite Diskriminantenfunktion zum Bestimmen eines zweiten Skalarwerts umfasst und die erste und die zweite Diskriminantenfunktion von verschiedenen Typen sind. - Kamerasystem (
100 ) nach Anspruch 17, das ferner umfasst: ein Objektdetektionsmodul (204 ), das mit der Bilderfassungsvorrichtung (102 ) und dem Objektklassifikationsmodul (210 ) verbunden ist, wobei das Objektdetektionsmodul (204 ) die Bilddaten empfängt und betriebsfähig ist, um zu detektieren, ob sich ein Objekt im Blickfeld der Bilderfassungsvorrichtung (102 ) befindet oder nicht. - Kamerasystem (
100 ) nach Anspruch 17, wobei die erste und die zweite Stufe (500 ) demselben Entscheidungsschritt (400 ) entsprechen. - Kamerasystem (
100 ) nach Anspruch 19, wobei das Objektklassifikationsmodul (210 ) betriebsfähig ist, um einen ersten und einen zweiten Gewichtungskoeffizienten auf den ersten bzw. den zweiten Skalarwert anzuwenden, und das Objektklassifikationsmodul (210 ) betriebsfähig ist, um den gewichteten ersten und zweiten Skalarwert zu addieren, um einen Entscheidungsschrittwert zu erzeugen. - Kamerasystem (
100 ) nach Anspruch 17, wobei die erste und die zweite Stufe (500 ) verschiedenen der N Entscheidungsschritte (400 ) entsprechen. - Kamerasystem (
100 ) nach Anspruch 17, wobei die erste Stufe (500 ) betriebsfähig ist, um ein erstes Objektmerkmal auf den ersten Skalarwert abzubilden, und die zweite Stufe (500 ) betriebsfähig ist, um ein zweites Objektmerkmal auf den zweiten Skalarwert abzubilden. - Kamerasystem (
100 ) nach Anspruch 22, wobei das erste Objektmerkmal einem Seitenverhältnis eines Objekts entspricht und das zweite Objektmerkmal einem Kantenorientierungshistogramm des Objekts entspricht. - Kamerasystem (
100 ) nach Anspruch 23, wobei das Kantenorientierungshistogramm unter Verwendung eines steuerbaren Filters erzeugt wird. - Kamerasystem (
100 ) nach Anspruch 17, wobei die erste Diskriminantenfunktion eine Funktion auf radialer Basis umfasst und die zweite Diskriminantenfunktion eine S-förmige Funktion umfasst. - Verfahren zum Klassifizieren eines Objekts, das von einem Kamerasystem (
100 ) erfasst wird, wobei das Verfahren umfasst: Erzeugen (602 ) von Bilddaten, die ein Bild eines Objekts darstellen, das von dem Kamerasystem (100 ) erfasst wird; Identifizierten (608 ) eines ersten und eines zweiten Merkmals des Objekts, das in den Bilddaten dargestellt ist; Abbilden des ersten und des zweiten Merkmals des Objekts auf einen jeweiligen ersten und zweiten Skalarwert, wobei eine erste Diskriminantenfunktion verwendet wird, um den ersten Skalarwert zu erzeugen, eine zweite Diskriminantenfunktion verwendet wird, um den zweiten Skalarwert zu erzeugen, und die erste und die zweite Diskriminantenfunktion während einer Trainingsoperation aus einer Gruppe ausgewählt werden, die aus mehreren verschiedenen Diskriminantenfunktionen besteht; und Feststellen, ob das Objekt ein Mitglied einer Objektklasse ist, auf der Basis eines Entscheidungsschrittwerts, der vom ersten und vom zweiten Skalarwert abgeleitet ist. - Kamerasystem (
100 ) mit: einer Bilderfassungsvorrichtung (102 ) mit einem Blickfeld und einer Bildebene, wobei die Bilderfassungsvorrichtung (102 ) Bilddaten erzeugt, die ein Bild des Blickfeldes darstellen, das auf die Bildebene projiziert wird; einem Objektklassifikationsmodul (210 ), das mit der Bilderfassungsvorrichtung (102 ) verbunden ist und betriebsfähig ist, um Objekte auf der Basis der Bilddaten zu detektieren und zu klassifizieren, die im Blickfeld erfasst werden, wobei das Objektklassifikationsmodul (210 ) betriebsfähig ist, um Objekte als Mitglieder oder Nicht-Mitglieder einer Objektklasse zu klassifizieren; und einem Kalibrierungsmodul, das mit dem Objektklassifikationsmodul (210 ) verbunden ist, zum Abschätzen von repräsentativen Größen von Mitgliedern der Objektklasse, wobei die repräsentativen Größen verschiedenen Bereichen der Bildebene entsprechen, wobei das Kalibrierungsmodul betriebsfähig ist, um automatisch die repräsentativen Größen in Reaktion auf Klassifikationen, die vom Objektklassifikationsmodul (210 ) während des Live-Betriebs durchgeführt werden, zu aktualisieren, und das Kalibrierungsmodul betriebsfähig ist, um Informationen, die die aktualisierten repräsentativen Größen darstellen, zum Objektklassifikationsmodul (210 ) zu liefern, um seine Objektklassifikationsleistung zu verbessern. - Kamerasystem (
100 ) nach Anspruch 27, wobei, wenn das Objektklassifikationsmodul (210 ) ein Objekt als Mitglied einer Objektklasse klassifiziert, ein Vertrauensparameter dieser Klassifikation zugeordnet wird, und wobei das Kalibrierungsmodul die repräsentativen Größen nur dann aktualisiert, wenn der Vertrauensparameter auf ein hohes Vertrauen hindeutet, dass die Klassifikation korrekt ist. - Kamerasystem (
100 ) nach Anspruch 27, das ferner umfasst: eine Benutzerstation (104 ) mit einer Anzeige (114 ) und einer Eingabevorrichtung (116 ) zum Vorsehen von Benutzerrückmeldungsinformationen in Reaktion auf Klassifikationen, die vom Objektklassifikationsmodul (210 ) durchgeführt werden, wobei das Kalibrierungsmodul betriebsfähig ist, um die Benutzerrückmeldungsinformationen zu verwenden, um die repräsentativen Größen zu aktualisieren. - Kamerasystem (
100 ) nach Anspruch 27, wobei das Objektklassifikationsmodul (210 ) betriebsfähig ist, um Kalibrierungsinformationen vom Kalibrierungsmodul zu verwenden, um die Objektdetektions- und Objektklassifikationsgenauigkeit zu verbessern. - Kamerasystem (
100 ) nach Anspruch 27, das ferner umfasst: ein Geschwindigkeitsabschätzungsmodul, das mit dem Kalibrierungsmodul verbunden ist und betriebsfähig ist, um Geschwindigkeiten von klassifizierten Objekten, die sich in verschiedenen Bereichen des Blickfeldes befinden, abzuschätzen. - Kamerasystem (
100 ) nach Anspruch 27, wobei das Objektklassifikationsmodul (210 ) betriebsfähig ist, um Objekte zu detektieren und zu klassifizieren, ohne eine anfängliche manuelle Kalibrierung zu erfordern. - Kamerasystem (
100 ) nach Anspruch 27, wobei das Objektklassifikationsmodul (210 ) ein Kantenorientierungshistogramm eines Objekts konstruiert. - Kamerasystem (
100 ) nach Anspruch 33, wobei das Objektklassifikationsmodul (210 ) ein steuerbares Filter umfasst, das das Kantenorientierungshistogramm erzeugt. - Verfahren (
1700 ) zum automatischen Kalibrieren eines am Einsatzort aufgestellten Kamerasystems (100 ), wobei das Verfahren umfasst: Erfassen von mehreren Bildern eines Blickfeldes des Kamerasystems (100 ), wobei die mehreren Bilder einer Bildebene des Kamerasystems (100 ), auf die das Blickfeld projiziert wird, entsprechen; Detektieren eines ersten Objekts in den mehreren Bildern, wobei das erste Objekt an verschiedenen Stellen der Bildebene in den mehreren Bildern detektiert wird, und Bilder des ersten Objekts verschiedene Größen aufweisen, die den verschiedenen Stellen entsprechen; Klassifizieren des ersten Objekts als erstes Mitglied einer Objektklasse; Berechnen eines Parameters einer Größenfunktion für die Bildebene auf der Basis der verschiedenen Größen des ersten Objekts, wobei die Größenfunktion verwendet wird, um repräsentative Größen der Objektklasse für die Bildebene abzuschätzen; und Aktualisieren (1740 ) des Parameters der Größenfunktion in Reaktion auf die Detektion und Klassifikation eines zweiten Mitglieds der Objektklasse, wobei das zweite Mitglied während des Live-Betriebs des Kamerasystems (100 ) detektiert und klassifiziert wird. - Verfahren (
1700 ) nach Anspruch 35, wobei das erste Mitglied der Objektklasse und das zweite Mitglied der Objektkasse beide dem ersten Objekt entsprechen. - Verfahren (
1700 ) nach Anspruch 35, wobei das zweite Mitglied der Objektklasse einem zweiten Objekt, das vom ersten Objekt verschieden ist, entspricht. - Verfahren (
1700 ) nach Anspruch 35, wobei die Klassifikation des zweiten Mitglieds der Objektklasse einen Vertrauensparameter erzeugt, der ein Maß des Vertrauens darstellt, dass das zweite Objekt ein Mitglied der Objektklasse ist, und wobei der Aktualisierungsschritt nur dann durchgeführt wird, wenn der Vertrauensparameter ein hohes Vertrauen angibt, dass die Klassifikation korrekt ist. - Verfahren zum Modifizieren eines Objektklassifikationsmoduls (
210 ), das von einem Benutzer in einem am Einsatzort aufgestellten Kamerasystem (100 ) verwendet wird, wobei das Verfahren umfasst: Erfassen von mehreren Bildern eines Blickfeldes des Kamerasystems (100 ), wobei die mehreren Bilder Darstellungen von mehreren Objekten umfassen, wobei ein erster Satz der mehreren Objekte Mitglieder einer Objektklasse sind und ein zweiter Satz der mehreren Objekte nicht Mitglieder der Objektklasse sind; Klassifizieren der mehreren Objekte als entweder Mitglieder oder Nicht-Mitglieder der Objektklasse, wobei das Objektklassifikationsmodul (210 ) ein oder mehrere irrtümliche Klassifikationen erzeugt; Erzeugen von Fehlermetadaten auf der Basis einer Bestätigung vom Benutzer von zumindest einigen der einen oder mehreren irrtümlichen Klassifikationen; und Modifizieren des Objektklassifikationsmoduls (210 ) auf der Basis der Fehlermetadaten, um eine Anzahl von irrtümlichen Klassifikationen zu verringern, wobei die Modifikation automatisch während der Verwendung des Kamerasystems (100 ) am Einsatzort durchgeführt wird. - Verfahren nach Anspruch 39, wobei das Objektklassifikationsmodul (
210 ) anfänglich N Entscheidungsschritte (400 ) umfasst, die in einer Kaskadenkonfiguration konfiguriert sind, und wobei der Modifikationsschritt das Konstruieren eines zusätzlichen Schritts (1110 ,1120 ) von den Fehlermetadaten umfasst, um ihn zu den N Entscheidungsschritten (400 ) des Objektklassifikationsmoduls (210 ) hinzuzufügen, wodurch sich ein Objektklassifikationsmodul (210 ) mit N + 1 Schritten (400 ) ergibt. - Verfahren nach Anspruch 39, wobei die irrtümlichen Klassifikationen Fehlalarme sind, die Fälle darstellen, in denen das Objektklassifikationsmodul (
210 ) Objekte des zweiten Satzes als Mitglieder der Objektklasse klassifiziert. - Verfahren nach Anspruch 39, das ferner umfasst: Anzeigen von Darstellungen der irrtümlichen Klassifikationen auf einer Anzeige (
114 ) für die Bestätigung durch den Benutzer. - Verfahren nach Anspruch 39, wobei das Objektklassifikationsmodul (
210 ) vor der Durchführung des Modifikationsschritts einen eingesetzten Klassifikator darstellt und das Objektklassifikationsmodul (210 ) nach der Durchführung des Modifikationsschritts einen spezialisierten Klassifikator (1130 ,1140 ) darstellt, wobei das Verfahren ferner das Überprüfen des spezialisierten Klassifikators (1130 ,1140 ) umfasst. - Verfahren nach Anspruch 43, wobei der Überprüfungsschritt eine passive Überprüfung (
1300 ) des spezialisierten Klassifikators umfasst, wobei die passive Überprüfung umfasst: Klassifizieren von Objekten mit dem spezialisierten Klassifikator (1130 ,1140 ); Klassifizieren der Objekte mit dem eingesetzten Klassifikator, wobei der eingesetzte Klassifikator Fehlalarme und echte Alarme erzeugt; Darstellen (1302 ) der Fehlalarme und echten Alarme für einen Benutzer zur Bestätigung; Erzeugen (1310 ) von Rückmeldungsinformationen auf der Basis der Benutzerbestätigung der Fehlalarme und echten Alarme; und Vergleichen (1350 ) der Klassifikationen des spezialisierten Klassifikators (1130 ,1140 ) mit den Rückmeldungsinformationen. - Verfahren nach Anspruch 43, wobei der Überprüfungsschritt eine aktive Überprüfung (
1400 ) des spezialisierten Klassifikators (1130 ,1140 ) umfasst, wobei die aktive Überprüfung umfasst: Klassifizieren der Objekte mit dem eingesetzten Klassifikator; Klassifizieren von Objekten mit dem spezialisierten Klassifikator (1130 ,1140 ), wobei einige der Klassifikationen des spezialisierten Klassifikators mit den Klassifikationen des eingesetzten Klassifikators inkonsistent sind; und Präsentieren von Darstellungen der inkonsistenten Klassifikationen des spezialisierten Klassifikators (1130 ,1140 ) für einen Benutzer zur Überprüfung. - Verfahren nach Anspruch 39, wobei das Kamerasystem (
100 ) mehrere Bilderfassungsvorrichtungen (102 ) mit verschiedenen Blickfeldern umfasst, wobei das Blickfeld des Kamerasystems (100 ) den verschiedenen Blickfeldern der Bilderfassungsvorrichtungen (102 ) entspricht, und der Modifikationsschritt einen Ortsspezialisierungsschritt (1110 ,1120 ) darstellt. - Verfahren nach Anspruch 46, wobei der Modifikationsschritt einen Kameraspezialisierungsschritt (
11100 ,1120 ) für eine der mehreren Bilderfassungsvorrichtungen (102 ) darstellt. - Verfahren nach Anspruch 39, wobei das Kamerasystem (
100 ) mit einem zentralen Rückmeldungsserver über ein Netzwerk verbunden ist, wobei das Verfahren ferner umfasst: Übertragen der Fehlermetadaten zum zentralen Rückmeldungsserver, wo die Fehlermetadaten zum Trainieren anderer Objektklassifikatoren verwendet werden. - Verfahren nach Anspruch 48, wobei das Kamerasystem (
100 ) an einem Ort aufgestellt wird, wobei das Verfahren ferner umfasst: Übertragen einer Leistungsstatistik des Objektklassifikationsmoduls (210 ) zum zentralen Rückmeldungsserver; und Übertragen von Informationen, die den Ort darstellen, an dem das Kamerasystem (100 ) aufgestellt ist, zum zentralen Rückmeldungsserver. - Kamerasystem (
100 ) mit: einer Bilderfassungsvorrichtung (102 ) mit einem Blickfeld, die Bilddaten erzeugt, die Bilder des Blickfeldes darstellen; einem Objektklassifikationsmodul (210 ), das mit der Bilderfassungsvorrichtung (102 ) verbunden ist, wobei das Objektklassifikationsmodul (210 ) betriebsfähig ist, um festzustellen, ob Objekte in den Bildern Mitglieder einer Objektklasse sind oder nicht, wobei das Objektklassifikationsmodul (210 ) irrtümliche Klassifikationen erzeugt; einer Benutzerstation (104 ), die mit der Bilderfassungsvorrichtung (102 ) verbunden ist und eine Anzeige (114 ) zum Darstellen von Bildern des Blickfeldes für einen Benutzer aufweist, wobei die Benutzerstation (104 ) betriebsfähig ist, um Darstellungen der irrtümlichen Klassifikationen, die vom Objektklassifikationsmodul (210 ) erzeugt werden, auf der Anzeige (114 ) darzustellen, wobei die Benutzerstation (104 ) betriebsfähig ist, um Benutzerrückmeldungsinformationen in Reaktion auf eine Benutzerbestätigung der irrtümlichen Klassifikationen zu erzeugen, wobei die Benutzerrückmeldung Fehlermetadaten erzeugt; und einem Klassifikatorentwicklungsmodul, das die Fehlermetadaten empfängt und betriebsfähig ist, um das Objektklassifikationsmodul (210 ) unter Verwendung der Fehlermetadaten zu modifizieren, um die Anzahl von irrtümlichen Klassifikationen zu verringern, wobei das Klassifikatorentwicklungsmodul dadurch einen spezialisierten Klassifikator erzeugt. - Kamerasystem (
100 ) nach Anspruch 50, das ferner umfasst: ein Objektdetektionsmodul (204 ), das mit der Bilderfassungsvorrichtung (102 ) und mit dem Objektkmassifikationsmodul (210 ) verbunden ist, wobei das Objektdetektionsmodul (204 ) die Bilddaten empfängt, wobei das Objektdetektionsmodul (204 ) betriebsfähig ist, um zu detektieren, ob sich Objekte im Blickfeld der Bilderfassungsvorrichtung (102 ) befinden oder nicht. - Kamerasystem (
100 ) nach Anspruch 50, wobei das Objektklassifikationsmodul (210 ) N Entscheidungsschritte (400 ) umfasst, die in einer Kaskadenkonfiguration konfiguriert sind, und wobei der spezialisierte Klassifikator die N Entscheidungsschritte (400 ) und einen zusätzlichen Schritt (400 ) umfasst, der auf der Basis der Fehlermetadaten konstruiert ist, wodurch sich ein spezialisierter Klassifikator mit N + 1 Schritten (400 ) ergibt. - Kamerasystem (
100 ) nach Anspruch 50, wobei die irrtümlichen Klassifikationen Fehlalarme umfassen, die Fälle darstellen, in denen das Objektklassifikationsmodul (210 ) Objekte fälschlich als Mitglieder der Objektklasse klassifiziert. - Kamerasystem (
100 ) nach Anspruch 50, wobei das Klassifikatorentwicklungsmodul entfernt von der Bilderfassungsvorrichtung (102 ), vom Objektklassifikationsmodul (210 ) und von der Benutzerstation (104 ) angeordnet ist. - Kamerasystem (
100 ) nach Anspruch 50, wobei die Bilderfassungsvorrichtung (102 ), das Objektklassifikationsmodul (210 ), die Benutzerstation (104 ) und das Klassifikatorentwicklungsmodul gemeinsam an einem gleichen Ort angeordnet sind. - Verfahren zum Konstruieren eines neuen Objektklassifikationsmoduls (
210 ) zur Verwendung in einem am Einsatzort aufgestellten Kamerasystem (100 ), wobei das neue Objektklassifikationsmodul (210 ) zum Klassifizieren von Objekten als Mitglieder oder Nicht-Mitglieder einer neuen Objektklasse, die durch einen Benutzer ausgewählt wird, dient, wobei das Verfahren umfasst: Erfassen von mehreren Bildern eines Blickfeldes des Kamerasystems (100 ), wobei die mehreren Bilder Darstellungen von mehreren Objekten enthalten, wobei ein erster Satz der mehreren Objekte Mitglieder der neuen Objektklasse sind und ein zweiter Satz der mehreren Objekte nicht Mitglieder der neuen Objektklasse sind; Verwenden eines eingesetzten Objektklassifikationsmoduls (210 ), um die mehreren Objekte als Mitglieder einer eingesetzten Objektklasse zu klassifizieren; Präsentieren von Darstellungen der mehreren Objekte, die durch das eingesetzte Objektklassifikationsmodul (210 ) klassifiziert werden, auf einer Anzeige (114 ), wobei ein Benutzer die mehreren Objekte als entweder Mitglieder oder Nicht-Mitglieder der neuen Objektklasse bezeichnet; Erzeugen von Metadaten auf der Basis der Bezeichnungen; und Konstruieren des neuen Objektklassifikationsmoduls (210 ) durch Modifizieren des eingesetzten Objektklassifikationsmoduls (210 ) auf der Basis der Metadaten. - Verfahren nach Anspruch 56, das ferner umfasst: Überprüfen des neuen Objektklassifikationsmoduls (
210 ). - Verfahren nach Anspruch 56, wobei die neue Objektklasse eine Unterklasse der eingesetzten Objektklasse ist.
- Verfahren nach Anspruch 56, wobei die neue Objektklasse Objekte darstellt, deren Klassifikation unbekannt ist.
- Verfahren nach Anspruch 56, wobei das eingesetzte Objektklassifikationsmodul (
210 ) N Entscheidungsschritte (400 ) umfasst, die in einer Kaskadenkonfiguration konfiguriert sind, und wobei das neue Objektklassifikationsmodul (210 ) die N Entscheidungsschritte (400 ) des eingesetzten Objektklassifikationsmoduls (210 ) und einen zusätzlichen Schritt (400 ) umfasst, der durch die Metadaten trainiert wird, um Mitglieder der eingesetzten Objektklasse als entweder Mitglieder oder Nicht-Mitglieder der neuen Objektklasse zu klassifizieren, wodurch sich das neue Objektklassifikationsmodul (210 ) mit N + 1 Schritten (400 ) ergibt.
Applications Claiming Priority (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US3328408P | 2008-03-03 | 2008-03-03 | |
US3334908P | 2008-03-03 | 2008-03-03 | |
US61/033,349 | 2008-03-03 | ||
US61/033,284 | 2008-03-03 | ||
PCT/US2009/035916 WO2009111499A2 (en) | 2008-03-03 | 2009-03-03 | Dynamic object classification |
Publications (1)
Publication Number | Publication Date |
---|---|
DE112009000480T5 true DE112009000480T5 (de) | 2011-04-07 |
Family
ID=41056612
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE112009000485T Pending DE112009000485T5 (de) | 2008-03-03 | 2009-03-03 | Objektvergleich für Verfolgung, Indizierung und Suche |
DE112009000480T Pending DE112009000480T5 (de) | 2008-03-03 | 2009-03-03 | Dynamische Objektklassifikation |
Family Applications Before (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE112009000485T Pending DE112009000485T5 (de) | 2008-03-03 | 2009-03-03 | Objektvergleich für Verfolgung, Indizierung und Suche |
Country Status (7)
Country | Link |
---|---|
US (14) | US8224029B2 (de) |
KR (3) | KR101607224B1 (de) |
CN (3) | CN101965576B (de) |
DE (2) | DE112009000485T5 (de) |
GB (6) | GB2492247B (de) |
TW (4) | TWI489394B (de) |
WO (2) | WO2009111498A2 (de) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102019207700A1 (de) * | 2019-05-27 | 2020-12-03 | Zf Friedrichshafen Ag | Klassifikationsvorrichtung zur Objektdetektion in Umfeldsensordaten und Verfahren |
Families Citing this family (605)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8711217B2 (en) | 2000-10-24 | 2014-04-29 | Objectvideo, Inc. | Video surveillance system employing video primitives |
US8564661B2 (en) | 2000-10-24 | 2013-10-22 | Objectvideo, Inc. | Video analytic rule detection system and method |
US9892606B2 (en) | 2001-11-15 | 2018-02-13 | Avigilon Fortress Corporation | Video surveillance system employing video primitives |
US7424175B2 (en) | 2001-03-23 | 2008-09-09 | Objectvideo, Inc. | Video segmentation using statistical pixel modeling |
US10271017B2 (en) | 2012-09-13 | 2019-04-23 | General Electric Company | System and method for generating an activity summary of a person |
US20160321253A1 (en) | 2005-10-26 | 2016-11-03 | Cortica, Ltd. | System and method for providing recommendations based on user profiles |
US10180942B2 (en) | 2005-10-26 | 2019-01-15 | Cortica Ltd. | System and method for generation of concept structures based on sub-concepts |
US9646005B2 (en) | 2005-10-26 | 2017-05-09 | Cortica, Ltd. | System and method for creating a database of multimedia content elements assigned to users |
US10607355B2 (en) | 2005-10-26 | 2020-03-31 | Cortica, Ltd. | Method and system for determining the dimensions of an object shown in a multimedia content item |
US10698939B2 (en) | 2005-10-26 | 2020-06-30 | Cortica Ltd | System and method for customizing images |
US9477658B2 (en) | 2005-10-26 | 2016-10-25 | Cortica, Ltd. | Systems and method for speech to speech translation using cores of a natural liquid architecture system |
US10387914B2 (en) | 2005-10-26 | 2019-08-20 | Cortica, Ltd. | Method for identification of multimedia content elements and adding advertising content respective thereof |
US10848590B2 (en) | 2005-10-26 | 2020-11-24 | Cortica Ltd | System and method for determining a contextual insight and providing recommendations based thereon |
US9384196B2 (en) | 2005-10-26 | 2016-07-05 | Cortica, Ltd. | Signature generation for multimedia deep-content-classification by a large-scale matching system and method thereof |
US9031999B2 (en) | 2005-10-26 | 2015-05-12 | Cortica, Ltd. | System and methods for generation of a concept based database |
US9218606B2 (en) | 2005-10-26 | 2015-12-22 | Cortica, Ltd. | System and method for brand monitoring and trend analysis based on deep-content-classification |
US10380267B2 (en) | 2005-10-26 | 2019-08-13 | Cortica, Ltd. | System and method for tagging multimedia content elements |
US10614626B2 (en) | 2005-10-26 | 2020-04-07 | Cortica Ltd. | System and method for providing augmented reality challenges |
US10360253B2 (en) | 2005-10-26 | 2019-07-23 | Cortica, Ltd. | Systems and methods for generation of searchable structures respective of multimedia data content |
US10380623B2 (en) | 2005-10-26 | 2019-08-13 | Cortica, Ltd. | System and method for generating an advertisement effectiveness performance score |
US9639532B2 (en) | 2005-10-26 | 2017-05-02 | Cortica, Ltd. | Context-based analysis of multimedia content items using signatures of multimedia elements and matching concepts |
US8312031B2 (en) | 2005-10-26 | 2012-11-13 | Cortica Ltd. | System and method for generation of complex signatures for multimedia data content |
US11032017B2 (en) | 2005-10-26 | 2021-06-08 | Cortica, Ltd. | System and method for identifying the context of multimedia content elements |
US11003706B2 (en) | 2005-10-26 | 2021-05-11 | Cortica Ltd | System and methods for determining access permissions on personalized clusters of multimedia content elements |
US9466068B2 (en) | 2005-10-26 | 2016-10-11 | Cortica, Ltd. | System and method for determining a pupillary response to a multimedia data element |
US10585934B2 (en) | 2005-10-26 | 2020-03-10 | Cortica Ltd. | Method and system for populating a concept database with respect to user identifiers |
US9529984B2 (en) | 2005-10-26 | 2016-12-27 | Cortica, Ltd. | System and method for verification of user identification based on multimedia content elements |
US9767143B2 (en) | 2005-10-26 | 2017-09-19 | Cortica, Ltd. | System and method for caching of concept structures |
US10372746B2 (en) | 2005-10-26 | 2019-08-06 | Cortica, Ltd. | System and method for searching applications using multimedia content elements |
US9372940B2 (en) | 2005-10-26 | 2016-06-21 | Cortica, Ltd. | Apparatus and method for determining user attention using a deep-content-classification (DCC) system |
US10193990B2 (en) | 2005-10-26 | 2019-01-29 | Cortica Ltd. | System and method for creating user profiles based on multimedia content |
US11386139B2 (en) | 2005-10-26 | 2022-07-12 | Cortica Ltd. | System and method for generating analytics for entities depicted in multimedia content |
US20140093844A1 (en) * | 2005-10-26 | 2014-04-03 | Cortica, Ltd. | Method for identification of food ingredients in multimedia content |
US10776585B2 (en) | 2005-10-26 | 2020-09-15 | Cortica, Ltd. | System and method for recognizing characters in multimedia content |
US8266185B2 (en) | 2005-10-26 | 2012-09-11 | Cortica Ltd. | System and methods thereof for generation of searchable structures respective of multimedia data content |
US10691642B2 (en) | 2005-10-26 | 2020-06-23 | Cortica Ltd | System and method for enriching a concept database with homogenous concepts |
US8326775B2 (en) | 2005-10-26 | 2012-12-04 | Cortica Ltd. | Signature generation for multimedia deep-content-classification by a large-scale matching system and method thereof |
US10949773B2 (en) | 2005-10-26 | 2021-03-16 | Cortica, Ltd. | System and methods thereof for recommending tags for multimedia content elements based on context |
US11604847B2 (en) | 2005-10-26 | 2023-03-14 | Cortica Ltd. | System and method for overlaying content on a multimedia content element based on user interest |
US11216498B2 (en) | 2005-10-26 | 2022-01-04 | Cortica, Ltd. | System and method for generating signatures to three-dimensional multimedia data elements |
US9953032B2 (en) | 2005-10-26 | 2018-04-24 | Cortica, Ltd. | System and method for characterization of multimedia content signals using cores of a natural liquid architecture system |
US11620327B2 (en) | 2005-10-26 | 2023-04-04 | Cortica Ltd | System and method for determining a contextual insight and generating an interface with recommendations based thereon |
US10621988B2 (en) | 2005-10-26 | 2020-04-14 | Cortica Ltd | System and method for speech to text translation using cores of a natural liquid architecture system |
US9558449B2 (en) | 2005-10-26 | 2017-01-31 | Cortica, Ltd. | System and method for identifying a target area in a multimedia content element |
US10635640B2 (en) | 2005-10-26 | 2020-04-28 | Cortica, Ltd. | System and method for enriching a concept database |
US10742340B2 (en) | 2005-10-26 | 2020-08-11 | Cortica Ltd. | System and method for identifying the context of multimedia content elements displayed in a web-page and providing contextual filters respective thereto |
US11403336B2 (en) | 2005-10-26 | 2022-08-02 | Cortica Ltd. | System and method for removing contextually identical multimedia content elements |
US10535192B2 (en) | 2005-10-26 | 2020-01-14 | Cortica Ltd. | System and method for generating a customized augmented reality environment to a user |
US9191626B2 (en) | 2005-10-26 | 2015-11-17 | Cortica, Ltd. | System and methods thereof for visual analysis of an image on a web-page and matching an advertisement thereto |
US11019161B2 (en) | 2005-10-26 | 2021-05-25 | Cortica, Ltd. | System and method for profiling users interest based on multimedia content analysis |
US10191976B2 (en) | 2005-10-26 | 2019-01-29 | Cortica, Ltd. | System and method of detecting common patterns within unstructured data elements retrieved from big data sources |
US11361014B2 (en) | 2005-10-26 | 2022-06-14 | Cortica Ltd. | System and method for completing a user profile |
US8818916B2 (en) | 2005-10-26 | 2014-08-26 | Cortica, Ltd. | System and method for linking multimedia data elements to web pages |
US9489431B2 (en) | 2005-10-26 | 2016-11-08 | Cortica, Ltd. | System and method for distributed search-by-content |
US10380164B2 (en) | 2005-10-26 | 2019-08-13 | Cortica, Ltd. | System and method for using on-image gestures and multimedia content elements as search queries |
EP2013817A2 (de) | 2006-04-17 | 2009-01-14 | Objectvideo, Inc. | Videosegmentierung mittels statistischer pixelmodellierung |
US10733326B2 (en) | 2006-10-26 | 2020-08-04 | Cortica Ltd. | System and method for identification of inappropriate multimedia content |
TWI489394B (zh) | 2008-03-03 | 2015-06-21 | Videoiq Inc | 用於追蹤、索引及搜尋之物件匹配 |
JP5141317B2 (ja) * | 2008-03-14 | 2013-02-13 | オムロン株式会社 | 対象画像検出デバイス、制御プログラム、および該プログラムを記録した記録媒体、ならびに対象画像検出デバイスを備えた電子機器 |
US11792538B2 (en) | 2008-05-20 | 2023-10-17 | Adeia Imaging Llc | Capturing and processing of images including occlusions focused on an image sensor by a lens stack array |
US8866920B2 (en) | 2008-05-20 | 2014-10-21 | Pelican Imaging Corporation | Capturing and processing of images using monolithic camera array with heterogeneous imagers |
US8902321B2 (en) | 2008-05-20 | 2014-12-02 | Pelican Imaging Corporation | Capturing and processing of images using monolithic camera array with heterogeneous imagers |
EP2288520B1 (de) * | 2008-06-25 | 2014-09-24 | Autoliv Development AB | Vorrichtung zum erfassen von objekten in der nähe eines fahrzeugs |
US8855360B2 (en) * | 2008-07-23 | 2014-10-07 | Qualcomm Technologies, Inc. | System and method for face tracking |
US9633275B2 (en) * | 2008-09-11 | 2017-04-25 | Wesley Kenneth Cobb | Pixel-level based micro-feature extraction |
US8433175B2 (en) * | 2008-10-28 | 2013-04-30 | Yahoo! Inc. | Video comparing using fingerprint representations |
US8004576B2 (en) | 2008-10-31 | 2011-08-23 | Digimarc Corporation | Histogram methods and systems for object recognition |
JP5279517B2 (ja) * | 2009-01-09 | 2013-09-04 | キヤノン株式会社 | 物体検知装置及び物体検知方法 |
DE102009000173A1 (de) * | 2009-01-13 | 2010-07-15 | Robert Bosch Gmbh | Vorrichtung zum Zählen von Objekten, Verfahren sowie Computerprogramm |
US8812226B2 (en) * | 2009-01-26 | 2014-08-19 | GM Global Technology Operations LLC | Multiobject fusion module for collision preparation system |
US8494909B2 (en) * | 2009-02-09 | 2013-07-23 | Datalogic ADC, Inc. | Automatic learning in a merchandise checkout system with visual recognition |
US20100306067A1 (en) * | 2009-05-30 | 2010-12-02 | Richard Hui | Automated sell system |
TWI401473B (zh) * | 2009-06-12 | 2013-07-11 | Chung Shan Inst Of Science | 影像式夜間行人偵測系統及方法 |
KR101404208B1 (ko) * | 2009-09-29 | 2014-06-11 | 인텔 코오퍼레이션 | 이질적 컨텐트 소스들의 링크 |
WO2011041904A1 (en) | 2009-10-07 | 2011-04-14 | Telewatch Inc. | Video analytics method and system |
US9788017B2 (en) | 2009-10-07 | 2017-10-10 | Robert Laganiere | Video analytics with pre-processing at the source end |
US9984203B2 (en) | 2009-10-14 | 2018-05-29 | Trice Imaging, Inc. | Systems and methods for converting and delivering medical images to mobile devices and remote communications systems |
US9712498B2 (en) | 2009-10-14 | 2017-07-18 | Trice Imaging, Inc. | Systems and devices for encrypting, converting and interacting with medical images |
US11948678B2 (en) * | 2009-10-14 | 2024-04-02 | Trice Imaging, Inc. | Systems and devices for encrypting, converting and interacting with medical images |
US11206245B2 (en) * | 2009-10-14 | 2021-12-21 | Trice Imaging, Inc. | Systems and devices for encrypting, converting and interacting with medical images |
US11462314B2 (en) | 2009-10-14 | 2022-10-04 | Trice Imaging, Inc. | Systems and devices for encrypting, converting and interacting with medical images |
JP5385752B2 (ja) * | 2009-10-20 | 2014-01-08 | キヤノン株式会社 | 画像認識装置、その処理方法及びプログラム |
JP5740574B2 (ja) * | 2009-11-04 | 2015-06-24 | パナソニックIpマネジメント株式会社 | 情報分類装置、情報分類方法およびそのプログラム |
WO2011063347A2 (en) | 2009-11-20 | 2011-05-26 | Pelican Imaging Corporation | Capturing and processing of images using monolithic camera array with heterogeneous imagers |
AU2009243528B2 (en) | 2009-12-04 | 2013-08-01 | Canon Kabushiki Kaisha | Location-based signature selection for multi-camera object tracking |
DE102009055127A1 (de) * | 2009-12-22 | 2011-06-30 | Robert Bosch GmbH, 70469 | Vorrichtung und Verfahren zum Überwachen von Videoobjekten |
US20110182497A1 (en) * | 2010-01-22 | 2011-07-28 | Aricent Inc. | Cascade structure for classifying objects in an image |
KR101434768B1 (ko) * | 2010-02-19 | 2014-08-27 | 가부시끼가이샤 도시바 | 이동 물체 추적 시스템 및 이동 물체 추적 방법 |
US9082278B2 (en) * | 2010-03-19 | 2015-07-14 | University-Industry Cooperation Group Of Kyung Hee University | Surveillance system |
TW201136315A (en) * | 2010-04-13 | 2011-10-16 | Hon Hai Prec Ind Co Ltd | Monitoring system and method |
US8909950B1 (en) | 2010-04-18 | 2014-12-09 | Aptima, Inc. | Systems and methods of power management |
US20110264530A1 (en) | 2010-04-23 | 2011-10-27 | Bryan Santangelo | Apparatus and methods for dynamic secondary content and data insertion and delivery |
US9143739B2 (en) | 2010-05-07 | 2015-09-22 | Iwatchlife, Inc. | Video analytics with burst-like transmission of video data |
SG10201503516VA (en) | 2010-05-12 | 2015-06-29 | Pelican Imaging Corp | Architectures for imager arrays and array cameras |
US9135514B2 (en) * | 2010-05-21 | 2015-09-15 | Qualcomm Incorporated | Real time tracking/detection of multiple targets |
NL2004829C2 (en) * | 2010-06-07 | 2011-12-08 | Univ Amsterdam | Method for automated categorization of human face images based on facial traits. |
TW201206192A (en) * | 2010-07-23 | 2012-02-01 | Hon Hai Prec Ind Co Ltd | Detection device and method |
US9020216B2 (en) | 2010-07-28 | 2015-04-28 | Varian Medical Systems, Inc. | Knowledge-based automatic image segmentation |
US8885007B2 (en) | 2010-08-04 | 2014-11-11 | Iwatchlife, Inc. | Method and system for initiating communication via a communication network |
CA2748065A1 (en) | 2010-08-04 | 2012-02-04 | Iwatchlife Inc. | Method and system for locating an individual |
US8860771B2 (en) | 2010-08-04 | 2014-10-14 | Iwatchlife, Inc. | Method and system for making video calls |
US8781152B2 (en) | 2010-08-05 | 2014-07-15 | Brian Momeyer | Identifying visual media content captured by camera-enabled mobile device |
US8615105B1 (en) * | 2010-08-31 | 2013-12-24 | The Boeing Company | Object tracking system |
US8824554B2 (en) * | 2010-09-02 | 2014-09-02 | Intersil Americas LLC | Systems and methods for video content analysis |
US10645344B2 (en) | 2010-09-10 | 2020-05-05 | Avigilion Analytics Corporation | Video system with intelligent visual display |
US9177259B1 (en) * | 2010-11-29 | 2015-11-03 | Aptima Inc. | Systems and methods for recognizing and reacting to spatiotemporal patterns |
US8498444B2 (en) | 2010-12-13 | 2013-07-30 | Texas Instruments Incorporated | Blob representation in video processing |
US8878950B2 (en) | 2010-12-14 | 2014-11-04 | Pelican Imaging Corporation | Systems and methods for synthesizing high resolution images using super-resolution processes |
US9615064B2 (en) * | 2010-12-30 | 2017-04-04 | Pelco, Inc. | Tracking moving objects using a camera network |
US9268996B1 (en) | 2011-01-20 | 2016-02-23 | Verint Systems Inc. | Evaluation of models generated from objects in video |
CN102622366B (zh) * | 2011-01-28 | 2014-07-30 | 阿里巴巴集团控股有限公司 | 相似图像的识别方法和装置 |
US8675953B1 (en) * | 2011-02-02 | 2014-03-18 | Intuit Inc. | Calculating an object size using images |
US8737688B2 (en) | 2011-02-10 | 2014-05-27 | William A. Murphy | Targeted content acquisition using image analysis |
US8600172B2 (en) | 2011-03-16 | 2013-12-03 | Sensormatic Electronics, LLC | Video based matching and tracking by analyzing one or more image abstractions |
US9785835B2 (en) * | 2011-03-22 | 2017-10-10 | Rochester Institute Of Technology | Methods for assisting with object recognition in image sequences and devices thereof |
EP2689362A1 (de) * | 2011-03-23 | 2014-01-29 | Hologic, Inc. | Verfahren zum automatischen platzieren von zuvor klassifizierten bildern unter bildern von zielobjekten einer probe |
US8724890B2 (en) * | 2011-04-06 | 2014-05-13 | GM Global Technology Operations LLC | Vision-based object detection by part-based feature synthesis |
US8588534B2 (en) | 2011-05-06 | 2013-11-19 | Microsoft Corporation | Staged element classification |
EP2708019B1 (de) | 2011-05-11 | 2019-10-16 | FotoNation Limited | Systeme und verfahren zum senden und empfangen von arraykamera-bilddaten |
CN102831385B (zh) * | 2011-06-13 | 2017-03-01 | 索尼公司 | 多相机监控网络中的目标识别设备和方法 |
DE102011105356A1 (de) * | 2011-06-22 | 2012-12-27 | Audi Ag | Verfahren zur Auslösung wenigstens einer irreversiblen Rückhalteeinrichtung eines Kraftfahrzeugs |
US20120328184A1 (en) * | 2011-06-22 | 2012-12-27 | Feng Tang | Optically characterizing objects |
US20130265459A1 (en) | 2011-06-28 | 2013-10-10 | Pelican Imaging Corporation | Optical arrangements for use with an array camera |
US8799201B2 (en) * | 2011-07-25 | 2014-08-05 | Toyota Motor Engineering & Manufacturing North America, Inc. | Method and system for tracking objects |
JP5848551B2 (ja) * | 2011-08-26 | 2016-01-27 | キヤノン株式会社 | 学習装置、学習装置の制御方法、検出装置、検出装置の制御方法、およびプログラム |
US11288472B2 (en) | 2011-08-30 | 2022-03-29 | Digimarc Corporation | Cart-based shopping arrangements employing probabilistic item identification |
US9367770B2 (en) | 2011-08-30 | 2016-06-14 | Digimarc Corporation | Methods and arrangements for identifying objects |
US10474858B2 (en) | 2011-08-30 | 2019-11-12 | Digimarc Corporation | Methods of identifying barcoded items by evaluating multiple identification hypotheses, based on data from sensors including inventory sensors and ceiling-mounted cameras |
WO2013043761A1 (en) | 2011-09-19 | 2013-03-28 | Pelican Imaging Corporation | Determining depth from multiple views of a scene that include aliasing using hypothesized fusion |
US8917913B2 (en) | 2011-09-22 | 2014-12-23 | International Business Machines Corporation | Searching with face recognition and social networking profiles |
KR101175597B1 (ko) * | 2011-09-27 | 2012-08-21 | (주)올라웍스 | 아다부스트 학습 알고리즘을 이용하여 얼굴 특징점 위치를 검출하기 위한 방법, 장치, 및 컴퓨터 판독 가능한 기록 매체 |
EP2761534B1 (de) | 2011-09-28 | 2020-11-18 | FotoNation Limited | Systeme zur kodierung von lichtfeldbilddateien |
US8908962B2 (en) | 2011-09-30 | 2014-12-09 | Ebay Inc. | Item recommendations using image feature data |
CN103959309B (zh) * | 2011-10-03 | 2017-09-12 | 惠普发展公司,有限责任合伙企业 | 用于伪造品确定的区域选择 |
WO2013074060A1 (en) * | 2011-11-14 | 2013-05-23 | Intel Corporation | Video analytic encoding |
EP2600109A3 (de) * | 2011-11-30 | 2015-03-25 | Sony Ericsson Mobile Communications AB | Verfahren zur Kalibrierung einer Sensoreinheit und diese umfassendes Zubehörteil |
US9342735B2 (en) | 2011-12-01 | 2016-05-17 | Finding Rover, Inc. | Facial recognition lost pet identifying system |
FR2983607B1 (fr) * | 2011-12-02 | 2014-01-17 | Morpho | Procede et dispositif de suivi d'un objet dans une sequence d'au moins deux images |
US8891907B2 (en) | 2011-12-06 | 2014-11-18 | Google Inc. | System and method of identifying visual objects |
EP2788839A4 (de) * | 2011-12-06 | 2015-12-16 | Thomson Licensing | Verfahren und system zum antworten auf benutzergesten zur auswahl von in drei dimensionen angezeigten objekten |
US10095954B1 (en) * | 2012-01-17 | 2018-10-09 | Verint Systems Ltd. | Trajectory matching across disjointed video views |
US9898682B1 (en) | 2012-01-22 | 2018-02-20 | Sr2 Group, Llc | System and method for tracking coherently structured feature dynamically defined within migratory medium |
US9917739B2 (en) | 2012-02-20 | 2018-03-13 | Aptima, Inc. | Systems and methods for network pattern matching |
WO2013126578A1 (en) | 2012-02-21 | 2013-08-29 | Pelican Imaging Corporation | Systems and methods for the manipulation of captured light field image data |
US8798325B2 (en) * | 2012-02-21 | 2014-08-05 | Xerox Corporation | Efficient and fault tolerant license plate matching method |
US8737745B2 (en) | 2012-03-27 | 2014-05-27 | The Nielsen Company (Us), Llc | Scene-based people metering for audience measurement |
US9185456B2 (en) * | 2012-03-27 | 2015-11-10 | The Nielsen Company (Us), Llc | Hybrid active and passive people metering for audience measurement |
TWI479431B (zh) * | 2012-04-03 | 2015-04-01 | Univ Chung Hua | 物件追蹤方法 |
US9210392B2 (en) | 2012-05-01 | 2015-12-08 | Pelican Imaging Coporation | Camera modules patterned with pi filter groups |
US9374399B1 (en) | 2012-05-22 | 2016-06-21 | Google Inc. | Social group suggestions within a social network |
US8688782B1 (en) * | 2012-05-22 | 2014-04-01 | Google Inc. | Social group suggestions within a social network |
WO2014005123A1 (en) | 2012-06-28 | 2014-01-03 | Pelican Imaging Corporation | Systems and methods for detecting defective camera arrays, optic arrays, and sensors |
US20140002674A1 (en) | 2012-06-30 | 2014-01-02 | Pelican Imaging Corporation | Systems and Methods for Manufacturing Camera Modules Using Active Alignment of Lens Stack Arrays and Sensors |
US9449259B1 (en) * | 2012-07-25 | 2016-09-20 | Hrl Laboratories, Llc | Opportunistic cascade and cascade training, evaluation, and execution for vision-based object detection |
WO2014021005A1 (ja) * | 2012-07-31 | 2014-02-06 | 日本電気株式会社 | 画像処理システム、画像処理方法及びプログラム |
CA2822217A1 (en) | 2012-08-02 | 2014-02-02 | Iwatchlife Inc. | Method and system for anonymous video analytics processing |
US9443414B2 (en) | 2012-08-07 | 2016-09-13 | Microsoft Technology Licensing, Llc | Object tracking |
DE102012107392B3 (de) * | 2012-08-13 | 2013-12-12 | Chui-Min Chiu | Rundum Sicherung für ein Kraftfahrzeug |
AU2013305770A1 (en) | 2012-08-21 | 2015-02-26 | Pelican Imaging Corporation | Systems and methods for parallax detection and correction in images captured using array cameras |
US20140055632A1 (en) | 2012-08-23 | 2014-02-27 | Pelican Imaging Corporation | Feature based high resolution motion estimation from low resolution images captured using an array source |
US9471838B2 (en) | 2012-09-05 | 2016-10-18 | Motorola Solutions, Inc. | Method, apparatus and system for performing facial recognition |
US9081466B2 (en) | 2012-09-10 | 2015-07-14 | Sap Se | Dynamic chart control that triggers dynamic contextual actions |
US10783584B1 (en) | 2012-09-10 | 2020-09-22 | Allstate Insurance Company | Recommendation of insurance products based on an inventory analysis |
WO2014041912A1 (ja) * | 2012-09-13 | 2014-03-20 | 日本電気株式会社 | 画像処理システム、画像処理方法及びプログラム |
US9256807B1 (en) * | 2012-09-27 | 2016-02-09 | Google Inc. | Generating labeled images |
EP4307659A1 (de) | 2012-09-28 | 2024-01-17 | Adeia Imaging LLC | Erzeugung von bildern aus lichtfeldern mithilfe virtueller blickpunkte |
JP2014071832A (ja) * | 2012-10-01 | 2014-04-21 | Toshiba Corp | 物体検出装置及びその検出方法 |
US20140098991A1 (en) * | 2012-10-10 | 2014-04-10 | PixArt Imaging Incorporation, R.O.C. | Game doll recognition system, recognition method and game system using the same |
US9727586B2 (en) * | 2012-10-10 | 2017-08-08 | Samsung Electronics Co., Ltd. | Incremental visual query processing with holistic feature feedback |
US9224184B2 (en) | 2012-10-21 | 2015-12-29 | Digimarc Corporation | Methods and arrangements for identifying objects |
US9489635B1 (en) * | 2012-11-01 | 2016-11-08 | Google Inc. | Methods and systems for vehicle perception feedback to classify data representative of types of objects and to request feedback regarding such classifications |
JP5936993B2 (ja) * | 2012-11-08 | 2016-06-22 | 東芝テック株式会社 | 商品認識装置及び商品認識プログラム |
WO2014078443A1 (en) | 2012-11-13 | 2014-05-22 | Pelican Imaging Corporation | Systems and methods for array camera focal plane control |
US9197861B2 (en) | 2012-11-15 | 2015-11-24 | Avo Usa Holding 2 Corporation | Multi-dimensional virtual beam detection for video analytics |
US9367733B2 (en) | 2012-11-21 | 2016-06-14 | Pelco, Inc. | Method and apparatus for detecting people by a surveillance system |
US10009579B2 (en) | 2012-11-21 | 2018-06-26 | Pelco, Inc. | Method and system for counting people using depth sensor |
DE102012223121A1 (de) * | 2012-12-13 | 2014-06-18 | Cassidian Optronics Gmbh | Verfahren zur Verfolgung wenigstens eines Objekts und Überwachungsvorrichtung |
US10509963B2 (en) | 2012-12-20 | 2019-12-17 | Microsoft Technology Licensing, Llc | Discovering authoritative images of people entities |
US8867789B2 (en) * | 2013-01-14 | 2014-10-21 | Cyberlink Corp. | Systems and methods for tracking an object in a video |
KR20140092211A (ko) * | 2013-01-15 | 2014-07-23 | 삼성전자주식회사 | 미디어 컨텐츠 재생 중에 가상 카메라 기능을 수행하는 방법 및 장치 |
US8874471B2 (en) * | 2013-01-29 | 2014-10-28 | Wal-Mart Stores, Inc. | Retail loss prevention using biometric data |
WO2014130849A1 (en) | 2013-02-21 | 2014-08-28 | Pelican Imaging Corporation | Generating compressed light field representation data |
US9374512B2 (en) | 2013-02-24 | 2016-06-21 | Pelican Imaging Corporation | Thin form factor computational array cameras and modular array cameras |
US10546204B1 (en) | 2013-03-05 | 2020-01-28 | Amazon Technologies, Inc. | Item information discovery with a wearable device |
WO2014138695A1 (en) | 2013-03-08 | 2014-09-12 | Pelican Imaging Corporation | Systems and methods for measuring scene information while capturing images using array cameras |
US8866912B2 (en) | 2013-03-10 | 2014-10-21 | Pelican Imaging Corporation | System and methods for calibration of an array camera using a single captured image |
IN2013CH01043A (de) | 2013-03-12 | 2015-08-14 | Yahoo Inc | |
WO2014164909A1 (en) | 2013-03-13 | 2014-10-09 | Pelican Imaging Corporation | Array camera architecture implementing quantum film sensors |
US9106784B2 (en) | 2013-03-13 | 2015-08-11 | Pelican Imaging Corporation | Systems and methods for controlling aliasing in images captured by an array camera for use in super-resolution processing |
US9124831B2 (en) | 2013-03-13 | 2015-09-01 | Pelican Imaging Corporation | System and methods for calibration of an array camera |
WO2014165244A1 (en) | 2013-03-13 | 2014-10-09 | Pelican Imaging Corporation | Systems and methods for synthesizing images from image data captured by an array camera using restricted depth of field depth maps in which depth estimation precision varies |
WO2014153098A1 (en) | 2013-03-14 | 2014-09-25 | Pelican Imaging Corporation | Photmetric normalization in array cameras |
WO2014159779A1 (en) | 2013-03-14 | 2014-10-02 | Pelican Imaging Corporation | Systems and methods for reducing motion blur in images or video in ultra low light with array cameras |
US10122993B2 (en) | 2013-03-15 | 2018-11-06 | Fotonation Limited | Autofocus system for a conventional camera that uses depth information from an array camera |
US11743431B2 (en) | 2013-03-15 | 2023-08-29 | James Carey | Video identification and analytical recognition system |
WO2014150856A1 (en) | 2013-03-15 | 2014-09-25 | Pelican Imaging Corporation | Array camera implementing quantum dot color filters |
US9438888B2 (en) | 2013-03-15 | 2016-09-06 | Pelican Imaging Corporation | Systems and methods for stereo imaging with camera arrays |
US9497429B2 (en) | 2013-03-15 | 2016-11-15 | Pelican Imaging Corporation | Extended color processing on pelican array cameras |
US9762865B2 (en) | 2013-03-15 | 2017-09-12 | James Carey | Video identification and analytical recognition system |
US11039108B2 (en) | 2013-03-15 | 2021-06-15 | James Carey | Video identification and analytical recognition system |
US9639747B2 (en) * | 2013-03-15 | 2017-05-02 | Pelco, Inc. | Online learning method for people detection and counting for retail stores |
US9445003B1 (en) | 2013-03-15 | 2016-09-13 | Pelican Imaging Corporation | Systems and methods for synthesizing high resolution images using image deconvolution based on motion and depth information |
JP6273685B2 (ja) * | 2013-03-27 | 2018-02-07 | パナソニックIpマネジメント株式会社 | 追尾処理装置及びこれを備えた追尾処理システム並びに追尾処理方法 |
US20140317078A1 (en) * | 2013-04-18 | 2014-10-23 | SkillPages Holdings Limited | Method and system for retrieving information |
WO2014172624A2 (en) | 2013-04-19 | 2014-10-23 | James Carey | Video identification and analytical recognition system |
US9471849B2 (en) * | 2013-05-05 | 2016-10-18 | Qognify Ltd. | System and method for suspect search |
CA2815161A1 (en) | 2013-05-06 | 2014-11-06 | Hydro-Quebec | Quantitative analysis of signal related measurements for trending and pattern recognition |
US10949804B2 (en) | 2013-05-24 | 2021-03-16 | Amazon Technologies, Inc. | Tote based item tracking |
US10860976B2 (en) | 2013-05-24 | 2020-12-08 | Amazon Technologies, Inc. | Inventory tracking |
US10984372B2 (en) | 2013-05-24 | 2021-04-20 | Amazon Technologies, Inc. | Inventory transitions |
US9542585B2 (en) * | 2013-06-06 | 2017-01-10 | Apple Inc. | Efficient machine-readable object detection and tracking |
US10268983B2 (en) * | 2013-06-26 | 2019-04-23 | Amazon Technologies, Inc. | Detecting item interaction and movement |
US10176513B1 (en) * | 2013-06-26 | 2019-01-08 | Amazon Technologies, Inc. | Using gestures and expressions to assist users |
US10176456B2 (en) * | 2013-06-26 | 2019-01-08 | Amazon Technologies, Inc. | Transitioning items from a materials handling facility |
US10296814B1 (en) | 2013-06-27 | 2019-05-21 | Amazon Technologies, Inc. | Automated and periodic updating of item images data store |
US9594983B2 (en) | 2013-08-02 | 2017-03-14 | Digimarc Corporation | Learning systems and methods |
US10353982B1 (en) | 2013-08-13 | 2019-07-16 | Amazon Technologies, Inc. | Disambiguating between users |
US9659033B2 (en) | 2013-08-19 | 2017-05-23 | Nant Holdings Ip, Llc | Metric based recognition, systems and methods |
US9454827B2 (en) | 2013-08-27 | 2016-09-27 | Qualcomm Incorporated | Systems, devices and methods for tracking objects on a display |
JP6253311B2 (ja) * | 2013-08-28 | 2017-12-27 | キヤノン株式会社 | 画像処理装置、画像処理方法 |
US10366306B1 (en) | 2013-09-19 | 2019-07-30 | Amazon Technologies, Inc. | Item identification among item variations |
US10664795B1 (en) | 2013-09-20 | 2020-05-26 | Amazon Technologies, Inc. | Weight based item tracking |
US10515309B1 (en) | 2013-09-20 | 2019-12-24 | Amazon Technologies, Inc. | Weight based assistance determination |
US10796358B1 (en) | 2013-09-24 | 2020-10-06 | Amazon Technologies, Inc. | Identifying companion gestures and behavior |
WO2015048694A2 (en) | 2013-09-27 | 2015-04-02 | Pelican Imaging Corporation | Systems and methods for depth-assisted perspective distortion correction |
WO2015070105A1 (en) | 2013-11-07 | 2015-05-14 | Pelican Imaging Corporation | Methods of manufacturing array camera modules incorporating independently aligned lens stacks |
KR102126868B1 (ko) * | 2013-11-15 | 2020-06-25 | 한화테크윈 주식회사 | 영상 처리 장치 및 방법 |
US10119808B2 (en) | 2013-11-18 | 2018-11-06 | Fotonation Limited | Systems and methods for estimating depth from projected texture using camera arrays |
US11615460B1 (en) | 2013-11-26 | 2023-03-28 | Amazon Technologies, Inc. | User path development |
WO2015081279A1 (en) | 2013-11-26 | 2015-06-04 | Pelican Imaging Corporation | Array camera configurations incorporating multiple constituent array cameras |
US10438259B1 (en) | 2013-12-09 | 2019-10-08 | Amazon Technologies, Inc. | Propagating and presenting user specific information |
US10510109B1 (en) | 2013-12-09 | 2019-12-17 | Amazon Technologies, Inc. | Controlling routing of output information to output devices |
US10319021B1 (en) | 2013-12-17 | 2019-06-11 | Amazon Technologies, Inc. | Notifying users of item expiration |
US10322881B1 (en) | 2013-12-17 | 2019-06-18 | Amazon Technologies, Inc. | Notifying users to provide picked items to a drop off location for processing |
EP2887258A1 (de) * | 2013-12-18 | 2015-06-24 | Microsoft Technology Licensing, LLC | Objektverfolgung |
US10929661B1 (en) * | 2013-12-19 | 2021-02-23 | Amazon Technologies, Inc. | System for user identification |
US9778817B2 (en) | 2013-12-31 | 2017-10-03 | Findo, Inc. | Tagging of images based on social network tags or comments |
US8886387B1 (en) | 2014-01-07 | 2014-11-11 | Google Inc. | Estimating multi-vehicle motion characteristics by finding stable reference points |
WO2015134996A1 (en) | 2014-03-07 | 2015-09-11 | Pelican Imaging Corporation | System and methods for depth regularization and semiautomatic interactive matting using rgb-d images |
KR102213867B1 (ko) * | 2014-03-12 | 2021-02-08 | 에스케이플래닛 주식회사 | 서비스 제공 장치와 사용자 장치, 그를 포함하는 단일 영상 기반의 분류 시스템, 그 제어 방법 및 컴퓨터 프로그램이 기록된 기록매체 |
US10366174B2 (en) | 2014-03-13 | 2019-07-30 | Ebay Inc. | Social fitting room experience utilizing interactive mirror and polling of target users experienced with garment type |
TWI505113B (zh) * | 2014-03-18 | 2015-10-21 | Vivotek Inc | 監視系統及其影像搜尋方法 |
US10040628B1 (en) | 2014-03-25 | 2018-08-07 | Amazon Technologies, Inc. | Item replacement assistance |
US10713614B1 (en) | 2014-03-25 | 2020-07-14 | Amazon Technologies, Inc. | Weight and vision based item tracking |
US10657411B1 (en) | 2014-03-25 | 2020-05-19 | Amazon Technologies, Inc. | Item identification |
US10332183B1 (en) | 2014-03-28 | 2019-06-25 | Amazon Technologies, Inc. | Fulfilling items to users |
US10163149B1 (en) | 2014-03-28 | 2018-12-25 | Amazon Technologies, Inc. | Providing item pick and place information to a user |
EP2933753A1 (de) | 2014-04-14 | 2015-10-21 | Sequeris | Verfahren und Vorrichtung zur Steuerung der von einem IT-System ausgeführten Aktionen |
US9412048B2 (en) | 2014-04-21 | 2016-08-09 | Haier Us Appliance Solutions, Inc. | Systems and methods for cookware detection |
US9449220B2 (en) * | 2014-04-21 | 2016-09-20 | Haier Us Appliance Solutions, Inc. | Systems and methods for cookware detection |
US9509960B2 (en) * | 2014-05-08 | 2016-11-29 | Verizon Patent And Licensing Inc. | Vehicle anomaly detection and reporting |
US20150339324A1 (en) * | 2014-05-20 | 2015-11-26 | Road Warriors International, Inc. | System and Method for Imagery Warehousing and Collaborative Search Processing |
US10037509B1 (en) | 2014-06-17 | 2018-07-31 | Amazon Technologies, Inc. | Efficient monitoring of inventory items |
US10410170B1 (en) | 2014-06-18 | 2019-09-10 | Amazon Technologies, Inc. | Propagating and expiring presentation information |
US9521319B2 (en) | 2014-06-18 | 2016-12-13 | Pelican Imaging Corporation | Array cameras and array camera modules including spectral filters disposed outside of a constituent image sensor |
US10303133B1 (en) | 2014-06-23 | 2019-05-28 | Amazon Technologies, Inc. | Presenting predicted items to users |
US10339493B1 (en) | 2014-06-24 | 2019-07-02 | Amazon Technologies, Inc. | Associating users with totes |
US11030541B1 (en) * | 2014-06-24 | 2021-06-08 | Amazon Technologies, Inc. | Proactive resolution of event information |
US9836655B2 (en) * | 2014-06-24 | 2017-12-05 | Nec Corporation | Information processing apparatus, information processing method, and computer-readable medium |
US10242393B1 (en) | 2014-06-24 | 2019-03-26 | Amazon Technologies, Inc. | Determine an item and user action in a materials handling facility |
US9420331B2 (en) | 2014-07-07 | 2016-08-16 | Google Inc. | Method and system for categorizing detected motion events |
US9501915B1 (en) | 2014-07-07 | 2016-11-22 | Google Inc. | Systems and methods for analyzing a video stream |
US10140827B2 (en) | 2014-07-07 | 2018-11-27 | Google Llc | Method and system for processing motion event notifications |
CN105323572A (zh) * | 2014-07-10 | 2016-02-10 | 坦亿有限公司 | 立体影像处理系统、装置与方法 |
US10609273B2 (en) * | 2014-07-31 | 2020-03-31 | Maxell, Ltd. | Image pickup device and method of tracking subject thereof |
US10176449B1 (en) | 2014-08-08 | 2019-01-08 | Amazon Technologies, Inc. | Timeout durations for radio frequency identification tags |
US10769579B1 (en) | 2014-09-08 | 2020-09-08 | Amazon Technologies, Inc. | Tote association |
KR20170063827A (ko) | 2014-09-29 | 2017-06-08 | 포토네이션 케이맨 리미티드 | 어레이 카메라들의 동적 교정을 위한 시스템들 및 방법들 |
US10268984B1 (en) | 2014-09-29 | 2019-04-23 | Amazon Technologies, Inc. | Inventory item release locations |
US11851279B1 (en) | 2014-09-30 | 2023-12-26 | Amazon Technologies, Inc. | Determining trends from materials handling facility information |
USD782495S1 (en) | 2014-10-07 | 2017-03-28 | Google Inc. | Display screen or portion thereof with graphical user interface |
DE102014221888A1 (de) * | 2014-10-28 | 2016-04-28 | Robert Bosch Gmbh | Verfahren und Vorrichtung zur Lokalisierung eines Fahrzeugs in seinem Umfeld |
US10217223B2 (en) | 2014-10-28 | 2019-02-26 | Hewlett-Packard Development Company, L.P. | Image data segmentation |
US10643174B1 (en) * | 2014-12-11 | 2020-05-05 | Amazon Technologies, Inc. | Dynamic item facing |
US9928708B2 (en) | 2014-12-12 | 2018-03-27 | Hawxeye, Inc. | Real-time video analysis for security surveillance |
JP6417917B2 (ja) * | 2014-12-15 | 2018-11-07 | カシオ計算機株式会社 | 商品登録装置、緊急通報方法及び緊急通報装置 |
US10671856B1 (en) | 2014-12-19 | 2020-06-02 | Amazon Technologies, Inc. | Detecting item actions and inventory changes at an inventory location |
US9791541B2 (en) * | 2014-12-19 | 2017-10-17 | The Boeing Company | System and method to improve object tracking using multiple tracking systems |
US10169660B1 (en) | 2014-12-19 | 2019-01-01 | Amazon Technologies, Inc. | Counting inventory items using image analysis |
US10169677B1 (en) | 2014-12-19 | 2019-01-01 | Amazon Technologies, Inc. | Counting stacked inventory using image analysis |
US9996818B1 (en) | 2014-12-19 | 2018-06-12 | Amazon Technologies, Inc. | Counting inventory items using image analysis and depth information |
US9940726B2 (en) | 2014-12-19 | 2018-04-10 | The Boeing Company | System and method to improve object tracking using tracking fingerprints |
US10438277B1 (en) | 2014-12-23 | 2019-10-08 | Amazon Technologies, Inc. | Determining an item involved in an event |
US10134004B1 (en) | 2014-12-23 | 2018-11-20 | Amazon Technologies, Inc. | Processing image data from a camera cluster |
US10108157B1 (en) | 2014-12-23 | 2018-10-23 | Amazon Technologies, Inc. | Reducing power consumption and data transmission |
US10291862B1 (en) | 2014-12-23 | 2019-05-14 | Amazon Technologies, Inc. | Camera hierarchy for monitoring large facilities |
US10552750B1 (en) | 2014-12-23 | 2020-02-04 | Amazon Technologies, Inc. | Disambiguating between multiple users |
US10475185B1 (en) | 2014-12-23 | 2019-11-12 | Amazon Technologies, Inc. | Associating a user with an event |
US10696454B1 (en) | 2014-12-26 | 2020-06-30 | Amazon Technologies, Inc. | Combination carrying device |
CN104537359B (zh) * | 2015-01-15 | 2019-02-15 | 浙江宇视科技有限公司 | 一种车辆目标检测方法及装置 |
KR102366522B1 (ko) * | 2015-02-09 | 2022-02-23 | 한화테크윈 주식회사 | 물체 검출 방법 및 이 방법을 채용한 감시 시스템 |
US10448692B2 (en) | 2015-03-06 | 2019-10-22 | Illinois Tool Works Inc. | Sensor assisted head mounted displays for welding |
EP3268949B1 (de) | 2015-03-09 | 2021-05-26 | Illinois Tool Works Inc. | Verfahren und vorrichtung zur bereitstellung visueller informationen in zusammenhang mit schweissvorgängen |
US10210464B2 (en) | 2015-03-11 | 2019-02-19 | Qualcomm Incorporated | Online training for object recognition system |
WO2016146847A1 (en) * | 2015-03-19 | 2016-09-22 | Idaso Limited | A method of analysing a multimedia file |
US11523090B2 (en) * | 2015-03-23 | 2022-12-06 | The Chamberlain Group Llc | Motion data extraction and vectorization |
US11205270B1 (en) | 2015-03-25 | 2021-12-21 | Amazon Technologies, Inc. | Collecting user pattern descriptors for use in tracking a movement of a user within a materials handling facility |
US10810539B1 (en) | 2015-03-25 | 2020-10-20 | Amazon Technologies, Inc. | Re-establishing tracking of a user within a materials handling facility |
US10586203B1 (en) | 2015-03-25 | 2020-03-10 | Amazon Technologies, Inc. | Segmenting a user pattern into descriptor regions for tracking and re-establishing tracking of a user within a materials handling facility |
US10679177B1 (en) | 2015-03-25 | 2020-06-09 | Amazon Technologies, Inc. | Using depth sensing cameras positioned overhead to detect and track a movement of a user within a materials handling facility |
US9977242B2 (en) | 2015-03-26 | 2018-05-22 | Illinois Tool Works Inc. | Control of mediated reality welding system based on lighting conditions |
US9666160B2 (en) * | 2015-03-26 | 2017-05-30 | Illinois Tool Works Inc. | Control of mediated reality welding system based on lighting conditions |
US11416805B1 (en) | 2015-04-06 | 2022-08-16 | Position Imaging, Inc. | Light-based guidance for package tracking systems |
US11501244B1 (en) | 2015-04-06 | 2022-11-15 | Position Imaging, Inc. | Package tracking systems and methods |
US9501707B2 (en) * | 2015-04-16 | 2016-11-22 | Xerox Corporation | Method and system for bootstrapping an OCR engine for license plate recognition |
US9942474B2 (en) | 2015-04-17 | 2018-04-10 | Fotonation Cayman Limited | Systems and methods for performing high speed video capture and depth estimation using array cameras |
US10043078B2 (en) * | 2015-04-21 | 2018-08-07 | Placemeter LLC | Virtual turnstile system and method |
US20160335432A1 (en) * | 2015-05-17 | 2016-11-17 | Bitdefender IPR Management Ltd. | Cascading Classifiers For Computer Security Applications |
US10552933B1 (en) | 2015-05-20 | 2020-02-04 | Digimarc Corporation | Image processing methods and arrangements useful in automated store shelf inspections |
US9996749B2 (en) * | 2015-05-29 | 2018-06-12 | Accenture Global Solutions Limited | Detecting contextual trends in digital video content |
US9361011B1 (en) | 2015-06-14 | 2016-06-07 | Google Inc. | Methods and systems for presenting multiple live video feeds in a user interface |
US9870620B2 (en) | 2015-06-18 | 2018-01-16 | The Johns Hopkins University | Non-linear associator and motion discriminator |
US10388019B1 (en) | 2015-06-23 | 2019-08-20 | Amazon Technologies, Inc. | Associating an agent with an event based on multiple inputs |
US10891736B1 (en) | 2015-06-23 | 2021-01-12 | Amazon Technologies, Inc. | Associating an agent with an event using motion analysis |
US10363632B2 (en) | 2015-06-24 | 2019-07-30 | Illinois Tool Works Inc. | Time of flight camera for welding machine vision |
US10787187B1 (en) | 2015-06-26 | 2020-09-29 | Amazon Technologies, Inc. | Self-bagging carts |
CN104994296A (zh) * | 2015-07-02 | 2015-10-21 | 安徽状元郎电子科技有限公司 | 一种教师自动跟踪摄像系统 |
US9911290B1 (en) | 2015-07-25 | 2018-03-06 | Gary M. Zalewski | Wireless coded communication (WCC) devices for tracking retail interactions with goods and association to user accounts |
CA2994712A1 (en) * | 2015-08-04 | 2017-02-09 | James Carey | Video identification and analytical recognition system |
EP3133455B1 (de) * | 2015-08-17 | 2021-04-14 | Honda Research Institute Europe GmbH | Vorrichtung zum autonomen oder teilweise autonomen fahren eines fahrzeugs mit einem kommunikationsmodul zum erhalt zusätzlicher daten von einem fahrzeugfahrer und entsprechendes verfahren |
CN105187785B (zh) * | 2015-08-31 | 2018-05-11 | 桂林电子科技大学 | 一种基于动态选取显著特征的跨卡口行人识别系统与方法 |
US9817471B2 (en) * | 2015-09-04 | 2017-11-14 | Panasonic Intellectual Property Corporation Of America | Method for adding information and server apparatus |
US10616465B2 (en) * | 2015-09-16 | 2020-04-07 | Microsoft Technology Licensing, Llc | Bandwidth efficient video surveillance system |
US10592742B1 (en) | 2015-09-28 | 2020-03-17 | Amazon Technologies, Inc. | Agent re-identification |
US10262172B1 (en) | 2015-09-29 | 2019-04-16 | Amazon Technologies, Inc. | Inventory tracking using RFID |
US10037449B1 (en) | 2015-09-29 | 2018-07-31 | Amazon Technologies, Inc. | Inventory tracking using RFID |
US10089505B1 (en) | 2015-09-29 | 2018-10-02 | Amazon Technologies, Inc. | Inventory tracking using RFID |
EP3862948A1 (de) * | 2015-09-30 | 2021-08-11 | The Nielsen Company (US), LLC | Interaktives produktaudit mit einer mobilen vorrichtung |
TWI621076B (zh) * | 2015-10-19 | 2018-04-11 | 陳冠魁 | 結帳管理系統 |
CN107037962B (zh) | 2015-10-23 | 2020-06-16 | 株式会社摩如富 | 图像处理装置、电子设备以及图像处理方法 |
CN105357475A (zh) * | 2015-10-28 | 2016-02-24 | 小米科技有限责任公司 | 用于视频播放的方法及装置 |
US9959468B2 (en) | 2015-11-06 | 2018-05-01 | The Boeing Company | Systems and methods for object tracking and classification |
KR102410268B1 (ko) * | 2015-11-20 | 2022-06-20 | 한국전자통신연구원 | 객체 추적 방법 및 그 방법을 수행하는 객체 추적 장치 |
TWI587246B (zh) * | 2015-11-20 | 2017-06-11 | 晶睿通訊股份有限公司 | 影像物件判別方法及其具有影像物件判別功能的攝影系統 |
WO2017105641A1 (en) | 2015-12-15 | 2017-06-22 | Cortica, Ltd. | Identification of key points in multimedia data elements |
US11195043B2 (en) | 2015-12-15 | 2021-12-07 | Cortica, Ltd. | System and method for determining common patterns in multimedia content elements based on key points |
CN108431876B (zh) | 2015-12-16 | 2021-03-12 | 日本电气株式会社 | 设置辅助设备、设置辅助方法和程序记录介质 |
EP3391339A2 (de) * | 2015-12-18 | 2018-10-24 | Iris Automation, Inc. | System für visuelles echtzeitsituationsbewusstsein |
GB2545900B (en) * | 2015-12-21 | 2020-08-12 | Canon Kk | Method, device, and computer program for re-identification of objects in images obtained from a plurality of cameras |
US10121121B1 (en) | 2015-12-28 | 2018-11-06 | Amazon Technologies, Inc. | Smart shelves |
WO2017120375A1 (en) * | 2016-01-05 | 2017-07-13 | Wizr Llc | Video event detection and notification |
US10650368B2 (en) * | 2016-01-15 | 2020-05-12 | Ncr Corporation | Pick list optimization method |
US10008115B2 (en) * | 2016-02-29 | 2018-06-26 | Analog Devices Global | Visual vehicle parking occupancy sensor |
JP2017156956A (ja) * | 2016-03-01 | 2017-09-07 | 株式会社東芝 | 機器選択装置、その方法及びそのプログラム |
US9911055B2 (en) * | 2016-03-08 | 2018-03-06 | Conduent Business Services, Llc | Method and system for detection and classification of license plates |
US10735659B2 (en) | 2016-03-17 | 2020-08-04 | Flir Systems, Inc. | Rotation-adaptive video analytics camera and method |
GB2566369B (en) | 2016-03-17 | 2021-08-25 | Avigilon Corp | System and method for training object classifier by machine learning |
US11030775B2 (en) | 2016-03-17 | 2021-06-08 | Flir Systems, Inc. | Minimal user input video analytics systems and methods |
US10717001B2 (en) | 2016-03-25 | 2020-07-21 | Zero Latency PTY LTD | System and method for saving tracked data in the game server for replay, review and training |
US10486061B2 (en) | 2016-03-25 | 2019-11-26 | Zero Latency Pty Ltd. | Interference damping for continuous game play |
US10071306B2 (en) | 2016-03-25 | 2018-09-11 | Zero Latency PTY LTD | System and method for determining orientation using tracking cameras and inertial measurements |
US10277831B2 (en) * | 2016-03-25 | 2019-04-30 | Fuji Xerox Co., Ltd. | Position identifying apparatus and method, path identifying apparatus, and non-transitory computer readable medium |
US9916496B2 (en) | 2016-03-25 | 2018-03-13 | Zero Latency PTY LTD | Systems and methods for operating a virtual reality environment using colored marker lights attached to game objects |
US10421012B2 (en) | 2016-03-25 | 2019-09-24 | Zero Latency PTY LTD | System and method for tracking using multiple slave servers and a master server |
JP2019513274A (ja) * | 2016-03-29 | 2019-05-23 | ボサ ノバ ロボティクス アイピー, インク.Bossa Nova Robotics Ip, Inc. | 品物の設置、特定および計数のためのシステムおよび方法 |
TWI553592B (zh) * | 2016-03-29 | 2016-10-11 | Next Animation Studio Ltd | The method of tracking objects in the video |
DE102016206361A1 (de) * | 2016-04-15 | 2017-10-19 | Robert Bosch Gmbh | Kameraeinrichtung für den Außenbereich eines Gebäudes |
US10586023B2 (en) | 2016-04-21 | 2020-03-10 | Time Warner Cable Enterprises Llc | Methods and apparatus for secondary content management and fraud prevention |
US10558627B2 (en) * | 2016-04-21 | 2020-02-11 | Leantaas, Inc. | Method and system for cleansing and de-duplicating data |
WO2017192457A1 (en) | 2016-05-02 | 2017-11-09 | Focal Systems, Inc. | Expedited checkout system through portable checkout units |
US9984314B2 (en) * | 2016-05-06 | 2018-05-29 | Microsoft Technology Licensing, Llc | Dynamic classifier selection based on class skew |
US10522013B2 (en) | 2016-05-20 | 2019-12-31 | Vivint, Inc. | Street watch |
KR102386982B1 (ko) * | 2016-05-26 | 2022-04-14 | 삼성에스디에스 주식회사 | 영상 분석을 이용한 카메라 캘리브레이션 방법 및 그 장치 |
US10506237B1 (en) | 2016-05-27 | 2019-12-10 | Google Llc | Methods and devices for dynamic adaptation of encoding bitrate for video streaming |
US10121515B2 (en) | 2016-06-06 | 2018-11-06 | Avigilon Corporation | Method, system and computer program product for interactively identifying same individuals or objects present in video recordings |
US10402643B2 (en) * | 2016-06-15 | 2019-09-03 | Google Llc | Object rejection system and method |
US10037471B2 (en) * | 2016-07-05 | 2018-07-31 | Nauto Global Limited | System and method for image analysis |
EP3481661A4 (de) | 2016-07-05 | 2020-03-11 | Nauto, Inc. | System und verfahren zur automatischen fahreridentifikation |
US10380429B2 (en) | 2016-07-11 | 2019-08-13 | Google Llc | Methods and systems for person detection in a video feed |
US10192415B2 (en) | 2016-07-11 | 2019-01-29 | Google Llc | Methods and systems for providing intelligent alerts for events |
US10957171B2 (en) * | 2016-07-11 | 2021-03-23 | Google Llc | Methods and systems for providing event alerts |
US10223067B2 (en) | 2016-07-15 | 2019-03-05 | Microsoft Technology Licensing, Llc | Leveraging environmental context for enhanced communication throughput |
KR101917354B1 (ko) * | 2016-07-18 | 2018-11-09 | 단국대학교 천안캠퍼스 산학협력단 | 모바일 환경 객체 신뢰도 평가와 학습을 통한 융합 객체 추적 시스템 및 방법 |
US9916493B2 (en) | 2016-08-03 | 2018-03-13 | At&T Intellectual Property I, L.P. | Method and system for aggregating video content |
WO2018031678A1 (en) | 2016-08-09 | 2018-02-15 | Nauto Global Limited | System and method for precision localization and mapping |
US10751609B2 (en) | 2016-08-12 | 2020-08-25 | Zero Latency PTY LTD | Mapping arena movements into a 3-D virtual world |
US11436553B2 (en) | 2016-09-08 | 2022-09-06 | Position Imaging, Inc. | System and method of object tracking using weight confirmation |
TWI622938B (zh) | 2016-09-13 | 2018-05-01 | 創意引晴(開曼)控股有限公司 | 避免辨識結果混淆之影像辨識方法 |
EP3513265A4 (de) | 2016-09-14 | 2020-04-22 | Nauto Global Limited | Systeme und verfahren zur bestimmung von beinahekollisionen |
US10733460B2 (en) | 2016-09-14 | 2020-08-04 | Nauto, Inc. | Systems and methods for safe route determination |
TWI617930B (zh) * | 2016-09-23 | 2018-03-11 | 李雨暹 | 空間物件搜尋排序方法、系統與電腦可讀取儲存裝置 |
RU2632473C1 (ru) * | 2016-09-30 | 2017-10-05 | ООО "Ай Ти Ви групп" | Способ обмена данными между ip видеокамерой и сервером (варианты) |
JP6975416B2 (ja) | 2016-10-25 | 2021-12-01 | アウル カメラズ, インコーポレイテッドOwl Cameras, Inc. | ビデオベースのデータ収集、画像のキャプチャおよび解析構成 |
US10246014B2 (en) | 2016-11-07 | 2019-04-02 | Nauto, Inc. | System and method for driver distraction determination |
WO2018091110A1 (de) * | 2016-11-21 | 2018-05-24 | Robert Bosch Gmbh | Anzeigevorrichtung für eine überwachungsanlage eines überwachungsbereiches, überwachungsanlage mit der anzeigevorrichtung, verfahren zur überwachung eines überwachungsbereiches mit einer überwachungsanlage und computerprogramm zur durchführung des verfahrens |
GB2556923B (en) * | 2016-11-25 | 2020-04-15 | Canon Kk | Generation of VCA Reference results for VCA Auto-setting |
CN106454991B (zh) * | 2016-11-28 | 2019-06-11 | 陕西尚品信息科技有限公司 | 一种移动机器人网络中的高效路由方法 |
WO2018102919A1 (en) | 2016-12-05 | 2018-06-14 | Avigilon Corporation | System and method for appearance search |
DE112017006136T5 (de) | 2016-12-05 | 2019-08-22 | Avigilon Corporation | System und Verfahren zur CNN-Schichtenteilung |
KR20180068578A (ko) | 2016-12-14 | 2018-06-22 | 삼성전자주식회사 | 복수의 센서를 이용하여 객체를 인식하는 전자 기기 및 방법 |
EP3340106B1 (de) * | 2016-12-23 | 2023-02-08 | Hexagon Technology Center GmbH | Verfahren und system zur zuweisung von speziellen klassen von interesse in messdaten |
US11300662B1 (en) | 2016-12-27 | 2022-04-12 | Amazon Technologies, Inc. | Detecting and locating interactions using LIDAR devices |
US10839203B1 (en) * | 2016-12-27 | 2020-11-17 | Amazon Technologies, Inc. | Recognizing and tracking poses using digital imagery captured from multiple fields of view |
US10895628B2 (en) * | 2016-12-29 | 2021-01-19 | Htc Corporation | Tracking system, tracking device and tracking method |
US11798064B1 (en) | 2017-01-12 | 2023-10-24 | Digimarc Corporation | Sensor-based maximum-likelihood estimation of item assignments |
US11094212B2 (en) | 2017-01-18 | 2021-08-17 | Microsoft Technology Licensing, Llc | Sharing signal segments of physical graph |
US10482900B2 (en) | 2017-01-18 | 2019-11-19 | Microsoft Technology Licensing, Llc | Organization of signal segments supporting sensed features |
US10606814B2 (en) | 2017-01-18 | 2020-03-31 | Microsoft Technology Licensing, Llc | Computer-aided tracking of physical entities |
US10437884B2 (en) | 2017-01-18 | 2019-10-08 | Microsoft Technology Licensing, Llc | Navigation of computer-navigable physical feature graph |
US10679669B2 (en) | 2017-01-18 | 2020-06-09 | Microsoft Technology Licensing, Llc | Automatic narration of signal segment |
US10637814B2 (en) | 2017-01-18 | 2020-04-28 | Microsoft Technology Licensing, Llc | Communication routing based on physical status |
US10635981B2 (en) * | 2017-01-18 | 2020-04-28 | Microsoft Technology Licensing, Llc | Automated movement orchestration |
US10909371B2 (en) | 2017-01-19 | 2021-02-02 | Samsung Electronics Co., Ltd. | System and method for contextual driven intelligence |
EP3559804B1 (de) | 2017-01-19 | 2024-03-06 | Samsung Electronics Co., Ltd. | Sichtintelligenzverwaltung für elektronische vorrichtungen |
WO2018144650A1 (en) | 2017-01-31 | 2018-08-09 | Focal Systems, Inc. | Automated checkout system through mobile shopping units |
US10275687B2 (en) * | 2017-02-16 | 2019-04-30 | International Business Machines Corporation | Image recognition with filtering of image classification output distribution |
US10789291B1 (en) * | 2017-03-01 | 2020-09-29 | Matroid, Inc. | Machine learning in video classification with playback highlighting |
EP3596618A4 (de) * | 2017-03-17 | 2021-01-13 | Neurala, Inc. | Inkrementelles online-lernen in echtzeit zum markieren und kennzeichnen von datenströmen für tiefe neuronale netzwerke und anwendungen neuronaler netzwerke |
US10482625B1 (en) | 2017-03-28 | 2019-11-19 | Amazon Technologies, Inc. | Calibration of networked imaging devices to a global color space |
EP3383055A1 (de) * | 2017-03-28 | 2018-10-03 | Rohde & Schwarz GmbH & Co. KG | Verfahren und vorrichtung zur überwachung von daten im zusammenhang mit rundfunk und/oder streaming |
US10943465B1 (en) | 2017-03-28 | 2021-03-09 | Amazon Technologies, Inc. | Device notification and aggregation |
US10699421B1 (en) | 2017-03-29 | 2020-06-30 | Amazon Technologies, Inc. | Tracking objects in three-dimensional space using calibrated visual cameras and depth cameras |
US10223591B1 (en) | 2017-03-30 | 2019-03-05 | Amazon Technologies, Inc. | Multi-video annotation |
US11055872B1 (en) * | 2017-03-30 | 2021-07-06 | Hrl Laboratories, Llc | Real-time object recognition using cascaded features, deep learning and multi-target tracking |
JP7120250B2 (ja) * | 2017-03-31 | 2022-08-17 | 横河電機株式会社 | 画像ベースによる異常検知の方法およびシステム |
CN108734061A (zh) * | 2017-04-19 | 2018-11-02 | 台达电子工业股份有限公司 | 人员检测器的非警戒区域设定系统及其设定方法 |
TWI660156B (zh) * | 2017-04-28 | 2019-05-21 | 宏達國際電子股份有限公司 | 追蹤系統及方法 |
KR102486986B1 (ko) | 2017-05-04 | 2023-01-10 | 한화테크윈 주식회사 | 객체 검출 시스템, 방법 및 컴퓨터 판독 가능한 기록매체 |
EP3622438A4 (de) | 2017-05-09 | 2021-03-10 | Neurala, Inc. | Systeme und verfahren zur ermöglichung von kontinuierlichem speicherbegrenztem lernen in künstlicher intelligenz und tiefenlernenden kontinuierlich arbeitenden anwendungen über vernetzte rechnerkanten |
US10671050B2 (en) * | 2017-05-11 | 2020-06-02 | Turing Video, Inc. | Surveillance system with intelligent robotic surveillance device |
CA3063176A1 (en) * | 2017-05-12 | 2018-11-15 | Focal Systems, Inc. | Automatic labeling of products via expedited checkout system |
US11475671B2 (en) | 2017-05-26 | 2022-10-18 | Turing Video | Multiple robots assisted surveillance system |
US11783010B2 (en) | 2017-05-30 | 2023-10-10 | Google Llc | Systems and methods of person recognition in video streams |
US10599950B2 (en) | 2017-05-30 | 2020-03-24 | Google Llc | Systems and methods for person recognition data management |
US10417816B2 (en) * | 2017-06-16 | 2019-09-17 | Nauto, Inc. | System and method for digital environment reconstruction |
WO2018229550A1 (en) | 2017-06-16 | 2018-12-20 | Nauto Global Limited | System and method for adverse vehicle event determination |
EP3638542B1 (de) | 2017-06-16 | 2022-01-26 | Nauto, Inc. | System und verfahren zur bestimmung des kontextualisierten betriebs eines fahrzeugs |
WO2018232680A1 (en) * | 2017-06-22 | 2018-12-27 | Baidu.Com Times Technology (Beijing) Co., Ltd. | EVALUATION FRAME FOR PREDICTED TRAJECTORIES IN A SELF-CONTAINING VEHICLE TRAFFIC PREDICTION |
US11257057B1 (en) | 2017-06-22 | 2022-02-22 | Amazon Technologies, Inc. | Secure dual-monitor point-of-sale system |
US10491808B1 (en) | 2017-06-27 | 2019-11-26 | Amazon Technologies, Inc. | Detecting sunlight in images |
US10650246B1 (en) | 2017-06-27 | 2020-05-12 | Amazon Technologies, Inc. | System for determining a camera radiance |
US10863105B1 (en) | 2017-06-27 | 2020-12-08 | Amazon Technologies, Inc. | High dynamic range imaging for event detection and inventory management |
WO2019008581A1 (en) | 2017-07-05 | 2019-01-10 | Cortica Ltd. | DETERMINATION OF DRIVING POLICIES |
WO2019008734A1 (ja) * | 2017-07-07 | 2019-01-10 | 日本電気株式会社 | 物体識別装置、物体識別方法、計算装置、システムおよび記録媒体 |
WO2019012527A1 (en) | 2017-07-09 | 2019-01-17 | Cortica Ltd. | ORGANIZATION OF DEPTH LEARNING NETWORKS |
US10332272B2 (en) | 2017-08-07 | 2019-06-25 | Caterpillar Inc. | Systems and methods for testing an automatic perception system |
US10482618B2 (en) | 2017-08-21 | 2019-11-19 | Fotonation Limited | Systems and methods for hybrid depth regularization |
US10769500B2 (en) * | 2017-08-31 | 2020-09-08 | Mitsubishi Electric Research Laboratories, Inc. | Localization-aware active learning for object detection |
US11284062B2 (en) * | 2017-09-05 | 2022-03-22 | Texas Instruments Incorporated | Automotive display validation |
US10621406B2 (en) * | 2017-09-15 | 2020-04-14 | Key Technology, Inc. | Method of sorting |
TWI624793B (zh) * | 2017-09-19 | 2018-05-21 | 財團法人成大研究發展基金會 | 物件偵測的適應系統與方法 |
US10664688B2 (en) | 2017-09-20 | 2020-05-26 | Google Llc | Systems and methods of detecting and responding to a visitor to a smart home environment |
US11134227B2 (en) | 2017-09-20 | 2021-09-28 | Google Llc | Systems and methods of presenting appropriate actions for responding to a visitor to a smart home environment |
US11232294B1 (en) | 2017-09-27 | 2022-01-25 | Amazon Technologies, Inc. | Generating tracklets from digital imagery |
US10599395B1 (en) * | 2017-10-11 | 2020-03-24 | Amperity, Inc. | Dynamically merging database tables |
US10417882B2 (en) | 2017-10-24 | 2019-09-17 | The Chamberlain Group, Inc. | Direction sensitive motion detector camera |
US11023707B2 (en) | 2017-10-27 | 2021-06-01 | Avigilon Corporation | System and method for selecting a part of a video image for a face detection operation |
DE102017219402A1 (de) * | 2017-10-27 | 2019-05-02 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Vorrichtung und verfahren zum erkennen und verfolgen von objekten in einer videosequenz |
US11003916B2 (en) * | 2017-11-03 | 2021-05-11 | Toyota Research Institute, Inc. | Systems and methods for object historical association |
JP7070584B2 (ja) * | 2017-11-07 | 2022-05-18 | 日本電気株式会社 | 判別モデル生成装置、判別モデル生成方法および判別モデル生成プログラム |
US11328513B1 (en) | 2017-11-07 | 2022-05-10 | Amazon Technologies, Inc. | Agent re-verification and resolution using imaging |
US10127440B1 (en) * | 2017-11-16 | 2018-11-13 | Eagle Eye Networks | Insect indicia-based alert suppression apparatus, system, and method of operation |
CN108040295B (zh) * | 2017-11-17 | 2021-05-07 | 上海哔哩哔哩科技有限公司 | 众裁方法、服务器、用户端及众裁系统 |
US10506202B2 (en) | 2017-11-20 | 2019-12-10 | Cisco Technology, Inc. | System and method for protecting critical data on camera systems from physical attack |
US10417501B2 (en) * | 2017-12-06 | 2019-09-17 | International Business Machines Corporation | Object recognition in video |
US10185628B1 (en) * | 2017-12-07 | 2019-01-22 | Cisco Technology, Inc. | System and method for prioritization of data file backups |
CN107818571B (zh) * | 2017-12-11 | 2018-07-20 | 珠海大横琴科技发展有限公司 | 基于深度学习网络和均值漂移的船只自动跟踪方法及系统 |
US10956726B1 (en) | 2017-12-12 | 2021-03-23 | Amazon Technologies, Inc. | Obfuscating portions of video data |
US11030442B1 (en) | 2017-12-13 | 2021-06-08 | Amazon Technologies, Inc. | Associating events with actors based on digital imagery |
US10664962B1 (en) | 2017-12-13 | 2020-05-26 | Amazon Technologies, Inc. | Determining direction of illumination |
US10699152B1 (en) | 2017-12-13 | 2020-06-30 | Amazon Technologies, Inc. | Image data illumination detection |
US11284041B1 (en) | 2017-12-13 | 2022-03-22 | Amazon Technologies, Inc. | Associating items with actors based on digital imagery |
WO2019116497A1 (ja) * | 2017-12-14 | 2019-06-20 | 日本電気株式会社 | 識別装置、識別方法、および記憶媒体 |
WO2019133755A1 (en) * | 2017-12-27 | 2019-07-04 | General Electric Company | Automated scope limiting for video analytics |
WO2019133891A1 (en) | 2017-12-29 | 2019-07-04 | Ebay Inc. | Computer vision user segment, and missing item determination |
US10475191B2 (en) | 2018-01-17 | 2019-11-12 | Sensormatic Electronics, LLC | System and method for identification and suppression of time varying background objects |
US20190236305A1 (en) * | 2018-01-29 | 2019-08-01 | International Business Machines Corporation | Detecting unauthorized use of sensitive information in content communicated over a network |
US10678848B2 (en) | 2018-02-12 | 2020-06-09 | Wipro Limited | Method and a system for recognition of data in one or more images |
TWI666595B (zh) | 2018-02-26 | 2019-07-21 | 財團法人工業技術研究院 | 物件標示系統及方法 |
EP3759700B1 (de) | 2018-02-27 | 2023-03-15 | Nauto, Inc. | Verfahren zur bestimmung einer fahrrichtlinie |
CA3088781A1 (en) * | 2018-03-23 | 2019-09-26 | Avigilon Coporation | Method and system for interfacing with a user to facilitate an image search for an object-of-interest |
CN110324528A (zh) * | 2018-03-28 | 2019-10-11 | 富泰华工业(深圳)有限公司 | 摄像装置、影像处理系统及方法 |
US10929675B2 (en) * | 2018-03-29 | 2021-02-23 | Ncr Corporation | Decentralized video tracking |
TWI661721B (zh) * | 2018-04-03 | 2019-06-01 | 奇景光電股份有限公司 | 動作偵測電路與方法 |
CN110348270B (zh) * | 2018-04-03 | 2023-06-09 | 扬智科技股份有限公司 | 影像物件辨识方法与影像物件辨识系统 |
US10999524B1 (en) | 2018-04-12 | 2021-05-04 | Amazon Technologies, Inc. | Temporal high dynamic range imaging using time-of-flight cameras |
CN110415264B (zh) * | 2018-04-25 | 2023-10-24 | 奇景光电股份有限公司 | 动作检测电路与方法 |
US11257132B1 (en) | 2018-05-04 | 2022-02-22 | Allstate Insurance Company | Processing systems and methods having a machine learning engine for providing a surface dimension output |
US11436648B1 (en) | 2018-05-04 | 2022-09-06 | Allstate Insurance Company | Processing system having a machine learning engine for providing a surface dimension output |
US10679362B1 (en) * | 2018-05-14 | 2020-06-09 | Vulcan Inc. | Multi-camera homogeneous object trajectory alignment |
US11120070B2 (en) * | 2018-05-21 | 2021-09-14 | Microsoft Technology Licensing, Llc | System and method for attribute-based visual search over a computer communication network |
US10674063B2 (en) | 2018-06-20 | 2020-06-02 | Amazon Technologies, Inc. | Synchronizing time-of-flight cameras |
US10708484B2 (en) | 2018-06-20 | 2020-07-07 | Amazon Technologies, Inc. | Detecting interference between time-of-flight cameras using modified image sensor arrays |
US11468698B1 (en) | 2018-06-28 | 2022-10-11 | Amazon Technologies, Inc. | Associating events with actors using digital imagery and machine learning |
US11482045B1 (en) | 2018-06-28 | 2022-10-25 | Amazon Technologies, Inc. | Associating events with actors using digital imagery and machine learning |
US11468681B1 (en) | 2018-06-28 | 2022-10-11 | Amazon Technologies, Inc. | Associating events with actors using digital imagery and machine learning |
CN108833928B (zh) * | 2018-07-03 | 2020-06-26 | 中国科学技术大学 | 交通监控视频编码方法 |
US11100367B2 (en) | 2018-07-12 | 2021-08-24 | EMC IP Holding Company LLC | Dynamic digital information retrieval implemented via artificial intelligence |
US10846544B2 (en) | 2018-07-16 | 2020-11-24 | Cartica Ai Ltd. | Transportation prediction system and method |
US10846554B2 (en) | 2018-07-17 | 2020-11-24 | Avigilon Corporation | Hash-based appearance search |
CA3106694A1 (en) * | 2018-07-18 | 2020-01-23 | Robert Laganiere | System and method for tracking customer movements in a customer service environment |
US10681338B1 (en) | 2018-07-24 | 2020-06-09 | Amazon Technologies, Inc. | Detecting interference in depth images captured using overlapping depth cameras |
US10650547B2 (en) * | 2018-07-26 | 2020-05-12 | Microsoft Technology Licensing, Llc | Blob detection using feature match scores |
US11164037B2 (en) | 2018-08-01 | 2021-11-02 | International Business Machines Corporation | Object instance ambiguity resolution |
CN109284673B (zh) * | 2018-08-07 | 2022-02-22 | 北京市商汤科技开发有限公司 | 对象跟踪方法及装置、电子设备及存储介质 |
US11244509B2 (en) * | 2018-08-20 | 2022-02-08 | Fisher-Rosemount Systems, Inc. | Drift correction for industrial augmented reality applications |
CA3112157A1 (en) | 2018-09-20 | 2020-03-26 | Avigilon Coporation | Region proposal with tracker feedback |
CA3111595A1 (en) * | 2018-09-21 | 2020-03-26 | Position Imaging, Inc. | Machine-learning-assisted self-improving object-identification system and method |
US11013140B1 (en) | 2018-09-25 | 2021-05-18 | Amazon Technologies, Inc. | Wall-mounted cable housing assemblies |
US20200133308A1 (en) | 2018-10-18 | 2020-04-30 | Cartica Ai Ltd | Vehicle to vehicle (v2v) communication less truck platooning |
US10839694B2 (en) | 2018-10-18 | 2020-11-17 | Cartica Ai Ltd | Blind spot alert |
US11126870B2 (en) | 2018-10-18 | 2021-09-21 | Cartica Ai Ltd. | Method and system for obstacle detection |
US11181911B2 (en) | 2018-10-18 | 2021-11-23 | Cartica Ai Ltd | Control transfer of a vehicle |
US11126869B2 (en) | 2018-10-26 | 2021-09-21 | Cartica Ai Ltd. | Tracking after objects |
US11188763B2 (en) * | 2019-10-25 | 2021-11-30 | 7-Eleven, Inc. | Topview object tracking using a sensor array |
US20200160089A1 (en) * | 2018-11-15 | 2020-05-21 | International Business Machines Corporation | Visual pattern recognition with selective illumination for assisted inspection |
US10872424B2 (en) | 2018-11-19 | 2020-12-22 | Accenture Global Solutions Limited | Object tracking using object attributes |
JP6810359B2 (ja) * | 2018-11-22 | 2021-01-06 | キヤノンマーケティングジャパン株式会社 | 情報処理装置、制御方法、プログラム |
US10789535B2 (en) | 2018-11-26 | 2020-09-29 | Cartica Ai Ltd | Detection of road elements |
KR102002024B1 (ko) * | 2018-12-06 | 2019-07-22 | 주식회사 아임클라우드 | 객체 라벨링 처리 방법 및 객체 관리 서버 |
US11386306B1 (en) | 2018-12-13 | 2022-07-12 | Amazon Technologies, Inc. | Re-identification of agents using image analysis and machine learning |
US10915783B1 (en) | 2018-12-14 | 2021-02-09 | Amazon Technologies, Inc. | Detecting and locating actors in scenes based on degraded or supersaturated depth data |
WO2020119924A1 (en) * | 2018-12-14 | 2020-06-18 | Xovis Ag | Method and arrangement for determining a group of persons to be considered |
US11126861B1 (en) | 2018-12-14 | 2021-09-21 | Digimarc Corporation | Ambient inventorying arrangements |
CA3104641A1 (en) * | 2018-12-18 | 2020-06-25 | Rovi Guides, Inc. | Systems and methods for automated tracking using a client device |
KR20200084395A (ko) | 2018-12-20 | 2020-07-13 | 삼성전자주식회사 | 영상에서 오브젝트를 인식하는 전자 장치 및 그 동작 방법 |
EP4242586A3 (de) * | 2019-01-03 | 2023-11-22 | Leica Geosystems AG | Messsystem |
US11089232B2 (en) | 2019-01-11 | 2021-08-10 | Position Imaging, Inc. | Computer-vision-based object tracking and guidance module |
US10805556B1 (en) | 2019-01-22 | 2020-10-13 | Amazon Technologies, Inc. | Storage units with shifted-lens cameras |
US11521512B2 (en) | 2019-02-19 | 2022-12-06 | Illinois Tool Works Inc. | Systems for simulating joining operations using mobile devices |
US11450233B2 (en) | 2019-02-19 | 2022-09-20 | Illinois Tool Works Inc. | Systems for simulating joining operations using mobile devices |
US11643005B2 (en) | 2019-02-27 | 2023-05-09 | Autobrains Technologies Ltd | Adjusting adjustable headlights of a vehicle |
US11699078B2 (en) | 2019-03-08 | 2023-07-11 | Ai Concepts, Llc | Intelligent recognition and alert methods and systems |
US10776695B1 (en) | 2019-03-08 | 2020-09-15 | Ai Concepts, Llc | Intelligent recognition and alert methods and systems |
US11285963B2 (en) | 2019-03-10 | 2022-03-29 | Cartica Ai Ltd. | Driver-based prediction of dangerous events |
US11694088B2 (en) | 2019-03-13 | 2023-07-04 | Cortica Ltd. | Method for object detection using knowledge distillation |
US11132548B2 (en) | 2019-03-20 | 2021-09-28 | Cortica Ltd. | Determining object information that does not explicitly appear in a media unit signature |
US11163820B1 (en) | 2019-03-25 | 2021-11-02 | Gm Cruise Holdings Llc | Object search service employing an autonomous vehicle fleet |
US11908242B2 (en) * | 2019-03-31 | 2024-02-20 | Cortica Ltd. | Efficient calculation of a robust signature of a media unit |
US11222069B2 (en) | 2019-03-31 | 2022-01-11 | Cortica Ltd. | Low-power calculation of a signature of a media unit |
US11488290B2 (en) | 2019-03-31 | 2022-11-01 | Cortica Ltd. | Hybrid representation of a media unit |
US10796444B1 (en) | 2019-03-31 | 2020-10-06 | Cortica Ltd | Configuring spanning elements of a signature generator |
US10776669B1 (en) | 2019-03-31 | 2020-09-15 | Cortica Ltd. | Signature generation and object detection that refer to rare scenes |
US10789527B1 (en) | 2019-03-31 | 2020-09-29 | Cortica Ltd. | Method for object detection using shallow neural networks |
US11544505B1 (en) * | 2019-04-01 | 2023-01-03 | Alarm.Com Incorporated | Semi-supervised learning based on clustering objects in video from a property |
CN110097724B (zh) * | 2019-04-24 | 2021-06-29 | 苏州浪潮智能科技有限公司 | 一种基于fpga的物品自动看护方法及系统 |
US11580785B1 (en) | 2019-06-10 | 2023-02-14 | Amazon Technologies, Inc. | Detecting interactions with non-discretized items and associating interactions with actors using digital images |
US11927472B1 (en) | 2019-06-26 | 2024-03-12 | Amazon Technologies, Inc. | Modular storage systems |
KR20210009066A (ko) | 2019-07-16 | 2021-01-26 | 삼성전자주식회사 | 사용자의 의도를 추정하는 방법 및 장치 |
US10894627B1 (en) | 2019-08-09 | 2021-01-19 | Amazon Technologies, Inc. | Pinch-sealed adhesive sleeves |
US11138477B2 (en) * | 2019-08-15 | 2021-10-05 | Collibra Nv | Classification of data using aggregated information from multiple classification modules |
WO2021034681A1 (en) | 2019-08-16 | 2021-02-25 | Bossa Nova Robotics Ip, Inc. | Systems and methods for image capture and shelf content detection |
US11109310B1 (en) | 2019-09-17 | 2021-08-31 | Amazon Technologies, Inc. | Infrastructure-based access point load balancing |
WO2021055585A1 (en) | 2019-09-17 | 2021-03-25 | Boston Polarimetrics, Inc. | Systems and methods for surface modeling using polarization cues |
US11012601B1 (en) | 2019-09-23 | 2021-05-18 | Amazon Technologies, Inc. | Dual camera module systems |
US11403849B2 (en) * | 2019-09-25 | 2022-08-02 | Charter Communications Operating, Llc | Methods and apparatus for characterization of digital content |
US11804076B2 (en) * | 2019-10-02 | 2023-10-31 | University Of Iowa Research Foundation | System and method for the autonomous identification of physical abuse |
BR112022006617A2 (pt) | 2019-10-07 | 2022-06-28 | Boston Polarimetrics Inc | Sistemas e métodos para detecção por sensor de normais à superfície com polarização |
TWI699708B (zh) * | 2019-10-09 | 2020-07-21 | 鼎天國際股份有限公司 | 貨櫃空間計算裝置 |
JP2021077039A (ja) * | 2019-11-07 | 2021-05-20 | キヤノン株式会社 | 画像処理装置、画像処理方法、及びプログラム。 |
EP4062328A4 (de) * | 2019-11-20 | 2023-08-16 | PayPal, Inc. | Verfahren zur nutzung von posttransaktionsdaten für vorherige transaktionen zur verwendung kürzlicher transaktionsdaten |
CN110971819A (zh) * | 2019-11-24 | 2020-04-07 | 西安呱牛信息技术有限公司 | 基于卫星导航用于拍摄的无人机路径控制方法及其系统 |
US10769807B1 (en) * | 2019-11-25 | 2020-09-08 | Pet3D Corp | System, method, and apparatus for clothing a pet |
US11322037B2 (en) | 2019-11-25 | 2022-05-03 | Illinois Tool Works Inc. | Weld training simulations using mobile devices, modular workpieces, and simulated welding equipment |
US11721231B2 (en) | 2019-11-25 | 2023-08-08 | Illinois Tool Works Inc. | Weld training simulations using mobile devices, modular workpieces, and simulated welding equipment |
CN110969115B (zh) * | 2019-11-28 | 2023-04-07 | 深圳市商汤科技有限公司 | 行人事件的检测方法及装置、电子设备和存储介质 |
EP4066001A4 (de) | 2019-11-30 | 2024-01-24 | Boston Polarimetrics Inc | Systeme und verfahren zur transparenten objektsegmentierung unter verwendung von polarisationshinweisen |
US11893795B2 (en) | 2019-12-09 | 2024-02-06 | Google Llc | Interacting with visitors of a connected home environment |
US11083102B1 (en) | 2019-12-10 | 2021-08-03 | Amazon Technologies, Inc. | Modular distribution frames and assemblies |
FR3104774B1 (fr) * | 2019-12-11 | 2022-01-07 | Bull Sas | Procédé de suivi d’un élément, dispositif électronique et produit programme d’ordinateur associés |
US10748022B1 (en) | 2019-12-12 | 2020-08-18 | Cartica Ai Ltd | Crowd separation |
US11593662B2 (en) | 2019-12-12 | 2023-02-28 | Autobrains Technologies Ltd | Unsupervised cluster generation |
US11587384B1 (en) | 2019-12-13 | 2023-02-21 | Amazon Technologies, Inc. | Group determination and association |
US20210188205A1 (en) * | 2019-12-19 | 2021-06-24 | Zf Friedrichshafen Ag | Vehicle vision system |
US11100702B2 (en) | 2019-12-27 | 2021-08-24 | Industrial Technology Research Institute | 3D image labeling method based on labeling information of 2D image and 3D image labeling device |
KR20220132620A (ko) | 2020-01-29 | 2022-09-30 | 인트린식 이노베이션 엘엘씨 | 물체 포즈 검출 및 측정 시스템들을 특성화하기 위한 시스템들 및 방법들 |
JP2023511747A (ja) | 2020-01-30 | 2023-03-22 | イントリンジック イノベーション エルエルシー | 偏光画像を含む異なる撮像モダリティで統計モデルを訓練するためのデータを合成するためのシステムおよび方法 |
US11410122B1 (en) | 2020-01-31 | 2022-08-09 | Amazon Technologies, Inc. | Determining inventory levels using switch-equipped strips and patterns of activated or deactivated indicators |
EP3862902B1 (de) * | 2020-02-05 | 2023-11-01 | C2RO Cloud Robotics Inc. | System und verfahren zur privatsphärenbewussten analyse von videoströmen |
EP3994661A4 (de) * | 2020-02-24 | 2023-08-02 | Thales Canada Inc. | Verfahren zur semantischen objektdetektion mit wissensgraphen |
US11590988B2 (en) | 2020-03-19 | 2023-02-28 | Autobrains Technologies Ltd | Predictive turning assistant |
US11755989B2 (en) | 2020-03-27 | 2023-09-12 | Toshiba Global Commerce Solutions Holdings Corporation | Preventing theft at retail stores |
CN111405203B (zh) * | 2020-03-30 | 2022-11-04 | 杭州海康威视数字技术股份有限公司 | 一种画面切换的确定方法、装置、电子设备及存储介质 |
US11827215B2 (en) | 2020-03-31 | 2023-11-28 | AutoBrains Technologies Ltd. | Method for training a driving related object detector |
US11398094B1 (en) | 2020-04-06 | 2022-07-26 | Amazon Technologies, Inc. | Locally and globally locating actors by digital cameras and machine learning |
US11443516B1 (en) | 2020-04-06 | 2022-09-13 | Amazon Technologies, Inc. | Locally and globally locating actors by digital cameras and machine learning |
KR20210128736A (ko) | 2020-04-17 | 2021-10-27 | 삼성전자주식회사 | 멀티 카메라를 포함하는 전자 장치 및 촬영 방법 |
US11295167B2 (en) | 2020-04-27 | 2022-04-05 | Toshiba Global Commerce Solutions Holdings Corporation | Automated image curation for machine learning deployments |
US11138439B1 (en) * | 2020-04-30 | 2021-10-05 | Honeywell International Inc. | Systems and methods for detecting patterns within video content |
WO2021243088A1 (en) | 2020-05-27 | 2021-12-02 | Boston Polarimetrics, Inc. | Multi-aperture polarization optical systems using beam splitters |
US11937019B2 (en) * | 2021-06-07 | 2024-03-19 | Elementary Robotics, Inc. | Intelligent quality assurance and inspection device having multiple camera modules |
US11756424B2 (en) | 2020-07-24 | 2023-09-12 | AutoBrains Technologies Ltd. | Parking assist |
KR102448267B1 (ko) | 2020-09-23 | 2022-09-28 | 임진성 | 다층구조의 물탱크 |
WO2022074643A1 (en) * | 2020-10-08 | 2022-04-14 | Edgy Bees Ltd. | Improving geo-registration using machine-learning based object identification |
US11896144B1 (en) | 2020-12-03 | 2024-02-13 | Amazon Technologies, Inc. | Determining inventory levels using rotatable counting devices and visual imagery |
US11514766B1 (en) | 2020-12-10 | 2022-11-29 | Amazon Technologies, Inc. | Detecting interactions with storage units based on RFID signals and auxiliary signals |
KR102271379B1 (ko) * | 2020-12-16 | 2021-06-30 | 주식회사 두잉랩 | 영상 내의 객체를 인식하여 판별하는 방법 및 서버 |
AU2022219015A1 (en) * | 2021-02-12 | 2023-09-28 | Wyze Labs, Inc. | Self-supervised collaborative approach to machine learning by models deployed on edge devices |
US11676383B2 (en) * | 2021-03-15 | 2023-06-13 | Sensormatic Electronics, LLC | Object counting system for high volume traffic |
US11676384B2 (en) | 2021-03-15 | 2023-06-13 | Sensormatic Electronics, LLC | Object counting system for high volume traffic |
CN113033551A (zh) * | 2021-03-16 | 2021-06-25 | 北京嘀嘀无限科技发展有限公司 | 对象检测的方法、装置、设备和存储介质 |
EP4064120B1 (de) * | 2021-03-25 | 2023-07-26 | Axis AB | Verfahren zur bestimmung von bildern, die wahrscheinlich eine falsch-negative objektdetektion aufweisen |
US11954886B2 (en) | 2021-04-15 | 2024-04-09 | Intrinsic Innovation Llc | Systems and methods for six-degree of freedom pose estimation of deformable objects |
US11290658B1 (en) | 2021-04-15 | 2022-03-29 | Boston Polarimetrics, Inc. | Systems and methods for camera exposure control |
US11810350B2 (en) | 2021-05-21 | 2023-11-07 | Western Digital Technologies, Inc. | Processing of surveillance video streams using image classification and object detection |
KR102343049B1 (ko) * | 2021-06-17 | 2021-12-24 | 주식회사 인피닉 | 인공지능 학습을 위한 이미지 메타데이터 생성 방법 및 이를 실행하기 위하여 기록매체에 기록된 컴퓨터 프로그램 |
KR102343051B1 (ko) * | 2021-06-17 | 2021-12-24 | 주식회사 인피닉 | 라이다 점군으로부터 카메라 이미지의 바운딩 박스를 조정하는 방법 및 이를 실행하기 위하여 기록매체에 기록된 컴퓨터 프로그램 |
KR102356907B1 (ko) * | 2021-06-17 | 2022-02-08 | 주식회사 인피닉 | 인공지능 학습용 데이터의 메타데이터 입력 방법 및 이를 실행하기 위하여 기록매체에 기록된 컴퓨터 프로그램 |
US11810361B2 (en) | 2021-06-25 | 2023-11-07 | Western Digital Technologies, Inc. | Site-based calibration of object detection parameters |
US11940320B1 (en) | 2021-06-25 | 2024-03-26 | Amazon Technologies, Inc. | Compressing load signal transmissions |
US11689813B2 (en) | 2021-07-01 | 2023-06-27 | Intrinsic Innovation Llc | Systems and methods for high dynamic range imaging using crossed polarizers |
US11635167B1 (en) | 2021-09-09 | 2023-04-25 | Amazon Technologies, Inc. | Quick-connect camera mounts with multiple degrees of freedom |
US11483479B1 (en) | 2021-09-24 | 2022-10-25 | Amazon Technologies, Inc. | Targeted image stabilization |
US11743580B1 (en) | 2022-05-16 | 2023-08-29 | Motorola Solutions, Inc. | Method and system for controlling operation of a fixed position camera |
US11893847B1 (en) | 2022-09-23 | 2024-02-06 | Amazon Technologies, Inc. | Delivering items to evaluation rooms while maintaining customer privacy |
Family Cites Families (104)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US4760604A (en) | 1985-02-15 | 1988-07-26 | Nestor, Inc. | Parallel, multi-unit, adaptive, nonlinear pattern class separator and identifier |
US4639784A (en) | 1985-02-19 | 1987-01-27 | Rca Corporation | Video signal recursive filter adaptively controlled responsive to the history of image motion |
US4779095A (en) | 1986-10-28 | 1988-10-18 | H & G Systems, Inc. | Image change detection system |
US4931868A (en) | 1988-05-31 | 1990-06-05 | Grumman Aerospace Corporation | Method and apparatus for detecting innovations in a scene |
US5099322A (en) | 1990-02-27 | 1992-03-24 | Texas Instruments Incorporated | Scene change detection system and method |
US5091780A (en) | 1990-05-09 | 1992-02-25 | Carnegie-Mellon University | A trainable security system emthod for the same |
KR920003198A (ko) | 1990-07-06 | 1992-02-29 | 카가야세이치 | 화상처리에 의한 이동물체검출방법 및 그 장치와 이 장치를 사용한 거리측정 장치 |
US5253070A (en) | 1990-12-31 | 1993-10-12 | Goldstar Co., Ltd. | System and method for automatically detecting a variation of video information |
US5268967A (en) | 1992-06-29 | 1993-12-07 | Eastman Kodak Company | Method for automatic foreground and background detection in digital radiographic images |
DE69429145T2 (de) | 1993-08-19 | 2002-07-18 | Hitachi Ltd | Klassifikation und Prüfvorrichtung für Teilchen in einer Flüssigkeit |
US5473737A (en) * | 1993-10-12 | 1995-12-05 | International Business Machines Corporation | Method and apparatus for displaying a composite image made up of a foreground image and a background image |
WO1996009598A1 (en) * | 1994-09-20 | 1996-03-28 | Neopath, Inc. | Cytological slide scoring apparatus |
US5825936A (en) * | 1994-09-22 | 1998-10-20 | University Of South Florida | Image analyzing device using adaptive criteria |
US5793888A (en) * | 1994-11-14 | 1998-08-11 | Massachusetts Institute Of Technology | Machine learning apparatus and method for image searching |
US6741655B1 (en) | 1997-05-05 | 2004-05-25 | The Trustees Of Columbia University In The City Of New York | Algorithms and system for object-oriented content-based video search |
US6301370B1 (en) | 1998-04-13 | 2001-10-09 | Eyematic Interfaces, Inc. | Face recognition from video images |
US7634662B2 (en) * | 2002-11-21 | 2009-12-15 | Monroe David A | Method for incorporating facial recognition technology in a multimedia surveillance system |
US6226388B1 (en) * | 1999-01-05 | 2001-05-01 | Sharp Labs Of America, Inc. | Method and apparatus for object tracking for automatic controls in video devices |
US6377296B1 (en) * | 1999-01-28 | 2002-04-23 | International Business Machines Corporation | Virtual map system and method for tracking objects |
US6577762B1 (en) * | 1999-10-26 | 2003-06-10 | Xerox Corporation | Background surface thresholding |
US6940998B2 (en) | 2000-02-04 | 2005-09-06 | Cernium, Inc. | System for automated screening of security cameras |
DE10136739A1 (de) | 2000-08-10 | 2002-02-21 | Univ Ilmenau Tech | Verfahren zur Realisierung eines lernfähigen, adaptiven Klassifikators |
US8711217B2 (en) * | 2000-10-24 | 2014-04-29 | Objectvideo, Inc. | Video surveillance system employing video primitives |
US8564661B2 (en) * | 2000-10-24 | 2013-10-22 | Objectvideo, Inc. | Video analytic rule detection system and method |
US7099510B2 (en) | 2000-11-29 | 2006-08-29 | Hewlett-Packard Development Company, L.P. | Method and system for object detection in digital images |
US20090231436A1 (en) | 2001-04-19 | 2009-09-17 | Faltesek Anthony E | Method and apparatus for tracking with identification |
US20020176001A1 (en) * | 2001-05-11 | 2002-11-28 | Miroslav Trajkovic | Object tracking based on color distribution |
FI20011370A (fi) * | 2001-06-27 | 2002-12-28 | Nokia Corp | Biotunnistusmenetelmä ja sitä hyödyntävä laite |
US7167576B2 (en) | 2001-07-02 | 2007-01-23 | Point Grey Research | Method and apparatus for measuring dwell time of objects in an environment |
KR100792283B1 (ko) * | 2001-08-07 | 2008-01-07 | 삼성전자주식회사 | 이동물체 자동 추적장치 및 방법 |
JP2003058861A (ja) * | 2001-08-15 | 2003-02-28 | Communication Research Laboratory | データエラーの検出方法及び装置、ソフトウェア並びにその記憶媒体 |
US6970083B2 (en) | 2001-10-09 | 2005-11-29 | Objectvideo, Inc. | Video tripwire |
CN1596420A (zh) * | 2001-10-11 | 2005-03-16 | 爱科赛亚有限责任公司 | 用于学习模式分类和判定值估计的方法和装置 |
KR100459893B1 (ko) | 2002-01-08 | 2004-12-04 | 삼성전자주식회사 | 동영상에서 칼라 기반의 객체를 추적하는 방법 및 그 장치 |
US20030204368A1 (en) | 2002-03-29 | 2003-10-30 | Emre Ertin | Adaptive sequential detection network |
JP3999561B2 (ja) * | 2002-05-07 | 2007-10-31 | 松下電器産業株式会社 | 監視システムと監視カメラ |
JP3767692B2 (ja) * | 2002-05-08 | 2006-04-19 | ソニー株式会社 | 信号処理装置および方法、記録媒体、並びにプログラム |
CN1456970A (zh) * | 2002-05-10 | 2003-11-19 | 天瀚科技股份有限公司 | 动态影像内的物件的替换方法 |
US7227988B2 (en) * | 2002-07-01 | 2007-06-05 | Xerox Corporation | Prioritized PDL segmentation producing two bit selector |
US7020337B2 (en) * | 2002-07-22 | 2006-03-28 | Mitsubishi Electric Research Laboratories, Inc. | System and method for detecting objects in images |
US7489802B2 (en) | 2002-09-10 | 2009-02-10 | Zeev Smilansky | Miniature autonomous agents for scene interpretation |
US7221775B2 (en) * | 2002-11-12 | 2007-05-22 | Intellivid Corporation | Method and apparatus for computerized image background analysis |
US6993960B2 (en) | 2002-12-26 | 2006-02-07 | Woodward Governor Company | Method and apparatus for detecting combustion instability in continuous combustion systems |
JP4228745B2 (ja) | 2003-03-28 | 2009-02-25 | 株式会社日立製作所 | 多スペクトル撮像画像解析装置 |
GB2402796B (en) | 2003-06-12 | 2005-04-20 | Phasor Ltd | A method and device for identifying information on the surface of an article |
US7627171B2 (en) * | 2003-07-03 | 2009-12-01 | Videoiq, Inc. | Methods and systems for detecting objects of interest in spatio-temporal signals |
WO2005022343A2 (en) * | 2003-08-29 | 2005-03-10 | Exscientia, Llc | System and methods for incrementally augmenting a classifier |
EP1668469A4 (de) * | 2003-09-19 | 2007-11-21 | Bae Systems Advanced Informati | Verfolgungssysteme und -verfahren |
US7450735B1 (en) * | 2003-10-16 | 2008-11-11 | University Of Central Florida Research Foundation, Inc. | Tracking across multiple cameras with disjoint views |
US20050104958A1 (en) * | 2003-11-13 | 2005-05-19 | Geoffrey Egnal | Active camera video-based surveillance systems and methods |
US20050105764A1 (en) * | 2003-11-17 | 2005-05-19 | Mei Han | Video surveillance system with connection probability computation that is a function of object size |
EP1687806A1 (de) | 2003-11-18 | 2006-08-09 | Koninklijke Philips Electronics N.V. | Vergleichen von datenobjekten durch vergleichen abgeleiteter fingerabdrücke |
KR100627500B1 (ko) * | 2004-03-10 | 2006-09-21 | 엘지전자 주식회사 | 모바일폰의 단문 메시지 제공시스템 및 그 제공방법 |
WO2006083283A2 (en) * | 2004-06-01 | 2006-08-10 | Sarnoff Corporation | Method and apparatus for video surveillance |
US7738705B2 (en) * | 2004-06-30 | 2010-06-15 | Stefano Casadei | Hierarchical method and system for pattern recognition and edge detection |
WO2006012645A2 (en) | 2004-07-28 | 2006-02-02 | Sarnoff Corporation | Method and apparatus for total situational awareness and monitoring |
US7639840B2 (en) * | 2004-07-28 | 2009-12-29 | Sarnoff Corporation | Method and apparatus for improved video surveillance through classification of detected objects |
JP4130820B2 (ja) * | 2004-08-27 | 2008-08-06 | 株式会社豊田中央研究所 | 顔中心位置検出装置及び方法並びにプログラム |
JP4180027B2 (ja) * | 2004-08-27 | 2008-11-12 | 株式会社豊田中央研究所 | 顔部品位置検出装置及び方法並びにプログラム |
US7450766B2 (en) * | 2004-10-26 | 2008-11-11 | Hewlett-Packard Development Company, L.P. | Classifier performance |
US20080181453A1 (en) * | 2005-03-17 | 2008-07-31 | Li-Qun Xu | Method of Tracking Objects in a Video Sequence |
WO2006100743A1 (ja) | 2005-03-18 | 2006-09-28 | Fujitsu Limited | 表示機能付情報メディア |
US8139896B1 (en) * | 2005-03-28 | 2012-03-20 | Grandeye, Ltd. | Tracking moving objects accurately on a wide-angle video |
US7760908B2 (en) | 2005-03-31 | 2010-07-20 | Honeywell International Inc. | Event packaged video sequence |
US20080291278A1 (en) | 2005-04-05 | 2008-11-27 | Objectvideo, Inc. | Wide-area site-based video surveillance system |
US7366972B2 (en) | 2005-04-29 | 2008-04-29 | Microsoft Corporation | Dynamically mediating multimedia content and devices |
US7657100B2 (en) * | 2005-05-09 | 2010-02-02 | Like.Com | System and method for enabling image recognition and searching of images |
US7643674B2 (en) * | 2005-05-12 | 2010-01-05 | Hewlett-Packard Development Company, L.P. | Classification methods, classifier determination methods, classifiers, classifier determination devices, and articles of manufacture |
US20090041297A1 (en) * | 2005-05-31 | 2009-02-12 | Objectvideo, Inc. | Human detection and tracking for security applications |
WO2006137071A2 (en) | 2005-06-23 | 2006-12-28 | Israel Aerospace Industries Ltd. | A system and method for tracking moving objects |
DE602006009191D1 (de) * | 2005-07-26 | 2009-10-29 | Canon Kk | Bildaufnahmegerät und -verfahren |
US8284254B2 (en) * | 2005-08-11 | 2012-10-09 | Sightlogix, Inc. | Methods and apparatus for a wide area coordinated surveillance system |
US20070058836A1 (en) * | 2005-09-15 | 2007-03-15 | Honeywell International Inc. | Object classification in video data |
US8310554B2 (en) * | 2005-09-20 | 2012-11-13 | Sri International | Method and apparatus for performing coordinated multi-PTZ camera tracking |
TW200713021A (en) | 2005-09-29 | 2007-04-01 | Univ Nat Cheng Kung | Hybrid picture classification method |
JP4241709B2 (ja) * | 2005-10-11 | 2009-03-18 | ソニー株式会社 | 画像処理装置 |
US7519567B2 (en) | 2005-10-31 | 2009-04-14 | Hewlett-Packard Development Company, L.P. | Enhanced classification of marginal instances |
US7646922B2 (en) * | 2005-12-30 | 2010-01-12 | Honeywell International Inc. | Object classification in video images |
US7716157B1 (en) | 2006-01-26 | 2010-05-11 | Adobe Systems Incorporated | Searching images with extracted objects |
US8571272B2 (en) * | 2006-03-12 | 2013-10-29 | Google Inc. | Techniques for enabling or establishing the use of face recognition algorithms |
US7949186B2 (en) * | 2006-03-15 | 2011-05-24 | Massachusetts Institute Of Technology | Pyramid match kernel and related techniques |
JP4556891B2 (ja) * | 2006-03-17 | 2010-10-06 | ソニー株式会社 | 情報処理装置および方法、記録媒体、並びにプログラム |
US7523081B1 (en) * | 2006-03-22 | 2009-04-21 | Google Inc. | Method and apparatus for producing a signature for an object |
KR20060031832A (ko) * | 2006-03-22 | 2006-04-13 | 뷰웨이 주식회사 | 실시간 행위분석 및 상황인지 기반 스마트 영상 보안시스템 |
CN101051385B (zh) * | 2006-04-07 | 2011-11-23 | 欧姆龙株式会社 | 特定被摄体跟踪方法和装置以及特征部跟踪方法和装置 |
US20070237387A1 (en) * | 2006-04-11 | 2007-10-11 | Shmuel Avidan | Method for detecting humans in images |
US8009861B2 (en) | 2006-04-28 | 2011-08-30 | Vobile, Inc. | Method and system for fingerprinting digital video object based on multiresolution, multirate spatial and temporal signatures |
CN101563710B (zh) * | 2006-05-22 | 2013-12-04 | 安讯士有限公司 | 识别由视频监视摄像机检测到的对象的特性的方法及装置 |
CN101449293A (zh) | 2006-05-31 | 2009-06-03 | 汤姆森许可贸易公司 | 视频对象的多跟踪 |
US8184166B2 (en) * | 2006-07-06 | 2012-05-22 | Nokia Corporation | Method, device, mobile terminal and computer program product for a camera motion detection based scheme for improving camera input user interface functionalities |
US20080052262A1 (en) | 2006-08-22 | 2008-02-28 | Serhiy Kosinov | Method for personalized named entity recognition |
US8165397B2 (en) | 2006-12-04 | 2012-04-24 | Lockheed Martin Company | Identifying descriptor for person or object in an image |
US7898576B2 (en) | 2007-02-28 | 2011-03-01 | Honeywell International Inc. | Method and system for indexing and searching objects of interest across a plurality of video streams |
US7925112B2 (en) | 2007-02-28 | 2011-04-12 | Honeywell International Inc. | Video data matching using clustering on covariance appearance |
US8559516B2 (en) | 2007-06-14 | 2013-10-15 | Sony Corporation | Video sequence ID by decimated scene signature |
US8094971B2 (en) * | 2007-09-05 | 2012-01-10 | Seiko Epson Corporation | Method and system for automatically determining the orientation of a digital image |
KR100903961B1 (ko) | 2007-12-17 | 2009-06-25 | 한국전자통신연구원 | 시그니처 파일을 이용한 고차원 데이터 색인 및 검색방법과 그 시스템 |
TWI489394B (zh) * | 2008-03-03 | 2015-06-21 | Videoiq Inc | 用於追蹤、索引及搜尋之物件匹配 |
US8872940B2 (en) | 2008-03-03 | 2014-10-28 | Videoiq, Inc. | Content aware storage of video data |
US8611701B2 (en) | 2008-05-21 | 2013-12-17 | Yuvad Technologies Co., Ltd. | System for facilitating the search of video content |
WO2010011991A2 (en) | 2008-07-25 | 2010-01-28 | Anvato, Inc. | Method and apparatus for detecting near-duplicate videos using perceptual video signatures |
AU2008264232B2 (en) | 2008-12-30 | 2012-05-17 | Canon Kabushiki Kaisha | Multi-modal object signature |
CN102292726B (zh) | 2009-01-23 | 2014-10-22 | 日本电气株式会社 | 视频标识符提取设备 |
US8625033B1 (en) | 2010-02-01 | 2014-01-07 | Google Inc. | Large-scale matching of audio and video |
-
2009
- 2009-03-03 TW TW098106915A patent/TWI489394B/zh active
- 2009-03-03 CN CN2009801073331A patent/CN101965576B/zh active Active
- 2009-03-03 KR KR1020107022071A patent/KR101607224B1/ko active IP Right Grant
- 2009-03-03 GB GB1211439.3A patent/GB2492247B/en active Active
- 2009-03-03 GB GB1014670.2A patent/GB2471036B/en active Active
- 2009-03-03 GB GB1211438.5A patent/GB2492246B/en active Active
- 2009-03-03 GB GB1211440.1A patent/GB2492248B/en active Active
- 2009-03-03 GB GB1014669.4A patent/GB2470520B/en active Active
- 2009-03-03 KR KR1020157030507A patent/KR101592889B1/ko active IP Right Grant
- 2009-03-03 TW TW104131589A patent/TWI534719B/zh active
- 2009-03-03 KR KR1020107022074A patent/KR101564383B1/ko active IP Right Grant
- 2009-03-03 CN CN200980107334.6A patent/CN101965729B/zh active Active
- 2009-03-03 TW TW098106916A patent/TWI506565B/zh active
- 2009-03-03 CN CN201610958333.4A patent/CN106657812B/zh active Active
- 2009-03-03 GB GB1211437.7A patent/GB2491987B/en active Active
- 2009-03-03 TW TW104114228A patent/TWI508003B/zh active
- 2009-03-03 US US12/397,276 patent/US8224029B2/en active Active
- 2009-03-03 US US12/397,287 patent/US8934709B2/en active Active
- 2009-03-03 WO PCT/US2009/035915 patent/WO2009111498A2/en active Application Filing
- 2009-03-03 DE DE112009000485T patent/DE112009000485T5/de active Pending
- 2009-03-03 DE DE112009000480T patent/DE112009000480T5/de active Pending
- 2009-03-03 WO PCT/US2009/035916 patent/WO2009111499A2/en active Application Filing
-
2012
- 2012-07-06 US US13/543,668 patent/US8655020B2/en active Active
-
2014
- 2014-02-18 US US14/183,154 patent/US9076042B2/en active Active
- 2014-02-18 US US14/183,201 patent/US9317753B2/en active Active
- 2014-12-05 US US14/562,572 patent/US9697425B2/en active Active
- 2014-12-05 US US14/562,552 patent/US10133922B2/en active Active
-
2016
- 2016-03-11 US US15/068,433 patent/US9830511B2/en active Active
-
2017
- 2017-05-25 US US15/605,818 patent/US10127445B2/en active Active
- 2017-11-03 US US15/802,936 patent/US10339379B2/en active Active
-
2018
- 2018-11-07 US US16/183,669 patent/US10417493B2/en active Active
-
2019
- 2019-06-14 US US16/442,266 patent/US11176366B2/en active Active
- 2019-08-02 US US16/530,861 patent/US10699115B2/en active Active
-
2021
- 2021-10-07 US US17/496,048 patent/US11669979B2/en active Active
Non-Patent Citations (7)
Title |
---|
"Content Aware Storage of Video Data" bzw. "Extending the Operational Lifetime of a Hard-Disk Drive Used in Video Data Storage Applications" |
"Method and System for Tracking Objects Under Video Surveillance", eingereicht am 3. März 2008 |
"Method of Dynamic Object and Event Classification", eingereicht am 3. März 2008 |
"Methods and Systems for Detecting Objekts of Interest in Spatio-Temporal Signals" |
"Objekt Matching for Tracking, Indexing, and Search" |
"Sequential Discriminant Error Minimization: The Theory and its Application to Real-Time Video Object Recognition" (Carnegie Mellon University, 2005) |
Paul Viola & Michael Jones, "Robust Real-Time Face Detection", International Journal of Computer Vision, S. 137-154 (2004) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102019207700A1 (de) * | 2019-05-27 | 2020-12-03 | Zf Friedrichshafen Ag | Klassifikationsvorrichtung zur Objektdetektion in Umfeldsensordaten und Verfahren |
Also Published As
Similar Documents
Publication | Publication Date | Title |
---|---|---|
DE112009000480T5 (de) | Dynamische Objektklassifikation | |
DE102018218586A1 (de) | Verfahren, Vorrichtung und Computerprogramm zum Erzeugen robuster automatisch lernender Systeme und Testen trainierter automatisch lernender Systeme | |
DE112009000949T5 (de) | Detektion eines freien Fahrpfads für ein Fahrzeug | |
DE102009048892A1 (de) | Pixelbasierte strukturreiche Detektion eines freien Pfads | |
DE112020000448T5 (de) | Kameraselbstkalibrierungsnetz | |
DE112020005223T5 (de) | Objektverfolgungseinrichtung und Objektverfolgungsverfahren | |
DE102018220892A1 (de) | Vorrichtung und Verfahren zur Generierung von Labelobjekten für die Umgebung eines Fahrzeugs | |
DE102021201124A1 (de) | Trainieren von bildklassifizierernetzen | |
DE102021201178A1 (de) | Computerimplementiertes verfahren zum erzeugen von zuverlässigkeitsangaben für computervision | |
DE102021200348A1 (de) | Computerimplementiertes verfahren zum trainieren eines computervisionsmodells | |
DE102021210417A1 (de) | Systeme und Verfahren mit robusten Klassifikatoren zur Abwehr von Patch-Angriffen | |
DE102021204040A1 (de) | Verfahren, Vorrichtung und Computerprogramm zur Erstellung von Trainingsdaten im Fahrzeug | |
DE102021201445A1 (de) | Computerimplementiertes Verfahren zum Testen der Konformität zwischen realen und synthetischen Bildern für maschinelles Lernen | |
DE102020208828A1 (de) | Verfahren und Vorrichtung zum Erstellen eines maschinellen Lernsystems | |
DE102020208080A1 (de) | Erkennung von Objekten in Bildern unter Äquivarianz oder Invarianz gegenüber der Objektgröße | |
CN111476129A (zh) | 一种基于深度学习的土壤杂质检测方法 | |
DE102020101444A1 (de) | Ein Verfahren zum Detektieren sich bewegender Objekte | |
DE102022201112A1 (de) | Vorrichtung und computer- implementiertes Verfahren zum maschinellen Lernen | |
DE202023106486U1 (de) | Ein automatisiertes Bewegungsobjekt-Erkennungssystem für Videoüberwachungsanwendungen | |
DE102020216188A1 (de) | Vorrichtung und Verfahren zum Trainieren eines Klassifizierers | |
CN117456257A (zh) | 一种基于改进YOLOv5的农业病虫害识别方法 | |
DE102022110871A1 (de) | Automatische annotation unter verwendung von ground-truth-daten für modelle des maschinellen lernens | |
DE102020211714A1 (de) | Verfahren und Vorrichtung zum Erstellen eines maschinellen Lernsystems | |
DE102021212731A1 (de) | Überprüfen von test- und/oder trainings-datensätzen für ein computerbasiertes maschinenlernmodul | |
EP4083939A1 (de) | Objekterkennung für ein hausgerät |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
R082 | Change of representative |
Representative=s name: HOFSTETTER, SCHURACK & PARTNER PATENT- UND REC, DE |
|
R081 | Change of applicant/patentee |
Owner name: AVO USA HOLDING 2 CORPORATION, BILLERICA, US Free format text: FORMER OWNER: VIDEOIQ, INC., BEDFORD, MASS., US Effective date: 20150127 Owner name: AVIGILON PATENT HOLDING 2 CORPORATION, CA Free format text: FORMER OWNER: VIDEOIQ, INC., BEDFORD, MASS., US Effective date: 20150127 Owner name: AVIGILON ANALYTICS CORPORATION, CA Free format text: FORMER OWNER: VIDEOIQ, INC., BEDFORD, MASS., US Effective date: 20150127 |
|
R082 | Change of representative |
Representative=s name: HOFSTETTER, SCHURACK & PARTNER PATENT- UND REC, DE Effective date: 20150127 Representative=s name: ZIMMERMANN & PARTNER PATENTANWAELTE MBB, DE Effective date: 20150127 |
|
R081 | Change of applicant/patentee |
Owner name: AVIGILON PATENT HOLDING 2 CORPORATION, CA Free format text: FORMER OWNER: AVO USA HOLDING 2 CORPORATION, BILLERICA, MASS., US Owner name: AVIGILON ANALYTICS CORPORATION, CA Free format text: FORMER OWNER: AVO USA HOLDING 2 CORPORATION, BILLERICA, MASS., US |
|
R082 | Change of representative |
Representative=s name: SCHUMACHER & WILLSAU PATENTANWALTSGESELLSCHAFT, DE Representative=s name: HOFSTETTER, SCHURACK & PARTNER PATENT- UND REC, DE Representative=s name: ZIMMERMANN & PARTNER PATENTANWAELTE MBB, DE |
|
R012 | Request for examination validly filed | ||
R081 | Change of applicant/patentee |
Owner name: AVIGILON ANALYTICS CORPORATION, CA Free format text: FORMER OWNER: AVIGILON PATENT HOLDING 2 CORPORATION, VANCOUVER, CA |
|
R082 | Change of representative |
Representative=s name: SCHUMACHER & WILLSAU PATENTANWALTSGESELLSCHAFT, DE Representative=s name: HOFSTETTER, SCHURACK & PARTNER PATENT- UND REC, DE Representative=s name: ZIMMERMANN & PARTNER PATENTANWAELTE MBB, DE |
|
R082 | Change of representative |
Representative=s name: SCHUMACHER & WILLSAU PATENTANWALTSGESELLSCHAFT, DE Representative=s name: ZIMMERMANN & PARTNER PATENTANWAELTE MBB, DE |
|
R016 | Response to examination communication | ||
R082 | Change of representative |
Representative=s name: SCHUMACHER & WILLSAU PATENTANWALTSGESELLSCHAFT, DE |
|
R079 | Amendment of ipc main class |
Free format text: PREVIOUS MAIN CLASS: G06K0009620000 Ipc: G06V0030190000 |
|
R081 | Change of applicant/patentee |
Owner name: MOTOROLA SOLUTIONS, INC., CHICAGO, US Free format text: FORMER OWNER: AVIGILON ANALYTICS CORPORATION, VANCOUVER, CA |
|
R002 | Refusal decision in examination/registration proceedings |