DE102015207047A1 - Method and system automated sequencing of vehicles in side-by-side transit configurations via image-based classification - Google Patents
Method and system automated sequencing of vehicles in side-by-side transit configurations via image-based classification Download PDFInfo
- Publication number
- DE102015207047A1 DE102015207047A1 DE102015207047.6A DE102015207047A DE102015207047A1 DE 102015207047 A1 DE102015207047 A1 DE 102015207047A1 DE 102015207047 A DE102015207047 A DE 102015207047A DE 102015207047 A1 DE102015207047 A1 DE 102015207047A1
- Authority
- DE
- Germany
- Prior art keywords
- vehicle
- vehicles
- detected
- track
- tracked
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 68
- 238000012163 sequencing technique Methods 0.000 title claims abstract description 20
- 230000004931 aggregating effect Effects 0.000 claims abstract description 4
- 238000001514 detection method Methods 0.000 claims description 38
- 230000033001 locomotion Effects 0.000 claims description 27
- 230000015654 memory Effects 0.000 claims description 25
- 238000013459 approach Methods 0.000 claims description 22
- 230000004044 response Effects 0.000 claims description 20
- 238000012545 processing Methods 0.000 claims description 17
- 230000003287 optical effect Effects 0.000 claims description 9
- 235000013410 fast food Nutrition 0.000 claims description 3
- 238000004422 calculation algorithm Methods 0.000 description 18
- 230000008569 process Effects 0.000 description 11
- 238000012549 training Methods 0.000 description 9
- 238000010200 validation analysis Methods 0.000 description 7
- 230000008859 change Effects 0.000 description 5
- 238000004891 communication Methods 0.000 description 5
- 238000001914 filtration Methods 0.000 description 5
- 238000004590 computer program Methods 0.000 description 4
- 230000004069 differentiation Effects 0.000 description 4
- 235000013305 food Nutrition 0.000 description 4
- 230000006870 function Effects 0.000 description 4
- 238000005286 illumination Methods 0.000 description 4
- 238000012706 support-vector machine Methods 0.000 description 4
- 230000003466 anti-cipated effect Effects 0.000 description 2
- 230000005540 biological transmission Effects 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 2
- 238000006073 displacement reaction Methods 0.000 description 2
- 239000000284 extract Substances 0.000 description 2
- 238000000605 extraction Methods 0.000 description 2
- 238000012544 monitoring process Methods 0.000 description 2
- 239000002245 particle Substances 0.000 description 2
- 230000001960 triggered effect Effects 0.000 description 2
- 239000013598 vector Substances 0.000 description 2
- BUHVIAUBTBOHAG-FOYDDCNASA-N (2r,3r,4s,5r)-2-[6-[[2-(3,5-dimethoxyphenyl)-2-(2-methylphenyl)ethyl]amino]purin-9-yl]-5-(hydroxymethyl)oxolane-3,4-diol Chemical compound COC1=CC(OC)=CC(C(CNC=2C=3N=CN(C=3N=CN=2)[C@H]2[C@@H]([C@H](O)[C@@H](CO)O2)O)C=2C(=CC=CC=2)C)=C1 BUHVIAUBTBOHAG-FOYDDCNASA-N 0.000 description 1
- 230000009471 action Effects 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 238000004883 computer application Methods 0.000 description 1
- 238000003066 decision tree Methods 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 230000001788 irregular Effects 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 230000000877 morphologic effect Effects 0.000 description 1
- 238000000513 principal component analysis Methods 0.000 description 1
- 230000000644 propagated effect Effects 0.000 description 1
- 238000013138 pruning Methods 0.000 description 1
- 238000013139 quantization Methods 0.000 description 1
- 238000012216 screening Methods 0.000 description 1
- 238000013179 statistical model Methods 0.000 description 1
- 239000000126 substance Substances 0.000 description 1
- 230000002123 temporal effect Effects 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
- 230000007704 transition Effects 0.000 description 1
- 238000013519 translation Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q10/00—Administration; Management
- G06Q10/04—Forecasting or optimisation specially adapted for administrative or management purposes, e.g. linear programming or "cutting stock problem"
-
- G06Q50/40—
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/01—Detecting movement of traffic to be counted or controlled
- G08G1/017—Detecting movement of traffic to be counted or controlled identifying vehicles
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/01—Detecting movement of traffic to be counted or controlled
- G08G1/04—Detecting movement of traffic to be counted or controlled using optical or ultrasonic detectors
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/065—Traffic control systems for road vehicles by counting the vehicles in a section of the road or in a parking area, i.e. comparing incoming count with outgoing count
Abstract
Diese Offenbarung stellt ein Verfahren und System zum automatisierten Sequenzieren von Fahrzeugen in nebeneinander angeordneten Durchfahrtskonfigurationen über eine bildbasierte Einstufung bereit. Gemäß einem Ausführungsbeispiel beinhaltet ein automatisiertes Sequenzierverfahren ein computerimplementiertes Verfahren zum automatisierten Sequenzieren von Fahrzeugen in einer nebeneinander angeordneten Durchfahrt, wobei das Verfahren Folgendes umfasst: a) eine Bilderfassungsvorrichtung, die ein Video eines Zusammenlaufpunktbereichs erfasst, der mit mehreren Spuren von zusammenlaufendem Verkehr assoziiert ist; b) Detektieren in dem Video eines Fahrzeugs, während dieses den Zusammenlaufpunktbereich durchquert; c) Einstufen des detektierten Fahrzeugs, das mit der Durchquerung des Zusammenlaufpunktbereichs assoziiert ist, als aus einer der zusammenlaufenden Spuren kommend; und d) Aggregieren von Fahrzeugeinstufungen, die in Schritt c) ausgeführt werden, um eine Zusammenlaufabfolge von detektierten Fahrzeugen zu generieren.This disclosure provides a method and system for automated sequencing of vehicles in side-by-side transit configurations via image-based classification. According to one embodiment, an automated sequencing method includes a computer-implemented method for automated sequencing of vehicles in a side-by-side transit, the method comprising: a) an image capture device that captures a video of a merge point area associated with multiple tracks of contiguous traffic; b) detecting in the video of a vehicle as it traverses the confluence point area; c) ranking the detected vehicle associated with traversing the confluence point area as coming from one of the converging tracks; and d) aggregating vehicle ratings performed in step c) to generate a merged sequence of detected vehicles.
Description
ALLGEMEINER STAND DER TECHNIKGENERAL PRIOR ART
Aufgrund eines erhöhten Kundendurchsatzes in Bezug auf herkömmliche Durchfahrtskonfigurationen mit einem Bestellpunkt ist eine nebeneinander angeordnete Durchfahrtskonfiguration zu einer Standardkonfiguration, die von neu gebauten Schnellservice-Restaurants verwendet wird, sowie zu einer Konfiguration geworden, zu der viele vorhandene Restaurants wechseln. Wenngleich die nebeneinander angeordnete Durchfahrtskonfiguration Vorteile im Hinblick auf die maximale Kundendurchfahrtsrate pro Stunde aufweist, die ein Restaurant erzielen kann, und so die Anzahl der „Wegfahr”-Ereignisse (bei denen ein Kunde ankommt, beschließt, dass die Schlange zu lang ist oder er länger als geplant warten muss, und sich dann entschließt, wegzufahren) verringert wird, stellt die nebeneinander angeordnete Durchfahrt neue Herausforderungen für Restaurantleiter und -mitarbeiter dar. Eine solche Herausforderung ist die Bestimmung einer korrekten Kundenbestellabfolge, da Fahrzeuge ab dem Zeitpunkt der Aufgabe der Bestellung durch den Kunden bis zu dem Zeitpunkt, an dem der Kunde die bestellte Ware empfängt, aufgrund der parallelen Natur der Konfiguration vermischt werden können, siehe
KURZBESCHREIBUNG SUMMARY
In einer Ausführungsform dieser Offenbarung ist ein automatisiertes Sequenzierverfahren ein computerimplementiertes Verfahren zum automatisierten Sequenzieren von Fahrzeugen, die von mehreren Spuren in eine einzige Spur zusammenlaufen, wobei das Verfahren Folgendes umfasst: a) eine Bilderfassungsvorrichtung, die ein Video eines Zusammenlaufpunktbereichs erfasst, der mit mehreren Spuren von zusammenlaufendem Verkehr assoziiert ist; b) Detektieren in dem Video eines Fahrzeugs, während dieses den Zusammenlaufpunktbereich durchquert; c) Einstufen des detektierten Fahrzeugs, das mit der Durchquerung des Zusammenlaufpunktbereichs assoziiert ist, als aus den zusammenlaufenden Spuren kommend; und d) Aggregieren von Fahrzeugeinstufungen, die in Schritt c) ausgeführt werden, um eine Zusammenlaufabfolge von detektierten Fahrzeugen zu generieren. In einer anderen Ausführungsform dieser Offenbarung ist ein Bildverarbeitungssystem beschrieben, das folgendes umfasst: einen Prozessor und einen Speicher, der mit dem Prozessor wirkverbunden ist, wobei der Prozessor und der Speicher Anweisungen ausführen, um ein Verfahren zum automatisierten Sequenzieren von Fahrzeugen auszuführen, die von mehreren Spuren zu einer einzigen Spur zusammenlaufen, wobei das Verfahren Folgendes umfasst: a) eine Bilderfassungsvorrichtung, die ein Video eines Zusammenlaufpunktbereichs erfasst, der mit mehreren Spuren von zusammenlaufendem Verkehr assoziiert ist; b) Detektieren in dem Video eines Fahrzeugs, während dieses den Zusammenlaufpunktbereich durchquert; c) Einstufen des detektierten Fahrzeugs, das mit der Durchquerung des Zusammenlaufpunktbereichs assoziiert ist, als aus den zusammenlaufenden Spuren kommend; und d) Aggregieren von Fahrzeugeinstufungen, die in Schritt c) ausgeführt werden, um eine Zusammenlaufabfolge von detektierten Fahrzeugen zu generieren. In noch einer anderen Ausführungsform dieser Offenbarung ist ein System zum Aktualisieren einer Ereignisabfolge beschrieben, wobei das System eine automatische Sequenziervorrichtung umfasst, die einen Speicher und einen Prozessor umfasst und mit dem Prozessor verbunden ist, um Folgendes zu konfigurieren: Empfangen einer Anzahl einzelner Bestellanfragen von den zwei Bestellpunkten, wobei jede Bestellanfrage empfangen wird, wenn sich ein Fahrzeug an einem der zwei Bestellpunkte befindet; Aufnehmen von Videodaten eines Spurzusammenlaufpunktbereichs von mindestens einer Bildquelle, wobei der Zusammenlaufpunktbereich mit der Konvergenz von zwei Fahrzeug-Warteschlangenspuren von zwei jeweiligen Bestellpunkten zu einer einzigen Warteschlangenspur assoziiert ist; Verarbeiten eines von Rahmen und mindestens eines Bereichs von Interesse (ROI) in Rahmen der Videodaten, um ein Fahrzeug zu detektieren, das mindestens einen Abschnitt des Fahrzeugs in dem Spurzusammenlaufpunktbereich aufweist; Verfolgen einer Bewegung jedes detektierten Fahrzeugs durch den Spurzusammenlaufpunktbereich über eine Reihe von Rahmen, bis sich das detektierte Fahrzeug außerhalb des Spurzusammenlaufpunktbereichs befindet; als Reaktion auf das detektierte und verfolgte Fahrzeug, das mit dem Spurzusammenlaufpunktbereich assoziiert ist, Einstufen eines oder mehrerer Videorahmen als ein Fahrzeug, das von einer äußeren Spur kommt, die dem Bestellpunkt A assoziiert ist, oder ein Fahrzeug aufweisend, das von einer inneren Spur kommt, die mit dem Bestellpunkt B assoziiert ist; und Aktualisieren einer Abfolge der Bestellungen, um sie mit der bestimmten Abfolge von Fahrzeugen in der einzigen Warteschlangenspur in Einklang zu bringen.In one embodiment of this disclosure, an automated sequencing method is a computer-implemented method for automated sequencing of vehicles converging from multiple lanes into a single lane, the method comprising: a) an image capture device that captures a video of a merge point range that is multi-lane associated with converged traffic; b) detecting in the video of a vehicle as it traverses the confluence point area; c) ranking the detected vehicle associated with traversing the confluence point area as coming from the converging tracks; and d) aggregating vehicle ratings performed in step c) to generate a merged sequence of detected vehicles. In another embodiment of this disclosure, an image processing system is described, comprising: a processor and memory operatively connected to the processor, wherein the processor and the memory execute instructions to execute a method for automated sequencing of vehicles that includes a plurality of vehicles Tracks converge to a single track, the method comprising: a) an image capture device that captures a video of a merge point area associated with multiple tracks of converging traffic; b) detecting in the video of a vehicle as it traverses the confluence point area; c) ranking the detected vehicle associated with traversing the confluence point area as coming from the converging tracks; and d) aggregating vehicle ratings performed in step c) to generate a merged sequence of detected vehicles. In yet another embodiment of this disclosure, a system for updating an event sequence is described, the system comprising an automatic sequencer comprising a memory and a processor and connected to the processor for configuring: receiving a number of individual order requests from the two order points, each order request being received when a vehicle is at one of the two order points; Capturing video data of a track merge point area from at least one image source, wherein the merge point area is associated with the convergence of two vehicle queue tracks from two respective reorder points to a single queue track; Processing one of frames and at least one region of interest (ROI) within the video data to detect a vehicle having at least a portion of the vehicle in the track merge point region; Tracking a movement each detected vehicle through the track merge point area over a series of frames until the detected vehicle is outside the track merge point area; in response to the detected and tracked vehicle associated with the track merge point area, ranking one or more video frames as a vehicle coming from an outer track associated with the order point A, or having a vehicle coming from an inner track that is associated with the order point B; and updating a sequence of orders to align them with the particular sequence of vehicles in the single queue track.
KURZBESCHREIBUNG DER ZEICHNUNGENBRIEF DESCRIPTION OF THE DRAWINGS
AUSFÜHRLICHE BESCHREIBUNG DETAILED DESCRIPTION
Diese Offenbarung stellt ein bild- oder videobasiertes Verfahren und System zum automatischen Sequenzieren nach dem Zusammenlauf bereit, die nicht auf die Verfolgung von Fahrzeugen von einem Bestellpunkt setzen. Ein Ansatz, der auf der Verfolgung eines Objekts basiert, würde Fahrzeuge an dem Bestellpunkt detektieren und ihre Position über Zeiten (d. h. über Rahmen) hinweg verfolgen und basierend auf der zeitlichen Abfolge von Fahrzeugpositionen eine Bestimmung dahingehend vornehmen, welches Fahrzeug den Zusammenlaufpunkt zuerst durchquert. Im Gegensatz dazu funktioniert die vorgeschlagene Offenbarung durch Detektieren von Fahrzeugen, während sie einen Zusammenlaufpunkt überqueren, und stuft die Fahrzeuge als von einer inneren oder äußeren Spur stammend ein. Das Verfahren und System setzen auf eine Offline-Trainingsstufe, in der Merkmale von manuell gekennzeichneten Proben von Fahrzeugen, die einen Zusammenlaufpunkt überqueren, extrahiert und zwecks Training in einen Klassifikator gespeist werden; der trainierte Klassifikator wird anschließend als ein Online-Klassifikatormodul während des Systembetriebs verwendet. This disclosure provides a video or video-based method and system for automatically sequencing post-merge that does not rely on tracking vehicles from a reorder point. An approach based on the tracking of an object would detect vehicles at the order point and track their position over times (i.e., over frames) and make a determination based on the time sequence of vehicle positions as to which vehicle traverses the point of collision first. In contrast, the proposed disclosure works by detecting vehicles as they cross a confluence point and classifies the vehicles as originating from an inner or outer lane. The method and system rely on an off-line training stage where features of manually identified samples of vehicles crossing a confluence point are extracted and fed into a classifier for training; the trained classifier is then used as an online classifier module during system operation.
Die vorliegende Offenbarung stellt ein bild- oder videobasiertes Verfahren und System zum automatischen Sequenzieren nach dem Zusammenlauf bereit, die nicht auf die Verfolgung von Fahrzeugen von einem Bestellpunkt setzen. Das Verfahren und System funktionieren durch Detektieren von Fahrzeugen, während sie einen Zusammenlaufpunkt überqueren, und stuft die Fahrzeuge als von der inneren oder äußeren Spur stammend ein, die mit der nebeneinander angeordneten Durchfahrtskonfiguration assoziiert ist. Das Verfahren und System umfassen die folgenden Module: (1) Ein Videoaufnahmemodul, das mindestens eine Videokamera aufweist, die Videos der Durchfahrt von Interesse aufnimmt; (2) ein Fahrzeugdetektionsmodul, das Fahrzeuge detektiert, während sie den Zusammenlaufpunkt überqueren, mittels z. B. Bewegungs- oder Vordergrunddetektion; (3) ein Fahrzeugverfolgungsmodul, das detektierte Fahrzeuge verfolgt, bis sie den überwachten Zusammenlaufpunktbereich verlassen; (4) ein Klassifikatormodul, das bestimmt. ob die detektierten Fahrzeuge von der inneren oder äußeren Durchfahrtsspur kommen; und (5) ein Zusammenlaufpunkt-Abfolgebestimmungsmodul, das Ausgaben des Klassifikatormoduls gemäß der Ausgabe des Verfolgungsmoduls vorübergehend aggregiert. Das System setzen auf eine Offline-Stufe, in der Merkmale von manuell gekennzeichneten Proben von Fahrzeugen, die den Zusammenlaufpunkt überqueren, extrahiert und zwecks Training in einen Klassifikator gespeist werden; der trainierte Klassifikator wird dann für den normalen Systembetrieb in die Online-Stufe integriert. The present disclosure provides a video or video-based method and system for automated post-merge sequencing that does not rely on tracking vehicles from a reorder point. The method and system function by detecting vehicles as they cross a confluence point and classify the vehicles as being from the inner or outer lane originating associated with the side-by-side drive-through configuration. The method and system include the following modules: (1) a video capture module having at least one video camera that receives videos of transit of interest; (2) a vehicle detection module which detects vehicles as they cross the confluence point by means of e.g. B. motion or foreground detection; (3) a vehicle tracking module that tracks detected vehicles until they leave the monitored convergence point area; (4) a classifier module that determines. whether the detected vehicles come from the inner or outer passage lane; and (5) a merge point sequence determination module that temporarily aggregates outputs of the classifier module according to the output of the tracking module. The system sets an off-line stage where features of manually marked samples of vehicles crossing the confluence point are extracted and fed into a classifier for training; the trained classifier is then integrated into the online stage for normal system operation.
Wie oben im Abschnitt Allgemeiner Stand der Technik erläutert, ist aufgrund eines erhöhten Kundendurchsatzes in Bezug auf herkömmliche Durchfahrtskonfigurationen mit einem Bestellpunkt eine nebeneinander angeordnete Durchfahrtskonfiguration zur Standardkonfiguration geworden, die von neu gebauten Schnellservice-Restaurants verwendet wird, sowie zu einer Konfiguration, zu der viele vorhandene Restaurants wechseln. Wenngleich diese Konfiguration Vorteile im Hinblick auf die maximale Kundendurchfahrtsrate pro Stunde aufweist, die ein Restaurant erzielen kann, und so die Anzahl der „Wegfahr”-Ereignisse (bei denen ein Kunde ankommt, beschließt, dass die Schlange zu lang ist, und sich dann entschließt, wegzufahren) verringert wird, stellt sie neue Herausforderungen für Restaurantleiter und -mitarbeiter dar. Eine solche Herausforderung ist die Bestimmung der richtigen Kundenbestellungsabfolge, da Fahrzeuge zwischen dem Zeitpunkt der Bestellungsaufgabe bis zu dem Zeitpunkt, an dem der Kunde die Bestellung empfängt, aufgrund der parallelen Natur der Konfiguration vermischt werden können, siehe
Andere Patentschriften/Patentanmeldungen, die eine automatisierte Zusammenlaufpunkt-Bestellungsbestimmung offenbaren, schließen signaturbasierte Bestellverfolgung ein, wie in der
Die US-Patentanmeldung Nr. 14/260,915 offenbart ein automatisiertes Verfahren und System zur automatischen Zusammenlaufsequenzierung, die die Detektion von Fahrzeugen an ihrem jeweiligen Bestellpunkt und ihre Verfolgung beinhalten, bis sie einen Zusammenlaufpunkt überqueren. Ein solches Verfahren macht eine genaue Bewegungs-/Vordergrunddetektion und Verfolgung erforderlich, um die Gesamtgenauigkeit der Zusammenlaufsequenzierung aufrechtzuerhalten. Je nach dem Blickwinkel der Kamera in Bezug auf den Zusammenlaufpunktbereich kann eine genaue Detektion und Verfolgung von Fahrzeugen schwierig sein, da Fahrzeuge in einer Spur, üblicherweise der Spur näher zur Kamera, Fahrzeuge in der anderen Spur, üblicherweise der Spur, die weiter von der Kamera entfernt ist), teilweise von der Kamerasicht verdecken kann, wie in
- (1) Ein
Videoaufnahmemodul 50 , das mindestens eine Videokamera aufweist, die ein Video des Zusammenlaufpunktbereichs von Interesse aufnimmt; - (2) Ein
Fahrzeugdetektionsmodul 52 , z. B. Bewegungs- oder Vordergrunddetektion, das Fahrzeuge detektiert, während sie den Zusammenlaufpunkt überqueren; - (3) Ein Fahrzeugverfolgungsmodul
54 , das Fahrzeuge verfolgt, während sie den Zusammenlaufpunkt überqueren, und sie weiter verfolgt, bis sie den Bereich verlassen; - (4) Ein
Klassifikatormodul 56 , das bestimmt, ob die detektierten Fahrzeuge von der inneren oder äußeren Durchfahrtsspur kommen; und - (5) Ein Zusammenlaufpunkt-Abfolgebestimmungsmodul
58 , das Ausgaben des Klassifikatormoduls in Übereinstimmung mit der Ausgabe des Verfolgungsmoduls vorübergehend aggregiert und eine Bestimmung bezüglich der beobachteten Zusammenlaufabfolge vornimmt.
- (1) A
video recording module 50 having at least one video camera receiving a video of the confluence point area of interest; - (2) A
vehicle detection module 52 , z. Motion or foreground detection, which detects vehicles as they cross the confluence point; - (3) A vehicle tracking module
54 Tracing vehicles as they cross the confluence point and keep pursuing them until they leave the area; - (4) A
classifier module 56 determining whether the detected vehicles come from the inner or outer transit lane; and - (5) A merge point sequence determination module
58 that temporarily aggregates outputs of the classifier module in accordance with the output of the tracking module and makes a determination regarding the observed merge sequence.
Das Verfahren und System weisen eine Offline-Stufe auf, in der Merkmale von manuell gekennzeichneten Proben von Fahrzeugen, die den Zusammenlaufpunkt überqueren, extrahiert und zwecks Training in einen Klassifikator gespeist werden. Danach wird der trainierte Klassifikator während des Online-Betriebs des Systems in das Klassifikatormodul aufgenommen.The method and system include an off-line stage in which features of manually identified samples of vehicles crossing the confluence point are extracted and fed into a classifier for training. Thereafter, the trained classifier is included in the classifier module during on-line operation of the system.
Ein Prinzip, an dem das offenbarte automatisierte Sequenzierverfahren ausgeführt wird, basiert auf der Tatsache, dass das Erscheinungsbild von Fahrzeugen, die einen Zusammenlaufpunkt überqueren, je nach dem Bestellpunkt, von dem sie kommen, erheblich variiert, wie durch die Bilder in
1) Videoaufnahmemodul
Das Videoaufnahmemodul umfasst mindestens eine Videokamera, die ein Video eines Bereichs von Interesse aufnimmt. Im Hinblick auf die räumlichen oder zeitlichen Auflösungen sind keine spezifischen Anforderungen erforderlich. Allerdings sind herkömmliche Überwachungskameras typischerweise IP-(Internet Protocol)-Kameras mit Pixelauflösungen von VGA (Video Graphics Array) und darüber (640 × 480) und Bildrahmenraten von 15 fps (Rahmen pro Sekunde) und darüber. Zum Beispiel eine RGB(Rot Grün Blau)-Kompaktkamera mit einer Auflösung von 1280 × 720 Pixel und einer Bildrahmenrate von 30 fps gemäß einem Ausführungsbeispiel dieser Offenbarung. The video capture module includes at least one video camera that captures a video of a region of interest. With regard to the spatial or temporal resolutions, no specific requirements are required. However, conventional surveillance cameras are typically IP (Internet Protocol) cameras with pixel resolutions of VGA (Video Graphics Array) and above (640x480) and frame rates of 15 fps (frames per second) and above. For example, an RGB (Red Green Blue) compact camera having a resolution of 1280 × 720 pixels and an image frame rate of 30 fps according to an embodiment of this disclosure.
2) Fahrzeugdetektionsmodul
Ein Fahrzeugdetektionsmodul detektiert die Gegenwart von Fahrzeugen, während sie den Zusammenlaufpunktbereich betreten. Gemäß einem Ausführungsbeispiel des Algorithmus wird eine Detektion eines sich bewegenden Fahrzeugs durch zeitliche Differenzierung von Rahmen ausgeführt. Andere Bewegungs- und Vordergrunddetektionsansätze wie diejenigen, die auf einer Hintergrundschätzung und -subtraktion basieren, und optischer Fluss können verwendet werden. Als Alternative und wie in der Beschreibung des Klassifikatormoduls dargestellt, kann das Einstufungsmodul verwendet werden, um eine Fahrzeugdetektion zusätzlich zu der Bestimmung auszuführen, d. h. Einstufung, von welcher Bestellspur, d. h. dem inneren oder äußeren Bestellpunkt, das Fahrzeug kommt, ausgehend von einer rahmenweise Basis. Nachdem ein Fahrzeug detektiert ist, wird ein Tracker ausgelöst, um das Voranschreiten des Fahrzeugs zu überwachen, während es den Zusammenlaufpunktbereich überquert. Das Fahrzeugdetektionsmodul wird nur dann betätigt, wenn bestimmt wird, dass das Fahrzeug nicht bereits verfolgt wird, da das System unter der Voraussetzung arbeitet, dass zu einem bestimmten Zeitpunkt höchstens ein Fahrzeug den Zusammenlaufpunktbereich überqueren kann.A vehicle detection module detects the presence of vehicles as they enter the confluence point area. According to an embodiment of the algorithm, detection of a moving vehicle is performed by time differentiation of frames. Other motion and foreground detection approaches, such as those based on background estimation and subtraction, and optical flow may be used. Alternatively, and as shown in the description of the classifier module, the rating module may be used to perform vehicle detection in addition to the determination, ie, ranking, from which order lane, ie, interior or exterior Order point, the vehicle comes, starting from a frame-by-frame basis. After a vehicle is detected, a tracker is triggered to monitor the progression of the vehicle as it traverses the confluence point area. The vehicle detection module is operated only when it is determined that the vehicle is not already being tracked because the system operates on the premise that at most one vehicle can cross the confluence point area at a particular time.
3) Fahrzeugverfolgungsmodul
Ein Fahrzeugverfolgungsmodul verfolgt die Position eines detektierten Fahrzeugs, während sich dieses über den Zusammenlaufpunktbereich bewegt. Beispiele von videobasierten Objektverfolgungsalgorithmen, die verwendet werden können, schließen das Mean Shift Tracking, Punkt- und globale merkmalsbasierte Algorithmen, Silhouette/Kontur und Partikelfilter-Tracker ein. Gemäß einem Ausführungsbeispiel stellt das lokale Objektverfolgungsmodul Übereinstimmungen zwischen mehreren Detektionen eines Objekts über verschiedene Rahmen her. Zu diesem Zweck kann das Verfolgungsmodul eine temporäre Abfolge ausgeben, die Daten entspricht, die die Position des detektierten Fahrzeugs über den Bereich von Rahmen beschreiben, in denen es innerhalb des überwachten Bereichs vorhanden ist. Genauer kann das lokale Verfolgungsmodul für jedes verfolgte Objekt seine Position in Pixelkoordinaten und die entsprechende Bildrahmenzahl über den Bereich von Rahmenausgeben, für den das Objekt innerhalb des überwachten Bereichs bleibt. Dieses Modul führt eine Verfolgung an dem Zusammenlaufpunktbereich aus und ist erforderlich, um zu verhindern, dass ein einziges Fahrzeug in dem Bereich mehrere Fahrzeugdetektionssignale auslöst. Insbesondere beinhaltet im Gegensatz zu dem offenbarten Verfahren und System ein anderer Ansatz eine automatische Zusammenlauflösung, die die Verfolgung von Fahrzeugen den gesamten Weg von dem Bestellpunkt bis zu dem Zusammenlaufpunkt beinhaltet. Je nach den Kamerawinkeln, die für ein bestimmtes Restaurant verfügbar sind, kann die Leistung dieses Ansatzes durch schwerwiegende Verdeckungen beeinträchtigt sein, wie in
4) Klassifikatormodul
Ein Klassifikatormodul trifft eine rahmenweise Entscheidung darüber, ob das Fahrzeug, das an dem Zusammenlaufpunkt von dem Fahrzeugdetektionsmodul detektiert wird oder von dem Fahrzeugverfolgungsmodul verfolgt wird, von dem inneren oder dem äußeren Bestellpunkt kommt. Gemäß einem Ausführungsbeispiel des Algorithmus werden zwei Support Vector Machine(SVM)-Klassifikatoren mit linearem Kern verwendet, die an extrahierten „Histogram of Gradient”-(HOG)-Merkmalen von Trainingsbildern von Fahrzeugen trainiert sind. Andere Ausführungsbeispiele können weniger oder mehr trainierte und angewendete Klassifikatoren beinhalten. Zum Beispiel können andere Klassifikatoren wie diejenigen, die auf SVM mit nicht linearen Kernen basieren, neurale Netzwerke, überwachte Clusterbildungs- und Entscheidungsbäume verwendet werden. A classifier module makes a frame-by-frame decision as to whether the vehicle being detected at the confluence point by the vehicle detection module or tracked by the vehicle tracking module is coming from the inner or outer ordering point. According to one embodiment of the algorithm, two Linear Vector Support Vector Machine (SVM) classifiers are trained on extracted "Histogram of Gradient" (HOG) features of vehicle training images. Other embodiments may include fewer or more trained and applied classifiers. For example, other classifiers such as those based on SVM with nonlinear cores, neural networks, supervised clustering and decision trees may be used.
Gleichermaßen können andere Merkmale texturbasierte Merkmale wie Local Binary Patterns (LBP), Successive Mean Quantization Transform-(SMQT)-Merkmale; Merkmale, die auf Farbattributen basieren (z. B. Farbhistogramme); skaleninvariante Merkmale wie Scale Invariant Feature Transform(SIFT)-Merkmale oder Speeded Up Robust Features (SURF); und lokale Bilddeskriptoren wie Bag of Visual Words (BOV) oder Fisher-Vektoren einschließen. Wie oben offenbart, muss, bevor das Klassifikatormodul an einem ankommenden Video eingesetzt werden kann, ein Klassifikator in einer Trainingsstufe trainiert werden. Die Anwendung des trainierten Klassifikators an einem ankommenden Video erfolgt in einer Online-Stufe.Similarly, other features may use texture-based features such as Local Binary Patterns (LBP), Successive Mean Quantization Transform (SMQT) features; Features based on color attributes (eg color histograms); scale-invariant features such as Scale Invariant Feature Transform (SIFT) features or Speeded Up Robust Features (SURF); and include local image descriptors such as Bag of Visual Words (BOV) or Fisher vectors. As disclosed above, before the classifier module can be used on an incoming video, a classifier must be trained in a training stage. The application of the trained classifier to an incoming video occurs in an online stage.
Trainingsstufe: Jeder Klassifikator (d. h. ein Klassifikator für jede Zusammenlaufspur) wird unabhängig mit manuell gekennzeichneten positiven Proben, die Bilder mit Fahrzeugen umfassen, die von der Spur kommen, die dem Klassifikator zugewiesen ist, und manuell gekennzeichneten negativen Proben trainiert, die Bilder ohne Fahrzeuge und Bilder mit Fahrzeugen von der Spur umfassen, die dem Klassifikator nicht zugewiesen ist. Die Trainingsproben werden von RGB in Grauskala umgewandelt; anschließend werden HOG-Merkmale aus den resultierenden monochromatischen Bildern extrahiert und einer SVM-Klassifikator-Trainingsstufe mit linearem Kern zugeführt. Der Klassifikator wird trainiert, um die positiven Proben von den negativen Proben durch Finden von Regeln zu unterscheiden, die ihre entsprechenden Merkmalsrepräsentationen trennen.Training Level: Each classifier (ie, one classifier for each trail) is independently trained with manually marked positive samples comprising images with vehicles coming from the track assigned to the classifier and manually marked negative samples, the images without vehicles and Include images with vehicles from the track that is not assigned to the classifier. The training samples are converted from RGB to gray scale; then HOG features are extracted from the resulting monochromatic images and fed to a linear core SVM classifier training stage. The classifier is trained to distinguish the positive samples from the negative samples by finding rules that separate their respective feature representations.
In einer anderen Ausführungsform wird ein einziger Mehrklassen-Klassifikator trainiert, um zwischen Bildern von Fahrzeugen zu unterscheiden, die von jeder der zusammenlaufenden Spuren kommen. Zum Beispiel ist der trainierte Klassifikator in dem Fall, wenn zwei Spuren zu einer einzigen Spur zusammenlaufen, ein binärer Klassifikator, wobei Klasse 1 Bildern von Fahrzeugen entspricht, die von Spur 1 zusammenlaufen, und Klasse 2 Bildern von Fahrzeugen entspricht, die von Spur 2 zusammenlaufen. Eine größere Anzahl von zusammenlaufenden Spuren kann unterstützt werden. In another embodiment, a single multi-class classifier is trained to distinguish between images of vehicles coming from each of the merging lanes. For example, in the case where two lanes merge into a single lane, the trained classifier is a binary classifier, where class l corresponds to images of vehicles converging from lane 1, and class 2 corresponds to images of vehicles converging from lane 2 , A larger number of converging tracks can be supported.
In noch einer anderen Ausführungsform wird ein einziger Mehrklassen-Klassifikator trainiert, um zwischen Bildern von Fahrzeugen, die von jeder der zusammenlaufenden Spuren kommen, sowie Bildern zu unterscheiden, die keine Fahrzeuge enthalten. Falls die Anzahl der zusammenlaufenden Spuren in diesem Fall N ist, dann ist die Anzahl der Klassen in dem Klassifikator N + 1.In yet another embodiment, a single multi-class classifier is trained to distinguish between images of vehicles coming from each of the merging lanes and images that do not contain vehicles. If the number of contiguous tracks in this case is N, then the number of classes in the classifier is N + 1.
Online-Stufe: Nachdem jeder Klassifikator trainiert ist, wird er auf ein Live-Video angewendet, das von dem Videoaufnahmemodul aufgenommen wird. Gemäß einem Ausführungsbeispiel werden die Klassifikatoren nur auf Rahmen angewendet, für die ein Fahrzeug von dem Fahrzeugdetektionsmodul detektiert wurde oder für die ein Fahrzeug von dem Fahrzeugverfolgungsmodul verfolgt wird. Gemäß einem anderen Ausführungsbeispiel werden die Klassifikatoren auf jeden Rahmen angewendet und ihre Ausgaben werden verwendet, um sowohl eine Fahrzeugdetektion als auch eine Bestimmung der Spur auszuführen, von der die Bestellung kommt.Online Level: After each classifier is trained, it will be applied to a live video captured by the video capture module. According to one embodiment, the classifiers are applied only to frames for which a vehicle has been detected by the vehicle detection module or for which a vehicle is being tracked by the vehicle tracking module. According to another embodiment, the classifiers are applied to each frame and their outputs are used to carry out both a vehicle detection and a determination of the lane from which the order comes.
In der alternativen Ausführungsform, in der ein einziger Mehrklassen-Klassifikator mit einer Anzahl von Klassen vorhanden ist, die der Anzahl von zusammenlaufenden Spuren entspricht, kann der Klassifikator nur auf Rahmen angewendet werden, für die ein Fahrzeug von dem Fahrzeugdetektionsmodul detektiert wurde. In der alternativen Ausführungsform, in der ein einziger Mehrklassen-Klassifikator vorhanden ist, der mit Klassen, die Bildern von Fahrzeugen entsprechend, die von jeder Spur zusammenlaufen, und mit einer zusätzlichen Klasse trainiert ist, die Bildern ohne Fahrzeuge entsprechen, kann der Klassifikator auf jeden Rahmen oder auf Rahmen angewendet werden, für die ein Fahrzeug von dem Fahrzeugdetektionsmodul detektiert wurde.In the alternative embodiment, where there is a single multi-class classifier having a number of classes corresponding to the number of contiguous tracks, the classifier may be applied only to frames for which a vehicle has been detected by the vehicle detection module. In the alternative embodiment, where there is a single multi-class classifier trained with classes corresponding to images of vehicles converging from each lane and with an additional class corresponding to images without vehicles, the classifier may be applied to each Frame or on frames for which a vehicle has been detected by the vehicle detection module.
Tabelle 1 unten zeigt zwei Betriebsweisen, wobei vorausgesetzt wird, dass Klassifikator 1 mit positiven Proben von der inneren Spur und Klassifikator 2 mit positiven Proben von der äußeren Spur trainiert wurde. Die Ausgabe jedes Klassifikators ist eine reale Zahl, die positiv ist, falls der Klassifikator entscheidet, dass das Eingabebild eine positive Fahrzeugprobe enthält, und anderenfalls negativ ist. In Ausführungsform 1 wird eine Entscheidung nur dann getroffen, wenn ein Fahrzeug vorher von dem Fahrzeugdetektionsmodul detektiert wurde oder gegenwärtig von dem Verfolgungsmodul verfolgt wird. In Ausführungsform 2 wird die Ausgabe des Klassifikators selbst als ein Indikator der anfänglichen Gegenwart eines Fahrzeugs verwendet, falls ein Fahrzeug nicht bereits verfolgt wird. Die detektierte anfängliche Gegenwart eines Fahrzeugs löst ein Verfolgungsereignis für nachfolgende Rahmen aus. Es sei darauf hingewiesen, dass der Fall, in dem die Ausgabe beider Klassifikatoren positiv ist, nur selten auftritt, jedoch dennoch eine Entscheidung für diese Fälle getroffen werden muss. In diesen Fällen kann eine Entscheidung getroffen werden, indem beispielsweise die Klasse gewählt wird, für die die Entscheidung ein höheres Vertrauen hat. Andere Entscheidungen wie das Warten auf einen zukünftigen Rahmen, bei dem kein Konflikt zwischen Klassifikatoren vorhanden ist, kann ebenfalls getroffen werden.
5) Zusammenlaufpunkt-Abfolgebestimmungsmodul
Das Zusammenlaufpunkt-Abfolgebestimmungsmodul aggregiert vorübergehend Ausgaben des Klassifikatormoduls in Übereinstimmung mit der Ausgabe des Verfolgungsmoduls. Dies führt in der Tat zum Treffen einer Entscheidung bezüglich der Reihenfolge, in der Fahrzeuge den Zusammenlaufpunkt überqueren, basierend auf den Ausgaben aus dem Verfolgungs- und dem Klassifikatormodul. Wie oben beschrieben, kann die Ausgabe des Verfolgungsmoduls verwendet werden, und ein bestimmtes Fahrzeug über eine Anzahl von Rahmen zu identifizieren. Da eine klassifikatorbasierte Entscheidung für jeden der Rahmen getroffen werden kann, kann eine vereinheitlichte oder aggregierte Entscheidung durch Ausführen einer mathematischen Kombination der Ausgaben der Klassifikatoren für die Rahmen, die einem einzigen Fahrzeug entsprechen, von dem Verfolgungsmodul getroffen werden. Zum Beispiel ist eine Stimmenmehrheit der Entscheidungen, die für jeden Rahmen getroffen werden, der einem bestimmten Fahrzeug entspricht, in der einfachsten Ausführungsform die Ausgabe. Gemäß anderen Ausführungsformen können gewichtete Kombinationen zwischen den Klassifikatorausgaben über Rahmen berechnet werden. Zum Beispiel können Entscheidungen, die anfänglich für ein Fahrzeug getroffen wurden, als zuverlässiger erachtet werden als diejenigen, die später getroffen werden, weshalb früheren Klassifikatorentscheidungen ein größeres Gewicht verliehen werden kann. Ein „Subjekt”, wie hierin berücksichtigt, kann ein Fahrzeug oder einen Fußgänger und dergleichen einschließen, das bzw. der im Allgemeinen in einer Warteschlange(n) wartet, bis es bzw. er an der Reihe ist, um nach Aufgabe einer Kunden-/Einzelanfrage und/oder Bestellung für das Ereignis eine spezifische Ware und/oder einen Dienst („Ereigniserfüllung”) in Empfang zu nehmen. Zu Darstellungszwecken schließen die hierin bezeichneten Subjekte Fahrzeuge ein, die jeweils mit einem Kunden assoziiert sind, der einen Artikel kauft. Allerdings wird hierin keine Einschränkung hinsichtlich des „Subjekts” und des endgültigen Zwecks der Warteschlange gemacht.The collation point sequence determination module temporarily aggregates classifier module outputs in accordance with the output of the tracking module. This indeed leads to Making a decision on the order in which vehicles cross the confluence point based on the tracker and classifier module outputs. As described above, the output of the tracking module may be used to identify a particular vehicle over a number of frames. Since a classifier-based decision can be made for each of the frames, a unified or aggregated decision can be made by performing a mathematical combination of the classifier outputs for the frames corresponding to a single vehicle from the tracking module. For example, a majority of the votes made for each frame that corresponds to a particular vehicle is the output in the simplest embodiment. According to other embodiments, weighted combinations between the classifier outputs over frames may be calculated. For example, decisions that were initially made for a vehicle may be considered more reliable than those that are met later, which may give greater weight to earlier classifier decisions. A "subject," as contemplated herein, may include a vehicle or pedestrian, and the like, generally waiting in a queue (s) until it is his turn to wait for a customer / operator. Individual request and / or order for the event to receive a specific product and / or service ("Event Fulfillment"). For purposes of illustration, the subjects referred to herein include vehicles each associated with a customer who buys an article. However, no limitation is made herein as to the "subject" and the ultimate purpose of the queue.
Ein „Zusammenlaufpunkt”, wie hierin berücksichtigt, ist ein Bereich, der in dem Kamerasichtfeld definiert ist, den ein Subjekt betritt und/oder von einer von mehreren Warteschlangen zu einer einzelnen Warteschlangenspur zusammenläuft und nun als Teil der Warteschlange betrachtet wird, die sich einem Endereignispunkt nähert. Zu Erläuterungszwecken kann der hierin bezeichnete Zusammenlaufpunkt einen Bereich aufweisen, den ein Fahrzeug betritt und/oder von einer von mehreren Warteschlangen zu einer einzelnen Warteschlangenspur zusammenläuft, nachdem eine Bestellung an einem von mehreren nebeneinander angeordneten Bestellpunkten aufgegeben wurde, und wird nun als Teil der Warteschlange betrachtet, die sich den Service-(Zahlungs- und Abholungs-)-Fenstern nähert. As used herein, a "merge point" is an area defined in the camera field of view that a subject enters and / or converges from one of several queues to a single queue track and is now considered part of the queue that is at an end event point approaches. For illustrative purposes, the confluence point referred to herein may have a range that a vehicle enters and / or converges from one of a plurality of queues to a single queue track after an order has been placed at one of a plurality of side-by-side ordering points, and is now considered part of the queue that approaches the service (payment and pick-up) windows.
Die automatische Sequenziervorrichtung
Der Speicher
Die Vorrichtung
Die hierin offenbarten Stufen werden von dem Prozessor
Unter weiterer Bezugnahme auf
Die Vorrichtung
Unter weiterer Bezugnahme auf
Darüber hinaus kann das System
Die Videodaten können direkt von der bzw. den Videokamera(s) oder von einer zwischengeschalteten Bildquelle aufgenommen werden, die die Videodaten von der Videokamera speichert und/oder übermittelt. Ungeachtet dessen kann eine Anordnung der Videokamera in der Nähe des Zusammenlaufpunktbereichs fixiert werden, um Verdeckungen, die an dem Schauplatz beobachtet werden, zu vermeiden und/oder zu minimieren. Allerdings zieht die Offenbarung in Betracht, dass das Videopuffermodul
Unter erneuter Bezugnahme auf
Daher kann ein ROI, der den Warteschlangen-Zusammenlaufpunktbereich aufweist, in einer berücksichtigten Ausführungsform bei S306 definiert werden. Der ROI kann manuell von einem Benutzer definiert werden, wenn die Videokamera eingerichtet und kalibriert ist. Dieser ROI kann einmalig definiert werden, da sich der Warteschlangenbereich nicht verändert, solange die Videokamera fixiert bleibt. Wenn die Kameraeinstellungen verändert werden (z. B. aufgrund von Zoom, Kameraführung, Neigung oder Translation), kann der definierte Bereich während eines Rekalibrierungsvorgangs aktualisiert werden. Therefore, in one considered embodiment, an ROI having the queue confluence point range may be defined at S306. The ROI can be manually defined by a user when the video camera is set up and calibrated. This ROI can be defined once because the queue area does not change as long as the video camera remains fixed. If the camera settings are changed (for example, due to zoom, camera tracking, tilt, or translation), the defined area may be updated during a recalibration process.
Das Verfahren kann darüber hinaus Objekte beseitigen, die außerhalb des Warteschlangenbereichs von Interesse („Ausreißer”) detektiert werden, indem ein Schwellenwertbildungsvorgang an einer Heatmap durchgeführt wird. Genauer kann das Verfahren bei S310 eine Maske generieren, die die Heatmap repräsentiert, und dann Objekte verwerfen, die anschließend außerhalb des hervorgehobenen Bereichs detektiert werden.The method may also eliminate objects detected outside of the queue of interest ("outliers") by performing a threshold mapping operation on a heatmap. Specifically, at S310, the method may generate a mask representing the heatmap and then discard objects that are subsequently detected outside of the highlighted area.
Dieser Lernansatz kann angewendet werden, um große Mengen von unerheblichem Hintergrundrauschen oder „Phantom”-Objekten zu entfernen. Alternative Ausführungsformen können einen Abstand von einem Zentrum dieser erlernten Routen anwenden, um die Wahrscheinlichkeit zu bestimmen, dass ein potenzielles neues Fahrzeug von Interesse detektiert wird. This learning approach can be used to remove large amounts of insignificant background noise or "phantom" objects. Alternative embodiments may apply a distance from a center of these learned routes to determine the likelihood that a potential new vehicle of interest will be detected.
Unter erneuter Bezugnahme auf
Als Alternative können modellbasierte Ansätze für die Bewegungs-/Vordergrunddetektion angewendet werden. In einer Ausführungsform führt das System
Strategien, die zur Aufrechterhaltung eines Hintergrundmodells oder Schätzung angewendet werden, schließen ein historisches statistisches Modell (z. B. ein parametrisches Deskriptordichtenmodell wie einen auf Gaußschen Mischmodellen (GMM) basierenden Ansatz oder ein nicht parametrisches Deskriptordichtenmodell wie eine kernfunktionsbasierte Schätzung), das für jedes Pixel konstruiert wird, Eigenhintergründe (die eine Hauptkomponentenanalyse anwenden), Berechnung von gleitenden Mittelwerten (die den Hintergrund graduell nach jedem nächsten Rahmen aktualisieren) und eine Medianfilterung usw. ein. Die Hintergrundmodelle werden typischerweise dynamisch eingestellt, um langsamen Variationen in dem Hintergrund des Schauplatzes Rechnung zu tragen. In der berücksichtigten Ausführungsform kann die Hintergrundschätzung kontinuierlich mit jedem ankommenden Rahmen bei einer Rate aktualisiert werden, die von einem vorbestimmten Lernratenfaktor gesteuert wird. Allerdings werden Ausführungsformen berücksichtigt, in denen die Hintergrundschätzung bei langsameren Raten aktualisiert werden kann. Andere Alternativen werden zur Konstruktion des gegenwärtigen Hintergrundmodells ebenfalls berücksichtigt. Eine Binärmaske/Differenzbild (d. h. eine Vordergrundobjektmaske) wird unter Verwendung der Pixeleinstufungen generiert. In einer Ausführungsform kann ein im Stand der Technik bekannter morphologischer Vorgang auf das Differenzbild angewendet werden, um Quellen von fiktiver Bewegung herauszufiltern und Pixel, die mit den Vordergrund- oder sich bewegenden Objekten assoziiert sind, genau zu detektieren. Eine beispielhafte Filtertechnik kann das Anwenden von Streckungs- und Schließvorgängen einschließen, um Löcher in der Binärmaske zu füllen und kleine Lücken in Bereichen zu überbrücken, in denen ein Objekt fälschlicherweise in eine Anzahl kleinerer, separater Vordergrundelemente aufgespalten wurde. Die Connected Component Analysis (CCA) kann auch angewendet werden, um kleine, unerhebliche Bereiche zu beseitigen, in denen eine Bewegung in der Binärmaske detektiert wird. Diese bewegungsdetektierten Bereiche können aus Vordergrundobjekten, die zu klein sind, um von Interesse zu sein (z. B. ein Vogel, der durch den Schauplatz fliegt), oder aus allgemeinem Bildrauschen resultieren. Übliche Merkmale, die beim CCA-Screening verwendet werden, sind Objektbereich, Ausrichtungswinkel und Fülldichte.Strategies used to maintain a background model or estimate include a historical statistical model (eg, a parametric descriptor density model such as a Gaussian Mixed Model (GMM) based approach or a non-parametric descriptor density model such as a kernel-based estimate), for each pixel constructed, background backgrounds (which apply principal component analysis), calculation of moving averages (which update the background gradually after each next frame), and median filtering, etc. The background models are typically dynamically adjusted to account for slow variations in the backdrop of the scene. In the considered embodiment, the background estimate may be continuously updated with each incoming frame at a rate controlled by a predetermined learning rate factor. However, embodiments are contemplated in which the background estimate may be updated at slower rates. Other alternatives are also considered to construct the current background model. A binary mask / difference image (i.e., a foreground object mask) is generated using the pixel scores. In one embodiment, a morphological process known in the art may be applied to the difference image to filter out sources of fictitious motion and to accurately detect pixels associated with the foreground or moving objects. An exemplary filtering technique may include using stretching and closing operations to fill holes in the binary mask and to bridge small gaps in areas where an object was falsely split into a number of smaller, separate foreground elements. The Connected Component Analysis (CCA) can also be used to eliminate small, insignificant areas where movement in the binary mask is detected. These motion-detected areas may result from foreground objects that are too small to be of interest (eg, a bird flying through the scene) or from general image noise. Common features used in CCA screening are object area, orientation angle and fill density.
Bei S316 assoziiert das Modul
Das Modul
Beispielhafte Verfolgungsalgorithmen, die hierin berücksichtigt werden, schließen bereichsbasierte Verfolgungsalgorithmen und Punkttracker ein. Beispiele von bereichsbasierten Verfolungsalgorithmen können eine mittlere Verschiebung und Partikelfilterung einschließen. Beispielhafte Deskriptoren, die für die bereichsbasierten Verfolgungsalgorithmen extrahiert werden können, schließen Attribute wie Farbhistogramme und/oder Histogramme von ausgerichteten Gradienten usw. und den Abstand des detektierten Bewegungsbereichs zu jedem gegenwärtig verfolgten Subjekt ein. Hauptsächlich betrachten diese Verfolgungsalgorithmen das gesamte Subjekt als einen Bereich. Ein Beispiel eines Punkttrackers kann eine KLT-Verfolgung einschließen. Beispielhafte Deskriptoren, die für Punkttracker extrahiert werden können, schließen einen Satz von Merkmalen aus dem bewegungsdetektierten Bereich oder eine Anzahl von gegenwärtig verfolgten Merkmalen in dem bewegungsdetektierten Bereich ein. Hauptsächlich betrachten Punkttracker Sätze von lokalisierten Einträgen wie harte Kanten, Ecken und Interessenpunkte des Kandidatensubjekts (Vordergrundobjekt). Das Modul
Falls der extrahierte Deskriptor für bereichsbasierte Verfolgungsalgorithmen ein Attribut des Kandidatenfahrzeugs ist, wird das Attribut mit den Attributen von gegenwärtig verfolgten Fahrzeugen verglichen. Als Reaktion darauf, dass die Attribute des bewegungsdetektierten Bereichs nicht mit den Attributen eines gegenwärtig verfolgten Fahrzeugs übereinstimmen, kategorisiert das Modul
Falls der extrahierte Deskriptor der berechnete Abstand zwischen dem bewegungsdetektierten Bereich und jedem gegenwärtig verfolgten Fahrzeug auf der Bildebene ist, wird der berechnete Abstand mit einem vorbestimmten Abstandsschwellenwert verglichen. Als Reaktion darauf, dass der berechnete Abstand den vorbestimmten Schwellenwert erfüllt und überschreitet, kategorisiert das Modul
Falls der extrahierte Deskriptor für Punkttracker ein Satz von Merkmalen aus dem bewegungsdetektierten Bereich ist, wird für Punkttracker der Satz von Merkmalen mit dem Satz von Merkmalen von gegenwärtig verfolgten Fahrzeugen verglichen. Die Anzahl von übereinstimmenden Merkmalen wird gezählt. Als Reaktion darauf, dass die Anzahl von Merkmalen eine vorbestimmte Schwellenanzahl nicht erfüllt, kategorisiert das Modul
Eine Ausführungsform wird jedoch berücksichtigt, die die Validierung unabhängig von dem Verfolgungsmodus ausführt. Nachdem zum Beispiel das Subjektdetektionsmodul
Als Reaktion darauf, dass das Kandidatenfahrzeug als zu einem gegenwärtig verfolgten Fahrzeug zugehörig eingestuft ist, verwirft das Modul
Die Merkmale können entweder aus Farb- oder Grauskalabildern extrahiert werden. In Ausführungsformen, in denen eine NIR-Beleuchtung verwendet wird, kann das Modul
Als Alternative kann in einer Ausführungsform eine Vorlage des detektierten Bewegungsbereichs (d. h. ein abgeschnittenes Teilbild des neuen Subjekts von Interesse) als ein Satz von Merkmalen verwendet werden. Alternatively, in one embodiment, a template of the detected range of motion (i.e., a truncated field of the new subject of interest) may be used as a set of features.
Der extrahierte Deskriptor (nachstehend „Merkmale”) wird an das Fahrzeugverfolgungsmodul
In einer Ausführungsform kann das Modul
Als erläuterndes Beispiel kann in einer Ausführungsform, in der der Verfolgungsansatz, der von dem System angewendet wird, einen KLT-Punkttracker mit Harris-Ecken-Merkmalen aufweist, der Satz von verfolgten Harris-Ecken-Merkmalspunkten dynamisch eingestellt (gekürzt) werden, um Merkmalen Rechnung zu tragen, die nicht „folgsam” sind. By way of illustrative example, in one embodiment where the tracking approach employed by the system includes a KLT point tracker with Harris corner features, the set of tracked Harris corner feature points may be dynamically (shortened) to features To take account of those who are not "obedient".
In einer alternativen Verfolgungsausführungsform kann eine Vorlage des detektierten Bewegungsbereichs (d. h. ein abgeschnittenes Teilbild des neuen Subjekts von Interesse) als ein Satz von Merkmalen verwendet werden. Ein mit der Vorlage übereinstimmender Ansatz wird angewendet, um die beste Übereinstimmung für diese Vorlage in einem nachfolgenden Rahmen zu lokalisieren. Die Vorlage wird jedes Mal, wenn eine neue Position bestimmt wird, aktualisiert, um einer langsam variierenden Beleuchtung, Stellung usw. Rechnung zu tragen.In an alternative tracking embodiment, a template of the detected range of motion (i.e., a truncated field of the new subject of interest) may be used as a set of features. An approach consistent with the template is used to locate the best match for this template in a subsequent frame. The template is updated each time a new position is determined to accommodate slowly varying illumination, position, etc.
Das Subjektverfolgungsmodul
Durch Verwendung von Positionsinformationen, die mit jedem verfolgten Fahrzeug assoziiert sind, bestimmt das Modul
Die Bestimmung bei S338 kann eine beliebige Statistik der verfolgten Merkmalspositionen berechnen und mit der Position des Zusammenlaufpunktes vergleichen. Zum Beispiel kann in einer Ausführungsform ein einziger Punkt aus den Positionsinformationen berechnet werden, die grob die Position des verfolgten Subjekts identifizieren. Für Punkttracker wie einen KLT-Tracker kann dieser einzige Punkt das Zentroid der verfolgten Merkmalspositionen sein. Andere statistische Beispiele können ein Zentroid, eine Medianzentrumsposition, einen ersten Punkt, einen vorbestimmten Prozentanteil in den Merkmalspunkten und einen letzten Punkt usw. einschließen, die in den Zusammenlaufpunktbereich gehen. Als Alternative kann das Modul
Nachdem das detektierte Fahrzeug bei S340 als zu der einzigen Warteschlange zusammengelaufen kategorisiert ist, stuft S341 einen oder mehrere Videorahmen ein, die mit der Fahrzeugdetektion und/oder Fahrzeugverfolgung assoziiert sind, um zu bestimmen, ob das detektierte/verfolgte Fahrzeug von einer äußeren Spur, die mit dem Bestellpunkt A assoziiert ist, oder einer inneren Spur stammt, die mit dem Bestellpunkt B assoziiert ist. Eine beobachtete Abfolge von Subjekten, die sich dem Servicepunkt nähern, wird bei S342 berechnet. Als Teil dieser Berechnung berechnet das Modul
Da das System wahlweise Subjekte von ihren jeweiligen Bestelleingabepunkten verfolgen kann, kann das Ereignisberichterstattungsmodul
Das Modul
Die erneute Sequenzierung von Informationen, die von der vorliegenden Offenbarung berechnet werden, ist für ähnliche Umgebungen geeignet, in denen ein Verfahren in nebeneinander angeordneten Warteschlangen initiiert und in einer einspurigen Warteschlange abgeschlossen wird, nachdem die nebeneinander liegenden Warteschlangen konvergieren, und genauer ein Verfahren und seine Ausgabe der Person in der Warteschlange folgen. Nicht einschränkende Beispiele von Betrieben, die die vorliegende Offenbarung einsetzen können, schließen Banken (Bankautomaten innerhalb des Gebäudes und an Durchfahrtsspuren), Lebensmittel- und Einzelhandelsgeschäfte (Kassierspuren), Flughäfen (Sicherheitskontrollpunkte, Buchungsstände, Boardingbereiche und -plattformen), Restaurants (wie Fastfood-Schalter und Durchfahrten), Theater, Autowaschanlagen und dergleichen usw. ein. The re-sequencing of information computed by the present disclosure is suitable for similar environments in which a method is initiated in contiguous queues and completed in a single-lane queue after the contiguous queues converge, and more specifically a method and its Follow the person in the queue. Non-limiting examples of operations embodying the present disclosure Banks (ATMs inside the building and in transit lanes), grocery and retail outlets (cashier lanes), airports (security checkpoints, booking booths, boarding areas and platforms), restaurants (such as fast food counters and transit areas), theaters, car washes and the like etc. one.
Wenngleich das Verfahren
Einige Abschnitte der ausführlichen Beschreibung hierin sind als Algorithmen und symbolische Darstellungen von Operationen an Datenbits vorgestellt, die von herkömmlichen Computerkomponenten durchgeführt werden, einschließlich einer zentralen Verarbeitungseinheit (CPU), Speichervorrichtungen für die CPU und angeschlossener Anzeigevorrichtungen. Diese algorithmischen Beschreibungen und Darstellungen sind Mittel, die von einem Fachmann auf dem Gebiet der Datenverarbeitung verwendet werden, um anderen Fachleuten das Wesen ihrer Arbeit zu vermitteln. Ein Algorithmus wird allgemein als eine in sich stimmige Abfolge von Schritten verstanden, die zu einem gewünschten Ergebnis führt. Dazu gehören Schritte, die physische Manipulationen physischer Mengen erforderlich machen. Gewöhnlich, jedoch nicht unbedingt nehmen diese Mengen die Form von elektrischen oder magnetischen Signalen an, die gespeichert, übertragen, kombiniert, verglichen und anderweitig manipuliert werden können. Es hat sich zuweilen als praktisch erwiesen, hauptsächlich aus Gründen der allgemeinen Nutzung, diese Signale als Bits, Werte, Elemente, Symbole, Zeichen, Ausdrücke, Zahlen oder dergleichen zu bezeichnen. Man wird jedoch verstehen, dass all diese und ähnliche Ausdrücke den jeweiligen physischen Mengen zuzuordnen sind und lediglich zweckmäßige Bezeichnungen sind, die auf diese Mengen angewendet werden. Sofern nicht spezifisch anderweitig angegeben und wie aus der Erläuterung hierin ersichtlich, wird man zu schätzen wissen, dass sich in der gesamten Beschreibung Erläuterungen, die Ausdrücke wie „Verarbeiten” oder „Rechnen” oder „Berechnen” oder „Bestimmen” oder „Anzeigen” oder dergleichen, auf die Wirkung und die Prozesse eines Computersystems oder einer ähnlichen elektronischen Vorrichtung beziehen, die Daten, die als physikalische (elektronische) Mengen innerhalb der Register und Speicher des Computersystems dargestellt sind, in andere Daten manipuliert und umwandelt, die in ähnlicher Weise als physische Mengen innerhalb der Computersystemspeicher oder -register oder anderen solchen Informationsspeichern, Übertragungs- oder Anzeigevorrichtungen dargestellt sind. Some portions of the detailed description herein are presented as algorithms and symbolic representations of operations on data bits performed by conventional computer components, including a central processing unit (CPU), memory devices for the CPU, and attached display devices. These algorithmic descriptions and representations are means used by one of ordinary skill in the data processing arts to convey the substance of their work to others skilled in the art. An algorithm is generally understood to be a self-consistent sequence of steps leading to a desired result. These include steps that require physical manipulation of physical quantities. Usually, though not necessarily, these quantities take the form of electrical or magnetic signals that can be stored, transferred, combined, compared, and otherwise manipulated. It has proven convenient at times, principally for reasons of common usage, to refer to these signals as bits, values, elements, symbols, characters, terms, numbers, or the like. It will be understood, however, that all of these and similar terms are to be assigned to the particular physical quantities and are merely convenient labels applied to those quantities. Unless specifically stated otherwise and as will be apparent from the discussion herein, it will be appreciated that throughout the specification, explanations that include terms such as "processing" or "computing" or "calculating" or "determining" or "displaying" or the like relate to the action and processes of a computer system or similar electronic device that manipulates and transforms data represented as physical (electronic) amounts within the registers and memories of the computer system into other data that is similar to physical data Quantities within the computer system memory or registers or other such information storage, transmission or display devices are shown.
Das Ausführungsbeispiel bezieht sich auch auf eine Vorrichtung zum Durchführen der hierin erläuterten Operationen. Diese Vorrichtung kann speziell für die erforderlichen Zwecke konstruiert sein oder einen Universalcomputer umfassen, der durch ein Computerprogramm, das in dem Computer gespeichert ist, selektiv aktiviert oder rekonfiguriert wird. Ein solches Computerprogramm kann in einem computerlesbaren Speichermedium gespeichert sein, wie z. B. jedem beliebigen Typ Plattenspeicher wie Disketten, optische Platten, CD-ROM und magnetisch-optische Platten, Nurlesespeicher (ROM), wahlfreie Zugriffsspeicher (RAM), EPROM, EEPROM, magnetische oder optische Karten oder jeder Typ von Medien, der sich zum Speichern von elektronischen Befehlen eignet, die jeweils mit einem Computersystembus gekoppelt sind, ist aber nicht darauf beschränkt. The embodiment also relates to an apparatus for performing the operations explained herein. This apparatus may be specially constructed for the required purposes or comprise a general-purpose computer selectively activated or reconfigured by a computer program stored in the computer. Such a computer program may be stored in a computer-readable storage medium, such. Disk types such as floppy disks, optical disks, CD-ROM and magnetic-optical disks, read-only memory (ROM), random access memory (RAM), EPROM, EEPROM, magnetic or optical cards, or any type of media suitable for storage of electronic commands, each coupled to a computer system bus, but is not limited thereto.
Die Algorithmen und Anzeigen, die hierin vorgestellt sind, sind auf keinen besonderen Computer oder eine andere Vorrichtung beschränkt. Verschiedene Universalsysteme können mit Programmen gemäß den Lehren hierin verwendet werden, oder es kann sich als praktisch erweisen, spezialisiertere Vorrichtungen zum Ausführen der hierin beschriebenen Verfahren zu konstruieren. Die Struktur für verschiedene dieser Systeme geht aus der obigen Beschreibung hervor. Außerdem ist das Ausführungsbeispiel nicht mit Bezug auf eine bestimmte Programmiersprache beschrieben. Man wird zu schätzen wissen, dass verschiedene Programmiersprachen zum Implementieren der Lehren des Ausführungsbeispiels, wie hierin beschrieben, verwendet werden können. The algorithms and displays presented herein are not limited to any particular computer or device. Various universal systems may be used with programs in accordance with the teachings herein, or it may prove convenient to construct more specialized apparatus for carrying out the methods described herein. The structure for various of these systems is apparent from the above description. In addition, the embodiment is not described with respect to a particular programming language. It will be appreciated that various programming languages may be used to implement the teachings of the embodiment as described herein.
Ein maschinenlesbares Medium schließt jeden beliebigen Mechanismus zum Speichern oder Übertragen von Informationen in einer von einer Maschine (zum Beispiel einem Computer) lesbaren Form ein. Zum Beispiel gehören zu einem maschinenlesbaren Medium ein Nurlesespeicher (ROM); ein wahlfreier Zugriffsspeicher (RAM); Magnetplatten-Speichermedien; optische Speichermedien; Flashspeichervorrichtungen; und elektrische, optische, akustische oder eine andere Form von ausgebreiteten Signalen (zum Beispiel Trägerwellen, Infrarotsignale, digitale Signale usw.) usw., um nur einige wenige Beispiele zu nennen. A machine-readable medium includes any mechanism for storing or transmitting information in a form readable by a machine (e.g., a computer). For example, a machine-readable medium includes a read-only memory (ROM); an random access memory (RAM); Magnetic disk storage media; optical storage media; Flash memory devices; and electrical, optical, acoustic, or other form of propagated signals (e.g., carrier waves, infrared signals, digital signals, etc.), etc., to name just a few examples.
Die in dieser Spezifikation dargestellten Verfahren können in einem Computerprogrammprodukt implementiert werden, das auf einem Computer ausgeführt werden kann. Das Computerprogrammprodukt kann ein nicht flüchtiges computerlesbares Aufzeichnungsmedium umfassen, auf dem ein Steuerprogramm aufgezeichnet ist, wie ein Plattenspeicher, Festplattenlaufwerk oder dergleichen. Übliche Formen nicht flüchtiger computerlesbarer Medien schließen zum Beispiel Disketten, flexible Platten, Festplatten, Magnetbänder oder ein beliebiges anderes Magnetspeichermedium, CD-ROM, DVD oder ein beliebiges anderes optisches Medium, einen RAM, einen PROM, einen EPROM, einen FLASH-EPROM, einen beliebigen anderen Speicherchip oder -kassette oder ein beliebiges anderes tangibles Medium ein, das ein Computer lesen und verwenden kann.The methods presented in this specification may be implemented in a computer program product that may be executed on a computer. The computer program product may comprise a non-transitory computer readable recording medium having recorded thereon a control program such as a disk memory, hard disk drive or the like. Common forms of non-transitory computer-readable media include, for example, floppy disks, flexible disks, hard disks, magnetic tapes, or any other magnetic storage medium, CD-ROM, DVD, or any other optical media, RAM, PROM, EPROM, FLASH EPROM any other memory chip or cartridge or any other tangible medium that a computer can read and use.
Alternativ kann das Verfahren in flüchtigen Medien implementiert werden, wie einer übertragbaren Trägerwelle, in der das Steuerprogramm als ein Datensignal unter Verwendung von Übertragungsmedien ausgeführt ist, wie akustische oder Lichtwellen, wie die während Funkwellen- und Infrarotdatenkommunikationen erzeugten und dergleichen.Alternatively, the method may be implemented in volatile media, such as a portable carrier wave, in which the control program is implemented as a data signal using transmission media, such as acoustic or light waves, such as those generated during radio wave and infrared data communications, and the like.
ZITATE ENTHALTEN IN DER BESCHREIBUNG QUOTES INCLUDE IN THE DESCRIPTION
Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.This list of the documents listed by the applicant has been generated automatically and is included solely for the better information of the reader. The list is not part of the German patent or utility model application. The DPMA assumes no liability for any errors or omissions.
Zitierte PatentliteraturCited patent literature
- US 8401230 [0001, 0014, 0015] US 8401230 [0001, 0014, 0015]
Claims (10)
Applications Claiming Priority (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201461984119P | 2014-04-25 | 2014-04-25 | |
US61/984,119 | 2014-04-25 | ||
US14/632,587 US9483838B2 (en) | 2014-04-24 | 2015-02-26 | Method and system for automated sequencing of vehicles in side-by-side drive-thru configurations via appearance-based classification |
US14/632,587 | 2015-02-26 |
Publications (1)
Publication Number | Publication Date |
---|---|
DE102015207047A1 true DE102015207047A1 (en) | 2015-10-29 |
Family
ID=54261959
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE102015207047.6A Pending DE102015207047A1 (en) | 2014-04-25 | 2015-04-17 | Method and system automated sequencing of vehicles in side-by-side transit configurations via image-based classification |
Country Status (1)
Country | Link |
---|---|
DE (1) | DE102015207047A1 (en) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109726793A (en) * | 2017-10-31 | 2019-05-07 | 奥多比公司 | The prominent content neural network of depth for high-efficiency digital Object Segmentation |
CN111931077A (en) * | 2020-06-30 | 2020-11-13 | 汉海信息技术(上海)有限公司 | Data processing method and device, electronic equipment and storage medium |
US11676283B2 (en) | 2020-08-07 | 2023-06-13 | Adobe Inc. | Iteratively refining segmentation masks |
US11676279B2 (en) | 2020-12-18 | 2023-06-13 | Adobe Inc. | Utilizing a segmentation neural network to process initial object segmentations and object user indicators within a digital image to generate improved object segmentations |
US11875510B2 (en) | 2021-03-12 | 2024-01-16 | Adobe Inc. | Generating refined segmentations masks via meticulous object segmentation |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8401230B2 (en) | 2010-11-01 | 2013-03-19 | Xerox Corporation | Signature based drive-through order tracking system and method |
-
2015
- 2015-04-17 DE DE102015207047.6A patent/DE102015207047A1/en active Pending
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8401230B2 (en) | 2010-11-01 | 2013-03-19 | Xerox Corporation | Signature based drive-through order tracking system and method |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109726793A (en) * | 2017-10-31 | 2019-05-07 | 奥多比公司 | The prominent content neural network of depth for high-efficiency digital Object Segmentation |
CN111931077A (en) * | 2020-06-30 | 2020-11-13 | 汉海信息技术(上海)有限公司 | Data processing method and device, electronic equipment and storage medium |
CN111931077B (en) * | 2020-06-30 | 2023-12-12 | 汉海信息技术(上海)有限公司 | Data processing method, device, electronic equipment and storage medium |
US11676283B2 (en) | 2020-08-07 | 2023-06-13 | Adobe Inc. | Iteratively refining segmentation masks |
US11676279B2 (en) | 2020-12-18 | 2023-06-13 | Adobe Inc. | Utilizing a segmentation neural network to process initial object segmentations and object user indicators within a digital image to generate improved object segmentations |
US11875510B2 (en) | 2021-03-12 | 2024-01-16 | Adobe Inc. | Generating refined segmentations masks via meticulous object segmentation |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR102462572B1 (en) | Systems and methods for training object classifiers by machine learning | |
DE102015206178A1 (en) | A video tracking-based method for automatically ranking vehicles in drive through applications | |
DE102014105351B4 (en) | DETECTING PEOPLE FROM SEVERAL VIEWS USING A PARTIAL SEARCH | |
DE102018006765B4 (en) | PROCEDURE AND SYSTEM (S) FOR THE MANAGEMENT OF CARGO VEHICLES | |
US10176384B2 (en) | Method and system for automated sequencing of vehicles in side-by-side drive-thru configurations via appearance-based classification | |
DE102014106210B4 (en) | Probabilistic person tracking using the Multi-View Association | |
EP2467828B1 (en) | Method and system for automatic object detection and subsequent object tracking in accordance with the object shape | |
DE102013205810B4 (en) | SYSTEM AND METHOD FOR ASSESSING AVAILABLE PARKING SPACES FOR MULTI-SPACE STREET PARKING | |
WO2020020472A1 (en) | A computer-implemented method and system for detecting small objects on an image using convolutional neural networks | |
DE102018114042A1 (en) | DEVICE, METHOD AND SYSTEM FOR THE MULTIMODAL FUSION PROCESSING OF DATA OF MULTIPLE DIFFERENT FORMATS RECORDED BY HETEROGENIC DEVICES | |
DE102014216794A1 (en) | Robust and compute-efficient video-based object tracking in controlled motion environments | |
US9477892B2 (en) | Efficient method of offline training a special-type parked vehicle detector for video-based on-street parking occupancy detection systems | |
JP6650657B2 (en) | Method and system for tracking moving objects in video using fingerprints | |
DE112018007287T5 (en) | VEHICLE SYSTEM AND METHOD FOR DETECTING OBJECTS AND OBJECT DISTANCE | |
DE112009000485T5 (en) | Object comparison for tracking, indexing and searching | |
DE102015207047A1 (en) | Method and system automated sequencing of vehicles in side-by-side transit configurations via image-based classification | |
DE102014210820A1 (en) | Method for detecting large and passenger vehicles from fixed cameras | |
US20120093398A1 (en) | System and method for multi-agent event detection and recognition | |
DE112011103690T5 (en) | Detection and tracking of moving objects | |
Selver et al. | Camera based driver support system for rail extraction using 2-D Gabor wavelet decompositions and morphological analysis | |
Teutsch | Moving object detection and segmentation for remote aerial video surveillance | |
DE102020209054A1 (en) | DEVICE AND METHOD FOR PERSONAL RECOGNITION, TRACKING AND IDENTIFICATION USING WIRELESS SIGNALS AND IMAGES | |
Miller et al. | Person tracking in UAV video | |
JP6708368B2 (en) | Method and system for partial concealment processing in vehicle tracking using deformable partial model | |
Dike et al. | Unmanned aerial vehicle (UAV) based running person detection from a real-time moving camera |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
R082 | Change of representative |
Representative=s name: GRUENECKER PATENT- UND RECHTSANWAELTE PARTG MB, DE |
|
R081 | Change of applicant/patentee |
Owner name: CONDUENT BUSINESS SERVICES, LLC, FLORHAM PARK, US Free format text: FORMER OWNER: XEROX CORPORATION, NORWALK, CONN., US Owner name: CONDUENT BUSINESS SERVICES, LLC (N.D.GES.D. ST, US Free format text: FORMER OWNER: XEROX CORPORATION, NORWALK, CONN., US |
|
R082 | Change of representative |
Representative=s name: GRUENECKER PATENT- UND RECHTSANWAELTE PARTG MB, DE |
|
R012 | Request for examination validly filed | ||
R081 | Change of applicant/patentee |
Owner name: CONDUENT BUSINESS SERVICES, LLC, FLORHAM PARK, US Free format text: FORMER OWNER: CONDUENT BUSINESS SERVICES, LLC (N.D.GES.D. STAATES DELAWARE), DALLAS, TEX., US |
|
R082 | Change of representative |
Representative=s name: GRUENECKER PATENT- UND RECHTSANWAELTE PARTG MB, DE |
|
R016 | Response to examination communication | ||
R016 | Response to examination communication |