EP2467801A1 - Vorrichtung zur erkennung einer objektschlange, verfahren sowie computerprogramm - Google Patents

Vorrichtung zur erkennung einer objektschlange, verfahren sowie computerprogramm

Info

Publication number
EP2467801A1
EP2467801A1 EP10729859A EP10729859A EP2467801A1 EP 2467801 A1 EP2467801 A1 EP 2467801A1 EP 10729859 A EP10729859 A EP 10729859A EP 10729859 A EP10729859 A EP 10729859A EP 2467801 A1 EP2467801 A1 EP 2467801A1
Authority
EP
European Patent Office
Prior art keywords
objects
queue
image
designed
monitoring
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
EP10729859A
Other languages
English (en)
French (fr)
Inventor
Julia Ebling
Christof Krueger
Hartmut Loos
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Robert Bosch GmbH
Original Assignee
Robert Bosch GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Robert Bosch GmbH filed Critical Robert Bosch GmbH
Publication of EP2467801A1 publication Critical patent/EP2467801A1/de
Withdrawn legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • G06V20/53Recognition of crowd images, e.g. recognition of crowd congestion

Definitions

  • the invention relates to a device for detecting a queue of objects in a surveillance area with an interface, which is connectable to an image source, wherein the interface is adapted to take at least one surveillance image of the surveillance area of the image source, wherein the surveillance image with a scene background of the surveillance area with shows possible objects, with a
  • Evaluation device which is designed to detect the queue of objects in the at least one monitoring image, wherein the
  • Evaluation device has an object detector module, which is designed to detect a plurality of objects on the basis of the monitoring image and wherein the plurality of detected objects are the basis for detecting the
  • the invention also relates to a corresponding method and a computer program.
  • Queuing queue for example, to pay at a checkout, to be cleared at the airport, etc. Queues come in many different ways
  • Check-in rate exceeds. Often the arrival rate of the objects is not known and varies with time. In many cases this also applies to the handling rate. Thus, the length of the queue is an unknown, which can not be calculated but must be determined otherwise. It is possible, at a fixed handling rate, such as an amusement park ride, to specify the shape of the queue by barring, the estimated waiting time then being determined by empirical methods. By firmly attached panels along the queue, the expected waiting time can then be displayed to the person waiting.
  • Another possibility for determining a queue is given when the waiting area has clearly defined inputs and outputs, so that the number of objects in the waiting area, for example by light barriers or
  • Turnstiles can be determined. Within the waiting area, however, no further statement can be made about the form and number of queues.
  • a device which is suitable and / or designed for detecting a queue of objects in a monitoring area.
  • a queue preferably a queue, of objects is understood to mean a collection of these objects, which is arranged in a straight-lined or curved arrangement optionally in addition to a plurality of branches, gaps, accumulations and / or agglomerations.
  • the term snake is preferably understood to mean any ordered or quasi-ordered arrangement of the objects which are present at one or more destinations.
  • the destination may be, for example, a cash register, an entrance, an exit or a functional area, such as a food dispenser, an automaton, etc.
  • the device preferably comprises a data processing device which implements the recognition functions, and has at least one interface which can be connected to an image source.
  • the connection can be wired or wireless.
  • the image source is preferably as a
  • the image source is designed as an image memory, which provides stored images.
  • the device can be passed at least one monitoring image of the surveillance area, wherein the monitoring image shows a scene background of the surveillance area with possible objects.
  • the scene background of the surveillance area is formed by the naturally occurring background, such as a street, shelves in a store, etc.
  • the device For detecting the queue in the at least one monitoring image, the device has an evaluation device.
  • the evaluation device shows
  • Object detector module which is adapted to a plurality of objects based on the Monitoring image to detect, wherein the plurality of detected objects forms the basis for detecting the queue of objects.
  • the objects are recognized as separate objects or individual objects by the object detector module.
  • the object detector module is formed, the objects in the monitoring image with the
  • the invention thus enables, on the
  • the background subtraction represents a critical step in the
  • Image analysis is because it is often idealized by a static background is assumed, in reality, the background is usually only quasi static. For example, the background image may be greatly affected by a passing car, a change in light, or other disturbances.
  • the object detector module has content-sensitive
  • Detectors for detecting the objects are detectors which locate the objects by content analysis of the surveillance image. This approach opens the possibility that the objects in the surveillance image can be searched and detected in front of the scene background. In principle, however, it is also possible that these detectors are used in a preprocessed surveillance image in which the scene background is already subtracted, as is known from the prior art.
  • Detectors and / or on the missing background subtraction störunanonger can be performed.
  • the comparison features can be complex, so that
  • Comparative feature is used.
  • the comparison features can also be based on simple geometric shapes, such as for horizontal lines, vertical lines, round shapes for heads, etc.
  • the one or more content-sensitive detectors comprises
  • the classification rules may include analytical rules that are programmed, for example.
  • classification rule plausibility checks are used, e.g. that each human possesses only a maximum of two arms, so that an object with more than two arms is discarded.
  • the classification rule plausibility checks are used, e.g. that each human possesses only a maximum of two arms, so that an object with more than two arms is discarded.
  • Classification rules are also taught, also a variety of ways (such as boost, neural networks, etc.) are known.
  • the one or more content-sensitive detectors is designed to detect and locate individual objects, preferably also in the case of mutual or other masking and / or masking.
  • the object detector module and / or the evaluation device is designed to generate further events in the
  • the evaluation device has a modeling module, which is designed to model the queue on the basis of the detected objects.
  • Monitoring image not only detected, but preferably also localized, can be modeled by the modeling module, the queue.
  • the modeling module is designed to model arbitrarily curved and / or marked snake shapes.
  • additional information such as an end point of the queue, as
  • the modeling module has a plurality of
  • the modeling module is adapted to such a
  • Queue model to the plurality of objects to lay and / or adapt to their distribution may be differentiated by the shape of the curve (e.g., curved or straight), the number or existence of branches, accumulations, etc.
  • Evaluation device programmatically and / or circuitry designed to recognize the queue on the basis of a single monitoring image and / or form.
  • this embodiment there are advantages over the prior art, which requires at least two images, namely the surveillance image and the background image, to recognize the snake.
  • Evaluation device has a motion analysis module, which
  • Analyzed motion information provides as additional information for the detection and / or verification of the snake.
  • the evaluation device in particular the modeling module, is designed to use the additional information for the detection and / or verification of the queue.
  • Motion analysis module is designed, for example, to detect the direction of movement of the detected objects in the queue and / or the
  • Movement direction of gaps between the objects to detect In particular, the propagation of the interspaces to the end or destination of the queue is examined here. Alternatively or additionally, the
  • Motion flow in particular as an optical flow (optical flow), in the
  • Monitoring scene can be used as additional information.
  • Object detector module formed, an orientation of the objects as
  • This additional information can be through the Evaluation device and / or the modeling module to recognize and / or verification of the queue are used. For example, it is at
  • the evaluation device has an environment module which is designed to receive and / or recognize a ground plane of the surveillance scene in the at least one monitoring area as additional information.
  • the detected ground plane can be used to improve the localization of the objects and consequently to identify and / or verify the snake more easily.
  • depth card module which provides a depth map as additional information of the surveillance scene or the surveillance area, wherein the evaluation is designed to use the additional information for the detection and / or verification of the queue.
  • a depth map can be constructed from a stereo camera system or from other special sensors.
  • the monitoring image or another monitoring image is designed as a thermal image, so that heat information, for example, head / face / hands in people and / or hood / exhaust in cars can be easily detected and this Additional information also for detection and / or
  • Verification of the snake - eg by the orientation of the objects is determined - can be used.
  • Another object of the invention relates to a method and a
  • Figure 1 is a schematic block diagram of an apparatus for
  • FIGS. 2 a - c show a surveillance image for illustrating the
  • FIG. 1 shows a highly schematic representation of a device 1 for detecting a queue of objects in a surveillance area.
  • the device 1 can be used as a personal computer or other digital
  • Processing unit be designed and serves in particular
  • FIG. 2a shows a queue 2 of individuals in a plan view from above in a surveillance image 3.
  • the device 1 it is possible to recognize the queue 2, as is visualized in Figure 2b by the solid line 4 on the queue 2.
  • the device 1 may have an evaluation module 12, which after the
  • the device 1 comprises an evaluation device 5 and an interface 6, via which the evaluation device 5 is connected to an image source 7 or
  • the image source 7 may, for example, as a
  • Security camera is directed, which is directed to the surveillance area.
  • a surveillance camera can be used as the image source 7, as it is often already installed in supermarkets, etc., so that no additional hardware costs for the surveillance camera occur here in an integration of the queue detection system.
  • the image source 7 may also be formed as an image memory providing stored surveillance images 3 showing the queue 2 in a surveillance area.
  • Evaluation device 5 the monitoring image 3 by a
  • the object detector module has one or more
  • Detectors 9 which make a content-sensitive object detection within the monitoring image 3.
  • the detectors 9 are designed so that the search for the objects 10 without a
  • Scene background (in this case the place) is feasible.
  • the detectors 9 search the objects 10, for example, by the use of a plurality of comparison features, which are evaluated by means of classification rules.
  • Such content-sensitive object detectors are known in image processing.
  • the modeling module 1 1 is designed to fuse the existence and distribution of the objects 10 in the monitor image 3 with models of queues, so that a queue is modeled based on the recognition of the objects 10.
  • the prepared models are designed for all snake shapes, straight, curved, branched, with gaps, with agglomerations, etc.
  • the models can be predefined as analytical models, for example in the form of functions or as forms. After detecting and / or modeling the queue in the
  • Modeling module 1 the data is passed to the queue 2 to the result module 12, which analyzes the queue 2 in terms of the number of waiting, the waiting time, etc. and outputs these characteristics of the queue 2.
  • the described device 1 can be used for example in supermarkets, in front of ticket counters, etc., to automatically - when exceeding a predetermined queue length or waiting time - open more funds or switches. Furthermore, it is possible that information about the detected
  • a movement analysis module 13 is designed to determine movement information from the monitoring image 3 or from at least two monitoring images 3 as additional information:
  • movement patterns of the queue 2 may be detected by analyzing the movement of the objects 10 themselves or by analyzing the optical flow in the monitoring image 3. It is possible to detect the movement of the objects 10 in the queue 2, as indicated schematically by arrows 14 in FIG. 2c. Alternatively or additionally, the
  • An environment module 15 is configured to recognize a ground plane of the noticed scene or to obtain it by user input. By knowing the ground plane of the observed scene, it can be assigned a 3D model, so that the positions of the objects 10 can be defined more accurately. This basic level also represents additional information.
  • a depth card module 16 which for example uses the images of a stereo camera or special sensors as input, the exact position of the objects 10 can be obtained as further additional information.
  • infrared cameras to detect, for example, heat information from the head, face and hands of people or the hood / exhaust of cars as objects. This heat information can serve to improve the detection of the objects 10 or to detect an orientation of the objects 10.
  • This information is additional information.
  • the said additional information is used individually or together or in any selection in the modeling module 1 1 to the
  • Modeling it is additionally or alternatively also possible for a user to explicitly specify the shape or the destination of an expected queue.
  • Various situations of a queue 2 are shown in FIGS. 3a-d to show a selection of different versions of the
  • FIG. 3 d illustrates the possibility that the evaluation of the orientation of the persons 10 in the queue 2 as well as their direction of movement, represented by arrows, can help in the recognition of the queue 2.
  • the orientation of the objects 10 can be detected directly by the use of special sensors, such as thermal imaging cameras. Alternatively or additionally, the orientation can also be performed by the object detector module 8. Movement direction and / or orientation of the objects 10 can be used as additional information for the recognition of the queue 2 in the
  • Modeling module 11 are used.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Image Analysis (AREA)
  • Alarm Systems (AREA)
  • Closed-Circuit Television Systems (AREA)

Abstract

Im täglichen Leben sind Menschen oftmals gezwungen, sich in eine Warteschlange einzureihen, um beispielsweise an einer Kasse zu bezahlen, am Flughafen abgefertigt zu werden etc. Aufgrund der variierenden Ausführungsformen einer Warteschlange wird diese gewöhnlich nicht automatisiert erfasst, sondern üblicherweise manuell analysiert. Bildet sich zum Beispiel an einem Supermarkt eine lange Schlange, so dass die voraussichtliche Wartezeit für die Kunden über einen Schwellwert steigt, kann dieser Umstand durch das Kassenpersonal festgestellt werden und eine weitere Kasse geöffnet werden. Es wird eine Vorrichtung 1 zur Erkennung einer Schlange 2 von Objekten 10 in einem Überwachungsbereich vorgeschlagen, mit einer Schnittstelle 6, welche mit einer Bildquelle 7 verbindbar ist, wobei die Schnittstelle 6 ausgebildet ist, mindestens ein Überwachungsbild 3 des Überwachungsbereiches von der Bildquelle zu übernehmen, wobei das Überwachungsbild 3 einen Szenenhintergrund des Überwachungsbereiches mit möglichen Objekten 10 zeigt, mit einer Auswerteeinrichtung 5, welche ausgebildet ist, die Schlange 2 der Objekte 10 in dem mindestens einen Überwachungsbild zu erkennen, wobei die Auswerteeinrichtung 5 ein Objektdetektormodul 8 aufweist, welches ausgebildet ist, eine Vielzahl der Objekte 10 auf Basis des Überwachungsbildes 3 zu detektieren, wobei die Vielzahl der detektierten Objekte 10 die Basis zur Erkennung der Schlange 2 der Objekte 10 bildet, wobei das Objektdetektormodul 8 ausgebildet ist, die Objekte 8 in dem Überwachungsbild mit dem Szenenhintergrund zu erkennen und/oder dass das Objektdetektormodul 8 inhaltssensitive Detektoren 9 zur Detektion der Objekte 10 aufweist.

Description

Beschreibung
Titel
Vorrichtung zur Erkennung einer Obiektschlanqe, Verfahren sowie
Computerprogramm Stand der Technik
Die Erfindung betrifft eine Vorrichtung zur Erkennung einer Schlange von Objekten in einem Überwachungsbereich mit einer Schnittstelle, welche mit einer Bildquelle verbindbar ist, wobei die Schnittstelle ausgebildet ist, mindestens ein Überwachungsbild des Überwachungsbereiches von der Bildquelle zu übernehmen, wobei das Überwachungsbild einen Szenenhintergrund des Überwachungsbereiches mit möglichen Objekten zeigt, mit einer
Auswerteeinrichtung, welche ausgebildet ist, die Schlange der Objekte in dem mindestens einen Überwachungsbild zu erkennen, wobei die
Auswerteeinrichtung ein Objektdetektormodul aufweist, welches ausgebildet ist, eine Vielzahl der Objekte auf Basis des Überwachungsbildes zu detektieren und wobei die Vielzahl der detektierten Objekte die Basis zur Erkennung der
Schlange der Objekte bildet. Die Erfindung betrifft auch ein entsprechendes Verfahren sowie ein Computerprogramm.
Im täglichen Leben sind Menschen oftmals gezwungen, sich in eine
Warteschlange einzureihen, um beispielsweise an einer Kasse zu bezahlen, am Flughafen abgefertigt zu werden etc. Warteschlangen treten in vielerlei
Szenarien auf und bilden sich, wenn die Ankunftsrate von Objekten die
Abfertigungsrate übersteigt. Oftmals ist die Ankunftsrate der Objekte nicht bekannt und variiert mit der Zeit. Dies gilt in vielen Fällen ebenfalls für die Abfertigungsrate. Somit ist die Länge der Warteschlange eine Unbekannte, die nicht berechnet werden kann, sondern in anderer Weise bestimmt werden muss. Es ist möglich, bei einer festen Abfertigungsrate, wie bei einem Fahrgeschäft in einem Vergnügungspark, die Form der Schlange durch Absperrung vorzugeben, wobei die voraussichtliche Wartezeit dann mit Hilfe empirischer Methoden bestimmt werden kann. Durch fest angebrachte Tafeln entlang der Schlange kann die voraussichtliche Wartezeit dem Wartenden dann angezeigt werden.
Eine andere Möglichkeit zur Bestimmung einer Warteschlange ist gegeben, wenn der Wartebereich klar definierte Ein- und Ausgänge besitzt, so dass die Anzahl der Objekte im Wartebereich zum Beispiel durch Lichtschranken oder
Drehkreuze bestimmt werden kann. Innerhalb des Wartebereich kann dann jedoch keine weitere Aussage über die Form und Anzahl der Warteschlangen getroffen werden.
Aufgrund der variierenden Ausführungsformen einer Warteschlange wird diese gewöhnlich nicht automatisiert erfasst, sondern üblicherweise manuell analysiert.
Bildet sich zum Beispiel an einem Supermarkt eine lange Schlange, so dass die voraussichtliche Wartezeit für die Kunden über einen Schwellwert steigt, kann dieser Umstand durch das Kassenpersonal festgestellt werden und eine weitere Kasse geöffnet werden.
Im druckschriftlichen Stand der Technik offenbart die Druckschrift US 5,581 ,625 ein Stereokamerasystem zum Zählen von Objekten in einer Schlange. Bei dem System wird eine Tiefeninformation der Objekte durch die Stereokamera erfasst, um die Objekte zu zählen.
Die Druckschrift US 5,953,055, die wohl den nächstkommenden Stand der Technik bildet, betrifft dagegen ein System und ein Verfahren zur Detektion und zur Analyse von Schlangen. In dieser Druckschrift wird vorgeschlagen, zunächst ein eingelerntes Hintergrundbild von einem Überwachungsbild zu subtrahieren und die verbleibenden Bildpixel mit Informationen als Schlange zu werten.
Offenbarung der Erfindung
Es wird eine Vorrichtung zur Erkennung einer Schlange mit den Merkmalen des Anspruches 1 , ein Verfahren mit den Merkmalen des Anspruches 1 1 und ein
Computerprogramm mit den Merkmalen des Anspruches 13 vorgeschlagen. Bevorzugte oder vorteilhafte Ausführungsformen ergeben sich aus den
Unteransprüchen, der nachfolgenden Beschreibung sowie den beigefügten Figuren.
Im Rahmen der Erfindung wird eine Vorrichtung vorgeschlagen, welche zur Erkennung einer Schlange von Objekten in einem Überwachungsbereich geeignet und/oder ausgebildet ist. Unter einer Schlange, vorzugsweise einer Warteschlange, von Objekten wird eine Ansammlung dieser Objekte verstanden, welche in einer geradlinigen oder gekrümmten Aufreihung optional ergänzend mit mehreren Abzweigungen, Zwischenlücken, Ansammlungen und/oder Ballungen angeordnet ist. Somit wird unter dem Begriff Schlange vorzugsweise jede geordnete oder quasi geordnete Anordnung der Objekte verstanden, welche an einem oder mehreren Zielorten anstehen. Bei dem Zielort kann es sich beispielsweise um eine Kasse, einen Eingang, einen Ausgang oder einen funktionalen Bereich, wie zum Beispiel eine Essensausgabe, ein Automat etc. handeln.
Die Vorrichtung umfasst bevorzugt eine Datenverarbeitungseinrichtung, welche die Erkennungsfunktionen umsetzt, und weist mindestens eine Schnittstelle auf, welche mit einer Bildquelle verbindbar ist. Die Verbindung kann kabelgebunden oder kabellos erfolgen. Die Bildquelle ist vorzugsweise als eine
Überwachungskamera, insbesondere als eine Monobildkamera, ausgebildet. Dies eröffnet die Möglichkeit, die Vorrichtung in einem Echtzeitbetrieb zu betreiben. Alternativ oder ergänzend ist die Bildquelle als ein Bildspeicher ausgebildet, welcher abgespeicherte Bilder zur Verfügung stellt. Über die
Schnittstelle kann der Vorrichtung mindestens ein Überwachungsbild des Überwachungsbereiches übergeben werden, wobei das Überwachungsbild einen Szenenhintergrund des Überwachungsbereiches mit möglichen Objekten zeigt. Der Szenenhintergrund des Überwachungsbereiches wird durch den natürlich vorkommenden Hintergrund, wie zum Beispiel eine Straße, Regale in einem Laden etc. gebildet.
Zur Erkennung der Schlange in dem mindestens einen Überwachungsbild weist die Vorrichtung eine Auswerteeinrichtung auf. Die Auswerteeinrichtung zeigt ein
Objektdetektormodul, das ausgebildet ist, eine Vielzahl der Objekte auf Basis des Überwachungsbildes zu detektieren, wobei die Vielzahl der detektierten Objekte die Basis zur Erkennung der Schlange der Objekte bildet. In einer bevorzugten Ausführungsform der Erfindung werden die Objekte als separate Objekte oder Einzelobjekte von dem Objektdetektormodul erkannt.
Erfindungsgemäß wird vorgeschlagen, dass das Objektdetektormodul ausgebildet ist, die Objekte in dem Überwachungsbild mit dem
Szenenhintergrund zu erkennen. Die Erfindung ermöglicht somit, auf die
Hintergrundsubtraktion zu verzichten, wie dies aus dem Stand der Technik bekannt ist. Die Hintergrundsubtraktion stellt einen kritischen Schritt bei der
Bildanalyse dar, da dabei oftmals idealisiert von einem statischen Hintergrund ausgegangen wird, wobei bei realer Betrachtung der Hintergrund meist nur quasi statisch ist. Beispielsweise kann das Hintergrundbild durch ein vorbeifahrendes Auto, eine Lichtänderung oder andere Störungen stark beeinflusst werden.
Demgegenüber ist es von Vorteil, wenn auf diesen fehleranfälligen Schritt verzichtet wird und die Objekte unmittelbar in dem Überwachungsbild vor dem Szenenhintergrund erkannt werden.
Alternativ oder ergänzend weist das Objektdetektormodul inhaltsensitive
Detektoren zur Detektion der Objekte auf. Unter inhaltsensitiven Detektoren werden Detektoren verstanden, die die Objekte durch Inhaltsanalyse des Überwachungsbildes auffinden. Diese Vorgehensweise eröffnet die Möglichkeit, dass die Objekte in dem Überwachungsbild vor dem Szenenhintergrund gesucht und detektiert werden können. Rein prinzipiell ist es jedoch auch möglich, dass diese Detektoren in einem vorverarbeiteten Überwachungsbild eingesetzt werden, in dem der Szenenhintergrund bereits subtrahiert ist, wie dies aus dem Stand der Technik bekannt ist.
Der Vorteil der Erfindung ist somit darin zu sehen, dass die Analyse des
Überwachungsbildes auf einem anderen Weg und dadurch im Hinblick auf die
Detektoren und/oder auf die fehlende Hintergrundsubtraktion störunanfälliger durchgeführt werden kann.
Bei einer bevorzugten Realisierung der Erfindung ist der oder die
inhaltssensitiven Detektoren zur Verwendung einer Vielzahl von
Vergleichsmerkmalen sowie Klassifikationsregeln für die Vergleichsmerkmale ausgebildet. Die Vergleichsmerkmale können komplex sein, so dass
beispielsweise das Bild oder die Form eines Arms, eines Beins etc. als
Vergleichsmerkmal eingesetzt wird. Alternativ oder ergänzend können die Vergleichsmerkmale auch auf einfachen geometrischen Formen, wie zum waagerechte Linien, senkrechte Linien, runde Formen für Köpfe etc. basieren.
Aus der Literatur sind eine Vielzahl von Merkmalen bzw. Merkmalssystemen für die Bildverarbeitung bekannt, die entsprechend für die Objekte gewählt werden können. Ferner umfasst der oder die inhaltsensitiven Detektoren
Klassifikationsregeln, welche die Ergebnisse der Vergleichsmerkmale
zusammenfassen, um eine Gesamtaussage "Objekt gefunden - nicht gefunden" zu ermöglichen. Die Klassifikationsregeln können analytische Regeln umfassen, welche beispielsweise einprogrammiert werden. Hier ist vorstellbar, dass als Klassifikationsregel Plausibilitätsprüfungen verwendet werden, z.B. dass jeder Mensch nur maximal zwei Arme besitzt, so dass ein Objekt mit mehr als zwei Armen verworfen wird. Alternativ oder ergänzend können die
Klassifikationsregeln auch eingelernt werden, auch hierzu sind eine Vielzahl von Möglichkeiten (z.B. Boostverfahren, neuronale Netze etc.) bekannt.
Insbesondere ist der oder die inhaltsensitiven Detektoren ausgebildet, einzelne Objekte, vorzugsweise auch bei gegenseitiger oder anderer Verdeckung und/oder Überdeckung zu detektieren und zu lokalisieren.
Optional ergänzend kann vorgesehen sein, dass das Objektdetektormodul und/oder die Auswerteeinrichtung ausgebildet ist, weitere Ereignisse im
Zusammenhang mit Schlangen zu erkennen, wie zum Beispiel Umfallen,
Hindernisse, Vordrängeln, Streit etc.
Bei einer möglichen Weiterbildung der Erfindung weist die Auswerteeinrichtung ein Modellierungsmodul auf, welches ausgebildet ist, die Schlange auf Basis der detektierten Objekte zu modellieren. Nachdem die Objekte in dem
Überwachungsbild nicht nur detektiert, sondern vorzugsweise auch lokalisiert wurden, kann durch das Modellierungsmodul die Schlange modelliert werden. Insbesondere ist das Modellierungsmodul ausgebildet, beliebig gekrümmte und/oder verzeigte Schlangenformen zu modellieren. Prinzipiell kann vorgesehen sein, dass Zusatzinformationen, wie zum Beispiel ein Endpunkt der Schlange, als
Experten- oder a priori-Wissen manuell eingebbar ist. Alternativ oder ergänzend arbeitet das Modellierungsmodul jedoch ohne Kenntnis der Position oder Existenz der Schlange.
Besonders bevorzugt weist das Modellierungsmodul eine Vielzahl von
Warteschlangenmodellen auf, die verschiedene Versionen von Warteschlangen abdecken. Das Modellierungsmodul ist dazu ausgebildet, ein derartiges
Warteschlangenmodell auf die Vielzahl der Objekte zu legen und/oder an deren Verteilung anzupassen. Die Warteschlangenmodelle können sich durch die Verlaufsform (z.B. gekrümmt oder gerade), der Anzahl oder Existenz von Verzweigungen, Ansammlungen etc. unterscheiden.
Bei einer besonders bevorzugten Ausführungsform der Erfindung ist die
Auswerteeinrichtung programmtechnisch und/oder schaltungstechnisch ausgebildet, die Schlange auf Basis eines einzigen Überwachungsbildes zu erkennen und/oder zu bilden. In dieser Ausführungsform zeigen sich Vorteile gegenüber dem Stand der Technik, welcher mindestens zwei Bilder, nämlich das Überwachungsbild und das Hintergrundbild, zur Erkennung der Schlange benötigt. Bei einer Weiterbildung der Erfindung kann vorgesehen sein, dass die
Auswerteeinrichtung ein Bewegungsanalysemodul aufweist, welches
Bewegungsinformationen analysiert und als Zusatzinformation zur Erkennung und/oder Verifizierung der Schlange bereitstellt. Die Auswerteeinrichtung, insbesondere das Modellierungsmodul, ist ausgebildet, die Zusatzinformation zur Erkennung und/oder Verifizierung der Schlange zu verwenden. Das
Bewegungsanalysemodul ist beispielsweise ausgebildet, die Bewegungsrichtung der detektierten Objekte in der Warteschlange zu erkennen und/oder die
Bewegungsrichtung von Lücken zwischen den Objekten zu detektieren. Hierbei wird insbesondere die Fortpflanzung der Zwischenräume zum Ende bzw. Ziel der Warteschlange untersucht. Alternativ oder ergänzend kann auch der
Bewegungsfluss, insbesondere als optischer Fluss (optical flow), in der
Überwachungsszene als Zusatzinformation genutzt werden.
Bei einer weiteren möglichen Ausführungsform der Erfindung ist das
Objektdetektormodul ausgebildet, eine Orientierung der Objekte als
Zusatzinformation zu detektieren. Auch diese Zusatzinformation kann durch die Auswerteeinrichtung und/oder das Modellierungsmodul zu Erkennung und/oder Verifizierung der Schlange verwendet werden. Beispielsweise ist es bei
Personen möglich, eine Gesichtserkennung und/oder HauWHautfarbeerkennung durchzuführen und auf diese Weise auf die Orientierung der Personen abzuleiten. Durch die Orientierung der Personen kann die Schlangenform leichter detektiert bzw. modelliert werden, da Personen sehr oft in Richtung des Endes, also dem Ziel oder dem Ausgang, der Schlange schauen. Bei Autos ist es beispielsweise möglich, Kühler, Nummernschild und/oder Windschutzscheibe zu detektieren und auf diese Weise eine Orientierung zu erfassen. Gerade bei Autos wird die Schlangendetektion besonders erleichtert, da diese sich in der
Warteschlange nicht wie Personen umdrehen etc. können und somit die
Aussagekraft der Orientierung höher ist.
Bei einer anderen Ergänzung der Erfindung kann vorgesehen sein, dass die Auswerteeinrichtung ein Umgebungsmodul aufweist, welches zur Übernahme und/oder Erkennung einer Grundebene der Überwachungsszene in dem mindestens einen Überwachungsbereich als Zusatzinformation ausgebildet ist. Durch die erfasste Grundebene kann die Lokalisierung der Objekte verbessert werden und folglich die Schlange einfacher erkannt und/oder verifiziert werden.
Als eine optionale Verbesserung ist auch die Möglichkeit eines
Tiefenkartenmoduls zu sehen, welches eine Tiefenkarte als Zusatzinformation der Überwachungsszene bzw. des Überwachungsbereiches bereitstellt, wobei die Auswerteeinrichtung ausgebildet ist, die Zusatzinformation zur Erkennung und/oder Verifizierung der Schlange zu verwenden. Beispielsweise kann eine derartige Tiefenkarte aus einem Stereokamerasystem oder aus anderen speziellen Sensoren aufgebaut werden.
Eine weitere Möglichkeit zur Verbesserung der Aussagekraft besteht darin, dass das Überwachungsbild oder ein weiteres Überwachungsbild als ein Wärmebild ausgebildet ist, so dass Wärmeinformationen, zum Beispiel Kopf/Gesicht/Hände bei Personen und/oder Motorhaube/Auspuff bei Autos einfach erkannt werden kann und diese Zusatzinformation ebenfalls zur Erkennung und/oder
Verifizierung der Schlange - z.B. indem die Orientierung der Objekte bestimmt wird - eingesetzt werden kann. Ein weiterer Gegenstand der Erfindung betrifft ein Verfahren sowie ein
Computerprogramm mit den Merkmalen des Anspruches 1 1 bzw. 13.
Weitere Merkmale, Vorteile und Wirkungen der Erfindung ergeben sich aus der nachfolgenden Beschreibung bevorzugter Ausführungsbeispiele der Erfindung sowie der beigefügten Figuren. Dabei zeigen:
Figur 1 eine schematische Blockdarstellung einer Vorrichtung zur
Erkennung einer Warteschlange als ein erstes Ausführungsbeispiel der Erfindung;
Figuren 2 a - c ein Überwachungsbild zur Veranschaulichung des
erfindungsgemäßen Verfahrens; Figur 3 a - d in stark schematisierter Darstellung Warteschlangen bei
verschiedenen Situationen zur Illustration des Verfahrens.
Die Figur 1 zeigt in einer stark schematisierten Darstellung eine Vorrichtung 1 zur Erkennung einer Schlange von Objekten in einem Überwachungsbereich. Die Vorrichtung 1 kann als ein Personalcomputer oder andere digitale
Verarbeitungseinheit ausgebildet sein und dient insbesondere dazu,
Warteschlangen von Personen zu erkennen.
Beispielsweise zeigt die Figur 2a eine Warteschlange 2 von Einzelpersonen in einer Draufsicht von oben in einem Überwachungsbild 3. Mit Hilfe der
Vorrichtung 1 ist es möglich, die Warteschlange 2 zu erkennen, wie dies in der Figur 2b durch die durchgezogene Linie 4 über der Warteschlange 2 visualisiert ist. Die Vorrichtung 1 kann ein Bewertungsmodul 12 aufweisen, welches nach der
Erkennung der Warteschlange 2 Kenngrößen der Warteschlange 2, wie zum Beispiel Länge der Schlange, Anzahl der wartenden Menschen, durchschnittliche Wartezeit, Verlauf der Schlange, Anzahl der Objekte/Personen in der
Warteschlange 2 etc. bereitstellt. Die Vorrichtung 1 umfasst eine Auswerteeinrichtung 5 sowie eine Schnittstelle 6, über die die Auswerteeinrichtung 5 mit einer Bildquelle 7 verbunden bzw.
verbindbar ist. Die Bildquelle 7 kann beispielsweise als eine
Überwachungskamera ausgebildet sein, die auf den Überwachungsbereich gerichtet ist. Insbesondere kann als Bildquelle 7 eine Überwachungskamera verwendet werden, wie sie bereits oftmals in Supermärkten etc. installiert ist, so dass hier bei einer Integration des Warteschlangenerkennungssystem keine zusätzlichen Hardwarekosten für die Überwachungskamera auftreten. Alternativ kann die Bildquelle 7 auch als ein Bildspeicher ausgebildet sein, welcher gespeicherte Überwachungsbilder 3 bereitstellt, die die Warteschlange 2 in einem Überwachungsbereich zeigen.
Nach der Übergabe mindestens eines der Überwachungsbilder 3 an die
Auswerteeinrichtung 5 wird das Überwachungsbild 3 durch ein
Objektdetektormodul 8 auf Suchobjekte 10, in dem Fall der Figur 2 auf Personen, untersucht. Hierzu weist das Objektdetektormodul einen oder mehrere
Detektoren 9 auf, welche eine inhaltssensitive Objektdetektion innerhalb des Überwachungsbildes 3 vornehmen. Insbesondere sind die Detektoren 9 so ausgebildet, dass die Suche nach den Objekten 10 ohne eine
Hintergrundsubtraktion, also auf dem Überwachungsbild 3 mit
Szenenhintergrund (in diesem Fall der Platz) durchführbar ist. Die Detektoren 9 suchen die Objekte 10 zum Beispiel durch die Verwendung einer Vielzahl von Vergleichsmerkmalen, welchen mittels Klassifikationsregeln ausgewertet werden. Derartige inhaltssensitive Objektdetektoren sind in der Bildverarbeitung bekannt.
Nach Erkennung einiger, einer Mehrzahl oder aller Objekte 10 in dem
Überwachungsbild 3 werden die Informationen über die Objekte 10 an ein Modellierungsmodul 1 1 übergeben. Das Modellierungsmodul 1 1 ist ausgebildet, die Existenz und die Verteilung der Objekte 10 in dem Überwachungsbild 3 mit Modellen von Warteschlangen zu fusionieren, so dass auf Basis der Erkennung der Objekte 10 eine Warteschlange modelliert wird. Die vorbereiteten Modelle sind dabei für alle Schlangenformen, geradlinig, gekrümmt, verzweigt, mit Lücken, mit Ballungen etc., ausgebildet. Die Modelle können als analytische Modelle, zum Beispiel in Form von Funktionen, oder auch als Formen vorgeben sein. Nach der Erkennung und/oder Modellierung der Warteschlange in dem
Modellierungsmodul 1 1 werden die Daten zu der Warteschlange 2 an das Ergebnismodul 12 weitergereicht, welches die Warteschlange 2 hinsichtlich der Anzahl der Wartenden, der Wartezeit etc. analysiert und diese Kenngrößen der Warteschlange 2 ausgibt.
Die geschilderte Vorrichtung 1 kann beispielsweise in Supermärkten, vor Ticketschaltern etc. eingesetzt werden, um automatisiert - bei Überschreitung einer vorgegebenen Schlangenlänge oder Wartedauer - weitere Kassen oder Schalter zu öffnen. Ferner ist es möglich, dass Informationen über die detektierte
Schlangenform vom Marketing ausgenutzt wird, um in den ermittelten
Wartebereichen Produkte oder Werbungen zu platzieren.
In der dargestellten Grundform ist es möglich, eine Warteschlange 2 bereits durch Analyse eines einzigen Überwachungsbildes 3 zu erkennen.
Durch Hinzunahme von weiteren Funktionsmodulen ist es möglich, die
Detektionsgenauigkeit der Vorrichtung 1 zu verbessern. Diese weiteren
Funktionsmodule sind Zusatzoptionen, welche nicht zwingend notwendig erscheinen:
Ein Bewegungsanalysemodul 13 ist ausgebildet, Bewegungsinformationen aus dem Überwachungsbild 3 bzw. aus mindestens zwei Überwachungsbildern 3 als eine Zusatzinformation zu ermitteln:
Beispielsweise können Bewegungsmuster der Warteschlange 2 durch Analyse der Bewegung der Objekte 10 selbst oder durch Analyse des optischen Flusses in dem Überwachungsbild 3 erkannt werden. Es ist möglich, die Bewegung der Objekte 10 in der Schlange 2 zu erfassen, wie es schematisch durch Pfeile 14 in der Figur 2c angedeutet ist. Alternativ oder ergänzend können die
Zwischenräume zwischen den Objekten 10 beobachtet und deren Fortpflanzung zum Ende der Warteschlange 2 hin analysiert werden. Die Bewegungsrichtung der Objekte 10, der Zwischenräume oder des optischen Flusses ergibt einen deutlichen Hinweis auf die Form der Warteschlange 2. Ein Umgebungsmodul 15 ist ausgebildet, eine Grundebene der beachteten Szene zu erkennen oder durch Benutzereingabe zu erlangen. Durch Kenntnis der Grundebene der beobachteten Szene kann dieser ein 3D-Modell zugeordnet werden, so dass die Positionen der Objekte 10 genauer definiert werden können. Auch diese Grundebene stellt eine Zusatzinformation dar.
In einem Tiefenkartenmodul 16, welches beispielsweise als Eingabe die Bilder einer Stereokamera oder von speziellen Sensoren nutzt, kann die genaue Lage der Objekte 10 als eine weitere Zusatzinformation erhalten werden.
Weitere Möglichkeiten zur Erlangung von Zusatzinformationen sind der Einsatz von Infrarotkameras, um zum Beispiel Wärmeinformationen von Kopf, Gesicht und Händen bei Personen oder Motorhaube/Auspuff bei Autos als Objekten zu erkennen. Diese Wärmeinformationen können zur Verbesserung der Detektion der Objekte 10 oder zur Erkennung einer Orientierung der Objekte 10 dienen.
Auch diese Informationen stellen Zusatzinformationen dar.
Die genannten Zusatzinformationen werden einzeln oder gemeinsam oder in beliebiger Auswahl bei dem Modellierungsmodul 1 1 eingesetzt, um die
Modellierung der Warteschlange 2 zu verbessern. Zur Verbesserung der
Modellierung ist es ergänzend oder alternativ auch möglich, dass ein Benutzer explizit die Form oder den Zielpunkt von einer zu erwartenden Warteschlange angibt. In den Figuren 3a - d sind verschiedene Situationen einer Warteschlange 2 dargestellt, um eine Auswahl von unterschiedlichen Versionen der
Warteschlange 2 darzustellen. So können sich gemäß der Figur 3a Personen als Objekte 10 in einer Warteschlange 2 ballen. Gemäß Figur 2b können Lücken zwischen den Personen als Objekte 10 auftreten. Diese Lücken können auch zur Erkennung der Bewegungsrichtung der Warteschlange 2 eingesetzt werden.
Weiterhin können wie in der Figur 3 c gezeigt Aufspaltungen oder
Verzweigungen der Objekte 10 innerhalb der Schlage 2 auftreten.
Die Figur 3 d illustriert die Möglichkeit, dass die Auswertung der Orientierung der Personen 10 in der Schlange 2, sowie deren Bewegungsrichtung, dargestellt durch Pfeile, bei der Erkennung der Warteschlange 2 helfen können. Die Bewegungsrichtung wird beispielsweise durch einen Vergleich von einem Überwachungsbild 3 zu einem Zeitpunkt z = t und einem Überwachungsbild 3 zu einem Zeitpunkt z = t+x, insbesondere durch eine Objektverfolgung, bestimmt. Die Bestimmung kann z.B. durch das Bewegungsanalysemodul 13 erfolgen. Die Orientierung der Objekte 10 kann durch den Einsatz von speziellen Sensoren, wie z.B. Wärmebildkameras, unmittelbar erfasst werden. Alternativ oder ergänzend kann die Orientierung auch durch das Objektdetektormodul 8 erfolgen. Bewegungsrichtung und/oder Orientierung der Objekte 10 können als Zusatzinformation zur Erkennung der Warteschlange 2 in dem
Modellierungsmodul 11 eingesetzt werden.

Claims

Ansprüche
1. Vorrichtung (1 ) zur Erkennung einer Schlange (2) von Objekten (10) in
einem Überwachungsbereich mit einer Schnittstelle (6), welche mit einer Bildquelle (7) verbindbar ist, wobei die Schnittstelle (6) ausgebildet ist, mindestens ein Überwachungsbild (3) des Überwachungsbereiches von der Bildquelle zu übernehmen, wobei das Überwachungsbild (3) einen Szenenhintergrund des
Überwachungsbereiches mit möglichen Objekten (10) zeigt, mit einer Auswerteeinrichtung (5), welche ausgebildet ist, die Schlange (2) der Objekte (10) in dem mindestens einen Überwachungsbild (3) zu erkennen, wobei die Auswerteeinrichtung (5) ein Objektdetektormodul (8) aufweist, welches ausgebildet ist, eine Vielzahl der Objekte (10) auf Basis des Überwachungsbildes (3) zu detektieren, wobei die Vielzahl der detektierten Objekte (10) die Basis zur Erkennung der Schlange (2) der Objekte (10) bildet, dadurch gekennzeichnet, dass das Objektdetektormodul (8) ausgebildet ist, die Objekte (10) in dem Überwachungsbild (3) mit dem Szenenhintergrund zu erkennen und/oder dass das Objektdetektormodul (8) inhaltssensitive Detektoren (9) zur Detektion der Objekte (10) aufweist.
2. Vorrichtung (1 ) nach Anspruch 1 , dadurch gekennzeichnet, dass die inhaltssensitiven Detektoren (9) eine Vielzahl von Vergleichsmerkmalen sowie Klassifikationsregeln für die Vergleichsmerkmale umfassen.
3. Vorrichtung (1 ) nach Anspruch 1 oder 2, dadurch gekennzeichnet, dass die
Auswerteeinrichtung (5) ein Modellierungsmodul (1 1 ) aufweist, welches ausgebildet ist, die Schlange (2) auf Basis der detektierten Objekte (10) zu modellieren.
4. Vorrichtung (1 ) nach Anspruch 3, dadurch gekennzeichnet, dass das
Modellierungsmodul (1 1 ) ausgebildet ist, ein berechnetes und/oder vordefiniertes Warteschlangenmodell auf die Vielzahl der Objekte (10) zu legen.
5. Vorrichtung (1 ) nach einem der vorhergehenden Ansprüche, dadurch
gekennzeichnet, dass die Auswerteeinrichtung (5), insbesondere das Modellierungsmodul (1 1 ) ausgebildet ist, die Schlange (2) auf Basis eines einzigen Überwachungsbildes (3) zu erkennen.
6. Vorrichtung (1 ) nach einem der vorhergehenden Ansprüche, dadurch
gekennzeichnet, dass die Auswerteeinrichtung (5) ein
Bewegungsanalysemodul (13) aufweist, welches ausgebildet ist, auf Basis von mindestens zwei Überwachungsbildern (3) die Bewegungsrichtung der detektierten Objekte (10) und/oder die Bewegungsrichtung von Lücken zwischen den Objekten (10) und/oder den Bewegungsfluss in der
Überwachungsszene als Zusatzinformation zu erfassen, wobei die
Auswerteeinrichtung (5), insbesondere das Modellierungsmodul (1 1 ) ausgebildet ist, die Zusatzinformation zur Erkennung und/oder Verifizierung der Schlange (2) zu verwenden.
7. Vorrichtung (1 ) nach einem der vorhergehenden Ansprüche, dadurch
gekennzeichnet, dass das Objektdetektormodul (8) ausgebildet ist, eine Orientierung der Objekte (10) als Zusatzinformation zu detektieren, wobei die Auswerteeinrichtung (5), insbesondere das Modellierungsmodul (1 1 ) ausgebildet ist, die Zusatzinformation zur Erkennung und/oder Verifizierung der Schlange (2) zu verwenden.
8. Vorrichtung (1 ) nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die Auswerteeinrichtung (5) ein Umgebungsmodul
(15) aufweist, welches zur Übernahme und/oder Erkennung einer
Grundebene des Überwachungsbereiches in dem mindestens einen
Überwachungsbereich als Zusatzinformation ausgebildet ist, wobei die Auswerteeinrichtung (5), insbesondere das Modellierungsmodul (1 1 ) ausgebildet ist, die Zusatzinformation zur Erkennung und/oder Verifizierung der Schlange (2) zu verwenden.
9. Vorrichtung (1 ) nach einem der vorhergehenden Ansprüche, dadurch
gekennzeichnet, dass die Auswerteeinrichtung (5) ein Tiefenkartenmodul
(16) aufweist, welches zur Übernahme und/oder Erkennung einer
Tiefenkarte als Zusatzinformation ausgebildet ist, wobei die
Auswerteeinrichtung (5), insbesondere das Modellierungsmodul (1 1 ) ausgebildet ist, die Zusatzinformation zur Erkennung und/oder Verifizierung der Schlange (2) zu verwenden.
10. Vorrichtung (1 ) nach einem der vorhergehenden Ansprüche, dadurch
gekennzeichnet, dass das mindestens eine Überwachungsbild (3) oder ein weiteres Überwachungsbild (3) als ein Wärmebild ausgebildet ist.
1 1 . Verfahren zur Erkennung einer Schlange (2) von Objekten (10) in einem Überwachungsbereich, wobei mindestens ein Überwachungsbild (3) des Überwachungsbereichs von einer Bildquelle (7) an eine Auswerteeinrichtung
(5) übergeben wird, wobei das Überwachungsbild (3) einen
Szenenhintergrund des Überwachungsbereichs mit möglichen Objekten (10) zeigt, wobei die Auswerteeinrichtung (5) die Schlange (2) der Objekte (10) in dem mindestens einen Überwachungsbild (3) erkennt, wobei ein
Objektdetektormodul (8) der Auswerteeinrichtung (5) eine Vielzahl der
Objekte (10) auf Basis des Überwachungsbildes (3) detektiert, wobei die Vielzahl der detektierten Objekte (10) die Basis zur Erkennung der Schlange (2) der Objekte bildet, dadurch gekennzeichnet, dass das
Objektdetektormodul (8) die Objekte (10) in dem Überwachungsbild (3) mit dem Szenenhintergrund erkennt und/oder dass das Objektdetektionsmodul
(8) die Objekte (10) mittels inhaltssensitiver Detektoren (9) erkennt.
12. Verfahren nach Anspruch 11 , gekennzeichnet durch die Verwendung der Vorrichtung (1 ) nach einem der Ansprüche 1 bis 10.
13. Computerprogramm mit Programmcode-Mitteln, um alle Schritte von dem Verfahren gemäß Anspruch 11 durchzuführen, wenn das Programm auf einem Computer und/oder der Vorrichtung (1 ) gemäß einer der Ansprüche 1 bis 10 ausgeführt wird.
EP10729859A 2009-08-18 2010-07-02 Vorrichtung zur erkennung einer objektschlange, verfahren sowie computerprogramm Withdrawn EP2467801A1 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
DE102009028604A DE102009028604A1 (de) 2009-08-18 2009-08-18 Vorrichtung zur Erkennung einer Objektschlange, Verfahren sowie Computerprogramm
PCT/EP2010/059434 WO2011020641A1 (de) 2009-08-18 2010-07-02 Vorrichtung zur erkennung einer objektschlange, verfahren sowie computerprogramm

Publications (1)

Publication Number Publication Date
EP2467801A1 true EP2467801A1 (de) 2012-06-27

Family

ID=42882269

Family Applications (1)

Application Number Title Priority Date Filing Date
EP10729859A Withdrawn EP2467801A1 (de) 2009-08-18 2010-07-02 Vorrichtung zur erkennung einer objektschlange, verfahren sowie computerprogramm

Country Status (5)

Country Link
US (1) US8855364B2 (de)
EP (1) EP2467801A1 (de)
CN (1) CN102549600B (de)
DE (1) DE102009028604A1 (de)
WO (1) WO2011020641A1 (de)

Families Citing this family (27)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102011000929A1 (de) * 2011-02-25 2012-08-30 Vitracom Ag Verfahren zur Optimierung des Einsatzes von Betriebsmitteln in einer Dienstleistungsumgebung
US10275817B2 (en) 2011-12-22 2019-04-30 Intel Corporation Obtaining vendor information using mobile internet devices
EP2709064B1 (de) * 2012-07-18 2019-06-26 AGT International GmbH Bildverarbeitung zum Ableiten von Bewegungseigenschaften für eine Vielzahl von Objekten in einer Warteschlange
US10839227B2 (en) * 2012-08-29 2020-11-17 Conduent Business Services, Llc Queue group leader identification
GB201306313D0 (en) * 2013-04-08 2013-05-22 Vision Semantics Ltd Queue analysis
EP2849151A1 (de) 2013-09-13 2015-03-18 Xovis AG Verfahren zur Analyse von freien Warteschlangen
JP5683663B1 (ja) * 2013-09-27 2015-03-11 パナソニックIpマネジメント株式会社 滞留時間測定装置、滞留時間測定システムおよび滞留時間測定方法
CN103544646A (zh) * 2013-10-25 2014-01-29 江苏科大汇峰科技有限公司 基于Android的超市智能收银排队等候分析方法
EP3129964A1 (de) 2014-04-07 2017-02-15 Cubic Corporation System und verfahren zur verwaltung von warteschlangen
CN103916641A (zh) * 2014-04-22 2014-07-09 浙江宇视科技有限公司 一种队列长度计算方法以及装置
US10262328B2 (en) * 2014-04-25 2019-04-16 Conduent Business Services, Llc System and method for video-based detection of drive-offs and walk-offs in vehicular and pedestrian queues
US10290067B1 (en) 2014-06-05 2019-05-14 ProSports Technologies, LLC Wireless concession delivery
US9965938B1 (en) 2014-07-11 2018-05-08 ProSports Technologies, LLC Restroom queue management
US9892371B1 (en) * 2014-07-28 2018-02-13 ProSports Technologies, LLC Queue information transmission
US9607497B1 (en) 2014-08-25 2017-03-28 ProSports Technologies, LLC Wireless communication security system
GB2545003B8 (en) * 2015-12-03 2020-09-30 Int Consolidated Airlines Group S A Queue monitoring based on imprint profiles
JP6681608B2 (ja) * 2016-03-25 2020-04-15 パナソニックIpマネジメント株式会社 稼働数決定装置、稼働数決定システム、稼働数決定方法、及びプログラム
US20180240151A1 (en) * 2017-02-21 2018-08-23 Panasonic Intellectual Property Management Co., Ltd. Electronic routing and messaging in a venue based on wait times
US10509969B2 (en) * 2017-09-12 2019-12-17 Cisco Technology, Inc. Dynamic person queue analytics
CN109558785A (zh) * 2017-09-25 2019-04-02 北京缤歌网络科技有限公司 安防监控系统及应用其的无人便利店
CN108806318A (zh) * 2018-06-19 2018-11-13 芜湖岭上信息科技有限公司 一种基于图像的停车位管理系统和方法
US11120280B2 (en) 2019-11-15 2021-09-14 Argo AI, LLC Geometry-aware instance segmentation in stereo image capture processes
US11030757B1 (en) * 2019-12-10 2021-06-08 Vivotek Inc. Queue analyzing method and image monitoring apparatus
CN111008611B (zh) * 2019-12-20 2023-07-14 浙江大华技术股份有限公司 排队时长的确定方法及装置、存储介质、电子装置
US11594059B2 (en) 2021-03-15 2023-02-28 International Business Machines Corporation Identifying last person in queue
DE102022212836A1 (de) 2022-11-30 2024-06-06 Robert Bosch Gesellschaft mit beschränkter Haftung Verfahren und Vorrichtung zum Erkennen eines Endes einer Fahrt eines Fahrzeugs
DE102022213679A1 (de) 2022-12-15 2024-06-20 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung eingetragener Verein Verbesserte aktivitätserkennung in einer fahrgastzelle eines verkehrsmittels mit hilfe von statischen oder dynamischen regionen von interesse, roi

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5581625A (en) 1994-01-31 1996-12-03 International Business Machines Corporation Stereo vision system for counting items in a queue
US5930055A (en) * 1994-09-29 1999-07-27 Eisenberg; Yeshayahu S. Lens apparatus
US5953055A (en) 1996-08-08 1999-09-14 Ncr Corporation System and method for detecting and analyzing a queue
US8131010B2 (en) 2007-07-30 2012-03-06 International Business Machines Corporation High density queue estimation and line management
CN101178770B (zh) * 2007-12-11 2011-02-16 北京中星微电子有限公司 一种图像检测方法及装置

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See references of WO2011020641A1 *

Also Published As

Publication number Publication date
DE102009028604A1 (de) 2011-02-24
WO2011020641A1 (de) 2011-02-24
US20120207350A1 (en) 2012-08-16
CN102549600A (zh) 2012-07-04
CN102549600B (zh) 2015-07-22
US8855364B2 (en) 2014-10-07

Similar Documents

Publication Publication Date Title
EP2467801A1 (de) Vorrichtung zur erkennung einer objektschlange, verfahren sowie computerprogramm
EP1574986B1 (de) Vorrichtung und Verfahren zum Erfassen und Verfolgen von Personen in einem Untersuchungsabschnitt
EP3044760B1 (de) Verfahren zur analyse der verteilung von objekten in freien warteschlangen
EP1210680B1 (de) Verfahren und anordnung zur erfassung und analyse des rezeptionsvrhaltens von personen
KR100801935B1 (ko) 차량 번호 인식을 이용한 주차관리시스템 및 그 방법
DE112009000485T5 (de) Objektvergleich für Verfolgung, Indizierung und Suche
JPH1049718A (ja) 通過人数計測装置及びそれを用いた入退場者数管理システム
EP2174260A2 (de) Vorrichtung zur erkennung und/oder klassifizierung von bewegungsmustern in einer bildsequenz von einer überwachungsszene, verfahren sowie computerprogramm
DE212017000037U1 (de) Selbstbedienungskassensystem
JP3218521B2 (ja) 画像センサによる移動体検知システム
DE102014217361A1 (de) Bestimmen der quellspur eines sich bewegenden elements, das mit der zielspur zusammengeführt wird
EP3453000B1 (de) Rauchdetektionsvorrichtung, verfahren zur detektion von rauch eines brandes sowie computerprogramm
DE102017006529A1 (de) Verfahren, Vorrichtung und Computerprogramm zur Erfassung von optischen Bilddaten einer Patientenumgebung und zur Erkennung einer Patientenüberprüfung
EP3188080A1 (de) Verfahren zur auswertung von gesten
DE102011001541A1 (de) Selbstbedienungs-Terminal und Verfahren zur Überwachung eines Benutzer-Aufenthaltsbereichs
DE102007000449A1 (de) Vorrichtung und Verfahren zur automatischen Zaehlung von Objekten auf beweglichem oder bewegtem Untergrund
EP3710870A1 (de) Erfassungssystem
CN105825166A (zh) 基于人体hog特征的行人流量统计方法及统计系统
Kerridge et al. Monitoring the movement of pedestrians using low-cost infrared detectors: initial findings.
WO2013083327A1 (de) Vorrichtung und verfahren zur automatischen detektion eines ereignisses in sensordaten
CN112785462A (zh) 基于大数据的景区客流量统计评估系统
DE102019109287A1 (de) System und Verfahren zum Erkennen von potenziellem Betrug seitens des Kassierers
DE102009000074A1 (de) Überwachungsvorrichtung sowie Sensoreinrichtung zur Erfassung der Bodenkontaktflächen eines Überwachungsobjektes für die Überwachungsvorrichtung
Kerridge et al. Using low-cost infrared detectors to monitor movement of pedestrians: initial findings
Ryan et al. Scene invariant crowd counting for real-time surveillance

Legal Events

Date Code Title Description
PUAI Public reference made under article 153(3) epc to a published international application that has entered the european phase

Free format text: ORIGINAL CODE: 0009012

17P Request for examination filed

Effective date: 20120319

AK Designated contracting states

Kind code of ref document: A1

Designated state(s): AL AT BE BG CH CY CZ DE DK EE ES FI FR GB GR HR HU IE IS IT LI LT LU LV MC MK MT NL NO PL PT RO SE SI SK SM TR

DAX Request for extension of the european patent (deleted)
STAA Information on the status of an ep patent application or granted ep patent

Free format text: STATUS: THE APPLICATION IS DEEMED TO BE WITHDRAWN

18D Application deemed to be withdrawn

Effective date: 20170201