DE102007033133A1 - Verfahren und Vorrichtung zur Detektion von Objekten - Google Patents

Verfahren und Vorrichtung zur Detektion von Objekten Download PDF

Info

Publication number
DE102007033133A1
DE102007033133A1 DE102007033133A DE102007033133A DE102007033133A1 DE 102007033133 A1 DE102007033133 A1 DE 102007033133A1 DE 102007033133 A DE102007033133 A DE 102007033133A DE 102007033133 A DE102007033133 A DE 102007033133A DE 102007033133 A1 DE102007033133 A1 DE 102007033133A1
Authority
DE
Germany
Prior art keywords
image
evaluation
persons
data
objects
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
DE102007033133A
Other languages
English (en)
Inventor
Alois Adam
Bernhard Promberger
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Rohde and Schwarz GmbH and Co KG
Original Assignee
Rohde and Schwarz GmbH and Co KG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Rohde and Schwarz GmbH and Co KG filed Critical Rohde and Schwarz GmbH and Co KG
Priority to DE102007033133A priority Critical patent/DE102007033133A1/de
Publication of DE102007033133A1 publication Critical patent/DE102007033133A1/de
Withdrawn legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/42Global feature extraction by analysis of the whole pattern, e.g. using frequency domain transformations or autocorrelation
    • G06V10/421Global feature extraction by analysis of the whole pattern, e.g. using frequency domain transformations or autocorrelation by analysing segments intersecting the pattern
    • GPHYSICS
    • G06COMPUTING; CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/66Trinkets, e.g. shirt buttons or jewellery items

Abstract

Die Erfindung betrifft ein Verfahren und eine Vorrichtung zur Detektion von Personen und/oder Objekten in einem zu überwachenden Bereich. Hierzu wird eine Vorrichtung genutzt, die eine Bildaufnahme-Einrichtung und eine Auswertungs-Einrichtung beinhaltet. Dabei werden die Personen und/oder Objekte (1) durch Verdeckung eines Referenzobjekts (3) in einem bild detektiert. Die Geometrie und das Oberflächenmuster des Referenzobjekts (3) sind dabei bekannt. Zunächst wird ein Bild mit der Bildaufnahme-Einrichtung aufgenommen und an die Auswertungs-Einrichtung weitergeleitet. In dem Bild wird von der Auswertungs-Einrichtung entlang mehrerer Abtastlinien (20) das bekannte Oberflächemuster des Referenzobjekts (3) gesucht. Anhand der Abschnitte der Abtastlinien (20), welche das gesuchte Oberflächenmuster überschneiden und der Geometrie des Referenzobjekts (3) wird die räumliche Position des Referenzobjekts (3) durch die Auswertungs-Einrichtung ermittelt. Zuletzt sucht die Auswertungs-Einrichtung innerhalb eines der Geoemtrie des Referenzobjekts (3) angepassten Suchfensters (55) durch Vergleich der Bilddaten und/oder Bildmerkmalen innerhalb des Suchfensters (55) mit Referenzdaten und/oder Referenzmerkmalen nach einer Verdeckung des Referenzobjekts (3).

Description

  • Die Erfindung betrifft ein Verfahren und eine Vorrichtung zur Detektion von Personen und Objekten in einem zu überwachenden Bereich.
  • Herkömmlich werden zur Überwachung von Bereichen Bewegungsdetektoren auf Infrarot-Basis eingesetzt. Diese reagieren jedoch lediglich auf Bewegungen und können so stationäre Objekte nicht detektieren. Die Sensitivität dieser Verfahren ist gering. Weiterhin kann der Erfassungsbereich nicht genau gesteuert werden. Herkömmliche Verfahren der Video-basierten Objekterkennung sind zwar in der Lage, ruhende Objekte und Personen zu erkennen, jedoch ist der Rechenaufwand hierzu beträchtlich. Insbesondere bei Echtzeitanforderungen sind sehr aufwendige Systeme erforderlich.
  • Zum Stand der Technik sei auf die DE 36 34 628 C2 verwiesen. Dort wird eine Überwachungsanordnung gezeigt, welche durch einen direkten Vergleich aufgenommener Bilder mit Referenzbildern Bereiche überwacht. Dies ist jedoch mit einem hohen Hardwareaufwand verbunden.
  • Der Erfindung liegt die Aufgabe zu Grunde, ein Verfahren und eine Vorrichtung zur Detektion von Personen und Objekten in zu überwachenden Bereichen zu schaffen, das mit geringen Hardware- und Rechenaufwand eine hohe Sicherheit der Detektion erreicht.
  • Die Aufgabe wird erfindungsgemäß für das Verfahren durch die Merkmale des unabhängigen Anspruchs 1 und durch die Merkmale des unabhängigen Anspruchs 14 für die Vorrichtung gelöst. Vorteilhafte Weiterbildungen sind Gegenstand der hierauf rückbezogenen Unteransprüche.
  • Zur Detektion von Personen und/oder Objekten in einem zu überwachenden Bereich wird eine Vorrichtung genutzt, die eine Bildaufnahme-Einrichtung und eine Auswertungs-Einrichtung beinhaltet. Dabei werden die Personen und/oder Objekte durch Verdeckung eines Referenzobjekts in einem Bild detektiert. Die Geometrie und das Oberflächenmuster des Referenzobjekts ist dabei bekannt. Zunächst wird ein Bild mit der Bildaufnahme-Einrichtung aufgenommen und an die Auswertungs-Einrichtung weitergeleitet. In dem Bild wird von der Auswertungs-Einrichtung entlang mehrerer Abtastlinien das bekannte Oberflächenmuster des Referenzobjekts gesucht. Anhand der Abschnitte der Abtastlinien, welche das gesuchte Oberflächenmuster überschneiden und der Geometrie des Referenzobjekts wird die räumliche Position des Referenzobjekts durch die Auswertungs-Einrichtung ermittelt. Zuletzt sucht die Auswertungs-Einrichtung innerhalb eines der Geometrie des Referenzobjekts angepassten Suchfensters durch Vergleich der Bilddaten und/oder Bildmerkmalen innerhalb des Suchfensters mit Referenzdaten und/oder Referenzmerkmale nach einer Verdeckung des Referenzobjekts. So ist eine zuverlässige Detektion von Personen und/oder Objekten im zu überwachenden Bereich gewährleistet. Durch die Begrenzung der Auswertung auf die Bilddaten innerhalb eines Suchfensters ist der Rechenaufwand nur gering.
  • Vorteilhafterweise ist die Bildaufnahme-Einrichtung eine Kamera. Vor der Weiterverarbeitung wird das Bild bevorzugt entzerrt und/oder gefiltert. Die Zuverlässigkeit der Detektion wird hierdurch weiter erhöht.
  • Das bekannte Oberflächenmuster ist vorteilhafterweise ein definierter Wechsel von Farbstreifen mit definierter Helligkeit, Sättigung, und Farbe, bevorzugt ein Wechsel von schwarzen und weißen Streifen. Durch dieses einfache Oberflächenmuster ist der Einsatz von Bildaufnahme-Einrichtungen möglich, die lediglich schwarz-weiß Bilder aufnehmen können. Zusätzlich ist durch den großen Kontrast eine sichere Detektion des Referenzobjekts und einer eventuellen Verdeckung gewährleistet.
  • Vorteilhafterweise verlaufen die Abtastlinien im Bild parallel zueinander. Damit wird der Aufwand der Berechnungen zur Detektion des Referenzobjekts weiter reduziert.
  • Das Referenzobjekt ist vorteilhafterweise eine am Boden verlaufende, senkrecht stehende oder flach liegende Leiste. So ist eine gute Detektion und einfache Montage des Referenzobjekts gewährleistet.
  • Vorzugsweise erfolgt der Vergleich der Bilddaten mit den Referenzdaten innerhalb des Suchfensters durch eindimensionale Konturverfolgung. Dadurch wird der Rechenaufwand der Auswertung zusätzlich verringert.
  • Vorteilhafterweise wird eine zusätzliche Differenzbildanalyse zeitlich nacheinander aufgenommener Bilder durchführt. Die Ergebnisse der Differenzbildanalyse werden bevorzugt zur Bewegungsüberwachung des Bildbereichs und/oder zur Überwachung der Funktion der Auswertungs-Einrichtung und/oder der Bildaufnahme-Einrichtung genutzt. Dies erhöht zusätzlich die Zuverlässigkeit der Detektion und die Sicherheit des Systems durch die Erkennung von Systemausfällen.
  • Vorzugsweise wird das System zur Erkennung von Personen und/oder Objekten in dem Verfahrbereich einer verfahrbaren Anlage eingesetzt. Vorzugsweise wird das System zur Erkennung von Personen und/oder Objekten in einem Gang eines Fahrregalsystems eingesetzt. Bevorzugt verfügt jedes Fahrregal in dem Fahrregalsystem über zumindest eine Kamera. Der Einsatz in einem Fahrregalsystem ermöglicht den Verzicht auf Schaltleisten und erhöht zusätzlich den Komfort der Nutzer.
  • Nachfolgend wird die Erfindung anhand der Zeichnung, in der ein vorteilhaftes Ausführungsbeispiel der Erfindung dargestellt ist, beispielhaft beschrieben. In der Zeichnung zeigen:
  • 1 ein Ausführungsbeispiel der erfindungsgemäßen Vorrichtung in einem Fahrregalsystem;
  • 2 ein Blockschaltbild der erfindungsgemäßen Vorrichtung;
  • 3 ein erstes beispielhaftes Bild mit Verdeckung eines Referenzobjekts;
  • 4 ein zweites beispielhafte Bild mit Verdeckung eines Referenzobjekts;
  • 5 das zweite beispielhafte Bild mit Verdeckung eines Referenzobjekts mit Darstellung von Abtastlinien;
  • 6 das zweite beispielhafte Bild mit Verdeckung eines Referenzobjekts mit Darstellung der räumlichen Position des Referenzobjekts;
  • 7 die Ermittlung der räumlichen Position des Referenzobjekts in einem Ausführungsbeispiel des erfindungsgemäßen Verfahrens, und
  • 8 das zweite beispielhafte Bild mit Verdeckung eines Referenzobjekts mit Darstellung eines Suchfensters zur Ermittlung der Verdeckung.
  • Zunächst wird anhand der 12 der Aufbau der erfindungsgemäßen Vorrichtung in einem Ausführungsbeispiel erläutert. Mittels 38 wird die Funktionsweise des erfindungsgemäßen Verfahrens anhand von Ausführungsbeispielen veranschaulicht. Identische Elemente wurden in ähnlichen Abbildungen zum Teil nicht wiederholt dargestellt und beschrieben.
  • 1 zeigt ein Ausführungsbeispiel der erfindungsgemäßen Vorrichtung in einem Fahrregalsystem. Ein Fahrregalsystem besteht aus verfahrbaren Regalelementen 63. Die Regalelemente 63 sind auf einem Schienensystem 60 verfahrbar. Der Raum 65 zwischen den Regalelementen 63 soll überwacht werden. Die Anwesenheit von Personen und/oder Objekten innerhalb des Bereichs 65 soll detektiert werden. Das Regalelement 63 ist in seinem Fußbereich mit einer farblich markierten Leiste 64, einem Referenzobjekt versehen. Das Bedienfeld 62, welches der Steuerung des Verfahrens der Regalelemente 63 dient, ist mit Kameras 61 versehen. Alternativ zu den Kameras 61 sind an den Fußbereichen der Regalelemente 63 die Kameras 66 montiert. Die Kameras 61 bzw. 66 nehmen den Bereich 65 zwischen den Regalelementen 63 auf. Die Kameras 61 bzw. 66 überblicken den gesamten Bereich 65 mit der Leiste 64 und befinden sich zur Bezugsebene 67 in bekannter Position und Orientierung. Die Bezugsebene 67 und Leiste 64 befinden sich ebenfalls in fester Orientierung zueinander. Es wird somit anhand der Koordinatentransformation die Lage der Leiste 64 im Raum mit dessen Lage im Bild in Beziehung gebracht.
  • In 2 wird ein Blockschaltbild der erfindungsgemäßen Vorrichtung dargestellt. Eine Bildaufnahme-Einrichtung 70, die den Kameras 61 bzw. 66 aus 1 entspricht, ist mit einer Auswertungs-Einrichtung 71 verbunden. Die Auswertungs-Einrichtung 71 ist mit einer Kommunikations-Einrichtung 73 verbunden. Die Bildaufnahme-Einrichtung 70 nimmt die Bilder digital auf, und übermittelt sie an die Auswertungs-Einrichtung 71. Die Auswertungs-Einrichtung 71 wertet die Bilder aus, und ermittelt dabei, ob sich eine Person und/oder ein Objekt in dem zu überwachenden Bereich befindet. Die Kommunikations-Einrichtung 73 übergibt die Ergebnisse der Auswertung anderen Systemen und steht in monodirektionaler oder bidirektionaler Kommunikation mit diesen Systemen.
  • 3 zeigt ein erstes beispielhaftes Bild mit Verdeckung eines Referenzobjekts 11. Das Referenzobjekt 11 ist hier als in Höhe der Bezugsebene 4 an einem Objekt 10 montierte, stehende Leiste mit einem schwarz-weiß-schwarz-Farbübergang ausgeführt. Das Referenzobjekt 11 wird von einer Kugel 1 verdeckt.
  • In 4 wird ein zweites beispielhaftes Bild mit Verdeckung eines Referenzobjekts 3 dargestellt. Das Referenzobjekt 3 ist hier als in Höhe der Bezugsebene 4 an einem Objekt 2 montierte, stehende Leiste mit einem Farbübergang schwarz-weiß-schwarz ausgeführt. Das Referenzobjekt 3 wird von einer Kugel 1 verdeckt. Im Gegensatz zu 3 ist das Referenzobjekt 3 hier räumlich unterschiedlich angeordnet. Da die Position des Referenzobjekts 3 zur Detektion von Personen und/oder Objekten im zu überwachenden Bereich nicht fest vorgegeben ist, muss zunächst, wie anhand der weiteren Figuren dargestellt, die Position des Referenzobjekts 3 ermittelt werden.
  • 5 zeigt das zweite beispielhafte Bild mit Verdeckung eines Referenzobjekts 3 mit Darstellung von Abtastlinien 20. Das Bild wird entlang von Abtastlinien 20 auf das charakteristische Oberflächenmuster der Referenzobjekts 3, den Farbwechsel schwarz-weiß-schwarz abgesucht. Die Abtastlinien 20 verlaufen in diesem Ausführungsbeispiel parallel zueinander und ihre Dichte erhöht sich kontinuierlich von links nach rechts, was einem steigenden Abstand des Referenzobjekts 3 von der Kamera entspricht. Ergebnis dieses Schritts sind Abschnitte der Abtastlinien 20, auf welchen das charakteristische Oberflächenmuster vorliegt. Dies sind zum einen die tatsächlichen Abschnitte, in welchen die Abtastlinien 20 von dem Referenzobjekt 3 überschritten werden, andererseits jedoch auch fehlerhaft ermittelte Abschnitte, welche auf ein zufälliges Vorkommen des charakteristischen Oberflächenmusters im Bild zurückzuführen sind. Diese werden jedoch zu einem späteren Zeitpunkt bei der Ermittlung der räumlichen Position des Referenzobjekts 3, wie in 7 dargestellt, verworfen.
  • In 6 wird das zweite beispielhafte Bild mit Verdeckung eines Referenzobjekts 3 mit Darstellung der räumlichen Position des Referenzobjekts 3 dargestellt. Aus der bekannten Geometrie des Referenzobjekts 3 und Kenntnissen bezüglich möglicher Positionen und Orientierungen des Referenzobjekts 3 im Raum wird mit Hilfe der Koordinatentransformation der Abstand 30 der Referenzlinie 31, die parallel zu dem Referenzobjekt 3 verläuft, zum Referenzobjekt 3 mit den im vorhergehenden Schritt ermittelten Abschnitte der Abtastlinien 20, in welchen das charakteristische Oberflächenmuster detektiert wurden, ermittelt. Dies wird mit sämtlichen ermittelten Abschnitten der Abtastlinien 20 durchgeführt.
  • 7 zeigt die Ermittlung der räumlichen Position des Referenzobjekts 3 in einem Ausführungsbeispiel des erfindungsgemäßen Verfahrens. Die im vorangegangenen Schritt ermittelten Abstände 30, die in 7 als Abstände 41, 42 dargestellt werden, werden nun quantisiert. Dabei ist die Quantisierungsintervall-Länge 47 konstant. Die ermittelten Abstände 41, 42 werden mittels zweier unterschiedlicher, gegeneinander verschobener Quantisierungsraster 48, 49 quantisiert. Dies vermeidet, dass auf Grund von Systemungenauigkeiten schwankende Werte der ermittelten Abstände 41, 42 an einer Quantisierungsgrenze durch diese getrennt werden. Die Enden 40, 43 des Quantisierungsrasters 48, 49 entsprechen dabei den maximal möglichen Endpositionen des Referenzobjekts 3. Die ermittelten Abstände 41, 42 sind zu einem großen Teil in einem Quantisierungsintervall 45 in dem Quantisierungsraster 49 konzentriert. So sind sieben von zehn Abstände 41, 42 in dem Quantisierungsintervall 45 des Quantisierungsrasters 49 konzentriert. In dem verschobenen Quantisierungsraster 48 verteilen sich die Abstände 41, 42 zu einem großen Teil auf zwei Quantisierungsintervalle 50 und 51. So sind vier von zerhn Abstände im Quantisierungsintervall 50 und fünf von zehn Abstände im Quantisierungsintervall 51 konzentriert. Als zutreffender Abstandswert wird der dem Quantisierungsintervall mit höchster Anzahl gefundener Abstände entsprechende Wert ausgewählt. Dies entspricht dem Wert des Quantisierungsintervalls 45. Die übrigen Abstände 41 werden als fehlerhaft detektiert ausgesondert. Falls mehr als ein Quantisierungsintervall mit der gleichen Anzahl von gefundenen Abständen vorliegt, werden die angrenzenden Quantisierungsintervalle zur Bestimmung des zutreffenden Abstandswerts herangezogen. Zur zusätzlichen Überprüfung der korrekten Auswahl der Abstandswerte wird die Krümmung der Verbindungslinie der Abstandswerte ermittelt und mit der aus der bekannten Geometrie des Referenzobjekts 3 ermittelten Soll-Krümmung verglichen. Bei mangelnder Übereinstimmung können zusätzliche Abstände als fehlerhaft detektiert ausgesondert werden. Ergebnis dieses Schritts ist die Kenntnis der genauen räumlichen Position und Orientierung des Referenzobjekts 3.
  • In 8 wird das zweite beispielhafte Bild mit Verdeckung eines Referenzobjekts 3 mit Darstellung eines Suchfensters 55 zur Ermittlung der Verdeckung dargestellt. Nachdem aus dem vorhergehenden Schritt die genaue räumliche Position und Orientierung des Referenzobjekts 3 bekannt ist, wird mit Hilfe der Koordinatentransformation die Position und Verlauf des Oberflächenmusters im Bild bestimmt. Um diesen Bildbereich wird ein Suchfenster 55 gelegt. Innerhalb des Suchfensters 55 wird nun nach charakteristischen Merkmalen des Oberflächenmusters gesucht. Dies geschieht durch Vergleich bestimmter markanter Bilddaten innerhalb des Suchfensters 55 mit Referenzdaten, welche durch das bekannte Oberflächenmuster des Referenzobjekts 3, seine Position und seine Orientierung gegeben sind. Eine Option ist der Vergleich des Konturverlaufs. Hier wird durch die eindimensionale Bildverarbeitung erheblich an Rechenaufwand gespart. An Positionen, an welchen die Referenzdaten keine Entsprechung im Bild finden, wird von einer Verdeckung ausgegangen. An der Art, Größe und Häufigkeit der ermittelten Verdeckungen des Referenzobjekts 3 wird zuletzt die Anwesenheit einer Person und/oder eines Objekts innerhalb des zu überwachenden Bereichs 65 ermittelt.
  • Die Erfindung ist nicht auf das dargestellte Ausführungsbeispiel beschränkt. Wie bereits erwähnt, sind unterschiedliche Positionen der Bildaufnahme-Einrichtung möglich. Weiterhin ist der Einsatz zur Überwachung verschiedenster Einrichtungen, wie zum Beispiel Bahnsteigkanten, automatisch betriebener Türen, etc. denkbar. Alle vorstehend beschriebenen Merkmale oder in den Figuren gezeigten Merkmale sind im Rahmen der Erfindung beliebig miteinander kombinierbar.
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • - DE 3634628 C2 [0003]

Claims (28)

  1. Verfahren zur Detektion von Personen und/oder Objekten in einem zu überwachenden Bereich, wobei die Personen und/oder Objekte durch Verdeckung eines hinsichtlich seines Oberflächenmusters und seiner Geometrie bekannten Referenzobjekts (3, 11) in einem Bild detektiert werden, und wobei die folgenden Schritte durchgeführt werden: – Detektion von, das Referenzobjekt (3, 11) überschneidenden Abschnitten von mehreren in dem Bild verlaufenden Abtastlinien (20) durch Detektion des Oberflächenmusters des Referenzobjekts (3, 11) auf den Abtastlinien (20); – Ermittlung der räumlichen Position des Referenzobjekts (3, 11) aus den detektierten Positionen der das Referenzobjekt (3, 11) überschneidenden Abschnitte der Abtastlinien (20) und der bekannten Geometrie des Referenzobjekts (3, 11); – Suche einer Verdeckung des Referenzobjekts (3, 11) innerhalb eines der Geometrie des Referenzobjekts (3, 11) angepassten Suchfensters (55) durch Vergleich der Bilddaten und/oder Bildmerkmale des Bildes innerhalb des Suchfensters (55) mit Referenzdaten und/oder Referenzmerkmalen.
  2. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass das Bild mittels zumindest einer Kamera (61, 66) digital aufgenommen wird.
  3. Verfahren nach Anspruch 1 oder 2, dadurch gekennzeichnet, dass das Bild vor der Weiterverarbeitung entzerrt und/oder gefiltert wird.
  4. Verfahren nach einem der Ansprüche 1 bis 3, dadurch gekennzeichnet, dass das bekannte Oberflächenmuster ein definierter Wechsel von Farbstreifen mit definierter Helligkeit, Sättigung, und Farbe ist.
  5. Verfahren nach einem der Ansprüche 1 bis 4, dadurch gekennzeichnet, dass die Abtastlinien (20) parallel zueinander verlaufen.
  6. Verfahren nach einem der Ansprüche 1 bis 5, dadurch gekennzeichnet, dass das Referenzobjekt (3, 11) eine am Boden verlaufende, senkrecht stehende Leiste ist.
  7. Verfahren nach einem der Ansprüche 1 bis 5, dadurch gekennzeichnet, dass das Referenzobjekt (3, 11) eine am Boden verlaufende, flach liegende Leiste ist.
  8. Verfahren nach einem der Ansprüche 1 bis 7, dadurch gekennzeichnet, dass eine zusätzliche Differenzbildanalyse zeitlich nacheinander aufgenommener Bilder durchgeführt wird.
  9. Verfahren nach Anspruch 8, dadurch gekennzeichnet, dass die Ergebnisse der Differenzbildanalyse zur Bewegungsüberwachung des Bildbereichs genutzt werden.
  10. Verfahren nach einem der Ansprüche 1 bis 9, dadurch gekennzeichnet, dass die Referenzdaten der räumlichen Lage des Referenzobjekts (3, 11) angepasste Bilddaten des Referenzobjekts (3, 11) sind.
  11. Verfahren nach einem der Ansprüche 1 bis 10, dadurch gekennzeichnet, dass der Vergleich der Bilddaten mit den Referenzdaten innerhalb des Suchfensters (55) durch eindimensionale Konturverfolgung erfolgt.
  12. Verfahren nach einem der Ansprüche 1 bis 11, dadurch gekennzeichnet, dass Personen und/oder Objekte in dem Verfahrbereich einer verfahrbaren Anlage detektiert werden.
  13. Verfahren nach einem der Ansprüche 1 bis 12, dadurch gekennzeichnet, dass Personen und/oder Objekte in einem Gang (65) eines Fahrregalsystems detektiert werden.
  14. Vorrichtung zur Detektion von Personen und/oder Objekten in einem zu überwachenden Bereich mit einer Bildaufnahme-Einrichtung (70) und einer Auswertungs-Einrichtung (71), wobei die Personen und/oder Objekte durch Verdeckung eines hinsichtlich seines Oberflächenmusters und seiner Geometrie bekannten Referenzobjekts (3, 11) in einem Bild detektiert werden, wobei die Bildaufnahme-Einrichtung (70) das Bild aufnimmt, wobei die Auswertungs-Einrichtung (71) das Referenzobjekt (3, 11) überschneidende Abschnitte von mehreren, in dem Bild verlaufenden Abtastlinien (20) durch Detektion des Oberflächenmusters des Referenzobjekts (3, 11) auf den Abtastlinien (20) erfasst, wobei die Auswertungs-Einrichtung (71) die räumliche Position des Referenzobjekts (3, 11) aus den detektierten Positionen der das Referenzobjekt (3, 11) überschneidenden Abschnitte der Abtastlinien (20) und der bekannten Geometrie des Referenzobjekts (3, 11) ermittelt, und wobei die Auswertungs-Einrichtung (71) eine Verdeckung des Referenzobjekts (3, 11) innerhalb eines der Geometrie des Referenzobjekts (3, 11) angepassten Suchfensters (55) durch Vergleich der Bilddaten und/oder Bildmerkmale innerhalb des Suchfensters (55) mit Referenzdaten und/oder Referenzmerkmalen sucht.
  15. Vorrichtung nach Anspruch 14, dadurch gekennzeichnet, dass die Bildaufnahme-Einrichtung (70) eine digital aufnehmende Kamera (61, 66) ist.
  16. Vorrichtung nach Anspruch 14 oder 15, dadurch gekennzeichnet, dass die Auswertungs-Einrichtung (71) das Bild vor der Weiterverarbeitung entzerrt und/oder filtert.
  17. Vorrichtung nach einem der Ansprüche 14 bis 16, dadurch gekennzeichnet, dass das bekannte Oberflächenmuster ein definierter Wechsel von Farbstreifen mit definierter Helligkeit, Sättigung, und Farbe ist.
  18. Vorrichtung nach einem der Ansprüche 14 bis 17, dadurch gekennzeichnet, dass die Abtastlinien (20) parallel zueinander verlaufen.
  19. Vorrichtung nach einem der Ansprüche 14 bis 18, dadurch gekennzeichnet, das Referenzobjekt (3, 11) eine am Boden verlaufende, senkrecht stehende Leiste ist.
  20. Vorrichtung nach einem der Ansprüche 14 bis 19, dadurch gekennzeichnet, das Referenzobjekt (3, 11) eine am Boden verlaufende, flach liegende Leiste ist.
  21. Vorrichtung nach einem der Ansprüche 14 bis 20, dadurch gekennzeichnet, dass die Auswertungs-Einrichtung (71) eine zusätzliche Differenzbildanalyse zeitlich nacheinander aufgenommener Bilder durchführt.
  22. Vorrichtung nach Anspruch 21, dadurch gekennzeichnet, dass die Auswertungs-Einrichtung (71) die Ergebnisse der Differenzbildanalyse zur Bewegungsüberwachung des Bildbereichs nutzt.
  23. Vorrichtung nach Anspruch 21, dadurch gekennzeichnet, dass die Auswertungs-Einrichtung (71) die Ergebnisse der Differenzbildanalyse zur Überwachung der Funktion der Auswertungs-Einrichtung (71) und/oder der Bildaufnahme-Einrichtung (70) nutzt.
  24. Vorrichtung nach einem der Ansprüche 14 bis 23, dadurch gekennzeichnet, dass die Referenzdaten der räumlichen Lage des Referenzobjekts (3, 11) angepasste Bilddaten des Referenzobjekts (3, 11) sind.
  25. Verfahren nach einem der Ansprüche 14 bis 24, dadurch gekennzeichnet, dass der Vergleich der Bilddaten mit den Referenzdaten innerhalb des Suchfensters (55) durch eindimensionale Konturverfolgung erfolgt.
  26. Vorrichtung nach einem der Ansprüche 14 bis 25, dadurch gekennzeichnet, dass Personen und/oder Objekte in dem Verfahrbereich einer verfahrbaren Anlage detektiert werden.
  27. Vorrichtung nach einem der Ansprüche 14 bis 26, dadurch gekennzeichnet, dass Personen und/oder Objekte in einem Gang (65) eines Fahrregalsystems detektiert werden.
  28. Vorrichtung nach Anspruch 27, dadurch gekennzeichnet, dass jedes Fahrregal (63) in dem Fahrregalsystem über zumindest eine Kamera (61) verfügt.
DE102007033133A 2007-07-16 2007-07-16 Verfahren und Vorrichtung zur Detektion von Objekten Withdrawn DE102007033133A1 (de)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE102007033133A DE102007033133A1 (de) 2007-07-16 2007-07-16 Verfahren und Vorrichtung zur Detektion von Objekten

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102007033133A DE102007033133A1 (de) 2007-07-16 2007-07-16 Verfahren und Vorrichtung zur Detektion von Objekten

Publications (1)

Publication Number Publication Date
DE102007033133A1 true DE102007033133A1 (de) 2009-01-29

Family

ID=40157027

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102007033133A Withdrawn DE102007033133A1 (de) 2007-07-16 2007-07-16 Verfahren und Vorrichtung zur Detektion von Objekten

Country Status (1)

Country Link
DE (1) DE102007033133A1 (de)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102011100254A1 (de) * 2010-05-05 2011-11-10 Deutsche Industrie Video System Gmbh Bestimmen der momentanen Belegung einer Halle mit Gütern
DE102021108231A1 (de) 2020-04-23 2021-10-28 Pke Holding Ag Computerimplementiertes Verfahren zur Bestimmung einer Flächenbelegung einer Lagerfläche

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE3634628C2 (de) 1985-10-11 1988-05-19 Matsushita Electric Works, Ltd., Kadoma, Osaka, Jp
DE19607258A1 (de) * 1996-02-27 1997-08-28 Olaf Haehnel Verfahren und Vorrichtung zur Detektion und/oder zur Größen- und/oder Lagebestimmung eines Objekts
DE19644278A1 (de) * 1996-10-24 1998-05-07 Ines Elektronik Systementwickl Optische Schranke sowie daraus aufgebaute Überwachungseinrichtung
DE19938639A1 (de) * 1999-08-14 2001-02-22 Pilz Gmbh & Co Vorrichtung zur Absicherung eines Gefahrenbereichs, insbesondere des Gefahrenbereichs einer automatisiert arbeitenden Maschine
DE10026710A1 (de) * 2000-05-30 2001-12-06 Sick Ag Optoelektronische Schutzeinrichtung
WO2002041272A2 (en) * 2000-11-17 2002-05-23 Honeywell International Inc. Object detection
DE10060051A1 (de) * 2000-12-01 2002-06-13 Safety Control Gmbh Verfahren zum Überwachen eines Raumbereichs sowie optische Schranke
DE10251584A1 (de) * 2002-11-06 2004-05-27 Leuze Lumiflex Gmbh + Co. Kg Verfahren und Vorrichtung zur Überwachung eines Erfassungsbereiches
DE202006013375U1 (de) * 2006-08-31 2006-11-02 Sick Ag Ziel für eine optoelektronische Schutzeinrichtung

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE3634628C2 (de) 1985-10-11 1988-05-19 Matsushita Electric Works, Ltd., Kadoma, Osaka, Jp
DE19607258A1 (de) * 1996-02-27 1997-08-28 Olaf Haehnel Verfahren und Vorrichtung zur Detektion und/oder zur Größen- und/oder Lagebestimmung eines Objekts
DE19644278A1 (de) * 1996-10-24 1998-05-07 Ines Elektronik Systementwickl Optische Schranke sowie daraus aufgebaute Überwachungseinrichtung
DE19938639A1 (de) * 1999-08-14 2001-02-22 Pilz Gmbh & Co Vorrichtung zur Absicherung eines Gefahrenbereichs, insbesondere des Gefahrenbereichs einer automatisiert arbeitenden Maschine
DE10026710A1 (de) * 2000-05-30 2001-12-06 Sick Ag Optoelektronische Schutzeinrichtung
WO2002041272A2 (en) * 2000-11-17 2002-05-23 Honeywell International Inc. Object detection
DE10060051A1 (de) * 2000-12-01 2002-06-13 Safety Control Gmbh Verfahren zum Überwachen eines Raumbereichs sowie optische Schranke
DE10251584A1 (de) * 2002-11-06 2004-05-27 Leuze Lumiflex Gmbh + Co. Kg Verfahren und Vorrichtung zur Überwachung eines Erfassungsbereiches
DE202006013375U1 (de) * 2006-08-31 2006-11-02 Sick Ag Ziel für eine optoelektronische Schutzeinrichtung

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102011100254A1 (de) * 2010-05-05 2011-11-10 Deutsche Industrie Video System Gmbh Bestimmen der momentanen Belegung einer Halle mit Gütern
DE102021108231A1 (de) 2020-04-23 2021-10-28 Pke Holding Ag Computerimplementiertes Verfahren zur Bestimmung einer Flächenbelegung einer Lagerfläche

Similar Documents

Publication Publication Date Title
EP1531342B1 (de) Verfahren zur Erkennung von Fussgängern
DE60034555T2 (de) System zur objekterkennung und -verfolgung
EP2095008B1 (de) Verfahren und vorrichtung zum überwachen eines dreidimensionalen raumbereichs
DE60006411T2 (de) Zählvorrichtung
WO1998040855A1 (de) Einrichtung zur videoüberwachung einer fläche
DE102017218917A1 (de) Überwachungsvorrichtung, Industrieanlage, Verfahren zur Überwachung sowie Computerprogramm
WO2018095640A1 (de) Verfahren und system zum detektieren eines sich innerhalb eines parkplatzes befindenden erhabenen objekts
EP3576013A1 (de) Abschätzen eines verlaufs eines schienenpfads
DE10042935A1 (de) Verfahren zum Überwachen eines vorbestimmten Bereichs und entsprechendes System
DE102007033133A1 (de) Verfahren und Vorrichtung zur Detektion von Objekten
DE10049366A1 (de) Verfahren zum Überwachen eines Sicherheitsbereichs und entsprechendes System
DE102016223094A1 (de) Verfahren und System zum Detektieren eines sich innerhalb eines Parkplatzes befindenden erhabenen Objekts
DE102017006616A1 (de) System zur Lageerfassung und Verfahren zur Lageerfassung
DE102012205000B3 (de) Verfahren und Vorrichtung zur Zählung von Objekten
EP3728995A1 (de) Verfahren zum bestimmen von entfernungsinformation aus einer abbildung eines raumbereichs
DE102017222675A1 (de) Personenerkennung mittels einer Kamera
DE10128722C1 (de) Vorrichtung zur Kontrolle von Objekten
DE102011011931A1 (de) Verfahren zum Auswerten einer Mehrzahl zeitlich versetzter Bilder, Vorrichtung zur Auswertung von Bildern, Überwachungssystem
DE102018213515A1 (de) Verfahren und Vorrichtung zum Erfassen einer Grenze in einem Umfeld eines Objekts
DE202018103012U1 (de) Vorrichtung zur Absicherung eines Gefahrenbereichs einer Anlage
EP3142068B1 (de) Verfahren zur dreidimensionalen erfassung von objekten
EP3625160B1 (de) System und verfahren zur bestimmung der position einer aufzugkabine einer aufzuganlage
EP3214602A1 (de) Verfahren zur dreidimensionalen erfassung von objekten
DE102014111948A1 (de) Verfahren zum Bestimmen von charakteristischen Bildpunkten, Fahrerassistenzsystem und Kraftfahrzeug
DE102010006522A1 (de) Verfahren zur Analyse von korrespondierenden Bildpunkten in Bilddatensätzen

Legal Events

Date Code Title Description
OM8 Search report available as to paragraph 43 lit. 1 sentence 1 patent law
OP8 Request for examination as to paragraph 44 patent law
8139 Disposal/non-payment of the annual fee
R119 Application deemed withdrawn, or ip right lapsed, due to non-payment of renewal fee

Effective date: 20110201