DE112010003000B4 - Sichtsystem zum Überwachen von Menschen in dynamischen Umgebungen - Google Patents

Sichtsystem zum Überwachen von Menschen in dynamischen Umgebungen Download PDF

Info

Publication number
DE112010003000B4
DE112010003000B4 DE112010003000.6T DE112010003000T DE112010003000B4 DE 112010003000 B4 DE112010003000 B4 DE 112010003000B4 DE 112010003000 T DE112010003000 T DE 112010003000T DE 112010003000 B4 DE112010003000 B4 DE 112010003000B4
Authority
DE
Germany
Prior art keywords
work area
human
automated
mobile device
visual
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
DE112010003000.6T
Other languages
English (en)
Other versions
DE112010003000T5 (de
Inventor
Yuri Owechko
Swarup Medasani
James W. Wells
Ronald J. Menassa
Charles W. Wampler II
Kim Kyungnam
Yang Chen
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
GM Global Technology Operations LLC
Original Assignee
GM Global Technology Operations LLC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by GM Global Technology Operations LLC filed Critical GM Global Technology Operations LLC
Publication of DE112010003000T5 publication Critical patent/DE112010003000T5/de
Application granted granted Critical
Publication of DE112010003000B4 publication Critical patent/DE112010003000B4/de
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/181Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a plurality of remote sources

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Image Analysis (AREA)
  • Alarm Systems (AREA)
  • Image Processing (AREA)

Abstract

Sicherheitsüberwachungssystem für einen Arbeitsbereich, wobei sich der Arbeitsbereich auf einen Bereich mit einer automatisierten beweglichen Einrichtung bezieht, wobei das System umfasst:mehrere Abbildungsvorrichtungen auf Sichtbasis, die zeitlich zusammenfallende Bilddaten des Arbeitsbereichs erfassen, wobei jede Abbildungsvorrichtung auf Sichtbasis wiederholt jeweilige zeitlich zusammenfallende Bilddaten des Arbeitsbereichs von einem jeweiligen Blickpunkt erfasst, der von den anderen jeweiligen Abbildungsvorrichtungen auf Sichtbasis im Wesentlichen verschieden ist;mindestens ein im Arbeitsbereich angeordnetes Blinklicht, das von mindestens einer der mehreren Abbildungsvorrichtungen erfasst wird und das Blinksignale mit einer vorgegebenen Rate erzeugt; undeine Einheit zur visuellen Verarbeitung zum Analysieren der zeitlich zusammenfallenden Bilddaten, die durch die mehreren Abbildungsvorrichtungen auf Sichtbasis erzeugt werden;wobei die Einheit zur visuellen Verarbeitung die erfassten zeitlich zusammenfallenden Bilddaten zum Identifizieren eines Menschen gegenüber einem nicht menschlichen Objekt innerhalb des Arbeitsbereichs durch Zählen von einem oder mehreren Mustern in allen der zeitlich zusammenfallenden Bilddaten verarbeitet, wobei die Einheit zur visuellen Verarbeitung ferner potentielle Wechselwirkungen zwischen einem Menschen und der automatisierten beweglichen Einrichtung bestimmt, wobei die Einheit zur visuellen Verarbeitung ferner Steuersignale zum Ermöglichen einer dynamischen Umkonfiguration der automatisierten beweglichen Einrichtung auf der Basis der potentiellen Wechselwirkungen zwischen dem Menschen und der automatisierten beweglichen Einrichtung im Arbeitsbereich erzeugt, wobei die Einheit zur visuellen Verarbeitung die von dem mindestens einen Blinklicht erzeugten Blinksignale in den erfassten zeitlich zusammenfallenden Bilddaten detektiert und prüft, ob die Blinksignale in den Bilddaten mit der vorgegebenen Rate detektiert werden, um festzustellen, ob sich die Bilddaten aktualisieren.

Description

  • HINTERGRUND DER ERFINDUNG
  • Die Erfindung bezieht sich auf ein Sicherheitsüberwachungssystem für einen Arbeitsbereich und ein Verfahren zum Identifizieren einer potentiellen Wechselwirkung zwischen einem Menschen und einer automatisierten beweglichen Einrichtung in einem Arbeitsbereich.
  • Fertigungs- und Montagevorgänge setzen die Verwendung von Sicherheitsvorrichtungen ein, um einen Schaden an einem Arbeiter zu verhindern, der in der Nähe der Einrichtung arbeitet. Mehrere Sensoren und andere Vorrichtungen sind im ganzen Fertigungs- oder Montageprozess zum Erfassen der Nähe des Arbeiters zur Einrichtung angeordnet. In Ansprechen darauf, dass sich der Arbeiter innerhalb eines vorbestimmten Abstandes von der Einrichtung befindet, wird die Einrichtung abgeschaltet oder es wird verhindert, dass sie eine Tätigkeit ausführt, da sich der Arbeiter innerhalb einer Warnzone der Einrichtung befindet. Die Warnzone ist ein vordefinierter Bereich oder ein vordefiniertes Gebiet, in dem Sicherheitsinteressen auf der Basis der Nähe des Arbeiters zur Einrichtung berücksichtigt werden, in der eine potentielle Verletzung eines Arbeiters auftreten könnte.
  • Das Folgende sind Beispiele von Sicherheitsvorrichtungen, die verwendet werden, um die Arbeiternähe zur Einrichtung zu detektieren. Bodenmatten werden verwendet, um zu erfassen, ob ein jeweiliger Arbeiter auf oder abseits von der Bodenmatte steht. Die Bodenmatte wird in einem vorbestimmten Abstand von der Einrichtung angeordnet, so dass, wenn der Arbeiter auf der Bodenmatte steht, dann der Arbeiter als in einem annehmbaren Abstand von der Einrichtung betrachtet wird, damit die Montage- oder Fertigungsvorgänge fortfahren. Eine weitere Sicherheitserfassungsvorrichtung umfasst einen Lichtvorhangsensor. Der Lichtvorhang besteht aus einer Emitteranordnung, die zum Emittieren eines Signals vorgesehen ist, und einer Empfängeranordnung zum Empfangen des emittierten Signals. Wenn ein Objekt zwischen dem Paar von Sensoren detektiert wird, dann wird die Einrichtung sofort gestoppt und fährt nicht mit einem nächsten Vorgang fort, da die Sensoren angeben, dass sich der Arbeiter zu nahe in einer Umgebung der automatisierten beweglichen Einrichtung befindet.
  • Andere Sicherheitssysteme sind bekannt, die ein Erfassungssystem auf Sichtbasis verwenden. Erfassungssysteme auf Sichtbasis verwenden eine Kamera, die einen vordefinierten Bereich betrachtet, der die Einrichtung umgibt. Wenn der Arbeiter in den vordefinierten Bereich eintritt, dann wird das Eindringen detektiert und die Maschine schaltet ab. Das Abschalten der Einrichtung ist jedoch kostspielig, da es den Ablauf und den Ertrag des Montage-/Fertigungsprozesses unterbricht. Sobald der Montage-/Fertigungsprozess unterbrochen ist, müssen die Maschinerie und die Steuerungen typischerweise zurückgesetzt werden, um den Prozess wieder zu starten. Überdies erfassen aktuelle Sicherheitssysteme wie z. B. aktuelle Systeme auf Sichtbasis nur die Anwesenheit eines Objekts, das in den Warnzonenbereich eintritt, und unterscheiden nicht zwischen einem Menschen und einem nicht menschlichen Objekt. Daher erzwingen diese Systeme Ausschlusszonen, in denen beliebige Objekte, einschließlich nicht menschlicher Objekte, die sich innerhalb des festgelegten Bereichs bewegen, dem Stoppen des Montage-/Fertigungsprozesses unterliegen. Folglich würde die Verwendung dieser herkömmlichen Systeme in einer Prozesseinrichtung, die Leute und Automatisierung ohne strenge Bewachung signifikant mischt, zu übermäßigen Fehlalarmen und Störauslösern führen, die hinsichtlich Produktivität, Zeit und Geld kostspielig sind.
  • Aus der Druckschrift „Multi-camera People Tracking by Collaborative Particle Filters and Principal Axis-Based Integration" von Wei Du und Justus Piater in Computer Vision-ACCV 2007, Springer Berlin Heidelberg, 2007, Seiten 365 bis 374 ist bekannt, Menschen mittels Bilddaten mehrerer zeitsynchronisierter Abbildungsvorrichtungen auf Sichtbasis zu identifizieren.
  • ZUSAMMENFASSUNG DER ERFINDUNG
  • Ein Vorteil einer Ausführungsform der Erfindung schafft eine kognitive Überwachung von Menschen in einer Fertigungs- und Montageumgebung zum Verbessern der Sicherheit von Arbeitern und der Produktionseffizienz. Das System verwendet eine automatisierte visuelle Überwachung einer Mensch-Maschine-Wechselwirkung, die nicht von physikalischen Zäunen und Schutzvorrichtungen abhängt. Das System ermöglicht eine natürliche und interaktive Wechselwirkung um die sich bewegende Einrichtung ohne Verwendung einer persönlichen Schutzausrüstung. Die effektive Überwachung von Leuten und einer Automatisierungseinrich-tung verbessert Werksprozesse durch Ermöglichen von virtuellen umkonfigurierbaren dreidimensionalen Zäunen um die automatisierte Einrichtung, die in Abhängigkeit von einem vorhergesagten Bewegungsweg innerhalb des überwachten Bereichs Warnungen auslösen, die automatisierte Einrichtung verlangsamen, beschleunigen oder abschalten können. Diese „virtuelle Schutz“-Fähigkeit kann Fertigungsprozess-Konfigurations-/Umwandlungszeiten verringern und die Menge an ungenutztem Raum um die automatisierte Einrichtung verringern. Obwohl nicht explizit im Einzelnen beschrieben, ist diese Fähigkeit in Nicht-Fertigungs-Sektoren genauso nützlich, in denen Leute und andere Typen von Systemen zusammenwirken, wobei eine automatisierte Überwachung der Zusammenwirkung erwünscht ist. Einige Beispiele wären eine menschliche Zusammenwirkung mit Transportsystemen und Fahrbetriebsbeladung, die Zusammenwirkung mit automatisierten Materialhandhabungssystemen und Durchführung des Ablaufs und des Orts von Leuten für Einzelhandel, Touren, Zugangsbeschränkung oder aus Sicherheitsgründen.
  • Eine Ausführungsform zieht ein Sicherheitsüberwachungssystem für einen Arbeitsbereich oder eine Anzahl von vorgeschriebenen Bereichen unter Verwendung einer Anzahl von miteinander verbundenen Überwachungssystemen in Betracht, die als einziges Ganzes oder in Zusammenarbeit miteinander arbeiten. Der Arbeitsbereich ist einem Gebiet mit einer automatisierten beweglichen Einrichtung zugeordnet. Mehrere Abbildungsvorrichtungen auf Sichtbasis erfassen zeitlich zusammenfallende und somit zeitsynchronisierte Bilddaten des Arbeitsbereichs. Es wird in Erwägung gezogen, dass der Sensor auf Sichtbasis eine für sichtbares Licht, Infrarotlicht, eine Mehrlinsenanordnung, ein Stereopaar, Infrarotlaufzeitabtaster/Bildwandler oder strukturiertes Licht fähige 2D- oder 3D-Abbildung sein kann. Jede Abbildungsvorrichtung auf Sichtbasis nimmt wiederholt ein zeitsynchronisiertes Bild des Arbeitsbereichs von einem jeweiligen Blickpunkt auf, der von den anderen jeweiligen Abbildungsvorrichtungen auf Sichtbasis im Wesentlichen verschieden ist. Eine Einheit zur visuellen Verarbeitung dient zum Analysieren der zeitsynchronisierten Bilddaten, die durch die mehreren Abbildungsvorrichtungen auf Sichtbasis erzeugt werden. Die Einheit zur visuellen Verarbeitung verarbeitet die erfassten Bilddaten zum Identifizieren eines Menschen gegenüber einem nicht menschlichen Objekt innerhalb des Arbeitsbereichs. Die Einheit zur visuellen Verarbeitung bestimmt ferner potentielle Wechselwirkungen zwischen einem Menschen und der automatisierten beweglichen Einrichtung. Die Einheit zur visuellen Verarbeitung erzeugt ferner Steuersignale zum Ermöglichen einer dynamischen Umkonfiguration der automatisierten beweglichen Einrichtung auf der Basis der potentiellen Wechselwirkungen zwischen dem Menschen und der automatisierten beweglichen Einrichtung im Arbeitsbereich. Die Einheit zur visuellen Verarbeitung prüft ferner die Integrität des Systems auf Komponentenausfälle und Bedingungen, die verhindern würden, dass das System korrekt arbeitet und seinen beabsichtigten Zweck erfüllt. Diese „dynamische Integritätsüberwachung“ würde diese verschlechterten oder Ausfallbedingungen detektieren und einen Modus auslösen, in dem das System in einen sicheren Modus ausfallen kann, in dem die Systemintegrität dann wiederhergestellt werden kann und die Prozesswechselwirkung ohne irgendwelche ungewollten Konsequenzen neben der zum Durchführen von Reparaturen erforderlichen Stillstandszeit zu normal zurückkehren kann. Ein Arbeitsbereich oder eine Arbeitszelle ist mit Bezugszielen befähigt, die für die geometrische Kalibrierung und Integrität verwendet werden können. Einige von diesen Bezugselementen könnten aktiv sein, wie z. B. ein IR- Blinklicht im Blickfeld eines Sensors (von Sensoren), die die Zeitbasisaktualisierungen der Bildinformationen und Bedingungen, unter denen die Bilddaten „eingefroren“ sind oder sich nicht aktualisieren, überprüfen könnten.
  • Erfindungsgemäß ist mindestens ein im Arbeitsbereich angeordnetes Blinklicht vorgesehen, das von mindestens einer der mehreren Abbildungsvorrichtungen erfasst wird und die Blinksignale mit einer vorgegebenen Rate erzeugt. Die von dem Blinklicht erzeugten Blinksignale werden in den erfassten zeitsynchronisierten Bilddaten detektiert und es wird geprüft, ob die Blinksignale in den Bilddaten mit der vorgegebenen Rate detektiert werden, um festzustellen, ob sich die Bilddaten aktualisieren.
  • Eine Ausführungsform zieht ein Verfahren zum Identifizieren einer potentiellen Wechselwirkung zwischen einem Menschen und einer automatisierten beweglichen Einrichtung in einem Arbeitsbereich in Betracht. Zeitsynchronisierte Bilder von mehreren Abbildungsvorrichtungen auf Sichtbasis im Arbeitsbereich. Jede Abbildungsvorrichtung auf Sichtbasis nimmt jeweilige zeitsynchronisierte Bilder von einem jeweiligen Blickpunkt auf, der von den anderen jeweiligen Abbildungsvorrichtungen auf Sichtbasis im Wesentlichen verschieden ist. Bewegliche Objekte werden in den erfassten Daten jedes jeweiligen Blickpunkts identifiziert. Daten von beweglichen Objekten werden zum Unterscheiden von Menschen von nicht menschlichen Objekten gefiltert. Der Mensch in jedem Blickpunkt der erfassten Daten wird gemeinsam identifiziert. Der Mensch im Arbeitsbereich wird auf der Basis der gemeinsamen Identifikation des Menschen unter Verwendung von Detektionsinformationen von mehreren Ansichten lokalisiert. Eine potentielle Wechselwirkung mit der automatisierten beweglichen Einrichtung wird bestimmt. Eine Warnung wird in Ansprechen auf die potentielle Wechselwirkung zwischen der automatisierten beweglichen Einrichtung und dem (den) lokalisierten Menschen innerhalb des Arbeitsbereichs geliefert.
  • Eine Variation der Sicherheitsüberwachungsfähigkeit dieses Systems ist die Überwachung von Sperrbereichen, die eine signifikante und möglicherweise gefährliche automatisierte oder andere Einrichtungsaktivität aufweisen können, die nur eine periodische Wartung oder einen periodischen Zugang erfordert. Dieses System würde die Integrität von Zugangskontrollen zu solchen Bereichen überwachen und aufgrund eines unberechtigten Zugangs Alarme auslösen. Da die Wartung oder Routineinstandhaltung in diesem Bereich bei Schichtauszeiten oder einer anderen Stillstandszeit erforderlich sein kann, würde das System einen berechtigten Zugang und Operationen einer Person (oder von Personen) überwachen und würde lokal und mit einer entfernten Überwachungsstation Alarme auslösen, wenn die Aktivität aufgrund eines Unfalls oder medizinischen Notfalls unerwartet stoppt. Diese Fähigkeit könnte die Produktivität für diese Typen von Tätigkeiten verbessern, wobei das System als Teil eines „Kollegensystems“ für die Zwecke der persönlichen Sicherheit betrachtet werden könnte.
  • Dieses System hat auch die Fähigkeit, dass es in Anwendungen angewendet wird, in denen die Aktivitäten von Leuten in einem Bereich verfolgt werden und die Bewegung und Aktivität protokolliert werden. Dies ist bei der automatisierten Zeit- und Bewegungsstudie von Aktivitäten nützlich, die verwendet werden kann, um die Leistung zu überwachen und Daten zur Verwendung beim Verbessern der Arbeitszellenaktivitätseffizienz und -produktivität zu liefern. Diese Fähigkeit kann auch eine Aktivitätsüberwachung innerhalb einer vorgeschriebenen Sequenz ermöglichen, wobei Abweichungen in der Sequenz identifiziert, protokolliert werden können und Alarme für die Detektion von menschlichen Tätigkeitsfehlern erzeugt werden können. Diese „Fehlervermeidungs“-Fähigkeit kann genutzt werden, um zu verhindern, dass sich Tätigkeitsfehler zu unterstromigen Operationen ausbreiten und Qualitäts- und Produktivitätsprobleme aufgrund von Fehlern in der Sequenz oder der korrekten Materialauswahl für die vorgeschriebene Tätigkeit verursachen.
  • Figurenliste
    • 1 ist ein Blockdiagramm eines Sicherheitsüberwachungssystems.
    • 2 ist eine graphische Darstellung der in einem Arbeitsbereich angeordneten Abbildungsvorrichtungen.
    • 3 stellt ein Blockdiagramm eines Ablaufdiagramms hoher Ebene des Überwachungsprozesses dar.
    • 4 stellt ein Prozessablaufdiagramm für die Sicherheitsüberwachung dar.
    • 5 stellt ein Blockdiagramm einer kognitiven Rückkopplungsschleife für die Menschenidentifikation dar.
    • 6 ist ein Diagramm einer homographischen Körperachsenabbildung.
    • 7 ist eine graphische Darstellung von mehreren Arbeitsbereichen.
    • 8 ist eine schematische Darstellung der dreidimensionalen Lokalisierung unter Verwendung von mehreren Sensoransichten.
    • 9 ist ein Ablaufplan eines beispielhaften Verfahrens zum dynamischen Überwachen der Integrität des Überwachungssystems auf Sichtbasis.
    • 10 stellt das Sicherheitsüberwachungssystem unter Verwendung von IR-Leuchten/Bezugsmarkierungen dar.
  • AUSFÜHRLICHE BESCHREIBUNG
  • In 1 ist im Allgemeinen bei 10 ein Blockdiagramm eines Sicherheitsüberwachungssystems zum Überwachen eines Arbeitsbereichs einer Montage, einer Fertigung oder eines ähnlichen Prozesses gezeigt. Das Sicherheitsüberwachungssystem 10 umfasst mehrere Abbildungsvorrichtungen 12 auf Sichtbasis zum Aufnehmen von visuellen Bildern eines festgelegten Arbeitsbereichs. Die mehreren Abbildungsvorrichtungen 12 auf Sichtbasis sind, wie in 2 dargestellt, an verschiedenen Orten und in verschiedenen Höhen angeordnet, wobei sie die automatisierte bewegliche Einrichtung umgeben. Vorzugsweise werden Weitwinkellinsen oder ähnliche Vorrichtungen mit breitem Blickfeld verwendet, um mehr Arbeitsbereich visuell abzudecken. Jede der Abbildungsvorrichtungen auf Sichtbasis ist zum Aufnehmen eines Bildes des Arbeitsbereichs von einem jeweiligen Blickpunkt, der von den anderen jeweiligen Abbildungsvorrichtungen im Wesentlichen verschieden ist, im Wesentlichen von einer anderen versetzt. Dies ermöglicht, dass verschiedene Streaming-Videobilder von verschiedenen Blickpunkten um den Arbeitsbereich zum Unterscheiden einer Person von der umgebenden Einrichtung aufgenommen werden. Aufgrund von visuellen Behinderungen (d. h. Verdeckungen) mit Objekten und Einrichtung im Arbeitsbereich erhöhen die mehreren Blickpunkte die Wahrscheinlichkeit für die Erfassung der Person in einem oder mehreren Bildern, wenn Verdeckungen innerhalb des Arbeitsbereichs vorhanden sind.
  • Wie in 2 gezeigt, sind eine erste Abbildungsvorrichtung 14 auf Sichtbasis und eine zweite Abbildungsvorrichtung 16 auf Sichtbasis im Wesentlichen in Überkopfpositionen voneinander beabstandet, so dass jede eine Steilansicht erfasst. Die Abbildungsvorrichtungen 14 und 16 schaffen vorschriftsmäßige Steilansichten oder Referenzansichten. Vorzugsweise schaffen die Abbildungsvorrichtungen 14 und 16 eine dreidimensionale Szenenanalyse und -verfolgung auf Stereobasis. Zusätzliche Abbildungsvorrichtungen können über Kopf angeordnet sein und zum Erhalten von zusätzlichen Überkopfansichten von der ersten und der zweiten Abbildungsvorrichtung 14 und 16 auf Sichtbasis beabstandet sein.
  • Verschiedene andere Abbildungsvorrichtungen 17 auf Sichtbasis sind an den Seiten oder virtuellen Ecken des überwachten Arbeitsbereichs zum Erfassen von Ansichten mit mittlerem Winkel und/oder Flachansichten angeordnet. Selbstverständlich können mehr oder weniger Abbildungsvorrichtungen als die in 2 gezeigten verwendet werden, da die Anzahl von Abbildungsvorrichtungen auf Sichtbasis umkonfigurierbar ist, da das System mit einer beliebigen Anzahl von Abbildungsvorrichtungen arbeiten kann; es wird jedoch darauf hingewiesen, dass, wenn die Anzahl von redundanten Abbildungsvorrichtungen zunimmt, das Niveau der Integrität und redundanten Zuverlässigkeit zunimmt. Jede der Abbildungsvorrichtungen 12 auf Sichtbasis ist zum Erfassen eines Bildes von einem Blickpunkt, der von einem anderen im Wesentlichen verschieden ist, von einer anderen beabstandet, um eine dreidimensionale Verfolgung von einer oder mehreren Personen im Arbeitsbereich zu erzeugen. Die durch die mehreren Abbildungsvorrichtungen 12 auf Sichtbasis erfassten verschiedenen Ansichten schaffen gemeinsam alternative Ansichten des Arbeitsbereichs, die ermöglichen, dass das Sicherheitsüberwachungssystem 10 jede Person im Arbeitsbereich identifiziert. Diese verschiedenen Blickpunkte schaffen die Gelegenheit zum Verfolgen jeder Person über den ganzen Arbeitsbereich im dreidimensionalen Raum und verbessern die Lokalisierung und Verfolgung jeder Person, während sie sich durch den Arbeitsbereich bewegen, um potentielle ungewollte Wechselwirkungen zwischen jeder jeweiligen Person und der sich bewegenden automatisierten Einrichtung im Arbeitsbereich zu detektieren.
  • Mit erneutem Bezug auf 1 werden die durch die mehreren Abbildungsvorrichtungen 12 auf Sichtbasis aufgenommenen Bilder zu einer Verarbeitungseinheit 18 über ein Kommunikationsmedium 20 übertragen. Das Kommunikationsmedium kann ein Kommunikationsbus, ein Ethernet oder eine andere Kommunikationsverbindung (einschließlich drahtlos) sein.
  • Die Verarbeitungseinheit 18 ist vorzugsweise ein Hauptrechner, der mit Allerweltskomponenten (nicht unähnlich einem Personalcomputer) implementiert ist, oder eine ähnliche Vorrichtung, die für ihre Betriebsumgebung geeignet bestückt ist. Die Verarbeitungseinheit 18 kann ferner ein Bilderfassungssystem (das möglicherweise aus einem Bilddigitalisierer und/oder einer Netzbilderfassungssoftware besteht) umfassen, das verwendet wird, um Bildströme zur Verarbeitung und Aufzeichnung von Bildströmen als zeitsynchronisierte Daten zu erfassen. Mehrere Verarbeitungseinheiten können in einem Datennetz unter Verwendung eines Protokolls miteinander verbunden sein, das eine Nachrichtenintegrität sicherstellt, wie z. B. Ethernet-Safe. Daten, die den Zustand eines angrenzenden Raums angeben, der durch andere Verarbeitungseinheiten überwacht wird, können in einer zuverlässigen Weise ausgetauscht werden, einschließlich Alarmen, Signalen und Verfolgungszustands-Datenübertragungen für Leute, Objekte, die sich von Bereich zu Bereich bewegen, oder Zonen, die sich über mehrere Systeme erstrecken. Die Verarbeitungseinheit 18 verwendet eine primäre Verarbeitungsroutine und mehrere Unterverarbeitungsroutinen (d. h. eine Unterverarbeitungsroutine für jede Abbildungsvorrichtung auf Sichtbasis). Jede jeweilige Unterverarbeitungsroutine ist für eine jeweilige Abbildungsvorrichtung zum Verarbeiten der durch die jeweilige Abbildungsvorrichtung aufgenommenen Bilder zweckgebunden. Die primäre Verarbeitungsroutine führt eine Mehrfachansichtsintegration durch, um eine Echtzeit-Überwachung des Arbeitsbereichs auf der Basis der gesammelten aufgenommenen Bilder, wie durch jede Unterverarbeitungsroutine verarbeitet, durchzuführen.
  • In 1 wird eine Detektion eines Arbeiters im Arbeitsbereich durch die Unterverarbeitungsroutinen unter Verwendung von mehreren Datenbanken 22, die gemeinsam Menschen in Gegenwart einer anderen beweglichen Einrichtung im Arbeitsbereich detektieren und identifizieren, erleichtert. Die mehreren Datenbanken speichern Daten, die verwendet werden, um Objekte zu detektieren, eine Person aus den detektierten Objekten identifizieren, und eine identifizierte Person im Arbeitsbereich verfolgen. Die verschiedenen Datenbanken umfassen eine Kalibrierungsdatenbank 24, eine Hintergrunddatenbank 25, eine Klassifikationsdatenbank 26, eine Fluchtpunktdatenbank 27, eine Verfolgungsdatenbank 28 und eine Homographiedatenbank 30, sind jedoch nicht darauf begrenzt. Daten, die in den Datenbanken enthalten sind, werden von den Unterverarbeitungsroutinen verwendet, um Menschen im Arbeitsbereich zu detektieren, zu identifizieren und zu verfolgen.
  • Die Kalibrierungsdatenbank 24 stellt Kamerakalibrierungsparameter (intrinsisch und extrinsisch) auf der Basis von Mustern zum Entzerren von verzerrten Objekten bereit.
  • Die Hintergrunddatenbank 25 speichert die Hintergrundmodelle für verschiedene Ansichten und die Hintergrundmodelle werden verwendet, um ein Bild in seine Hintergrund- und Vordergrund-Bestandteilsbereiche aufzutrennen.
  • Die Klassifikationsdatenbank 26 enthält eine Kaskade von Klassifikatoren und zugehörigen Parametern zum automatischen Klassifizieren von Menschen und Nicht-Menschen.
  • Die Fluchtpunktdatenbank 27 enthält die Fluchtpunktinformationen für jede der Kameraansichten und wird verwendet, um die Fluchtpunktkorrektur durchzuführen, so dass Menschen in den korrigierten Bildern aufrecht erscheinen.
  • Die Verfolgungsdatenbank 28 unterhält Spuren für jeden der überwachten Menschen, neue Spuren werden zur Datenbank hinzugefügt, wenn neue Menschen in die Szene eintreten, und gelöscht, wenn sie die Szene verlassen. Die Verfolgungsdatenbank weist auch Informationen über das Erscheinungsbildmodell für jeden Menschen auf, so dass existierende Spuren leicht Spuren in einem anderen Zeitschritt zugeordnet werden können.
  • Die Homographiedatenbank 30 enthält die Homographietransformationsparameter über die verschiedenen Ansichten und die vorschriftsmäßige Ansicht. Geeignete Daten von der (den) Datenbank(en) können zu einem System übertragen werden, das einen angrenzenden Bereich überwacht, wenn sich eine Person in diesen Bereich bewegt, so dass der nahtlose Übergang der Verfolgung der Person von Bereich zu Bereich über mehrere Systeme ermöglicht wird.
  • 3 stellt ein Blockdiagramm eines Überblicks hoher Ebene des Werksüberwachungsprozessablaufs, einschließlich der dynamischen Systemintegritätsüberwachung, dar.
  • Im Block 32 werden Datenströme von den Abbildungsvorrichtungen auf Sichtbasis gesammelt, die die zeitsynchronisierten Bilddaten erfassen. Im Block 33 wird die Systemintegritätsüberwachung ausgeführt. Die Einheit zur visuellen Verarbeitung prüft die Integrität des Systems auf Komponentenausfälle und Bedingungen, die verhindern würden, dass das Überwachungssystem korrekt arbeitet und seinen beabsichtigten Zweck erfüllt. Diese „dynamische Integritätsüberwachung“ würde diese verschlechterten oder Ausfallbedingungen detektieren und einen Modus auslösen, in dem das System in einen sicheren Modus ausfallen kann, wobei die Systemintegrität dann wiederhergestellt und die Prozesszusammenwirkung ohne irgendwelche ungewollten Konsequenzen neben der zum Durchführen von Reparaturen erforderlichen Stillstandszeit zu normal zurückkehren kann. 10 stellt einen Arbeitsbereich oder eine Arbeitszelle dar, die mit Bezugszielen befähigt ist, die für die geometrische Kalibrierung und Integrität verwendet werden können. Einige von diesen Bezugselementen könnten aktiv sein, wie z. B. ein IR- Blinklicht im Blickfeld eines Sensors (von Sensoren), die die Zeitbasisaktualisierungen der Bildinformationen und Bedingungen, unter denen die Bilddaten „eingefroren“ sind oder sich nicht aktualisieren, überprüfen könnten.
  • Im Block 34 von 3 tritt dann, wenn die Einheit zur visuellen Verarbeitung Integritätsprobleme feststellt, das System in den ausfallsicheren Modus ein, in dem Alarme betätigt werden und das System abgeschaltet wird. Wenn die Einheit zur visuellen Verarbeitung feststellt, dass keine Integritätsprobleme vorhanden sind, dann werden die Blöcke 35-39 nacheinander eingeleitet. Die Hintergrundsubtraktion wird im Block 35 durchgeführt und die resultierenden Bilder sind die Vordergrundbereiche.
  • Im Block 36 wird eine SwarmVision-Menschüberprüfung zum Detektieren von Menschen aus den aufgenommenen Bildern durchgeführt.
  • Im Block 37 werden der Erscheinungsbildvergleich und die Erscheinungsbildverfolgung ausgeführt, wie vorher beschrieben, die eine Person von den detektierten Objekten unter Verwendung ihrer verschiedenen Datenbanken identifizieren und eine identifizierte Person im Arbeitsbereich verfolgen.
  • Im Block 38 wird eine dreidimensionale Verarbeitung auf die erfassten Daten angewendet, um 3D-Entfernungsinformationen für die Objekte im Arbeitsbereich zu erhalten. Die 3D-Entfernungsinformationen ermöglichen uns, 3D-Belegungsraster und Voxelisierungen zu erzeugen, die Fehlalarme verringern, und ermöglichen uns, Objekte in 3D zu verfolgen.
  • Im Block 39 werden die verglichenen Spuren zum Mehrfachansichtsvereinigungs- und Objektlokalisierungsmodul geliefert. Außerdem wird die dreidimensionale Verarbeitung von den Abbildungsvorrichtungen auf Sichtbasis, wie in 8 gezeigt, zum Mehrfachansichtskombinations- und Objektlokalisierungsmodul zum Bestimmen des Orts, der Richtung, der Geschwindigkeit, der Belegung und der Dichte jedes Menschen innerhalb des Arbeitsbereichs geliefert. Die identifizierten Menschen werden hinsichtlich einer potentiellen Wechselwirkung mit der beweglichen Einrichtung innerhalb des Arbeitsbereichs verfolgt.
  • 4 stellt ein Prozessablaufdiagramm zum Detektieren, Identifizieren und Verfolgen von Menschen unter Verwendung des Sicherheitsüberwachungssystems dar. Im Block 40 wird das System durch die primäre Verarbeitungsroutine zum Durchführen einer Mehrfachansichtsintegration im überwachten Arbeitsbereich initialisiert. Die primäre Verarbeitungsroutine initialisiert und startet die Unterverarbeitungsroutinen. Eine jeweilige Unterverarbeitungsroutine ist zum Verarbeiten der von einer jeweiligen Abbildungsvorrichtung erfassten Daten vorgesehen. Jede der Unterverarbeitungsroutinen arbeitet parallel. Die folgenden Verarbeitungsblöcke, wie hier beschrieben, werden durch die primäre Verarbeitungsroutine synchronisiert, um sicherzustellen, dass die aufgenommenen Bilder zeitlich miteinander synchronisiert werden. Die primäre Verarbeitungsroutine wartet, bis jede der Unterverarbeitungsroutinen die Verarbeitung ihrer jeweiligen erfassten Daten vollendet, bevor die Mehrfachansichtsintegration durchgeführt wird. Die Verarbeitungszeit für jede jeweilige Unterverarbeitungsroutine ist vorzugsweise nicht mehr als 100-200 ms. Bei der Systeminitialisierung wird auch eine Systemintegritätsprüfung durchgeführt (siehe auch 3, Block 33). Wenn festgestellt wird, dass die Systemintegritätsprüfung nicht bestanden wird, dann aktiviert das System sofort einen Alarm und tritt in einen ausfallsicheren Modus ein, in dem das System abgeschaltet wird, bis Korrekturhandlungen durchgeführt werden.
  • Mit erneutem Bezug auf 4 werden im Block 41 Streaming-Bilddaten durch jede Abbildungsvorrichtung auf Sichtbasis erfasst. Die durch jede der Abbildungsvorrichtungen erfassten Daten liegen in Pixelform vor (oder werden in diese umgewandelt). Im Block 42 werden die erfassten Bilddaten zu einem Bildpuffer geliefert, in dem die Bilder auf die Verarbeitung für detektierte Objekte und insbesondere Menschen im Arbeitsbereich inmitten der sich bewegenden automatisierten Einrichtung warten. Jedes aufgenommene Bild wird zeitgestempelt, so dass jedes aufgenommene Bild für die gleichzeitige Verarbeitung synchronisiert wird.
  • Im Block 43 wird eine automatische Kalibrierung auf die aufgenommenen Bilder zum Entzerren von Objekten innerhalb des aufgenommenen Bildes angewendet. Die Kalibrierungsdatenbank liefert Kalibrierungsparameter auf der Basis von Mustern zum Entzerren von verzerrten Objekten. Die Bildverzerrung, die durch Weitwinkellinsen verursacht wird, erfordert, dass das Bild durch die Anwendung einer Kamerakalibrierung entzerrt wird. Dies ist erforderlich, da irgendeine wesentliche Verzerrung des Bildes die Homographieabbildungsfunktion zwischen den Ansichten der Abbildungsvorrichtung und den Erscheinungsbildmodellen ungenau macht. Die Abbildungskalibrierung ist ein einmaliger Prozess; eine erneute Kalibrierung ist jedoch erforderlich, wenn die Abbildungsvorrichtungseinrichtung modifiziert wird. Die Bildkalibrierung wird auch durch das Untersystem zur dynamischen Integritätsüberwachung periodisch geprüft, um Bedingungen zu detektieren, unter denen die Abbildungsvorrichtung irgendwie aus ihrem kalibrierten Blickfeld bewegt ist.
  • In den Blöcken 44 und 45 wird eine Hintergrundmodellierung bzw. Vordergrunddetektion eingeleitet. Ein Hintergrundtraining wird verwendet, um Hintergrundbilder von Vordergrundbildern zu unterscheiden. Die Ergebnisse werden zur Verwendung durch jede der Unterverarbeitungsroutinen zum Unterscheiden des Hintergrundes und Vordergrundes in einer Hintergrunddatenbank gespeichert. Alle entzerrten Bilder werden Hintergrund-gefiltert, um Vordergrundpixel innerhalb eines digitalisierten Bildes zu erhalten. Um den Hintergrund in einem aufgenommenen Bild zu unterscheiden, sollten Hintergrundparameter unter Verwendung von Bildern eines leeren Arbeitsplatzblickbereichs trainiert werden, so dass die Hintergrundpixel leicht unterschieden werden können, wenn sich bewegende Objekte vorhanden sind. Die Hintergrunddaten sollten über die Zeit aktualisiert werden. Wenn eine Person im aufgenommenen Bild detektiert und verfolgt wird, werden die Hintergrundpixel aus den Bilddaten zum Detektieren von Vordergrundpixeln gefiltert. Die detektierten Vordergrundpixel werden durch verbundene Komponentenanalyse mit Rauschfilterung und Blob-Größenfilterung in Blobs umgewandelt.
  • Im Block 46 wird eine Blob-Analyse eingeleitet. In einem jeweiligen Arbeitsbereich kann nicht nur eine sich bewegende Person detektiert werden, sondern andere sich bewegende Objekte wie z. B. Roboterarme, Karren oder Kästen können detektiert werden. Daher beinhaltet die Blob-Analyse das Detektieren aller Vordergrundpixel und das Bestimmen, welche Vordergrundbilder (z. B. Blobs) Menschen sind und welche nicht menschliche sich bewegende Objekte sind. Ein Blob kann als Bereich von verbundenen Pixeln (z. B. sich berührenden Pixeln) definiert sein. Die Blob-Analyse beinhaltet die Identifikation und Analyse des jeweiligen Bereichs von Pixeln innerhalb des aufgenommenen Bildes. Das Bild unterscheidet Pixel durch einen Wert. Die Pixel werden dann als entweder Vordergrund oder Hintergrund identifiziert. Pixel mit einem von null verschiedenen Wert werden als Vordergrund betrachtet und Pixel mit einem Nullwert werden als Hintergrund betrachtet. Die Blob-Analyse betrachtet typischerweise verschiedene Faktoren, die den Ort des Blobs, die Fläche des Blobs, den Umfang (z. B. Kanten) des Blobs, die Form des Blobs, den Durchmesser, die Länge oder die Breite des Blobs und die Orientierung umfassen können, ohne jedoch darauf begrenzt zu sein. Techniken für Bild- oder Datensegmentierung sind nicht auf 2D-Bilder begrenzt, sondern können sich auch die Ausgangsdaten von anderen Sensortypen zu Nutze machen, die IR-Bilder und/oder 3D-Volumendaten liefern.
  • Im Block 47 wird als Teil der Blob-Analyse SwarmVision™, das in der US 2005 / 0 196 047 A1 beschrieben ist, verwendet, um nicht menschliche Blobs von den menschlichen Blobs auszufiltern. Swarmvision™, das in HRL Laboratories Inc. entwickelt wurde, ist ein System für die schnelle Detektion von Objekten wie z. B. Menschen und Fahrzeugen von Bildern und Videos. Es kombiniert Entwicklungssuchmechanismen für die schnelle Suche mit robusten Klassifikatorkaskaden zum Detektieren der Anwesenheit eines Objekts an einem gegebenen Ort. Das SwarmVision™-System verwendet Trainingsdaten, die von einem Trainer der menschlichen Klassifikation erhalten werden, und intelligente Suchalgorithmen auf der Basis von kognitiven Schwärmen. 5 stellt ein Blockdiagramm einer kognitiven Rückkopplungsschleife dar, die sich SwarmVision™ zum Integrieren der Suche, Erkennung und Verfolgung eines menschlichen Objekts zu Nutze macht. SwarmVision™ hat die Fähigkeit, stationäre und sich bewegende Menschen im Arbeitsbereich zu klassifizieren und zu verfolgen, ob der Hintergrund stationär ist oder sich bewegt.
  • Mit erneutem Bezug auf 4 wird eine Körperachsenabschätzung im Block 48 für jedes durch den SwarmVision™-Filterprozess identifizierten menschliche Blob ausgeführt. Eine Hauptkörperachsenlinie für jedes menschliche Blob wird unter Verwendung von Fluchtpunkten (von der Fluchtpunktdatenbank erhalten) im Bild bestimmt. Das heißt, die Körperachsenlinie wird durch zwei interessierende Punkte definiert. Der erste Punkt ist ein Schwerpunkt des identifizierten menschlichen Blobs und der zweite Punkt (d. h. Fluchtpunkt) ist ein jeweiliger Punkt nahe einer Körperunterseite (d. h. nicht notwendigerweise die Blob-Unterseite und möglicherweise außerhalb des Blobs). Die Körperachsenlinie ist eine virtuelle Linie, die den Schwerpunkt mit dem Fluchtpunkt verbindet. Eine jeweilige vertikale Körperachsenlinie wird für jedes durch den SwarmVision™-Filterprozess identifizierte menschliche Blob bestimmt, wie im Allgemeinen bei 60, 61 und 62 von 6 dargestellt. Ein Punktwert für die Menschendetektion kann verwendet werden, um die Bestimmung der Identifikation einer entsprechenden Körperachse zu unterstützen. Der Punktwert schafft ein Vertrauensniveau, dass ein Vergleich mit dem Menschen durchgeführt wurde und dass die entsprechende Körperachse verwendet werden sollte. Jede vertikale Körperachsenlinie wird über Homographieabbildung verwendet, um die Lokalisierung des Menschen zu bestimmen, und wird später im Einzelnen erörtert.
  • Mit erneutem Bezug auf 4 wird eine Farbprofilierung im Block 49 ausgeführt. Ein Farberscheinungsbildmodell wird zum Vergleichen derselben Person in jeder Ansicht vorgesehen. Ein Farbprofil nimmt sowohl Fingerabdrücke als es auch die Identität der jeweiligen Person über das ganze aufgenommene Bild aufrechterhält.
  • Im Block 50 wird „beste passende Spur finden“ bestimmt. Das System versucht, eine beste passende Spur für jedes detektierte Blob durch Vergleichen des Farbmodells jeder Spur mit dem jeweiligen Blob zu finden. Das heißt, das System versucht, Spuren, die in der Datenbank existieren, Spuren, die im aktuellen Bild detektiert werden, zuzuordnen. Ein Erscheinungsbildmodell auf der Basis von Farbprofilen der detektierten Objekte wird verwendet, um die Spuren zuzuordnen, so dass sie fortgepflanzt und angepasst werden können. Die besten passenden Spuren sind das Ergebnis der Zuordnungsoperation und teilen uns mit, welche der Spuren neu sind, welche gelöscht werden müssen und welche Spuren sich fortsetzen. Ein Erscheinungsbildmodell verwendet das Farbprofil für übereinstimmende Objekte. Das Farbprofil ist ein Vektor von gemittelten Farbwerten der Körperachsenlinie mit dem Begrenzungsrechteck des Blobs. Wenn eine Person keiner gespeicherten Spur in der Verfolgungsdatenbank entspricht oder nicht von einem angrenzenden Bereich eingetreten ist, wird eine neue Spur für die neue Person initialisiert, wenn sie detektiert wird. Die neue Person wird zur Spurdatenbank für anschließende Vergleichsoperationen hinzugefügt.
  • Im Block 51 wird eine Unterverarbeitungsroutine zum Hinzufügen/Aktualisieren einer Spur verwendet, wenn eine beste passende Spur gefunden ist. Die Informationen des Blobs werden auf der Basis der besten passenden Spur aktualisiert.
  • Im Block 52 werden gültige Körperachsenlinien für die Mehrfachansichtsintegration gesammelt. Im Block 53 wird auch eine Spur-„Ausschusssammlung“ ausgeführt, so dass alte Spuren automatisch aus der Datenbank gelöscht werden können, wenn sie nicht mehr erforderlich sind (z. B. wenn Spuren in angrenzende Systeme übergehen oder wenn die Person einfach den überwachten Bereich verlässt).
  • In den Blöcken 54 und 55 werden Homographieabbildungs- bzw. Mehrfachansichtsintegrationsroutinen ausgeführt. Homographie ist ein mathematisches Konzept in der Geometrie, in dem eine invertierbare Transformation gerade Linien auf gerade Linien abbildet. Die jeweiligen Körperachsenlinien werden abgebildet, so dass jede Körperachsenlinie mit einer anderen einen Punkt gemeinsam hat. Bei der Homographieabbildung schneiden sich vertikale Körperachsenlinien jeder Ansicht in einem einzigen Punkt auf dem Bodenniveau, wenn eine homographische Abbildung durchgeführt wird, die in 6 im Allgemeinen bei 63 dargestellt ist.
  • Der Prozess funktioniert selbst dann, wenn der Bodenpunkt der jeweiligen Person von einem der Blickpunkte verdeckt ist, da sogar stark verdeckte Blobs die Integration nicht verschlechtern. Selbst wenn eine Person in einer oder mehreren Ansichten verdeckt ist, schafft daher die Körperachsenlinie anderer Ansichten, die in die Referenzansicht abgebildet wird, ein hohes Vertrauen des Orts der Person in der integrierten Ansicht, da die Lokalisierung der Person durch die Mehrfachansichtsintegration genauer wird. Folglich ist das Erreichen einer genauen Bewegungsdetektion nicht kritisch, da die Hauptachsenmerkmale gegen Rauschen robust sind. Die Hauptachsendetektion verwendet kleinste mittlere Quadrate, die ermöglichen, dass das System konsistente markierte Spuren erzeugt. Alternativ können die Homographieabbildung und Integration unter Verwendung einer Kopfebene im Gegensatz zu einer Bodenebene durchgeführt werden, wie im Allgemeinen durch 64 in 6 dargestellt. Die Kopfebenenintegration wird vorteilhafterweise verwendet, da Personen verschiedene Größen aufweisen, und folglich wäre die Verwendung von Kopfebenen mit veränderlichen Höhen praktisch nützlich. Überdies kann die Bodenebenen- und Kopfebenenintegration sowohl gemeinsam mit mehreren hinzugefügten Ebenen integriert als auch verwendet werden, um die Lokalisierung nach Bedarf zu verfeinern, einschließlich der Brust-, Hüft- und Knieebenen, die verwendet werden, um die Lokalisierungsgenauigkeit weiter zu verbessern. Die Homographieinformationen werden verfeinert, um die Begrenzungshüllkurve der verfolgten Person zu erzeugen. In Abhängigkeit von der Auflösung und Konfiguration des Systems können die individuellen Extremitäten der Person verfolgt und in der Begrenzungshüllkurve angegeben werden. Diese Fähigkeit ist wichtig, wenn es erwünscht ist, eine Warnung zu erzeugen, wenn jemand eine Zone erreicht oder betritt, in der die Anwesenheit von Händen oder Füßen wichtig zu detektieren ist.
  • Mit erneutem Bezug auf 4 wird im Block 56 jede der Spuren unter Verwendung von Kalman-Filterung gefiltert. Bei der Kalman-Filterung sind die Zustandsvariablen der Bodenort und die Geschwindigkeit der Person. Folglich werden der Ort, die Bewegungsrichtung und die Bahn jeder identifizierten Person unter Verwendung der Kalman-Filterung aktualisiert. Im Block 57 werden die Ergebnisse graphisch angezeigt. Diese Technik versucht auch, die Absicht der Person „vorherzusehen“, sich weiterhin in einer bestimmten Richtung zu bewegen. Diese Absichtsinformationen können in anderen Modulen verwendet werden, um die Schlussrate von Zeit und Abstand zwischen der Person und der Detektionszone zu berechnen (dies ist beim Verbessern der Zonendetektionslatenz mit dynamischen Detektionszonen, die der Bewegung der Einrichtung folgen, wie z. B. Roboter, Fördereinrichtungen, Gabelstapler und eine andere bewegliche Einrichtung, besonders wichtig). Dies sind auch wichtige Informationen, die die Bewegung der Person in einen angrenzenden überwachten Bereich vorhersehen können, wobei die Daten der Person übertragen werden können und das Empfangssystem Aufmerksamkeitsmechanismen vorbereiten kann, um die Verfolgung der Person im betretenen überwachten Bereich schnell zu erfassen. Die Systemintegrität wird auch geprüft, da eine verfolgte Person nicht aus der Arbeitszelle „verschwinden“ kann. Spuren, die in die Arbeitszelle eingetreten sind, müssen als das Blickfeld verlassend bestätigt werden oder erfolgreich an ein angrenzendes System übertragen werden. Spuren, die verschwinden, springen oder anderweitig nicht die Dynamik aufweisen, die einer menschlichen Bewegung zugeordnet ist, und durch die lokalen Aufmerksamkeitsmechanismen nicht erneut erfasst wurden, müssen eine ausfallsichere kritische Warnung auf der Basis der Latenz erzeugen, die durch die letzte bekannte Position dieser Person und das Zeit/Abstand-Potential des schlimmsten Falls für die Wechselwirkung mit Gefahren bestimmt ist. Keine kritische Warnung ist erforderlich und ein Verfolgungs-„Abbruch“ wird aufgezeichnet, wenn die Person innerhalb der festgelegten Latenz erfasst werden kann und die korrekte Anzahl von Personen weiterhin verfolgt wird. Personen, die in der Arbeitszelle „auftauchen“, ohne dass sie in die Arbeitszelle durch einen festgelegten Abstand verfolgt werden, erzeugen auch eine kritische Warnung, da dies auf einen Systemintegritätsfehler hindeuten könnte, oder die Person sich mit einer Rate bewegt oder beschleunigt, die in der Zelle unsicher ist und außerhalb der Fähigkeit für eine sichere Verfolgungsauflösung liegt. Sicherheitstechnische Informationen werden auf einer Anzeigevorrichtung angezeigt, wenn Personen durch die vordefinierten sicheren Zonen, Warnzonen und kritischen Zonen des Arbeitsbereichs laufen. Die Warnzone und die kritischen Zonen (sowie beliebige andere Zonen, deren Konfiguration im System erwünscht ist, einschließlich dynamischer Zonen) sind Arbeitsbereiche, in denen Alarme vorgesehen werden, wie im Block 58 eingeleitet, wenn die Person die jeweilige Zone betreten hat und verursacht, dass die Einrichtung verlangsamt, stoppt oder anderweitig der Person ausweicht. Die Warnzone ist ein Bereich, in dem die Person zuerst auf die Tatsache aufmerksam gemacht wird, dass die Person einen Bereich betreten hat und sich ausreichend nahe der beweglichen Einrichtung befindet und verursachen könnte, dass die Einrichtung stoppt. Die kritische Zone ist ein Ort (z. B. Hüllkurve), die innerhalb der Warnzone konstruiert ist. Ein kritischerer Alarm kann ausgegeben werden, wenn sich die Person innerhalb der kritischen Zone befindet, so dass die Person ihren Ort in der kritischen Zone kennt oder aufgefordert wird, die kritische Zone zu verlassen. Diese Alarme werden vorgesehen, um die Produktivität des Prozesssystems zu verbessern, indem störende Einrichtungsstillegungen verhindert werden, die durch einen gelegentlichen Eintritt in die Warnzonen durch Personen, die sich ihrer Nähe nicht bewusst sind, verursacht werden. Diese Alarme werden auch durch das System während Intervallen einer erwarteten Wechselwirkung stummgeschaltet, wie z. B. Routinebeladung oder -entladung von Teilen aus dem Prozess. Es ist auch möglich, dass eine momentan stationäre Person im Weg einer dynamischen Zone detektiert werden würde, die sich in ihrer Richtung bewegt.
  • Zusätzlich zu Sicherheitswarnungen, die für die Person geliefert werden, wenn sie sich in den jeweiligen Zonen befindet, kann die Bewegung der Einrichtung in Abhängigkeit vom vorhergesagten Bewegungsweg der Person (oder möglicherweise der dynamischen Zone) innerhalb des Arbeitsbereichs modifiziert (z. B. gestoppt, beschleunigt oder verlangsamt) werden. Das heißt, die Bewegung der automatisierten Einrichtung arbeitet unter einer festgelegten Routine, die vordefinierte Bewegungen mit einer vordefinierten Geschwindigkeit aufweist. Durch Verfolgen und Vorhersagen der Bewegungen der Person innerhalb des Arbeitsbereichs kann die Bewegung der automatisierten Einrichtung modifiziert (d. h. verlangsamt oder beschleunigt) werden, um irgendeinen potentiellen Kontakt mit der Person innerhalb des Arbeitsbereichs zu vermeiden. Dies ermöglicht, dass die Einrichtung den Betrieb aufrechterhält, ohne den Montage-/Fertigungsprozess stilllegen zu müssen. Derzeitige ausfallsichere Operationen werden durch die Ergebnisse einer Risikobewertung auf Tätigkeitsbasis gesteuert und erfordern gewöhnlich, dass eine automatisierte Werkseinrichtung vollständig gestoppt wird, wenn eine Person in einem kritischen Bereich detektiert wird. Startprozeduren erfordern, dass eine Bedienperson der Einrichtung die Steuerungen zurücksetzt, um den Montage-/Fertigungsprozess erneut zu starten. Ein solches unerwartetes Stoppen im Prozess führt gewöhnlich zu Stillstandszeit und Verlust an Produktivität. Das Sicherheitsüberwachungssystem, wie hier gründlich beschrieben, detektiert und überwacht eine Person innerhalb des Arbeitsbereichs von mehreren verschiedenen Blickpunkten, so dass die Verdeckung einer Person in einem oder mehreren der Blickpunkte die Verfolgung der Person nicht beeinflusst. Überdies kann das Sicherheitsüberwachungssystem die automatisierte bewegliche Werkseinrichtung einstellen und dynamisch umkonfigurieren, um potentielle Wechselwirkungen mit der Person innerhalb des Arbeitsbereichs zu vermeiden, ohne die automatisierte Einrichtung stoppen zu müssen. Dies kann das Bestimmen und Durchlaufen eines neuen Bewegungsweges für die automatisierte bewegliche Einrichtung umfassen. Das Sicherheitsüberwachungssystem kann mehrere Leute innerhalb eines Arbeitsbereichs verfolgen, die Verfolgung zu anderen Systemen übertragen, die für die Überwachung von angrenzenden Bereichen verantwortlich sind, und verschiedene Zonen können für mehrere Orte innerhalb des Arbeitsbereichs definiert werden. 7 zeigt eine graphische Darstellung von mehreren Arbeitsbereichen. Die Erfassungsvorrichtungen 12 für einen jeweiligen Arbeitsbereich sind mit einer jeweiligen Verarbeitungseinheit 18 gekoppelt, die für den jeweiligen Arbeitsbereich zweckgebunden ist. Jede jeweilige Verarbeitungseinheit identifiziert und verfolgt die Nähe von Leuten, die ihren jeweiligen Arbeitsbereich durchlaufen, und sie kommunizieren miteinander über eine auf Netzsicherheit bezogene Verbindung 68, so dass Personen verfolgt werden können, wenn sie von einem Arbeitsbereich in den anderen übergehen. Folglich können mehrere visuelle Überwachungssysteme zum Verfolgen von Personen, wenn sie inmitten der verschiedenen Arbeitsbereiche zusammenwirken, verbunden werden.
  • 9 ist ein Ablaufplan eines Verfahrens zum dynamischen Überwachen der Integrität des Überwachungssystems auf Sichtbasis. In Schritt 80 wird mindestens ein Bezugsziel im Arbeitsbereich vorgesehen. Wie vorher beschrieben, kann ein Bezugsziel ein Infrarot- Blinklicht (IR) umfassen, ist jedoch nicht darauf begrenzt, das verwendet wird, um Änderungen der Bilddaten über ein jeweiliges Zeitintervall zu detektieren. Mehrere Bezugsziele können im Arbeitsbereich gemeinsam verwendet werden, um irgendwelche Verdeckungen durch entweder Einrichtung oder Menschen im Arbeitsbereich zu vermeiden. Die verschiedenen Abbildungsvorrichtungen auf Sichtbasis werden zeitsynchronisiert, so dass die erfassten Bilddaten gemeinsam analysiert werden können, um irgendwelche durch Verdeckungen verursachten Fehlaalarme zu vermeiden. Überdies können die Bezugsziele an einem beliebigen jeweiligen Ort im Arbeitsraum angebracht sein, um die gewünschten Ergebnisse der Detektion von Änderungen in den Bilddaten zu erreichen.
  • In Schritt 81 werden visuelle Änderungen in den erfassten Bilddaten un-ter Verwendung der Bezugsziele detektiert, wie z. B. das Detektieren der Blinkzeichen des IR- Blinklichts über das jeweilige Zeitintervall. Das IR-Blinklicht kann mit einer jeweiligen Rate aufgeleuchtet werden und das Überwachungssystem kann feststellen, dass die Änderungen, wie in den Bildern detektiert, tatsächlich mit der erwarteten Änderungsrate übereinstimmen, mit der das IR-Blinklicht tatsächlich blinkt.
  • In Schritt 82 wird dann, wenn keine Änderungen in den Bezugszielen in den erfassten Bilddaten detektiert werden, die automatisierte Einrichtung so modifiziert, dass sie in einem sicheren Modus arbeitet. Unerwartete Änderungen können jedoch auch zum Modifizieren der Einrichtung so, dass sie im sicheren Modusbetrieb arbeitet, führen. Wenn beispielsweise ein Bezugsziel ein sich bewegendes Ziel ist, das verfolgt wird und verschwindet, bevor detektiert wird, dass das Bezugsziel von einem erwarteten Austrittsort aus dem Arbeitsbereich austritt, dann kann die Werkseinrichtung so modifiziert werden, dass sie im sicheren Betriebsmodus arbeitet. Ein weiteres Beispiel von unerwarteten Änderungen an einem sich bewegenden Bezugsziel ist, wenn das Bezugsziel an einem ersten Ort erscheint und dann an einem zweiten Ort, der in einem vorbestimmten Abstand vom ersten Ort angeordnet ist, innerhalb einer vorbestimmten Zeit erneut erscheint. Die vorbestimmte Zeit ist eine Zeitdauer, in der nicht erwartet werden würde, dass das Bezugsziel am zweiten Ort innerhalb dieser vorbestimmten Zeitdauer ankommt.
  • In Schritt 83 werden die Einrichtung und das Überwachungssystem auf einen normalen Betriebsmodus zurückgesetzt, wenn das Überwachungssystem entweder korrigiert ist oder bestätigt wird, dass keine Fehler im aktuellen Überwachungssystem vorliegen.
  • 10 stellt das Sicherheitsüberwachungssystem mit den IR- Blinklichtern/Bezugsmarkierungen dar. Mindestens ein Infrarotblinklicht (IR-Leuchte) 90 ist in einem Blickbereich von mindestens einer Abbildungsvorrichtung 12 angeordnet. Wie vorher angegeben, wird das IR-Blinklicht 90 verwendet, um Zeitaktualisierungen der Bildinformationen zu überprüfen, um festzustellen, ob sich die Bilddaten nicht aktualisieren. Die IR-Blinklichter 90 können in einem ungenutzten Bereich des Blickfeldes für eine ununterbrochene Betrachtung angeordnet sein oder können in unbehinderten Bereichen im Arbeitsbereich angeordnet sein und von mehreren Kamerablickfeldern gesehen werden. Zusätzlich zu dem IR-Blinklicht 90 können andere Bezugsziele 92 verwendet werden, um Beleuchtungs- und Auflösungsprobleme zu detektieren. Solche Bezugsziele 92 schaffen Informationen, so dass ein Objekt, das im Feld detektiert wird, aufgrund von Beleuchtungs- oder Auflösungsproblemen nicht erkennbar sein kann. Die Form des Objekts unterstützt die Feststellung, ob die dem Objekt zugeordnete Geometrie ungenau ist, so dass das Überwachungssystem eine Korrekturkalibrierung erfordern kann. Selbstverständlich ist auch das Bezugsobjekt, wie gezeigt, nur ein Beispiel eines Bezugsziels und andere Formen oder Objekte können als Bezugsziele verwendet werden.
  • Selbstverständlich ist die Verwendung des Sichtüberwachungssystems in einer Werksumgebung, wie hier beschrieben, nur ein Beispiel dessen, wo das Sichtüberwachungssystem verwendet werden kann, und dieses Sichtüberwachungssystem hat die Fähigkeit, dass es in irgendeiner Anwendung außerhalb einer Werksumgebung angewendet wird, in der die Aktivitäten von Leuten in einem Bereich verfolgt werden und die Bewegung und Aktivität protokolliert werden.
  • Das Sichtüberwachungssystem ist bei der automatisierten Zeit- und Bewegungsstudie von Aktivitäten nützlich, die verwendet werden kann, um die Leistung zu überwachen und Daten zur Verwendung beim Verbessern der Arbeitszellenaktivitätseffizienz und -produktivität zu liefern. Diese Fähigkeit kann auch eine Aktivitätsüberwachung innerhalb einer vorgeschriebenen Sequenz ermöglichen, wobei Abweichungen in der Sequenz identifiziert, protokolliert werden können und Alarme für die Detektion von menschlichen Tätigkeitsfehlern erzeugt werden können. Diese „Fehlervermeidungs“-Fähigkeit kann genutzt werden, um zu verhindern, dass sich Tätigkeitsfehler zu unterstromigen Operationen ausbreiten und Qualitäts- und Produktivitätsprobleme aufgrund von Fehlern in der Sequenz oder der korrekten Materialauswahl für die vorgeschriebene Tätigkeit verursachen.
  • Selbstverständlich ist auch eine Variation der Sicherheitsüberwachungsfähigkeit dieses Systems, wie hier beschrieben, eine Überwachung von Sperrbereichen, die eine signifikante und möglicherweise gefährliche automatisierte oder andere Einrichtungsaktivität aufweisen können, die nur eine periodische Wartung oder einen periodischen Zugang erfordert. Dieses System würde die Integrität von Zugangskontrollen zu solchen Bereichen überwachen und aufgrund eines unberechtigten Zugangs Alarme auslösen. Da die Wartung oder Routineinstandhaltung in diesem Bereich bei Schichtauszeiten oder einer anderen Stillstandszeit erforderlich sein kann, würde das System einen berechtigten Zugang und Operationen einer Person (oder von Personen) überwachen und würde lokal und mit einer entfernten Überwachungsstation Alarme auslösen, wenn die Aktivität aufgrund eines Unfalls oder medizinischen Notfalls unerwartet stoppt. Diese Fähigkeit könnte die Produktivität für diese Typen von Tätigkeiten verbessern, wobei das System als Teil eines „Kollegensystems“ für die Zwecke der persönlichen Sicherheit betrachtet werden könnte.

Claims (30)

  1. Sicherheitsüberwachungssystem für einen Arbeitsbereich, wobei sich der Arbeitsbereich auf einen Bereich mit einer automatisierten beweglichen Einrichtung bezieht, wobei das System umfasst: mehrere Abbildungsvorrichtungen auf Sichtbasis, die zeitlich zusammenfallende Bilddaten des Arbeitsbereichs erfassen, wobei jede Abbildungsvorrichtung auf Sichtbasis wiederholt jeweilige zeitlich zusammenfallende Bilddaten des Arbeitsbereichs von einem jeweiligen Blickpunkt erfasst, der von den anderen jeweiligen Abbildungsvorrichtungen auf Sichtbasis im Wesentlichen verschieden ist; mindestens ein im Arbeitsbereich angeordnetes Blinklicht, das von mindestens einer der mehreren Abbildungsvorrichtungen erfasst wird und das Blinksignale mit einer vorgegebenen Rate erzeugt; und eine Einheit zur visuellen Verarbeitung zum Analysieren der zeitlich zusammenfallenden Bilddaten, die durch die mehreren Abbildungsvorrichtungen auf Sichtbasis erzeugt werden; wobei die Einheit zur visuellen Verarbeitung die erfassten zeitlich zusammenfallenden Bilddaten zum Identifizieren eines Menschen gegenüber einem nicht menschlichen Objekt innerhalb des Arbeitsbereichs durch Zählen von einem oder mehreren Mustern in allen der zeitlich zusammenfallenden Bilddaten verarbeitet, wobei die Einheit zur visuellen Verarbeitung ferner potentielle Wechselwirkungen zwischen einem Menschen und der automatisierten beweglichen Einrichtung bestimmt, wobei die Einheit zur visuellen Verarbeitung ferner Steuersignale zum Ermöglichen einer dynamischen Umkonfiguration der automatisierten beweglichen Einrichtung auf der Basis der potentiellen Wechselwirkungen zwischen dem Menschen und der automatisierten beweglichen Einrichtung im Arbeitsbereich erzeugt, wobei die Einheit zur visuellen Verarbeitung die von dem mindestens einen Blinklicht erzeugten Blinksignale in den erfassten zeitlich zusammenfallenden Bilddaten detektiert und prüft, ob die Blinksignale in den Bilddaten mit der vorgegebenen Rate detektiert werden, um festzustellen, ob sich die Bilddaten aktualisieren.
  2. Sicherheitssystem nach Anspruch 1, wobei die Einheit zur visuellen Verarbeitung eine vorhergesagte Bewegung des Menschen im Arbeitsbereich bestimmt, wobei die Einheit zur visuellen Verarbeitung die potentiellen Wechselwirkungen mit der automatisierten beweglichen Einrichtung auf der Basis der vorhergesagten Bewegungen des Menschen im Arbeitsbereich bestimmt, wobei die Einheit zur visuellen Verarbeitung ferner Steuersignale zum Ermöglichen einer dynamischen Umkonfiguration der automatisierten beweglichen Einrichtung auf der Basis der potentiellen Wechselwirkungen zwischen den vorhergesagten Bewegungen des Menschen und der automatisierten beweglichen Einrichtung im Arbeitsbereich erzeugt.
  3. Sicherheitssystem nach Anspruch 1, wobei eine vorprogrammierte Bewegung der automatisierten beweglichen Einrichtung zur Einheit zur visuellen Verarbeitung geliefert wird, und wobei die Einheit zur visuellen Verarbeitung die potentiellen Wechselwirkungen mit der automatisierten beweglichen Einrichtung auf der Basis der vorhergesagten Bewegungen des Menschen im Arbeitsbereich und der vorprogrammierten Bewegung der automatisierten beweglichen Einrichtung bestimmt, wobei die Einheit zur visuellen Verarbeitung ferner Steuersignale zum Ermöglichen einer dynamischen Umkonfiguration der automatisierten beweglichen Einrichtung auf der Basis der potentiellen Wechselwirkungen zwischen den vorhergesagten Bewegungen des Menschen und der vorprogrammierten Bewegung der automatisierten beweglichen Einrichtung im Arbeitsbereich erzeugt.
  4. Sicherheitssystem nach Anspruch 1, das ferner ein Computersystem zum gleichzeitigen Erfassen und Formatieren von zeitlich zusammenfallenden Bildströmen in Echtzeit von den mehreren Abbildungsvorrichtungen auf Sichtbasis umfasst.
  5. Sicherheitssystem nach Anspruch 1, wobei die mehreren Abbildungsvorrichtungen auf Sichtbasis mindestens zwei Überkopfkameras zum Bereitstellen von Steilansichten des Arbeitsbereichs umfassen.
  6. Sicherheitssystem nach Anspruch 5, wobei die mehreren Abbildungsvorrichtungen auf Sichtbasis mindestens zwei Abbildungsvorrichtungen auf Sichtbasis umfassen, die an den Seiten des Arbeitsbereichs zum Erfassen von Ansichten mit mittlerem Winkel angeordnet sind.
  7. Sicherheitssystem nach Anspruch 6, wobei die mehreren Abbildungsvorrichtungen auf Sichtbasis mindestens zwei Abbildungsvorrichtungen auf Sichtbasis umfassen, die an den Seiten des Arbeitsbereichs zum Erfassen von Flachansichten angeordnet sind.
  8. Sicherheitssystem nach Anspruch 1, das ferner einen menschlichen Klassifikator zum Identifizieren der Anwesenheit des Menschen im Arbeitsbereich in Ansprechen auf die durch die mehreren Abbildungsvorrichtungen auf Sichtbasis erfassten Bilddaten umfasst.
  9. Sicherheitssystem nach Anspruch 8, wobei der menschliche Klassifikator den Menschen in jedem der erfassten Bilder gemeinsam identifiziert, wobei der menschliche Klassifikator eine Routine mit mehreren Körperachsen verwendet, um eine entsprechende Körperachse zu identifizieren, und wobei ein Punktwert für die Menschendetektion bestimmt wird und verwendet wird, um die entsprechenden Körperachsen zu integrieren.
  10. Sicherheitssystem nach Anspruch 1, das ferner eine Verfolgungsdatenbank zum Liefern einer besten passenden Spur des Menschen innerhalb des Arbeitsbereichs umfasst, wobei die Verfolgungsdatenbank mehrere Spuren von jeweiligen Menschen im Arbeitsraum enthält, wobei eine der mehreren Spuren aus der Verfolgungsdatenbank ausgewählt werden kann, die den Menschen innerhalb des Arbeitsbereichs am besten identifiziert.
  11. Sicherheitssystem nach Anspruch 1, das ferner ein Filter zum Vorhersagen von Bewegungen des Menschen im Arbeitsraum umfasst.
  12. Sicherheitssystem nach Anspruch 1, das ferner ein Alarmbenachrichtigungssystem zum Alarmieren des Menschen in Ansprechen darauf, dass die Einheit zur visuellen Verarbeitung feststellt, dass eine potentielle Wechselwirkung wahrscheinlich zwischen dem Menschen und der automatisierten beweglichen Einrichtung innerhalb des Arbeitsbereichs stattfindet, umfasst.
  13. Sicherheitssystem nach Anspruch 1, wobei die Einheit zur visuellen Verarbeitung eine dynamische Umkonfiguration von virtuellen Eindringzonen in Bezug auf die automatisierte bewegliche Einrichtung im Arbeitsbereich auf der Basis der vorhergesagten Bewegungen des Menschen ermöglicht, wobei die virtuelle Eindringzone Warnzonen ist, die die automatisierte bewegliche Werkseinrichtung einkapseln.
  14. System nach Anspruch 1, das ferner zweite mehrere Abbildungsvorrichtungen auf Sichtbasis und eine zweite Einheit zur visuellen Verarbeitung zum Erfassen und Verarbeiten von erfassten zeitlich zusammenfallenden Bilddaten von einem zweiten Arbeitsbereich umfasst, wobei Daten in Bezug auf Menschen zwischen den Verarbeitungseinheiten zum Integrieren eines Übergangs eines jeweiligen Menschen zwischen dem ersten Arbeitsbereich und dem zweiten Arbeitsbereich gemeinsam genutzt werden.
  15. System nach Anspruch 1, das ferner ein Untersystem zur dynamischen Integritätsüberwachung umfasst, das die Integrität der mehreren Abbildungsvorrichtungen auf Sichtbasis und der Einheit zur visuellen Verarbeitung auf Komponentenausfälle überwacht, wobei die Verarbeitungseinheit einen sicheren Betriebsmodus in Ansprechen auf das Detektieren eines Komponentenausfalls ermöglicht.
  16. Verfahren zum Identifizieren einer potentiellen Wechselwirkung zwischen einem Menschen und einer automatisierten beweglichen Einrichtung in einem Arbeitsbereich, wobei das System umfasst: Aufnehmen von zeitlich zusammenfallenden Bildern von mehreren Abbildungsvorrichtungen auf Sichtbasis im Arbeitsbereich, wobei jede Abbildungsvorrichtung auf Sichtbasis jeweilige zeitlich zusammenfallende Bilder von einem jeweiligen Blickpunkt aufnimmt, der von den anderen jeweiligen Abbildungsvorrichtungen auf Sichtbasis im Wesentlichen verschieden ist, und wobei mindestens ein im Arbeitsbereich angeordnetes Blinklicht Blinksignale mit einer vorgegebenen Rate erzeugt und die Blinksignale von mindestens einer der mehreren Abbildungsvorrichtungen aufgenommen werden; Identifizieren von beweglichen Objekten in den erfassten Daten von jedem jeweiligen Blickpunkt; Filtern von Daten von beweglichen Objekten zum Unterscheiden von Menschen von nicht menschlichen Objekten; gemeinsames Identifizieren des Menschen in jedem Blickpunkt der erfassten Daten; Lokalisieren des Menschen im Arbeitsbereich auf der Basis der gemeinsamen Identifikation des Menschen; Bestimmen einer potentiellen Wechselwirkung mit der automatisierten beweglichen Einrichtung; Bereitstellen einer Warnung in Ansprechen auf die potentielle Wechselwirkung zwischen der automatisierten beweglichen Werkseinrichtung und dem lokalisierten Menschen innerhalb des Arbeitsbereichs; und Detektieren der von dem mindestens einen Blinklicht erzeugten Blinksignale in den erfassten Daten und Prüfen, ob die Blinksignale in den erfassten Daten mit der vorgegebenen Rate detektiert werden, um festzustellen, ob sich die erfassten Daten aktualisieren.
  17. Verfahren nach Anspruch 16, das ferner den Schritt des Erzeugens von Steuersignalen zum Ermöglichen einer dynamischen Umkonfiguration der automatisierten beweglichen Einrichtung auf der Basis der potentiellen Wechselwirkungen zwischen dem Menschen und der automatisierten beweglichen Einrichtung im Arbeitsbereich umfasst.
  18. Verfahren nach Anspruch 17, das ferner den Schritt des Bestimmens einer vorhergesagten Bewegung des Menschen im Arbeitsbereich umfasst, wobei die potentiellen Wechselwirkungen zwischen dem Menschen und der automatisierten beweglichen Einrichtung ferner auf der Basis der vorhergesagten Bewegungen des Menschen im Arbeitsbereich bestimmt werden, und wobei Steuersignale, die zum Ermöglichen der dynamischen Umkonfiguration der automatisierten beweglichen Einrichtung erzeugt werden, ferner auf den potentiellen Wechselwirkungen zwischen den vorhergesagten Bewegungen des Menschen und der automatisierten beweglichen Einrichtung im Arbeitsbereich basieren.
  19. Verfahren nach Anspruch 18, wobei der Schritt des Bestimmens von potentiellen Wechselwirkungen zwischen dem Menschen und der automatisierten beweglichen Einrichtung ferner auf der Basis von vorprogrammierten Bewegungen der automatisierten beweglichen Einrichtung bestimmt werden, und wobei Steuersignale, die zum Ermöglichen der dynamischen Umkonfiguration der automatisierten beweglichen Einrichtung erzeugt werden, ferner auf den potentiellen Wechselwirkungen zwischen den vorhergesagten Bewegungen des Menschen und den vorprogrammierten Bewegungen der automatisierten beweglichen Einrichtung im Arbeitsbereich basieren.
  20. Verfahren nach Anspruch 18, wobei das Filtern verwendet wird, um die nächsten vorhergesagten Bewegungen des Menschen zu bestimmen.
  21. Verfahren nach Anspruch 17, wobei das Ermöglichen der dynamischen Umkonfiguration der automatisierten beweglichen Einrichtung das Verringern einer Geschwindigkeit der automatisierten beweglichen Einrichtung umfasst, um die potentielle Wechselwirkung zwischen dem Menschen und der automatisierten beweglichen Einrichtung zu vermeiden.
  22. Verfahren nach Anspruch 17, wobei das Ermöglichen der dynamischen Umkonfiguration der automatisierten beweglichen Einrichtung das Erhöhen einer Geschwindigkeit der automatisierten beweglichen Einrichtung umfasst, um die potentielle Wechselwirkung zwischen dem Menschen und der automatisierten beweglichen Einrichtung zu vermeiden.
  23. Verfahren nach Anspruch 17, wobei das Ermöglichen der dynamischen Umkonfiguration der automatisierten beweglichen Einrichtung das dynamische Bestimmen und Durchlaufen eines neuen Bewegungsweges für die automatisierte bewegliche Einrichtung umfasst, um die potentielle Wechselwirkung zwischen dem Menschen und der automatisierten beweglichen Einrichtung zu vermeiden.
  24. Verfahren nach Anspruch 17, wobei das Ermöglichen der dynamischen Umkonfiguration der automatisierten beweglichen Einrichtung das Stoppen der automatisierten beweglichen Einrichtung umfasst, um die potentielle Wechselwirkung zwischen dem Menschen und der automatisierten beweglichen Einrichtung zu vermeiden.
  25. Verfahren nach Anspruch 16, wobei der Schritt des gemeinsamen Identifizierens des Menschen in jedem der aufgenommenen Bilder eine Farbprofilierung umfasst.
  26. Verfahren nach Anspruch 16, wobei der Schritt des gemeinsamen Identifizierens des Menschen in jedem der aufgenommenen Bilder das Anwenden einer Körperachsenmodellierung umfasst.
  27. Verfahren nach Anspruch 16, wobei der Schritt des Lokalisierens des Menschen im Arbeitsbereich das Anwenden einer integrierten Mehrfachansichts-Körperachsenabbildung umfasst.
  28. Verfahren nach Anspruch 16, wobei zusätzliche Arbeitsbereiche durch zusätzliche Erfassungsvorrichtungen auf Sichtbasis überwacht werden, wobei Daten in Bezug auf Menschen zwischen Arbeitsbereichen zum Integrieren eines Übergangs eines jeweiligen Menschen von einem ersten Arbeitsbereich in einen benachbarten Arbeitsbereich gemeinsam genutzt werden.
  29. Verfahren nach Anspruch 16, wobei eine Warnung in Ansprechen darauf ausgelöst wird, dass ein jeweiliger Mensch, der innerhalb des Arbeitsbereichs angeordnet ist, innerhalb des Arbeitsbereichs durch die mehreren Abbildungsvorrichtungen auf Sichtbasis undetektiert wird, bevor detektiert wird, dass der jeweilige Mensch den Arbeitsbereich verlässt.
  30. Verfahren nach Anspruch 16, wobei eine Warnung in Ansprechen auf das Detektieren eines jeweiligen Menschen innerhalb des Arbeitsraums durch die mehreren Abbildungsvorrichtungen auf Sichtbasis vor dem Detektieren, dass der jeweilige Mensch in den Arbeitsbereich eintritt, ausgelöst wird.
DE112010003000.6T 2009-08-28 2010-06-10 Sichtsystem zum Überwachen von Menschen in dynamischen Umgebungen Active DE112010003000B4 (de)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US12/549,425 2009-08-28
US12/549,425 US8253792B2 (en) 2009-08-28 2009-08-28 Vision system for monitoring humans in dynamic environments
PCT/US2010/038110 WO2011031360A1 (en) 2009-08-28 2010-06-10 Vision system for monitoring humans in dynamic environments

Publications (2)

Publication Number Publication Date
DE112010003000T5 DE112010003000T5 (de) 2012-06-28
DE112010003000B4 true DE112010003000B4 (de) 2021-11-04

Family

ID=43624307

Family Applications (1)

Application Number Title Priority Date Filing Date
DE112010003000.6T Active DE112010003000B4 (de) 2009-08-28 2010-06-10 Sichtsystem zum Überwachen von Menschen in dynamischen Umgebungen

Country Status (3)

Country Link
US (1) US8253792B2 (de)
DE (1) DE112010003000B4 (de)
WO (1) WO2011031360A1 (de)

Families Citing this family (73)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8718363B2 (en) * 2008-01-16 2014-05-06 The Charles Stark Draper Laboratory, Inc. Systems and methods for analyzing image data using adaptive neighborhooding
US8737703B2 (en) * 2008-01-16 2014-05-27 The Charles Stark Draper Laboratory, Inc. Systems and methods for detecting retinal abnormalities
KR101282196B1 (ko) * 2009-12-11 2013-07-04 한국전자통신연구원 다시점 영상에서 코드북 기반의 전경 및 배경 분리 장치 및 방법
US9377778B2 (en) * 2010-02-17 2016-06-28 The Boeing Company Integration of manufacturing control functions using a multi-functional vision system
EP2386876B1 (de) * 2010-05-04 2013-07-10 Sick AG Entfernungsmessender optoelektronischer Sicherheitssensor und Verfahren zur Überwachung eines Überwachungsbereichs
US8670029B2 (en) * 2010-06-16 2014-03-11 Microsoft Corporation Depth camera illuminator with superluminescent light-emitting diode
WO2012088403A2 (en) * 2010-12-22 2012-06-28 Seyyer, Inc. Video transmission and sharing over ultra-low bitrate wireless communication channel
EP2586314B1 (de) * 2011-10-25 2017-01-18 Albert Handtmann Maschinenfabrik GmbH & Co. KG Nahrungsmittelmaschine, insbesondere Maschine zum Verarbeiten und Herstellen von Wurst sowie Verfahren zu deren Betrieb
US9161012B2 (en) * 2011-11-17 2015-10-13 Microsoft Technology Licensing, Llc Video compression using virtual skeleton
CN103988136A (zh) * 2011-12-09 2014-08-13 戴姆勒股份公司 运行生产厂房的方法
US8704904B2 (en) 2011-12-23 2014-04-22 H4 Engineering, Inc. Portable system for high quality video recording
WO2013116810A1 (en) 2012-02-03 2013-08-08 H4 Engineering, Inc. Apparatus and method for securing a portable electronic device
WO2013131036A1 (en) 2012-03-01 2013-09-06 H4 Engineering, Inc. Apparatus and method for automatic video recording
AU2013225635B2 (en) 2012-03-02 2017-10-26 H4 Engineering, Inc. Waterproof Electronic Device
US9723192B1 (en) 2012-03-02 2017-08-01 H4 Engineering, Inc. Application dependent video recording device architecture
DE102012102236A1 (de) 2012-03-16 2013-09-19 Pilz Gmbh & Co. Kg Verfahren und Vorrichtung zum Absichern eines gefährlichen Arbeitsbereichs einer automatisiert arbeitenden Maschine
EP2870748A4 (de) 2012-07-06 2016-03-09 H4 Eng Inc Ferngesteuertes automatisches kameraverfolgungssystem
US9165190B2 (en) * 2012-09-12 2015-10-20 Avigilon Fortress Corporation 3D human pose and shape modeling
WO2014067000A1 (en) 2012-10-29 2014-05-08 7D Surgical Inc. Integrated illumination and optical surface topology detection system and methods of use thereof
US9410980B2 (en) 2013-02-20 2016-08-09 Toyota Motor Engineering & Manufacturing North America, Inc. Work monitoring system
US9804576B2 (en) * 2013-02-27 2017-10-31 Rockwell Automation Technologies, Inc. Recognition-based industrial automation control with position and derivative decision reference
US9798302B2 (en) * 2013-02-27 2017-10-24 Rockwell Automation Technologies, Inc. Recognition-based industrial automation control with redundant system input support
US9498885B2 (en) 2013-02-27 2016-11-22 Rockwell Automation Technologies, Inc. Recognition-based industrial automation control with confidence-based decision support
US9393695B2 (en) * 2013-02-27 2016-07-19 Rockwell Automation Technologies, Inc. Recognition-based industrial automation control with person and object discrimination
JP2015095802A (ja) * 2013-11-13 2015-05-18 ソニー株式会社 表示制御装置、表示制御方法、およびプログラム
JP5939267B2 (ja) * 2014-03-05 2016-06-22 株式会社安川電機 ロボット監視システム、ロボット監視装置、ロボット監視方法、ロボット監視モジュール、およびロボット監視プログラム
US9251598B2 (en) * 2014-04-10 2016-02-02 GM Global Technology Operations LLC Vision-based multi-camera factory monitoring with dynamic integrity scoring
CN104933436B (zh) * 2014-03-19 2018-09-14 通用汽车环球科技运作有限责任公司 具有动态完整性评分的基于视觉的多摄像头工厂监测
US9524426B2 (en) * 2014-03-19 2016-12-20 GM Global Technology Operations LLC Multi-view human detection using semi-exhaustive search
CN104933392A (zh) * 2014-03-19 2015-09-23 通用汽车环球科技运作有限责任公司 使用多视图融合的概率性人追踪
JP6402469B2 (ja) * 2014-04-04 2018-10-10 富士電機株式会社 安全制御装置および安全制御システム
US20150294143A1 (en) * 2014-04-10 2015-10-15 GM Global Technology Operations LLC Vision based monitoring system for activity sequency validation
US9921300B2 (en) 2014-05-19 2018-03-20 Rockwell Automation Technologies, Inc. Waveform reconstruction in a time-of-flight sensor
US9256944B2 (en) * 2014-05-19 2016-02-09 Rockwell Automation Technologies, Inc. Integration of optical area monitoring with industrial machine control
US11243294B2 (en) 2014-05-19 2022-02-08 Rockwell Automation Technologies, Inc. Waveform reconstruction in a time-of-flight sensor
US9696424B2 (en) 2014-05-19 2017-07-04 Rockwell Automation Technologies, Inc. Optical area monitoring with spot matrix illumination
DE102014210594A1 (de) * 2014-06-04 2015-12-17 Robert Bosch Gmbh Verfahren und Vorrichtung zum Betreiben einer Fertigungsanlage
US9752991B2 (en) 2014-06-13 2017-09-05 Canon Kabushiki Kaisha Devices, systems, and methods for acquisition of an angular-dependent material feature
CN106660215B (zh) * 2014-07-02 2021-09-17 西门子公司 预警系统和机器人系统
DE102014218096A1 (de) * 2014-09-10 2016-03-10 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Verfahren und Vorrichtung zur Überwachung eines Fertigungs- und/oder Montageprozesses
US9625108B2 (en) 2014-10-08 2017-04-18 Rockwell Automation Technologies, Inc. Auxiliary light source associated with an industrial application
US9877292B2 (en) * 2014-11-20 2018-01-23 Qualcomm Incorporated Collaborative data capturing apparatuses and methods
US9914218B2 (en) * 2015-01-30 2018-03-13 Toyota Motor Engineering & Manufacturing North America, Inc. Methods and apparatuses for responding to a detected event by a robot
US10043146B2 (en) * 2015-02-12 2018-08-07 Wipro Limited Method and device for estimating efficiency of an employee of an organization
US10037504B2 (en) * 2015-02-12 2018-07-31 Wipro Limited Methods for determining manufacturing waste to optimize productivity and devices thereof
US9844881B2 (en) * 2015-06-22 2017-12-19 GM Global Technology Operations LLC Robotic device including machine vision
US10417599B2 (en) * 2015-09-04 2019-09-17 Cisco Technology, Inc. Time and motion data fusion for high fidelity data sets
DE102015220495A1 (de) * 2015-10-21 2017-04-27 Kuka Roboter Gmbh Schutzfeldanpassung eines Manipulatorsystems
US10762459B2 (en) 2015-12-30 2020-09-01 International Business Machines Corporation Risk detection and peer corrective assistance for risk mitigation within a work environment
US10839717B2 (en) 2016-01-11 2020-11-17 Illinois Tool Works Inc. Weld training systems to synchronize weld data for presentation
JP6504072B2 (ja) * 2016-02-15 2019-04-24 オムロン株式会社 作業領域推定装置、制御装置、制御システム、作業領域推定方法およびプログラム
JP6504073B2 (ja) * 2016-02-15 2019-04-24 オムロン株式会社 作業領域推定装置、制御装置、制御システム、作業領域推定方法およびプログラム
US10924881B2 (en) * 2016-03-03 2021-02-16 Husqvarna Ab Device for determining construction device and worker position
US10186130B2 (en) 2016-07-28 2019-01-22 The Boeing Company Using human motion sensors to detect movement when in the vicinity of hydraulic robots
US11518051B2 (en) 2017-02-07 2022-12-06 Veo Robotics, Inc. Dynamic, interactive signaling of safety-related conditions in a monitored environment
US11541543B2 (en) 2017-02-07 2023-01-03 Veo Robotics, Inc. Dynamic, interactive signaling of safety-related conditions in a monitored environment
CA3052961A1 (en) 2017-02-07 2018-08-16 Veo Robotics, Inc. Workspace safety monitoring and equipment control
US11820025B2 (en) 2017-02-07 2023-11-21 Veo Robotics, Inc. Safe motion planning for machinery operation
EP3673650A4 (de) 2017-08-23 2020-07-15 Siemens Healthcare Diagnostics Inc. Sichtsystem für laborarbeitsabläufe
US11072071B2 (en) * 2017-09-19 2021-07-27 Autodesk, Inc. Modifying robot dynamics in response to human presence
US10679082B2 (en) * 2017-09-28 2020-06-09 Ncr Corporation Self-Service Terminal (SST) facial authentication processing
DE102017221305A1 (de) * 2017-11-23 2019-05-23 Robert Bosch Gmbh Verfahren zum Betreiben eines kollaborativen Roboters
EP3572971B1 (de) * 2018-05-22 2021-02-24 Sick Ag Absichern eines überwachungsbereichs mit mindestens einer maschine
US10630944B2 (en) * 2018-07-09 2020-04-21 Zebra Technologies Corporation Method and system for door status detection and alert generation
EP3843956A4 (de) * 2018-08-30 2021-12-22 Veo Robotics, Inc. Systemidentifikation der dynamik industrieller roboter für sicherheitskritische anwendungen
EP3628620B1 (de) 2018-09-27 2023-04-26 Otis Elevator Company Aufzugsystem
JP7282186B2 (ja) 2019-02-12 2023-05-26 コモンウェルス サイエンティフィック アンド インダストリアル リサーチ オーガナイゼーション 状況認識監視
EP3959045A1 (de) * 2019-05-31 2022-03-02 Siemens Aktiengesellschaft Verfahren für dynamische multidimensionale raum-zeitliche mensch-maschine-interaktion und rückkopplung
EP4052867A1 (de) * 2019-08-23 2022-09-07 Veo Robotics, Inc. Sicherer betrieb von maschinen mithilfe von hüllkurven der potenziellen belegung
EP3783583B1 (de) * 2019-08-23 2023-09-27 UTC Fire & Security EMEA BVBA Verfahren und vorrichtung zur definition einer detektionszone
CN112802303A (zh) * 2021-02-09 2021-05-14 成都视海芯图微电子有限公司 一种基于3d视觉的实时风险预测方法及系统
CN117897737A (zh) * 2021-10-11 2024-04-16 深圳市大疆创新科技有限公司 一种无人机监控方法、装置、无人机及监控设备
US20230230379A1 (en) * 2022-01-19 2023-07-20 Target Brands, Inc. Safety compliance system and method

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20050196047A1 (en) 2004-02-03 2005-09-08 Yuri Owechko Object recognition system incorporating swarming domain classifiers

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5323470A (en) * 1992-05-08 1994-06-21 Atsushi Kara Method and apparatus for automatically tracking an object
KR100193808B1 (ko) * 1995-02-28 1999-06-15 윤종용 감시용 시스템의 이상발생위치 집중감시방법
US6188777B1 (en) * 1997-08-01 2001-02-13 Interval Research Corporation Method and apparatus for personnel detection and tracking
US7200246B2 (en) * 2000-11-17 2007-04-03 Honeywell International Inc. Object detection
US7768549B2 (en) * 2001-06-08 2010-08-03 Honeywell International Inc. Machine safety system with mutual exclusion zone
US7729511B2 (en) * 2002-09-24 2010-06-01 Pilz Gmbh & Co. Kg Method and device for safeguarding a hazardous area
DE102006057605A1 (de) 2006-11-24 2008-06-05 Pilz Gmbh & Co. Kg Verfahren und Vorrichtung zum Überwachen eines dreidimensionalen Raumbereichs
KR100853744B1 (ko) * 2007-04-12 2008-08-25 포스데이타 주식회사 영상감시장치 및 상황변화 감지방법
KR100886847B1 (ko) * 2007-08-21 2009-03-04 한국해양연구원 선박 내 승무원 또는 승객의 위치를 추적하는 시스템 및방법

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20050196047A1 (en) 2004-02-03 2005-09-08 Yuri Owechko Object recognition system incorporating swarming domain classifiers

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
„Multi-camera People Tracking by Collaborative Particle Filters and Principal Axis-Based Integration" von Wei Du und Justus Piater in Computer Vision-ACCV 2007, Springer Berlin Heidelberg, 2007, Seiten 365 bis 374
DU, Wei; PIATER, Justus. Multi-camera people tracking by collaborative particle filters and principal axis-based integration. In: Computer Vision–ACCV 2007. Springer Berlin Heidelberg, 2007. S. 365-374. doi: 10.1007/978-3-540-76386-4_34
KHAN, Saad M.; SHAH, Mubarak. Tracking multiple occluding people by localizing on multiple scene planes. Pattern Analysis and Machine Intelligence, IEEE Transactions on, March 2009, Vol. 31 (3): 505-519. doi: 10.1109/TPAMI.2008.102

Also Published As

Publication number Publication date
WO2011031360A1 (en) 2011-03-17
DE112010003000T5 (de) 2012-06-28
US20110050878A1 (en) 2011-03-03
US8253792B2 (en) 2012-08-28

Similar Documents

Publication Publication Date Title
DE112010003000B4 (de) Sichtsystem zum Überwachen von Menschen in dynamischen Umgebungen
DE102014106210B4 (de) Probabilistische Personennachführung unter Verwendung der Mehr- Ansichts-Vereinigung
DE102014105351B4 (de) Detektion von menschen aus mehreren ansichten unter verwendung einer teilumfassenden suche
DE102015104954A1 (de) Sichtbasiertes Überwachungssystem zur Validierung von Aktivitätssequenzen
DE102014106211A1 (de) Sichtbasierte Mehrkamera-Fabriküberwachung mit dynamischer Integritätsbewertung
EP1586805B1 (de) Verfahren zur Überwachung eines Überwachungsbereichs
EP2122572B1 (de) Verfahren und vorrichtung zum sichern eines arbeitsraums
EP2558886B1 (de) Einrichtung zur überwachung mindestens eines dreidimensionalen sicherheitsbereichs
DE102005026876B4 (de) Fahrzeugumgebungs-Überwachungsvorrichtung
EP3011225B1 (de) Vorrichtung und verfahren zum absichern einer automatisiert arbeitenden maschine
DE102006048163B4 (de) Kamerabasierte Überwachung bewegter Maschinen und/oder beweglicher Maschinenelemente zur Kollisionsverhinderung
EP3611422B1 (de) Sensoranordnung und verfahren zum absichern eines überwachungsbereichs
EP3578319B1 (de) Verfahren zum absichern einer gefahrenstelle
EP3701340A1 (de) Überwachungsvorrichtung, industrieanlage, verfahren zur überwachung sowie computerprogramm
EP3578320B1 (de) Konfigurieren einer von einem 3d-sensor überwachten gefahrenstelle
EP3421191A1 (de) Sensor zum absichern einer maschine
EP0853299A2 (de) Verfahren und Vorrichtung zur Ansteuerung von Türanlagen in Abhängigkeit von der Anwesenheit von Personen
DE102009034848B4 (de) Optoelektronischer Sensor
DE102017213601A1 (de) Verfahren zum Erstellen einer Objektkarte für eine Fabrikumgebung
DE19621612A1 (de) Verfahren und Vorrichtung zur optischen Freiraumüberwachung
DE102016222245A1 (de) Einrichtung und Verfahren zur Einwirkung auf Gegenstände
DE10042935A1 (de) Verfahren zum Überwachen eines vorbestimmten Bereichs und entsprechendes System
DE102019127826B4 (de) Sicherer optoelektronischer Sensor und Verfahren zum Absichern eines Überwachungsbereichs
DE102021116177A1 (de) System und Verfahren zur Erkennung und Vermeidung von Bildfehlern
EP3893145A1 (de) Absicherung einer gefahrenstelle

Legal Events

Date Code Title Description
R163 Identified publications notified
R012 Request for examination validly filed
R082 Change of representative

Representative=s name: MANITZ FINSTERWALD PATENTANWAELTE PARTMBB, DE

Representative=s name: MANITZ, FINSTERWALD & PARTNER GBR, DE

R083 Amendment of/additions to inventor(s)
R016 Response to examination communication
R018 Grant decision by examination section/examining division
R020 Patent grant now final