DE102014219754B4 - Gestenbasierte industrielle Überwachung - Google Patents
Gestenbasierte industrielle Überwachung Download PDFInfo
- Publication number
- DE102014219754B4 DE102014219754B4 DE102014219754.6A DE102014219754A DE102014219754B4 DE 102014219754 B4 DE102014219754 B4 DE 102014219754B4 DE 102014219754 A DE102014219754 A DE 102014219754A DE 102014219754 B4 DE102014219754 B4 DE 102014219754B4
- Authority
- DE
- Germany
- Prior art keywords
- image
- mobile object
- generate
- gesture
- logic
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L67/00—Network arrangements or protocols for supporting network services or applications
- H04L67/01—Protocols
- H04L67/12—Protocols specially adapted for proprietary or special-purpose networking environments, e.g. medical networks, sensor networks, networks in vehicles or remote metering networks
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- Psychiatry (AREA)
- Multimedia (AREA)
- Social Psychology (AREA)
- Computing Systems (AREA)
- Medical Informatics (AREA)
- Computer Networks & Wireless Communication (AREA)
- Signal Processing (AREA)
- Computer Vision & Pattern Recognition (AREA)
- User Interface Of Digital Computer (AREA)
- Image Analysis (AREA)
Abstract
Description
- Technisches Gebiet
- Diese Offenbarung betrifft eine automatisierte Überwachung. Diese Offenbarung betrifft ebenso eine Überwachung über erkannte Maschinengesten.
- Hintergrund
- Maschinensichtsysteme gestatten eine computergesteuerte visuelle Interaktion mit einer Vielzahl von Umgebungen. Beispielsweise kann eine automatisierte Steuerung von Motorfahrzeugen unter Verwendung von Maschinensichtsystemen möglich sein. Maschinensichtsysteme können Bildgebungs- und andere Visualisierungstechnologien verwenden, wie beispielsweise Sonar, Radar, Sonographie, Infrarotbildgebung und/oder andere Visualisierungstechnologien. In industriellen Umfeldern wird eine Videoüberwachung verwendet, um Betriebe zu beaufsichtigen und Sicherheit und Schutz bereitzustellen. Menschliche Bedienungspersonen können mehrere Ansichtsbildschirme verwenden, um Betriebe bei entfernten Orten zu überwachen. Die Bedienungsperson kann in der Lage sein, einen falschen Betrieb, Sicherheitsbrüche und/oder Sicherheitsprobleme von den Ansichtsbildschirmen zu erfassen. Eine Fernüberwachung über einen Ansichtsbildschirm kann die Notwendigkeit für eine persönliche Überwachung, beispielsweise vor Ort oder bei dem Punkt einer industriellen Aktivität, verringern.
- Die
DE 10 2012 105 401 B3 beschreibt eine 3D-Kamera und ein Verfahren zur Bestimmung des diffusen Remissionsvermögens von Objekten, wobei das diffuse Remissionsvermögen erfasster Objekte in dem Überwachungsbereich eine Auswirkung auf die Qualität der Tiefenkarte hat und diese Qualität über eine Korrelationsgüte bei der Erzeugung der Tiefenkarte quantifiziert wird. Um das Remissionsverhalten auszumessen, werden mehrere Tiefenkarten bei unterschiedlichen Belichtungszeiten erfasst und daraus eine Messkurve abgeleitet, welche die Korrelationsgüte in Abhängigkeit von der Belichtungszeit beschreibt. - Die
DE 20 2008 017 962 U1 beschreibt eine Beleuchtungseinheit zur Beleuchtung eines Überwachungsbereichs mit einem zumindest lokal selbstunähnlichen Muster, d.h. Musterstrukturen wiederholen sich frühestens in einem gewissen Abstand oder außerhalb einer Umgebung. Diese Umgebung ist im Falle der Verwendung der Beleuchtungseinheit mit einem stereoskopischen Sensor durch diejenige Umgebung vorgegeben, innerhalb derer der Stereoalgorithmus Korrespondenzen in den beiden Bildern sucht. - Die
DE 60 2004 009 793 T2 beschreibt ein Objektdetektionssystem, das für dynamische Beleuchtungsbedingungen weniger anfällig und gegenüber einer dreidimensionalen Objektbewegung oder einer dreidimensionalen Objektpräsenz empfindlicher ist durch Projizieren eines oder mehrerer Muster auf dem überwachten Bereich, Erfassen eines oder mehrerer direkter Bilder des überwachten Bereichs, einschließlich des einen oder der mehreren Muster, und Detektieren von Objekten in dem überwachten Bereich durch Detektieren von Änderungen bei dem einen oder den mehreren Mustern in ausgewählten erfaßten Bildern. - Die
US 7 167 575 B1 beschreibt eine zweidimensionale maschinelle Bildverarbeitungssicherheitslösung, die ein Verfahren und eine Vorrichtung zum Durchführen einer hochintegrierten, hocheffizienten maschinellen Bildverarbeitung umfasst, wobei ein bekanntes strukturiertes Beleuchtungstexturmuster auf einen Zielbereich projiziert wird und während eines anfänglichen Trainingsschritts ein Modellbild des Musters auf einem leeren Zielfeld gespeichert wird. Die Sicherheitslösung für maschinelles Sehen interpretiert ein Kamerabild des von den Objekten im Zielbereich reflektierten Lichts digital, um ein Muster im Bild zu erkennen und durch Mustercharakterisierung zu bestimmen, ob eine Verzerrung der Charakterisierungsfaktoren größer als ein vorbestimmter Schwellenwert ist, und zu einem Alarmzustand führt. - Die
DE 10 2007 036 129 B3 beschreibt eine Vorrichtung zur Überwachung eines Raumbereichs mit mindestens zwei Bildsensoren und einer angeschlossenen Steuerung, wobei mittels der Bildsensoren ein erstes Bildpaar aufgenommen und zu einem dreidimensionalen ersten Einzel-Entfernungsbild des Raumbereichs verrechnet wird. Eine Dynamisierungseinrichtung kann die Aufnahmebedingungen des Raumbereichs oder der Bildsensoren verändern, so dass die Bildsensoren ein zweites Bildpaar bei gegenüber dem ersten Bildpaar durch die Dynamisierungseinrichtung veränderten Aufnahmebedingungen aufnehmen, die zu einem dreidimensionalen zweiten Einzel-Entfernungsbild des Raumbereichs verrechnet werden und aus dem ersten Einzel-Entfernungsbild und dem zweiten Einzel-Entfernungsbild ein Gesamt-Entfernungsbild ermittelt wird. - Figurenliste
-
-
1 zeigt ein Beispiel einer Umgebung, die eine automatisierte Betriebsüberwachung implementiert. -
2 zeigt eine beispielhafte Gestenlogik. -
3 zeigt beispielhafte Gestenerkennungsszenarios. -
4 zeigt eine beispielhafte Strukturiertes-Licht-Bildgebungsverarbeitung. - Ausführliche Beschreibung
- Überwachungsbetriebe in einer industriellen Umgebung können eine Herausforderung darstellen. In einigen Fällen kann Personal verwendet werden, um Videoeinspeisungen zu überwachen und/oder direkt ein Gerät und/oder anderes Personal anzusehen, um einen Betriebsstatus von Systemen in der industriellen Umgebung zu bestimmen. In einigen Fällen kann die Überwachungsverarbeitung ein Ansehen einer sich wiederholenden Verarbeitung für ausgedehnte Zeitdauern umfassen, um Unterbrechungen in den Wiederholungen zu erfassen. In einigen Fällen kann das Personal Unterbrechungen in seiner Aufmerksamkeit erfahren, wobei Ereignisse von Interesse versäumt werden können. Beispielsweise kann eine Person, die mit einer Überwachung einer Herstellungsvorrichtung in einer Montagelinie beauftragt ist, einschlafen. In einigen Fällen kann die schlafende Person daran scheitern, eine Betriebsstörung in einer Vorrichtung in einem Fenster zu berichten, um ein schwerwiegenderes Problem (beispielsweise einen Stillstand der Linie usw.) zu vermeiden. Zusätzlich oder alternativ hierzu kann das Personal nicht in der Lage sein, Ereignisse von Interesse zu erkennen. Beispielsweise kann eine Person einen anormalen Betrieb einer Vorrichtung ansehen, aber daran scheitern, den Betrieb als anormal zu identifizieren. In einem anderen Beispiel scheitert das überwachende Personal daran, eine Situation zu identifizieren, in der eine Person, die eine Vorrichtung bedient (beispielsweise ein Fahrzeug und/oder eine schwere Maschine usw.), ihren Aufgaben keine Aufmerksamkeit schenkt. In einigen Fällen kann es von Vorteil sein, automatisierte Techniken für eine industrielle Betriebsüberwachung zu implementieren, um eine Überwachung durch Personal zu verbessern und/oder zu ersetzen.
-
1 zeigt ein Beispiel einer Umgebung 100, die eine automatisierte Betriebsüberwachung implementiert. Die Umgebung 100 kann eine beliebige industrielle Umgebung sein, wie beispielsweise eine Herstellungsmontagelinie, eine Verarbeitungsfabrik für industrielle Materialien oder ein Fabriklagerbereich. Insbesondere ist die Umgebung 100, die in1 gezeigt ist, eine industrielle Umgebung, die die Produktionslinie 110 umfasst. Die Umgebung 100 ist nicht auf industrielle Umfelder begrenzt, wobei jede Umgebung, in der eine Sicherheitsmerkmalbereitstellung, die nachstehend diskutiert wird, nützlich sein könnte, eine Möglichkeit darstellt, wie beispielsweise in einem Fahrzeug, einem Krankenhaus, einem Themenpark oder einem Gefängnis. Beispielsweise können Fehler bei Überwachungsbetrieben in einem Krankenhaus Schädigungen für Patienten und/oder Angestellte zur Folge haben. - Eine Umgebung 100 kann eine beliebige Anzahl von Vorrichtungen umfassen. Die beispielhafte industrielle Umgebung 100 in
1 umfasst Herstellungsvorrichtungen 111-117, Steuerungsvorrichtungen 121 und 122, drahtlose Zugangspunkte (AP) 131 und 132 sowie mehrere Sensoren, die als Sensoren 141-151 bezeichnet sind. Zusätzliche oder alternative Vorrichtungen können in der industriellen Umgebung 100 vorhanden sein, einschließlich beispielsweise Netzwerkvorrichtungen, wie beispielsweise Hubs, Switches, Router oder Brücken, Datenserver, Betätigungseinrichtungen, Generatoren, Motoren, Maschinen, Überwachungsvorrichtungen (wie beispielsweise Videokameras oder andere Bildgebungseinrichtungen), Lichtquellen, Computer, Verwaltungs- oder Steuerungssysteme, Umgebungsverwaltungsvorrichtungen, Analysesysteme, Kommunikationsvorrichtungen und eine beliebige mobile Vorrichtung, wie beispielsweise ein Mobiltelefon, ein Tablett und dergleichen. - Die Herstellungseinrichtungen 111-117 sind entlang der Produktionslinie 110 positioniert. Die Herstellungsvorrichtungen 111-117 können als eine beliebige Maschine, ein Roboter, Betätigungseinrichtungen, Werkzeugbereitstellungen, oder andere Elektronik implementiert sein, die an einem Zusammenbau bzw. einer Montageverarbeitung (oder einer Demontageverarbeitung) entlang der Produktionslinie 110 teilnehmen. Die Herstellungsvorrichtungen 111-117 sind kommunikativ mit Steuerungsvorrichtungen verknüpft, durch die die Herstellungsvorrichtungen 111-117 Steuerungssignale empfangen, die die Herstellungsvorrichtungen 111-117 überwachen, führen oder steuern. In
1 ist die Steuerungsvorrichtung 121 kommunikativ mit den Herstellungsvorrichtungen 111-113 verknüpft, und die Steuerungsvorrichtung 122 ist kommunikativ mit den Herstellungsvorrichtungen 114-117 verknüpft. In einigen Variationen ist die Steuerungsvorrichtung 112 eine Steuerungseinrichtung mit programmierbarer Logik (PLC). - Die Sensoren 141-151 können verschiedene Orte bzw. Stellen in der industriellen Umgebung 100 überwachen. In
1 sind die Sensoren 141-151 bei vorbestimmten Überwachungsorten entlang der Produktionslinie 110 und benachbart zu den Herstellungsvorrichtungen 111-117 positioniert. Die Sensoren 141-151 können Umgebungsdaten zur Überwachung der Umgebung 100 erfassen, wie beispielsweise visuelle Daten, Audiodaten, Temperaturdaten, Positions- oder Bewegungsdaten oder beliebige andere Umgebungsdaten, die eine Eigenschaft der industriellen Umgebung 100 angeben. Die Sensoren 141-151 können erfasste Daten an eine beliebige Vorrichtung in der industriellen Umgebung 100, ein Analysesystem oder ein Überwachungssystem kommunizieren. Wie es nachstehend beschrieben ist, kann das Überwachungssystem eine Gestenerkennung umfassen, um automatisierte Antworten auf Änderungen in einem Betriebsstatus und/oder andere durch eine Überwachung initiierte Antworten zu vereinfachen. - Die industrielle Umgebung 100 unterstützt mehrere Kommunikationsverbindungen zwischen beliebigen der Vorrichtungen in und/oder außerhalb der industriellen Umgebung 100. Die mehreren Kommunikationsverbindungen können Redundanz- oder Ausfallsicherungsfähigkeiten zwischen den kommunizierenden Vorrichtungen bereitstellen. Als ein derartiges Beispiel, das in
1 gezeigt ist, ist die Steuerungsvorrichtung 121 mit der Herstellungsvorrichtung 111 über einen verdrahteten Kommunikationspfad (beispielweise durch ein Kabel) und einen drahtlosen Kommunikationspfad (beispielsweise über den drahtlosen Zugangspunkt 131) verbunden. Die Herstellungsvorrichtungen 111-117 können diesbezüglich über mehrere Technologien kommunizieren, die eine beliebige Anzahl von verdrahteten Technologien und/oder drahtlosen Technologien umfassen. Um die Kommunikationsverbindungen zu unterstützen, können die Steuerungsvorrichtung 121 und die Herstellungsvorrichtungen 111-117 eine Logik umfassen, um Kommunikationsprotokolle und Sicherheitsmerkmale auszuführen. Beispielsweise können die Vorrichtungen Hauptterminaleinheiten (Master Terminal Units bzw. MTU), programmierbare Logiksteuerungseinrichtungen (PLC) und/oder programmierbare Anordnungssteuerungseinrichtungen (PAC) umfassen. Beispielsweise kann in einigen Implementierungen ein Sicherheitsmerkmal (beispielsweise eine Endpunkt-Zu-Endpunkt-Verschlüsselung) Schutz bei einer Kommunikationsverbindung zwischen einer MTU bei einer Steuerungsvorrichtung und einer PLC bei einer Herstellungsvorrichtung bereitstellen. Die Kommunikationsverbindungen können eine Übertragung von Bildern, beispielsweise Video, Fotographie, Sonographie usw., zur Verarbeitung bei Steuerungsvorrichtungen oder anderen Datenverarbeitungseinrichtungen vereinfachen. - Eine Vorrichtung in der industriellen Umgebung 100 kann eine Kommunikationsschnittstelle umfassen, die mehrere Kommunikationsverbindungen mit anderen Vorrichtungen innerhalb oder außerhalb der industriellen Umgebung 100 unterstützt. Eine Kommunikationsschnittstelle kann konfiguriert sein, entsprechend einer Kommunikationsbetriebsart oder mehreren Kommunikationsbetriebsarten, beispielsweise entsprechend verschiedener Kommunikationstechniken, Standards, Protokolle, oder über verschiedene Netzwerke oder Strukturen zu kommunizieren. Die Kommunikationsschnittstelle kann eine Kommunikation entsprechend spezifischer Dienstqualitätstechniken (Quality-of-Service bzw. QoS), Kodierungsformaten, über verschiedene physikalische (PHY-) Schnittstellen und mehr unterstützen. Beispielsweise kann eine Kommunikationsschnittstelle entsprechend einer der nachstehend genannten Netzwerktechnologien, Strukturen, Medien, Protokolle oder Standards kommunizieren: Ethernet einschließlich Industrie-Ethernet, beliebige offene oder proprietäre Industriekommunikationsprotokolle, Kabel (beispielsweise DOCSIS), DSL, Multimedia over Coax Alliance (MoCA), eine Stromleitung (beispielsweise HomePlug AV), Ethernet Passive Optical Network (EPON), Gigabit Passive Optical Network (GPON), eine beliebige Anzahl von zellularen Standards (beispielsweise 2G, 3G, Universal Mobile Telecommunication Systems (UMTS), GSM (R) Association, Long Term Evoluation (LTE) (TM) oder mehr), WiFi (einschließlich 802.11 a/b/g/n/ac), WiMAX, Bluetooth, WiGig (beispielsweise 802.11ad) und irgendeine andere verdrahtete oder drahtlose Technologie oder ein entsprechendes Protokoll. Die Steuerungsvorrichtung 121 umfasst als ein Beispiel die Kommunikationsschnittstelle 160.
- Die Steuerungsvorrichtung 121 kann eine Gestenlogik 161 zur Verarbeitung von Bildern umfassen, um die nachstehend beschriebenen Gestenerkennungstechniken zu vereinfachen. Beispielsweise kann die Gestenlogik 161 Verarbeitungseinrichtungen 164 (beispielsweise Grafikverarbeitungseinheiten (GPU), Mehrzweckverarbeitungseinrichtungen und/oder andere Verarbeitungsvorrichtungen) und einen Speicher 166 umfassen, um aufgezeichnete Bilder für eine Gestenerkennung zu analysieren. In einigen Implementierungen kann eine Abbildungseinrichtung bzw. ein Bildgeber 190 (beispielsweise eine 3-D Kamera usw.) einen optischen Sensor 192 (beispielsweise einen 3-D Sensor usw.) umfassen, der Bilder von einem mobilen Gegenstand oder mehreren mobilen Gegenständen (beispielsweise Herstellungsvorrichtungen 111-117) aufnehmen kann. Der Bildgeber kann die Bilder (beispielsweise über ein Netzwerk oder in einer kombinierten Bildgebungs- und Verarbeitungsvorrichtung) zu der Gestenlogik 161 übertragen. Die Gestenlogik 161 kann eine Bewegungsverarbeitung 163 (beispielsweise eine Gestenerkennungs-Middleware usw.) laufen lassen. Die Bewegungsverarbeitung 163 kann eine Bewegung innerhalb der Bilder identifizieren und Vergleiche mit bestimmten Gesten ausführen. Die Bewegungsverarbeitungssoftware kann bestimmen, ob die identifizierte Bewegung in den Bildern einer oder mehreren der bestimmten Gesten entspricht.
-
2 zeigt eine beispielhafte Gestenlogik 161. Die Gestenlogik 161 kann ein aufgenommenes Bild oder mehrere aufgenommene Bilder empfangen (202), das/die die Bewegung eines mobilen Gegenstands zeigt/zeigen. Beispielsweise können die Bilder ein Live-Video umfassen, das die derzeitige Bewegung eines Gegenstands zeigt. In einigen Implementierungen können die Bilder 3-D-Bilder sein, die Daten über die Position des mobilen Gegenstands in einem 3-D-Raum beinhalten. Der mobile Gegenstand kann nahezu jedes Objekt oder eine Gruppe von Objekten in Bewegung umfassen, beispielsweise ein Person oder ein Tier, eine Maschine, ein lebloses Objekt, das manipuliert wird, usw.. - Die Gestenlogik 161 kann eine Abbildung der Bewegung des mobilen Gegenstands in einem Raum erzeugen (204). Beispielsweise kann die Gestenlogik 161 die Bewegung des mobilen Gegenstands in 3-D auf der Grundlage von Positionsdaten in 3-D-Bildern abbilden. Um eine Abbildung der Bewegung des mobilen Gegenstands zu vereinfachen kann die Gestenlogik 161 die Bewegungsverarbeitung 163 bei den aufgenommenen Bildern anwenden. In verschiedenen Implementierungen kann die Bewegungsverarbeitung 163 eine Hintergrundmodellierung und Subtraktion zum Entfernen von Hintergrundinformationen in den Bildern anwenden. In einigen Implementierungen kann die Bewegungsverarbeitung 163 eine Merkmalsextraktion zur Bestimmung der Grenzen bei dem mobilen Gegenstand oder den mobilen Gegenständen in den aufgenommenen Bildern anwenden. In einigen Fällen kann die Bewegungsverarbeitung 163 eine Bildelementverarbeitung anwenden, um die aufgenommenen Bilder für eine Analyse bereit zu machen. In einigen Implementierungen kann die Bewegungsverarbeitung 163 Bahnverfolgungs- und Erkennungsroutinen anwenden, um die Bewegung der aufgenommenen Bilder zu identifizieren, die auf die Bewegung des einen mobilen Gegenstands oder der mehreren mobilen Gegenstände, die analysiert werden, zutrifft. Beispielsweise kann eine Hintergrundmodellierung und Subtraktion Verarbeitungen umfassen, wie beispielsweise eine Luminanzextraktion aus Farbbildern (beispielsweise YUV:422), eine Berechnung eines gleitenden Mittelwerts und einer Varianz (beispielsweise exponentiell gewichtet oder gleichförmig gewichtet usw.), eine statistische Hintergrundsubtraktion, eine gemischte Gauss-Hintergrundsubtraktion, morphologische Operationen (beispielsweise Erosion, Dilatation bzw. Streckung, usw.), eine Markierung von verbundenen Komponenten und/oder eine andere Hintergrundmodellierung und Subtraktion. In einigen Implementierungen kann eine Merkmalsextraktion eine Harris-Corner-Score-Berechnung, Hough-Transformationen für Linien, eine Histogrammberechnung (beispielsweise für ganzzahlige Skalare, mehrdimensionale Vektoren usw.), eine Legendre-Momentberechnung, eine Canny-Edge-Erfassung (beispielsweise durch Glätten, eine Gradientenberechnung, eine Nicht-Maximum-Unterdrückung, eine Hysterese usw.) und/oder andere Merkmalsextraktionsverarbeitungen umfassen. In verschiedenen Implementierungen kann eine Bildelementverarbeitung eine Farbumwandlung (beispielsweise YUV:422 zu YUV planar, RGB, LAB, HSI, usw.), eine integrale Bildverarbeitung, eine Bildpyramidenberechnung (beispielsweise eine 2x2-Blockmittelwertbildung, ein Gradient, eine Gauss-Glocke oder eine andere Bildpyramidenberechnung), eine Nicht-Maximum-Unterdrückung (beispielsweise 3x3, 5x5, 7x7 usw.), eine Filterung mit rekursiver unendlicher Impulsantwort, eine auf der Summe der absoluten Differenzen basierende Disparität für Stereobilder und/oder eine andere Bildelementverarbeitung umfassen. In einigen Implementierungen kann eine Bahnverfolgung und Erkennung eine Lucas-Kanade-Merkmalsverfolgung (beispielsweise 7x7 usw.), eine Kalman-Filterung, eine Nelder-Mead-Simplex-Optimierung, eine Bhattacharya-Entfernungsberechnung und/oder andere Bahnverfolgungs- und Erkennungsverarbeitungen umfassen.
- Die Gestenlogik 161 kann auf eine gespeicherte Abbildung oder mehrere gespeicherte Abbildungen zugreifen (206), die bestimmten Gesten entsprechen kann/können. Beispielsweise kann die Abbildung eine Benennung einer Abfolge von Positionen umfassen, die der mobile Gegenstand abfahren kann, um die Geste zu vervollständigen. Zusätzlich oder alternativ hierzu kann die Abbildung relative Elemente beinhalten. Beispielsweise kann sie, um eine vorgegebene Geste zu vervollständigen, sich eine bestimmte Entfernung nach links von einer zugehörigen Startposition bewegen. Die Geste kann eine Bewegung von bestimmten Teilen des mobilen Gegenstands umfassen. Beispielsweise kann die Geste eine Person umfassen, die nach einem Hebel mit einer zugehörigen rechten Hand greift und diesen nach unten zieht. Die Gestenabbildung kann die Struktur des mobilen Gegenstands reflektieren. Beispielsweise kann die Abbildung Bewegungen umfassen, die einem Skelettrahmen mit Gelenken entspricht, die in der Lage sind, sich auf bestimmte Art und Weise zu beugen. Die Geste kann in Bewegungen für mehrere Gegenstände beinhaltet sein. Beispielsweise kann eine Geste einer koordinierten Aktion entsprechen, wie beispielsweise eine Übergabe eines Produkts zwischen mehreren Herstellungsvorrichtungen. Die Geste kann einen Zeitrahmen oder eine Geschwindigkeit für bestimmte Bewegungen angeben.
- Die Gestenlogik 161 kann die erzeugte Abbildung mit der einen Abbildung oder den mehreren Abbildungen der bestimmten Gesten vergleichen (208). Beispielsweise kann die Gestenlogik 161 bestimmen, ob die Bewegung des mobilen Gegenstands mit der Bewegung, die in der damit übereinstimmenden Geste definiert ist, innerhalb eines bestimmten Schwellenwerts übereinstimmt. In einigen Implementierungen kann die Gestenlogik 161 Transformationen bei der Abbildung der Bewegung des mobilen Gegenstands ausführen. Beispielsweise kann in einigen Fällen die Gestenlogik 161 die Abbildung des mobilen Gegenstands umdrehen und/oder umsetzen, wenn keine Übereinstimmung für die anfängliche Abbildung gefunden wird. In einigen Fällen kann die Gestenlogik 161 die Abbildung des mobilen Gegenstands auf eine Struktur (beispielsweise eine Skelettstruktur) anwenden, um einen Vergleich mit einer Gestenabbildung zu vereinfachen, die bei einer derartigen Struktur angewendet wird. Zusätzlich oder alternativ hierzu kann der Vergleich eine Bestimmung umfassen, ob die Bewegung des mobilen Gegenstands eine Fahrt (oder andere Bewegung) zu absoluten Orten umfasst, während keine Transformationen angewendet werden. Beispielsweise kann dies verwendet werden, um sicherzustellen, dass eine Vorrichtung innerhalb einer bestimmten sicheren Zone bleibt und/oder Material von dem korrekten Ort während der Herstellungsverarbeitungen aufnimmt. In einigen Fällen kann die Gestenlogik 161 die abgebildete Bewegung des mobilen Gegenstands mit mehreren Gestenabbildungen vergleichen.
- Auf der Grundlage des Vergleichs kann die Gestenlogik 161 eine Nachricht erzeugen (210), die angibt, ob eine Übereinstimmung mit einer Geste für die Bewegung des mobilen Gegenstands gefunden worden ist. Die Gestenlogik 161 kann die Nachricht zu einer Überwachungsverarbeitung weiterleiten (212). In einigen Implementierungen kann die Überwachungsverarbeitung auf der Gestenlogik 161 laufen. Zusätzlich oder alternativ hierzu kann die Überwachungsverarbeitung extern zu der Gestenlogik 161 sein. Beispielsweise kann die Gestenlogik 161 eine Nachricht zu einem Alarmsystem weiterleiten. In einigen Fällen kann das Alarmsystem einen Alarm erzeugen oder einen Alarm in Reaktion auf eine Nachricht aktivieren, die ein Ereignis von Interesse angibt, beispielsweise, wenn eine Nicht-Übereinstimmung mit einer gewünschten Geste und/oder eine Übereinstimmung mit einer nicht gewünschten Geste gefunden wird.
-
3 zeigt beispielhafte Gestenerkennungsszenarios 310, 320, 330, 340. In den beispielhaften Szenarios 310, 320, 330, 340 zeichnet der Bildgeber 190 Bilder einer Herstellungsvorrichtung 302 auf. Der Bildgeber sendet über eine Netzwerkverbindung 304 die aufgenommenen Bilder zu der Steuerungsvorrichtung 121, die die Gestenlogik 161 umfasst. Die Gestenlogik 161 verarbeitet die Bilder für die beispielhaften Szenarios 310, 320, 330 und 340, um eine Bewegung zu identifizieren. In den Szenarios 310, 320, 330, 340 entspricht die Bewegung, die in den aufgenommenen Bildern identifiziert wird, einer ersten Bewegungssequenz (beispielsweise ein horizontales Pendeln usw.). In dem Szenario 340 entspricht die Bewegung, die in dem aufgenommenen Bild identifiziert wird, einer zweiten Bewegungssequenz (beispielsweise ein vertikales Pendeln usw.), die zu der ersten Bewegungssequenz unterschiedlich ist. Die Gestenlogik 161 kann auf bestimmte Gesten 306 für einen Erkennungsvergleich bei dem Speicher 166 Zugriff nehmen. In den beispielhaften Szenarios 310, 320, 330, 340 entsprechen die bestimmten Gesten der ersten Bewegungssequenz. Die Gestenlogik 161 kann auf eine identifizierte Bewegung in den Szenarios 310, 320, 330 reagieren bzw. antworten, indem eine Nachricht erzeugt wird, die eine Übereinstimmung mit den erkannten Gesten angibt. Für das Szenario 340 kann die Gestenlogik 161 auf die identifizierte Bewegung (beispielsweise die Gesamtheit oder ein Anteil der zweiten Bewegungssequenz) reagieren bzw. antworten, indem eine Nachricht erzeugt wird, die angibt, dass die identifizierte Bewegung nicht mit den bestimmten Gesten übereinstimmt. Die beispielhaften Szenarios 310, 320, 330, 340 stellen einen Kontext zum Erklären einer automatisierten Überwachung auf der Grundlage einer Gestenerkennung bereit. Andere Gegenstände, Bewegungstypen und Gesten (beispielsweise komplexe Bewegungssequenzen, Mehrfachgegenstandssequenzen usw.) können verwendet werden. - Die Nachrichten, die Übereinstimmungen oder Nicht-Übereinstimmungen angeben, können in unterschiedlichen Überwachungsverarbeitungen angewendet werden. Beispielsweise können die Nachrichten verwendet werden, um den Betriebsstatus (beispielsweise normaler Betrieb, anormaler Betrieb usw.) einer Vorrichtung zu bestimmen, Personal zu überwachen (beispielsweise bezüglich einer Beachtung von Arbeitspflichten, eines Gemütszustands, einer Leistungsfähigkeit usw.), Warnungen bzw. Alarme in Reaktion auf Ereignisse von Interesse zu erzeugen (beispielsweise nicht erkannte Gesten usw.), einen Montagelinienablauf zu optimieren, Überwachungsaktivitäten in Reaktion auf Ereignisse von Interesse automatisch zu ändern, und/oder für andere Überwachungsverarbeitungsaktivitäten.
- In einigen Fällen kann ein automatisches Ändern einer Überwachung von Aktivitäten eine Vergrößerung der Qualität und/oder Quantität eines aufgenommenen Sicherheitsvideos umfassen. Beispielsweise kann ein Videokontrollsystem ein Video in einer ersten Betriebsart (beispielsweise ein Video mit niedriger Auflösung, einer niedrigen Bildfolge, ohne Ton und/oder Graustufe usw.) aufzeichnen. In Reaktion auf eine Nachricht, die ein Ereignis von Interesse angibt, kann das Videokontrollsystem zu einer zweiten Betriebsart umschalten (beispielsweise ein Video mit hoher Auflösung, einer hohen Bildfolge, mit Ton und/oder Farbe usw.). In einigen Fällen kann es wünschenswert sein, ein Kontrollvideo, das vor dem Ereignis von Interesse aufgenommen wird, in der zweiten Betriebsart anzusehen. In einigen Implementierungen kann ein Video in einer zweiten Betriebsart aufgenommen werden und dann, nach einer Verzögerung (beispielsweise Minuten, Stunden, Tage, Wochen usw.), in die erste Betriebsart komprimiert werden. In einigen Fällen kann/können eine Nachricht oder mehrere Nachrichten, die Ereignisse von Interesse angibt/angeben, das System veranlassen, die Zeitdauer von Kontrollvideos, die das Ereignis jenseits der Verzögerung umgibt, zu speichern (beispielsweise permanent, bis sie überprüft werden, bis sie durch autorisiertes Personal gelöscht werden, usw.). Zusätzlich oder alternativ hierzu kann ein automatisches Ändern einer Überwachung von Aktivitäten ein automatisches Zuführen und/oder Hervorheben eines Kontrollvideos für vor Ort befindliches oder außerhäusiges Personal umfassen (beispielsweise für eine Livebetrachtung anstatt einer späteren Überprüfung usw.).
- In einigen Implementierungen kann ein Optimieren eines Montagelinienablaufs und/oder anderer Arbeitsabläufe ein automatisches Voranbringen einer Warteschlange umfassen, wenn eine Nachricht, die durch die Überwachungsverarbeitung empfangen wird, angibt, dass eine Aufgabe abgeschlossen ist oder nahe an einem Abschluss ist. Beispielsweise kann eine bestimmte Geste einer Bewegung entsprechen, die ausgeführt wird, um eine Aufgabe auszuführen, oder einer Bewegung bei einem vorbestimmten Punkt in einer Aufgabe entsprechen. Eine Überwachungsverarbeitung kann konfiguriert sein zu veranlassen, dass ein neues Teil in eine Position bewegt wird, um eine nächste Iteration oder Wiederholung einer Aufgabe zu unterstützen (beispielsweise indem eine Montagelinie vorwärts bewegt wird usw.). Zusätzlich oder alternativ hierzu kann der Ablauf in Reaktion auf eine Geste unterbrochen werden. Beispielsweise kann ein Angestellter eine Hand heben, um eine Montagelinie anzuhalten. In einigen Fällen, beispielsweise bei einer Lebensmittelvorbereitung, kann ein derartiges System von Vorteil sein, da ein Angestellter, der Schutzhandschuhe trägt, eine Kontamination durch Drücken einer Taste oder durch ein Kontaktieren anderer Oberflächen vermeiden kann, um die Linie zu stoppen.
- In verschiedenen Implementierungen können Alarme Alarme umfassen, wie beispielsweise einen Alarm, um eine Person zu wecken, deren Aufmerksamkeit möglicherweise abgefallen ist, einen Alarm für einen Techniker, dass ein Gerätefehler auftreten kann, einen Alarm, dass eine Sicherheitszone gebrochen worden ist, und/oder andere Alarme.
- In einigen Implementierungen können die auf Gesten basierenden Überwachungsverarbeitungen, die hier beschrieben werden, bei einer nicht-industriellen Überwachung angewendet werden. Beispielsweise können in medizinischen Anwendungen Gesten verwendet werden, um die Fortschritte von Physiotherapiepatienten zu verfolgen, Schlafmuster für eine Studie zu überwachen (beispielsweise eine Gesichtsanspannung, eine schnelle Augenbewegung (REM), eine Schlafdauer usw.), eine Therapieanwendung zu Überwachen (beispielsweise Tropfraten, eine Sensorplatzierung, eine Gerätekonfiguration usw.), einen Patientenzustand zu überwachen (beispielsweise Anzeichen für Schmerz, Arthritis, Schlaganfall (beispielsweise durch asymmetrische Gesichtsbewegung), usw.), und/oder für eine andere medizinische Überwachung/Diagnose.
- In einigen Implementierungen können 3-D-Bilder erhalten werden, um die Gestenerkennungsverarbeitung zu unterstützen. Beispiele von 3-D-Bildgebern können laufzeitbasierte Systeme (beispielsweise Radar, Sonar, Echofindung, Lidar usw.), Mehrfachsensor- und/oder Mehrfachbeleuchtungsquellensysteme, Abtastsysteme (beispielsweise Magnetresonanzabbildung (MRI), Computertomographieabtastungen (CT-Abtastungen)), System mit strukturiertem Licht, lichtkodierte Systeme und/oder andere 3-D-Bildgebungssysteme umfassen.
- In verschiedenen Implementierungen arbeiten Laufzeitbildgebungssysteme, indem ein Signal in einem bestimmten Winkel oder eine bestimmte Richtung ausgesendet wird und die Zeit bis zu einer Reflexion zurück zu der Signalquelle (beispielsweise ein Sensor in der Nähe zu (oder bei einer bestimmten Entfernung zu) der Quelle) gemessen wird. Die Zeit zu einem Empfang einer Reflexion kann durch die Geschwindigkeit des gesendeten Signals (beispielsweise Lichtgeschwindigkeit, Schallgeschwindigkeit usw.) geteilt werden. Ein 3-D-Bild von reflektierenden Oberflächen, die den Laufzeitbildgeber umgeben, kann erzeugt werden, indem eine Vielzahl von Winkeln und/oder Richtungen abgetastet wird. In einigen Fällen sind Laufzeitbildgeber mit Herausforderungen verbunden, wie beispielsweise Aliasing (Entfernungsunklarheit), Bewegungsunschärfe (beispielsweise für eine Bewegung, die schneller als das Abtasten und/oder ein Quellensignalintervall ist), Auflösung, Interferenz (beispielsweise von ähnlichen Quellen) und/oder Umgebungssignale. Laufzeitsysteme können eine Leistungsfähigkeit anbieten, die konkurrenzfähig zu anderen 3-D-Bildgebungssystemen in Metriken ist, wie beispielsweise einer Betriebsreichweite, einem Sichtfeld, einer Bildaufnahme (Größe, Auflösung, Farbe), einer Bildfolge, einer Latenzzeit, einem Leistungsverbrauch, Systemabmessungen und einer Betriebsumgebung. Laufzeitsysteme bieten ebenso eine konkurrenzfähige Leistungsfähigkeit in Anwendungen, wie beispielsweise einer Ganzkörperverfolgung, einer Mehrfachkörperteilverfolgung und einer Mehrfachkörperverfolgung. Allerdings können Laufzeitsystemkosten Herausforderungen bergen.
- In einigen Implementierungen projizieren System mit strukturiertem Licht bzw. strukturierte Lichtsysteme ein 2-D-Lichtmuster in die abgebildete 3-D-Umgebung, um ein Kodieren der Positionen von Objekten in der abgebildeten 3-D-Umgebung in das Koordinatensystem der Projektionseinrichtung zu ermöglichen. Das strukturierte Lichtsystem kann eine Triangulation verwenden, um die 3-D-Positionen und Merkmale des Objekts, das durch die strukturierte Lichtquelle beleuchtet wird, zu bestimmen.
4 ist eine beispielhafte Strukturiertes-Licht-Bildgebungsverarbeitung 400. Eine Projektionseinrichtung für strukturiertes Licht bzw. eine strukturierte Lichtprojektionseinrichtung 402, die ein gestreiftes Muster 404 bereitstellt, das einen Streifen 406 umfasst, beleuchtet ein geformtes Objekt 410. Der Streifen 406 wird durch die Projektion auf das geformte Objekt 410 verformt. Der verformte Streifen 432 wird durch eine Bildelementanordnung 430 bei einer Kamera aufgenommen. Die Position des verformten Streifens 432 auf der Bildelementanordnung 434 kann verwendet werden, um die Merkmale und die Position des geformten Objekts unter Verwendung einer Triangulation abzubilden. Die Triangulation beruht auf der Triangulationsbasis 450, die die bekannte Entfernung zwischen der strukturierten Lichtquelle und der Bildelementanordnung 434 umfasst. Strukturierte Lichtsysteme können eine Leistungsfähigkeit anbieten, die konkurrenzfähig zu anderen 3-D-Bildgebungssystemen in Metriken ist, wie beispielsweise einer Betriebsreichweite, einem Sichtfeld, einer Bildaufnahme (Größe, Auflösung, Farbe), einer Bildfolge, einer Latenzzeit, einem Leistungsverbrauch, Systemabmessungen und einer Betriebsumgebung. Strukturierte Lichtsysteme bieten ebenso eine konkurrenzfähige Leistungsfähigkeit bei Anwendungen an, wie beispielsweise einer Ganzkörperverfolgung. Eine Mehrfachkörperteilverfolgung und eine Mehrfachkörperverfolgung können jedoch Herausforderungen für strukturierte Lichtsysteme bereitstellen. - In verschiedenen Implementierungen können lichtkodierte Systeme bzw. Lichtkodierungssysteme mit einem ähnlichen Prinzip wie strukturierte Lichtsysteme arbeiten. Ein 2-D-Lichtmuster kann in die abgebildete 3-D-Umgebung projiziert werden, um eine Kodierung der Positionen von Objekten in der abgebildeten 3-D-Umgebung in das Koordinatensystem der Projektionseinrichtung zu ermöglichen. Das Lichtkodierungssystem kann eine Triangulation verwenden, um die 3-D-Positionen und Merkmale des beleuchteten Objekts durch die kodierte Lichtquelle zu bestimmen. Ein Kodelichtsystem kann ferner mehrere 2-D-Muster für eine Projektion zeitmultiplexen. Die zusätzlichen 2-D-Muster können eine vergrößerte räumliche Auflösung ermöglichen. Beispielsweise können Positionen und Merkmale von geformten Objekten für mehrere 2-D-Muster trianguliert werden und eine statistische Verarbeitung kann angewendet werden, um Berechnungsfehler zu entfernen. In einigen Fällen kann eine Bewegung eines beleuchteten Gegenstands in der Zeitskala des Zeitmultiplexens unscharf werden. Lichtkodierte Systeme können eine Leistungsfähigkeit anbieten, die konkurrenzfähig zu anderen 3-D-Bildgebungssystemen in Metriken ist, wie beispielsweise einer Betriebsreichweite, einem Sichtfeld, einer Bildaufnahme (Größe, Auflösung, Farbe), einer Bildfolge, einer Latenzzeit, einem Leistungsverbrauch, Systemabmessungen und einer Betriebsumgebung. Lichtkodierte Systeme können ebenso eine konkurrenzfähige Leistungsfähigkeit bei Anwendungen anbieten, wie beispielsweise einer Ganzkörperverfolgung, einer Mehrfachkörperteilverfolgung und einer Mehrfachkörperverfolgung.
- In verschiedenen Implementierungen können quellenbasierte Beleuchtungseinrichtungen (beispielsweise in Laufzeit-, Strukturiertes-Licht-, lichtkodierten Systemen usw. verwendet) bekannte Eigenschaften (beispielweise eine Frequenz usw.) beinhalten. Ein Licht von Quellen mit sich unterscheidenden Eigenschaften kann ignoriert werden. Dies kann bei einer Hintergrundentfernung unterstützen. Beispielsweise kann eine Stroboskopverwendung (oder eine andere Lichtkodierung) in der Quelle implementiert werden, um eine Eigenschaft zur Unterscheidung gegenüber externen Lichtquellen hinzufügen. Lichtkodierungsquellen können bekannte Muster im Zeitmultiplex projizieren. In verschiedenen Implementierungen können aufgenommene Bilddaten, bei denen nicht herausgefunden wird, dass sie die zeitmultiplexte Eigenschaft reflektieren, entfernt werden, um zu verhindern, dass ein Rauschen Quellen stört.
- In einigen Implementierungen kann ein Ton in der industriellen Umgebung aufgenommen werden. Eine Tongestenanalyse (beispielsweise eine Erkennung von bestimmten Tonmustern) kann bei dem aufgenommenen Ton angewendet werden. Beispielsweise kann eine Herstellungsvorrichtung, die eine bestimmte Aufgabe ausführt, ein erkennbares Tonmuster erzeugen. Ein aufgenommener Ton kann mit bekannten Mustern verglichen werden, um einen Betriebsstatus zu bestimmen. In verschiedenen Implementierungen kann eine Tongestenanalyse mit einer Bildgestenanalyse gepaart sein. In verschiedenen Implementierungen können Mikrofonsensoren in der beispielhaften industriellen Umgebung 100 verteilt sein, um eine Tongestenanalyse zu vereinfachen.
- Zusätzlich oder alternativ hierzu kann die industrielle Umgebung 100 gesteuert werden, um Störungsquellen mit ähnlichen Eigenschaften zu den Beleuchtungsquellen zu minimieren. Beispielsweise können in einer vollautomatisierten Herstellungsfabrik Lichter oder andere Strahlungsquellen minimiert oder beseitigt werden in Abwesenheit eines Personals, das derartige Lichter verwendet, um zu sehen. Zusätzlich oder alternativ hierzu kann die Beleuchtungsquelle (beispielsweise Kodelichtquellen, strukturierte Lichtquellen, Laufzeitquellen usw.) in Bändern arbeiten, die durch Personen oder andere Geräte in der industriellen Umgebung 100 nicht verwendet werden. Beispielsweise kann die Beleuchtungsquelle in nahen oder fernen Infrarotbändern arbeiten, die für Menschen unsichtbar sind, wobei sie für eine Mehrzweckbeleuchtung nicht verwendet wird.
- Die Verfahren, Vorrichtungen und die Logik, die vorstehend beschrieben sind, können in vielen unterschiedlichen Weisen in vielen unterschiedlichen Kombinationen von Hardware, Software oder Hardware und Software implementiert werden. Beispielweise kann die Gesamtheit oder Teile des Systems eine Schaltung in einer Steuerungseinrichtung, einem Mikroprozessor oder einer anwendungsspezifischen integrierten Schaltung (ASIC) umfassen oder kann mit einer diskreten Logik oder Bauteilen oder einer Kombination von anderen Typen einer analogen oder digitalen Schaltung kombiniert in einer einzelnen integrierten Schaltung oder verteilt auf mehrere integrierte Schaltungen implementiert sein. Die Gesamtheit oder ein Teil der Logik, die vorstehend beschrieben ist, kann als Anweisungen für eine Ausführung durch eine Verarbeitungseinrichtung, eine Steuerungseinrichtung oder eine andere Verarbeitungsvorrichtung implementiert sein und in einem dinghaften oder nicht vorübergehenden maschinenlesbaren oder computerlesbaren Medium gespeichert sein, wie beispielsweise ein Flash-Speicher, ein Speicher mit wahlfreiem Zugriff (RAM) oder ein Nur-Lese-Speicher (ROM), ein löschbarer, programmierbarer Nur-Lese-Speicher (EPROM) oder ein anderes maschinenlesbares Medium, wie beispielsweise ein Kompaktdisk-Nur-Lese-Speicher (CDROM) oder eine magnetische oder optische Platte. Somit kann ein Produkt, wie beispielsweise ein Computerprogrammprodukt, ein Speichermedium und computerlesbare Anweisungen, die auf dem Medium gespeichert sind, umfassen, das, wenn es bei einem Endpunkt, einem Computersystem und einer anderen Vorrichtung ausgeführt wird, die Vorrichtung veranlasst, Betriebe bzw. Operationen entsprechend denen gemäß der vorstehenden Beschreibung auszuführen.
- Die Verarbeitungsfähigkeit des Systems kann unter mehreren Systembauteilen aufgeteilt sein, wie beispielsweise unter mehreren Prozessoren bzw. Verarbeitungseinrichtungen und Speichern, die optional mehrere verteilte Verarbeitungssysteme umfassen. Parameter, Datenbanken und andere Datenstrukturen können separat gespeichert und verwaltet werden, können in einen einzelnen Speicher oder eine einzelne Datenbank eingegliedert werden, können logisch und physikalisch auf viele unterschiedliche Weisen organisiert sein und können auf viele Arten implementiert werden, einschließlich Datenstrukturen, wie beispielsweise verlinkte Listen, Hash-Tabellen oder implizite Speichermechanismen. Programme können Teile (beispielsweise Unterroutinen) eines einzelnen Programms, getrennt Programme, verteilt über mehrere Speicher und Prozessoren oder auf viele unterschiedliche Weisen implementiert sein, wie beispielsweise in einer Bibliothek, wie beispielsweise einer geteilten Bibliothek (beispielsweise eine Dynamic Link Library (DLL)). Die DLL kann beispielsweise einen Code speichern, der irgendeine der vorstehend beschriebenen Systemverarbeitungen ausführt. Während verschiedene Implementierungen beschrieben worden sind, ist es für einen Fachmann ersichtlich, dass viel mehr Ausführungsbeispiele und Implementierungen innerhalb des Umfangs der Offenbarung möglich sind.
- Ein System umfasst einen Bildgeber, wie beispielsweise ein 3-D-Strukturiertes-Licht-Bildgebungssystem, und eine Gestenlogik in einer Datenkommunikation mit dem Bildgeber. Der Bildgeber ist konfiguriert, ein Bild der Bewegung eines mobilen Gegenstands zu erzeugen. Die Gestenlogik ist konfiguriert: eine erste Abbildung der derzeitigen Bewegung des mobilen Gegenstands auf der Grundlage des Bilds zu erzeugen, auf eine gespeicherte zweite Abbildung einer Modellgeste zuzugreifen und die erste Abbildung mit der zweiten Abbildung zu vergleichen, um einen Betriebszustand des mobilen Gegenstands zu bestimmen.
Claims (17)
- System mit: einem Bildgeber, der konfiguriert ist, ein Bild einer derzeitigen Bewegung eines mobilen Gegenstands zu erzeugen; einer Logik, die in einer Datenkommunikation mit dem Bildgeber ist, wobei die Logik konfiguriert ist: auf der Grundlage des Bilds eine erste Abbildung der derzeitigen Bewegung des mobilen Gegenstands zu erzeugen; auf eine gespeicherte zweite Abbildung einer Modellgeste zuzugreifen; die erste Abbildung mit der zweiten Abbildung zu vergleichen, um eine Betriebsbedingung des mobilen Gegenstands zu bestimmen; und das Bild auf der Grundlage einer Eigenschaft einer Lichtquelle zu verarbeiten; dadurch gekennzeichnet, dass die Lichtquelle konfiguriert ist, strukturiertes Licht mit mehreren Kodierungen im Zeitmultiplex zu erzeugen.
- System nach
Anspruch 1 , wobei die Kodierungen umfassen: Laufzeitkodierungen, Stroboskoplicht, Frequenzkodierung, 2-D-Muster oder eine andere Lichtkodierung. - System nach
Anspruch 1 , wobei der Bildgeber konfiguriert ist, eine Reihe von Bildern zu erzeugen, die das Bild umfasst. - System nach
Anspruch 3 , wobei die erste Abbildung eine erste Videoabbildung auf der Grundlage der Reihe von Bildern umfasst. - System nach
Anspruch 4 , wobei die Modellgeste eine Gruppe von bestimmten Bewegungen umfasst; und die zweite Abbildung eine zweite Videoabbildung der Gruppe von bestimmten Bewegungen umfasst. - System nach
Anspruch 5 , wobei die Gruppe von bestimmten Bewegungen mit einem übereinstimmenden Betriebsstatus des mobilen Gegenstands verbunden ist. - System nach
Anspruch 5 , wobei die Logik ferner konfiguriert ist, einen Alarm zu erzeugen, wenn der Vergleich angibt, dass die derzeitige Bewegung sich von der Gruppe von bestimmten Bewegungen unterscheidet. - System nach
Anspruch 1 , wobei der Bildgeber umfasst: einen optischen Sensor, der konfiguriert ist, das Bild aufzunehmen; und ein Fokussiergerät, das konfiguriert ist, das Bild auf dem optischen Sensor zu erzeugen. - System nach
Anspruch 1 , wobei die ersten und die zweiten Abbildungen Abbildungen in einem mehrdimensionalen Raum umfassen. - System nach
Anspruch 1 , wobei die Logik konfiguriert ist, einen Alarm auf der Grundlage der bestimmten Betriebsbedingung zu erzeugen. - System nach
Anspruch 10 , wobei: der mobile Gegenstand eine Gerätebedienungsperson umfasst; und der Alarm konfiguriert ist, die Gerätebedienungsperson in Reaktion auf einen möglichen Aufmerksamkeitsverlust zu wecken. - System nach
Anspruch 10 , wobei der Alarm konfiguriert ist anzugeben, dass der mobile Gegenstand eine Sicherheitszone gebrochen hat. - Verfahren umfassend die Schritte: Aufnehmen eines Bilds einer derzeitigen Bewegung eines mobilen Gegenstands; Erzeugen, auf der Grundlage des Bilds, einer ersten Abbildung der derzeitigen Bewegung des mobilen Gegenstands; Zugreifen auf eine gespeicherte zweite Abbildung einer Modellgeste; Vergleichen der ersten und zweiten Abbildungen, um einen Betriebsstatus des mobilen Gegenstands zu bestimmen; Verarbeiten des Bilds auf der Grundlage einer Eigenschaft einer Lichtquelle; dadurch gekennzeichnet, dass mittels der Lichtquelle strukturiertes Licht mit mehreren Kodierungen im Zeitmultiplex erzeugt wird.
- Verfahren nach
Anspruch 13 , ferner mit: Anwendung von Triangulation, um 3-D-Positionen und Merkmale des mobilen Gegenstands zu bestimmen. - Verfahren nach
Anspruch 13 , ferner mit: Auswählen der gespeicherten zweiten Abbildung auf der Grundlage eines Typs des mobilen Gegenstands und einer Aufgabe, die für eine Ausführung durch den mobilen Gegenstand eingeplant ist. - Verfahren nach
Anspruch 14 , wobei das Bestimmen des Betriebsstatus ein Bestimmen umfasst, ob der mobile Gegenstand die Aufgabe in einer nicht übereinstimmenden Art und Weise ausgeführt hat. - Verfahren nach
Anspruch 16 , wobei eine Abweichung von der Modellgeste durch den mobilen Gegenstand eine nicht übereinstimmende Ausführung angibt.
Applications Claiming Priority (6)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201361885303P | 2013-10-01 | 2013-10-01 | |
US61/885,303 | 2013-10-01 | ||
US201461926742P | 2014-01-13 | 2014-01-13 | |
US61/926,742 | 2014-01-13 | ||
US14/179,872 US20150092040A1 (en) | 2013-10-01 | 2014-02-13 | Gesture-Based Industrial Monitoring |
US14/179,872 | 2014-02-13 |
Publications (2)
Publication Number | Publication Date |
---|---|
DE102014219754A1 DE102014219754A1 (de) | 2015-04-02 |
DE102014219754B4 true DE102014219754B4 (de) | 2022-07-07 |
Family
ID=52673408
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE102014219754.6A Active DE102014219754B4 (de) | 2013-10-01 | 2014-09-30 | Gestenbasierte industrielle Überwachung |
Country Status (1)
Country | Link |
---|---|
DE (1) | DE102014219754B4 (de) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
FR3046473B1 (fr) * | 2015-12-30 | 2018-02-16 | Starbreeze Paris | Procede et dispositif pour l'extension de surfaces de detection interfacant une pluralite d'elements mobiles avec un systeme informatique |
JP6360105B2 (ja) * | 2016-06-13 | 2018-07-18 | ファナック株式会社 | ロボットシステム |
Citations (18)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE19619688A1 (de) | 1996-05-15 | 1997-11-20 | Herion Werke Kg | Verfahren zur Videoüberwachung der Bedienungsräume von Maschinen |
DE19709799A1 (de) | 1997-03-10 | 1998-09-17 | Bosch Gmbh Robert | Einrichtung zur Videoüberwachung einer Fläche |
DE10000287A1 (de) | 2000-01-07 | 2001-07-19 | Leuze Lumiflex Gmbh & Co | Vorrichtung und Verfahren zur Überwachung eines Erfassungsbereichs an einem Arbeitsmittel |
US20020150278A1 (en) | 2000-10-10 | 2002-10-17 | Sick Ag | Apparatus and a method for the detection of objects |
DE10216023A1 (de) | 2002-04-11 | 2003-11-06 | Fraunhofer Ges Forschung | Verfahren und Vorrichtung zur kontrollierten Interaktion zwischen einer eigenbeweglichen Robotereinheit und einem Menschen |
US20060041333A1 (en) | 2004-05-17 | 2006-02-23 | Takashi Anezaki | Robot |
EP1647357A1 (de) | 2004-10-13 | 2006-04-19 | Robosoft N.V. | Verfahren und Vorrichtung zur Überwachung und Sicherung eines Gefahrbereichs einer Maschine |
US7167575B1 (en) | 2000-04-29 | 2007-01-23 | Cognex Corporation | Video safety detector with projected pattern |
US20080170749A1 (en) | 2007-01-12 | 2008-07-17 | Jacob C Albertson | Controlling a system based on user behavioral signals detected from a 3d captured image stream |
DE602004009793T2 (de) | 2003-06-19 | 2008-08-28 | Honeywell International Inc. | Verfahren und vorrichtung zur detektion von objekten durch die verwendung eines strukturierten beleuchtungsmusters |
DE102007036129B3 (de) | 2007-08-01 | 2008-09-25 | Sick Ag | Vorrichtung und Verfahren zur dreidimensionalen Überwachung eines Raumbereichs mit mindestens zwei Bildsensoren |
DE102007007576B4 (de) | 2007-02-15 | 2009-01-15 | Kuka Roboter Gmbh | Verfahren und Vorrichtung zum Sichern eines Arbeitsraums |
EP2023160A1 (de) | 2007-08-02 | 2009-02-11 | Sick Ag | Dreidimensionale Raumüberwachung mit Konfigurationsmodus zum Bestimmen der Schutzfelder |
DE102009026091A1 (de) | 2008-07-02 | 2010-04-01 | Elan Schaltelemente Gmbh & Co. Kg | Verfahren und System zur Überwachung eines dreidimensionalen Raumbereichs mit mehreren Kameras |
DE102010023736A1 (de) | 2009-06-15 | 2011-01-27 | Fanuc Ltd | Robotersystem mit Problemerkennungsfunktion |
DE202008017962U1 (de) | 2008-09-23 | 2011-02-10 | Sick Ag | Beleuchtungseinheit zur Erzeugung eines selbstunähnlichen Musters |
DE102012105401B3 (de) | 2012-06-21 | 2013-04-25 | Sick Ag | 3D-Kamera und Verfahren zur Bestimmung des diffusen Remissionsvermögens von Objekten |
DE102012003856A1 (de) | 2012-02-27 | 2013-08-29 | Andreas Plaas-Link | Anordnung und Verfahren zur Überwachung von Anlagen und Räumen |
-
2014
- 2014-09-30 DE DE102014219754.6A patent/DE102014219754B4/de active Active
Patent Citations (18)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE19619688A1 (de) | 1996-05-15 | 1997-11-20 | Herion Werke Kg | Verfahren zur Videoüberwachung der Bedienungsräume von Maschinen |
DE19709799A1 (de) | 1997-03-10 | 1998-09-17 | Bosch Gmbh Robert | Einrichtung zur Videoüberwachung einer Fläche |
DE10000287A1 (de) | 2000-01-07 | 2001-07-19 | Leuze Lumiflex Gmbh & Co | Vorrichtung und Verfahren zur Überwachung eines Erfassungsbereichs an einem Arbeitsmittel |
US7167575B1 (en) | 2000-04-29 | 2007-01-23 | Cognex Corporation | Video safety detector with projected pattern |
US20020150278A1 (en) | 2000-10-10 | 2002-10-17 | Sick Ag | Apparatus and a method for the detection of objects |
DE10216023A1 (de) | 2002-04-11 | 2003-11-06 | Fraunhofer Ges Forschung | Verfahren und Vorrichtung zur kontrollierten Interaktion zwischen einer eigenbeweglichen Robotereinheit und einem Menschen |
DE602004009793T2 (de) | 2003-06-19 | 2008-08-28 | Honeywell International Inc. | Verfahren und vorrichtung zur detektion von objekten durch die verwendung eines strukturierten beleuchtungsmusters |
US20060041333A1 (en) | 2004-05-17 | 2006-02-23 | Takashi Anezaki | Robot |
EP1647357A1 (de) | 2004-10-13 | 2006-04-19 | Robosoft N.V. | Verfahren und Vorrichtung zur Überwachung und Sicherung eines Gefahrbereichs einer Maschine |
US20080170749A1 (en) | 2007-01-12 | 2008-07-17 | Jacob C Albertson | Controlling a system based on user behavioral signals detected from a 3d captured image stream |
DE102007007576B4 (de) | 2007-02-15 | 2009-01-15 | Kuka Roboter Gmbh | Verfahren und Vorrichtung zum Sichern eines Arbeitsraums |
DE102007036129B3 (de) | 2007-08-01 | 2008-09-25 | Sick Ag | Vorrichtung und Verfahren zur dreidimensionalen Überwachung eines Raumbereichs mit mindestens zwei Bildsensoren |
EP2023160A1 (de) | 2007-08-02 | 2009-02-11 | Sick Ag | Dreidimensionale Raumüberwachung mit Konfigurationsmodus zum Bestimmen der Schutzfelder |
DE102009026091A1 (de) | 2008-07-02 | 2010-04-01 | Elan Schaltelemente Gmbh & Co. Kg | Verfahren und System zur Überwachung eines dreidimensionalen Raumbereichs mit mehreren Kameras |
DE202008017962U1 (de) | 2008-09-23 | 2011-02-10 | Sick Ag | Beleuchtungseinheit zur Erzeugung eines selbstunähnlichen Musters |
DE102010023736A1 (de) | 2009-06-15 | 2011-01-27 | Fanuc Ltd | Robotersystem mit Problemerkennungsfunktion |
DE102012003856A1 (de) | 2012-02-27 | 2013-08-29 | Andreas Plaas-Link | Anordnung und Verfahren zur Überwachung von Anlagen und Räumen |
DE102012105401B3 (de) | 2012-06-21 | 2013-04-25 | Sick Ag | 3D-Kamera und Verfahren zur Bestimmung des diffusen Remissionsvermögens von Objekten |
Also Published As
Publication number | Publication date |
---|---|
DE102014219754A1 (de) | 2015-04-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
DE112010003000B4 (de) | Sichtsystem zum Überwachen von Menschen in dynamischen Umgebungen | |
EP2558886B1 (de) | Einrichtung zur überwachung mindestens eines dreidimensionalen sicherheitsbereichs | |
DE102012112321B4 (de) | Vorrichtung zum optischen Abtasten und Vermessen einer Umgebung | |
DE102010038341B4 (de) | Videoüberwachungssystem sowie Verfahren zur Konfiguration eines Videoüberwachungssystems | |
EP2297701B1 (de) | Videoanalyse | |
DE102012112322B4 (de) | Verfahren zum optischen Abtasten und Vermessen einer Umgebung | |
DE102007007576B4 (de) | Verfahren und Vorrichtung zum Sichern eines Arbeitsraums | |
US20130128050A1 (en) | Geographic map based control | |
US20070076090A1 (en) | Device for generating three dimensional surface models of moving objects | |
WO2009062945A1 (de) | Verfahren und vorrichtung zum auffinden und verfolgen von augenpaaren | |
DE102015111080B4 (de) | Robotervorrichtung mit maschinellem Sehen | |
DE112016006066T5 (de) | Analyse von umgebungslicht zur blickverfolgung | |
DE19621612A1 (de) | Verfahren und Vorrichtung zur optischen Freiraumüberwachung | |
DE102010003336A1 (de) | Verfahren zur Visualisierung von Aktivitätsschwerpunkten in Überwachungsszenen | |
DE102018101162B4 (de) | Messsystem und Verfahren zur extrinsischen Kalibrierung | |
DE102014219754B4 (de) | Gestenbasierte industrielle Überwachung | |
DE102009026091A1 (de) | Verfahren und System zur Überwachung eines dreidimensionalen Raumbereichs mit mehreren Kameras | |
DE102014113431A1 (de) | Adaptive Abstandsschätzung | |
JP5712401B2 (ja) | 行動監視システム、行動監視プログラム、及び行動監視方法 | |
DE102015217838A1 (de) | Vorrichtung zur Unterstützung einer Wartung bei medizintechnischen Geräten | |
DE10210926A1 (de) | Vorrichtung zur Verfolgung wenigstens eines Objekts in einer Szene | |
AT507531B1 (de) | Verfahren zum zählen von objekten | |
KR101996907B1 (ko) | 객체 추적 장치 | |
EP3185213B1 (de) | Verfahren zur erstellung einer tiefenkarte mittels einer kamera | |
DE202020004150U1 (de) | System basierend auf Edge Devices mit einem oder mehreren Tiefensensoren zur präzisen Detektion und Zählung von Menschen, Tieren und Objekten in Echtzeit |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
R012 | Request for examination validly filed | ||
R082 | Change of representative |
Representative=s name: BOSCH JEHLE PATENTANWALTSGESELLSCHAFT MBH, DE |
|
R016 | Response to examination communication | ||
R081 | Change of applicant/patentee |
Owner name: AVAGO TECHNOLOGIES INTERNATIONAL SALES PTE. LT, SG Free format text: FORMER OWNER: BROADCOM CORPORATION, IRVINE, CALIF., US Owner name: AVAGO TECHNOLOGIES GENERAL IP (SINGAPORE) PTE., SG Free format text: FORMER OWNER: BROADCOM CORPORATION, IRVINE, CALIF., US |
|
R082 | Change of representative |
Representative=s name: BOSCH JEHLE PATENTANWALTSGESELLSCHAFT MBH, DE |
|
R081 | Change of applicant/patentee |
Owner name: AVAGO TECHNOLOGIES INTERNATIONAL SALES PTE. LT, SG Free format text: FORMER OWNER: AVAGO TECHNOLOGIES GENERAL IP (SINGAPORE) PTE. LTD., SINGAPORE, SG |
|
R082 | Change of representative |
Representative=s name: BOSCH JEHLE PATENTANWALTSGESELLSCHAFT MBH, DE |
|
R016 | Response to examination communication | ||
R018 | Grant decision by examination section/examining division | ||
R130 | Divisional application to |
Ref document number: 102014020105 Country of ref document: DE |
|
R020 | Patent grant now final |