DE102019200407A1 - Teileerkennung und schadencharakterisierung durch deep-learning - Google Patents

Teileerkennung und schadencharakterisierung durch deep-learning Download PDF

Info

Publication number
DE102019200407A1
DE102019200407A1 DE102019200407.5A DE102019200407A DE102019200407A1 DE 102019200407 A1 DE102019200407 A1 DE 102019200407A1 DE 102019200407 A DE102019200407 A DE 102019200407A DE 102019200407 A1 DE102019200407 A1 DE 102019200407A1
Authority
DE
Germany
Prior art keywords
classification
determining
computer program
program product
computing device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102019200407.5A
Other languages
English (en)
Inventor
Luca F. Bertuccelli
Kishore K. Reddy
Kin Gwn Lore
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Otis Elevator Co
Original Assignee
Otis Elevator Co
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Otis Elevator Co filed Critical Otis Elevator Co
Publication of DE102019200407A1 publication Critical patent/DE102019200407A1/de
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B23/00Testing or monitoring of control systems or parts thereof
    • G05B23/02Electric testing or monitoring
    • G05B23/0205Electric testing or monitoring by means of a monitoring system capable of detecting and responding to faults
    • G05B23/0218Electric testing or monitoring by means of a monitoring system capable of detecting and responding to faults characterised by the fault detection method dealing with either existing or incipient faults
    • G05B23/0243Electric testing or monitoring by means of a monitoring system capable of detecting and responding to faults characterised by the fault detection method dealing with either existing or incipient faults model based detection method, e.g. first-principles knowledge model
    • G05B23/0254Electric testing or monitoring by means of a monitoring system capable of detecting and responding to faults characterised by the fault detection method dealing with either existing or incipient faults model based detection method, e.g. first-principles knowledge model based on a quantitative model, e.g. mathematical relationships between inputs and outputs; functions: observer, Kalman filter, residual calculation, Neural Networks
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B07SEPARATING SOLIDS FROM SOLIDS; SORTING
    • B07CPOSTAL SORTING; SORTING INDIVIDUAL ARTICLES, OR BULK MATERIAL FIT TO BE SORTED PIECE-MEAL, e.g. BY PICKING
    • B07C5/00Sorting according to a characteristic or feature of the articles or material being sorted, e.g. by control effected by devices which detect or measure such characteristic or feature; Sorting by manually actuated devices, e.g. switches
    • B07C5/04Sorting according to size
    • B07C5/12Sorting according to size characterised by the application to particular articles, not otherwise provided for
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B07SEPARATING SOLIDS FROM SOLIDS; SORTING
    • B07CPOSTAL SORTING; SORTING INDIVIDUAL ARTICLES, OR BULK MATERIAL FIT TO BE SORTED PIECE-MEAL, e.g. BY PICKING
    • B07C5/00Sorting according to a characteristic or feature of the articles or material being sorted, e.g. by control effected by devices which detect or measure such characteristic or feature; Sorting by manually actuated devices, e.g. switches
    • B07C5/34Sorting according to other particular properties
    • B07C5/342Sorting according to other particular properties according to optical properties, e.g. colour
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B65CONVEYING; PACKING; STORING; HANDLING THIN OR FILAMENTARY MATERIAL
    • B65GTRANSPORT OR STORAGE DEVICES, e.g. CONVEYORS FOR LOADING OR TIPPING, SHOP CONVEYOR SYSTEMS OR PNEUMATIC TUBE CONVEYORS
    • B65G47/00Article or material-handling devices associated with conveyors; Methods employing such devices
    • B65G47/34Devices for discharging articles or materials from conveyor 
    • B65G47/46Devices for discharging articles or materials from conveyor  and distributing, e.g. automatically, to desired points
    • B65G47/48Devices for discharging articles or materials from conveyor  and distributing, e.g. automatically, to desired points according to bodily destination marks on either articles or load-carriers
    • B65G47/49Devices for discharging articles or materials from conveyor  and distributing, e.g. automatically, to desired points according to bodily destination marks on either articles or load-carriers without bodily contact between article or load carrier and automatic control device, e.g. the destination marks being electrically or electronically detected
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2413Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on distances to training or reference patterns
    • G06F18/24147Distances to closest patterns, e.g. nearest neighbour classification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/088Non-supervised learning, e.g. competitive learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0004Industrial image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0004Industrial image inspection
    • G06T7/001Industrial image inspection using an image reference approach
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/74Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • G06V10/443Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
    • G06V10/449Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters
    • G06V10/451Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters with interaction between the filter responses, e.g. cortical complex cells
    • G06V10/454Integrating the filters into a hierarchical structure, e.g. convolutional neural networks [CNN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/98Detection or correction of errors, e.g. by rescanning the pattern or by human intervention; Evaluation of the quality of the acquired patterns
    • G06V10/993Evaluation of the quality of the acquired pattern
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/64Three-dimensional objects
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B65CONVEYING; PACKING; STORING; HANDLING THIN OR FILAMENTARY MATERIAL
    • B65GTRANSPORT OR STORAGE DEVICES, e.g. CONVEYORS FOR LOADING OR TIPPING, SHOP CONVEYOR SYSTEMS OR PNEUMATIC TUBE CONVEYORS
    • B65G47/00Article or material-handling devices associated with conveyors; Methods employing such devices
    • B65G47/52Devices for transferring articles or materials between conveyors i.e. discharging or feeding devices
    • B65G47/68Devices for transferring articles or materials between conveyors i.e. discharging or feeding devices adapted to receive articles arriving in one layer from one conveyor lane and to transfer them in individual layers to more than one conveyor lane or to one broader conveyor lane, or vice versa, e.g. combining the flows of articles conveyed by more than one conveyor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/044Recurrent networks, e.g. Hopfield networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30108Industrial image inspection
    • G06T2207/30164Workpiece; Machine component

Abstract

Gemäß einer Ausführungsform wird ein Verfahren zum Identifizieren eines Teils eines Fördersystems bereitgestellt. Das Verfahren umfasst: Aufnehmen eines Bildes eines Teils eines Fördersystems unter Verwendung einer Kamera; Klassifizieren des Teils des Fördersystems unter Verwendung von überwachtem Lernen; und Anzeigen einer Klassifizierung des Teils des Teils auf einer mobilen Rechenvorrichtung.

Description

  • HINTERGRUND
  • Der hierin offenbarte Gegenstand bezieht sich im Allgemeinen auf den Bereich der Fördersysteme, insbesondere auf ein Verfahren und ein Gerät zur Teileerkennung von Fördersystemen und zur Schadenserkennung.
  • Die Mechaniker im Bereich der Fördersysteme versuchen zunehmend, Wartungs- und Reparaturaufgaben effizienter und sicherer zu erledigen. Eine Schlüsselaufgabe, die als Mitverursacher der Gesamtzeit vor Ort identifiziert wurde, ist die Identifizierung eines Teils und das Bestimmen, ob dieses Aufzugsteil ersetzt werden muss. Zahlreiche Teilevariationen, schwierige Lichtverhältnisse und allgemeine Umgebungsbedingungen können es für die Mechaniker im Bereich der Fördersysteme zeitaufwendig machen, Aufzugsteile zu identifizieren und Schäden zu bestimmen.
  • KURZBESCHREIBUNG
  • Gemäß einer Ausführungsform wird ein Verfahren zum Erkennen eines Teils eines Fördersystems bereitgestellt. Das Verfahren umfasst: Aufnehmen eines Bildes eines Teils eines Fördersystems unter Verwendung einer Kamera; Klassifizieren des Teils des Fördersystems unter Verwendung von überwachtem Lernen; und Anzeigen einer Klassifizierung des Teils des Teils auf einer mobilen Rechenvorrichtung.
  • Zusätzlich zu einem oder mehreren der vorstehend beschriebenen Merkmale oder als Alternative können weitere Ausführungsformen beinhalten, dass überwachtes Lernen weiter Deep-Learning-Modelle beinhaltet.
  • Zusätzlich zu einem oder mehreren der vorstehend beschriebenen Merkmale oder als Alternative können weitere Ausführungsformen beinhalten, dass die Klassifizierung weiter beinhaltet: Bestimmen einer Klassifizierung des Teils als Reaktion auf die Daten.
  • Zusätzlich zu einem oder mehreren der vorstehend beschriebenen Merkmale oder als Alternative können weitere Ausführungsformen beinhalten, dass die Klassifizierung weiter beinhaltet: Extraktion einer niedrigdimensionalen Darstellung der Daten; Vergleich der niedrigdimensionalen Darstellung des Bildes mit mindestens einem Rendering der Computer-Aided-Design-(CAD-)Modelle des Teils und früher aufgenommener Bilder des Teils; und Bestimmung eines nächsten Nachbarn für eine Klassifizierung des Teils.
  • Zusätzlich zu einem oder mehreren der vorstehend beschriebenen Merkmale oder als Alternative können weitere Ausführungsformen beinhalten, dass die niedrigdimensionale Darstellung der Bilder unter Verwendung der unüberwachten Merkmalsextraktion extrahiert wird.
  • Zusätzlich zu einem oder mehreren der vorstehend beschriebenen Merkmale oder als Alternative können weitere Ausführungsformen beinhalten, dass der Sensor funktionsfähig in der mobilen Rechenvorrichtung beinhaltet ist.
  • Zusätzlich zu einem oder mehreren der vorstehend beschriebenen Merkmale oder als Alternative können weitere Ausführungsformen beinhalten, dass der Sensor funktionsfähig an die mobile Rechenvorrichtung angebaut ist.
  • Zusätzlich zu einem oder mehreren der vorstehend beschriebenen Merkmale oder als Alternative können weitere Ausführungsformen beinhalten: Bestimmen eines Rekonstruktionsfehlers als Reaktion auf die Klassifizierung des Teils und des nächsten Nachbarn.
  • Zusätzlich zu einem oder mehreren der vorstehend beschriebenen Merkmale oder als Alternative können weitere Ausführungsformen beinhalten: Bestimmen einer Schadensmenge an dem Teil als Reaktion auf den Rekonstruktionsfehler.
  • Zusätzlich zu einem oder mehreren der vorstehend beschriebenen Merkmale oder als Alternative können weitere Ausführungsformen beinhalten: Erkennung tatsächlicher Zeitreihendaten für das Teil; Vergleichen der tatsächlichen Zeitreihendaten für das Teil mit simulierten Zeitreihendaten, die ein normales Verhalten des Teils zeigen; and Bestimmung einer Schadensmenge an dem Teil als Reaktion auf den Rekonstruktionsfehler.
  • Gemäß einer weiteren Ausführungsform wird ein Computerprogramm-Produkt bereitgestellt, das auf einem computerlesbaren Medium greifbar ausgeführt ist. Das Computerprogramm-Produkt beinhaltet Anweisungen, die, wenn sie von einem Prozessor ausgeführt werden, veranlassen, dass der Prozessor Handlungen ausführt, die Folgendes umfassen: Aufnehmen eines Bildes eines Teils eines Fördersystems unter Verwendung eines Sensors; Klassifizieren des Teils des Fördersystems unter Verwendung von überwachtem Lernen; und Anzeigen einer Klassifizierung des Teils auf einer mobilen Rechenvorrichtung.
  • Zusätzlich zu einem oder mehreren der vorstehend beschriebenen Merkmale oder als Alternative können weitere Ausführungsformen beinhalten, dass überwachtes Lernen weiter ein Deep-Learning-Modell beinhaltet.
  • Zusätzlich zu einem oder mehreren der vorstehend beschriebenen Merkmale oder als Alternative können weitere Ausführungsformen beinhalten, dass die Klassifizierung weiter beinhaltet: Bestimmen einer Klassifizierung des Teils als Reaktion auf die Daten.
  • Zusätzlich zu einem oder mehreren der vorstehend beschriebenen Merkmale oder als Alternative können weitere Ausführungsformen beinhalten, dass die Klassifizierung weiter beinhaltet: Extraktion einer niedrigdimensionalen Darstellung der Daten; Vergleich der niedrigdimensionalen Darstellung des Bildes mit mindestens einem Rendering der Computer-Aided-Design-(CAD-)Modelle des Teils und früher aufgenommener Bilder des Teils; und Bestimmung eines nächsten Nachbarn für eine Klassifizierung des Teils.
  • Zusätzlich zu einem oder mehreren der vorstehend beschriebenen Merkmale oder als Alternative können weitere Ausführungsformen beinhalten, dass die niedrigdimensionale Darstellung der Bilder unter Verwendung der unüberwachten Merkmalsextraktion extrahiert wird.
  • Zusätzlich zu einem oder mehreren der vorstehend beschriebenen Merkmale oder als Alternative können weitere Ausführungsformen beinhalten, dass der Sensor funktionsfähig in der mobilen Rechenvorrichtung beinhaltet ist.
  • Zusätzlich zu einem oder mehreren der vorstehend beschriebenen Merkmale oder als Alternative können weitere Ausführungsformen beinhalten, dass der Sensor funktionsfähig an die mobile Rechenvorrichtung angebaut ist.
  • Zusätzlich zu einem oder mehreren der vorstehend beschriebenen Merkmale oder als Alternative können weitere Ausführungsformen beinhalten, dass die Handlungen weiter Folgendes umfassen: Bestimmen eines Rekonstruktionsfehlers als Reaktion auf die Klassifizierung des Teils und des nächsten Nachbarn.
  • Zusätzlich zu einem oder mehreren der vorstehend beschriebenen Merkmale oder als Alternative können weitere Ausführungsformen beinhalten, dass die Handlungen weiter Folgendes umfassen: Bestimmen einer Schadensmenge an dem Teil als Reaktion auf den Rekonstruktionsfehler.
  • Zusätzlich zu einem oder mehreren der vorstehend beschriebenen Merkmale oder als Alternative können weitere Ausführungsformen beinhalten, dass die Handlungen weiter Folgendes umfassen: Erkennung tatsächlicher Zeitreihendaten für das Teil; Vergleichen der tatsächlichen Zeitreihendaten für das Teil mit simulierten Zeitreihendaten, die ein normales Verhalten des Teils zeigen; und Bestimmung einer Schadensmenge an dem Teil als Reaktion auf den Rekonstruktionsfehler.
  • Technische Effekte von Ausführungsformen der vorliegenden Offenbarung beinhalten die Verwendung einer Kamera für mobile Vorrichtungen, um Aufzugsteile durch Deep- Learning zu erkennen.
  • Die vorstehenden Merkmale und Elemente können in mehreren Kombinationen ohne Exklusivität kombiniert werden, sofern nicht ausdrücklich anders angegeben. Diese Merkmale und Elemente sowie die Handlungen davon werden angesichts der folgenden Beschreibung und beigefügten Zeichnungen offensichtlicher werden. Es ist jedoch zu verstehen, dass die folgenden Beschreibungen und Zeichnungen illustrativer und erklärender Natur und nicht einschränkend sein sollen.
  • Figurenliste
  • Die vorstehenden und weitere Aufgaben, Merkmale und Vorteile der Offenbarung werden in der folgenden ausführlichen Beschreibung zusammen mit den beigefügten Zeichnungen besser hervorgehen, in welchen gleichartige Elemente in den einzelnen FIGUREN gleichnummeriert sind:
    • 1 veranschaulicht eine schematische Ansicht eines Aufzugssystems gemäß einer Ausführungsform der Offenbarung; und
    • 2-3 sind ein Flussdiagramm des Verfahrens zum Identifizieren eines Teils des Aufzugssystems aus 1 gemäß einer Ausführungsform der Offenbarung.
  • AUSFÜHRLICHE BESCHREIBUNG
  • 1 veranschaulicht eine schematische Ansicht eines Aufzugssystems 10 gemäß einer Ausführungsform der Offenbarung. Es versteht sich, dass, während ein Aufzugssystem 10 zur exemplarischen Veranschaulichung verwendet wird, die hierin offenbarten Ausführungsformen auf andere Fördersysteme wie beispielsweise Rolltreppen angewendet werden können. 2 veranschaulicht eine schematische Ansicht eines Gebäudeaufzugssystems 100 einschließlich des Aufzugssystems 10 aus 1 gemäß einer Ausführungsform der Offenbarung. Mit Bezug auf 1 beinhaltet das Aufzugssystem 10 eine Aufzugskabine 23, die konfiguriert ist, um sich vertikal nach oben und unten innerhalb eines Schachtes 50 entlang einer Vielzahl von Kabinenführungsschienen 60 zu bewegen. Wie in 1 zu sehen, beinhaltet die Aufzugskabine 23 eine Tür 27, die konfiguriert ist, um sich zu öffnen und zu schließen, so dass die Fahrgäste die Aufzugskabine 23 betreten und verlassen können. Das Aufzugssystem 10 beinhaltet auch ein Gegengewicht 28, das über ein Flaschenzugsystem 26 funktionsfähig mit der Aufzugskabine 23 verbunden ist. Das Gegengewicht 28 ist konfiguriert, um sich innerhalb des Schachtes 50 vertikal nach oben und unten zu bewegen. Das Gegengewicht 28 bewegt sich in eine Richtung, die im Allgemeinen der Bewegung der Aufzugskabine 23 entgegengesetzt ist, wie sie bei herkömmlichen Aufzugsanordnungen bekannt ist. Die Bewegung des Gegengewichts 28 wird durch Gegengewichtsführungsschienen 70 im Schacht 50 geführt.
  • Das Aufzugssystem 10 beinhaltet auch eine Stromquelle 12. Der Strom wird von der Stromquelle 12 an eine Schalttafel 14 bereitgestellt, welche Leistungsschalter, Zähler usw. beinhalten kann. Von der Schalttafel 14 aus kann der Strom direkt an die Antriebseinheit 20 über die Steuerung 30 oder an ein internes Stromquellenladegerät 16 bereitgestellt werden, das Wechselstrom in Gleichstrom (DC) umwandelt, um eine interne Stromquelle 18 zu laden, die geladen werden muss. Zum Beispiel kann eine interne Stromquelle 18, die aufgeladen werden muss, eine Batterie, ein Kondensator oder eine andere Art von Energiespeichervorrichtung sein, die einem der Durchschnittsfachmänner bekannt ist. Alternativ kann die interne Stromquelle 18 nicht von der externen Stromquelle 12 geladen werden müssen und kann eine Vorrichtung sein, wie beispielsweise ein gasbetriebener Generator, Solarzellen, Wasserkraftgenerator, Windkraftgenerator oder eine ähnliche Stromerzeugungsvorrichtung. Die interne Stromquelle 18 kann verschiedene Komponenten des Aufzugssystems 10 mit Strom versorgen, wenn eine externe Stromquelle nicht verfügbar ist. Die Antriebseinheit 20 treibt eine Maschine 22 an, um der Aufzugskabine 23 über eine Treibscheibe der Maschine 22 eine Bewegung zu verleihen. Die Maschine 22 beinhaltet auch eine Bremse 24, die aktiviert werden kann, um die Maschine 22 und die Aufzugskabine 23 zu stoppen. Wie von Fachmännern geschätzt, stellt 1 ein maschinenraumloses Aufzugssystem 10 dar, jedoch können die hierin offenbarten Ausführungsformen mit anderen Aufzugssystemen kombiniert werden, die nicht maschinenraumlos, hydraulisch sind oder die jede andere bekannte Aufzugskonfiguration beinhalten. Zusätzlich können auch Aufzugssysteme mit mehr als einer unabhängig arbeitenden Aufzugskabine in jedem Aufzugskabinenschacht und/oder seillose Aufzugssysteme verwendet werden. In einer Ausführungsform kann die Aufzugskabine 23 zwei oder mehr Abteile aufweisen.
  • Die Steuerung 30 ist für das Steuern des Betriebs des Aufzugssystems 10 verantwortlich. Die Steuerung 30 kann auch einen Modus (motorisch, regenerativ, nahezu ausgeglichen) der Aufzugskabine 23 bestimmen. Die Steuerung 30 kann die Kabinenrichtung und die Gewichtsverteilung zwischen der Aufzugskabine 23 und dem Gegengewicht 28 verwenden, um den Modus der Aufzugskabine 23 zu bestimmen. Die Steuerung 30 kann die Geschwindigkeit der Aufzugskabine 23 anpassen, um einen Zielstockwerk zu erreichen. Die Steuerung 30 kann einen Prozessor und einen zugehörigen Speicher beinhalten. Der Prozessor kann, ist aber nicht beschränkt auf, ein Einprozessor- oder Mehrprozessorsystem mit einer der unterschiedlichsten möglichen Architekturen sein, einschließlich Field Programmable Gate Array (FPGA), Central Processing Unit (CPU), Application Specific Integrated Circuits (ASIC), Digitaler Signalprozessor (DSP) oder Graphic Processing Unit (GPU) Hardware, die homogen oder heterogen angeordnet ist. Der Speicher kann, ist aber nicht beschränkt auf, einen Direktzugriffsspeicher (RAM), einen Nur-LeseSpeicher (ROM) oder andere elektronische, optische, magnetische oder andere computerlesbare Medien sein.
  • 2 und 3 zeigen ein Datenerkennungssystem 100 und ein Flussdiagramm des Verfahrens 102 zum Identifizieren eines Teils des Aufzugssystems aus 1 gemäß einer Ausführungsform der vorliegenden Offenbarung. In einer Ausführungsform können die Daten Teil des Aufzugssystems sein. Das Datenerkennungssystem 100 beinhaltet eine Lernphase, wie in 2 gezeigt und eine Einrichtungsphase, wie in 3 gezeigt. Das Datenerkennungssystem 100 beinhaltet eine mobile Rechenvorrichtung 200, die in der Lage ist, von einem Aufzugstechniker vor Ort zu einem Aufzugssystem 10 getragen zu werden. Die mobile Rechenvorrichtung 200 kann eine Vorrichtung sein, die typischerweise von einer Person getragen wird, wie beispielsweise ein Telefon, PDA, Smart Watch, Tablet, Laptop, usw.. Die mobile Rechenvorrichtung 200 kann in der Lage sein, Bilder 106 von Aufzugsteilen 105 des Aufzugssystems 10 über eine Kamera 260 aufzunehmen, die in der mobilen Rechenvorrichtung 200 beinhaltet ist und/oder funktionsfähig an der mobilen Rechenvorrichtung 200 angebracht ist. In einem Bespiel kann die Kamera 260 eine Smartphone-Kamera sein, die in dem Smartphone beinhaltet ist. In einem anderen Beispiel kann die Kamera 260 eine separate Kamera sein, die funktionsfähig über einen drahtgebundenen und/oder drahtlosen Anbringungsmechanismus an der mobilen Rechenvorrichtung 200 angebracht ist. Die Kamera 260 kann ein nach vorne gerichtetes Infrarot-Radiometer (FLIR) sein.
  • Die mobile Rechenvorrichtung 200 kann einen Prozessor 250, Speicher 252, Kommunikationsmodul 254 und ein oder mehrere Sensoren für mikroelektromechanische Systeme (MEMS) 251 beinhalten, wie in 2 gezeigt. Der MEMS-Sensor kann ein Sensor sein, wie beispielsweise ein Beschleunigungsmesser, ein Gyroskop oder ein ähnlicher oder anderer Sensor, der einem Fachmann bekannt ist. Der Prozessor 250 kann jede Art oder Kombination von Computerprozessoren sein, wie beispielsweise ein Mikroprozessor, eine Mikrosteuerung, ein digitaler Signalprozessor, eine anwendungsspezifische integrierte Schaltung, eine programmierbare Logikvorrichtung und/oder ein in dem Bereich programmierbares Gate-Array. Der Speicher 252 ist ein Beispiel für ein nichtflüchtiges, computerlesbares Speichermedium, das in der mobilen Rechenvorrichtung 200 greifbar ausgeführt ist, beinhaltend ausführbare Anweisungen, die darin gespeichert sind, zum Beispiel als Firmware. Das Kommunikationsmodul 254 kann ein oder mehrere Kommunikationsprotokolle implementieren, wie hierin weiter beschrieben. Die mobile Rechenvorrichtung 200 kann eine Bescheinigung 258 beinhalten, die angibt, zu welchem Aufzugstechniker die mobile Rechenvorrichtung 200 gehört. Die mobile Rechenvorrichtung 200 kann eine Alarmvorrichtung 257 beinhalten, die konfiguriert ist, um einen Alarm 259 zu aktivieren. In drei nicht einschränkenden Beispielen kann die Alarmvorrichtung 257 ein Vibrationsmotor, ein Audio-Lautsprecher und/oder eine Anzeige sein. Der Alarm 259 kann akustisch, optisch, haptisch und/oder vibrierend sein. Die mobile Rechenvorrichtung 200 kann auch eine Anwendung 255 beinhalten. Die hierin offenbarten Ausführungsformen können über die auf der mobilen Rechenvorrichtung 200 installierte Anwendung 255 betrieben werden.
  • Die 2-3 zeigen auch ein Flussdiagramm des Verfahrens 102 zum Betreiben des Datenerfassungssystems 100 (z. B. Bild oder Zeitreihen) gemäß einer Ausführungsform der Offenbarung. Das Verfahren 102 ist in drei Segmente unterteilt, eine reale Datenlernphase 102a, eine künstliche Datenlernphase 102b und eine Einrichtungsphase 102c. Bei Block 110b nimmt die mobile Rechenvorrichtung 200 die Eingangsdaten 103 der Aufzugsteile 105 des Aufzugssystems 10 über die Kamera 260 auf. In einer Ausführungsform können die Eingangsdaten 106 Bilder der Aufzugsteile 105 sein. Bei Block 120 wird ein Klassifizierungsmodul 122 in der Anwendung 255 auf der mobilen Rechenvorrichtung 200 verwendet, um das Teil 105 zu klassifizieren (d. h. zu identifizieren). In einer Ausführungsform kann das Klassifizierungsmodul 122 ein überwachtes Deep-Learning-Modell 124 sein (z. B. Deep Neural Networks (DNN), Convolution Neural Network (CNN), Recurrent Neural Networks (RNN) und Long Term Memory Networks (LSTM) und RNNs mit Gated Recurrent Units (GRU)). Das Klassifizierungsmodul 122 kann eine Datenbank 170 mit künstlichen Daten 104 und/oder realen Daten 106 verwenden, um eine Klassifizierung der von der mobilen Rechenvorrichtung 200 erfassten Eingangsdaten 103 zu bestimmen.
  • Die Klassifizierung stellt die Identität der Eingangsdaten 103 dar. Die Klassifizierung kann die Eingangsdaten 103 als spezifisches Teil 105 identifizieren. Das Klassifizierungsmodul 122 kann eine reale Datenbank 340 beinhalten und/oder funktionsfähig mit dieser verbunden sein, die zuvor aufgenommene reale Daten (z. B. Bilder oder Zeitreihen) 106 der Teile 105 beinhaltet, die in unterschiedlichen Ausrichtungen, Auflösungen, Beleuchtungen und Skalen (für Bilder) oder verschiedenen Betriebsmodi (für Zeitreihen) erstellt wurden. Reale Daten 106 können von den Sensoren 310 und/oder mobilen Rechenvorrichtungen 200 bei Block 110a gesammelt und in einer realen Datenbank 340 gespeichert werden. Die realen Daten 106 werden vom Klassifizierungsmodul 122 (z. B. DNN, CNN, LSTM, RNN, GRU) verwendet, um zu lernen, die Klassifizierung der Eingangsdaten 103 bei Block 120 durchzuführen. Das Klassifizierungsmodul kann überwachte Modelle für die Klassifizierung bei Block 124 erstellen.
  • Die realen Daten 106 können auch vom unüberwachten Deep-Learning-Modul 142 genutzt werden. Nicht überwachte Merkmalsextraktionsmodule 142 wie Deep Auto Encoder (DAE), Convolutional Auto Encoder (CAE) und/oder Dimensionsreduktionstechniken (z. B. Hauptkomponentenanalyse (PCA) und deren Varianten) können verwendet werden, um eine niedrigdimensionale Darstellung der künstlichen Daten 104 und/oder der realen Daten 106 bei Block 140 zu extrahieren.
  • Künstliche Daten 104 können als Computer-Aided-Design (CAD)-Modelle 410 aus verschiedenen Teilen 105 stammen. Die Daten können von den CAD-Modellen 410 bei Block 412 gerendert werden und die künstlichen Daten 104 können in der künstlichen Datenbank 360 gespeichert werden. Die künstlichen Daten 104 können auch mit der Datenbank 170 geteilt werden, wo eine Domänenanpassung durchgeführt werden kann, um eine Brücke zwischen den künstlichen Daten 104 und den realen Daten 106 herzustellen. Die Datenbank 170 kann in der Anwendung 255 auf der mobilen Rechenvorrichtung 200 und/oder in einem Cloud Rechennetzwerk 300 gespeichert werden.
  • Bei Block 120, wenn das Klassifizierungsmodul (z. B. CNN) nicht genügend Vertrauen hat (d. h. geringes Vertrauen bei Block 130), dass die von der mobilen Rechenvorrichtung 200 erfassten Daten 106 mit einem Teil 105 in der Datenbank 170 übereinstimmen, dann wird unter Verwendung des trainierten unüberwachten Merkmalsextraktionsmoduls 142 (z. B. DAE und/oder CAE) bei Block 140 eine niedrigdimensionale Darstellung extrahiert und die niedrigdimensionale Darstellung wird verwendet, um nach einem nächsten Nachbarn (d. h. dem engsten übereinstimmenden Teil 105) in der Teiledatenbank 170 zu suchen, um den Teil 105 bei Block 180 zu identifizieren.
  • Das unüberwachte Merkmalsextraktionsmodul 142 kann auch einen Rekonstruktionsfehler analysieren, um eine Schadensmenge an dem Teil 105 zu bestimmen. Zum Beispiel kann der nächste Nachbar (d. h. das engste übereinstimmende Teil 105) in der Teiledatenbank 170 aufgrund von Schäden am Teil 105 nicht genau mit dem Teil 105 übereinstimmen, aber eine Schadensmenge kann durch den zwischen dem nächsten Nachbarn und dem Teil 105 gemessenen Rekonstruktionsfehler bestimmt werden.
  • Der Rekonstruktionsfehler zusammen mit dem nächsten benachbarten Teil kann auf der mobilen Rechenvorrichtung 200 des Aufzugstechnikers bei Block 160 eingesehen werden. Relevanzrückmeldungen können von einem Aufzugstechniker unter Verwendung der mobilen Rechenvorrichtung 200 bereitgestellt werden, nachdem er den nächsten Nachbarn des Teils 105 überprüft hat, von dem er ein Bild 106 unter Verwendung der Kamera 260 erstellt hat.
  • Zusätzlich können ein oder mehrere Sensoren 310 funktionsfähig mit verschiedenen Teilen 105 des Aufzugssystems 10 verbunden sein, um Schäden an einem Teil 105 besser erkennen zu können. Die Sensoren 310 können reale Daten 106 (z. B. aktuelle Zeitreihendaten) für jeden Teil 105 des Aufzugssystems 10 sammeln. Die realen Daten 106 können Sensor 310-Messungen jedes Teils 105 während der Betriebsbedingungen beinhalten. Die realen Daten 106 (z. B. aktuelle Zeitreihendaten) werden in der realen Datenbank 340 gespeichert, die sich in der Cloud 300 befinden kann. Künstliche Daten 104 (z. B. simulierte Zeitreihendaten), die das normale Verhalten jedes Teils 105 demonstrieren, können auch in der Cloud 300 gespeichert werden. Die künstlichen Daten 104 (z. B. simulierte Zeitreihendaten) werden in der künstlichen Datenbank 360 gespeichert. Wiederkehrende Architekturen (z. B. RNN, LSTM, GRU) können mit dem Merkmalsextraktionsmodul (z. B. DAE) verwendet werden, um aus den künstlichen Daten 104 (z. B. simulierte Zeitreihendaten) zu lernen und mit den realen Daten 106 (z. B. tatsächliche Zeitreihendaten) zu vergleichen, um Anomalien (d. h. eine Schadensmenge) in jedem Teil 105 festzustellen.
  • Obwohl die vorstehende Beschreibung den Ablaufprozess von 2 in einer bestimmten Reihenfolge beschrieben hat, ist zu beachten, dass, sofern in den beigefügten Behauptungen nichts anderes angegeben ist, die Reihenfolge der Schritte variiert werden kann.
  • Wie vorstehend beschrieben, können Ausführungsformen in Form von prozessorimplementierten Prozessen und Vorrichtungen zum Üben dieser Prozesse, wie beispielsweise dem Prozessor, vorliegen. Ausführungsformen können auch in Form von Computerprogrammcode vorliegen, der Anweisungen enthält, die in greifbaren Medien ausgeführt sind, wie Netzwerk-Cloud-Speicher, SD-Karten, Flash-Laufwerke, Disketten, CD-ROMs, Festplatten oder andere computerlesbare Speichermedien, wobei, wenn der Computerprogrammcode in einen Computer geladen und von einem Computer ausgeführt wird, der Computer eine Vorrichtung zum Üben der Ausführungsformen wird. Ausführungsformen können auch in Form von Computerprogrammcode vorliegen, zum Beispiel, ob sie auf einem Speichermedium gespeichert, in einen Computer geladen und/oder von ihm ausgeführt oder über ein Übertragungsmedium übertragen werden, beispielsweise über eine elektrische verdrahtung oder Verkabelung, durch Glasfaser oder durch elektromagnetische Strahlung, wobei der Computer, wenn der Computerprogrammcode in einen von einem Computer geladenen und ausgeführten Computer geladen wird, zu einer Vorrichtung zum Üben der Ausführungsformen wird. Wenn sie auf einem universellen Mikroprozessor implementiert sind, konfigurieren die Computerprogrammcode-Segmente den Mikroprozessor so, dass er spezifische Logikschaltungen erstellt.
  • Die hierin verwendete Terminologie dient einzig und allein dem Zweck der Beschreibung von bestimmten Ausführungsformen und soll nicht einschränken. Während die Beschreibung zu Zwecken der Veranschaulichung und Beschreibung präsentiert wurde, soll sie jedoch nicht erschöpfend sein oder die Ausführungsformen auf die offenbarte Form beschränken. Viele Modifikationen, Variationen, Änderungen, Substitutionen oder gleichwertige Anordnungen, die hier nicht beschrieben sind, werden den Durchschnittsfachmännern offensichtlich sein, ohne von dem Geltungsbereich der Offenbarung abzuweichen. Auch wenn die verschiedenen Ausführungsformen beschrieben wurden, ist zu verstehen, dass Aspekte nur einige der beschriebenen Ausführungsformen beinhalten können. Dementsprechend ist die Offenbarung nicht als durch die vorstehende Beschreibung eingeschränkt anzusehen, sondern nur durch den Umfang der beigefügten Ansprüche eingeschränkt.

Claims (20)

  1. Verfahren zur Erkennung eines Teils eines Fördersystems, wobei das Verfahren Folgendes umfasst: Aufnahme eines Bildes eines Teils eines Fördersystems mithilfe einer Kamera; Klassifizierung des Teils des Fördersystems mithilfe überwachten Lernens; und Anzeige einer Klassifizierung des Teils des Teils auf einer mobilen Rechenvorrichtung.
  2. Verfahren nach Anspruch 1, wobei: überwachtes Lernen außerdem Deep- Learning- Modelle umfasst.
  3. Verfahren nach Anspruch 1 oder 2, wobei die Klassifizierung außerdem umfasst: Bestimmung einer Klassifizierung des Teils als Reaktion auf die Daten.
  4. Verfahren nach Anspruch 1, 2 oder 3, wobei die Klassifizierung außerdem umfasst: Extraktion einer niedrigdimensionalen Darstellung der Daten; Vergleich der niedrigdimensionalen Darstellung des Bildes mit mindestens einem Rendering der Computer-Aided-Design-(CAD-)Modelle des Teils und früher aufgenommener Bilder des Teils; und Bestimmung eines nächsten Nachbarn für eine Klassifizierung des Teils.
  5. Verfahren nach Anspruch 1 bis 4, wobei: die niedrigdimensionale Darstellung der Bilder mithilfe einer nicht überwachten Merkmalextraktion extrahiert wird.
  6. Verfahren nach Anspruch 1 bis 5, wobei: der Sensor funktionsfähig in die mobile Rechenvorrichtung integriert wird.
  7. Verfahren nach Anspruch 1 bis 5, wobei: der Sensor funktionsfähig an die mobile Rechenvorrichtung angebaut wird.
  8. Verfahren nach Anspruch 4, das ferner Folgendes umfasst: Bestimmung eines Rekonstruktionsfehlers als Reaktion auf die Klassifizierung des Teils und des nächsten Nachbarn.
  9. Verfahren nach Anspruch 4, das ferner Folgendes umfasst: Bestimmung einer Schadensmenge an dem Teil als Reaktion auf den Rekonstruktionsfehler.
  10. Verfahren nach Anspruch 4, das ferner Folgendes umfasst: Erkennung tatsächlicher Zeitreihendaten für das Teil; Vergleichen der tatsächlichen Zeitreihendaten für das Teil mit simulierten Zeitreihendaten, die ein normales Verhalten des Teils zeigen; und Bestimmung einer Schadensmenge an dem Teil als Reaktion auf den Rekonstruktionsfehler.
  11. Ein Computerprogramm-Produkt, das greifbar auf einem computerlesbaren Medium ausgeführt ist, wobei das Computerprogramm-Produkt Anweisungen enthält, dass es bei Ausführung durch einen Prozessor den Prozess dazu veranlasst, die folgenden Handlungen durchzuführen: Aufnahme eines Bildes eines Teils eines Fördersystems mithilfe eines Sensors; Klassifizierung des Teils des Fördersystems mithilfe überwachten Lernens; und Anzeige einer Klassifizierung des Teils auf einer mobilen Rechenvorrichtung.
  12. Computerprogramm-Produkt nach Anspruch 11, wobei: überwachtes Lernen außerdem ein Deep-Learning-Modell umfasst.
  13. Computerprogramm-Produkt nach Anspruch 11 oder 12, wobei die Klassifizierung außerdem umfasst: Bestimmung einer Klassifizierung des Teils als Reaktion auf die Daten.
  14. Computerprogramm-Produkt nach Anspruch 11 bis 13, wobei die Klassifizierung außerdem umfasst: Extraktion einer niedrigdimensionalen Darstellung der Daten; Vergleich der niedrigdimensionalen Darstellung des Bildes mit mindestens einem Rendering der Computer-Aided-Design-(CAD-)Modelle des Teils und früher aufgenommener Bilder des Teils; und Bestimmung eines nächsten Nachbarn für eine Klassifizierung des Teils.
  15. Computerprogramm-Produkt nach Anspruch 11 bis 14, wobei: die niedrigdimensionale Darstellung der Bilder mithilfe einer nicht überwachten Merkmalextraktion extrahiert wird.
  16. Computerprogramm-Produkt nach Anspruch 11 bis 15, wobei: der Sensor funktionsfähig in die mobile Rechenvorrichtung integriert wird.
  17. Computerprogramm-Produkt nach Anspruch 11 bis 15, wobei: der Sensor funktionsfähig an die mobile Rechenvorrichtung angebaut wird.
  18. Computerprogramm-Produkt nach Anspruch 14, wobei die Handlungen außerdem umfassen: Bestimmung eines Rekonstruktionsfehlers als Reaktion auf die Klassifizierung des Teils und des nächsten Nachbarn.
  19. Computerprogramm-Produkt nach Anspruch 14, wobei die Handlungen außerdem umfassen: Bestimmung einer Schadensmenge an dem Teil als Reaktion auf den Rekonstruktionsfehler.
  20. Verfahren nach Anspruch 4, wobei die Handlungen außerdem umfassen: Erkennung tatsächlicher Zeitreihendaten für das Teil; Vergleichen der tatsächlichen Zeitreihendaten für das Teil mit simulierten Zeitreihendaten, die ein normales Verhalten des Teils zeigen; und Bestimmung einer Schadensmenge an dem Teil als Reaktion auf den Rekonstruktionsfehler.
DE102019200407.5A 2018-01-15 2019-01-15 Teileerkennung und schadencharakterisierung durch deep-learning Pending DE102019200407A1 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US15/871,526 US10460431B2 (en) 2018-01-15 2018-01-15 Part recognition and damage characterization using deep learning
US15/871,526 2018-01-15

Publications (1)

Publication Number Publication Date
DE102019200407A1 true DE102019200407A1 (de) 2019-07-18

Family

ID=67068953

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102019200407.5A Pending DE102019200407A1 (de) 2018-01-15 2019-01-15 Teileerkennung und schadencharakterisierung durch deep-learning

Country Status (3)

Country Link
US (1) US10460431B2 (de)
CN (1) CN110046641B (de)
DE (1) DE102019200407A1 (de)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111079837A (zh) * 2019-12-16 2020-04-28 桂林电子科技大学 一种用于二维灰度图像检测识别分类的方法

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111428632A (zh) * 2020-03-23 2020-07-17 中国科学院重庆绿色智能技术研究院 一种绞车状态检测方法及矿工行为检测方法
US11282240B2 (en) 2020-04-23 2022-03-22 Saudi Arabian Oil Company Generation and implementation of multi-layer encoded data images
US11785022B2 (en) * 2020-06-16 2023-10-10 Zscaler, Inc. Building a Machine Learning model without compromising data privacy

Family Cites Families (32)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FR2695632B1 (fr) 1992-09-16 1994-12-16 Otis Elevator Co Plafond intégré pour cabine d'ascenseur.
US8224078B2 (en) * 2000-11-06 2012-07-17 Nant Holdings Ip, Llc Image capture and identification system and process
US6763148B1 (en) 2000-11-13 2004-07-13 Visual Key, Inc. Image recognition methods
WO2006136643A1 (en) 2005-06-23 2006-12-28 Kone Corporation Elevator arrangement
JP2007091430A (ja) 2005-09-29 2007-04-12 Toshiba Elevator Co Ltd エレベータ装置
US7860317B2 (en) * 2006-04-04 2010-12-28 Microsoft Corporation Generating search results based on duplicate image detection
US8391634B1 (en) 2009-04-28 2013-03-05 Google Inc. Illumination estimation for images
GB2478738A (en) 2010-03-16 2011-09-21 Belron Hungary Kft Zug Branch Eye level display in communication with electronic device
US8213680B2 (en) * 2010-03-19 2012-07-03 Microsoft Corporation Proxy training data for human body tracking
ES2397728B1 (es) 2010-12-16 2014-01-15 Dragados, S.A. Sistema de ayuda al mantenimiento preventivo y reparación de maquinaria remota e in-situ.
US20140368649A1 (en) 2011-08-30 2014-12-18 Kaipo Chen Image Recognition System Controlled Illumination Device
EP2936445A2 (de) 2012-12-20 2015-10-28 Accenture Global Services Limited Kontextbasierte erweiterte realität
CN110084878B (zh) 2012-12-21 2023-07-07 苹果公司 用于在真实环境中表示虚拟信息的方法
US9076195B2 (en) * 2013-08-29 2015-07-07 The Boeing Company Methods and apparatus to identify components from images of the components
EP3742405A3 (de) 2013-09-24 2021-01-13 Apple Inc. Verfahren zur darstellung von relevanten punkten in einer ansicht einer realen umgebung auf einer mobilen vorrichtung und mobile vorrichtung dafür
WO2015134665A1 (en) 2014-03-04 2015-09-11 SignalSense, Inc. Classifying data with deep learning neural records incrementally refined through expert input
WO2015161307A1 (en) 2014-04-18 2015-10-22 Magic Leap, Inc. Systems and methods for augmented and virtual reality
WO2015188275A1 (en) 2014-06-10 2015-12-17 Sightline Innovation Inc. System and method for network based application development and implementation
CN106937531B (zh) 2014-06-14 2020-11-06 奇跃公司 用于产生虚拟和增强现实的方法和系统
CN104484523B (zh) 2014-12-12 2017-12-08 西安交通大学 一种增强现实诱导维修系统的实现设备与方法
WO2016100816A1 (en) * 2014-12-19 2016-06-23 United Technologies Corporation Sensor data fusion for prognostics and health monitoring
US9514391B2 (en) * 2015-04-20 2016-12-06 Xerox Corporation Fisher vectors meet neural networks: a hybrid visual classification architecture
AU2016265876C1 (en) * 2015-05-15 2021-02-25 Motion Metrics International Corp Method and apparatus for locating a wear part in an image of an operating implement
CN204737554U (zh) 2015-06-18 2015-11-04 吴江骏达电梯部件有限公司 一种带安全抓捕功能的电梯
CA2993824A1 (en) 2015-07-29 2017-02-02 Illinois Tool Works Inc. System and method to facilitate welding software as a service
KR20170083419A (ko) 2016-01-08 2017-07-18 마우키스튜디오 주식회사 레이블링되지 않은 다수의 학습 데이터를 이용하여 딥 러닝의 모델을 트레이닝하는 방법 및 이를 수행하는 딥 러닝 시스템
ES2909047T3 (es) * 2016-03-14 2022-05-05 Siemens Mobility GmbH Método y sistema para minar eficientemente elementos esenciales de un conjunto de datos con estrategia de remuestreo con reposición en estimación de pose con 6DOF de objetos en 3D
US10546195B2 (en) * 2016-12-02 2020-01-28 Geostat Aerospace & Technology Inc. Methods and systems for automatic object detection from aerial imagery
CN107358596B (zh) * 2017-04-11 2020-09-18 阿里巴巴集团控股有限公司 一种基于图像的车辆定损方法、装置、电子设备及系统
US10733744B2 (en) * 2017-05-11 2020-08-04 Kla-Tencor Corp. Learning based approach for aligning images acquired with different modalities
US20180330205A1 (en) * 2017-05-15 2018-11-15 Siemens Aktiengesellschaft Domain adaptation and fusion using weakly supervised target-irrelevant data
US20180330194A1 (en) * 2017-05-15 2018-11-15 Siemens Aktiengesellschaft Training an rgb-d classifier with only depth data and privileged information

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111079837A (zh) * 2019-12-16 2020-04-28 桂林电子科技大学 一种用于二维灰度图像检测识别分类的方法
CN111079837B (zh) * 2019-12-16 2022-06-28 桂林电子科技大学 一种用于二维灰度图像检测识别分类的方法

Also Published As

Publication number Publication date
US10460431B2 (en) 2019-10-29
US20190217340A1 (en) 2019-07-18
CN110046641A (zh) 2019-07-23
CN110046641B (zh) 2023-05-02

Similar Documents

Publication Publication Date Title
DE102019200407A1 (de) Teileerkennung und schadencharakterisierung durch deep-learning
US20190285517A1 (en) Method for evaluating health status of mechanical equipment
DE102018200221A1 (de) Verfahren zur Baustellenüberwachung
DE102017009471A1 (de) Humankollaboratives robotersystem mit verbesserter genauigkeit der erfassung einer äusseren kraft durch maschinelles lernen
CN108805093A (zh) 基于深度学习的手扶电梯乘客摔倒检测算法
DE112017001648T5 (de) Autonome semantische Kennzeichnung von phsischen Orten
EP3693312A1 (de) Analyse von aufzugssystemkomponenten
DE102017127098B4 (de) Gerät und Verfahren zum Annehmen eines Anormalitätsauftretens für Teleskopabdeckung
DE112012004000T5 (de) Fahrunterstützungsvorrichtung und Verfahren
CN116110012B (zh) 用于智慧工地的危险违规动作识别方法及系统
DE102017106535A1 (de) Strassenoberflächenzustand-Erkennung mit Multi-Scale Fusion
DE102019130208A1 (de) Zustandsbeurteilungsvorrichtung und Zustandsbeurteilungsverfahren
DE102020133445A1 (de) Kameraorchestrierungstechnologie zum verbessern von automatischer personenidentifizierung
EP3629305A1 (de) Vorrichtung und verfahren zur erkennung eines ist-zustandes eines innenraums eines peoplemovers
CN103487250A (zh) 基于二维投射的煤矿设备预知维护方法
WO2010139495A1 (de) Verfahren und vorrichtung zum klassifizieren von situationen
WO2018197089A1 (de) Verfahren und vorrichtung zum rechnergestützten erzeugen einer virtuellen zugumgebung
CN113987905A (zh) 一种基于深度信念网络的自动扶梯制动力智能诊断系统
DE102007000449A1 (de) Vorrichtung und Verfahren zur automatischen Zaehlung von Objekten auf beweglichem oder bewegtem Untergrund
CN110411686A (zh) 桥梁静动影像全息性态健康监测诊断方法及系统
DE102019214111A1 (de) Klassifikation von statischen und dynamischen Objekten
DE102023103232A1 (de) Netz für biometrische aufgaben
DE102017219269A1 (de) Klassifizierung mit automatischer Auswahl aussichtsreicher Lerndaten
DE102017126553A1 (de) Erfassungssystem
DE102021214737A1 (de) Messung durch Signal- zu- Signal- Übersetzung