DE102019200407A1 - Teileerkennung und schadencharakterisierung durch deep-learning - Google Patents
Teileerkennung und schadencharakterisierung durch deep-learning Download PDFInfo
- Publication number
- DE102019200407A1 DE102019200407A1 DE102019200407.5A DE102019200407A DE102019200407A1 DE 102019200407 A1 DE102019200407 A1 DE 102019200407A1 DE 102019200407 A DE102019200407 A DE 102019200407A DE 102019200407 A1 DE102019200407 A1 DE 102019200407A1
- Authority
- DE
- Germany
- Prior art keywords
- classification
- determining
- computer program
- program product
- computing device
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B23/00—Testing or monitoring of control systems or parts thereof
- G05B23/02—Electric testing or monitoring
- G05B23/0205—Electric testing or monitoring by means of a monitoring system capable of detecting and responding to faults
- G05B23/0218—Electric testing or monitoring by means of a monitoring system capable of detecting and responding to faults characterised by the fault detection method dealing with either existing or incipient faults
- G05B23/0243—Electric testing or monitoring by means of a monitoring system capable of detecting and responding to faults characterised by the fault detection method dealing with either existing or incipient faults model based detection method, e.g. first-principles knowledge model
- G05B23/0254—Electric testing or monitoring by means of a monitoring system capable of detecting and responding to faults characterised by the fault detection method dealing with either existing or incipient faults model based detection method, e.g. first-principles knowledge model based on a quantitative model, e.g. mathematical relationships between inputs and outputs; functions: observer, Kalman filter, residual calculation, Neural Networks
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B07—SEPARATING SOLIDS FROM SOLIDS; SORTING
- B07C—POSTAL SORTING; SORTING INDIVIDUAL ARTICLES, OR BULK MATERIAL FIT TO BE SORTED PIECE-MEAL, e.g. BY PICKING
- B07C5/00—Sorting according to a characteristic or feature of the articles or material being sorted, e.g. by control effected by devices which detect or measure such characteristic or feature; Sorting by manually actuated devices, e.g. switches
- B07C5/04—Sorting according to size
- B07C5/12—Sorting according to size characterised by the application to particular articles, not otherwise provided for
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B07—SEPARATING SOLIDS FROM SOLIDS; SORTING
- B07C—POSTAL SORTING; SORTING INDIVIDUAL ARTICLES, OR BULK MATERIAL FIT TO BE SORTED PIECE-MEAL, e.g. BY PICKING
- B07C5/00—Sorting according to a characteristic or feature of the articles or material being sorted, e.g. by control effected by devices which detect or measure such characteristic or feature; Sorting by manually actuated devices, e.g. switches
- B07C5/34—Sorting according to other particular properties
- B07C5/342—Sorting according to other particular properties according to optical properties, e.g. colour
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B65—CONVEYING; PACKING; STORING; HANDLING THIN OR FILAMENTARY MATERIAL
- B65G—TRANSPORT OR STORAGE DEVICES, e.g. CONVEYORS FOR LOADING OR TIPPING, SHOP CONVEYOR SYSTEMS OR PNEUMATIC TUBE CONVEYORS
- B65G47/00—Article or material-handling devices associated with conveyors; Methods employing such devices
- B65G47/34—Devices for discharging articles or materials from conveyor
- B65G47/46—Devices for discharging articles or materials from conveyor and distributing, e.g. automatically, to desired points
- B65G47/48—Devices for discharging articles or materials from conveyor and distributing, e.g. automatically, to desired points according to bodily destination marks on either articles or load-carriers
- B65G47/49—Devices for discharging articles or materials from conveyor and distributing, e.g. automatically, to desired points according to bodily destination marks on either articles or load-carriers without bodily contact between article or load carrier and automatic control device, e.g. the destination marks being electrically or electronically detected
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2413—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on distances to training or reference patterns
- G06F18/24147—Distances to closest patterns, e.g. nearest neighbour classification
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/088—Non-supervised learning, e.g. competitive learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
- G06T7/0004—Industrial image inspection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
- G06T7/0004—Industrial image inspection
- G06T7/001—Industrial image inspection using an image reference approach
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
- G06T7/74—Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
- G06V10/443—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
- G06V10/449—Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters
- G06V10/451—Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters with interaction between the filter responses, e.g. cortical complex cells
- G06V10/454—Integrating the filters into a hierarchical structure, e.g. convolutional neural networks [CNN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/98—Detection or correction of errors, e.g. by rescanning the pattern or by human intervention; Evaluation of the quality of the acquired patterns
- G06V10/993—Evaluation of the quality of the acquired pattern
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/60—Type of objects
- G06V20/64—Three-dimensional objects
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B65—CONVEYING; PACKING; STORING; HANDLING THIN OR FILAMENTARY MATERIAL
- B65G—TRANSPORT OR STORAGE DEVICES, e.g. CONVEYORS FOR LOADING OR TIPPING, SHOP CONVEYOR SYSTEMS OR PNEUMATIC TUBE CONVEYORS
- B65G47/00—Article or material-handling devices associated with conveyors; Methods employing such devices
- B65G47/52—Devices for transferring articles or materials between conveyors i.e. discharging or feeding devices
- B65G47/68—Devices for transferring articles or materials between conveyors i.e. discharging or feeding devices adapted to receive articles arriving in one layer from one conveyor lane and to transfer them in individual layers to more than one conveyor lane or to one broader conveyor lane, or vice versa, e.g. combining the flows of articles conveyed by more than one conveyor
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/044—Recurrent networks, e.g. Hopfield networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30108—Industrial image inspection
- G06T2207/30164—Workpiece; Machine component
Abstract
Gemäß einer Ausführungsform wird ein Verfahren zum Identifizieren eines Teils eines Fördersystems bereitgestellt. Das Verfahren umfasst: Aufnehmen eines Bildes eines Teils eines Fördersystems unter Verwendung einer Kamera; Klassifizieren des Teils des Fördersystems unter Verwendung von überwachtem Lernen; und Anzeigen einer Klassifizierung des Teils des Teils auf einer mobilen Rechenvorrichtung.
Description
- HINTERGRUND
- Der hierin offenbarte Gegenstand bezieht sich im Allgemeinen auf den Bereich der Fördersysteme, insbesondere auf ein Verfahren und ein Gerät zur Teileerkennung von Fördersystemen und zur Schadenserkennung.
- Die Mechaniker im Bereich der Fördersysteme versuchen zunehmend, Wartungs- und Reparaturaufgaben effizienter und sicherer zu erledigen. Eine Schlüsselaufgabe, die als Mitverursacher der Gesamtzeit vor Ort identifiziert wurde, ist die Identifizierung eines Teils und das Bestimmen, ob dieses Aufzugsteil ersetzt werden muss. Zahlreiche Teilevariationen, schwierige Lichtverhältnisse und allgemeine Umgebungsbedingungen können es für die Mechaniker im Bereich der Fördersysteme zeitaufwendig machen, Aufzugsteile zu identifizieren und Schäden zu bestimmen.
- KURZBESCHREIBUNG
- Gemäß einer Ausführungsform wird ein Verfahren zum Erkennen eines Teils eines Fördersystems bereitgestellt. Das Verfahren umfasst: Aufnehmen eines Bildes eines Teils eines Fördersystems unter Verwendung einer Kamera; Klassifizieren des Teils des Fördersystems unter Verwendung von überwachtem Lernen; und Anzeigen einer Klassifizierung des Teils des Teils auf einer mobilen Rechenvorrichtung.
- Zusätzlich zu einem oder mehreren der vorstehend beschriebenen Merkmale oder als Alternative können weitere Ausführungsformen beinhalten, dass überwachtes Lernen weiter Deep-Learning-Modelle beinhaltet.
- Zusätzlich zu einem oder mehreren der vorstehend beschriebenen Merkmale oder als Alternative können weitere Ausführungsformen beinhalten, dass die Klassifizierung weiter beinhaltet: Bestimmen einer Klassifizierung des Teils als Reaktion auf die Daten.
- Zusätzlich zu einem oder mehreren der vorstehend beschriebenen Merkmale oder als Alternative können weitere Ausführungsformen beinhalten, dass die Klassifizierung weiter beinhaltet: Extraktion einer niedrigdimensionalen Darstellung der Daten; Vergleich der niedrigdimensionalen Darstellung des Bildes mit mindestens einem Rendering der Computer-Aided-Design-(CAD-)Modelle des Teils und früher aufgenommener Bilder des Teils; und Bestimmung eines nächsten Nachbarn für eine Klassifizierung des Teils.
- Zusätzlich zu einem oder mehreren der vorstehend beschriebenen Merkmale oder als Alternative können weitere Ausführungsformen beinhalten, dass die niedrigdimensionale Darstellung der Bilder unter Verwendung der unüberwachten Merkmalsextraktion extrahiert wird.
- Zusätzlich zu einem oder mehreren der vorstehend beschriebenen Merkmale oder als Alternative können weitere Ausführungsformen beinhalten, dass der Sensor funktionsfähig in der mobilen Rechenvorrichtung beinhaltet ist.
- Zusätzlich zu einem oder mehreren der vorstehend beschriebenen Merkmale oder als Alternative können weitere Ausführungsformen beinhalten, dass der Sensor funktionsfähig an die mobile Rechenvorrichtung angebaut ist.
- Zusätzlich zu einem oder mehreren der vorstehend beschriebenen Merkmale oder als Alternative können weitere Ausführungsformen beinhalten: Bestimmen eines Rekonstruktionsfehlers als Reaktion auf die Klassifizierung des Teils und des nächsten Nachbarn.
- Zusätzlich zu einem oder mehreren der vorstehend beschriebenen Merkmale oder als Alternative können weitere Ausführungsformen beinhalten: Bestimmen einer Schadensmenge an dem Teil als Reaktion auf den Rekonstruktionsfehler.
- Zusätzlich zu einem oder mehreren der vorstehend beschriebenen Merkmale oder als Alternative können weitere Ausführungsformen beinhalten: Erkennung tatsächlicher Zeitreihendaten für das Teil; Vergleichen der tatsächlichen Zeitreihendaten für das Teil mit simulierten Zeitreihendaten, die ein normales Verhalten des Teils zeigen; and Bestimmung einer Schadensmenge an dem Teil als Reaktion auf den Rekonstruktionsfehler.
- Gemäß einer weiteren Ausführungsform wird ein Computerprogramm-Produkt bereitgestellt, das auf einem computerlesbaren Medium greifbar ausgeführt ist. Das Computerprogramm-Produkt beinhaltet Anweisungen, die, wenn sie von einem Prozessor ausgeführt werden, veranlassen, dass der Prozessor Handlungen ausführt, die Folgendes umfassen: Aufnehmen eines Bildes eines Teils eines Fördersystems unter Verwendung eines Sensors; Klassifizieren des Teils des Fördersystems unter Verwendung von überwachtem Lernen; und Anzeigen einer Klassifizierung des Teils auf einer mobilen Rechenvorrichtung.
- Zusätzlich zu einem oder mehreren der vorstehend beschriebenen Merkmale oder als Alternative können weitere Ausführungsformen beinhalten, dass überwachtes Lernen weiter ein Deep-Learning-Modell beinhaltet.
- Zusätzlich zu einem oder mehreren der vorstehend beschriebenen Merkmale oder als Alternative können weitere Ausführungsformen beinhalten, dass die Klassifizierung weiter beinhaltet: Bestimmen einer Klassifizierung des Teils als Reaktion auf die Daten.
- Zusätzlich zu einem oder mehreren der vorstehend beschriebenen Merkmale oder als Alternative können weitere Ausführungsformen beinhalten, dass die Klassifizierung weiter beinhaltet: Extraktion einer niedrigdimensionalen Darstellung der Daten; Vergleich der niedrigdimensionalen Darstellung des Bildes mit mindestens einem Rendering der Computer-Aided-Design-(CAD-)Modelle des Teils und früher aufgenommener Bilder des Teils; und Bestimmung eines nächsten Nachbarn für eine Klassifizierung des Teils.
- Zusätzlich zu einem oder mehreren der vorstehend beschriebenen Merkmale oder als Alternative können weitere Ausführungsformen beinhalten, dass die niedrigdimensionale Darstellung der Bilder unter Verwendung der unüberwachten Merkmalsextraktion extrahiert wird.
- Zusätzlich zu einem oder mehreren der vorstehend beschriebenen Merkmale oder als Alternative können weitere Ausführungsformen beinhalten, dass der Sensor funktionsfähig in der mobilen Rechenvorrichtung beinhaltet ist.
- Zusätzlich zu einem oder mehreren der vorstehend beschriebenen Merkmale oder als Alternative können weitere Ausführungsformen beinhalten, dass der Sensor funktionsfähig an die mobile Rechenvorrichtung angebaut ist.
- Zusätzlich zu einem oder mehreren der vorstehend beschriebenen Merkmale oder als Alternative können weitere Ausführungsformen beinhalten, dass die Handlungen weiter Folgendes umfassen: Bestimmen eines Rekonstruktionsfehlers als Reaktion auf die Klassifizierung des Teils und des nächsten Nachbarn.
- Zusätzlich zu einem oder mehreren der vorstehend beschriebenen Merkmale oder als Alternative können weitere Ausführungsformen beinhalten, dass die Handlungen weiter Folgendes umfassen: Bestimmen einer Schadensmenge an dem Teil als Reaktion auf den Rekonstruktionsfehler.
- Zusätzlich zu einem oder mehreren der vorstehend beschriebenen Merkmale oder als Alternative können weitere Ausführungsformen beinhalten, dass die Handlungen weiter Folgendes umfassen: Erkennung tatsächlicher Zeitreihendaten für das Teil; Vergleichen der tatsächlichen Zeitreihendaten für das Teil mit simulierten Zeitreihendaten, die ein normales Verhalten des Teils zeigen; und Bestimmung einer Schadensmenge an dem Teil als Reaktion auf den Rekonstruktionsfehler.
- Technische Effekte von Ausführungsformen der vorliegenden Offenbarung beinhalten die Verwendung einer Kamera für mobile Vorrichtungen, um Aufzugsteile durch Deep- Learning zu erkennen.
- Die vorstehenden Merkmale und Elemente können in mehreren Kombinationen ohne Exklusivität kombiniert werden, sofern nicht ausdrücklich anders angegeben. Diese Merkmale und Elemente sowie die Handlungen davon werden angesichts der folgenden Beschreibung und beigefügten Zeichnungen offensichtlicher werden. Es ist jedoch zu verstehen, dass die folgenden Beschreibungen und Zeichnungen illustrativer und erklärender Natur und nicht einschränkend sein sollen.
- Figurenliste
- Die vorstehenden und weitere Aufgaben, Merkmale und Vorteile der Offenbarung werden in der folgenden ausführlichen Beschreibung zusammen mit den beigefügten Zeichnungen besser hervorgehen, in welchen gleichartige Elemente in den einzelnen FIGUREN gleichnummeriert sind:
-
1 veranschaulicht eine schematische Ansicht eines Aufzugssystems gemäß einer Ausführungsform der Offenbarung; und -
2-3 sind ein Flussdiagramm des Verfahrens zum Identifizieren eines Teils des Aufzugssystems aus1 gemäß einer Ausführungsform der Offenbarung. - AUSFÜHRLICHE BESCHREIBUNG
-
1 veranschaulicht eine schematische Ansicht eines Aufzugssystems10 gemäß einer Ausführungsform der Offenbarung. Es versteht sich, dass, während ein Aufzugssystem10 zur exemplarischen Veranschaulichung verwendet wird, die hierin offenbarten Ausführungsformen auf andere Fördersysteme wie beispielsweise Rolltreppen angewendet werden können.2 veranschaulicht eine schematische Ansicht eines Gebäudeaufzugssystems100 einschließlich des Aufzugssystems10 aus1 gemäß einer Ausführungsform der Offenbarung. Mit Bezug auf1 beinhaltet das Aufzugssystem10 eine Aufzugskabine23 , die konfiguriert ist, um sich vertikal nach oben und unten innerhalb eines Schachtes50 entlang einer Vielzahl von Kabinenführungsschienen60 zu bewegen. Wie in1 zu sehen, beinhaltet die Aufzugskabine23 eine Tür27 , die konfiguriert ist, um sich zu öffnen und zu schließen, so dass die Fahrgäste die Aufzugskabine23 betreten und verlassen können. Das Aufzugssystem10 beinhaltet auch ein Gegengewicht28 , das über ein Flaschenzugsystem26 funktionsfähig mit der Aufzugskabine23 verbunden ist. Das Gegengewicht28 ist konfiguriert, um sich innerhalb des Schachtes50 vertikal nach oben und unten zu bewegen. Das Gegengewicht28 bewegt sich in eine Richtung, die im Allgemeinen der Bewegung der Aufzugskabine23 entgegengesetzt ist, wie sie bei herkömmlichen Aufzugsanordnungen bekannt ist. Die Bewegung des Gegengewichts28 wird durch Gegengewichtsführungsschienen70 im Schacht50 geführt. - Das Aufzugssystem
10 beinhaltet auch eine Stromquelle12 . Der Strom wird von der Stromquelle12 an eine Schalttafel14 bereitgestellt, welche Leistungsschalter, Zähler usw. beinhalten kann. Von der Schalttafel14 aus kann der Strom direkt an die Antriebseinheit20 über die Steuerung30 oder an ein internes Stromquellenladegerät16 bereitgestellt werden, das Wechselstrom in Gleichstrom (DC) umwandelt, um eine interne Stromquelle18 zu laden, die geladen werden muss. Zum Beispiel kann eine interne Stromquelle18 , die aufgeladen werden muss, eine Batterie, ein Kondensator oder eine andere Art von Energiespeichervorrichtung sein, die einem der Durchschnittsfachmänner bekannt ist. Alternativ kann die interne Stromquelle18 nicht von der externen Stromquelle12 geladen werden müssen und kann eine Vorrichtung sein, wie beispielsweise ein gasbetriebener Generator, Solarzellen, Wasserkraftgenerator, Windkraftgenerator oder eine ähnliche Stromerzeugungsvorrichtung. Die interne Stromquelle18 kann verschiedene Komponenten des Aufzugssystems10 mit Strom versorgen, wenn eine externe Stromquelle nicht verfügbar ist. Die Antriebseinheit20 treibt eine Maschine22 an, um der Aufzugskabine23 über eine Treibscheibe der Maschine22 eine Bewegung zu verleihen. Die Maschine22 beinhaltet auch eine Bremse24 , die aktiviert werden kann, um die Maschine22 und die Aufzugskabine23 zu stoppen. Wie von Fachmännern geschätzt, stellt1 ein maschinenraumloses Aufzugssystem10 dar, jedoch können die hierin offenbarten Ausführungsformen mit anderen Aufzugssystemen kombiniert werden, die nicht maschinenraumlos, hydraulisch sind oder die jede andere bekannte Aufzugskonfiguration beinhalten. Zusätzlich können auch Aufzugssysteme mit mehr als einer unabhängig arbeitenden Aufzugskabine in jedem Aufzugskabinenschacht und/oder seillose Aufzugssysteme verwendet werden. In einer Ausführungsform kann die Aufzugskabine23 zwei oder mehr Abteile aufweisen. - Die Steuerung
30 ist für das Steuern des Betriebs des Aufzugssystems10 verantwortlich. Die Steuerung30 kann auch einen Modus (motorisch, regenerativ, nahezu ausgeglichen) der Aufzugskabine23 bestimmen. Die Steuerung30 kann die Kabinenrichtung und die Gewichtsverteilung zwischen der Aufzugskabine23 und dem Gegengewicht28 verwenden, um den Modus der Aufzugskabine23 zu bestimmen. Die Steuerung30 kann die Geschwindigkeit der Aufzugskabine23 anpassen, um einen Zielstockwerk zu erreichen. Die Steuerung30 kann einen Prozessor und einen zugehörigen Speicher beinhalten. Der Prozessor kann, ist aber nicht beschränkt auf, ein Einprozessor- oder Mehrprozessorsystem mit einer der unterschiedlichsten möglichen Architekturen sein, einschließlich Field Programmable Gate Array (FPGA), Central Processing Unit (CPU), Application Specific Integrated Circuits (ASIC), Digitaler Signalprozessor (DSP) oder Graphic Processing Unit (GPU) Hardware, die homogen oder heterogen angeordnet ist. Der Speicher kann, ist aber nicht beschränkt auf, einen Direktzugriffsspeicher (RAM), einen Nur-LeseSpeicher (ROM) oder andere elektronische, optische, magnetische oder andere computerlesbare Medien sein. -
2 und3 zeigen ein Datenerkennungssystem100 und ein Flussdiagramm des Verfahrens102 zum Identifizieren eines Teils des Aufzugssystems aus1 gemäß einer Ausführungsform der vorliegenden Offenbarung. In einer Ausführungsform können die Daten Teil des Aufzugssystems sein. Das Datenerkennungssystem100 beinhaltet eine Lernphase, wie in2 gezeigt und eine Einrichtungsphase, wie in3 gezeigt. Das Datenerkennungssystem100 beinhaltet eine mobile Rechenvorrichtung200 , die in der Lage ist, von einem Aufzugstechniker vor Ort zu einem Aufzugssystem10 getragen zu werden. Die mobile Rechenvorrichtung200 kann eine Vorrichtung sein, die typischerweise von einer Person getragen wird, wie beispielsweise ein Telefon, PDA, Smart Watch, Tablet, Laptop, usw.. Die mobile Rechenvorrichtung200 kann in der Lage sein, Bilder106 von Aufzugsteilen105 des Aufzugssystems10 über eine Kamera260 aufzunehmen, die in der mobilen Rechenvorrichtung200 beinhaltet ist und/oder funktionsfähig an der mobilen Rechenvorrichtung200 angebracht ist. In einem Bespiel kann die Kamera260 eine Smartphone-Kamera sein, die in dem Smartphone beinhaltet ist. In einem anderen Beispiel kann die Kamera260 eine separate Kamera sein, die funktionsfähig über einen drahtgebundenen und/oder drahtlosen Anbringungsmechanismus an der mobilen Rechenvorrichtung200 angebracht ist. Die Kamera260 kann ein nach vorne gerichtetes Infrarot-Radiometer (FLIR) sein. - Die mobile Rechenvorrichtung
200 kann einen Prozessor250 , Speicher252 , Kommunikationsmodul254 und ein oder mehrere Sensoren für mikroelektromechanische Systeme (MEMS)251 beinhalten, wie in2 gezeigt. Der MEMS-Sensor kann ein Sensor sein, wie beispielsweise ein Beschleunigungsmesser, ein Gyroskop oder ein ähnlicher oder anderer Sensor, der einem Fachmann bekannt ist. Der Prozessor250 kann jede Art oder Kombination von Computerprozessoren sein, wie beispielsweise ein Mikroprozessor, eine Mikrosteuerung, ein digitaler Signalprozessor, eine anwendungsspezifische integrierte Schaltung, eine programmierbare Logikvorrichtung und/oder ein in dem Bereich programmierbares Gate-Array. Der Speicher252 ist ein Beispiel für ein nichtflüchtiges, computerlesbares Speichermedium, das in der mobilen Rechenvorrichtung200 greifbar ausgeführt ist, beinhaltend ausführbare Anweisungen, die darin gespeichert sind, zum Beispiel als Firmware. Das Kommunikationsmodul254 kann ein oder mehrere Kommunikationsprotokolle implementieren, wie hierin weiter beschrieben. Die mobile Rechenvorrichtung200 kann eine Bescheinigung258 beinhalten, die angibt, zu welchem Aufzugstechniker die mobile Rechenvorrichtung200 gehört. Die mobile Rechenvorrichtung200 kann eine Alarmvorrichtung257 beinhalten, die konfiguriert ist, um einen Alarm259 zu aktivieren. In drei nicht einschränkenden Beispielen kann die Alarmvorrichtung257 ein Vibrationsmotor, ein Audio-Lautsprecher und/oder eine Anzeige sein. Der Alarm259 kann akustisch, optisch, haptisch und/oder vibrierend sein. Die mobile Rechenvorrichtung200 kann auch eine Anwendung255 beinhalten. Die hierin offenbarten Ausführungsformen können über die auf der mobilen Rechenvorrichtung200 installierte Anwendung255 betrieben werden. - Die
2-3 zeigen auch ein Flussdiagramm des Verfahrens102 zum Betreiben des Datenerfassungssystems100 (z. B. Bild oder Zeitreihen) gemäß einer Ausführungsform der Offenbarung. Das Verfahren102 ist in drei Segmente unterteilt, eine reale Datenlernphase102a , eine künstliche Datenlernphase102b und eine Einrichtungsphase102c . Bei Block110b nimmt die mobile Rechenvorrichtung200 die Eingangsdaten103 der Aufzugsteile105 des Aufzugssystems10 über die Kamera260 auf. In einer Ausführungsform können die Eingangsdaten106 Bilder der Aufzugsteile105 sein. Bei Block120 wird ein Klassifizierungsmodul122 in der Anwendung255 auf der mobilen Rechenvorrichtung200 verwendet, um das Teil105 zu klassifizieren (d. h. zu identifizieren). In einer Ausführungsform kann das Klassifizierungsmodul122 ein überwachtes Deep-Learning-Modell124 sein (z. B. Deep Neural Networks (DNN), Convolution Neural Network (CNN), Recurrent Neural Networks (RNN) und Long Term Memory Networks (LSTM) und RNNs mit Gated Recurrent Units (GRU)). Das Klassifizierungsmodul122 kann eine Datenbank170 mit künstlichen Daten104 und/oder realen Daten106 verwenden, um eine Klassifizierung der von der mobilen Rechenvorrichtung200 erfassten Eingangsdaten103 zu bestimmen. - Die Klassifizierung stellt die Identität der Eingangsdaten
103 dar. Die Klassifizierung kann die Eingangsdaten103 als spezifisches Teil105 identifizieren. Das Klassifizierungsmodul122 kann eine reale Datenbank340 beinhalten und/oder funktionsfähig mit dieser verbunden sein, die zuvor aufgenommene reale Daten (z. B. Bilder oder Zeitreihen) 106 der Teile105 beinhaltet, die in unterschiedlichen Ausrichtungen, Auflösungen, Beleuchtungen und Skalen (für Bilder) oder verschiedenen Betriebsmodi (für Zeitreihen) erstellt wurden. Reale Daten106 können von den Sensoren310 und/oder mobilen Rechenvorrichtungen200 bei Block110a gesammelt und in einer realen Datenbank340 gespeichert werden. Die realen Daten106 werden vom Klassifizierungsmodul122 (z. B. DNN, CNN, LSTM, RNN, GRU) verwendet, um zu lernen, die Klassifizierung der Eingangsdaten103 bei Block120 durchzuführen. Das Klassifizierungsmodul kann überwachte Modelle für die Klassifizierung bei Block124 erstellen. - Die realen Daten
106 können auch vom unüberwachten Deep-Learning-Modul142 genutzt werden. Nicht überwachte Merkmalsextraktionsmodule142 wie Deep Auto Encoder (DAE), Convolutional Auto Encoder (CAE) und/oder Dimensionsreduktionstechniken (z. B. Hauptkomponentenanalyse (PCA) und deren Varianten) können verwendet werden, um eine niedrigdimensionale Darstellung der künstlichen Daten104 und/oder der realen Daten106 bei Block140 zu extrahieren. - Künstliche Daten
104 können als Computer-Aided-Design (CAD)-Modelle410 aus verschiedenen Teilen105 stammen. Die Daten können von den CAD-Modellen410 bei Block412 gerendert werden und die künstlichen Daten104 können in der künstlichen Datenbank360 gespeichert werden. Die künstlichen Daten104 können auch mit der Datenbank170 geteilt werden, wo eine Domänenanpassung durchgeführt werden kann, um eine Brücke zwischen den künstlichen Daten104 und den realen Daten106 herzustellen. Die Datenbank170 kann in der Anwendung255 auf der mobilen Rechenvorrichtung200 und/oder in einem Cloud Rechennetzwerk300 gespeichert werden. - Bei Block
120 , wenn das Klassifizierungsmodul (z. B. CNN) nicht genügend Vertrauen hat (d. h. geringes Vertrauen bei Block130 ), dass die von der mobilen Rechenvorrichtung200 erfassten Daten106 mit einem Teil105 in der Datenbank170 übereinstimmen, dann wird unter Verwendung des trainierten unüberwachten Merkmalsextraktionsmoduls142 (z. B. DAE und/oder CAE) bei Block140 eine niedrigdimensionale Darstellung extrahiert und die niedrigdimensionale Darstellung wird verwendet, um nach einem nächsten Nachbarn (d. h. dem engsten übereinstimmenden Teil105 ) in der Teiledatenbank170 zu suchen, um den Teil105 bei Block180 zu identifizieren. - Das unüberwachte Merkmalsextraktionsmodul
142 kann auch einen Rekonstruktionsfehler analysieren, um eine Schadensmenge an dem Teil105 zu bestimmen. Zum Beispiel kann der nächste Nachbar (d. h. das engste übereinstimmende Teil105 ) in der Teiledatenbank170 aufgrund von Schäden am Teil105 nicht genau mit dem Teil105 übereinstimmen, aber eine Schadensmenge kann durch den zwischen dem nächsten Nachbarn und dem Teil105 gemessenen Rekonstruktionsfehler bestimmt werden. - Der Rekonstruktionsfehler zusammen mit dem nächsten benachbarten Teil kann auf der mobilen Rechenvorrichtung
200 des Aufzugstechnikers bei Block160 eingesehen werden. Relevanzrückmeldungen können von einem Aufzugstechniker unter Verwendung der mobilen Rechenvorrichtung200 bereitgestellt werden, nachdem er den nächsten Nachbarn des Teils105 überprüft hat, von dem er ein Bild106 unter Verwendung der Kamera260 erstellt hat. - Zusätzlich können ein oder mehrere Sensoren
310 funktionsfähig mit verschiedenen Teilen105 des Aufzugssystems10 verbunden sein, um Schäden an einem Teil105 besser erkennen zu können. Die Sensoren310 können reale Daten106 (z. B. aktuelle Zeitreihendaten) für jeden Teil105 des Aufzugssystems10 sammeln. Die realen Daten106 können Sensor 310-Messungen jedes Teils105 während der Betriebsbedingungen beinhalten. Die realen Daten106 (z. B. aktuelle Zeitreihendaten) werden in der realen Datenbank340 gespeichert, die sich in der Cloud300 befinden kann. Künstliche Daten104 (z. B. simulierte Zeitreihendaten), die das normale Verhalten jedes Teils105 demonstrieren, können auch in der Cloud300 gespeichert werden. Die künstlichen Daten104 (z. B. simulierte Zeitreihendaten) werden in der künstlichen Datenbank360 gespeichert. Wiederkehrende Architekturen (z. B. RNN, LSTM, GRU) können mit dem Merkmalsextraktionsmodul (z. B. DAE) verwendet werden, um aus den künstlichen Daten104 (z. B. simulierte Zeitreihendaten) zu lernen und mit den realen Daten106 (z. B. tatsächliche Zeitreihendaten) zu vergleichen, um Anomalien (d. h. eine Schadensmenge) in jedem Teil105 festzustellen. - Obwohl die vorstehende Beschreibung den Ablaufprozess von
2 in einer bestimmten Reihenfolge beschrieben hat, ist zu beachten, dass, sofern in den beigefügten Behauptungen nichts anderes angegeben ist, die Reihenfolge der Schritte variiert werden kann. - Wie vorstehend beschrieben, können Ausführungsformen in Form von prozessorimplementierten Prozessen und Vorrichtungen zum Üben dieser Prozesse, wie beispielsweise dem Prozessor, vorliegen. Ausführungsformen können auch in Form von Computerprogrammcode vorliegen, der Anweisungen enthält, die in greifbaren Medien ausgeführt sind, wie Netzwerk-Cloud-Speicher, SD-Karten, Flash-Laufwerke, Disketten, CD-ROMs, Festplatten oder andere computerlesbare Speichermedien, wobei, wenn der Computerprogrammcode in einen Computer geladen und von einem Computer ausgeführt wird, der Computer eine Vorrichtung zum Üben der Ausführungsformen wird. Ausführungsformen können auch in Form von Computerprogrammcode vorliegen, zum Beispiel, ob sie auf einem Speichermedium gespeichert, in einen Computer geladen und/oder von ihm ausgeführt oder über ein Übertragungsmedium übertragen werden, beispielsweise über eine elektrische verdrahtung oder Verkabelung, durch Glasfaser oder durch elektromagnetische Strahlung, wobei der Computer, wenn der Computerprogrammcode in einen von einem Computer geladenen und ausgeführten Computer geladen wird, zu einer Vorrichtung zum Üben der Ausführungsformen wird. Wenn sie auf einem universellen Mikroprozessor implementiert sind, konfigurieren die Computerprogrammcode-Segmente den Mikroprozessor so, dass er spezifische Logikschaltungen erstellt.
- Die hierin verwendete Terminologie dient einzig und allein dem Zweck der Beschreibung von bestimmten Ausführungsformen und soll nicht einschränken. Während die Beschreibung zu Zwecken der Veranschaulichung und Beschreibung präsentiert wurde, soll sie jedoch nicht erschöpfend sein oder die Ausführungsformen auf die offenbarte Form beschränken. Viele Modifikationen, Variationen, Änderungen, Substitutionen oder gleichwertige Anordnungen, die hier nicht beschrieben sind, werden den Durchschnittsfachmännern offensichtlich sein, ohne von dem Geltungsbereich der Offenbarung abzuweichen. Auch wenn die verschiedenen Ausführungsformen beschrieben wurden, ist zu verstehen, dass Aspekte nur einige der beschriebenen Ausführungsformen beinhalten können. Dementsprechend ist die Offenbarung nicht als durch die vorstehende Beschreibung eingeschränkt anzusehen, sondern nur durch den Umfang der beigefügten Ansprüche eingeschränkt.
Claims (20)
- Verfahren zur Erkennung eines Teils eines Fördersystems, wobei das Verfahren Folgendes umfasst: Aufnahme eines Bildes eines Teils eines Fördersystems mithilfe einer Kamera; Klassifizierung des Teils des Fördersystems mithilfe überwachten Lernens; und Anzeige einer Klassifizierung des Teils des Teils auf einer mobilen Rechenvorrichtung.
- Verfahren nach
Anspruch 1 , wobei: überwachtes Lernen außerdem Deep- Learning- Modelle umfasst. - Verfahren nach
Anspruch 1 oder2 , wobei die Klassifizierung außerdem umfasst: Bestimmung einer Klassifizierung des Teils als Reaktion auf die Daten. - Verfahren nach
Anspruch 1 ,2 oder3 , wobei die Klassifizierung außerdem umfasst: Extraktion einer niedrigdimensionalen Darstellung der Daten; Vergleich der niedrigdimensionalen Darstellung des Bildes mit mindestens einem Rendering der Computer-Aided-Design-(CAD-)Modelle des Teils und früher aufgenommener Bilder des Teils; und Bestimmung eines nächsten Nachbarn für eine Klassifizierung des Teils. - Verfahren nach
Anspruch 1 bis4 , wobei: die niedrigdimensionale Darstellung der Bilder mithilfe einer nicht überwachten Merkmalextraktion extrahiert wird. - Verfahren nach
Anspruch 1 bis5 , wobei: der Sensor funktionsfähig in die mobile Rechenvorrichtung integriert wird. - Verfahren nach
Anspruch 1 bis5 , wobei: der Sensor funktionsfähig an die mobile Rechenvorrichtung angebaut wird. - Verfahren nach
Anspruch 4 , das ferner Folgendes umfasst: Bestimmung eines Rekonstruktionsfehlers als Reaktion auf die Klassifizierung des Teils und des nächsten Nachbarn. - Verfahren nach
Anspruch 4 , das ferner Folgendes umfasst: Bestimmung einer Schadensmenge an dem Teil als Reaktion auf den Rekonstruktionsfehler. - Verfahren nach
Anspruch 4 , das ferner Folgendes umfasst: Erkennung tatsächlicher Zeitreihendaten für das Teil; Vergleichen der tatsächlichen Zeitreihendaten für das Teil mit simulierten Zeitreihendaten, die ein normales Verhalten des Teils zeigen; und Bestimmung einer Schadensmenge an dem Teil als Reaktion auf den Rekonstruktionsfehler. - Ein Computerprogramm-Produkt, das greifbar auf einem computerlesbaren Medium ausgeführt ist, wobei das Computerprogramm-Produkt Anweisungen enthält, dass es bei Ausführung durch einen Prozessor den Prozess dazu veranlasst, die folgenden Handlungen durchzuführen: Aufnahme eines Bildes eines Teils eines Fördersystems mithilfe eines Sensors; Klassifizierung des Teils des Fördersystems mithilfe überwachten Lernens; und Anzeige einer Klassifizierung des Teils auf einer mobilen Rechenvorrichtung.
- Computerprogramm-Produkt nach
Anspruch 11 , wobei: überwachtes Lernen außerdem ein Deep-Learning-Modell umfasst. - Computerprogramm-Produkt nach
Anspruch 11 oder12 , wobei die Klassifizierung außerdem umfasst: Bestimmung einer Klassifizierung des Teils als Reaktion auf die Daten. - Computerprogramm-Produkt nach
Anspruch 11 bis13 , wobei die Klassifizierung außerdem umfasst: Extraktion einer niedrigdimensionalen Darstellung der Daten; Vergleich der niedrigdimensionalen Darstellung des Bildes mit mindestens einem Rendering der Computer-Aided-Design-(CAD-)Modelle des Teils und früher aufgenommener Bilder des Teils; und Bestimmung eines nächsten Nachbarn für eine Klassifizierung des Teils. - Computerprogramm-Produkt nach
Anspruch 11 bis14 , wobei: die niedrigdimensionale Darstellung der Bilder mithilfe einer nicht überwachten Merkmalextraktion extrahiert wird. - Computerprogramm-Produkt nach
Anspruch 11 bis15 , wobei: der Sensor funktionsfähig in die mobile Rechenvorrichtung integriert wird. - Computerprogramm-Produkt nach
Anspruch 11 bis15 , wobei: der Sensor funktionsfähig an die mobile Rechenvorrichtung angebaut wird. - Computerprogramm-Produkt nach
Anspruch 14 , wobei die Handlungen außerdem umfassen: Bestimmung eines Rekonstruktionsfehlers als Reaktion auf die Klassifizierung des Teils und des nächsten Nachbarn. - Computerprogramm-Produkt nach
Anspruch 14 , wobei die Handlungen außerdem umfassen: Bestimmung einer Schadensmenge an dem Teil als Reaktion auf den Rekonstruktionsfehler. - Verfahren nach
Anspruch 4 , wobei die Handlungen außerdem umfassen: Erkennung tatsächlicher Zeitreihendaten für das Teil; Vergleichen der tatsächlichen Zeitreihendaten für das Teil mit simulierten Zeitreihendaten, die ein normales Verhalten des Teils zeigen; und Bestimmung einer Schadensmenge an dem Teil als Reaktion auf den Rekonstruktionsfehler.
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US15/871,526 US10460431B2 (en) | 2018-01-15 | 2018-01-15 | Part recognition and damage characterization using deep learning |
US15/871,526 | 2018-01-15 |
Publications (1)
Publication Number | Publication Date |
---|---|
DE102019200407A1 true DE102019200407A1 (de) | 2019-07-18 |
Family
ID=67068953
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE102019200407.5A Pending DE102019200407A1 (de) | 2018-01-15 | 2019-01-15 | Teileerkennung und schadencharakterisierung durch deep-learning |
Country Status (3)
Country | Link |
---|---|
US (1) | US10460431B2 (de) |
CN (1) | CN110046641B (de) |
DE (1) | DE102019200407A1 (de) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111079837A (zh) * | 2019-12-16 | 2020-04-28 | 桂林电子科技大学 | 一种用于二维灰度图像检测识别分类的方法 |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111428632A (zh) * | 2020-03-23 | 2020-07-17 | 中国科学院重庆绿色智能技术研究院 | 一种绞车状态检测方法及矿工行为检测方法 |
US11282240B2 (en) | 2020-04-23 | 2022-03-22 | Saudi Arabian Oil Company | Generation and implementation of multi-layer encoded data images |
US11785022B2 (en) * | 2020-06-16 | 2023-10-10 | Zscaler, Inc. | Building a Machine Learning model without compromising data privacy |
Family Cites Families (32)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
FR2695632B1 (fr) | 1992-09-16 | 1994-12-16 | Otis Elevator Co | Plafond intégré pour cabine d'ascenseur. |
US8224078B2 (en) * | 2000-11-06 | 2012-07-17 | Nant Holdings Ip, Llc | Image capture and identification system and process |
US6763148B1 (en) | 2000-11-13 | 2004-07-13 | Visual Key, Inc. | Image recognition methods |
WO2006136643A1 (en) | 2005-06-23 | 2006-12-28 | Kone Corporation | Elevator arrangement |
JP2007091430A (ja) | 2005-09-29 | 2007-04-12 | Toshiba Elevator Co Ltd | エレベータ装置 |
US7860317B2 (en) * | 2006-04-04 | 2010-12-28 | Microsoft Corporation | Generating search results based on duplicate image detection |
US8391634B1 (en) | 2009-04-28 | 2013-03-05 | Google Inc. | Illumination estimation for images |
GB2478738A (en) | 2010-03-16 | 2011-09-21 | Belron Hungary Kft Zug Branch | Eye level display in communication with electronic device |
US8213680B2 (en) * | 2010-03-19 | 2012-07-03 | Microsoft Corporation | Proxy training data for human body tracking |
ES2397728B1 (es) | 2010-12-16 | 2014-01-15 | Dragados, S.A. | Sistema de ayuda al mantenimiento preventivo y reparación de maquinaria remota e in-situ. |
US20140368649A1 (en) | 2011-08-30 | 2014-12-18 | Kaipo Chen | Image Recognition System Controlled Illumination Device |
EP2936445A2 (de) | 2012-12-20 | 2015-10-28 | Accenture Global Services Limited | Kontextbasierte erweiterte realität |
CN110084878B (zh) | 2012-12-21 | 2023-07-07 | 苹果公司 | 用于在真实环境中表示虚拟信息的方法 |
US9076195B2 (en) * | 2013-08-29 | 2015-07-07 | The Boeing Company | Methods and apparatus to identify components from images of the components |
EP3742405A3 (de) | 2013-09-24 | 2021-01-13 | Apple Inc. | Verfahren zur darstellung von relevanten punkten in einer ansicht einer realen umgebung auf einer mobilen vorrichtung und mobile vorrichtung dafür |
WO2015134665A1 (en) | 2014-03-04 | 2015-09-11 | SignalSense, Inc. | Classifying data with deep learning neural records incrementally refined through expert input |
WO2015161307A1 (en) | 2014-04-18 | 2015-10-22 | Magic Leap, Inc. | Systems and methods for augmented and virtual reality |
WO2015188275A1 (en) | 2014-06-10 | 2015-12-17 | Sightline Innovation Inc. | System and method for network based application development and implementation |
CN106937531B (zh) | 2014-06-14 | 2020-11-06 | 奇跃公司 | 用于产生虚拟和增强现实的方法和系统 |
CN104484523B (zh) | 2014-12-12 | 2017-12-08 | 西安交通大学 | 一种增强现实诱导维修系统的实现设备与方法 |
WO2016100816A1 (en) * | 2014-12-19 | 2016-06-23 | United Technologies Corporation | Sensor data fusion for prognostics and health monitoring |
US9514391B2 (en) * | 2015-04-20 | 2016-12-06 | Xerox Corporation | Fisher vectors meet neural networks: a hybrid visual classification architecture |
AU2016265876C1 (en) * | 2015-05-15 | 2021-02-25 | Motion Metrics International Corp | Method and apparatus for locating a wear part in an image of an operating implement |
CN204737554U (zh) | 2015-06-18 | 2015-11-04 | 吴江骏达电梯部件有限公司 | 一种带安全抓捕功能的电梯 |
CA2993824A1 (en) | 2015-07-29 | 2017-02-02 | Illinois Tool Works Inc. | System and method to facilitate welding software as a service |
KR20170083419A (ko) | 2016-01-08 | 2017-07-18 | 마우키스튜디오 주식회사 | 레이블링되지 않은 다수의 학습 데이터를 이용하여 딥 러닝의 모델을 트레이닝하는 방법 및 이를 수행하는 딥 러닝 시스템 |
ES2909047T3 (es) * | 2016-03-14 | 2022-05-05 | Siemens Mobility GmbH | Método y sistema para minar eficientemente elementos esenciales de un conjunto de datos con estrategia de remuestreo con reposición en estimación de pose con 6DOF de objetos en 3D |
US10546195B2 (en) * | 2016-12-02 | 2020-01-28 | Geostat Aerospace & Technology Inc. | Methods and systems for automatic object detection from aerial imagery |
CN107358596B (zh) * | 2017-04-11 | 2020-09-18 | 阿里巴巴集团控股有限公司 | 一种基于图像的车辆定损方法、装置、电子设备及系统 |
US10733744B2 (en) * | 2017-05-11 | 2020-08-04 | Kla-Tencor Corp. | Learning based approach for aligning images acquired with different modalities |
US20180330205A1 (en) * | 2017-05-15 | 2018-11-15 | Siemens Aktiengesellschaft | Domain adaptation and fusion using weakly supervised target-irrelevant data |
US20180330194A1 (en) * | 2017-05-15 | 2018-11-15 | Siemens Aktiengesellschaft | Training an rgb-d classifier with only depth data and privileged information |
-
2018
- 2018-01-15 US US15/871,526 patent/US10460431B2/en active Active
-
2019
- 2019-01-14 CN CN201910031194.4A patent/CN110046641B/zh active Active
- 2019-01-15 DE DE102019200407.5A patent/DE102019200407A1/de active Pending
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111079837A (zh) * | 2019-12-16 | 2020-04-28 | 桂林电子科技大学 | 一种用于二维灰度图像检测识别分类的方法 |
CN111079837B (zh) * | 2019-12-16 | 2022-06-28 | 桂林电子科技大学 | 一种用于二维灰度图像检测识别分类的方法 |
Also Published As
Publication number | Publication date |
---|---|
US10460431B2 (en) | 2019-10-29 |
US20190217340A1 (en) | 2019-07-18 |
CN110046641A (zh) | 2019-07-23 |
CN110046641B (zh) | 2023-05-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
DE102019200407A1 (de) | Teileerkennung und schadencharakterisierung durch deep-learning | |
US20190285517A1 (en) | Method for evaluating health status of mechanical equipment | |
DE102018200221A1 (de) | Verfahren zur Baustellenüberwachung | |
DE102017009471A1 (de) | Humankollaboratives robotersystem mit verbesserter genauigkeit der erfassung einer äusseren kraft durch maschinelles lernen | |
CN108805093A (zh) | 基于深度学习的手扶电梯乘客摔倒检测算法 | |
DE112017001648T5 (de) | Autonome semantische Kennzeichnung von phsischen Orten | |
EP3693312A1 (de) | Analyse von aufzugssystemkomponenten | |
DE102017127098B4 (de) | Gerät und Verfahren zum Annehmen eines Anormalitätsauftretens für Teleskopabdeckung | |
DE112012004000T5 (de) | Fahrunterstützungsvorrichtung und Verfahren | |
CN116110012B (zh) | 用于智慧工地的危险违规动作识别方法及系统 | |
DE102017106535A1 (de) | Strassenoberflächenzustand-Erkennung mit Multi-Scale Fusion | |
DE102019130208A1 (de) | Zustandsbeurteilungsvorrichtung und Zustandsbeurteilungsverfahren | |
DE102020133445A1 (de) | Kameraorchestrierungstechnologie zum verbessern von automatischer personenidentifizierung | |
EP3629305A1 (de) | Vorrichtung und verfahren zur erkennung eines ist-zustandes eines innenraums eines peoplemovers | |
CN103487250A (zh) | 基于二维投射的煤矿设备预知维护方法 | |
WO2010139495A1 (de) | Verfahren und vorrichtung zum klassifizieren von situationen | |
WO2018197089A1 (de) | Verfahren und vorrichtung zum rechnergestützten erzeugen einer virtuellen zugumgebung | |
CN113987905A (zh) | 一种基于深度信念网络的自动扶梯制动力智能诊断系统 | |
DE102007000449A1 (de) | Vorrichtung und Verfahren zur automatischen Zaehlung von Objekten auf beweglichem oder bewegtem Untergrund | |
CN110411686A (zh) | 桥梁静动影像全息性态健康监测诊断方法及系统 | |
DE102019214111A1 (de) | Klassifikation von statischen und dynamischen Objekten | |
DE102023103232A1 (de) | Netz für biometrische aufgaben | |
DE102017219269A1 (de) | Klassifizierung mit automatischer Auswahl aussichtsreicher Lerndaten | |
DE102017126553A1 (de) | Erfassungssystem | |
DE102021214737A1 (de) | Messung durch Signal- zu- Signal- Übersetzung |