DE102018005652A1 - Informationsverarbeitungsvorrichtung - Google Patents

Informationsverarbeitungsvorrichtung Download PDF

Info

Publication number
DE102018005652A1
DE102018005652A1 DE102018005652.0A DE102018005652A DE102018005652A1 DE 102018005652 A1 DE102018005652 A1 DE 102018005652A1 DE 102018005652 A DE102018005652 A DE 102018005652A DE 102018005652 A1 DE102018005652 A1 DE 102018005652A1
Authority
DE
Germany
Prior art keywords
sensor data
data
information processing
combinations
performance
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102018005652.0A
Other languages
English (en)
Inventor
Takefumi GOTOU
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fanuc Corp
Original Assignee
Fanuc Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fanuc Corp filed Critical Fanuc Corp
Publication of DE102018005652A1 publication Critical patent/DE102018005652A1/de
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/088Non-supervised learning, e.g. competitive learning
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/84Systems specially adapted for particular applications
    • G01N21/88Investigating the presence of flaws or contamination
    • G01N21/8851Scan or image signal processing specially adapted therefor, e.g. for scan signal adjustment, for detecting different kinds of defects, for compensating for structures, markings, edges
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01DMEASURING NOT SPECIALLY ADAPTED FOR A SPECIFIC VARIABLE; ARRANGEMENTS FOR MEASURING TWO OR MORE VARIABLES NOT COVERED IN A SINGLE OTHER SUBCLASS; TARIFF METERING APPARATUS; MEASURING OR TESTING NOT OTHERWISE PROVIDED FOR
    • G01D5/00Mechanical means for transferring the output of a sensing member; Means for converting the output of a sensing member to another variable where the form or nature of the sensing member does not constrain the means for converting; Transducers not specially adapted for a specific variable
    • G01D5/54Mechanical means for transferring the output of a sensing member; Means for converting the output of a sensing member to another variable where the form or nature of the sensing member does not constrain the means for converting; Transducers not specially adapted for a specific variable using means specified in two or more of groups G01D5/02, G01D5/12, G01D5/26, G01D5/42, and G01D5/48
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01RMEASURING ELECTRIC VARIABLES; MEASURING MAGNETIC VARIABLES
    • G01R31/00Arrangements for testing electric properties; Arrangements for locating electric faults; Arrangements for electrical testing characterised by what is being tested not provided for elsewhere
    • G01R31/34Testing dynamo-electric machines
    • G01R31/343Testing dynamo-electric machines in operation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/06Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons
    • G06N3/061Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons using biological neurons, e.g. biological neurons connected to an integrated circuit
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/84Systems specially adapted for particular applications
    • G01N21/88Investigating the presence of flaws or contamination
    • G01N21/8851Scan or image signal processing specially adapted therefor, e.g. for scan signal adjustment, for detecting different kinds of defects, for compensating for structures, markings, edges
    • G01N2021/8883Scan or image signal processing specially adapted therefor, e.g. for scan signal adjustment, for detecting different kinds of defects, for compensating for structures, markings, edges involving the calculation of gauges, generating models
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N2201/00Features of devices classified in G01N21/00
    • G01N2201/12Circuits of general importance; Signal processing
    • G01N2201/129Using chemometrical methods
    • G01N2201/1296Using chemometrical methods using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/042Knowledge-based neural networks; Logical representations of neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/12Computing arrangements based on biological models using genetic models
    • G06N3/126Evolutionary algorithms, e.g. genetic algorithms or genetic programming

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Software Systems (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Data Mining & Analysis (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Mathematical Physics (AREA)
  • Artificial Intelligence (AREA)
  • Molecular Biology (AREA)
  • General Health & Medical Sciences (AREA)
  • Computational Linguistics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Neurology (AREA)
  • Medical Informatics (AREA)
  • Chemical & Material Sciences (AREA)
  • Biochemistry (AREA)
  • Immunology (AREA)
  • Pathology (AREA)
  • Microelectronics & Electronic Packaging (AREA)
  • Analytical Chemistry (AREA)
  • Signal Processing (AREA)
  • Manipulator (AREA)
  • Testing And Monitoring For Control Systems (AREA)
  • Image Analysis (AREA)
  • Testing Or Calibration Of Command Recording Devices (AREA)

Abstract

Eine Informationsverarbeitungsvorrichtung erzeugt mehrere Kombinationen von an einer maschinellen Lernvorrichtung eingegebenen Sensordaten gemäß der Auswahlregel, gibt die Kombinationen von Sensordaten an der maschinellen Lernvorrichtung ein und erzeugt einen Akzeptor entsprechend jeder der Kombinationen von Sensordaten. Ferner wird die Leistung der Akzeptoren gemäß der für die Akzeptoren erforderlichen voraussichtlichen Leistung bewertet und es werden die Kombinationen von Sensordaten entsprechend den die voraussichtliche Leistung erfüllenden Akzeptoren ausgegeben. Somit werden die Raten des Beitrags von zwei oder mehr Teilen von an der maschinellen Lernvorrichtung eingegebenen Sensordaten bewertet und die Konfiguration von Sensoren wird optimiert.

Description

  • HINTERGRUND DER ERFINDUNG
  • Gebiet der Erfindung
  • Die vorliegende Erfindung betrifft eine Informationsverarbeitungsvorrichtung und insbesondere eine zum Bewerten der Raten des Beitrags einer Vielzahl von Teilen von an einer maschinellen Lernvorrichtung eingegebenen Sensordaten und Optimieren der Konfiguration von Sensoren eingerichtete Informationsverarbeitungsvorrichtung.
  • Beschreibung des Stands der Technik
  • Bei der Steuerung von Werkzeugmaschinen u. Ä. und in verwandten Gebieten kommen in großem Umfang maschinelle Lernvorrichtungen zum Einsatz. Beispielsweise kann eine maschinelle Lernvorrichtung das Vorhandensein oder Fehlen eines Kratzers an einem Werkstück aus von einer Vielzahl von Kameras, die Bilder des Werkstücks erfassen, gewonnenen Eingabedaten ermitteln. Ferner kann eine maschinelle Lernvorrichtung eine Anomalieerkennung an einem Motor auf der Basis von Eingabewerten wie dem Ausgabewert eines Mikrofons, dem Störungswert eines Stroms und dem Ausgabewert eines Beschleunigungssensors o. Ä. durchführen.
  • Der Stand der Technik kennt maschinelle Lernvorrichtungen, die eine Vielzahl von Teilen von von Sensoren u. Ä. erfassten Eingabedaten mit einem Ansatz zum maschinellen Lernen wie Klassifizierung, Regression oder Clustern erkennen. Verfahren zum Durchführen von maschinellem Lernen durch Kombinieren einer Vielzahl von Teilen von Sensordaten in diesem Sinne werden als Sensorfusion bezeichnet. Einige maschinelle Lernvorrichtungen, die eine Sensorfusion vornehmen, führen maschinelles Lernen durch Empfangen von aus direkt von Sensoren u. Ä. ausgegebenen Daten extrahierten Merkmalsdaten wie SIFT und SURF (solche Daten sind nachfolgend als Rohdaten bezeichnet) durch und andere führen maschinelles Lernen durch direktes Empfangen von Rohdaten durch maschinelles Deep Learning durch.
  • Ein Beispiel für das Sensorfusionsverfahren ist in der japanischen offengelegten Patentanmeldung Nr. 6-102217 beschrieben. In diesem Verfahren werden Ausgabesignale einer Vielzahl von Gassensoren an einem neuronalen Netz eingegeben und der Gastyp wird auf der Basis von vom neuronalen Netz vorab gelernten Identifikationsmustern identifiziert.
  • Mit Sensorfusion kann durch Eingeben verschiedener Arten von Sensordaten in Kombination eine Verarbeitung mit hoher Genauigkeit wie Lernen, Erkennen oder Schätzen durchgeführt werden. Aus einer Vielzahl von Teilen von Sensordaten aber ist aber ein Ansatz zum systematischen Identifizieren von Sensordaten mit einer hohen oder niedrigen Rate des Beitrags zum Ergebnis des Lernens, Erkennens oder Schätzens und Optimieren der Konfiguration von Sensoren, so dass die erforderliche Leistung erfüllt ist, noch nicht vorhanden. Wenn beispielsweise Sensordaten mit einer niedrigen Rate des Beitrags zum Ergebnis des Lernens, Erkennens oder Schätzens identifiziert werden können, können monetäre Kosten wie die Preise von Sensoren an sich und die für die Sensordatenerfassung u. Ä. erforderlichen Kosten gesenkt werden. Ferner können die zum Messen, Erfassen und Verarbeiten von Daten erforderliche Zeit, Last u. Ä. verringert werden und das Ergebnis kann schnell ausgegeben werden.
  • ZUSAMMENFASSUNG DER ERFINDUNG
  • Die vorliegende Erfindung wurde zum Lösen der zuvor beschriebenen Probleme entwickelt und eine Aufgabe der vorliegenden Erfindung besteht im Bereitstellen einer Informationsverarbeitungsvorrichtung, welche die Raten des Beitrags einer Vielzahl von Teilen von an einer maschinellen Lernvorrichtung eingegebenen Sensordaten bewerten und die Konfiguration von Sensoren optimieren kann.
  • Eine Informationsverarbeitungsvorrichtung gemäß einem Aspekt der vorliegenden Erfindung umfasst eine zum Empfangen einer Vielzahl von verschiedenen Teilen von Sensordaten und Durchführen von maschinellem Lernen eingerichtete maschinelle Lernvorrichtung. Die Informationsverarbeitungsvorrichtung umfasst: einen zum Festlegen einer Auswahlregel zum Erzeugen von einer oder mehreren Kombinationen der Sensordaten eingerichteten Eingabedaten-Steuerabschnitt; einen zum Erzeugen einer Vielzahl von Kombinationen der Sensordaten gemäß der Auswahlregel, Eingeben der Kombinationen der Sensordaten an die maschinellen Lernvorrichtung und Erzeugen eines Akzeptors entsprechend jeder der Kombinationen der Sensordaten eingerichteten Eingabedaten-Auswahlabschnitt; einen zum Festlegen der für die Akzeptoren erforderlichen voraussichtlichen Leistung eingerichteten Abschnitt zum Festlegen der voraussichtlichen Leistung; und einen zum Bewerten der Leistung der Akzeptoren gemäß der voraussichtlichen Leistung und Ausgeben der Kombination der Sensordaten entsprechend dem die voraussichtliche Leistung erfüllenden Akzeptor eingerichteten Leistungsbewertungsabschnitt.
  • Die voraussichtliche Leistung kann unter Verwendung der Kosten zum Erfassen der Sensordaten definiert werden und die Kosten zum Erfassen der Sensordaten können auf der Basis eines Preises eines Sensors zum Erfassen der Sensordaten, eines Grades der Schwierigkeit der Installation des Sensors oder des/der zum Erfassen oder Verarbeiten der Sensoren erforderlichen Aufwands, Zeit oder Verarbeitungslast berechnet werden.
  • Die voraussichtliche Leistung kann unter Verwendung einer richtigen Antwortrate, einer Genauigkeitsrate, einer Rückrufrate oder eines F-Werts des Akzeptors definiert werden.
  • Die Sensordaten können Temperatur, Weg, Druck, Strom, Geschwindigkeit, Beschleunigung, Bild, Beleuchtungsstärke, Audio, Geruch oder Länge betreffen.
  • Der Leistungsbewertungsabschnitt kann eine zum Anzeigen einer Vielzahl von Kombinationen der Sensordaten, wobei die Kombinationen die voraussichtliche Leistung erfüllen, und Ermöglichen einem Benutzer zum Auswählen einer gewünschten Kombination der Sensordaten eingerichtete Schnittstelle umfassen.
  • Der Akzeptor kann ein neuronales Netz umfassen.
  • Der Eingabedaten-Steuerabschnitt kann ferner eine Festlegungsregel für eine Konfiguration einer Zwischenschicht des neuronalen Netzes festlegen.
  • Der Eingabedaten-Steuerabschnitt kann die Auswahlregel zum Löschen der Sensordaten mit einem kleinen Kopplungskoeffizient zwischen einer Eingabeschicht und einer Zwischenschicht im neuronalen Netz aufweisen.
  • Der Eingabedaten-Steuerabschnitt kann die Auswahlregel zum Löschen der Sensordaten mit einer niedrigen Rate an Beitrag einer Zwischenschicht zum Auslösen zum Zeitpunkt der Erkennung im neuronalen Netz aufweisen.
  • Die Sensordaten können von einem oder mehreren Sensoren durch ein Kommunikationsnetzwerk gesammelt werden.
  • Die vorliegende Erfindung kann eine Informationsverarbeitungsvorrichtung bereitstellen, welche die Raten des Beitrags einer Vielzahl von Teilen von an einer maschinellen Lernvorrichtung eingegebenen Sensordaten bewerten und die Konfiguration von Sensoren optimieren kann.
  • Figurenliste
    • 1 zeigt ein Blockdiagramm der Hardwarekonfiguration einer Informationsverarbeitungsvorrichtung gemäß Ausführungsform 1 der vorliegenden Erfindung.
    • 2 zeigt ein schematisches Funktionsblockdiagramm der Informationsverarbeitungsvorrichtung in 1.
    • 3 zeigt ein Blockdiagramm der Konfiguration von einem Aspekt einer maschinellen Lernvorrichtung in der in 2 dargestellten Informationsverarbeitungsvorrichtung.
    • 4A zeigt ein Diagramm zum Erläutern eines Neurons.
    • 4B zeigt ein Diagramm zum Erläutern eines neuronalen Netzes.
    • 5 zeigt ein Fließbild zur Darstellung eines Ablaufs des Betriebs der in 2 dargestellten Informationsverarbeitungsvorrichtung.
    • 6 zeigt eine Ansicht zum Erläutern eines Beispiels, in dem die Informationsverarbeitungsvorrichtung gemäß Ausführungsform 1 auf eine Werkstückkratzer-Prüfung angewendet wird.
    • 7 zeigt eine Ansicht zum Erläutern eines Beispiels, in dem die Informationsverarbeitungsvorrichtung gemäß Ausführungsform 1 auf eine Motoranomalieerkennung angewendet wird.
    • 8 zeigt ein Fließbild zur Darstellung des Betriebs der in 2 dargestellten Informationsverarbeitungsvorrichtung.
  • AUSFÜHRLICHE BESCHREIBUNG DER BEVORZUGTEN AUSFÜHRUNGSFORMEN
  • Zunächst wird eine Informationsverarbeitungsvorrichtung gemäß Ausführungsform 1 der vorliegenden Erfindung beschrieben.
  • 1 zeigt ein Blockdiagramm der Hardwarekonfiguration einer Informationsverarbeitungsvorrichtung 100 gemäß Ausführungsform 1 der vorliegenden Erfindung.
  • Eine CPU 11 ist ein Prozessor, der die Informationsverarbeitungsvorrichtung 100 insgesamt steuert. Die CPU 11 ruft ein in einem ROM 12 gespeichertes Systemprogramm über einen Bus 20 ab und steuert die gesamte Informationsverarbeitungsvorrichtung 100 gemäß dem Systemprogramm. Ein RAM 13 speichert vorübergehend Daten wie temporäre Berechnungsdaten oder Anzeigedaten und verschiedene Arten von von außen eingegebenen Daten.
  • Ein nichtflüchtiger Speicher 14 ist als Speicher ausgebildet, der den Speicherzustand unter Verwendung beispielsweise einer nicht dargestellten Batterie für den Speicherbackup erhält, auch wenn die Stromversorgung der Informationsverarbeitungsvorrichtung 100 ausgeschaltet ist. Der nichtflüchtige Speicher 14 speichert verschiedene Arten von Programmen und von durch eine nicht dargestellte Schnittstelle eingegebenen Daten. Solche im nichtflüchtigen Speicher 14 gespeicherte Programme und Daten können zum Zeitpunkt der Verwendung in das RAM 13 geladen werden. In das ROM 12 wurden vorab verschiedene Systemprogramme geschrieben.
  • Sensordaten 60 sind von Sensoren, die verschiedene Zustände einer Umgebung messen, gemessene Werte (Sensordaten). Beispielsweise geben ein Temperatursensor, ein Wegsensor, ein Drucksensor, ein Stromsensor, ein Geschwindigkeitssensor, ein Beschleunigungssensor, eine Kamera, ein Beleuchtungsstärkensensor, ein Mikrofon, ein Geruchssensor, ein Längenmesser u. Ä. die Sensordaten 60 aus. Die vorliegende Ausführungsform umfasst zwei oder mehr Sensoren und die Sensoren geben jeweils verschiedene Arten von Sensordaten aus. Beispielsweise können die Sensordaten 60 eine Kombination von von einem Mikrofon ausgegebenen Audiodaten, von einem Beschleunigungssensor ausgegebenen Beschleunigungsdaten, von einer Kamera zum Erfassen eines Bilds einer Oberfläche eines Werkstücks ausgegebenen Bilddaten und von einer Kamera zum Erfassen eines Bilds einer Seitenfläche des Werkstücks ausgegebenen Bilddaten sein. Die Informationsverarbeitungsvorrichtung 100 empfängt die Sensordaten 60 durch eine Schnittstelle 18 und sendet die Sensordaten 60 an die CPU 11.
  • Ermittlungsdaten 70 sind in Verbindung mit den Sensordaten 60 in maschinellem Lernen gelernte Daten. Beispielsweise werden beim Erzeugen eines maschinellen Lernmodells zum Durchführen einer Motoranomalieerkennung mit den Sensordaten 60, wenn die Sensordaten 60 an der Schnittstelle 18 eingegeben werden, Daten zur Angabe der Normalität oder Anomalie eines Motors, welche die Ermittlungsdaten 70 sind, an der Schnittstelle 19 eingegeben. Wenn beispielsweise ein Bediener die Normalität oder Anomalie des Motors erkennt und das Ergebnis der Erkennung mit einer Tastatur eingibt, empfängt die Informationsverarbeitungsvorrichtung 100 von der Tastatur ausgegebene Daten als die Ermittlungsdaten 70 durch die Schnittstelle 19 und sendet die Ermittlungsdaten 70 an die CPU 11.
  • Eine Schnittstelle 21 ist eine Schnittstelle zum Verbinden der Informationsverarbeitungsvorrichtung 100 und einer maschinellen Lernvorrichtung 300. Die maschinelle Lernvorrichtung 300 umfasst einen Prozessor 301 zum Steuern der gesamten maschinellen Lernvorrichtung 300, ein ROM 302 zum Speichern von Systemprogrammen u. Ä., ein RAM 303 zum Speichern von temporären Daten in am maschinellen Lernen beteiligten Prozessen und einen nichtflüchtigen Speicher 304 zum Speichern eines Lernmodells u. Ä. Die maschinelle Lernvorrichtung 300 kann durch die Schnittstelle 21 verschiedene Arten von Sensordaten beobachten, welche die Informationsverarbeitungsvorrichtung 100 erfassen kann. Prozessor und ROM von maschineller Lernvorrichtung 300 und Informationsverarbeitungsvorrichtung 100 können die gleichen sein. Ferner kann der Prozessor eine GPU oder ein FPGA zum Erhöhen der Verarbeitungsgeschwindigkeit aufweisen.
  • 2 zeigt ein schematisches Funktionsblockdiagramm der Informationsverarbeitungsvorrichtung 100. Die Informationsverarbeitungsvorrichtung 100 umfasst die maschinelle Lernvorrichtung 300, einen Eingabedaten-Auswahlabschnitt 110, einen Abschnitt zum Festlegen der voraussichtlichen Leistung 120, einen Leistungsbewertungsabschnitt 130 und einen Eingabedaten-Steuerabschnitt 140.
  • Die maschinelle Lernvorrichtung 300 der Informationsverarbeitungsvorrichtung 100 umfasst Software (Lernalgorithmus u. Ä.) und Hardware (wie den Prozessor 301) zum spontanen Lernen der Korrelation zwischen den Sensordaten 60 und den Ermittlungsdaten 70 durch sogenanntes maschinelles Lernen. Was von der maschinellen Lernvorrichtung 300 gelernt wird, entspricht einer Modellstruktur zum Darstellen der Korrelation zwischen den Sensordaten 60 und den Ermittlungsdaten 70.
  • Die maschinelle Lernvorrichtung 300 umfasst einen Zustandsbeobachtungsabschnitt 306 zum Beobachten der Sensordaten 60 als eine Zustandsvariable S zum Darstellen des aktuellen Zustands einer Umgebung, einen Ermittlungsdaten-Erfassungsabschnitt 308 zum Erfassen der Ermittlungsdaten 70 als Ermittlungsdaten D und einen Lernabschnitt 310 zum Durchführen von Lernen durch Verknüpfen der Sensordaten 60 mit den Ermittlungsdaten 70 unter Verwendung der Zustandsvariable S und der Ermittlungsdaten D.
  • Der Zustandsbeobachtungsabschnitt 306 kann als eine Funktion des Prozessors 301 ausgebildet sein oder kann als im ROM 302 gespeicherte Software zum Veranlassen des Prozessors 301 zum Arbeiten ausgebildet sein. Der Ermittlungsdaten-Erfassungsabschnitt 308 kann ebenfalls als eine Funktion des Prozessors 301 ausgebildet sein oder kann als im ROM 302 gespeicherte Software zum Veranlassen des Prozessors 301 zum Arbeiten ausgebildet sein.
  • Der Lernabschnitt 310 kann als eine Funktion des Prozessors 301 ausgebildet sein oder kann als im ROM 302 gespeicherte Software zum Veranlassen des Prozessors 301 zum Arbeiten ausgebildet sein. Der Lernabschnitt 310 lernt die Korrelation zwischen den Sensordaten 60 und den Ermittlungsdaten 70 gemäß einem Lernalgorithmus, was allgemein als maschinelles Lernen bezeichnet wird. Der Lernabschnitt 310 kann wiederholt ein Lernen auf der Basis einer Datensammlung umfassend die Zustandsvariable S und die Ermittlungsdaten D wie zuvor beschrieben durchführen.
  • Durch Wiederholen des zuvor beschriebenen Lernzyklus kann der Lernabschnitt 310 automatisch Merkmale beinhaltend die Korrelation zwischen den Sensordaten 60 und den Ermittlungsdaten 70 identifizieren. Wenn der Lernalgorithmus gestartet wird, ist die Korrelation zwischen den Sensordaten 60 und den Ermittlungsdaten 70 im Wesentlichen unbekannt; der Lernabschnitt 310 identifiziert aber schrittweise Merkmale und interpretiert die Korrelation als Lernfortschritte. Wenn die Korrelation zwischen den Sensordaten 60 und den Ermittlungsdaten 70 in einem zuverlässigen Maße interpretiert ist, können wiederholt vom Lernabschnitt 310 ausgegebene Lernergebnisse zum Schätzen verwendet werden, welche Ermittlungsdaten 70 für den aktuellen Zustand (Sensordaten 60) vorliegen sollen. Insbesondere kann mit dem Fortschritt des Lernalgorithmus der Lernabschnitt 310 schrittweise die Korrelation zwischen den Sensordaten 60 und den Ermittlungsdaten 70 einer optimalen Lösung annähern.
  • Wie zuvor beschrieben lernt in der maschinellen Lernvorrichtung 300 der Informationsverarbeitungsvorrichtung 100 der Lernabschnitt 310 die Korrelation zwischen den Sensordaten 60 und den Ermittlungsdaten 70 gemäß einem maschinellen Lernalgorithmus unter Verwendung der vom Zustandsbeobachtungsabschnitt 306 beobachteten Zustandsvariable S und der vom Ermittlungsdaten-Erfassungsabschnitt 308 erfassten Ermittlungsdaten D. Die Zustandsvariable S umfasst nicht störanfällige Daten und die Ermittlungsdaten D werden eindeutig ermittelt. Somit können mit der maschinellen Lernvorrichtung 300 der Informationsverarbeitungsvorrichtung 100 die Ermittlungsdaten 70 entsprechend den Sensordaten 60 automatisch und korrekt unter Verwendung von Ergebnissen des Lernens durch den Lernabschnitt 310 statt durch Berechnung oder Schätzung ermittelt werden.
  • In der maschinellen Lernvorrichtung 300 mit der zuvor beschriebenen Konfiguration ist der Lernalgorithmus, den der Lernabschnitt 310 ausführt, nicht besonders beschränkt und es kann ein beliebiger, allgemein bekannter Lernalgorithmus zum maschinellen Lernen verwendet werden.
  • 3 zeigt die Konfiguration eines Aspekts der maschinellen Lernvorrichtung 300 in der in 2 dargestellten Informationsverarbeitungsvorrichtung 100, die den Lernabschnitt 310 umfasst, der überwachtes Lernen als ein Beispiel für einen Lernalgorithmus ausführt.
  • Überwachtes Lernen ist ein Verfahren zum Lernen eines Korrelationsmodells zum Schätzen einer erforderlichen Ausgabe (Ermittlungsdaten 70 entsprechend den Sensordaten 60) für eine neue Eingabe durch Erstellen einer großen Menge von bekannten Datensätzen (sogenannte Lehrerdaten), von denen jeder eine Eingabe und eine Ausgabe entsprechend der Eingabe umfasst, vorab und Identifizieren eines Merkmals beinhaltend die Korrelation zwischen Eingabe und Ausgabe von den Lehrerdaten.
  • In der in 3 dargestellten maschinellen Lernvorrichtung 300 umfasst der Lernabschnitt 310 einen Fehlerberechnungsabschnitt 311 zum Berechnen eines Fehlers E zwischen einem Korrelationsmodell M zum Ableiten der Ermittlungsdaten 70 aus der Zustandsvariable S und einem aus vorab erstellten Lehrerdaten T identifizierten Korrelationsmerkmal, und einen Modellaktualisierungsabschnitt 312 zum Aktualisieren des Korrelationsmodells M, so dass der Fehler E verringert werden kann. Der Lernabschnitt 310 lernt die Korrelation zwischen den Sensordaten 60 und den Ermittlungsdaten 70 durch das Wiederholen des Aktualisierens des Korrelationsmodells M durch den Modellaktualisierungsabschnitt 312.
  • Das Korrelationsmodell M kann durch Regressionsanalyse, verstärkendes Lernen, maschinelles Deep Learning u. Ä. erzeugt werden. Ein Ausgangswert des Korrelationsmodells M ist beispielsweise ein Wert zum Ausdrücken der Korrelation zwischen der Zustandsvariable S und den Ermittlungsdaten D auf eine vereinfachte Weise und wird vor Beginn des überwachten Lernens an den Lernabschnitt 310 übergeben. Die Lehrerdaten T können unter Verwendung von beispielsweise durch das Aufzeichnen von vorhergehenden Korrespondenzbeziehungen zwischen den Sensordaten 60 und den Ermittlungsdaten 70 gesammelten empirischen Werten (bekannte Datenmenge der Sensordaten 60 und der Ermittlungsdaten 70) gebildet werden und werden vor Beginn des überwachten Lernens an den Lernabschnitt 310 übergeben. Der Fehlerberechnungsabschnitt 311 identifiziert ein Korrelationsmerkmal beinhaltend die Korrelation zwischen den Sensordaten 60 und den Ermittlungsdaten 70 auf der Basis einer großen Menge von an den Lernabschnitt 310 übergebenen Lehrerdaten T und findet einen Fehler E zwischen dem Korrelationsmerkmal und dem Korrelationsmodell M entsprechend der Zustandsvariable S im aktuellen Zustand. Der Modellaktualisierungsabschnitt 312 aktualisiert das Korrelationsmodell M beispielsweise entsprechend vorgegebenen Aktualisierungsregeln, so dass der Fehler E verringert werden kann.
  • Im nächsten Lernzyklus verwendet der Fehlerberechnungsabschnitt 311 die Zustandsvariable S und die Ermittlungsdaten D, die beispielsweise durch den Betrieb einer Werkzeugmaschine o. Ä. ermittelt wurden, gemäß dem aktualisierten Korrelationsmodell M zum Ermitteln eines Fehlers E für das Korrelationsmodell M entsprechend der Zustandsvariable S und den Ermittlungsdaten D und der Modellaktualisierungsabschnitt 312 aktualisiert das Korrelationsmodell M erneut. Dies ermittelt schrittweise die Korrelation zwischen dem aktuellen Umgebungszustand (Sensordaten 60), der nicht bekannt war, und dem Zustand (Ermittlungsdaten 70) entsprechend dem aktuellen Umgebungszustand. Das heißt, durch Aktualisieren des Korrelationsmodells M nähert sich die Beziehung zwischen den Sensordaten 60 und den Ermittlungsdaten 70 schrittweise der optimalen Lösung.
  • Zum Optimieren des zuvor beschriebenen überwachten Lernens kann beispielsweise ein neuronales Netz verwendet werden. 4A zeigt schematisch ein Modell eines Neurons. 4B zeigt schematisch ein Modell eines durch Kombinieren der in 4A dargestellten Neuronen ausgebildeten dreischichtigen neuronalen Netzes. Ein neuronales Netz kann beispielsweise durch Verwenden einer arithmetischen Einheit, einer Speichereinheit u. Ä., die ein Modell eines Neurons abbilden, gebildet werden.
  • Das in 4A dargestellte Neuron ist zum Ausgeben eines Ergebnisses y für eine Vielzahl von Eingaben x (hier beispielsweise die Eingaben x1 bis x3) ausgebildet. Jeder der Eingaben x1 bis x3 wird ein Gewicht w (w1 bis w3 ) entsprechend der Eingabe x zugeordnet. Dies veranlasst das Neuron zum Ausgeben eines durch den folgenden Ausdruck (1) ausgedrückten Ergebnisses. Die Eingabe x, das Ergebnis y und das Gewicht w sind Vektoren in Ausdruck (1). Ferner ist θ eine Verzerrung und fk ist eine Aktivierungsfunktion. y = f k ( i = 1 n x i w i θ )
    Figure DE102018005652A1_0001
  • Das in 4B dargestellte dreischichtige neuronale Netz empfängt eine Vielzahl von Eingaben x (hier beispielsweise die Eingaben x1 bis x3) links und gibt die Ergebnisse y (hier beispielsweise die Ergebnisse y1 bis y3) rechts aus. Im dargestellten Beispiel werden die Eingaben x1, x2, und x3 mit entsprechenden Gewichten (insgesamt als w1 ausgedrückt) multipliziert und jede der Eingaben x1, x2 und x3 wird an den drei Neuronen N11, N12 und N13 eingegeben.
  • In 4B sind die Ausgaben von den Neuronen N11 bis N13 insgesamt durch z1 dargestellt. z1 kann als ein durch Extrahieren von Merkmalsvektoren eines Eingabevektors erzeugter Merkmalsvektor betrachtet werden. Im dargestellten Beispiel wird jedes Element des Merkmalsvektors z1 mit entsprechenden Gewichten (insgesamt durch w2 dargestellt) multipliziert und jedes Element des Merkmalsvektors z1 wird an zwei Neuronen N21 und N22 eingegeben. Der Merkmalsvektor z1 stellt ein Merkmal zwischen dem Gewicht w1 und dem Gewicht w2 dar.
  • In 4B sind die Ausgaben von den Neuronen N21 und N22 insgesamt durch z2 dargestellt. z2 kann als ein durch Extrahieren von Merkmalswerten des Merkmalsvektors z1 erzeugter Merkmalsvektor betrachtet werden. Im dargestellten Beispiel wird jedes Element des Merkmalsvektors z2 mit entsprechenden Gewichten (insgesamt durch w3 dargestellt) multipliziert und jedes Element des Merkmalsvektors z2 wird an drei Neuronen N31, N32 und N33 eingegeben. Der Merkmalsvektor z2 stellt ein Merkmal zwischen dem Gewicht w2 und dem Gewicht w3 dar. Schließlich geben die Neuronen N31 bis N33 jeweils Ergebnisse y1 bis y3 aus.
  • In der maschinellen Lernvorrichtung 300 kann der Lernabschnitt 310 die Ermittlungsdaten 70 als Schätzung (Ergebnis y) durch Durchführen einer mehrschichtigen Berechnung gemäß dem zuvor beschriebenen neuronalen Netz unter Verwendung der Zustandsvariable S als Eingabe x ausgeben. Die Betriebsmodi des neuronalen Netzes umfassen einen Lernmodus und einen Ermittlungsmodus. Beispielsweise werden Gewichte w unter Verwendung einer Lerndatenmenge im Lernmodus gelernt und Formdaten können unter Verwendung der gelernten Gewichte w im Ermittlungsmodus ermittelt werden. Im Ermittlungsmodus können ebenfalls Erfassung, Klassifizierung, Schlussfolgerung u. Ä. durchgeführt werden.
  • Andere Komponenten der Informationsverarbeitungsvorrichtung 100 werden in Bezug auf 2 beschrieben. Der Eingabedaten-Auswahlabschnitt 110, der Abschnitt zum Festlegen der voraussichtlichen Leistung 120, der Leistungsbewertungsabschnitt 130 und der Eingabedaten-Steuerabschnitt 140 sind für die vorliegende Erfindung spezifische Komponenten und führen die Verarbeitung zum Bewerten der Raten des Beitrags einer Vielzahl von Teilen von Sensordaten durch.
  • Der Abschnitt zum Festlegen der voraussichtlichen Leistung 120 speichert Einstellungen für die erforderliche voraussichtliche Leistung für die maschinelle Lernvorrichtung 300. Der Abschnitt zum Festlegen der voraussichtlichen Leistung 120 kann eine Benutzerschnittstelle umfassen, die ein Benutzer zum Eingeben von Einstellungen für die voraussichtliche Leistung verwendet, und einen Speicherbereich zum Speichern der Einstellungen. Die voraussichtliche Leistung kann mit verschiedenen Maßen o. Ä. festgelegt werden, die objektiv bewertet werden können. Typische Beispiele für die voraussichtliche Leistung umfassen richtige Antwortrate, Rückrufrate, Genauigkeitsrate und F-Wert. Die richtige Antwortrate ist der Anteil von von der maschinellen Lernvorrichtung 300 über die gesamte Zahl von Ereignissen richtig ermittelten Ereignissen, für welche die maschinelle Lernvorrichtung 300 ermittelt hat, ob die Ereignisse tatsächlich A waren oder nicht. Die Rückrufrate ist der Anteil der Zahl von Ereignissen, für welche die maschinelle Lernvorrichtung 300 A als Antwort ausgegeben hat, über die Zahl von Ereignissen, die tatsächlich A sind. Die Genauigkeitsrate ist der Anteil der Zahl von Ereignissen, die tatsächlich A sind, über die Zahl von Ereignissen, für welche die maschinelle Lernvorrichtung 300 A als Antwort ausgegeben hat. Der F-Wert ist das harmonische Mittel von Genauigkeitsrate und Rückrufrate. Beispielsweise können eine Rückrufrate von 99,99 % oder mehr und eine Genauigkeitsrate von 99 % oder mehr als voraussichtliche Leistung festgelegt werden.
  • Die voraussichtliche Leistung kann ebenfalls unter Verwendung von anderen verschiedenen Maßen definiert werden. Beispielsweise sind die Kosten für das Durchführen einer Konfiguration von Sensoren ebenfalls ein wichtiges Leistungsmaß. Kosten umfassen monetäre Kosten und andere Kosten wie Arbeitsaufwand und Zeit für das Erfassen von Sensordaten. Beispiele von Komponenten der Kosten umfassen den Preis eines Sensors an sich, den Grad der Schwierigkeit der Installation eines Sensors, die zum Erfassen von Sensordaten erforderliche Messzeit u. Ä. Beispielsweise können solche Komponenten zum Festlegen der Bedingung, dass die Gesamtkosten einschließlich der Preise von Sensoren an sich und der Kosten für die Bilderfassung bei einer Rückrufrate und Genauigkeitsrate nicht kleiner als die vorgegebenen Schwellenwerte minimal sind, als voraussichtliche Leistung verwendet werden. In diesem Fall wird zuerst eine Bewertungsformel zum Bewerten der Gesamtkosten definiert. Beispielsweise gilt, dass, je niedriger die Gesamtkosten sind, desto besser der von der Bewertungsformel ausgegebene Bewertungswert ist. Ferner kann die Bedingung, dass der Bewertungswert nicht kleiner ist als ein vorgegebener Schwellenwert, als voraussichtliche Leistung festgelegt werden. Alternativ kann die Bedingung, dass der Bewertungswert besser ist als der von anderen Sensorkonfigurationen, als voraussichtliche Leistung festgelegt werden. Beispielsweise wird, wenn ein Gewicht von +20 bei Ausgabe von Sensordaten von einer hochauflösenden Kamera (der Preis des Sensors an sich ist relativ hoch und es sind viel Zeit und Last für die Bildverarbeitung erforderlich) verwendet wird, ein Gewicht von +10 bei Ausgabe von Sensordaten von einer niedrigauflösenden Kamera (der Preis des Sensors an sich ist relativ niedrig und es sind nur wenig Zeit und Last für die Bildverarbeitung erforderlich) verwendet wird und ein Gewicht von +1 bei jedem Erfassen eines Bilds (für die Bildverarbeitung sind Zeit und Last erforderlich) verwendet wird, die Gesamtsumme dieser Gewichte als Bewertungswert festgelegt und solch ein Bewertungswert, der auf diese Weise als der kleinste festgelegt wird, wird als voraussichtliche Leistung festgelegt.
  • Der Eingabedaten-Steuerabschnitt 140 ermittelt Auswahlregeln für Sensordaten, die an der maschinellen Lernvorrichtung 300 eingegeben werden und sendet die ermittelten Auswahlregeln an den Eingabedaten-Auswahlabschnitt 110. Der Eingabedaten-Steuerabschnitt 140 kann einige typische Auswahlregeln vorab speichern und eine Benutzerschnittstelle umfassen, die ein Benutzer zum Verwenden einer gewünschten Auswahlregel aus den typischen Auswahlregeln verwendet. Eine Auswahlregel bedeutet eine Regel zum Auswählen von m (m≤n) Typen von Sensordaten von n Typen der an der Informationsverarbeitungsvorrichtung 100 eingegebenen Sensordaten 60 und Erzeugen einer Vielzahl von verschiedenen Kombinationen. Die einfachste Auswahlregel besteht im zufälligen Bestimmen von Kombinationen von Sensordaten. Zu diesem Zeitpunkt kann eine kombinatorische Optimierung auf der Basis eines Ergebnisses der zuvor beschriebenen Leistungsbewertung unter Verwendung eines evolutionären Algorithmus durchgeführt werden. Ferner können, wenn der Lernabschnitt 310 der maschinellen Lernvorrichtung 300 aus einem neuronalen Netz besteht, Kombinationen von Sensordaten beispielsweise durch Bewerten von Kopplungskoeffizienten zwischen einer Eingabeschicht und einer nächsten Zwischenschicht nach einmaligem Durchführen des Lernens unter Verwendung aller Teile von Sensordaten und vorzugsweise Ausschließen von Eingabedaten, bei denen die Summe von Kopplungskoeffizienten klein ist, erzeugt werden. Zusätzlich können Kombinationen von Sensordaten durch Versuchen der Erkennung durch ein neuronales Netz unter Verwendung von Testsensordaten nach dem einmaligem Durchführen des Lernens unter Verwendung aller Teile von Sensordaten wie zuvor und vorzugsweise Ausschließen von Eingabedaten, bei denen die Rate des Beitrags der Zwischenschicht zum Auslösen zu diesem Zeitpunkt klein ist, erzeugt werden.
  • Die Eingabedaten-Auswahlabschnitt 110 ermittelt Kombinationen von Sensordaten gemäß der vom Eingabedaten-Steuerabschnitt 140 ermittelten Auswahlregel und führt maschinelles Lernen für jede der Kombinationen durch. Wenn beispielsweise die Auswahlregel zufallsbasiert ist, definiert der Eingabedaten-Auswahlabschnitt 110 eine Vielzahl von einmaligen Kombinationen von m (m≤n) Typen von Sensordaten auf der Basis von n Typen von der Informationsverarbeitungsvorrichtung 100 zugeführten Sensordaten 60. Der Eingabedaten-Auswahlabschnitt 110 extrahiert Sensordaten von den der Informationsverarbeitungsvorrichtung 100 zugeführten Sensordaten 60 gemäß den definierten Kombinationen und gibt die extrahierten Sensordaten an der maschinellen Lernvorrichtung 300 ein.
  • Die maschinelle Lernvorrichtung 300 führt Lernen unter Verwendung der eingegebenen Sensordaten als Zustandsvariable S durch und bildet ein Lernmodell. Der Eingabedaten-Auswahlabschnitt 110 führt nacheinander diesen Lernprozess für jede der definierten Kombinationen aus und bildet ein Lernmodell entsprechend der Kombination. Wenn der Eingabedaten-Auswahlabschnitt 110 p Kombinationen von Sensordaten definiert, werden p Lernergebnisse erzeugt.
  • Der Leistungsbewertungsabschnitt 130 bewertet jedes der für die vom Eingabedaten-Auswahlabschnitt 110 definierten Kombinationen von Sensordaten erzeugten Lernergebnisse. Die Bewertung soll ermitteln, ob die im Abschnitt zum Festlegen der voraussichtlichen Leistung 120 festgelegte voraussichtliche Leistung erreicht ist oder nicht. Insbesondere gibt, wenn die maschinelle Lernvorrichtung 300 als Lerner ausreichend Teile von Lerndaten erhalten und anschließend einen Lernprozess durchgeführt hat, der Leistungsbewertungsabschnitt 130 Testdaten (Sensordaten zum Test) an der maschinellen Lernvorrichtung 300 als Akzeptor ein. Der Leistungsbewertungsabschnitt 130 bewertet von der maschinellen Lernvorrichtung 300 ausgegebene Erkennungsergebnisse in Bezug auf die zuvor beschriebene voraussichtliche Leistung. Wenn beispielsweise die voraussichtliche Leistung als eine richtige Antwortrate von 99 % oder mehr im Abschnitt zum Festlegen der voraussichtlichen Leistung 120 definiert ist und der Leistungsbewertungsabschnitt 130 100 Teile von Testdaten an der maschinellen Lernvorrichtung 300 eingibt, ermittelt der Leistungsbewertungsabschnitt 130, ob richtige Ergebnisse für 99 oder mehr Teile von Testdaten erzielt wurden, und ermittelt, dass die voraussichtliche Leistung erfüllt ist, wenn richtige Ergebnisse für 99 oder mehr Teile von Testdaten erzielt wurden. Der Leistungsbewertungsabschnitt 130 führt diese Leistungsbewertung für alle vom Eingabedaten-Auswahlabschnitt 110 definierten Kombinationen von Sensordaten durch. Wenn p Kombinationen von Sensordaten definiert sind, wird eine Leistungsbewertung für jedes von p Lernergebnissen durchgeführt.
  • Der Leistungsbewertungsabschnitt 130 gibt ein Ergebnis der Leistungsbewertung aus. Beispielsweise kann von den Kombinationen von Sensordaten, welche die voraussichtliche Leistung erfüllen, die Kombination von Sensordaten, die als die beste bewertet wurde, automatisch ausgewählt und ausgegeben werden. Der Leistungsbewertungsabschnitt 130 kann eine Benutzerschnittstelle umfassen, die, wenn zwei oder mehr Kombinationen von Sensordaten die voraussichtliche Leistung erfüllen, die Kombinationen einem Benutzer anzeigt und dem Benutzer das Auswählen einer gewünschten ermöglicht.
  • Nachfolgend ist in Bezug auf das Fließbild in 5 der Betriebsablauf der in 2 dargestellten Informationsverarbeitungsvorrichtung 100 beschrieben.
  • Schritt S1: Der Abschnitt zum Festlegen der voraussichtlichen Leistung 120 legt die erforderliche voraussichtliche Leistung für die maschinelle Lernvorrichtung 300 fest.
  • Schritt S2: Der Eingabedaten-Steuerabschnitt 140 legt eine Auswahlregel für Sensordaten fest.
  • Schritt S3: Der Eingabedaten-Auswahlabschnitt 110 ermittelt Kombinationen von Sensordaten gemäß der in Schritt S2 festgelegten Auswahlregel und gibt die ermittelten Kombinationen an der maschinellen Lernvorrichtung 300 ein. Die maschinelle Lernvorrichtung 300 führt ein Lernen unter Verwendung der eingegebenen Kombinationen von Sensordaten durch.
  • Wenn zwei oder mehr Kombinationen von Sensordaten die Auswahlregel erfüllen, wird das Lernen in Schritt S3 nacheinander für jede der Kombinationen ausgeführt.
  • Schritt S4: Der Leistungsbewertungsabschnitt 130 führt eine Leistungsbewertung auf der maschinellen Lernvorrichtung 300, die das Lernen in Schritt S3 durchgeführt hat, auf der Basis der in Schritt S1 festgelegten voraussichtlichen Leistung unter Verwendung von Testdaten durch.
  • Wenn ein Lernen unter Verwendung von zwei oder mehr Kombinationen von Sensordaten in Schritt S3 durchgeführt wurde, wird die Leistungsbewertung in Schritt S4 nacheinander für jedes der Lernmodelle entsprechend diesen Kombinationen von Sensordaten ausgeführt.
  • Der Leistungsbewertungsabschnitt 130 gibt Kombinationen von Sensordaten aus, die zum Erfüllen der voraussichtlichen Leistung als Ergebnis der Leistungsbewertung ermittelt wurden.
  • In der vorliegenden Ausführungsform definiert der Eingabedaten-Auswahlabschnitt 110 eine Vielzahl von Kombinationen von Sensordaten gemäß der vom Eingabedaten-Steuerabschnitt 140 festgelegten Auswahlregel und die maschinelle Lernvorrichtung 300 versucht ein maschinelles Lernen für jede der Kombinationen. Der Leistungsbewertungsabschnitt 130 gibt die Kombinationen, welche die vom Abschnitt zum Festlegen der voraussichtlichen Leistung 120 festgelegte voraussichtliche Leistung erfüllen, von den für die entsprechenden Kombinationen von Sensordaten erzeugten Lernergebnissen aus. Die Kombinationen von vom Leistungsbewertungsabschnitt 130 ausgegebenen Sensordaten bestehen aus einer kleineren Zahl von Typen von Sensordaten als die Zahl von Typen von ursprünglich an der Informationsverarbeitungsvorrichtung 100 eingegebenen Sensordaten. Dementsprechend ermöglicht, wenn die maschinelle Lernvorrichtung 300 in der Steuerung einer Werkzeugmaschine o. Ä. oder einem verwandten Gebiet danach verwendet wird, das Eingeben von Kombinationen von vom Leistungsbewertungsabschnitt 130 ausgegebenen Sensordaten das Senken von monetären Kosten wie die Preise von Sensoren an sich und der für die Sensordatenerfassung u. Ä. erforderlichen Kosten und ebenfalls das Verringern der für Messung, Erfassung und Verarbeitung von Daten erforderlichen Zeit, Last u. Ä. zum Ermöglichen einer schnellen Ausgabe des Ergebnisses.
  • Nachfolgend ist ein Beispiel in Bezug auf 6 beschrieben, in dem die Informationsverarbeitungsvorrichtung 100 gemäß Ausführungsform 1 auf eine Werkstückkratzer-Prüfung angewendet wird.
  • Eine Robotersteuerung 40 als Informationsverarbeitungsvorrichtung 100 steuert einen Roboter 41, eine Kamera 42 (hochauflösende oder niedrigauflösende Kamera) und ein Licht 43. Der Roboter 41 greift ein Werkstück 45 mit einer Hand 44 und dreht das Werkstück 45 in verschiedene Richtungen. Die hochauflösende Kamera oder die niedrigauflösende Kamera wird gemäß Richtungen von der Robotersteuerung 40 ausgewählt und es werden Bilder vom Werkstück 45 aus verschiedenen Richtungen erfasst. Das Licht 43 beleuchtet das Werkstück 45 gemäß Richtungen von der Robotersteuerung 40, wenn Bilder erfasst werden. In diesem Anwendungsbeispiel umfasst die Kamera 42 zwei Arten von Kameras, eine hochauflösende Kamera und eine niedrigauflösende Kamera; das Licht 43 weist zwei Zustände auf, EIN und AUS; und es gibt 100 Kandidaten für die Stellungen zum Greifen des Werkstücks 45 in Bezug auf die Kamera 42.
  • Die maschinelle Lernvorrichtung 300 der Informationsverarbeitungsvorrichtung 100 des Anwendungsbeispiels in 6 führt überwachtes Lernen unter Verwendung von von Kameras erfassten Bilddaten als Sensordaten 60 und unter Verwendung von Daten zur Angabe des Vorhandenseins oder Fehlens eines Kratzers als Ermittlungsdaten 70 durch. Im Verlauf des Lernens werden Kombinationen von verschiedenen Zahlen von durch Erfassen von Bildern eines Werkstücks, bei dem das Vorhandensein oder Fehlen eines Kratzers vorab bekannt ist, erzeugten Bildern bereitgestellt.
  • Zunächst legt der Abschnitt zum Festlegen der voraussichtlichen Leistung 120 eine voraussichtliche Leistung fest. In diesem Beispiel werden die folgenden Bedingungen als voraussichtliche Leistung festgelegt: Die Rückrufrate beträgt 99,99 % oder mehr, die Genauigkeitsrate beträgt 99 % oder mehr und ein für eine ursprüngliche Bewertungsformel zum Bewerten der Kostenleistung berechneter Bewertungswert ist der beste. Mit dieser voraussichtlichen Leistung kann eine Kombination von Bilderfassungsbedingungen erzielt werden, die eine Rückrufrate und eine Genauigkeitsrate aufweist, welche die Anforderungen erfüllen, und welche die beste Kostenleistung aufweist. Die Bewertungsformel zum Bewerten der Kostenleistung ist eine Summe von Gewichten, wobei ein Gewicht für die Bilderfassung unter Verwendung der hochauflösenden Kamera +20 ist, ein Gewicht für die Bilderfassung unter Verwendung der niedrigauflösenden Kamera +10 ist und ein Gewicht für jedes erfasstes Bild +1 ist. Der berechnete Wert (Summe von Gewichten) dieser Bewertungsformel nimmt mit der zunehmenden Kostenleistung ab.
  • Anschließend legt der Eingabedaten-Steuerabschnitt 140 eine Auswahlregel für Kombinationen von Sensordaten fest. In diesem Anwendungsbeispiel werden Kombinationen (hohe oder niedrige Auflösung der Kamera 42, EIN- oder AUS-Zustand des Lichts 43, Arten und Zahl von Stellungen zum Greifen des Werkstücks 45) von Bilderfassungsbedingungen zufällig ausgewählt.
  • Anschließend ermittelt der Eingabedaten-Auswahlabschnitt 110 zufällig eine Kombination (hohe oder niedrige Auflösung der Kamera 42, EIN- oder AUS-Zustand des Lichts 43, Arten und Zahl von Stellungen zum Greifen des Werkstücks 45) von Bilderfassungsbedingungen. Der Eingabedaten-Auswahlabschnitt 110 erfasst verschiedene Bilder des Werkstücks 45 in der ermittelten Kombination von Bilderfassungsbedingungen und gibt eine große Zahl von Paaren von Bilddaten als Zustandsvariable S und das Vorhandensein oder Fehlen eines Kratzers auf dem Werkstück 45 als Ermittlungsdaten D an der maschinellen Lernvorrichtung 300 als Lerner ein. Somit wird ein Lernmodell zum Schätzen des Vorhandenseins oder Fehlens eines Kratzers auf der Basis von Bilddaten in der Kombination von Bilderfassungsbedingungen erzeugt.
  • Der Eingabedaten-Auswahlabschnitt 110 führt ebenso ein Lernen für alle zufällig erzeugten Kombinationen von Bilderfassungsbedingungen durch. Somit wird eine Zahl von Lernmodellen erzeugt, die gleich der Zahl von zufällig erzeugten Kombinationen von Bilderfassungsbedingungen ist. Zu diesem Zeitpunkt kann statt des einzelnen Erzeugens eines Lernmodells für jede der Kombinationen von Bilderfassungsbedingungen ein Lernmodell, in dem die Zahl von Dimensionen um die Zahl von Kombinationen von Bilderfassungsbedingungen vergrößert ist, beispielsweise durch Hinzufügen von Identifizierern für Kombinationen von Bilderfassungsbedingungen zur Zustandsvariable S erzeugt werden. Es kann jedes Verfahren beliebig verwendet werden. In diesem Anwendungsbeispiel wird das vorhergehende Verfahren verwendet. Ferner können alle Teile von Bilddaten, die in Lernen und Leistungsbewertung verwendet werden, vorab erfasst werden und es können zu verwendende Bilddaten von allen Teilen von Bilddaten gemäß der Kombination von Bilderfassungsbedingungen ausgewählt werden.
  • Schließlich führt der Leistungsbewertungsabschnitt 130 eine Leistungsbewertung an allen erzeugten Lernmodellen durch. Insbesondere wird eine große Zahl von erfassten Testbildern in der gleichen Kombination von Bilderfassungsbedingungen wie zum Zeitpunkt des Lernens an jedem der Lernmodelle eingegeben, so dass das Lernmodell ein Erkennungsergebnis (das heißt das Ergebnis des Schätzens, ob ein Kratzer vorhanden ist oder nicht) ausgeben kann. Der Leistungsbewertungsabschnitt 130 führt an diesem Erkennungsergebnis eine Gegenkontrolle gegen eine richtige Antwort (Vorhandensein oder Fehlen eines Kratzers) durch, um Rückrufrate, Genauigkeitsrate und Kostenleistung (berechneter Wert der zuvor beschriebenen Bewertungsformel) zu berechnen. Wenn der Leistungsbewertungsabschnitt 130 die Berechnung von Rückrufrate, Genauigkeitsrate und Kostenleistung (berechneter Wert der zuvor beschriebenen Bewertungsformel) für alle Lernmodelle abschließt, identifiziert der Leistungsbewertungsabschnitt 130 ein Lernmodell, das eine Rückrufrate von 99,99 % oder mehr und eine Genauigkeitsrate von 99 % oder mehr aufweist und in dem der berechnete Wert der Bewertungsformel für die Kostenleistung der kleinste ist. Der Leistungsbewertungsabschnitt 130 gibt als eine Kombination von Bilderfassungsbedingungen, welche die beste Leistung aufweist, die Kombination von Bilderfassungsbedingungen im somit identifizierten Lernmodell aus. Beispielsweise können Bilderfassungsbedingungen ausgegeben werden, in denen die niedrigauflösende Kamera verwendet wird, das Licht eingeschaltet ist und die Bilderfassung in 50 vorgegebenen Greifstellungen durchgeführt wird.
  • Angenommen das Vorhandensein oder Fehlen eines Kratzers wurde bisher mit der hochauflösenden Kamera, mit dem Licht auf EIN und AUS und unter Verwendung von 200 in 100 Greifstellungen erfassten Bildern erkannt. Bei diesem Beispiel wird angenommen, dass die Bilderfassung mit der niedrigauflösenden Kamera, mit dem eingeschalteten Licht und in 50 vorgegebenen Greifstellungen eine vorgegebene Erkennungsgenauigkeit erzielt. In diesem Fall ermöglicht die Verwendung der niedrigauflösenden Kamera 42 statt der hochauflösenden Kamera 42 das Erhalten einer entsprechenden Erkennungsgenauigkeit, während die monetären Kosten gesenkt werden. Ferner werden für Bilderfassung und Bildverarbeitung erforderliche Zeit und Verarbeitungslast ebenfalls stark verringert.
  • Nachfolgend ist ein Beispiel in Bezug auf 7 beschrieben, in dem die Informationsverarbeitungsvorrichtung 100 gemäß Ausführungsform 1 Motoranomalieerkennung angewendet wird.
  • Eine Robotersteuerung 40 als Informationsverarbeitungsvorrichtung 100 steuert einen Roboter 41. Zu diesem Zeitpunkt erfasst ein Richtmikrofon 47 Audiodaten und ein Beschleunigungssensor 46 erfasst Beschleunigungsdaten. Die Audiodaten und die Beschleunigungsdaten werden an der Robotersteuerung 40 eingegeben. Ferner ermöglicht die Robotersteuerung 40 einem nicht dargestellten Sensor das Eingeben eines Störungswerts eines Stroms an dieser. Die Robotersteuerung 40 führt eine Anomalieerkennung für einen Motor (nicht dargestellt) durch maschinelles Lernen unter Verwendung von diesen drei Sensoren durch.
  • Der Grund für die Verwendung des Mikrofons 47 als Sensor besteht darin, dass, wenn der Motor eine Anomalie aufweist, voraussichtlich anomale Geräusche erzeugt werden. Beim Mikrofon 47 stellen sich aber viele Probleme bezüglich des Installationsorts u. Ä. und es sind hohe Installationskosten erforderlich (Arbeitsaufwand, Zeit und Grad der Schwierigkeit der Installation). Der Beschleunigungssensor 46 ist am Ende eines Arms des Roboters 41 befestigt. Wenn der Motor zum Bewegen des Arms des Roboters 41 eine Anomalie aufweist, werden voraussichtlich Schwingungen erzeugt oder die Auftrittstendenz der Beschleunigung ändert sich voraussichtlich. Der Beschleunigungssensor 46 erfordert ebenfalls gewisse Installationskosten. Der Störungswert des Stroms steigt voraussichtlich an, wenn der Motor eine Anomalie aufweist. Die Kosten zum Messen des Störungswerts des Stroms sind nahezu Null.
  • Die maschinelle Lernvorrichtung 300 führt eine Anomaliewerterkennung mit einem automatischen Codierer durch. Die Zahl von Teilen von zum Zeitpunkt des Auftretens einer Anomalie erfassten Daten ist wesentlich kleiner als die Zahl von Teilen von zu normalen Zeiten ermittelten Daten. Daher ist ein binäres Klassifikationsmodell wie in einem in 6 dargestellten Beispiel der Anwendung auf eine Werkstückkratzer-Prüfung schwer anwendbar.
  • Somit wird in einem in 7 dargestellten Beispiel der Anwendung auf eine Motoranomalieerkennung eine Lernphase durch Verwendung von ausschließlich zu normalen Zeiten ermittelten Daten und Erzeugung eines Lernmodells mit einem automatischen Codierer durchgeführt. Ein automatischer Codierer ist ein mehrschichtiges neuronales Netz, das nicht überwachtes Lernen durchführt, und kann eine Ausgabe liefern, die eine Eingabe reproduziert. Ein automatischer Codierer weist eine Struktur umfassend eine Eingabeschicht, eine Ausgabeschicht mit der gleichen Zahl von Dimensionen wie die Eingabeschicht und eine oder mehrere Zwischenschichten, die Eingaben zum Verringern der Zahl von Dimensionen komprimieren, auf. Ein automatischer Codierer ermittelte Gewicht für Neuronen, so dass ein Fehler zwischen der Eingabeschicht und der Ausgabeschicht mit dem Fortschreiten des Lernens so klein wie möglich werden kann. Wenn anomale Daten an einem automatischen Codierer eingegeben werden, der ein Lernen unter Verwendung von ausschließlich normalen Daten durchgeführt hat, kann der automatische Codierer keine gut reproduzierte Eingabe ausgeben. Das heißt, ein Fehler zwischen der Eingabe und der Ausgabe wird groß. Bei solchen Eigenschaften eines automatischen Codierers kann ein automatischer Codierer, der ein Lernen ausschließlich unter Verwendung von zu normalen Zeiten ermittelten Daten durchgeführt hat, ermitteln, dass eine diesem zugeführte Eingabe anomale Daten sind, wenn ein Fehler zwischen der Eingabe und der Ausgabe einen vorgegebenen Schwellenwert überschreitet.
  • Im in 7 dargestellten Anwendungsbeispiel empfängt die Informationsverarbeitungsvorrichtung 100 (Robotersteuerung 40) eine Kombination von einem oder mehreren Typen von Sensordaten aus drei Typen von zu normalen Zeiten erfassten Sensordaten, die von einem Richtmikrofon erfasste Audiodaten, von einem Beschleunigungssensor erfasste Beschleunigungsdaten und einen Störungswert eines von einem nicht dargestellten Sensor erfassten Stroms umfassen, und erzeugt ein Lernmodell. Zu diesem Zeitpunkt kann eine Vorverarbeitung, etwa eine schnelle Fourier-Transformation, entsprechend an von den Sensoren ausgegebenen Rohdaten durchgeführt werden.
  • In der Informationsverarbeitungsvorrichtung 100 legt der Abschnitt zum Festlegen der voraussichtlichen Leistung 120 die voraussichtliche Leistung fest. In diesem Anwendungsbeispiel werden die folgenden Bedingungen als voraussichtliche Leistung festgelegt: Die Rückrufrate beträgt 99,99 % oder mehr, die Genauigkeitsrate beträgt 99 % oder mehr und ein für eine ursprüngliche Bewertungsformel zum Bewerten der Kostenleistung berechneter Bewertungswert ist der beste. Mit dieser voraussichtlichen Leistung kann eine Kombination von Bilderfassungsbedingungen erzielt werden, die eine Rückrufrate und eine Genauigkeitsrate aufweist, welche die Anforderungen erfüllen, und welche die beste Kostenleistung aufweist. Die Bewertungsformel zum Bewerten der Kostenleistung ist eine Summe von Gewichten, wobei ein Gewicht für die Verwendung des Richtmikrofons 47 +20 ist, ein Gewicht für die Verwendung des Beschleunigungssensors 46 +10 ist und ein Gewicht für die Verwendung eines Störungswerts eines Stroms +0 ist. Der berechnete Wert (Summe von Gewichten) dieser Bewertungsformel nimmt mit der zunehmenden Kostenleistung ab.
  • Anschließend legt der Eingabedaten-Steuerabschnitt 140 eine Auswahlregel für Kombinationen von Sensordaten fest. In diesem Beispiel werden Kombinationen von Sensoren (Richtmikrofon 47, Beschleunigungssensor 46 und ein Störungswert eines Stroms) zufällig ausgewählt.
  • Anschließend ermittelt der Eingabedaten-Auswahlabschnitt 110 zufällig eine Kombination von Sensoren (Richtmikrofon 47, Beschleunigungssensor 46, ein Störungswert eines Stroms). Der Eingabedaten-Auswahlabschnitt 110 erfasst wiederholt Sensordaten mit der ermittelten Kombination von Sensoren zur Eingabe der Sensordaten an der maschinellen Lernvorrichtung 300 als Lerner. Somit wird ein Lernmodell zum Durchführen der Anomalieerkennung mit dieser Kombination von Sensordaten erzeugt. Der Eingabedaten-Auswahlabschnitt 110 führt ebenso ein Lernen für alle zufällig erzeugten Kombinationen von Sensoren durch.
  • Schließlich führt der Leistungsbewertungsabschnitt 130 eine Leistungsbewertung an allen erzeugten Lernmodellen durch. Insbesondere wird eine große Zahl von mit der gleichen Kombination von Sensoren als zum Zeitpunkt des Lernens erfassten Testdaten an jedem der Lernmodelle eingegeben, so dass das Lernmodell ein Erkennungsergebnis (das heißt, ob eine Anomalie erkannt wird oder nicht) ausgeben kann. Der Leistungsbewertungsabschnitt 130 führt an diesem Erkennungsergebnis eine Gegenkontrolle gegen eine richtige Antwort (ob die Daten anomal sind oder nicht) durch, um Rückrufrate, Genauigkeitsrate und Kostenleistung (berechneter Wert der zuvor beschriebenen Bewertungsformel) zu berechnen. Wenn der Leistungsbewertungsabschnitt 130 die Berechnung von Rückrufrate, Genauigkeitsrate und Kostenleistung (berechneter Wert der zuvor beschriebenen Bewertungsformel) für alle Lernmodelle abschließt, identifiziert der Leistungsbewertungsabschnitt 130 ein Lernmodell, das eine Rückrufrate von 99,99 % oder mehr und eine Genauigkeitsrate von 99 % oder mehr aufweist und in dem der berechnete Wert der Bewertungsformel für die Kostenleistung der kleinste ist. Der Leistungsbewertungsabschnitt 130 gibt als eine Kombination von Bilderfassungsbedingungen, welche die beste Leistung aufweist, die Kombination von Sensoren im somit identifizierten Lernmodell aus.
  • Dieses Anwendungsbeispiel ermöglicht das Identifizieren der für die Anomalieerkennung erforderlichen Sensoren, bevor beispielsweise ein Liniensystem eingeführt wird. Somit kann ein aktuelles Liniensystem kostengünstig und stabil konstruiert werden.
  • Nachfolgend ist eine Informationsverarbeitungsvorrichtung gemäß Ausführungsform 2 der vorliegenden Erfindung beschrieben.
  • In der Informationsverarbeitungsvorrichtung 1 gemäß der zuvor beschriebenen Ausführungsform 1 definiert der Eingabedaten-Auswahlabschnitt 110 eine Vielzahl von Kombinationen von Sensordaten gemäß der vom Eingabedaten-Steuerabschnitt 140 festgelegten Auswahlregel und die maschinelle Lernvorrichtung 300 führt ein maschinelles Lernen für jede der Kombinationen durch.
  • In der Informationsverarbeitungsvorrichtung dieser Ausführungsform 2 ändert der Eingabedaten-Steuerabschnitt 140 wiederum die Konfiguration einer Zwischenschicht eines neuronalen Netzes. Insbesondere kann ein Hyperparameter des neuronalen Netzes geändert werden. Der Eingabedaten-Steuerabschnitt 140 behält vorab eine Vielzahl von Kandidaten für eine Festlegungsregel für den Hyperparameter des neuronalen Netzes. Ferner spezifiziert der Eingabedaten-Steuerabschnitt 140 eine Festlegungsregel für den Hyperparameter des neuronalen Netzes, der in Bezug auf den Eingabedaten-Auswahlabschnitt 110 verwendet werden soll.
  • Der Eingabedaten-Auswahlabschnitt 110 ändert den Hyperparameter der maschinellen Lernvorrichtung 300 gemäß der spezifizierten Festlegungsregel für den Hyperparameter. Danach wird der in der zuvor beschriebenen Ausführungsform 1 beschriebene Lernprozess ausgeführt.
  • Eine besonders typische Festlegungsregel für den Hyperparameter besteht im zufälligen Festlegen des Hyperparameters. Es kann eine kombinatorische Optimierung unter Verwendung eines evolutionären Algorithmus wie an Kombinationen von Sensordaten in Ausführungsform 1 durchgeführt werden. In diesem Fall führt wie im Fließbild in 8 dargestellt der Eingabedaten-Auswahlabschnitt 110 nacheinander den in Ausführungsform 1 beschriebenen Lernprozess für jeden der unter Verwendung von zufällig ausgewählten Hyperparametern konstruierten entsprechenden Lerner durch. Ebenso führt der Leistungsbewertungsabschnitt 130 nacheinander den in Ausführungsform 1 beschriebenen Leistungsbewertungsprozess für jeden der unter Verwendung der Hyperparametern konstruierten entsprechenden Akzeptoren durch.
  • Diese Informationsverarbeitungsvorrichtung dieser Ausführungsform 2 kann nicht nur eine optimale Kombination von Sensordaten identifizieren, sondern ebenfalls einen optimalen Hyperparameter des neuronalen Netzes. Somit kann die Optimierung von Sensordaten noch weiter optimiert werden. Es gibt Fälle, in den aufgrund des schlechten Designs des neuronalen Netzes ein zufriedenstellendes Erkennungsergebnis nicht erzielt werden kann, obwohl im Wesentlichen die erforderlichen Sensordaten vollständig bereitgestellt werden. In solchen Fällen wird, wenn die Struktur des neuronalen Netzes gemäß der vorliegenden Ausführungsform umfangreich geändert wird, ein Suchraum vergrößert und es kann eine optimale Kombination von Sensordaten gesucht werden.
  • Zuvor wurden zwei Ausführungsformen der Informationsvorrichtung der vorliegenden Erfindung beschrieben; die vorliegende Erfindung ist aber nicht auf die zuvor beschriebenen Ausführungsformen beschränkt und kann in verschiedenen Aspekten unter Vornahme von entsprechenden Modifikationen ausgeführt werden.
  • Beispielsweise wurden in den zuvor beschriebenen Ausführungsformen 1 und 2 Beispiele im Wesentlichen beschrieben, in denen die Informationsverarbeitungsvorrichtung 100 als eine Vorrichtung, etwa als Robotersteuerung ausgeführt ist und Sensordaten von einem gesteuerten Objekt, etwa einem Roboter, erfasst. Die vorliegende Erfindung ist aber nicht hierauf beschränkt. Beispielsweise kann die Informationsverarbeitungsvorrichtung 100 in einem Universal-Kommunikationsnetzwerk oder einem speziellen Kommunikationsnetzwerk, etwa einem internen Netzwerk eines Unternehmens, angeordnet sein, um Sensordaten von einem gesteuerten Objekt durch das Kommunikationsnetzwerk zu erfassen. Die Informationsverarbeitungsvorrichtung 100 kann ein Computer sein oder kann durch eine Vielzahl von Computern, welche die Verarbeitung auf eine verteilte Weise durchführen, ausgeführt sein. Sensordaten zum Lernen oder Testen können von einem gesteuerten Objekt erfasst werden oder können von einer Vielzahl von gesteuerten Objekten des gleichen Typs erfasst werden. Sensordaten zum Lernen oder Testen können in Echtzeit gesammelte Daten sein oder können in einem vorgegebenen Speicherbereich gesammelte und gespeicherte Daten sein.
  • Ferner führt in den zuvor beschriebenen Ausführungsformen 1 und 2 in der Informationsverarbeitungsvorrichtung 100 der Eingabedaten-Auswahlabschnitt 110 den Lernprozess für alle Kombinationen von Sensordaten durch und anschließend führt der Leistungsbewertungsabschnitt 130 den Leistungsbewertungsprozess für alle erzeugten Lernmodelle aus. Beispielsweise kann aber, nachdem der Eingabedaten-Auswahlabschnitt 110 den Lernprozess für eine Kombination von Sensordaten ausführt, der Leistungsbewertungsabschnitt 130 den Leistungsbewertungsprozess für das Lernmodell ausführen. Das heißt, ein Verarbeitungsprozess umfassend ein Lernen durch den Eingabedaten-Auswahlabschnitt 110 und eine nachfolgende Leistungsbewertung durch den Leistungsbewertungsabschnitt 130 wird so viele Male wiederholt, wie es Kombinationen von Sensordaten gibt. In diesem Fall beispielsweise kann, wenn der Leistungsbewertungsabschnitt 130 eine eine günstige Leistung bewirkende Auswahlregel findet, die Verarbeitung zu diesem Zeitpunkt gestoppt werden.
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • JP 6102217 [0004]

Claims (10)

  1. Informationsverarbeitungsvorrichtung umfassend eine zum Empfangen einer Vielzahl von verschiedenen Teilen von Sensordaten und Durchführen von maschinellem Lernen eingerichtete maschinelle Lernvorrichtung, wobei die Informationsverarbeitungsvorrichtung umfasst: einen zum Festlegen einer Auswahlregel zum Erzeugen von einer oder mehreren Kombinationen der Sensordaten eingerichteten Eingabedaten-Steuerabschnitt; einen zum Erzeugen einer Vielzahl von Kombinationen der Sensordaten gemäß der Auswahlregel, Eingeben der Kombinationen der Sensordaten an die maschinellen Lernvorrichtung und Erzeugen eines Akzeptors entsprechend jeder der Kombinationen der Sensordaten eingerichteten Eingabedaten-Auswahlabschnitt; einen zum Festlegen der für die Akzeptoren erforderlichen voraussichtlichen Leistung eingerichteten Abschnitt zum Festlegen der voraussichtlichen Leistung; und einen zum Bewerten der Leistung der Akzeptoren gemäß der voraussichtlichen Leistung und Ausgeben der Kombination der Sensordaten entsprechend dem die voraussichtliche Leistung erfüllenden Akzeptor eingerichteten Leistungsbewertungsabschnitt.
  2. Informationsverarbeitungsvorrichtung nach Anspruch 1, wobei die voraussichtliche Leistung unter Verwendung der Kosten zum Erfassen der Sensordaten definiert wird, und die Kosten zum Erfassen der Sensordaten auf der Basis eines Preises eines Sensors zum Erfassen der Sensordaten, eines Grades der Schwierigkeit der Installation des Sensors oder des/der zum Erfassen oder Verarbeiten der Sensoren erforderlichen Aufwands, Zeit oder Verarbeitungslast berechnet werden.
  3. Informationsverarbeitungsvorrichtung nach Anspruch 1, wobei die voraussichtliche Leistung unter Verwendung einer richtigen Antwortrate, einer Genauigkeitsrate, einer Rückrufrate oder eines F-Werts des Akzeptors definiert wird.
  4. Informationsverarbeitungsvorrichtung nach Anspruch 1, wobei die Sensordaten Temperatur, Weg, Druck, Strom, Geschwindigkeit, Beschleunigung, Bild, Beleuchtungsstärke, Audio, Geruch oder Länge betreffen.
  5. Informationsverarbeitung nach Anspruch 1, wobei der Leistungsbewertungsabschnitt eine zum Anzeigen einer Vielzahl von Kombinationen der Sensordaten, wobei die Kombinationen die voraussichtliche Leistung erfüllen, und Ermöglichen einem Benutzer zum Auswählen einer gewünschten Kombination der Sensordaten eingerichtete Schnittstelle umfasst.
  6. Informationsverarbeitungsvorrichtung nach Anspruch 1, wobei der Akzeptor ein neuronales Netz umfasst.
  7. Informationsverarbeitungsvorrichtung nach Anspruch 6, wobei der Eingabedaten-Steuerabschnitt ferner eine Festlegungsregel für eine Konfiguration einer Zwischenschicht des neuronalen Netzes festlegt.
  8. Informationsverarbeitungsvorrichtung nach Anspruch 6, wobei der Eingabedaten-Steuerabschnitt die Auswahlregel zum Löschen der Sensordaten mit einem kleinen Kopplungskoeffizient zwischen einer Eingabeschicht und einer Zwischenschicht im neuronalen Netz aufweist.
  9. Informationsverarbeitungsvorrichtung nach Anspruch 6, wobei der Eingabedaten-Steuerabschnitt die Auswahlregel zum Löschen der Sensordaten mit einer niedrigen Rate an Beitrag einer Zwischenschicht zum Auslösen zum Zeitpunkt der Erkennung im neuronalen Netz aufweist.
  10. Informationsverarbeitungsvorrichtung nach Anspruch 1, wobei die Sensordaten von einem oder mehreren Sensoren durch ein Kommunikationsnetzwerk gesammelt werden.
DE102018005652.0A 2017-07-25 2018-07-18 Informationsverarbeitungsvorrichtung Pending DE102018005652A1 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2017143977A JP6523379B2 (ja) 2017-07-25 2017-07-25 情報処理装置
JP2017-143977 2017-07-25

Publications (1)

Publication Number Publication Date
DE102018005652A1 true DE102018005652A1 (de) 2019-01-31

Family

ID=65004382

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102018005652.0A Pending DE102018005652A1 (de) 2017-07-25 2018-07-18 Informationsverarbeitungsvorrichtung

Country Status (4)

Country Link
US (1) US10664754B2 (de)
JP (1) JP6523379B2 (de)
CN (1) CN109297974B (de)
DE (1) DE102018005652A1 (de)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112475904A (zh) * 2020-11-12 2021-03-12 安徽江机重型数控机床股份有限公司 一种基于热分析的数控铣镗床加工精度预测方法
EP3839443A1 (de) * 2019-12-16 2021-06-23 Sick Ag Gebervorrichtung und verfahren zur bestimmung einer kinematischen grösse
US11443137B2 (en) 2019-07-31 2022-09-13 Rohde & Schwarz Gmbh & Co. Kg Method and apparatus for detecting signal features

Families Citing this family (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6333871B2 (ja) * 2016-02-25 2018-05-30 ファナック株式会社 入力画像から検出した対象物を表示する画像処理装置
WO2020065806A1 (ja) * 2018-09-27 2020-04-02 日本電気株式会社 処理装置、処理方法、およびプログラム
JP6898371B2 (ja) * 2019-02-28 2021-07-07 ファナック株式会社 加工条件調整装置及び加工条件調整システム
JP7137761B2 (ja) * 2019-03-06 2022-09-15 オムロン株式会社 センサシステム
JP7208846B2 (ja) * 2019-03-27 2023-01-19 株式会社 日立産業制御ソリューションズ 音響特徴量変換装置、音響特徴量変換方法、および音響特徴量変換プログラム
JP7268509B2 (ja) * 2019-07-09 2023-05-08 株式会社プロテリアル 異常度算出方法、及び、異常度算出用コンピュータプログラム
CN110543944B (zh) * 2019-09-11 2022-08-02 北京百度网讯科技有限公司 神经网络结构搜索方法、装置、电子设备和介质
DE102020101490A1 (de) * 2020-01-22 2021-07-22 Endress+Hauser Conducta Gmbh+Co. Kg Sensorsystem und Verfahren
US11237942B2 (en) 2020-03-12 2022-02-01 International Business Machines Corporation Model comparison with unknown metric importance
US11379991B2 (en) * 2020-05-29 2022-07-05 National Technology & Engineering Solutions Of Sandia, Llc Uncertainty-refined image segmentation under domain shift
US20220301291A1 (en) * 2020-05-29 2022-09-22 National Technology & Engineering Solutions Of Sandia, Llc Uncertainty-refined image segmentation under domain shift
US20220044107A1 (en) * 2020-08-06 2022-02-10 Micron Technology, Inc. Optimized sensor fusion in deep learning accelerator with integrated random access memory
US11720417B2 (en) 2020-08-06 2023-08-08 Micron Technology, Inc. Distributed inferencing using deep learning accelerators with integrated random access memory
US12105506B1 (en) 2021-01-25 2024-10-01 Renesas Electronics America System and method for identifying and assembling sensor combinations optimized for output requirements
CN113059402B (zh) * 2021-03-31 2022-07-12 南昌大学 一种数控铣床铣削颤振智能监测系统
JP7332654B2 (ja) 2021-06-29 2023-08-23 株式会社かんでんエンジニアリング 架空線損傷判定システム
US20230236589A1 (en) * 2022-01-27 2023-07-27 Hitachi, Ltd. Optimizing execution of multiple machine learning models over a single edge device
CN114952419B (zh) * 2022-05-11 2023-12-22 深圳吉兰丁智能科技有限公司 一种基于多特征融合的断刀监控方法及电子设备
CN115409133B (zh) * 2022-10-31 2023-02-03 中科航迈数控软件(深圳)有限公司 基于跨模态数据融合的数控机床操作意图识别方法及系统

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS612217A (ja) 1984-05-01 1986-01-08 ウエスチングハウス エレクトリツク コ−ポレ−シヨン スナツプ作動型ロ−タリ−スイツチ

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3130679B2 (ja) * 1992-09-17 2001-01-31 エヌオーケー株式会社 ガス識別方法とガス識別装置
JPH06119291A (ja) * 1992-10-06 1994-04-28 Toshiba Corp 配水量予測装置
JP3279743B2 (ja) * 1993-08-04 2002-04-30 三菱電機株式会社 多層型ニューラルネットワーク構造を有する識別装置
JP2008293178A (ja) * 2007-05-23 2008-12-04 Nippon Telegr & Teleph Corp <Ntt> シーン管理装置及びシーン管理方法ならびにそのプログラム
US9760914B2 (en) * 2009-08-31 2017-09-12 International Business Machines Corporation Determining cost and processing of sensed data
JP6201792B2 (ja) 2014-02-06 2017-09-27 富士ゼロックス株式会社 情報処理装置及び情報処理プログラム
JP6404700B2 (ja) * 2014-12-11 2018-10-10 株式会社Ihi センサ組合せ決定装置及びセンサ組合せ決定方法
CN106844403B (zh) 2015-12-07 2020-04-14 北京国双科技有限公司 信息处理方法和装置
EP3438887A4 (de) * 2016-03-28 2019-03-27 Sony Corporation Informationsverarbeitungsvorrichtung und informationsverarbeitungsverfahren
US10733534B2 (en) * 2016-07-15 2020-08-04 Microsoft Technology Licensing, Llc Data evaluation as a service

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS612217A (ja) 1984-05-01 1986-01-08 ウエスチングハウス エレクトリツク コ−ポレ−シヨン スナツプ作動型ロ−タリ−スイツチ

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11443137B2 (en) 2019-07-31 2022-09-13 Rohde & Schwarz Gmbh & Co. Kg Method and apparatus for detecting signal features
EP3839443A1 (de) * 2019-12-16 2021-06-23 Sick Ag Gebervorrichtung und verfahren zur bestimmung einer kinematischen grösse
EP3998460A1 (de) 2019-12-16 2022-05-18 Sick Ag Gebervorrichtung und verfahren zur bestimmung einer kinematischen grösse
US11698386B2 (en) 2019-12-16 2023-07-11 Sick Ag Encoder device and method of determining a kinematic value
CN112475904A (zh) * 2020-11-12 2021-03-12 安徽江机重型数控机床股份有限公司 一种基于热分析的数控铣镗床加工精度预测方法

Also Published As

Publication number Publication date
CN109297974A (zh) 2019-02-01
JP2019028515A (ja) 2019-02-21
US20190034803A1 (en) 2019-01-31
JP6523379B2 (ja) 2019-05-29
CN109297974B (zh) 2021-03-02
US10664754B2 (en) 2020-05-26

Similar Documents

Publication Publication Date Title
DE102018005652A1 (de) Informationsverarbeitungsvorrichtung
DE102019002065B4 (de) Maschinelle Lernvorrichtung, Robotersteuervorrichtung und Robotervisionssystem, das eine maschinelle Lernvorrichtung verwendet, und maschinelles Lernverfahren
DE102018001893B4 (de) Reinigungsprozess-Optimierungsvorrichtung und Maschinenlernvorrichtung
DE102016015873B3 (de) Vorrichtung für maschinelles Lernen, Robotersystem und maschinelles Lernsystem zum Lernen eines Werkstückaufnahmevorgangs
DE102017011544A1 (de) Steuerung und maschinelle Lernvorrichtung
DE102018006465A1 (de) Artikelstapelvorrichtung und maschinelle Lernvorrichtung
DE102018115413B4 (de) Gerät zur kompensation thermischer verschiebung und maschinenlernvorrichtung zum lernen von formmessdaten
DE102018002112A1 (de) Störungserfassungsvorrichtung und maschinelle Lernvorrichtung
DE102018009008B4 (de) Steuervorrichtung und Maschinenlernvorrichtung
DE102018108779A1 (de) Schätzvorrichtung eines maschinellen Bearbeitungsfehlerfaktors
DE102017006054A1 (de) Maschinelle Lernvorrichtung, die eine geschätzte Lebensdauer eines Lagers lernt, Lebensdauer-Schätzvorrichtung und maschinelles Lernverfahren
DE102017011754A1 (de) Maschinenlerneinrichtung zum Lernen eines Montagevorgangs und Komponentenmontagesystem
DE102018108778B4 (de) Beschleunigungs- und verzögerungssteuereinheit, maschinenlernvorrichtung und maschinenlernverfahren
DE102017009471A1 (de) Humankollaboratives robotersystem mit verbesserter genauigkeit der erfassung einer äusseren kraft durch maschinelles lernen
DE102016009030A1 (de) Vorrichtung für maschinelles Lernen, Robotersystem und maschinelles Lernsystem zum Lernen eines Werkstückaufnahmevorgangs
DE102016011532A1 (de) Maschinenlernvorrichtung und Maschinenlernverfahren zum Optimieren der Häufigkeit einer Werkzeugkorrektur einer Werkzeugmaschine und Werkzeugmaschine mit der Maschinenlernvorrichtung
DE102018200887A1 (de) Diagnosevorrichtung
DE102019001783A1 (de) Steuerung, maschinelle lernvorrichtung und system
DE102018005199B4 (de) Bauteilzuführvorrichtung und maschinelle lernvorrichtung
DE102018010086A1 (de) Spanabführvorrichtung und Informationsverarbeitungsvorrichtung
DE102018129529A1 (de) Vorrichtung zum Arbeitermanagement
DE102017000287A1 (de) Zellensteuerung und produktionssystem zum verwalten der arbeitssituation einer vielzahl von fertigungsmaschinen in einer fertigungszelle
DE102019106939A1 (de) Bearbeitungszustandsanpassungsvorrichtung und maschinenlernvorrichtung
DE102018008370A1 (de) Lebensdauervorhersagegerät
DE112019000093T5 (de) Diskriminierungsvorrichtung und Maschinenlernverfahren

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R016 Response to examination communication