DE112020007035T5 - Lernvorrichtung, Lernverfahren, Inferenzvorrichtung, Programm und Speichermedium - Google Patents

Lernvorrichtung, Lernverfahren, Inferenzvorrichtung, Programm und Speichermedium Download PDF

Info

Publication number
DE112020007035T5
DE112020007035T5 DE112020007035.2T DE112020007035T DE112020007035T5 DE 112020007035 T5 DE112020007035 T5 DE 112020007035T5 DE 112020007035 T DE112020007035 T DE 112020007035T DE 112020007035 T5 DE112020007035 T5 DE 112020007035T5
Authority
DE
Germany
Prior art keywords
data
learning
partial data
partial
inference
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE112020007035.2T
Other languages
English (en)
Inventor
Yusaku KONNO
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Publication of DE112020007035T5 publication Critical patent/DE112020007035T5/de
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/09Supervised learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/774Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/0499Feedforward networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/088Non-supervised learning, e.g. competitive learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0004Industrial image inspection
    • G06T7/0008Industrial image inspection checking presence/absence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/26Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
    • G06V10/267Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion by performing operations on regions, e.g. growing, shrinking or watersheds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20021Dividing image into blocks, subimages or windows
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30108Industrial image inspection

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Computing Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Software Systems (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Computational Linguistics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Data Mining & Analysis (AREA)
  • Molecular Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Medical Informatics (AREA)
  • Databases & Information Systems (AREA)
  • Quality & Reliability (AREA)
  • Image Analysis (AREA)

Abstract

Eine Lernvorrichtung (10) weist auf: eine Datenbezugseinheit (11), die Lernzieldaten bezieht, bei denen es sich um Daten eines Lernziels voller Größe handelt; eine Datenerzeugungseinheit (16), die die Lernzieldaten unterteilt, um mehrere erste Teildatenteile zu erzeugen, bei denen es sich um Teildaten der Lernzieldaten handelt, und die zu jedem ersten Teildatenteil erste Identifikationsinformationen zum Identifizieren eines Bereichs der ersten Teildaten in den Lernzieldaten hinzufügt; und eine Modellerzeugungseinheit (14), die ein erlerntes Modell (31) zum Bestimmen einer Anomalie in den ersten Teildaten unter Verwendung erster Korrespondenzinformationen erzeugt, bei denen es sich um einen Satz aus den ersten Teildaten und den zu den ersten Teildaten gehörenden ersten Identifikationsinformationen handelt.

Description

  • Gebiet
  • Die vorliegende Offenbarung bezieht sich auf eine Lernvorrichtung, ein Lernverfahren und eine Inferenzvorrichtung zum Erlernen des Normalzustands eines Prüfobjekts.
  • Hintergrund
  • Bei der Herstellung einiger Produkte kann die Prüfung der Produkte durch maschinelles Lernen erfolgen. Eine Lernvorrichtung, die maschinelles Lernen ausführt, ist so ausgebildet, dass sie die hergestellten Produkte beispielsweise mithilfe eines mehrschichtigen neuronalen Netzwerkes prüft.
  • Die in dem Patentdokument 1 beschriebene Vorrichtung zur Erfassung von Anomalien erhält als Eingabe normale Bilddaten zum Lernen und führt maschinelles Lernen so durch, dass dessen Ausgabedaten gleich den normalen Bilddaten zum Lernen sind. Diese Anomalieerfassungsvorrichtung extrahiert auf Basis des Lernergebnisses Merkmalskomponenten aus den Bilddaten eines Prüfobjekts und bestimmt das Fehlen oder Vorhandensein einer Anomalie bei dem Prüfobjekt auf Basis der Differenz zwischen den Merkmalskomponenten und den Bilddaten des Prüfobjekts.
  • Liste der Zitate
  • Patentliteratur
  • Patentdokument 1: Japanische Offenlegungsschrift Nr. 2018-195119
  • Kurzbeschreibung
  • Technische Problemstellung
  • Allerdings dauert das Lernen länger, wenn die Lerndaten, wie beispielsweise Bilddaten, einen größeren Datenumfang aufweisen. Eine mögliche Methode, die Lernzeit zu verkürzen, besteht darin, die Lerndaten in Teile aufzuteilen und das maschinelle Lernen anhand der Bruchstücke der Lerndaten durchzuführen. Es wird davon ausgegangen, dass diese Methode auf die in Patentdokument 1 beschriebene Vorrichtung zur Erkennung von Anomalien angewendet wird. In diesem Fall werden die Lerndaten zur Bestimmung des Fehles oder Vorhandenseins einer Anomalie in mehrere Lerndatenteile aufgeteilt, die Position jedes der Lerndatenteile wird jedoch gar nicht verwaltet. Wenn also ein Lerndatenteil, der einen anormale Zustand aufweist, gleich einem Lerndatenteil, der einen Normalzustand aufweist, an einer Position ist, die sich von der Position des anormalen Lerndatenteils unterscheidet, bestimmt die Anomalieerfassungsvorrichtung fälschlicherweise, dass der anormale Lerndatenteil einem Lerndatenteil entspricht, der einen Normalzustand aufweist, und kann kein korrektes maschinelles Lernen durchführen.
  • Die vorliegende Offenbarung entstand in Anbetracht der oben genannten Umstände, wobei eine Aufgabe darin besteht, eine Lernvorrichtung anzugeben, die maschinelles Lernen des Normalzustands eines Prüfobjekts in kürzerer Zeit korrekt durchführen kann.
  • Lösung der Problemstellung
  • Um die oben genannten Probleme zu lösen und die Aufgabe zu erfüllen, gibt die vorliegende Offenbarung eine Lernvorrichtung an, die aufweist: eine Datenbezugseinheit zum Beziehen von Lernzieldaten, bei denen es sich um Daten eines Lernziels voller Größe handelt; eine Datenerzeugungseinheit zum Teilen der Lernzieldaten, um mehrere Teile erster Teildaten zu erzeugen, bei denen es sich um Teildaten der Lernzieldaten handelt, und zum Hinzufügen von ersten Identifikationsinformationen zum Identifizieren eines Bereichs der ersten Teildaten in den Lernzieldaten zu jedem einzelnen ersten Teildatenteil; und eine Modellerzeugungseinheit zum Erzeugen eines erlernten Modells zum Bestimmen einer Anomalie in den ersten Teildaten unter Verwendung von ersten Korrespondenzinformationen, bei denen es sich um einen Satz aus den ersten Teildaten und den ersten Identifikationsinformationen handelt, die zu den ersten Teildaten gehören.
  • Vorteilhafte Wirkungen der Erfindung
  • Die Lernvorrichtung gemäß der vorliegenden Offenbarung hat den vorteilhaften Effekt, dass sie maschinelles Lernen des Normalzustands eines Prüfobjekts in kürzerer Zeit korrekt durchführen kann.
  • Figurenliste
    • 1 zeigt eine Darstellung zur Veranschaulichung der Konfiguration einer Lernvorrichtung gemäß einer ersten Ausführungsform.
    • 2 zeigt eine Darstellung zur Veranschaulichung der Konfiguration eines neuronalen Netzwerks, das von einer Lernvorrichtung gemäß der ersten Ausführungsform verwendet wird.
    • 3 zeigt ein Flussdiagramm zur Veranschaulichung des Ablaufs eines Lernprozesses, der von einer Lernvorrichtung gemäß der ersten Ausführungsform durchgeführt wird.
    • 4 zeigt eine Darstellung zur Veranschaulichung der Konfiguration einer Inferenzvorrichtung gemäß der ersten Ausführungsform.
    • 5 zeigt ein Flussdiagramm zur Veranschaulichung des Ablaufs einer Inferenzverarbeitung, die von einer Inferenzvorrichtung gemäß der ersten Ausführungsform durchgeführt wird.
    • 6 zeigt eine Darstellung zur Veranschaulichung der Konfiguration einer Lernvorrichtung, die die Funktion einer in 4 beschriebenen Inferenzvorrichtung aufweist.
    • 7 zeigt eine Darstellung zur Veranschaulichung der Hardwarekonfiguration einer in 6 dargestellten Lernvorrichtung.
    • 8 zeigt eine Darstellung zur Erläuterung eines Normaldaten-Lernprozesses und einer Inferenzverarbeitung, die von einer in 6 dargestellten Lernvorrichtung durchgeführt werden.
    • 9 zeigt eine Darstellung zur Erläuterung des Unterschieds zwischen einer Anomalieanzeigekarte, die von einer Inferenzvorrichtung gemäß der ersten Ausführungsform unter Verwendung von Abtrennpositionsinformationen erzeugt wurde, und einer anderen Anomalieanzeigekarte, die ohne Verwendung von Abtrennpositionsinformationen erzeugt wurde.
    • 10 zeigt eine Darstellung zur Erläuterung eines Abtrennpositionsbildes, das durch eine Lernvorrichtung gemäß einer zweiten Ausführungsform in Teildaten für drei RGB-Farbkanäle bestimmt wurde.
    • 11 zeigt eine Darstellung zur Erläuterung eines Abtrennpositionsbildes, das durch eine Lernvorrichtung gemäß der zweiten Ausführungsform in Teildaten eines Graustufenkanals bestimmt wurde.
    • 12 zeigt eine Darstellung zur Erläuterung eines Datenarraybildes, durch das ein Teildatenabtrennbereich identifiziert werden kann, der durch eine Lernvorrichtung gemäß der zweiten Ausführungsform in Teildaten eines Graustufenkanals bestimmt wurde.
    • 13 zeigt eine Tabelle zur Erläuterung des Unterschieds zwischen der Berechnungszeit in dem Fall, in dem eine Inferenzvorrichtung gemäß der zweiten Ausführungsform ein Vollbild unterteilt, um maschinelles Lernen auszuführen, und der Berechnungszeit in dem Fall, in dem maschinelles Lernen ohne Unterteilung des Vollbildes ausgeführt wird.
    • 14 zeigt eine Darstellung zur Erläuterung eines Ablaufs, bei dem eine Inferenzvorrichtung gemäß einer dritten Ausführungsform die Abtrennpositionsinformationen der Teildaten direkt in die Zwischenschicht des erlernten Modells eingibt.
  • Beschreibung von Ausführungsformen
  • Nachfolgend werden eine Lernvorrichtung, ein Lernverfahren und eine Inferenzvorrichtung gemäß Ausführungsformen der vorliegenden Offenbarung unter Bezugnahme auf die Figuren detailliert beschrieben. Die vorliegende Offenbarung ist durch diese Ausführungsformen nicht zwingend beschränkt.
  • Erste Ausführungsform
  • 1 zeigt eine Darstellung zur Veranschaulichung der Konfiguration einer Lernvorrichtung gemäß der ersten Ausführungsform. Die Lernvorrichtung 10 ist ein Computer, der geeignet ist, Lernzieldaten, bei denen es sich um eine Lernprobe eines Prüfobjekts handelt, in Teile aufzuteilen und maschinelles Lernen des einen Normalzustand aufweisenden Prüfobjekts anhand der Lernzieldatenbruchstücke durchzuführen. Die Lernvorrichtung 10 erzeugt ein erlerntes Modell durch maschinelles Lernen, wobei es sich hierbei um ein Beispiel für künstliche Intelligenz (KI) handelt, und eine (später beschriebene) Inferenzvorrichtung verwendet das erzeugte erlernte Modell, um ein Prüfobjekt, das einen Normalzustand aufweist, abzuleiten, und vergleicht das Prüfobjekt mit dem Prüfobjekt, das einen Normalzustand aufweist, um dadurch zu bestimmen, ob das Prüfobjekt anormal ist oder nicht. Im Folgenden wird ein Fall beschrieben, bei dem das Lernziel und das Prüfobjekt Bilddaten eines Produkts sind, das Lernziel und das Prüfobjekt können jedoch auch andere von Bilddaten verschiedene Daten sein.
  • Die Lernvorrichtung 10 kann maschinelles Lernen mit jeder beliebigen Lernmethode ausführen. Zum Beispiel kann die Lernvorrichtung 10 maschinelles Lernen durch Erlernen von nicht-defekten Produkten unter Verwendung von Bilddaten von nicht-defekten Produkten oder maschinelles Lernen unter Verwendung von Bilddaten von nicht-defekten Produkten und defekten Produkten durchführen.
  • Die Lernvorrichtung 10 unterteilt die gesamten Bilddaten (im Folgenden als Gesamtdaten bezeichnet), um mehrere Bilddatenbruchstücke (im Folgenden als Teildaten oder Teildatenteile bezeichnet) zu erzeugen. Ein Beispiel für Gesamtdaten sind Daten, die ein Bild des gesamten Produkts angeben, d. h. Daten, die ein Vollbild repräsentieren, und ein Beispiel für Teildaten sind Daten, die einen Teilbereich eines Produkts angeben. Bei den Gesamtdaten kann es sich um Bilddaten eines in beliebiger Richtung aufgenommenen Bildes eines Produkts handeln. Bei der ersten Ausführungsform wird ein Fall beschrieben, bei dem die Gesamtdaten Bilddaten eines Produktbildes sind, das von oben aufgenommen wurde.
  • Die Lernvorrichtung 10 führt maschinelles Lernen durch, indem sie einen Teildatenteil mit der Position des Teildatenteils in den Gesamtdaten verknüpft. Die Lernvorrichtung 10 umfasst eine Datenbezugseinheit 11, eine Datenerzeugungseinheit 16 und eine Modellerzeugungseinheit 14. Die Datenerzeugungseinheit 16 umfasst eine Datenabtrenneinheit 12 und eine Positionsinformationenanfügeeinheit 13.
  • Die Datenbezugseinheit 11 bezieht Gesamtdaten. Die Datenbezugseinheit 11 bezieht die Gesamtdaten von einer externen Vorrichtung, wie beispielsweise einer Bildgebungsvorrichtung, die ein Bild eines Produkts aufnimmt. Die Datenbezugseinheit 11 sendet die bezogenen Gesamtdaten an die Datenerzeugungseinheit 16.
  • Die Datenabtrenneinheit 12 unterteilt die Gesamtdaten und trennt den Teildatenteil von den Gesamtdaten ab. Es wird darauf hingewiesen, dass der Teildatenteil eine beliebige Größe haben kann. Zum Beispiel handelt es sich bei den Gesamtdaten um Daten eines rechteckförmigen Bildes, dessen eine Seite 1024 Pixel umfasst. Bei dem Teildatenteil handelt es sich um Daten eines rechteckförmigen Bildes, dessen Seite 64 Pixel umfasst.
  • Die Positionsinformationenanfügeeinheit 13 fügt dem Teildatenteil Abtrennpositionsinformationen zur Identifizierung des Bereichs des Teildatenteils in den Gesamtdaten hinzu. Die Abtrennpositionsinformationen werden beispielsweise durch die Koordinaten von zwei oder mehr Eckpunkten des Teildatenteils in den Gesamtdaten dargestellt. Es wird darauf hingewiesen, dass die Abtrennpositionsinformationen durch die Koordinaten eines Punktes in einem Teildatenteil in den Gesamtdaten und eine Größe dargestellt werden können.
  • Die Datenerzeugungseinheit 16 sendet die von der Positionsinformationenanfügeeinheit 13 hinzugefügten Abtrennpositionsinformationen und den von der Datenabtrenneinheit 12 erzeugten Teildatenteil an die Modellerzeugungseinheit 14, wobei die Abtrennpositionsinformationen dabei mit dem Teildatenteil verknüpft werden.
  • Die Modellerzeugungseinheit 14 erzeugt ein erlerntes Modell 31 unter Verwendung von Korrespondenzinformationen, d. h. Informationen, in denen die Abtrennpositionsinformationen mit den Teildaten verknüpft sind. Bei der ersten Ausführungsform sind die Korrespondenzinformationen Lerndaten zum Lernen von Bilddaten, die einen Normalzustand aufweisen (im Folgenden als Normaldaten bezeichnet), d. h. Lernzieldaten. Wenn die Gesamtdaten in 100 Teile von Teildaten unterteilt sind, erzeugt die Modellerzeugungseinheit 14 das erlernte Modell 31 unter Verwendung der Korrespondenzinformationen für die 100 Teile.
  • Die Modellerzeugungseinheit 14 lernt die Normaldaten auf Basis der Korrespondenzinformationen (Lerndaten), die auf Basis einer Kombination der Abtrennpositionsinformationen und des Teildatenteils erzeugt wurden. Die Modellerzeugungseinheit 14 erzeugt demnach das erlernte Modell 31, das verwendet wird, um Normaldaten aus den Abtrennpositionsinformationen und dem Teildatenteil abzuleiten. Die Modellerzeugungseinheit 14 erzeugt ein erlerntes Modell 31 für die Gesamtdaten. Dabei handelt es sich bei den Lerndaten um Daten, in denen die Abtrennpositionsinformationen und der Teildatenteil miteinander verknüpft sind.
  • Das erlernte Modell 31 ist so konfiguriert, dass es maschinelles Lernen von Bilddaten eines Produkts, das einen Normalzustand aufweist, beispielsweise unter Verwendung von Deep Learning durchführt, bei dem neuronale Netze in einer mehrschichtigen Weise gestapelt werden. Durch die Eingabe von Korrespondenzinformationen veranlasst gibt das erlernte Modell 31 Bilddaten aus, die einen Normalzustand aufweisen. Durch die Eingabe einer einzelnen Korrespondenzinformation veranlasst gibt das erlernte Modell 31 einen Normaldatenteil aus.
  • Die Bilddaten der Normaldaten, die von dem erlernten Modell 31 ausgegeben werden, sind Bilddaten von dem desselben Bereichs wie dem des Teildatenteils. Als Reaktion auf die Eingabe des Teildatenteils, d. h. von Lerndaten, führt das erlernte Modell 31 maschinelles Lernen so durch, dass die Ausgabedaten Bilddaten sind, die einen Normalzustand repräsentieren. Das erlernte Modell 31 führt maschinelles Lernen von Normaldaten durch, d. h. von Bilddaten, die das Produkt in einem Normalzustand repräsentieren, während es Merkmalsdaten, die für die Lerndaten charakteristisch sind, aus den Lerndaten extrahiert. Die Modellerzeugungseinheit 14 verwendet demnach als Lernalgorithmus Deep Learning, bei dem eine Merkmalsmenge extrahiert und erlernt wird, um das neuronale Netzwerk zum Lernen zu veranlassen, wobei das Netzwerk gleichzeitig veranlasst wird, Merkmale unter Verwendung eines Satzes von mehreren Lernzieldatenteilen, bei denen es sich um normale Lernproben handelt, als Prüfobjekt zu extrahieren. Folglich führt die Modellerzeugungseinheit 14 eine Art unüberwachtes Lernen ohne Eingabe eines Merkmals und ohne Eingabe eines expliziten Teacher-Signals, das angibt, dass es sich um ein normales oder anormales Merkmal handelt, oder Ähnlichem durch und erzeugt das erlernte Modell 31, das Normaldaten ausgibt, die als Normaldaten mit einem normalen Merkmal des Prüfobjekts geeignet sind.
  • Wenn das erlernte Modell 31 ein Modell ist, das ein neuronales Netzwerk verwendet, ist das neuronale Netzwerk aus einer Eingabeschicht, die aus einer Vielzahl von Neuronen besteht, einer Zwischenschicht (versteckte Schicht), die aus einer Vielzahl von Neuronen besteht, und einer Ausgabeschicht zusammengesetzt, die aus einer Vielzahl von Neuronen besteht. Die Anzahl der Zwischenschichten kann eine, zwei oder mehr sein.
  • 2 zeigt eine Darstellung zur Veranschaulichung der Konfiguration eines neuronalen Netzwerks, das von einer Lernvorrichtung gemäß der ersten Ausführungsform verwendet wird. Wenn das neuronale Netzwerk wie in 2 dargestellt beispielsweise ein dreischichtiges neuronales Netzwerk ist, werden, wenn mehrere Eingaben in eine Eingabeschicht (X1 bis X3) eingegeben werden, deren Werte mit den Gewichtungen W1 (w11 bis w16) multipliziert und in eine Zwischenschicht (Y1 bis Y2) eingegeben, wobei deren Ergebnisse zudem mit den Gewichtungen W2 (w21 bis w26) multipliziert und von einer Ausgabeschicht (Z1 bis Z3) ausgegeben werden. Die Ausgabeergebnisse variieren in Abhängigkeit von den Werten der Gewichtungen W1 und W2.
  • Das neuronale Netzwerk lernt Normaldaten, die sich als Normaldaten mit einem oder mehreren normalen Merkmalen eignen, durch Deep Learning auf Basis von Korrespondenzinformationen, bei denen es sich um einen Satz von Teildatenteilen handelt, die von der Datenerzeugungseinheit 16 erzeugt werden, und von Identifikationsinformationen, die zu den Teildatenteilen gehören.
  • Das neuronale Netzwerk lernt also anhand einer Anpassung der Gewichtungen W1 und W2 so, dass die Korrespondenzinformationen, bei denen es sich um einen Satz von Teildatenteilen handelt, und die Identifikationsinformationen, die zu den Teildatenteilen gehören, in die Eingabeschicht eingegeben werden, ein Merkmal oder Merkmale in der Zwischenschicht extrahiert werden und Normaldaten, die sich als Normaldaten mit den extrahierten Merkmalen eignen, von der Ausgabeschicht ausgegeben werden.
  • Die Modellerzeugungseinheit 14 führt das soeben beschriebene Lernen aus, um das erlernte Modell 31 zu erzeugen, und gibt das erzeugte erlernte Modell 31 aus. Die Speichereinheit für das erlernte Modell 15 ist eine Vorrichtung, die zum Speichern des erlernten Modells 31 ausgebildet ist, das von der Modellerzeugungseinheit 14 ausgegeben wird. Die Speichereinheit für das erlernte Modell 15 kann innerhalb der Lernvorrichtung 10 oder außerhalb der Lernvorrichtung 10 angeordnet sein.
  • Im oben beschriebenen Fall wird eine Art von unüberwachtem Lernen auf der Grundlage von Deep Learning als Lernalgorithmus verwendet, der von der Modellerzeugungseinheit 14 eingesetzt wird. Es können jedoch auch allgemein bekannte Algorithmen verwendet werden, wie z. B. andere Arten von unüberwachtem Lernen, überwachtes Lernen, halbüberwachtes Lernen und bestärkendes Lernen. Zudem wird im oben beschriebenen Fall eine Konfiguration des neuronalen Netzwerkes für Deep Learning als Konfiguration des erlernten Modells 31 verwendet. Es kann jedoch auch eine Konfiguration auf Basis eines anderen Lernalgorithmus verwendet werden.
  • Als Nächstes wird der Lernprozess der Lernvorrichtung 10 unter Bezugnahme auf 3 beschrieben. 3 zeigt ein Flussdiagramm zur Veranschaulichung des Ablaufs eines Lernprozesses, der von einer Lernvorrichtung gemäß der ersten Ausführungsform durchgeführt wird. Die Datenbezugseinheit 11 bezieht Gesamtdaten, die ein Bild des gesamten Produkts angeben (Schritt S10). Die bezogenen Gesamtdaten werden hier für das maschinelle Lernen von Normaldaten verwendet. Die Datenerzeugungseinheit 16 unterteilt die Gesamtdaten und trennt Teildatenteile aus den Gesamtdaten ab (Schritt S20).
  • Die Positionsinformationenanfügeeinheit 13 fügt zu einem Teildatenteil Abtrennpositionsinformationen hinzu, um den Bereich des Teildatenteils in den Gesamtdaten zu identifizieren (Schritt S30). Die Datenerzeugungseinheit 16 sendet an die Modellerzeugungseinheit 14 Korrespondenzinformationen, in denen die von der Positionsinformationenanfügeeinheit 13 hinzugefügten Abtrennpositionsinformationen und der von der Datenabtrenneinheit 12 erzeugte Teildatenteil miteinander verknüpft sind.
  • Die Modellerzeugungseinheit 14 führt den Lernprozess für das erlernte Modell 31 durch (Schritt S40). Konkret erzeugt die Modellerzeugungseinheit 14 das erlernte Modell 31 unter Verwendung der Korrespondenzinformationen, in denen die Abtrennpositionsinformationen mit dem Teildatenteil verknüpft sind. Anders ausgedrückt lernt die Modellerzeugungseinheit 14 Normaldaten durch sogenanntes unüberwachtes Lernen in Übereinstimmung mit den Lerndaten, die auf Basis der Kombination der Abtrennpositionsinformationen und des Teildatenteils erzeugt wurden, und erzeugt das erlernte Modell 31. Die Speichereinheit für das erlernte Modell 15 speichert das von der Modellerzeugungseinheit 14 erzeugte erlernte Modell 31 (Schritt S50).
  • Als Nächstes wird eine Inferenzvorrichtung beschrieben, die Normaldaten unter Verwendung des erlernten Modells 31 ableitet und feststellt, ob eine Anomalie in den Inferenzzieldaten auftritt. 4 zeigt eine Darstellung zur Veranschaulichung der Konfiguration einer Inferenzvorrichtung gemäß der ersten Ausführungsform. Die Inferenzvorrichtung 20 umfasst eine Datenbezugseinheit 21, eine Datenerzeugungseinheit 26 und eine Inferenzeinheit 24. Die Datenerzeugungseinheit 26 umfasst eine Datenabtrenneinheit 22 und eine Positionsinformationenanfügeeinheit 23.
  • Die Datenbezugseinheit 21 weist die gleiche Funktion wie die Datenbezugseinheit 11 auf, und die Datenerzeugungseinheit 26 hat die gleiche Funktion wie die Datenerzeugungseinheit 16. Während die Datenbezugseinheit 11 Gesamtdaten bezieht, die als Lerndaten verwendet werden sollen, bezieht die Datenbezugseinheit 21 Gesamtdaten, die als Prüfdaten verwendet werden sollen. Die Gesamtdaten, die als Prüfdaten verwendet werden sollen, sind Inferenzzieldaten. Die Datenerzeugungseinheit 26 erzeugt zudem Korrespondenzinformationen, die als Prüfdaten verwendet werden sollen, während die Datenerzeugungseinheit 16 die als Lerndaten zu verwendenden Korrespondenzinformationen erzeugt. Die Datenerzeugungseinheit 26 sendet die erzeugten Korrespondenzinformationen an die Inferenzeinheit 24.
  • Die Inferenzeinheit 24 empfängt die von der Datenerzeugungseinheit 26 gesendeten Korrespondenzinformationen. Die Inferenzeinheit 24 folgert unter Verwendung des erlernten Modells 31, das in der Speichereinheit für das erlernte Modell 15 gespeichert ist, Normaldaten aus den Korrespondenzinformationen. Die Inferenzvorrichtung 20 leitet demnach Normaldaten, die sich als Normaldaten mit normalen Merkmalen der Korrespondenzinformationen eignen, anhand der Eingabe der Korrespondenzinformationen der Prüfdaten in das erlernte Modell 31 ab. Dabei leitet die Inferenzeinheit 24 Normaldaten für jeden Teildatenteil auf Basis des Teildatenteils der Prüfdaten und der Abtrennpositionsinformationen, die als Identifikationsinformationen dienen, ab.
  • Die Inferenzeinheit 24 vergleicht die Normaldaten, bei denen es sich um das Inferenzergebnis handelt, mit dem Teildatenteil in den von der Datenerzeugungseinheit 26 empfangenen Korrespondenzinformationen und identifiziert einen Abschnitt, in dem ein bestimmter Unterschied zwischen den Normaldaten und dem Teildatenteil auftritt, als einen anormalen Abschnitt. Dabei bestimmt die Inferenzeinheit 24 für jeden Teildatenteil den Unterschied zwischen den Normaldaten und den Teildaten.
  • Die Inferenzeinheit 24 erzeugt eine Anomalieanzeigekarte 33, die den anormalen Abschnitt auf Basis des Bestimmungsergebnisses für jeden Teildatenteil anzeigt, und gibt die Anomalieanzeigekarte 33 als Prüfergebnis an eine externe Vorrichtung aus. Die Anomalieanzeigekarte 33 ist eine Karte, die den anormalen Abschnitt der gesamten Bilddaten in einer anderen Farbe oder auf eine andere Weise zeigt, so dass der anormale Abschnitt von anderen Abschnitten unterscheidbar ist. Die Anomalieanzeigekarte 33 wird durch Überschreiben der Gesamtdaten mit den kartierten anomalen Abschnitten erstellt. Wenn die externe Vorrichtung, an die die Inferenzeinheit 24 die Anomalieanzeigekarte 33 ausgibt, eine Anzeigevorrichtung wie ein Display ist, zeigt die Anzeigevorrichtung die Anomalieanzeigekarte 33 an. Es wird darauf hingewiesen, dass die externe Vorrichtung, an die die Anomalieanzeigekarte 33 ausgegeben wird, eine Warnvorrichtung oder dergleichen sein kann.
  • In dem oben beschriebenen Beispiel erzeugt die Inferenzeinheit 24 die Anomalieanzeigekarte 33, die die anormalen Abschnitte anzeigt. Die Inferenzeinheit 24 muss jedoch nicht notwendigerweise den anormalen Abschnitt identifizieren, wobei sie bestimmen kann, ob jeder Teildatenteil anormal ist oder nicht, dann bestimmen kann, dass die Gesamtdaten des Prüfobjekts anormal sind, wenn einer der Teildatenteile anormal ist, und nur die Bestimmung, ob es eine Anomalie gibt, als Prüfergebnis ausgeben kann. Ferner kann die Inferenzeinheit 24 zunächst die Normaldatenteile kombinieren, die mit den jeweiligen Teildatenteilen verknüpft sind, um die Normaldaten für ein Vollbild zu erzeugen, das den Gesamtdaten entspricht, und dann die Gesamtdaten mit den Normaldaten vergleichen, die den Gesamtdaten entsprechen, um dadurch eine Anomalie zu erfassen.
  • Bei der ersten Ausführungsform wird ein Beispiel beschrieben, bei dem die Inferenzvorrichtung 20 die Anomalieanzeigekarte 33 unter Verwendung des erlernten Modells 31 ausgibt, das durch Lernen in der Modellerzeugungseinheit 14 der Lernvorrichtung 10 erhalten wurde, die Inferenzvorrichtung 20 kann jedoch auch ein erlerntes Modell 31 verwenden, das durch Lernen in einer anderen Vorrichtung als der Lernvorrichtung 10 erhalten wurde. Im letzteren Fall kann die Inferenzvorrichtung 20 das erlernte Modell 31 von einer anderen externen Vorrichtung oder dergleichen beziehen, die sich von der Lernvorrichtung 10 unterscheidet, und die Anomalieanzeigekarte 33 basierend auf diesem erlernten Modell 31 ausgeben.
  • Es wird darauf hingewiesen, dass die Lernvorrichtung 10 und die Inferenzvorrichtung 20 beispielsweise über ein Netzwerk verbunden sein können. In diesem Fall wird das erlernte Modell 31, das von der Lernvorrichtung 10 erzeugt wurde, über das Netzwerk an die Inferenzvorrichtung 20 gesendet.
  • Als Nächstes wird die von der Inferenzvorrichtung 20 durchgeführte Inferenzverarbeitung unter Bezugnahme auf 5 beschrieben. 5 zeigt ein Flussdiagramm zur Veranschaulichung des Ablaufs einer Inferenzverarbeitung, die von einer Inferenzvorrichtung gemäß der ersten Ausführungsform durchgeführt wird. Die Datenbezugseinheit 21 bezieht Gesamtdaten, die ein Bild des gesamten Produkts angeben (Schritt S110). Die in diesem Schritt bezogenen Gesamtdaten werden für die Inferenzverarbeitung von Normaldaten verwendet. Die Datenerzeugungseinheit 26 unterteilt die Gesamtdaten und trennt die Teildatenteile aus den Gesamtdaten ab (Schritt S120).
  • Die Positionsinformationenanfügeeinheit 23 fügt zu jedem Teildatenteil Abtrennpositionsinformationen hinzu, um den Bereich des Teildatenteils in den Gesamtdaten zu identifizieren (Schritt S130). Die Datenerzeugungseinheit 26 sendet an die Inferenzeinheit 24 Korrespondenzinformationen, in denen die von der Positionsinformationenanfügeeinheit 23 hinzugefügten Abtrennpositionsinformationen und das von der Datenabtrenneinheit 22 erzeugte Teildatenteil miteinander verknüpft sind.
  • Die Inferenzeinheit 24 empfängt die von der Datenerzeugungseinheit 26 gesendeten Korrespondenzinformationen. Die Inferenzeinheit 24 leitet Normaldaten aus den Korrespondenzinformationen unter Verwendung des erlernten Modells 31 ab, das in der Speichereinheit für das erlernte Modell 15 gespeichert ist (Schritt S140). Dabei leitet die Inferenzeinheit 24 die Normaldaten für jeden Teildatenteil ab. Das erlernte Modell 31, das von der Inferenzeinheit 24 verwendet wird, gibt die Normaldaten als Reaktion auf die Eingabe der Korrespondenzinformationen aus, in denen die Abtrennpositionsinformationen und die Teildaten miteinander verknüpft sind.
  • Die Inferenzeinheit 24 vergleicht die Normaldaten, d. h. das Inferenzergebnis, mit dem Teildatenteil in den von der Datenerzeugungseinheit 26 empfangenen Korrespondenzinformationen (Schritt S150) und bestimmt den Unterschied zwischen den Normaldaten und dem Teildatenteil auf Basis des Vergleichsergebnisses. Dabei bestimmt die Inferenzeinheit 24 für jeden Teildatenteil den Unterschied zwischen den Normaldaten und dem Teildatenteil. Die Inferenzeinheit 24 erzeugt die Anomalieanzeigekarte 33 auf Basis des Unterschieds zwischen den Normaldaten und dem Teildatenteil (Schritt S160). Die Inferenzeinheit 24 gibt die erzeugte Anomalieanzeigekarte 33 an ein externes Gerät aus.
  • Es wird darauf hingewiesen, dass die Inferenzvorrichtung 20 das Lernen für Normaldaten durchführen kann, während sie die Normaldaten unter Verwendung des erlernten Modells 31 ableitet. In diesem Fall wird das erlernte Modell 31 als Ergebnis des von der Inferenzvorrichtung 20 durchgeführten Lernens zu einem neuen erlernten Modell 31 aktualisiert.
  • Ferner können das Lernen und die Ableitung der Normaldaten durch eine Lernvorrichtung ausgeführt werden, in der die Lernvorrichtung 10 und die Inferenzvorrichtung 20 kombiniert sind. 6 zeigt eine Darstellung zur Veranschaulichung der Konfiguration einer Lernvorrichtung, die die Funktionalität einer in 4 beschriebenen Inferenzvorrichtung aufweist. Die Lernvorrichtung 10A, die die Funktion der Inferenzvorrichtung 20 aufweist, umfasst eine Datenbezugseinheit 11A, eine Datenerzeugungseinheit 16A, die Modellerzeugungseinheit 14, eine Speichereinheit für das erlernte Modell 15A und die Inferenzeinheit 24. Die Datenerzeugungseinheit 16A umfasst eine Datenabtrenneinheit 12A und eine Positionsinformationenanfügeeinheit 13A. Die Datenbezugseinheit 11A dient sowohl als Datenbezugseinheit 11 als auch als Datenbezugseinheit 21. Die Datenerzeugungseinheit 16A dient sowohl als Datenerzeugungseinheit 16 als auch als Datenerzeugungseinheit 26.
  • Es wird darauf hingewiesen, dass die Lernvorrichtung 10A die Datenbezugseinheit 21 anstelle der Datenbezugseinheit 11A enthalten kann. Darüber hinaus kann die Lernvorrichtung 10A die Datenerzeugungseinheit 26 anstelle der Datenerzeugungseinheit 16A enthalten. Die Lernvorrichtung 10A kann sowohl die Datenbezugseinheit 11 als auch die Datenbezugseinheit 21 enthalten. Die Lernvorrichtung 10A kann sowohl die Datenerzeugungseinheit 16 als auch die Datenerzeugungseinheit 26 enthalten.
  • Die Lernvorrichtung 10A bezieht und lernt die Gesamtdaten für das maschinelle Lernen in einer Vorbereitungsphase der Prüfung als normale Probe des Prüfobjekts, wodurch das erlernte Modell 31 erzeugt und gespeichert wird. Für eine Durchführungsphase der Prüfung, die dem maschinellen Lernen folgt, bezieht die Lernvorrichtung 10A die Gesamtdaten des Prüfobjekts und bestimmt eine Anomalie bei dem Prüfobjekt unter Verwendung des durch maschinelles Lernen erzeugten und gespeicherten erlernten Modells 31.
  • Wenn die Lernvorrichtung 10A das maschinelle Lernen der Normaldaten in der Vorbereitungsphase der Prüfung ausführt, bezieht die Datenbezugseinheit 11A die Gesamtdaten der normalen Lernprobe, die beim Lernen der Normaldaten verwendet werden soll. In der Datenerzeugungseinheit 16A trennt die Datenabtrenneinheit 12A einen oder mehrere Teildatenteile von den Gesamtdaten ab, und die Positionsinformationenanfügeeinheit 13A fügt zu jedem der Teildatenteile Abtrennpositionsinformationen hinzu. Die Datenerzeugungseinheit 16A sendet die von der Positionsinformationenanfügeeinheit 13A hinzugefügten Abtrennpositionsinformationen verknüpft mit den von der Datenabtrenneinheit 12A erzeugten Teildatenteilen an die Modellerzeugungseinheit 14. Die Modellerzeugungseinheit 14 erzeugt das erlernte Modell 31 unter Verwendung der Korrespondenzinformationen, in denen die Abtrennpositionsinformationen und die Teildaten einander zugeordnet sind. Das erlernte Modell 31 wird in der Speichereinheit für das erlernte Modell 15A gespeichert.
  • Wenn die Lernvorrichtung 10A in der Durchführungsphase der Prüfung eine Anomalie feststellt, bezieht die Datenbezugseinheit 11A die Gesamtdaten des Prüfobjekts. In der Datenerzeugungseinheit 16A trennt die Datenabtrenneinheit 12A einen oder mehrere Teildatenteile von den Gesamtdaten ab, und die Positionsinformationenanfügeeinheit 13A fügt Abtrennpositionsinformationen zu jedem der Teildatenteile hinzu. Die Datenerzeugungseinheit 16A sendet die von der Positionsinformationenanfügeeinheit 13A hinzugefügten Abtrennpositionsinformationen verknüpft mit den von der Datenabtrenneinheit 12A erzeugten Teildatenteilen an die Inferenzeinheit 24. Die Inferenzeinheit 24 schließt auf die Normaldaten anhand der Korrespondenzinformationen, in denen die Abtrennpositionsinformationen und die Teildatenteile einander zugeordnet sind, und des erlernten Modells 31, das in der Speichereinheit für das erlernte Modell 15A gespeichert ist. Die Inferenzeinheit 24 schließt auf die Normaldaten, indem sie eine Verarbeitung durchführt, die der unter Bezugnahme auf die 4 und 5 beschriebenen Verarbeitung ähnlich ist.
  • In der Lernvorrichtung 10A sind die Teildaten beim maschinellen Lernen erste Teildaten, und die Abtrennpositionsinformationen beim Lernen sind erste Identifikationsinformationen. Darüber hinaus sind in der Lernvorrichtung 10A die Korrespondenzinformationen beim maschinellen Lernen erste Korrespondenzinformationen, und die Normaldaten beim maschinellen Lernen sind erste Normaldaten.
  • Ferner sind in der Lernvorrichtung 10A die Teildaten bei der Inferenz zweite Teildaten, und die Abtrennpositionsinformationen bei der Inferenz sind zweite Identifikationsinformationen. Darüber hinaus sind in der Lernvorrichtung 10A die Korrespondenzinformationen bei der Inferenz zweite Korrespondenzinformationen, und die Normaldaten bei der Inferenz sind zweite Normaldaten.
  • Es wird darauf hingewiesen, dass die Lernvorrichtung 10 in die Inferenzvorrichtung 20 eingebaut sein kann, andernfalls kann die Inferenzvorrichtung 20 in die Lernvorrichtung 10 eingebaut sein. Darüber hinaus können die Lernvorrichtung 10 und/oder die Inferenzvorrichtung 20 in eine Bildgebungsvorrichtung eingebaut sein, die Bilddaten der Gesamtdaten erfasst. Darüber hinaus können die Lernvorrichtung 10 und die Inferenzvorrichtung 20 auf einem Cloud-Server vorhanden sein.
  • 7 zeigt eine Darstellung zur Veranschaulichung der Hardwarekonfiguration einer in 6 dargestellten Lernvorrichtung. Die Lernvorrichtung 10A kann durch eine Eingabevorrichtung 103, einen Prozessor 101, einen Speicher 102 und eine Ausgabevorrichtung 104 implementiert werden. Der Prozessor 101 ist beispielsweise eine Zentraleinheit (CPU, auch als zentrale Verarbeitungseinheit, Verarbeitungseinheit, Recheneinheit, Mikroprozessor, Mikrocomputer, digitaler Signalprozessor (DSP) oder Grafikprozessor (GPU) bezeichnet) oder ein LSI (Large Scale Integration)-System. Der Speicher 102 ist beispielsweise ein Direktzugriffsspeicher (RAM) oder ein Festwertspeicher (ROM).
  • Die Lernvorrichtung 10A wird durch den Prozessor 101 implementiert, der zur Ausführung der Funktion der Lernvorrichtung 10A ein computerausführbares Lernprogramm liest und ausführt, das in dem Speicher 102 gespeichert ist. Man kann auch sagen, dass das Lernprogramm, das ein Programm zur Ausführung der Funktion der Lernvorrichtung 10A ist, einen Computer veranlasst, das Verfahren oder die Methode für die Lernvorrichtung 10A auszuführen.
  • Das von der Lernvorrichtung 10A auszuführende Lernprogramm weist eine Modulkonfiguration auf, die die Datenbezugseinheit 11A, die Datenerzeugungseinheit 16A, die Modellerzeugungseinheit 14 und die Inferenzeinheit 24 umfasst, die in einen Hauptspeicher geladen und in dem Hauptspeicher erstellt werden.
  • Die Eingabevorrichtung 103 empfängt Gesamtdaten und sendet die Gesamtdaten an den Prozessor 101. Der Speicher 102 wird als temporärer Speicher verwendet, wenn der Prozessor 101 verschiedene Prozesse ausführt. Darüber hinaus sind in dem Speicher 102 Gesamtdaten, Teildaten, Abtrennpositionsinformationen, das erlernte Modell 31, Normaldaten, die Anomalieanzeigekarte 33, usw. gespeichert. Die Ausgabevorrichtung 104 gibt die Normaldaten, die Anomalieanzeigekarte 33 usw. an eine externe Vorrichtung aus.
  • Das Lernprogramm kann in einem computerlesbaren Speichermedium in einer installierbaren oder ausführbaren Datei gespeichert sein und als Computerprogrammprodukt bereitgestellt werden. Alternativ kann das Lernprogramm der Lernvorrichtung 10A über ein Netzwerk, z. B. das Internet, zur Verfügung gestellt werden. Es wird darauf hingewiesen, dass ein Teil der Funktion der Lernvorrichtung 10A durch dedizierte Hardware, wie beispielsweise eine dedizierte Schaltung, und der andere Teil durch Software oder Firmware implementiert werden kann. Ferner können die Lernvorrichtung 10 und die Inferenzvorrichtung 20 ebenfalls durch eine Hardwarekonfiguration ähnlich der der Lernvorrichtung 10A implementiert werden.
  • Wenn die Lernvorrichtung 10 unüberwachtes Lernen durchführt, können neben dem oben beschriebenen Lernen (Deep Learning) auch andere allgemein bekannte Methoden verwendet werden. Zum Beispiel kann die Lernvorrichtung 10 ein nicht-hierarchisches Clustering auf Basis von K-Means verwenden.
  • Darüber hinaus kann die Modellerzeugungseinheit 14 die Normaldaten anhand der Gesamtdaten lernen, die für eine Vielzahl von Produkten erzeugt wurden. Es wird darauf hingewiesen, dass die Modellerzeugungseinheit 14 Gesamtdaten von einer Vielzahl von Produkten, die in ein und demselben Bereich verwendet werden, beziehen kann oder die Normaldaten unter Verwendung der Gesamtdaten, die von einer Vielzahl von Produkten in verschiedenen Bereichen gesammelt wurden, lernen kann. Darüber hinaus ist es für die Modellerzeugungseinheit 14 möglich, eine Datenerfassungsvorrichtung, wie z. B. eine Bildgebungsvorrichtung, von der Gesamtdaten erfasst werden, zu den Objekten hinzuzufügen oder einige Datenerfassungsvorrichtungen von den Objekten zu entfernen. Außerdem kann eine Lernvorrichtung, die Normaldaten für ein bestimmtes Produkt gelernt hat, auf eine andere Lernvorrichtung angewendet werden, und diese andere Lernvorrichtung kann Normaldaten neu lernen, um das erlernte Modell zu aktualisieren.
  • Im Folgenden werden ein Normaldaten-Lernprozess und eine Inferenzverarbeitung unter Verwendung von Abtrennpositionsinformationen beschrieben. 8 zeigt eine Darstellung zur Erläuterung eines Normaldaten-Lernprozesses und einer Inferenzverarbeitung, die von einer in 6 dargestellten Lernvorrichtung durchgeführt werden. Es wird darauf hingewiesen, dass sich die Beschreibung auf einen Fall bezieht, bei dem die Lernvorrichtung 10A Normaldaten lernt, das Lernen der Normaldaten kann jedoch auch von der Lernvorrichtung 10 durchgeführt werden. Zudem kann der Rückschluss zur Bestimmung von Anomalien von der Inferenzvorrichtung 20 durchgeführt werden.
  • Zunächst wird der Lernprozess für das maschinelle Lernen in einer Prüfvorbereitungsphase beschrieben, in der die Gesamtdaten als normale Probe des Prüfobjekts bezogen und gelernt werden und das erlernte Modell 31 erzeugt wird.
  • Die Datenbezugseinheit 11A der Lernvorrichtung 10A bezieht als Gesamtdaten der normalen Lernprobe des Prüfobjekts zum Lernen ein Gesamtbild 51, bei dem es sich um ein Vollbild handelt, das beim maschinellen Lernen verwendet werden soll. Die Datenabtrenneinheit 12A unterteilt das Gesamtbild 51 in bestimmte Größen und trennt Teildatenteile D1 bis Dn (n ist eine natürliche Zahl) aus dem Gesamtbild 51 ab.
  • Zudem fügt die Positionsinformationenanfügeeinheit 13A den Teildatenteilen D1 bis Dn, bei denen es sich um eine Gruppe von Bildern handelt, jeweils einzelne Abtrennpositionsinformationen P1 bis Pn hinzu. Die Positionsinformationenanfügeeinheit 13A fügt zu den Teildaten Dm Abtrennpositionsinformationen Pm hinzu (m ist eine natürliche Zahl von eins bis n). Beispielsweise unterteilt die Datenabtrenneinheit 12A das Gesamtbild 51, dessen Seite aus 1024 Pixeln besteht, in die Teildatenteile D 1 bis Dn, von denen jedes eine Seite aus 64 Pixeln aufweist. Dabei können sich benachbarte Teildatenteile in Teilbereichen überlappen.
  • Die Modellerzeugungseinheit 14 gibt in das erlernte Modell 31 Korrespondenzinformationen ein, bei denen die Teildaten Dm und die Abtrennpositionsinformationen Pm einander zugeordnet sind. Auf diese Weise zerteilt die Modellerzeugungseinheit 14 das Gesamtbild 51, d. h. ein Vollbild zum Lernen, in spezielle Größen und gibt einen Satz aus Teildaten Dm, d. h. eine Gruppe von Abtrennbildern, und die Abtrennpositionsinformationen Pm gleichzeitig in das erlernte Modell 31 ein. In diesem Beispiel erfolgt das maschinelle Lernen durch Deep Learning, so dass Merkmale des Bildes der Teilnormaldaten Dm in der Zwischenschicht des neuronalen Netzwerkes in Verbindung mit einem Satz der Teildaten Dm und der Abtrennpositionsinformationen Pm extrahiert werden, wobei ein als Normaldaten geeignetes Normaldatenbild mit den extrahierten Merkmalen ausgegeben wird. Folglich wird das erlernte Modell 31 maschinellem Lernen unterzogen, wobei dabei Korrespondenzinformationen ausgegeben werden, bei denen Normaldaten, die ein Lernergebnis darstellen, den Abtrennpositionsinformationen Pm, die diesen Normaldaten entsprechen, zugeordnet sind.
  • Beim maschinellen Lernen wird in der Regel eine Vielzahl von Lernproben vorbereitet, und das maschinelle Lernen erfolgt auf Basis mehrerer Gesamtdatensätze, die aus der Vielzahl von Lernproben erhalten werden. Folglich wird das maschinelle Lernen so ausgeführt, dass Normaldaten, die als Normaldaten geeignet sind, bei denen Variationen in dem als normal bestimmten Bereich berücksichtigt werden, ausgegeben werden können. Die Variationen können beispielsweise Variationen in der Platzierung von Komponenten, die am Prüfobjekt angebracht sind, und Variationen in der Umgebung, wie beispielsweise die Helligkeit bei der Aufnahme des Bildes des Prüfobjekts mit einer Kamera oder Ähnlichem zum Erfassen eines Bildes umfassen.
  • Die Modellerzeugungseinheit 14 gibt der Reihe nach Sätze von Teildaten Dm und Abtrennpositionsinformationen Pm in ein erlerntes Modell 31 ein, um dadurch der Reihe nach maschinelles Lernen an den Normaldaten durchzuführen, die den Teildatenteilen D1 bis Dn entsprechen. Das erlernte Modell 31 wird einem maschinellen Lernen unterzogen, so dass Korrespondenzinformationen, in denen Normaldaten als Lernergebnis mit Abtrennpositionsinformationen Pm, die den Normaldaten entsprechen, verknüpft sind, für jeden Teildatenteil ausgegeben werden können.
  • Bei der Eingabe eines Satzes von Korrespondenzinformationen in das erlernte Modell 31, in dem die Teildaten Dm und die Abtrennpositionsinformationen Pm kombiniert sind, teilt die Modellerzeugungseinheit 14 den Satz von Korrespondenzinformationen in Teilinformationen pro jeweils einem in dem Satz von Korrespondenzinformationen enthaltenen Pixeln auf.
  • Die Modellerzeugungseinheit 14 gibt die einzelnen Teilinformationen für jedes Pixel in die Eingabeschicht des erlernten Modells 31 ein. Demnach führt die Modellerzeugungseinheit 14 maschinelles Lernen so durch, dass die Teildatenteile Dm in Pixel unterteilt werden, die Daten jedes Pixels in das erlernte Modell 31 eingegeben werden, und aus dem erlernten Modell 31 Normaldaten für jedes Pixel ausgegeben werden.
  • Wenn zum Beispiel eine Seite der Teildatenteile Dm 64 Pixel aufweist, gibt die Modellerzeugungseinheit 14 Daten von 64 × 64 Pixeln in das erlernte Modell 31 ein und veranlasst das erlernte Modell 31, Normaldaten von 64 × 64 Pixeln auszugeben.
  • Das von der Modellerzeugungseinheit 14 erzeugte erlernte Modell 31 kann auf Basis der vom erlernten Modell 31 ausgegebenen Pixeldaten ein Bild von Normaldaten erzeugen, das einem Bild von Teildaten entspricht. Bei dem als Normaldaten erzeugten Bild handelt es sich um Teildaten Rm. Die Teildaten Rm entsprechen den Teildaten Dm und sind mit den Abtrennpositionsinformationen Pm verknüpft. Das erlernte Modell 31 gibt Korrespondenzinformationen aus, bei denen die Teildaten Rm, d. h. Normaldaten, mit den Abtrennpositionsinformationen Pm verknüpft sind. Das erzeugte erlernte Modell 31 wird in der Speichereinheit für das erlernte Modell 15A gespeichert.
  • Es ist zu beachten, dass das erlernte Modell 31 jedem Pixel eine Eingabeschicht und eine Ausgabeschicht zuordnen kann, so dass sich das empfangene Pixel und das ausgegebene Pixel an derselben Position befinden, und einen Teildatenteil Rm auf Basis der Eingabeschicht- und Ausgabeschichtpositionen jedes Pixels erzeugen kann. Ferner können, wenn die Abtrennpositionsinformationen Pm, die den Teildaten Dm entsprechen, in das erlernte Modell 31 eingegeben werden, die Abtrennpositionsinformationen, die den Teildaten Rm entsprechen, die von dem erlernten Modell 31 als Normaldaten ausgegeben werden, unter Bezugnahme auf die Abtrennpositionsinformationen Pm, die in das erlernte Modell 31 eingegeben werden, verwendet werden. Daher kann das erlernte Modell 31 nur die Teildaten Rm als Normaldaten ausgeben, ohne die Abtrennpositionsinformationen auszugeben.
  • Als Nächstes wird die Inferenzverarbeitung in einer Prüfungsphase im Anschluss an das maschinelle Lernen beschrieben, bei der die Gesamtdaten des Prüfobjekts bezogen werden und eine Anomalie bei dem Prüfobjekt unter Verwendung des erlernten Modells 31, das beim maschinellen Lernen erzeugt und gespeichert wurde, bestimmt wird.
  • Die Datenbezugseinheit 11A der Lernvorrichtung 10A bezieht das Gesamtbild 51, das ein Vollbild des Prüfobjekts ist, als Gesamtdaten, die für die Prüfung verwendet werden sollen. Die Datenabtrenneinheit 12A unterteilt wie bei dem Lernprozess in der Vorbereitungsphase das Gesamtbild 51 in bestimmte Größen und trennt die Teildatenteile D1 bis Dn aus dem Gesamtbild 51 ab.
  • Ferner fügt die Positionsinformationenanfügeeinheit 13A wie bei dem Lernprozess die einzelnen Abtrennpositionsinformationen P1 bis Pn jeweils zu den Teildatenteilen D1 bis Dn hinzu, bei denen es sich um eine Gruppe von Bildern handelt. Die Positionsinformationenanfügeeinheit 13A fügt die Abtrennpositionsinformationen Pm zu den Teildaten Dm hinzu. Zum Beispiel teilt die Datenabtrenneinheit 12A das Gesamtbild 51 mit einer Seite aus 1024 Pixeln in die Teildatenteile D1 bis Dn mit einer Seite aus 64 Pixeln. Benachbarte Teildatenteile können sich in Teilbereichen überlappen.
  • Die Inferenzeinheit 24 bezieht vorab das erlernte Modell 31, das bei dem Lernprozess in der Vorbereitungsphase dem maschinellen Lernen unterworfen und in der Speichereinheit für das erlernte Modell 15A gespeichert wurde, und gibt Korrespondenzinformationen, bei denen die Abtrennpositionsinformationen Pm und die Teildaten Dm miteinander verknüpft sind, in das erlernte Modell 31 ein. Auf diese Weise unterteilt die Inferenzeinheit 24 das Gesamtbild 51, d. h. das Vollbild zum Lernen, in spezielle Größen und gibt einen Satz der Teildaten Dm, bei dem es sich um eine Gruppe von Abtrennbildern handelt, und die Abtrennpositionsinformationen Pm gleichzeitig in das erlernte Modell 31 ein. Folglich gibt das erlernte Modell 31 Korrespondenzinformationen aus, bei denen Normaldaten als Lernergebnis und Abtrennpositionsinformationen Pm, die den Normaldaten entsprechen, einander zugeordnet sind. Es wird darauf hingewiesen, dass die Abtrennpositionsinformationen, die den Teildaten Rm entsprechen, die als Normaldaten von dem erlernten Modell 31 ausgegeben werden, unter Bezugnahme auf die Abtrennpositionsinformationen Pm, die in das erlernte Modell 31 eingegeben wurden, identifiziert werden können, wobei das erlernte Modell 31 dadurch nur die Teildaten Rm als Normaldaten ausgeben kann, ohne die Abtrennpositionsinformationen auszugeben.
  • Die Inferenzeinheit 24 gibt der Reihe nach Sätze der Teildaten Dm und der Abtrennpositionsinformationen Pm des Prüfobjekts in ein erlerntes Modell 31 ein, um dadurch der Reihe nach die Normaldaten abzuleiten, die den Teildatenteilen D 1 bis Dn entsprechen. Das erlernte Modell 31 gibt für jeden Teildatenteil Korrespondenzinformationen aus, in denen Normaldaten als Inferenzergebnis den Abtrennpositionsinformationen Pm, die den Normaldaten entsprechen, zugeordnet sind. In 8 werden die Normaldaten, die von dem erlernten Modell 31 ausgegeben werden, durch eine Gruppe von Bildern von Teildatenteilen R1 bis Rn dargestellt.
  • Bei der Eingabe eines Korrespondenzinformationssatzes in das erlernte Modell 31, bei dem die Teildaten Dm mit den Abtrennpositionsinformation Pm des Prüfobjekts kombiniert sind, teilt die Inferenzeinheit 24 die Korrespondenzinformationen in Teilinformationen auf, von denen jede pro Pixel in den Korrespondenzinformationen enthalten ist.
  • Die Inferenzeinheit 24 gibt die einzelnen Teilinformationen für jedes Pixel in die Eingabeschicht des erlernten Modells 31 ein. Die Inferenzeinheit 24 unterteilt demnach jeden Teildatenteil Dm in Pixel, gibt die Daten jedes Pixels in das erlernte Modell 31 ein und veranlasst das erlernte Modell 31, Normaldaten für jedes Pixel auszugeben.
  • Wenn der Teildatenteil Dm eine Seite aus 64 Pixeln aufweist, gibt die Inferenzeinheit 24 beispielsweise die Daten von 64 × 64 Pixeln in das erlernte Modell 31 ein und veranlasst das erlernte Modell 31, die Normaldaten von 64 × 64 Pixeln auszugeben.
  • Die Inferenzeinheit 24 erzeugt ein Bild von Normaldaten, das einem Bild von Teildaten entspricht, auf Basis der von dem erlernten Modell 31 ausgegebenen Pixeldaten. Bei dem als Normaldaten erzeugten Bild handelt es sich um die Teildaten Rm. Die Teildaten Rm entsprechen den Teildaten Dm und sind mit den Abtrennpositionsinformationen Pm verknüpft. Das erlernte Modell 31 gibt Korrespondenzinformationen aus, bei denen die Teildaten Rm, die Normaldaten sind, mit den Abtrennpositionsinformationen Pm verknüpft sind.
  • Die Inferenzeinheit 24 vergleicht die Teildaten Rm mit den Teildaten Dm und erzeugt Teildaten Tm, die den Unterschied zwischen Rm und Dm darstellen. Das heißt, die Inferenzeinheit 24 vergleicht die Teildaten Dm, die in das erlernte Modell 31 eingegeben wurden, mit den Teildaten Rm, die von dem erlernten Modell 31 ausgegeben wurden, und erzeugt die Teildaten Tm, bei denen es sich um das Vergleichsergebnis handelt. Die Inferenzeinheit 24 erzeugt demnach Teildatenteile T1 bis Tn, die den Teildatenteilen D1 bis Dn entsprechen. Die Teildatenteile D1 bis Dn entsprechen jeweils den Teildatenteilen R1 bis Rn, und die Teildatenteile R1 bis Rn entsprechen jeweils den Teildatenteilen T1 bis Tn.
  • Die Teildaten Tm sind Daten, die den Unterschied zwischen den Teildaten Rm, die Normaldaten sind, und den Teildaten Dm, die Eingabedaten sind, repräsentieren. Daher sind die Teildaten Tm Daten, die einen anormalen Abschnitt darstellen.
  • Die Inferenzeinheit 24 erzeugt die Anomalieanzeigekarte 33 unter Verwendung der Teildatenteile T1 bis Tn, bei denen es sich um eine Gruppe von Bildern handelt. Konkret erzeugt die Inferenzeinheit 24 die Anomalieanzeigekarte 33, die dem Gesamtbild 51 entspricht, indem sie die Teildatenteile T1 bis Tn, die von dem erlernten Modell 31 ausgegeben wurden, wieder zusammenfügt und das Ergebnis der Zusammenlegung dem Gesamtbild 51 überlagert.
  • Daher bestimmt die Inferenzeinheit 24 eine Anomalie in den Teildaten Rm, indem sie die Teildaten Rm, d.h. Normaldaten, die durch das erlernte Modell 31 auf Basis der Teildaten Dm und der Abtrennpositionsinformationen Pm abgeleitet wurden, mit den Teildaten Dm, die von der Datenerzeugungseinheit 16A empfangen wurden, vergleicht und in den Teildaten Rm einen Abschnitt, der einen anomalen Zustand aufweist, bestimmt. Dann erzeugt die Inferenzeinheit 24 auf Basis des so erhaltenen Bestimmungsergebnisses die Anomalieanzeigekarte 33, in der der Abschnitt, der einen anomalen Zustand aufweist, in dem Gesamtbild 51 angegeben ist.
  • Nun wird der Unterschied zwischen einer Anomalieanzeigekarte 33, die auf Basis eines erlernten Modells 31 erstellt wurde, das unter Verwendung der Teildaten Dm und der einzelnen Abtrennpositionsinformationen P1 bis Pn maschinellem Lernen unterzogen wurde, und einer Anomalieanzeigekarte beschrieben, die auf Basis eines erlernten Modells 31 erstellt wurde, das unter Verwendung der Teildaten Dm, jedoch ohne Verwendung der einzelnen Abtrennpositionsinformationen P1 bis Pn maschinellem Lernen unterzogen wurde. 9 zeigt eine Darstellung zur Erläuterung des Unterschieds zwischen einer Anomalieanzeigekarte, die von einer Inferenzvorrichtung gemäß der ersten Ausführungsform unter Verwendung von Abtrennpositionsinformationen erzeugt wurde, und einer anderen Anomalieanzeigekarte, die ohne Verwendung von Abtrennpositionsinformationen erzeugt wurde.
  • Es wird nun ein Fall beschrieben, bei dem Anomalieanzeigekarten für ein Prüfobjektbild 70 erzeugt werden, das anormale Abschnitte 35 und 36 enthält. Das Prüfobjektbild 70 ist ein Vollbild zum Lernen, das durch Aufnehmen eines Bildes eines speziellen Produkts erhalten wurde. Der anormale Abschnitt 35 ist ein Bereich, in dem die Anordnung der Komponenten eine Positionsabweichung aufweist. Der anormale Abschnitt 36 ist ein Bereich, in dem ein Siegeletikett fehlt, das eigentlich vorhanden sein sollte.
  • Die Anomalieanzeigekarte 33X ist eine Anomalieanzeigekarte, die für das Prüfobjektbild 70 unter Verwendung des erlernten Modells 31, das maschinellem Lernen unterzogen wird, ohne Verwendung von Abtrennpositionsinformationen erzeugt wird, die zu den Teildaten Dm gehören. Bei der Anomalieanzeigekarte 33X handelt es sich demnach um ein Prüfergebnisbild, das erhalten wird, wenn das maschinelle Lernen ohne Verwendung von Identifikationsinformationen zum Identifizieren von Bereichen der Teildaten Dm in den gesamten Lernzieldaten durchgeführt wird.
  • Der anormale Abschnitt 36, der in dem Prüfobjektbild 70 enthalten ist, ist wie die anderen Bereiche in Teildatenteile Dm unterteilt. Da in diesem Fall jeder Teildatenteil Dm klein ist, können die Teildaten Dm in dem anormalen Abschnitt 36 im Wesentlichen die gleichen sein wie die normalen Teildaten Dm. Das heißt, es kann einen Fall geben, in dem die Teildaten Dm in dem anormalen Abschnitt 36 den Teildaten Dm an einer anderen Stelle als den anormalen Abschnitten 35 und 36 ähnlich sind. Wenn die Teildaten Dm abgetrennt werden, kann es anders ausgedrückt an einer anderen Stelle als den anormalen Abschnitten 35 und 36 einen normalen Bildabschnitt geben, der einem anormalen Abschnitt ähnelt, dem ein Etikett fehlt. In diesem Fall kann das erlernte Modell 31, das ohne Verwendung von Identifikationsinformationen, die zu den Teildaten Dm gehören, maschinellem Lernen unterzogen wird, nicht zwischen den Teildaten Dm in dem anormalen Abschnitt 36 und einem ähnlichen normalen Bildabschnitt unterscheiden und gibt Normaldaten aus, die das Lernergebnis des ähnlichen normalen Bildabschnitts darstellen. Somit werden die Teildaten Dm in dem anormalen Abschnitt 36 als normale Teildaten Dm identifiziert, da sie mit den Normaldaten des ähnlichen normalen Bildabschnitts verglichen werden, die von dem erlernten Modell 31 ausgegeben werden. Daher stellt die Anomalieanzeigekarte 33X den anormalen Abschnitt 35 als einen anormalen Abschnitt, den anormalen Abschnitt 36 jedoch fälschlicherweise als einen normalen Abschnitt dar.
  • Die Anomalieanzeigekarte 33A ist eine Anomalieanzeigekarte, die für das Prüfobjektbild 70 unter Verwendung des erlernten Modells 31 erzeugt wird, das unter Verwendung der Teildaten Dm und der einzelnen Abtrennpositionsinformationen P1 bis Pn maschinellem Lernen unterzogen wurde. Bei der Anomalieanzeigekarte 33A handelt es sich demnach um ein Prüfergebnisbild, das erhalten wird, wenn das maschinelle Lernen unter Verwendung der Teildaten Dm und von Identifikationsinformationen zum Identifizieren von Bereichen der Teildaten Dm in den gesamten Lernzieldaten durchgeführt wird.
  • Wenn die Lernvorrichtung 10A das erlernte Modell 31 durch maschinelles Lernen unter Verwendung der einzelnen Abtrennpositionsinformationen P1 bis Pn erzeugt, weisen die Teildaten Dm auch dann unterschiedliche einzelne Abtrennpositionsinformationen Pm auf, wenn die Teildaten Dm des anormalen Abschnitts 36 den Teildaten Dm in einem anderen normalen Abschnitt ähnlich sind. Daher kann die Lernvorrichtung 10A das Lernergebnis mit einer Unterscheidung zwischen den Teildaten Dm des anormalen Abschnitts 36 und den Teildaten Dm in dem anderen normalen Abschnitt ausgeben. Daher kann die Inferenzeinheit 24 der Lernvorrichtung 10A auf Basis der Teildaten Dm des Prüfobjekts und der einzelnen Abtrennpositionsinformationen P1 bis Pn in jedem Teildatenteil Dm des Prüfobjekts korrekt bestimmen, ob es eine Anomalie gibt oder nicht.
  • Die erste Ausführungsform wurde zwar für den Fall beschrieben, dass es sich bei dem Lernziel und dem Prüfobjekt um zweidimensionale Bilddaten handelt, das Lernziel und das Prüfobjekt können jedoch auch eindimensionale Daten sein, wie beispielsweise eine Datenfolge, in der Datenwerte einer Zeitreihenkurve in regelmäßigen Zeitintervallen aneinandergereiht sind, oder sie können mehrdimensionale Daten sein, in denen mehrere Datenteile kombiniert sind. Bei den als mehrdimensionale Daten kombinierten Daten kann es sich um Messdaten, wie beispielsweise Daten über elektrische Stromwerte, oder um Bilddaten handeln. Eindimensionale Daten sind beispielsweise der Kurvenverlauf elektrischen Stroms, bei dem es sich um eine Zeitreihenkurve handelt, die durch Messung des Wertes des elektrischen Stroms, der während des Betriebs des Produkts durch das Produkt fließt, als Zeitreihenkurve erhalten wird. Wenn der Betrieb des Produkts eine Vielzahl von Betriebsstufen umfasst, gibt es das Merkmal der Stromkurve für jeden Zeitbereich jeder der Betriebsstufen mit unterschiedlichen Stromkurvenmerkmalen. In diesem Fall erzeugt die Lernvorrichtung 10 Teildaten, die durch Unterteilung der Stromkurve in mehrere Zeitabschnitte erhalten werden, und führt maschinelles Lernen einer normalen Teilstromkurve mit normalen Merkmalen für jeden Zeitabschnitt unter Verwendung von Korrespondenzinformationen durch, in denen die Teilstromkurve, bei der es sich um die Teildaten jedes Zeitabschnitts handelt, und Abschnittsidentifikationsinformationen zum Identifizieren der Teildaten jedes Zeitabschnitts miteinander verknüpft sind, um das erlernte Modell 31 zu erzeugen. Zudem bezieht die Inferenzvorrichtung 20 die Stromkurve des Produkts, bei dem es sich um ein Prüfobjekt handelt, unterteilt die Stromkurve in Teildatenteile mehrerer Zeitabschnitte, leitet die Normaldaten des Stroms für jeden Zeitabschnitt auf Basis des erlernten Modells 31 unter Verwendung von Korrespondenzinformationen ab, in denen die Teildaten und die Abschnittsidentifikationsinformationen zur Identifizierung jedes Zeitabschnitts einander zugeordnet sind, und vergleicht die Teildaten mit den Normaldaten, um eine Anomalie in der Stromkurve des Prüfobjekts zu bestimmen.
  • Die Lernvorrichtung 10 und die Inferenzvorrichtung 20 werden beispielsweise bei der Inspektion von Produkten in der Fertigungsindustrie eingesetzt (beispielsweise Prüfung des Aussehens unter Verwendung von Bildern). Da die Lernvorrichtung 10 und die Inferenzvorrichtung 20 die Gesamtdaten in Teildatenteile D1 bis Dn unterteilen und die Normaldaten unter Verwendung der einzelnen Abtrennpositionsinformationen P1 bis Pn ableiten, können die Normaldaten bei reduziertem Lernaufwand effizient erlernt werden. Der hier genannte Lernaufwand umfasst die Berechnungszeit, die Anzahl von Computern, die Anzahl von Lernproben und dergleichen.
  • Da die Lernvorrichtung 10 und die Inferenzvorrichtung 20 denn Lernaufwand reduzieren können, ist es außerdem möglich, das maschinelle Lernen des Prüfobjekts in kurzer Zeit durchzuführen, selbst wenn es mehr als mehrere Hundert oder mehrere Tausend Arten von Produkten gibt oder selbst wenn es eine große Anzahl von Inspektionsprozessen in einer Fabrikanlage gibt, in der Personalcomputer (PC)-Substrate, Fabrikautomatisierungs (FA)-Vorrichtungen oder dergleichen hergestellt werden. Da die Lernvorrichtung 10 und die Inferenzvorrichtung 20 den Lernaufwand reduzieren können, ist es außerdem möglich, das maschinelle Lernen des Prüfobjekts in kurzer Zeit selbst dann korrekt durchzuführen, wenn das maschinelle Lernen für jedes einer großen Anzahl von Modellen oder für jeden einer großen Anzahl von Prozessen ausgeführt wird.
  • Wie oben beschrieben wurde, teilen die Lernvorrichtung 10 und die Inferenzvorrichtung 20 bei der ersten Ausführungsform die Gesamtdaten auf, um mehrere Teildatenteile Dm zu erzeugen, und fügen die Abtrennpositionsinformationen Pm zu jedem Teildatenteil Dm hinzu. Die Lernvorrichtung 10 und die Inferenzvorrichtung 20 erzeugen das erlernte Modell 31 zum Ableiten der Normaldaten aus den Korrespondenzinformationen, bei denen es sich um einen Satz aus den Teildaten Dm und den Abtrennpositionsinformationen Pm handelt. Folglich können die Lernvorrichtung 10 und die Inferenzvorrichtung 20 das maschinelle Lernen des Normalzustands des Prüfobjekts in kurzer Zeit korrekt durchführen.
  • Ferner vergleicht die Inferenzvorrichtung 20 die Normaldaten mit den Teildaten Dm auf Basis der Abtrennpositionsinformationen Pm, um einen anormalen Abschnitt in den Teildaten Dm zu identifizieren, wobei der Abschnitt mit einem anormalen Zustand in den Gesamtdaten des Inferenzziels auf Basis des Identifikationsergebnisses identifiziert wird. Folglich kann die Inferenzvorrichtung 20 den Abschnitt mit einem anormalen Zustand in kurzer Zeit in den Gesamtdaten identifizieren.
  • Bei der ersten Ausführungsform werden als Identifizierungsinformationen zur Identifizierung des Bereichs jedes Teildatenteils in den Gesamtdaten Abtrennpositionsinformationen verwendet, d. h. Informationen über die Position, an der jeder Teildatenteil aus den Gesamtdaten abgetrennt wurde. Die Identifizierungsinformationen können jedoch alles sein, was die Identifizierung von mehreren aus den Gesamtdaten abgetrennten Teildatenteilen ermöglicht. Wenn beispielsweise aus einem Gesamtdatensatz 256 Teildatenteile erzeugt werden, können ihnen ganze Zahlen von 0 bis 255 zugewiesen werden. In diesem Fall müssen die abgetrennten Teildatenteile nur eins-zu-eins mit den zugewiesenen einzelnen Identifikationsinformationen übereinstimmen, wobei sich die Anordnungsreihenfolge der Teildatenteile in den Gesamtdaten von der Reihenfolge der als Identifikationsinformationen zugewiesenen ganzen Zahlen unterscheiden kann.
  • Zweite Ausführungsform
  • Als Nächstes wird die zweite Ausführungsform unter Bezugnahme auf die 10 bis 12 beschrieben. Bei der zweiten Ausführungsform kombiniert die Lernvorrichtung 10 Informationen, die Abtrennpositionsinformationen als Bild darstellen (Abtrennpositionsbild, das später beschrieben wird), mit Teildaten und führt maschinelles Lernen unter Verwendung der durch die Kombination erhaltenen Informationen aus.
  • 10 zeigt eine Darstellung zur Erläuterung eines Abtrennpositionsbildes, das durch eine Lernvorrichtung gemäß der zweiten Ausführungsform in Teildaten für drei RGB-Farbkanäle bestimmt wurde. Wenn ein Lernbild ein Vollbild 75 mit drei RGB-Farbkanälen (rot, grün und blau) ist, umfasst das Vollbild 75 ein rotes Bild 75R, ein grünes Bild 75G und ein blaues Bild 75B als Bilder für die drei Kanäle.
  • Die Datenerzeugungseinheit 16 der Lernvorrichtung 10 trennt einen Teildatenteil 77 aus den Bilddaten des Vollbildes 75 ab und kombiniert Informationen, die die Abtrennpositionsinformationen des Teildatenteils 77 repräsentieren, als Bild mit dem Teildatenteil 77. Der Teildatenteil 77, der von der Datenerzeugungseinheit 16 aus einem bestimmten Bereich des Vollbildes 75 abgetrennt wurde, umfasst die Teildatenteile für die drei Kanäle. Der Teildatenteil 77, der von der Datenerzeugungseinheit 16 aus einem bestimmten Bereich des Vollbildes 75 abgetrennt wurde, enthält demnach einen roten Teildatenteil 77R, einen grünen Teildatenteil 77G und einen blauen Teildatenteil 77B.
  • Es wird darauf hingewiesen, dass in 10 die Bilder 75R, 75G und 75B getrennt dargestellt sind, wobei die Datenerzeugungseinheit 16 das Vollbild 75 jedoch nicht zwingend in die Bilder 75R, 75G und 75B zerlegen muss. In ähnlicher Weise sind in 10 die Teildatenteile 77R, 77G und 77B getrennt dargestellt, aber die Datenerzeugungseinheit 16 muss den Teildatenteil 77 nicht zwingend in die Teildatenteile 77R, 77G und 77B zerlegen.
  • Die Datenerzeugungseinheit 16 bezieht ein Abtrennpositionsbild 76P, das dem Teildatenteil 77 entspricht und die Informationen über die Teildatenteile 77R, 77G und 77B enthält. Die Datenerzeugungseinheit 16 bezieht demnach das Abtrennpositionsbild 76P, das die Position des Teildatenteils 77 in Bezug auf das Vollbild 75 repräsentiert. Bei dem Abtrennpositionsbild 76P handelt es sich um Daten, die durch Abbildung der Abtrennpositionsinformationen des Teildatenteils 77 erhalten werden. Ein Beispiel für das Abtrennpositionsbild 76P ist ein Bild, in dem die Abtrennposition des Teildatenteils 77 in Weiß und der andere Teil in Schwarz dargestellt ist.
  • Ferner passt die Datenerzeugungseinheit 16 die Größe des Abtrennpositionsbildes 76P so an, dass das Seitenverhältnis (Verhältnis von Breite zu Höhe) und die Bildgröße des Abtrennpositionsbildes 76P dem Seitenverhältnis und der Bildgröße des Teildatenteils 77 entsprechen. Folglich wird das Abtrennpositionsbild 76P für den Teildatenteil 77 zu einem Abtrennpositionsbild 78P, das das gleiche Seitenverhältnis und die gleiche Bildgröße aufweist wie der Teildatenteil 77.
  • Die Datenerzeugungseinheit 16 kombiniert das Abtrennpositionsbild 78P mit dem Teildatenteil 77, das die Teildatenteile 77R, 77G und 77B umfasst. Das bedeutet, dass die Datenerzeugungseinheit 16 das Abtrennpositionsbild 78P als Daten für einen vierten Kanal zu dem Teildatenteil 77 hinzufügt. Folglich wird der Teildatenteil 77 zu einem Teildatenteil 79, d. h. einem Vierkanalbild für Rot, Grün, Blau und die Position. Die Modellerzeugungseinheit 14 gibt das Vierkanalbild, d. h. den Teildatenteil 79, in das erlernte Modell 31 ein. Infolgedessen kann die Lernvorrichtung 10 das maschinelle Lernen in einfacher Weise durchführen, indem sie lediglich die Anzahl der Kanäle ändert, ohne dass die Struktur des erlernten Modells 31 wesentlich verändert wird.
  • Das Verfahren zum Kombinieren des Abtrennpositionsbildes 78P mit dem Teildatenteil 77 kann auch in einem Fall angewendet werden, in dem das Vollbild einen Kanal für Graustufen aufweist. Darüber hinaus kann das Verfahren zum Kombinieren des Abtrennpositionsbildes 78P mit dem Teildatenteil 77 auch kanalunabhängig auf einen Fall angewendet werden, in dem das Vollbild ein RGB-Tiefenbild ist, das zusätzlich zu RGB auch Tiefen- (Abstands-) Informationen enthält.
  • Es wird darauf hingewiesen, dass die Inferenzvorrichtung 20 die unter Bezugnahme auf 10 beschriebene Prozedur in der Durchführungsphase der Prüfung durchführen kann. In diesem Fall kombiniert die Inferenzvorrichtung 20 das Abtrennpositionsbild 78P mit dem Teildatenteil 77 und führt die Anomaliebestimmung unter Verwendung der durch die Kombination erhaltenen Informationen, d. h. dem Teildatenteil 79, durch.
  • 11 zeigt eine Darstellung zur Erläuterung eines Abtrennpositionsbildes, das durch eine Lernvorrichtung gemäß der zweiten Ausführungsform in Teildaten eines Graustufenkanals bestimmt wurde. Wenn die Bilddaten des Lernziels ein Vollbild 85 eines Graustufenkanals sind, enthält das Vollbild 85 ein Graustufenbild für einen Kanal.
  • Die Datenerzeugungseinheit 16 der Lernvorrichtung 10 trennt einen Teildatenteil 87 aus den Bilddaten des Vollbildes 85 ab und kombiniert Informationen, die die Abtrennpositionsinformationen des Teildatenteils 87 repräsentieren, als Bild mit dem Teildatenteil 87. Der Teildatenteil 87, der von der Datenerzeugungseinheit 16 aus einem bestimmten Bereich des Vollbildes 85 abgetrennt wurde, enthält den Teildatenteil für einen Kanal.
  • Die Datenerzeugungseinheit 16 bezieht ein Abtrennpositionsbild 86P, das dem Teildatenteil 87 entspricht. Die Datenerzeugungseinheit 16 bezieht demnach das Abtrennpositionsbild 86P, das die Position des Teildatenteils 87 in Bezug auf das Vollbild 85 darstellt. Bei dem Abtrennpositionsbild 86P handelt es sich um Daten, die durch Abbildung der Abtrennpositionsinformationen des Teildatenteils 87 erhalten werden. Ein Beispiel für das Abtrennpositionsbild 86P ist ein Bild, in dem die Abtrennposition des Teildatenteils 87 in Weiß und der andere Teil in Schwarz dargestellt ist.
  • Darüber hinaus ändert die Datenerzeugungseinheit 16 die Größe des Abtrennpositionsbildes 86P so, dass das Seitenverhältnis und die Bildgröße des Abtrennpositionsbildes 86P mit dem Seitenverhältnis und der Bildgröße des Teildatenteils 87 übereinstimmen. Folglich wird das Abtrennpositionsbild 86P für den Teildatenteil 87 zu einem Abtrennpositionsbild 88P mit demselben Seitenverhältnis und derselben Bildgröße wie bei dem Teildatenteil 87. Das Abtrennpositionsbild 86P stellt eine ähnliche Information wie das Abtrennpositionsbild 76P und das Abtrennpositionsbild 88P eine ähnliche Information wie das Abtrennpositionsbild 78P dar.
  • Die Datenerzeugungseinheit 16 kombiniert das Abtrennpositionsbild 88P mit dem Teildatenteil 87. Das heißt, die Datenerzeugungseinheit 16 fügt das Abtrennpositionsbild 88P als Daten für einen zweiten Kanal zu dem Teildatenteil 87 hinzu. Infolgedessen wird der Teildatenteil 87 zu einem Teildatenteil 89, der ein Zweikanalbild für Graustufen und die Position darstellt. Die Modellerzeugungseinheit 14 gibt das Zweikanalbild, d. h. den Teildatenteil 89, in das erlernte Modell 31 ein. Folglich kann die Lernvorrichtung 10 das maschinelle Lernen in einfacher Weise durchführen, indem nur die Anzahl der Kanäle geändert wird, ohne dass die Struktur des erlernten Modells 31 wesentlich verändert wird.
  • Es wird darauf hingewiesen, dass die Inferenzvorrichtung 20 die unter Bezugnahme auf 11 beschriebene Prozedur in der Durchführungsphase der Prüfung durchführen kann. In diesem Fall kombiniert die Inferenzvorrichtung 20 das Abtrennpositionsbild 88P mit dem Teildatenteil 87 und führt die Anomaliebestimmung unter Verwendung der durch die Kombination erhaltenen Informationen, d. h. dem Teildatenteil 89, durch.
  • Es wird darauf hingewiesen, dass die Lernvorrichtung 10 anstelle des Abtrennpositionsbildes 88P, das in Teildaten eines Graustufenkanals bestimmt wurde, ein Datenarraybild verwenden kann, durch das ein Teildatenabtrennbereich identifiziert werden kann.
  • 12 zeigt eine Darstellung zur Erläuterung eines Datenarraybildes, durch das ein Teildatenabtrennbereich identifiziert werden kann und das durch eine Lernvorrichtung gemäß der zweiten Ausführungsform in Teildaten eines Graustufenkanals bestimmt wurde. Die Datenerzeugungseinheit 16 der Lernvorrichtung 10 trennt den Teildatenteil 87 aus dem Vollbild 85 im Wesentlichen gemäß der gleichen Prozedur ab, wie sie unter Bezugnahme auf 11 beschrieben wurde. Zudem bestimmt die Datenerzeugungseinheit 16 in dem Teildatenteil 87 ein Datenarraybild, durch das der Abtrennbereich des Teildatenteils 87 in dem Vollbild 85 identifiziert werden kann. Das Datenarraybild ist ein zweidimensionaler Code.
  • Im Folgenden wird ein Datenarraybild, das eine solche Identifizierbarkeit aufweist, als Identifikationsdatenbild 88Q bezeichnet. Ein Beispiel für das Identifikationsdatenbild 88Q ist ein Quick-Response-Code (QR-Code) (eingetragene Marke). Bei dem Identifikationsdatenbild 88Q handelt es sich um Informationen zur Identifizierung des Bereichs des Teildatenteils 87 im Vollbild 85, das hier anstelle der Abtrennpositionsbilder 78P und 88P verwendet wird.
  • Die Datenerzeugungseinheit 16 kombiniert das Identifikationsdatenbild 88Q mit dem Teildatenteil 87. Das heißt, die Datenerzeugungseinheit 16 fügt das Identifikationsdatenbild 88Q als Daten für einen zweiten Kanal zu dem Teildatenteil 87 hinzu. Infolgedessen wird der Teildatenteil 87 zu einem Teildatenteil 90, der ein Zweikanalbild für Graustufen und die Position darstellt. Die Modellerzeugungseinheit 14 gibt das Zweikanalbild, d. h. den Teildatenteil 90, in das erlernte Modell 31 ein. Folglich kann die Lernvorrichtung 10 das maschinelle Lernen in einfacher Weise durchführen, indem sie nur die Anzahl der Kanäle ändert, ohne dass die Struktur des erlernten Modells 31 wesentlich verändert wird.
  • Die Datenerzeugungseinheit 16 kann das Identifikationsdatenbild 88Q auf das Vollbild 75 der drei RGB-Farbkanäle anwenden. Zudem kann die Inferenzvorrichtung 20 die unter Bezugnahme auf 12 beschriebene Prozedur durchführen. In diesem Fall kombiniert die Inferenzvorrichtung 20 das Identifikationsdatenbild 88Q mit dem Teildatenteil 87 und führt maschinelles Lernen unter Verwendung der durch die Kombination erhaltenen Informationen, d. h. dem Teildatenteil 90, durch. Darüber hinaus kann die Inferenzvorrichtung 20 den Rückschluss auf Normaldaten unter Verwendung des Teildatenteils 90 durchführen.
  • Ferner kann in den Datenerzeugungseinheiten 16 und 26 ein Bild, das durch Invertieren von Weiß und Schwarz bei den Abtrennpositionsbildern 76P, 78P, 86P und 88P erhalten wird, als deren Abtrennpositionsbilder verwendet werden. Außerdem können für die Abtrennpositionsbilder 76P, 78P, 86P und 88P beliebige Farben verwendet werden, nicht nur Weiß und Schwarz. Auch in diesem Fall behandeln die Datenerzeugungseinheiten 16 und 26 die Abtrennpositionsbilder 76P, 78P, 86P und 88P so, dass ein Bereich des Vollbildes, der durch die Teildaten belegt ist, in einer ersten Farbe wiedergegeben wird, und der andere Bereich des Vollbildes, der nicht durch die Teildaten belegt ist, in einer zweiten Farbe wiedergegeben wird.
  • Ferner können die Datenerzeugungseinheiten 16 und 26 beliebige Informationen als Identifizierungsinformationen der Teildatenteile 77 und 87 verwenden, solange es sich um Informationen handelt, die zur Identifizierung der Bereiche der Teildatenteile 77 und 87 bestimmt sind und den Teildatenteilen 77 und 87 eins-zu-eins entsprechen. Beispielsweise können die Datenerzeugungseinheiten 16 und 26 einen eindimensionalen Code, wie einen eindimensionalen Strichcode, als Informationen zur Identifizierung der Bereiche der Teildatenteile 77 und 87 verwenden.
  • Im Folgenden wird der Unterschied zwischen der Berechnungszeit für den Fall, in dem die Lernvorrichtung 10 oder die Inferenzvorrichtung 20 das Vollbild 75 unterteilt, um maschinelles Lernen auszuführen, wie unter Bezugnahme auf 10 beschrieben wurde, und der Berechnungszeit für den Fall, in dem maschinelles Lernen ohne Unterteilung des Vollbildes 75 ausgeführt wird, beschrieben.
  • 13 zeigt eine Tabelle zur Erläuterung des Unterschieds zwischen der Berechnungszeit in dem Fall, in dem eine Inferenzvorrichtung gemäß der zweiten Ausführungsform ein Vollbild unterteilt, um maschinelles Lernen auszuführen, und der Berechnungszeit in dem Fall, in dem maschinelles Lernen ohne Unterteilung des Vollbildes ausgeführt wird. Dabei wird der Unterschied in der Berechnungszeit unter der Prämisse beschrieben, dass das maschinelle Lernen mittels Deep Learning durchgeführt wird, bei dem neuronale Netze in mehreren Schichten gestapelt sind.
  • „Full-size Learning“ stellt maschinelles Lernen dar, das mit dem Vollbild 75 durchgeführt wird, wobei „Cutting Learning“ maschinelles Lernen darstellt, das durchgeführt wird, nachdem das Vollbild 75 in Teildatenteile unterteilt wurde. In diesem Beispiel wird davon ausgegangen, dass die Seiten des Bildes im Falle des „Full-size Learning“ jeweils 1024 Pixel und im Falle des „Cutting Learning“ 64 Pixel aufweisen. Das Vollbild 75 weist demnach 1024 Pixel, die eine Seite davon bilden, und ein Bild des Teildatenteils weist 64 Pixel auf, die eine Seite davon bilden.
  • Im Falle des „Full-size Learning“ beträgt die Kanalzahl drei Kanäle für R, G und B, wobei die Gesamtzahl der Pixel 1024×1024×3=3145728 ist. Im Falle des „Cutting Learning“ beträgt die Kanalzahl vier Kanäle für R, G, B und die Position, und die Gesamtzahl der Pixel ist 64×64×4=16384.
  • Das oben beschriebene „Full-size Learning“ wurde an 60 Vollbildern 75 durchgeführt, wobei die Lernzeit dabei etwa 720 Minuten betrug. Andererseits wird im Fall des oben beschriebenen „Cutting Learning“ das Vollbild 75, dessen Pixelanzahl 1024×1024 beträgt, in (1024×1024)/(64×64)=256 Teildatenteile aufgeteilt. Daher werden im Falle des „Cutting Learning“ 60 Vollbilder 75 in 256×60=15360 Teildatenteile aufgeteilt.
  • Die Lernvorrichtung 10 oder die Inferenzvorrichtung 20 führte das „Cutting Learning“ an den 15360 Teildaten aus, wobei die Lernzeit dabei etwa 40 Minuten betrug.
  • Wie oben beschrieben wurde, beträgt die Gesamtzahl der Pixel beim „Full-size Learning“ 3145728, was der Anzahl der Eingabeschichten des erlernten Modells entspricht, das beim „„Full-size Learning“ verwendet wird. Im Gegensatz dazu beträgt die Gesamtzahl der Pixel beim „Cutting Learning“ 16384, was weniger als 1/100 der Anzahl der Pixel beim „Full-size Learning“ entspricht. Daher ist die Anzahl der Eingabeschichten des erlernten Modells beim „Cutting Learning“ ebenfalls weniger als 1/100 der Eingabeschichten beim „Full-size Learning“, wobei die Anzahl der Verbindungen mit Gewichtungen zwischen den Eingabe-, Zwischen- und Ausgabeschichten ebenfalls stark reduziert werden kann. Infolgedessen kann die für das maschinelle Lernen erforderliche Speicherkapazität im Vergleich zum „Full-size Learning“ erheblich reduziert werden. Beim „Cutting Learning“ war die Gesamtzahl der Bilder größer als beim „Full-size Learning“, aber die Lernzeit konnte im Vergleich zum „Full-size Learning“ auf etwa 1/20 verkürzt werden.
  • Wie oben beschrieben wurde, kombiniert eine Lernvorrichtung 10 gemäß der zweiten Ausführungsform das Abtrennpositionsbild 78P mit den Teildaten und führt maschinelles Lernen unter Verwendung der durch die Kombination erhaltenen Teildaten durch. Daher kann die Lernvorrichtung 10 maschinelles Lernen in einfacher Weise durchführen, indem lediglich die Anzahl der Kanäle geändert wird, ohne die Struktur des erlernten Modells 31 wesentlich zu ändern.
  • Dritte Ausführungsform
  • Als Nächstes wird die dritte Ausführungsform der vorliegenden Erfindung unter Bezugnahme auf 14 beschrieben. Bei der dritten Ausführungsform gibt die Inferenzvorrichtung 20 die Abtrennpositionsinformationen der Teildatenteile D1 bis Dn direkt in die Zwischenschicht des erlernten Modells ein.
  • 14 zeigt eine Darstellung zur Erläuterung einer Verarbeitung, bei der eine Inferenzvorrichtung gemäß der dritten Ausführungsform die Abtrennpositionsinformationen der Teildaten direkt in die Zwischenschicht des erlernten Modells eingibt. Es wird darauf hingewiesen, dass die Inferenzvorrichtung 20 im beschriebenen Fall Normaldaten lernt, das Lernen von Normaldaten kann jedoch von der Lernvorrichtung 10 durchgeführt werden.
  • Bei der dritten Ausführungsform gibt die Datenerzeugungseinheit 26 der Inferenzvorrichtung 20 die Abtrennpositionsinformationen über die Teildaten Dm, die durch Abtrennen aus dem Gesamtbild 51 erhalten wurden, bei dem es sich um ein Vollbild handelt, direkt in die Zwischenschicht eines erlernten Modells 32 ein. Ein Beispiel für die Abtrennpositionsinformationen der Teildaten Dm sind numerische Daten wie die Koordinaten der Teildaten Dm. Das erlernte Modell 32 ist ein neuronales Netzwerk ähnlich dem erlernten Modell 31.
  • Die Datenerzeugungseinheit 26 gibt die Teildaten Dm in die Eingabeschicht des erlernten Modells 32 für die Teildaten Dm und die Abtrennpositionsinformationen der Teildaten Dm in dessen Zwischenschicht ein. Folglich werden Teildaten Rm von der Ausgabeschicht des erlernten Modells 32 ausgegeben. Das erlernte Modell 32 gibt die Teildaten Rm, die den Teildaten Dm entsprechen, im Wesentlichen auf die gleiche Weise wie das erlernte Modell 31 aus. Demnach gibt das erlernte Modell 32 die Teildatenteile R1 bis Rn in Reaktion auf die Eingabe der Teildatenteile D1 bis Dn aus.
  • Die Datenerzeugungseinheit 26 vergleicht die Teildatenteile D1 bis Dn mit den Teildatenteilen R1 bis Rn und erzeugt die Teildatenteile T1 bis Tn in einer Verarbeitung, die der unter Bezugnahme auf 8 beschriebenen Verarbeitung ähnlich ist. Die Datenerzeugungseinheit 26 erzeugt eine Anomalieanzeigekarte 34 durch Wiederzusammenfügen der Teildatenteile T1 bis Tn auf Basis der Teildatenteile T1 bis Tn und der Abtrennpositionsinformationen, die in die Zwischenschicht des erlernten Modells 32 eingegeben wurden.
  • Wie oben beschrieben wurde, gibt die Inferenzvorrichtung 20 gemäß der dritten Ausführungsform die Abtrennpositionsinformationen über die Teildatenteile D1 bis Dn direkt in die Zwischenschicht des erlernten Modells 32 ein. Daher ist es möglich, maschinelles Lernen durchzuführen, ohne Korrespondenzinformationen zu erzeugen.
  • Die in den oben genannten Ausführungsformen beschriebenen Konfigurationen stellen nur Beispiele dar, die jeweils mit anderen allgemein bekannten Techniken oder untereinander kombiniert werden können und teilweise weggelassen und/oder modifiziert werden können, ohne dass der Umfang der vorliegenden Offenbarung verlassen wird.
  • Bezugszeichenliste
  • 10, 10A
    Lernvorrichtung;
    11, 11A, 21
    Datenbezugseinheit;
    12, 12A, 22
    Datenabtrenneinheit;
    13, 13A, 23
    Positionsinformationenanfügeeinheit;
    14
    Modellerzeugungseinheit;
    15, 15A
    Speichereinheit für das erlernte Modell;
    16, 16A, 26
    Datenerzeugungseinheit;
    20
    Inferenzvorrichtung;
    24
    Inferenzeinheit;
    31, 32
    erlerntes Modell;
    33, 33A, 33X, 34
    Anomalieanzeigekarte;
    35, 36
    anormaler Abschnitt;
    51
    Gesamtbild;
    70
    Prüfobjektbild;
    75, 85
    Vollbild;
    75B, 75G, 75R
    Bild;
    76P, 78P, 86P, 88P
    Abtrennpositionsbild;
    77, 77B, 77G, 77R, 79, 87, 89, 90
    Teildatenteil;
    88Q
    Identifikationsdatenbild;
    101
    Prozessor;
    102
    Speicher;
    103
    Eingabevorrichtung;
    104
    Ausgabevorrichtung;
    D1 bis Dn, R1 bis Rn, T1 bis Tn
    Teildatenteil;
    P1 bis Pn
    einzelne Abtrennpositionsinformationen.
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • JP 2018195119 [0004]

Claims (14)

  1. Lernvorrichtung, die aufweist: eine Datenbezugseinheit zum Beziehen von Lernzieldaten, bei denen es sich um Daten eines Lernziels voller Größe handelt; eine Datenerzeugungseinheit zum Unterteilen der Lernzieldaten, um mehrere erste Teildatenteile zu erzeugen, bei denen es sich um Teildaten der Lernzieldaten handelt, und zum Hinzufügen von ersten Identifikationsinformationen zu jedem ersten Teildatenteil, um den Bereich der ersten Teildaten in den Lernzieldaten zu identifizieren; und eine Modellerzeugungseinheit zum Erzeugen eines erlernten Modells, um unter Verwendung erster Korrespondenzinformationen, bei denen es sich um einen Satz aus den ersten Teildaten und den zu den ersten Teildaten gehörenden ersten Identifikationsinformationen handelt, eine Anomalie in den ersten Teildaten zu bestimmen.
  2. Lernvorrichtung nach Anspruch 1, wobei das erlernte Modell veranlasst durch den Empfang der ersten Korrespondenzinformationen erste Normaldaten ausgibt, die als Normaldaten der ersten Teildaten geeignet sind.
  3. Lernvorrichtung nach Anspruch 1, wobei die Datenbezugseinheit Inferenzzieldaten bezieht, bei denen es sich um Daten eines Inferenzziels voller Größe handelt, die Datenerzeugungseinheit die Inferenzzieldaten unterteilt, um mehrere zweite Teildatenteile zu erzeugen, bei denen es sich um Teildaten der Inferenzzieldaten handelt, und zu jedem zweiten Teildatenteil zweite Identifikationsinformationen zum Identifizieren eines Bereichs der zweiten Teildaten in den Lernzieldaten hinzufügt, und die Lernvorrichtung ferner eine Inferenzeinheit aufweist, um eine Anomalie in den Inferenzzieldaten zu bestimmen, indem in das erlernte Modell zweite Korrespondenzinformationen eingegeben werden, bei denen es sich um einen Satz aus den zweiten Teildaten und den zu den zweiten Teildaten gehörenden zweiten Identifikationsinformationen handelt.
  4. Lernvorrichtung nach Anspruch 3, wobei das erlernte Modell veranlasst durch den Empfang der zweiten Korrespondenzinformationen zweite Normaldaten ausgibt, die als Normaldaten der zweiten Teildaten geeignet sind, und die Inferenzeinheit eine Anomalie in den zweiten Teildaten bestimmt, indem sie die zweiten Normaldaten mit den zweiten Teildaten vergleicht, und eine Anomalie in den Inferenzzieldaten auf Basis des Bestimmungsergebnisses bestimmt.
  5. Lernvorrichtung nach Anspruch 4, wobei die Inferenzeinheit einen Abschnitt mit einem anormalen Zustand in den zweiten Teildaten identifiziert, indem sie die zweiten Normaldaten mit den zweiten Teildaten vergleicht, und einen Abschnitt mit einem anormalen Zustand in den Inferenzzieldaten basierend auf dem Identifikationsergebnis identifiziert.
  6. Lernvorrichtung nach Anspruch 1 oder 2, wobei die Lernzieldaten Bilddaten sind, und die Datenerzeugungseinheit zum Erzeugen des erlernten Modells geeignet ist, wobei die ersten Identifikationsinformationen abgebildet werden und die Größe der abgebildeten ersten Identifikationsinformationen geändert wird, um eine Bildgröße zu erhalten, die gleich der Bildgröße der ersten Teildaten ist, und die ersten Korrespondenzinformationen unter Verwendung der durch Abbilden und Ändern der Größe erhaltenen ersten Identifizierungsinformationen erzeugt werden, um das erlernte Modell unter Verwendung der erzeugten ersten Korrespondenzinformationen zu erzeugen.
  7. Lernvorrichtung nach einem der Ansprüche 3 bis 5, wobei die Lernzieldaten und die Inferenzzieldaten Bilddaten sind, und die Datenerzeugungseinheit ausgebildet ist: zum Erzeugen des erlernten Modells, wobei die ersten Identifikationsinformationen abgebildet werden und die Größe der abgebildeten ersten Identifikationsinformationen geändert wird, um eine Bildgröße zu erhalten, die gleich der Bildgröße der ersten Teildaten ist, und die ersten Korrespondenzinformationen unter Verwendung der durch Abbilden und Ändern der Größe erhaltenen ersten Identifizierungsinformationen erzeugt werden, um das erlernte Modell unter Verwendung der erzeugten ersten Korrespondenzinformationen zu erzeugen; und zum Bestimmen einer Anomalie in den Inferenzzieldaten, wobei die zweiten Identifikationsinformationen abgebildet werden und die Größe der abgebildeten zweiten Identifikationsinformationen geändert wird, um eine Bildgröße zu erhalten, die gleich der Bildgröße der zweiten Teildaten ist, und die zweiten Korrespondenzinformation unter Verwendung der durch Abbilden und Ändern der Größe erhaltenen zweiten Identifikationsinformation erzeugt werden, um die erzeugten zweiten Korrespondenzinformationen in das erlernte Modell einzugeben.
  8. Lernvorrichtung nach Anspruch 7, wobei es sich bei den ersten Identifikationsinformationen um Informationen handelt, bei denen ein Bereich der Lernzieldaten, der durch die ersten Teildaten belegt ist, in einer ersten Farbe dargestellt wird, und ein Bereich der Lernzieldaten, der nicht durch die ersten Teildaten belegt ist, in einer zweiten Farbe dargestellt wird, und es sich bei den zweiten Identifikationsinformationen um Informationen handelt, bei denen ein Bereich der Inferenzzieldaten, der durch die zweiten Teildaten belegt ist, in der ersten Farbe dargestellt wird, und ein Bereich der Inferenzzieldaten, der nicht durch die zweiten Teildaten belegt ist, in der zweiten Farbe dargestellt wird.
  9. Lernvorrichtung nach Anspruch 8, wobei die zweite Farbe Schwarz ist, wenn die erste Farbe Weiß ist, und die zweite Farbe Weiß ist, wenn die erste Farbe Schwarz ist.
  10. Lernvorrichtung nach einem der Ansprüche 7 bis 9, wobei die ersten Identifikationsinformationen und die zweiten Identifikationsinformationen zweidimensionale Codes sind.
  11. Lernvorrichtung nach einem der Ansprüche 3 bis 5, wobei das erlernte Modell ein neuronales Netzwerk ist, die Modellerzeugungseinheit die ersten Identifikationsinformationen in eine Zwischenschicht des neuronalen Netzwerkes eingibt, um das erlernte Modell zu erzeugen, und die Inferenzeinheit die zweiten Identifikationsinformationen in die Zwischenschicht des neuronalen Netzwerkes eingibt, um eine Anomalie in den Inferenzzieldaten zu bestimmen.
  12. Lernvorrichtung nach Anspruch 3, wobei die Lernzieldaten und die Inferenzzieldaten eindimensionale Daten sind.
  13. Lernverfahren, das umfasst: einen Datenbezugsschritt zum Beziehen von Lernzieldaten, bei denen es sich um Daten eines Lernziels voller Größe handelt; einen Datenerzeugungsschritt zum Unterteilen der Lernzieldaten, um mehrere erste Teildatenteile zu erzeugen, bei denen es sich um Teildaten der Lernzieldaten handelt, und zum Hinzufügen von ersten Identifikationsinformationen zu jedem ersten Teildatenteil, um den Bereich der ersten Teildaten in den Lernzieldaten zu identifizieren; und einen Modellerzeugungsschritt zum Erzeugen eines erlernten Modells, um unter Verwendung erster Korrespondenzinformationen, bei denen es sich um einen Satz aus den ersten Teildaten und den zu den ersten Teildaten gehörenden ersten Identifikationsinformationen handelt, eine Anomalie in den ersten Teildaten zu bestimmen.
  14. Inferenzvorrichtung, die aufweist: eine Datenbezugseinheit zum Beziehen von Inferenzzieldaten, bei denen es sich um Daten eines Inferenzziels voller Größe handelt; eine Datenerzeugungseinheit zum Unterteilen von Inferenzzieldaten, um mehrere Teildatenteile der Inferenzzieldaten zu erzeugen, und zum Hinzufügen von Identifikationsinformationen zu jedem Teildatenteil, um einen Bereich der Teildaten in den Lernzieldaten zu identifizieren, und eine Inferenzeinheit zum Bestimmen einer Anomalie in den Inferenzzieldaten unter Verwendung von Korrespondenzinformationen, bei denen es sich um einen Satz aus den Teildaten und den zu den Teildaten gehörenden Identifikationsinformationen handelt, und eines erlernten Modells zum Bestimmen einer Anomalie in den Teildaten unter Verwendung der Korrespondenzinformationen.
DE112020007035.2T 2020-04-08 2020-04-08 Lernvorrichtung, Lernverfahren, Inferenzvorrichtung, Programm und Speichermedium Pending DE112020007035T5 (de)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2020/015841 WO2021205573A1 (ja) 2020-04-08 2020-04-08 学習装置、学習方法、および推論装置

Publications (1)

Publication Number Publication Date
DE112020007035T5 true DE112020007035T5 (de) 2023-01-19

Family

ID=74200189

Family Applications (1)

Application Number Title Priority Date Filing Date
DE112020007035.2T Pending DE112020007035T5 (de) 2020-04-08 2020-04-08 Lernvorrichtung, Lernverfahren, Inferenzvorrichtung, Programm und Speichermedium

Country Status (5)

Country Link
US (1) US20230118767A1 (de)
JP (1) JP6818961B1 (de)
CN (1) CN115443474A (de)
DE (1) DE112020007035T5 (de)
WO (1) WO2021205573A1 (de)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022123235A (ja) * 2021-02-12 2022-08-24 オムロン株式会社 画像検査装置、画像検査方法及び学習済みモデル生成装置
JP2022123218A (ja) * 2021-02-12 2022-08-24 オムロン株式会社 画像検査装置、画像検査方法、及び学習済みモデル生成装置
JP2022135080A (ja) * 2021-03-04 2022-09-15 キヤノン株式会社 画像処理装置および画像処理方法
WO2022185494A1 (ja) * 2021-03-04 2022-09-09 富士通株式会社 異常検出プログラム、異常検出方法、および情報処理装置
WO2023170908A1 (ja) * 2022-03-11 2023-09-14 ギガフォトン株式会社 訓練モデルの作成方法、レーザ装置及び電子デバイスの製造方法
CN117934481B (zh) * 2024-03-25 2024-06-11 国网浙江省电力有限公司宁波供电公司 基于人工智能的输电线缆状态识别处理方法及系统

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018195119A (ja) 2017-05-18 2018-12-06 住友電装株式会社 異変検出装置及び異変検出方法

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010211484A (ja) * 2009-03-10 2010-09-24 Nippon Telegr & Teleph Corp <Ntt> 存在確率による位置重みを考慮した類似画像検索装置、存在確率による位置重みを考慮した類似画像検索方法、存在確率による位置重みを考慮した類似画像検索プログラム
JP2014063360A (ja) * 2012-09-21 2014-04-10 Sony Corp 信号処理装置および信号処理方法、出力装置および出力方法、並びにプログラム
WO2020240808A1 (ja) * 2019-05-31 2020-12-03 楽天株式会社 学習装置、分類装置、学習方法、分類方法、学習プログラム、及び分類プログラム

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018195119A (ja) 2017-05-18 2018-12-06 住友電装株式会社 異変検出装置及び異変検出方法

Also Published As

Publication number Publication date
JP6818961B1 (ja) 2021-01-27
US20230118767A1 (en) 2023-04-20
WO2021205573A1 (ja) 2021-10-14
CN115443474A (zh) 2022-12-06
JPWO2021205573A1 (de) 2021-10-14

Similar Documents

Publication Publication Date Title
DE112020007035T5 (de) Lernvorrichtung, Lernverfahren, Inferenzvorrichtung, Programm und Speichermedium
DE102018128158A1 (de) Vorrichtung zur inspektion des erscheinungsbilds
DE112016007498B4 (de) Untersuchungseinrichtung und untersuchungsverfahren
DE3850651T2 (de) Vorrichtung und verfahren zur schnellen detektion von bildfehlehrn.
EP3341891A1 (de) Aktives maschinelles lernen zum trainieren eines ereignisklassifikators
DE102019110721A1 (de) Workflow zum trainieren eines klassifikators für die qualitätsprüfung in der messtechnik
DE112017005651T5 (de) Vorrichtung zur Klassifizierung von Daten
DE112010002232T5 (de) Semantische Szenensegmentierung mittels Random multinominalem Logit (RML)
DE112018005089T5 (de) Inferenzvorrichtung, Inferenzverfahren, Programm und nicht transitorisches greifbares computerlesbares Medium
DE112019000972T5 (de) Verfahren und Systeme für vereinfachte grafische Abbildungen von bipartiten Graphen
DE102018109276A1 (de) Bildhintergrundsubtraktion für dynamische beleuchtungsszenarios
DE102021201124A1 (de) Trainieren von bildklassifizierernetzen
DE102019204139A1 (de) Training für künstliche neuronale Netzwerke mit besserer Ausnutzung der Lern-Datensätze
DE102020107179A1 (de) Verfahren zum anzeigen, benutzerschnittstelleneinheit,anzeigevorrichtung und prüfgerät
DE112021003356T5 (de) Inspektionsvorrichtung, Einheitsauswahlvorrichtung, Inspektionsverfahren und Inspektionsprogramm
DE102021114351A1 (de) Verfahren und Vorrichtung zum Erfassen von Mikroskopie-Objekten in Bilddaten
DE102020215930A1 (de) Visuelle analytikplattform zum aktualisieren von objektdetektionsmodellen in anwendungen des autonomen fahrens
DE112018007277T5 (de) Vorrichtung und verfahren zur automatischen fehlerschwellenwerterkennung für bilder
DE102015013943B4 (de) Testen eines Navigationssystems eines Kraftfahrzeugs
DE102021204040A1 (de) Verfahren, Vorrichtung und Computerprogramm zur Erstellung von Trainingsdaten im Fahrzeug
DE102021212731A1 (de) Überprüfen von test- und/oder trainings-datensätzen für ein computerbasiertes maschinenlernmodul
DE102021212732A1 (de) Überprüfen von test- und/oder trainings-datensätzen für ein computerbasiertes maschinenlernmodul
DE102021201976A1 (de) Verfahren und Vorrichtung zum Verarbeiten von mit einer Mehrzahl von physischen Einrichtungen assoziierten Daten
DE102021213833A1 (de) Systeme, vorrichtungen und verfahren zur zeichenerkennung bei der fertigung verkapselter module
DE112021005018T5 (de) Modellerstellungsvorrichtung für sichtprüfung und sichtprüfgerät

Legal Events

Date Code Title Description
R012 Request for examination validly filed