DE102017001667A1 - Bildverarbeitungseinrichtung zum Anzeigen eines Objekts, das anhand einer Eingabebildaufnahme erkannt wird - Google Patents

Bildverarbeitungseinrichtung zum Anzeigen eines Objekts, das anhand einer Eingabebildaufnahme erkannt wird Download PDF

Info

Publication number
DE102017001667A1
DE102017001667A1 DE102017001667.4A DE102017001667A DE102017001667A1 DE 102017001667 A1 DE102017001667 A1 DE 102017001667A1 DE 102017001667 A DE102017001667 A DE 102017001667A DE 102017001667 A1 DE102017001667 A1 DE 102017001667A1
Authority
DE
Germany
Prior art keywords
image
input image
recognition result
displayed
frame area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102017001667.4A
Other languages
English (en)
Inventor
Yuuta Namiki
Fumikazu Warashina
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fanuc Corp
Original Assignee
Fanuc Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fanuc Corp filed Critical Fanuc Corp
Publication of DE102017001667A1 publication Critical patent/DE102017001667A1/de
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2413Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on distances to training or reference patterns
    • G06F18/24133Distances to prototypes
    • G06F18/24143Distances to neighbourhood prototypes, e.g. restricted Coulomb energy networks [RCEN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/28Determining representative reference patterns, e.g. by averaging or distorting; Generating dictionaries
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/40Software arrangements specially adapted for pattern recognition, e.g. user interfaces or toolboxes therefor
    • G06F18/41Interactive pattern learning with a human teacher
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/60Editing figures and text; Combining figures or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • G06V30/19Recognition using electronic means
    • G06V30/191Design or setup of recognition systems or techniques; Extraction of features in feature space; Clustering techniques; Blind source separation
    • G06V30/19133Interactive pattern learning with a human teacher
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • G06V30/19Recognition using electronic means
    • G06V30/191Design or setup of recognition systems or techniques; Extraction of features in feature space; Clustering techniques; Blind source separation
    • G06V30/1914Determining representative reference patterns, e.g. averaging or distorting patterns; Generating dictionaries, e.g. user dictionaries
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • G06V30/19Recognition using electronic means
    • G06V30/191Design or setup of recognition systems or techniques; Extraction of features in feature space; Clustering techniques; Blind source separation
    • G06V30/19173Classification techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/24Indexing scheme for image data processing or generation, in general involving graphical user interfaces [GUIs]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image

Abstract

Eine Bildverarbeitungseinrichtung 10, die eine Objekterkennungseinheit 21 zum Erkennen einer oder mehrerer Aufnahmen von Objekten anhand einer Eingabebildaufnahme auf Basis eines Modellmusters des Objekts und eine Erkennungsergebnisanzeigeeinheit 41 zum graphischen Überlagern und Anzeigen eines Erkennungsergebnisses umfasst. Die Erkennungsergebnisanzeigeeinheit 41 umfasst einen ersten Rahmenbereich zum Anzeigen der ganzen Eingabebildaufnahme und einen zweiten Rahmenbereich zum Auflisten und Anzeigen einer oder mehrerer Teilbildaufnahmen, die jeweils eine erkannte Aufnahme umfassen. Auf der Eingabebildaufnahme, die im ersten Rahmenbereich gezeigt wird, wird ein Erkennungsergebnis auf allen erkannten Aufnahmen überlagert und angezeigt, und auf der Teilbildaufnahme, die im zweiten Rahmenbereich angezeigt wird, wird ein Erkennungsergebnis einer Aufnahme, das jeder Teilbildaufnahme entspricht, überlagert und angezeigt.

Description

  • HINTERGRUND DER ERFINDUNG
  • 1. Gebiet der Erfindung
  • Die vorliegende Erfindung bezieht sich auf eine Bildverarbeitungseinrichtung zum Anzeigen eines Objekts, das anhand einer Eingabebildaufnahme erkannt wird, und mehr im Detail auf eine Bildverarbeitungseinrichtung zum Erkennen von Positionen von Aufnahmen mehrerer Objekte, die auf einer Bildaufnahme gezeigt sind, und zum Anzeigen eines Erkennungsergebnisses, um einem Benutzer zu ermöglichen, zu prüfen, ob die Aufnahme des erkannten Objekts korrekt ist.
  • 2. Beschreibung des verwandten Standes der Technik
  • Wenn eine Aufnahme eines bestimmten Objekts anhand einer Bildaufnahme in einem Sichtfeld einer Bilderfassungsvorrichtung unter Verwendung einer Bildverarbeitungseinrichtung erkannt wird, werden im Allgemeinen Merkmalswerte zwischen einer Referenzinformation, die ein Objekt indiziert (im Allgemeinen als Modellmuster, Vorlage oder dergleichen bezeichnet), und einer Eingabebildaufnahme, die von der Bilderfassungsvorrichtung erhalten wird, verglichen und wenn der Übereinstimmungsgrad über einer ausgewiesenen Höhe (Schwellenwert) liegt, wird ermittelt, dass das Objekt erfolgreich erkannt wurde.
  • Jedoch auch wenn der Übereinstimmungsgrad höher als der Schwellenwert ist, wurde die Aufnahme des Objekts in der Realität nicht zwingenderweise korrekt erkannt. Um einen Erkennungsparameter wie z. B. einen Schwellenwert für den Übereinstimmungsgrad anzupassen, kann ein Benutzer daher visuell prüfen, ob das Objekt korrekt erkannt wurde. Um zu prüfen, ob ein Objekt korrekt erkannt wurde, wird häufig ein Verfahren des Auftragens eines Ursprungs des Modellmusters, eines Rechtecks, das das Modellmuster umschließt, und einer Form des Modellmusters an der erkannten Position auf der Eingabebildaufnahme verwendet.
  • Nicht nur wenn das Objekt anhand der Eingabebildaufnahme erkannt wird, sondern auch wenn das Objekt auf der Eingabebildaufnahme geprüft wird, ist es des Weiteren erforderlich, dass der Benutzer visuell prüft, ob ein Ergebnis bezüglich der Ermittlung der Korrektheit und Inkorrektheit während der Stufe der Parameteranpassung geeignet ist. In diesem Fall ist es wünschenswert, ein Ermittlungsergebnis auf einfach verständliche Weise anzuzeigen, z. B. durch Versehen eines fehlerhaften Abschnitts mit einer Farbe und Umschließen eines Objekts, d. h. eines fehlerhaften Stücks, in einer anderen Farbe.
  • Das Maschinenlernen zum Verbessern der Wahrscheinlichkeit einer Objekterkennung und das statistische Verarbeiten zum Verbessern eines Modellmusters können vorzugsweise auf Basis eines Erkennungsergebnisses und eines Ergebnisses bezüglich der Ermittlung der Korrektheit und Inkorrektheit durchgeführt werden. Bei einer Technik des Maschinenlernens, die überwachtes Lernen genannt wird, sind Eingabedaten und eine Markierung dafür (OK/NG oder ein Typ) vorhanden. Um ein überwachtes Lernen auf Basis eines Erkennungsergebnisses und eines Ergebnisses bezüglich der Ermittlung der Korrektheit und Inkorrektheit durchzuführen, wird eine Prüfung durchgeführt, um zu ermitteln, ob das Erkennungsergebnis und das Ergebnis bezüglich der Ermittlung der Korrektheit und Inkorrektheit korrekt sind, und wenn ein inkorrektes Ergebnis vorliegt, wird die Markierung mit einer Schaltfläche, einem Textfeld und dergleichen korrigiert. Beim statistischen Verarbeiten wird die Verarbeitung an der Aufnahme des Objekts mit dem korrekten Ermittlungsergebnis durchgeführt und ein Schwellenwert zum Ermitteln der Korrektheit und Inkorrektheit wird unter Verwendung des Ergebnisses bezüglich der Ermittlung der Korrektheit und Inkorrektheit berechnet. In diesem Fall wird das Lernen als Maschinenlernen und statistisches Verarbeiten umfassend angesehen.
  • Die nichtgeprüfte japanische Patentveröffentlichung Nr. 2007-114843 (Kokai) beschreibt eine Ermittlung der Korrektheit und Inkorrektheit, um einem Benutzer das Eingeben eines Ergebnisses bezüglich der Ermittlung der Korrektheit und Inkorrektheit und das Festlegen eines Schwellenwerts zum Durchführen der Ermittlung der Korrektheit und Inkorrektheit mit einer Bildaufnahme und dem Ergebnis bezüglich der Ermittlung der Korrektheit und Inkorrektheit zu ermöglichen. Die Auswahl einer Bildaufnahme erfolgt durch Auswählen eines Bildaufnahmedateinamens, und das Ergebnis bezüglich der Ermittlung der Korrektheit und Inkorrektheit kann nur dann geprüft werden, wenn Bilder einzeln geöffnet werden. Ein einzelnes Ergebnis bezüglich der Ermittlung der Korrektheit und Inkorrektheit wird als für eine Bildaufnahme vorhanden angesehen, und das Ermitteln der Korrektheit und Inkorrektheit mehrerer Objekte auf einer Bildaufnahme wird nicht erwartet.
  • Die internationale Veröffentlichung Nr. 2001/041068 beschreibt ein Fehlerprüfsystem, wobei bei einer Änderung eines Fehlerextraktionsparameters eine Fehlerextraktion erneut an allen gespeicherten Bildaufnahmen durchgeführt wird und die Ermittlung der Korrektheit und Inkorrektheit sowie die Miniaturbildaufnahmen werden als Liste angezeigt. Wenn eine Fehlerermittlung erneut durchgeführt wird, werden Abschnitte, die als mehrere Fehler aufweisend ermittelt wurden, auf der Bildaufnahme gezeigt. Um eine Region, die als Fehler ermittelt wird, zu vergrößern und den Fehler in einem Fehlerlexikon einzutragen, kann es in diesem Zustand bevorzugt sein, auf einen Fehlerabschnitt auf der Bildaufnahme zu klicken. Aus diesem Grund können mehrere Fehler ggf. nicht gleichzeitig vergrößert und angezeigt werden. Außerdem ist das Eintragen eines Fehlers aufwendig.
  • Die nichtgeprüfte japanische Patentveröffentlichung Nr. 2013-142558 (Kokai) beschreibt eine Vorrichtung zum Prüfen des äußeren Erscheinungsbilds, wobei, wenn eine Bildaufnahme, die ein fehlerfreies Stück sein soll, zu einer Bildaufnahmegruppe neu hinzugefügt wird, mit der die Korrektheit und Inkorrektheit konfiguriert werden, die Vorrichtung zum Prüfen des externen Erscheinungsbilds einen Schwellenwert für die Ermittlung unter Verwendung der Bildaufnahmegruppe des fehlerfreien Stücks berechnet und prüft, ob das fehlerhafte Stück als ein fehlerhaftes Stück ermittelt wurde, mit dem Schwellenwert. Bei dieser Patentanmeldung werden Bildaufnahmen Aufnahme für Aufnahme angezeigt, um eine Korrektur der Korrektheit und Inkorrektheit zu ermöglichen, es ist jedoch nicht einfach, die Korrektheit und Inkorrektheit für viele Bildaufnahmen zu prüfen. Eine Ermittlung in Bezug auf mehrere Abschnitte auf einer einzelnen Bildaufnahme wird nicht berücksichtigt.
  • Wie oben erläutert, wird beim Prüfen eines Erkennungsergebnisses und eines Ergebnisses bezüglich der Ermittlung der Korrektheit und Inkorrektheit häufig ein Verfahren des Auftragens des Erkennungsergebnisses und des Ergebnisses bezüglich der Ermittlung der Korrektheit und Inkorrektheit auf eine Bildaufnahme verwendet.
  • Dieses Verfahren ist jedoch mit den folgenden Problemen verbunden.
    • – Wenn mehrere Objekte anhand einer einzelnen Bildaufnahme erkannt werden, ist das Prüfen der Gültigkeit schwierig, wenn die Erkennungsergebnisse einander überlappen oder nebeneinanderliegen. Des Weiteren bewirkt das Korrigieren einer Markierung, dass die Entsprechung zwischen einer Schaltfläche, einem Kontrollkästchen und dergleichen, die zu korrigieren sind, und dem Erkennungsergebnis schwer nachzuvollziehen ist.
    • – Wenn die Größe des Erkennungsergebnisses für eine Bildaufnahme klein ist, gestaltet sich das Prüfen der Gültigkeit schwierig.
  • KURZDARSTELLUNG DER ERFINDUNG
  • Ein Ziel der Erfindung liegt in der Bereitstellung einer Bildverarbeitungseinrichtung zum Anzeigen eines Objekts, das anhand einer Eingabebildaufnahme erkannt wird, auf eine solche Weise, dass ein Erkennungsergebnis und ein Ergebnis bezüglich der Ermittlung der Korrektheit und Inkorrektheit leicht geprüft werden können.
  • Eine Bildverarbeitungseinrichtung umfasst eine Objekterkennungseinheit zum Erkennen einer oder mehrerer Aufnahmen von Objekten anhand einer Eingabebildaufnahme, auf der die Objekte erfasst wurden, auf Basis eines Modellmusters des Objekts und eine Erkennungsergebnisanzeigeeinheit zum graphischen Überlagern und Anzeigen eines Erkennungsergebnisses zu jeder auf diese Weise erkannten Aufnahme. Die Erkennungsergebnisanzeigeeinheit umfasst einen ersten Rahmenbereich zum Anzeigen der ganzen Eingabebildaufnahme und einen zweiten Rahmenbereich zum Auflisten und Anzeigen einer oder mehrerer Teilbildaufnahmen, die jeweils eine anhand der Eingabebildaufnahme erkannte Aufnahme umfassen. Auf der Eingabebildaufnahme, die im ersten Rahmenbereich gezeigt wird, werden Erkennungsergebnisse aller erkannten Aufnahmen überlagert und angezeigt, und auf der Teilbildaufnahme, die im zweiten Rahmenbereich angezeigt wird, wird ein Erkennungsergebnis einer Aufnahme, das jeder Teilbildaufnahme entspricht, überlagert und angezeigt.
  • KURZE BESCHREIBUNG DER ZEICHNUNGEN
  • Die vorliegende Erfindung ist unter Bezugnahme auf die folgenden beiliegenden Zeichnungen deutlicher zu verstehen:
  • 1 ist ein Blockschaubild, das eine Konfiguration einer Bildverarbeitungseinrichtung gemäß einer ersten Ausführungsform veranschaulicht;
  • 2 ist ein Schaubild, das ein Beispiel einer Konfiguration veranschaulicht, bei der die Bildverarbeitungseinrichtung gemäß der ersten Ausführungsform verwendet wird;
  • 3 ist ein Schaubild, das ein weiteres Beispiel einer Konfiguration veranschaulicht, bei der die Bildverarbeitungseinrichtung gemäß der ersten Ausführungsform verwendet wird;
  • 4 ist ein Schaubild, das eine Beziehung zwischen einer erfassten Eingabebildaufnahme und einem Bildaufnahmekoordinatensystem veranschaulicht;
  • 5 ist ein Ablaufplan, der einen Ablauf der Verarbeitung der Bildverarbeitungseinrichtung gemäß der ersten Ausführungsform veranschaulicht;
  • 6 ist ein Schaubild, das ein Beispiel eines Modellmusters eines Objekts veranschaulicht;
  • 7 ist ein Schaubild, das ein Beispiel eines Formats von Daten veranschaulicht, die mit einem Modellmuster in Zusammenhang stehen;
  • 8 ist ein Schaubild, das ein Beispiel einer Anzeige eines Eingabebildaufnahme-Listenbildschirms veranschaulicht;
  • 9 ist ein Schaubild, das ein Beispiel einer Anzeige nach Klicken auf eine Korrekturschaltfläche für eine zweite Markierung in einem Zustand von 8 veranschaulicht;
  • 10 ist ein Schaubild, das ein Beispiel einer Anzeige eines Erkennungsergebnislistenbildschirms veranschaulicht;
  • 11 ist ein Schaubild, das einen Anzeigebildschirm nach Klicken auf die Korrekturschaltfläche für eine erste Markierung in einem Zustand von 10 veranschaulicht;
  • 12 ist ein Schaubild, das ein weiteres Beispiel einer Anzeige des Erkennungsergebnislistenbildschirms veranschaulicht;
  • 13 ist ein Schaubild, das ein noch weiteres Beispiel einer Anzeige des Erkennungsergebnislistenbildschirms veranschaulicht;
  • 14 ist ein Schaubild, das ein noch weiteres Beispiel einer Anzeige des Erkennungsergebnislistenbildschirms veranschaulicht;
  • 15 ist ein Schaubild, das ein noch weiteres Beispiel einer Anzeige des Erkennungsergebnislistenbildschirms veranschaulicht;
  • 16 ist ein Schaubild, das ein Beispiel einer Anzeige des Erkennungsergebnislistenbildschirms veranschaulicht, wenn jeweilige Aufnahmen von Objekten auf Teilbildaufnahmen in der gleichen Ausrichtung angezeigt werden;
  • 17 ist ein Schaubild, das ein Beispiel einer Anzeige des Erkennungsergebnislistenbildschirms veranschaulicht, wenn Aufnahmen von Objekten unterschiedlicher Größen gleichzeitig mit dem ursprünglichen Größenverhältnis angezeigt werden;
  • 18 ist ein Ablaufplan, der einen Ablauf der Verarbeitung einer Bildverarbeitungseinrichtung gemäß einer zweiten Ausführungsform veranschaulicht;
  • 19 ist ein Schaubild, das ein Beispiel einer Anzeige eines Erkennungsergebnislistenbildschirms veranschaulicht, der bei der zweiten Ausführungsform verwendet wird;
  • 20 ist ein Schaubild, das ein Beispiel einer Anzeige des in Schritt S204 angezeigten Erkennungsergebnislistenbildschirms veranschaulicht;
  • 21 ist ein Schaubild, das ein Beispiel einer Anzeige des Erkennungsergebnislistenbildschirms veranschaulicht, wenn eine erste Markierung korrigiert wird;
  • 22 ist ein Schaubild, das ein Modell von Neuronen schematisch veranschaulicht;
  • 23 ist ein Schaubild, das ein dreischichtiges neuronales Netz schematisch veranschaulicht, das durch Kombinieren von Neuronen konfiguriert wird, wie in 22 veranschaulicht; und
  • 24 ist ein Schaubild, das eine schematische Konfiguration einer Lerneinheit 22 gemäß den ersten und zweiten Ausführungsformen veranschaulicht.
  • AUSFÜHRLICHE BESCHREIBUNG
  • Eine Bildverarbeitungseinrichtung zum Anzeigen eines Objekts, das anhand einer Eingabebildaufnahme erkannt wird, wird nachstehend unter Bezugnahme auf die Zeichnungen beschrieben. Es sei jedoch verstanden, dass die Erfindung nicht auf die nachstehend beschriebenen Zeichnungen oder Ausführungsformen beschränkt ist.
  • In der nachstehenden Erläuterung werden bei den Ausführungsformen die unten angeführten Bezugssymbole wie folgt verwendet. Der leichteren Erläuterung wegen werden zuerst die Bezugssymbole erläutert.
  • NP:
    die Anzahl von Merkmalspunkten, die ein Modellmuster bilden
    P_i:
    der i-te Merkmalspunkt des Modellmusters (i ist 1 bis NP)
    NI:
    die Anzahl von Eingabebildaufnahmen
    I_j:
    die j-te Eingabebildaufnahme (j ist 1 bis NI)
    NT_j:
    die Anzahl von Aufnahmen von Objekten, die anhand der j-ten Eingabebildaufnahme I_j erkannt wurden
    T_jg:
    eine Aufnahme des g-ten Objekts, das anhand der j-ten Eingabebildaufnahme I_j erkannt wurde (g ist 1 bis NT_j)
    L1_jg:
    erste Markierung der Aufnahme des g-ten Objekts, das anhand der j-ten Eingabebildaufnahme I_j erkannt wurde
    L2_j:
    zweite Markierung der j-ten Eingabebildaufnahme I_j
  • 1 ist ein Blockschaubild, das eine Konfiguration einer Bildverarbeitungseinrichtung gemäß einer ersten Ausführungsform veranschaulicht.
  • Wie in 1 veranschaulicht, umfasst eine Bildverarbeitungseinrichtung 10 gemäß der ersten Ausführungsform 10 eine arithmetische Einheit 20, eine Speichereinheit 30, eine Anzeigeeinheit 40 und eine Betriebseinheit 50. Die Bildverarbeitungseinrichtung 10 ist mit einem visuellen Sensor 11, einem Bedienfeld 12, einer Anzeigevorrichtung 13 und dergleichen verbunden. Die arithmetische Einheit 20 umfasst eine Objekterkennungseinheit 21 und eine Lerneinheit 22. Die Speichereinheit 30 umfasst eine Modellmusterspeichereinheit 31, eine Lerndatenspeichereinheit 32 und eine Erkennungsergebnisspeichereinheit 33. Die Anzeigeeinheit 40 beinhaltet eine Erkennungsergebnisanzeigeeinheit 41 und eine Eingabebildaufnahme-Anzeigeeinheit 42. Die Betriebseinheit 50 umfasst eine Teilbildaufnahme-Auswahleinheit 51 und eine Eingabebildaufnahme-Auswahleinheit 52. Jeder Abschnitt, der in der Bildverarbeitungseinrichtung 10 umfasst ist, ist mit einer Software auf einem Computer mit CPU, ROM, RAM und dergleichen umgesetzt.
  • Der visuelle Sensor 11 ist mit einem Kommunikationskabel mit der Bildverarbeitungseinrichtung 10 verbunden. Der visuelle Sensor 11 stellt erfasste Bildaufnahmedaten an die Bildverarbeitungseinrichtung 10 bereit. Das Bedienfeld 12 ist mit einem Kommunikationskabel mit der Bildverarbeitungseinrichtung 10 verbunden. Das Bedienfeld 12 wird verwendet, um einen Bildschirm zu bedienen, der auf der Anzeigevorrichtung 13 angezeigt wird. Die Anzeigevorrichtung 13 ist mit einem Kommunikationskabel mit der Bildverarbeitungseinrichtung 10 verbunden. Die Anzeigevorrichtung 13 zeigt eine Bildaufnahme, die vom visuellen Sensor 11 erfasst wird, ein Erkennungsergebnis und dergleichen an. Es sei angemerkt, dass der visuelle Sensor 11, das Bedienfeld 12 und die Anzeigevorrichtung 13 in der Bildverarbeitungseinrichtung 10 integral bereitgestellt sein kann. Die Anzeigevorrichtung 13 ist eine Anzeigeeinrichtung mit CRT, einer Flüssigkristallanzeige oder dergleichen. Das Bedienfeld 12 kann eine Maus und eine Tastatur sein oder kann ein berührungsempfindliches Feld auf der Anzeigevorrichtung 13 sein.
  • 2 ist ein Schaubild, das ein Beispiel einer Konfiguration veranschaulicht, bei der die Bildverarbeitungseinrichtung 10 gemäß der ersten Ausführungsform verwendet wird;
  • Wie in 2 veranschaulicht, ist der visuelle Sensor 11 in einer Position fixiert und installiert, so dass der visuelle Sensor 11 Bildaufnahmen der Objekte 17A und 17B erfassen kann, und die Objekte 17A und 17B sind auf einer Arbeitsbank 16 installiert. Es können ein einzelnes Objekt oder mehrere Objekte 17A und 17B vorhanden sein, die auf der Arbeitsbank 16 platziert sind. Der visuelle Sensor 11 kann eine Kamera zum Erfassen von Graustufen-Bildaufnahmen oder Farbbildaufnahmen sein oder kann eine Stereokamera oder ein dreidimensionaler Sensor sein, die bzw. der in der Lage ist, Bereichsbildaufnahmen zu erhalten.
  • Bei dieser ersten Ausführungsform wird davon ausgegangen, dass eine Kamera als visueller Sensor 11 verwendet wird und der visuelle Sensor 11 gibt eine Graustufenbildaufnahme in der Erläuterung aus. Die Kamera ist eine elektronische Kamera mit einem Bildgebungselement wie z. B. einer CCD (Charge Coupled Device) und ist ein hinlänglicher Photodetektor mit einer Funktion zum Erkennen einer zweidimensionalen Bildaufnahme in seiner Bilderfassungsebene (auf einer CCD-Array-Ebene) durch Erfassen einer Aufnahme. Es sei angemerkt, dass ein zweidimensionales Koordinatensystem auf einer Bilderfassungsebene im Folgenden als Bildkoordinatensystem bezeichnet wird.
  • 3 ist ein Schaubild, das ein weiteres Beispiel einer Konfiguration veranschaulicht, bei der die Bildverarbeitungseinrichtung 10 gemäß der ersten Ausführungsform verwendet wird.
  • Wie in 3 veranschaulicht, kann der visuelle Sensor 11 auf einem beweglichen Abschnitt wie z. B. einem Handstück (Hand) 2 eines Roboters 1 installiert werden. Die Objekte 17A und 17B können mit dem Handstück des Roboters 1 gegriffen werden und können bewegt werden, um innerhalb des Sichtfelds des installierten und fixierten visuellen Sensors platziert zu werden. Der Roboter 1 ist über ein Kommunikationskabel mit einer Robotersteuervorrichtung 3 verbunden und wird von dieser gesteuert. Die Robotersteuervorrichtung 3 verwendet die Verarbeitungsergebnisse, die von der Bildverarbeitungseinrichtung 10 ausgegeben werden, um den Roboter 1 zu steuern.
  • 4 ist ein Schaubild, das eine Beziehung zwischen einer erfassten Eingabebildaufnahme und einem Bildaufnahmekoordinatensystem veranschaulicht.
  • Wie in 4 veranschaulicht, umfasst die Eingabebildaufnahme 100 eine rechteckige Bildaufnahmeebene und hat ein Bildaufnahmekoordinatensystem 110, das den Seiten des Rechtecks entspricht. Eine Position auf der Bildaufnahmeebene wird durch XY-Koordinaten des Bildaufnahmekoordinatensystems 110 dargestellt. In 4 umfasst die Eingabebildaufnahme 100 Bildaufnahmen 200A bis 200C von drei Objekten. In der folgenden Erläuterung wird eine Bildaufnahme eines Objekts ggf. einfach als Objekt bezeichnet.
  • 5 ist ein Ablaufplan, der einen Ablauf der Verarbeitung der Bildverarbeitungseinrichtung gemäß der ersten Ausführungsform veranschaulicht.
  • Gemäß der Verarbeitung, die von der Lerneinheit 22 durchgeführt wird, sind die Inhalte des Betriebs und der Verarbeitung, die vom Benutzer mit der Bildverarbeitungseinrichtung durchgeführt werden, unterschiedlich. In diesem Fall wird zunächst als Beispiel ein Fall erläutert, bei dem die Lerneinheit 22 eine statistische Verarbeitung durchführt.
  • In Schritt S101 wird ein Modellmuster erzeugt, das zum Erkennen eines Objekts verwendet wird.
  • Das Modellmuster gemäß der ersten Ausführungsform ist durch mehrere Merkmalspunkte gebildet. Diverse Dinge können als Merkmalspunkte verwendet werden, bei der ersten Ausführungsform wird jedoch ein Randpunkt als Merkmalspunkt verwendet. Der Randpunkt ist ein Punkt, an dem ein Luminanzgradient auf einer Bildaufnahme hoch ist, und kann verwendet werden, um eine Konturform eines Objekts zu erhalten. Ein Verfahren zum Extrahieren eines Randpunkts ist hinlänglich bekannt. Der Randpunkt kann mit einer beliebigen Granularität erhalten werden, in diesem Fall wird jedoch ein einzelner Randpunkt für einen einzelnen Pixel extrahiert.
  • Der Merkmalspunkt ist nicht auf den Randpunkt beschränkt und es kann z. B. ein Merkmalspunkt wie z. B. SIFT verwendet werden. Ein Verfahren zum Extrahieren eines SIFT-Merkmalspunkts aus einer Bildaufnahme ist hinlänglich bekannt, wie z. B. in „Object Recognition from Local Scale-Invariant Features", David G. Lowe, Proc. of the International Conference on Computer Vision, Corfu (Sept. 1999), und dergleichen beschrieben.
  • Der Merkmalspunkt umfasst zumindest eine Position. Wenn eine Richtung eines Luminanzgradienten eines Randpunkts als Ausrichtung des Merkmalspunkts definiert ist, können die Position sowie die Positionsausrichtung des Merkmalspunkts definiert werden. Bei der ersten Ausführungsform wird der Merkmalspunkt als eine Position und eine Ausrichtung aufweisend angesehen.
  • 6 ist ein Schaubild, das ein Beispiel eines Modellmusters eines Objekts veranschaulicht. Wie in 6 veranschaulicht, wird das Modellmuster der 200 durch mehrere Merkmalspunkte (Randpunkte) P_i (i = 1 bis NP) gebildet. Die Positionsausrichtung des Merkmalspunkts P_i, der das Modellmuster bildet, kann in einem beliebigen Format ausgedrückt werden, es gibt jedoch z. B. ein Verfahren, bei dem ein Koordinatensystem in einem Modellmuster (im Folgenden als Modellmusterkoordinatensystem bezeichnet) definiert ist und eine Position t_Pi (i = 1 bis NP) und eine Ausrichtung v_Pi (i = 1 bis NP) eines Merkmalspunkts, der das Modellmuster bildet, unter Verwendung eines Positionsvektors, eines Richtungsvektors und dergleichen ausgedrückt werden, die aus dem Modellmusterkoordinatensystem ersichtlich sind.
  • Der Ursprung des Modellmusterkoordinatensystems kann auf eine beliebige Weise definiert werden. Beispielsweise wird ein beliebiger bestimmter Punkt aus Merkmalspunkten ausgewählt, die das Modellmuster bilden, und dieser Punkt kann als Ursprung definiert werden, und der Schwerpunkt aller Merkmalspunkte, die das Modellmuster bilden, kann als Ursprung definiert werden.
  • Die Ausrichtung des Modellmusterkoordinatensystems (Axialrichtung) kann ebenfalls auf beliebige Weise definiert werden. Bei der Bildaufnahme, auf der das Modellmuster erzeugt wird, beispielsweise können das Bildaufnahmekoordinatensystem und das Modellmusterkoordinatensystem als parallel seiend definiert werden oder können zwei beliebige Punkte aus den Merkmalspunkten, die das Modellmuster bilden, ausgewählt werden und eine Richtung, die sich von einem der zwei Punkte zum anderen erstreckt, kann als X-Achsenrichtung definiert werden.
  • 7 ist ein Schaubild, das ein Beispiel eines Formats von Daten zu einem Modellmuster veranschaulicht.
  • Wie in 7 veranschaulicht, werden die Daten zum Modellmuster durch die Position und die Ausrichtung in Bezug auf jeden Merkmalspunkt ausgedrückt. Der Merkmalspunkt P_i, der das Modellmuster bildet, wird in der Modellmusterspeichereinheit 31 in einem Format (Position, Ausrichtung) gespeichert, wie in 7 veranschaulicht.
  • In Schritt S102 werden eine oder mehrere Eingabebildaufnahmen I_j (j = 1 bis NI) erhalten, die eine Aufnahme eines Objekts umfassen. Die Eingabebildaufnahme wird durch Anordnen eines Objekts im Sichtfeld des visuellen Sensors 11 und Erfassen einer Bildaufnahme erhalten. Die Bildaufnahme wird vorzugsweise in der gleichen Umgebung wie die tatsächliche Fertigungsstraße erfasst. Eine große Anzahl von Bildaufnahmen des Objekts, die in der tatsächlichen Fertigungsstraße aufgenommen und gespeichert werden, können verwendet werden. Mehrere Objekte können auf einer einzelnen Bildaufnahme gezeigt werden.
  • In Schritt S103 vergleicht die Objekterkennungseinheit 21 das Modellmuster mit der Eingabebildaufnahme I_j für jede der Eingabebildaufnahmen I_j (j = 1 bis NI) und führt eine Erkennung des Objekts durch. Das Erkennungsergebnis wird mit der Eingabebildaufnahme I_j assoziiert und in der Erkennungsergebnisspeichereinheit 33 gespeichert. Ein Ergebnis, das aus einer Reihe der Verarbeitung bis zur Ausführung des nachstehenden Lernprozesses erhalten wird, wird als in der Erkennungsergebnisspeichereinheit 33 gespeichert angesehen. Es gibt diverse Verfahren zum Erkennen eines Objekts mit der Objekterkennungseinheit 21, es können jedoch z. B. die generalisierte Hough-Transformation, wie in „Generalizing the Hough Transform to Detect Arbitrary Shapes", D. H. Ballard, Pattern Recognition Bd. 13, Nr. 2, S. 111–122, 1981, beschrieben, RANSAC, wie in „Random sample consensus: a paradigm for model fitting with applications to picture image analysis and automated cartography", Martin A. Fischler, et al., Communications of the Association for Computing Machinery, Bd. 24, Nr. 6, S. 381–395, Juni 1981, beschrieben, und dergleichen als hinlänglich bekanntes Verfahren verwendet werden. Bei der vorliegenden Ausführungsform kann eine Aufnahme eines Objekts, dessen Übereinstimmungsgrad geringer als ein Schwellenwert ist, dessen Übereinstimmungsgrad jedoch innerhalb eines vorab definierten Bereichs liegt, ebenfalls als Erkennungsergebnis hinzugefügt werden. Beispielsweise wenn der Übereinstimmungsgrad als 0 bis 100 definiert ist, wird ein Übereinstimmungrad bis zu einem Übereinstimmungsgrad, der durch Subtrahieren von 10 vom Schwellenwert für den Übereinstimmungsgrad erhalten wird, akzeptiert. Wie oben beschrieben, kann sogar bei einem Erkennungsergebnis, dessen Übereinstimmungsgrad geringer als der Schwellenwert ist, eine Markierung als korrektes Erkennungsergebnis in einem späteren Schritt geändert werden.
  • NT_j Aufnahmen von Objekten werden als anhand der Eingabebildaufnahme I_j im Rahmen der Erkennung erkannt angenommen. Die erkannte Aufnahme wird als T_jg (g = 1 bis NT_j) ausgewiesen und die erkannte Position der Aufnahme T_jg wird als R_Tjg ausgewiesen. Die erkannte Position R_Tjg ist eine Positionsausrichtung der Aufnahme T_jg des Objekts, wie aus dem Bildaufnahmekoordinatensystem ersichtlich, d. h. eine homogene Transformationsmatrix, die eine Positionsausrichtung des Modellmusterkoordinatensystems darstellt, wie aus dem Bildaufnahmekoordinatensystem ersichtlich, wenn das Modellmuster auf der Aufnahme T_jg überlagert ist, und wird durch die folgende Gleichung ausgedrückt:
    Figure DE102017001667A1_0002
  • Beispielsweise wenn das Objekt sich in Bezug auf die optische Achse der Kamera nicht neigt und nur eine Kongruenztransformation als Bewegung einer Aufnahme eines Objekts, das auf einer Bildaufnahme gezeigt ist, angesehen werden kann, sind a00 und a12 wie folgt: a00 = cosθ a01 = –sinθ a02 = x a10 = sinθ a11 = cosθ a12 = y
  • (x, y) ist jedoch eine Position auf einer Bildaufnahme und θ ist ein Drehbewegungsausmaß auf der Bildaufnahme.
  • Wenn sich das Objekt nicht in Bezug auf die optische Achse der Kamera neigt, der Abstand zwischen dem Objekt und der Kamera jedoch nicht konstant ist, ändert sich die Größe der Aufnahme des Objekts, das auf der Bildaufnahme gezeigt ist, gemäß dem Abstand und daher ist die Bewegung der Aufnahme des Objekts, das auf der Bildaufnahme gezeigt ist, eine Ähnlichkeitstransformation. In diesem Fall sind a00 bis a12 wie folgt. a00 = s·cosθ a01 = –s·sinθ a02 = x a10 = s·sinθ a11 = s·cosθ a12 = y
  • Allerdings bezeichnet s ein Verhältnis zwischen der Größe des gelehrten Modellmusters und der Größe der Aufnahme T_jg des Objekts.
  • Die erkannte Position R_Tjg und die Eingabebildaufnahme I_j werden zu einem Paar gemacht und in der Erkennungsergebnisspeichereinheit 33 gespeichert.
  • Auf Basis der erkannten Position R_Tjg der Aufnahme T_jg (j = 1 bis NI, g = 1 bis NT_j) des Objekts, das anhand jeder Eingabebildaufnahme I_j (j = 1 bis NI) erkannt wird, wird die Positionsausrichtung des Merkmalspunkts P_i, der das Modellmuster bildet, transformiert und auf der Aufnahme des Objekts auf der Bildaufnahme überlagert.
  • Der Erläuterung wegen wird die Positionsausrichtung jedes Merkmalspunkts P_i, der das Modellmuster bildet, durch eine homogene Transformationsmatrix R_Pi ausgedrückt. R_Pi kann wie folgt beschrieben werden.
    Figure DE102017001667A1_0003
    b00 = vx_Pi b01 = –vy_Pi b02 = tx_Pi b10 = vy_Pi b11 = vx_Pi b12 = ty_Pi
  • Allerdings ist t_Pi = (tx_Pi, ty_Pi) die Position von P_i im Modellmusterkoordinatensystem und ist v_Pi = (vx_Pi, vy_Pi) die Ausrichtung von P_i im Modellmusterkoordinatensystem.
  • In diesem Fall sei angemerkt, dass die Positionsausrichtung R_Pi des Merkmalspunkts P_i, der das Modellmuster bildet, im Modellmusterkoordinatensystem ausgedrückt ist.
  • Wenn die Positionsausrichtung des Merkmalspunkts P_i, wie aus dem Bildaufnahmekoordinatensystem ersichtlich, als R_Pi' ausgewiesen ist, wenn das Modellmuster auf der Aufnahme T_jg des Objekts überlagert ist, das auf der Bildaufnahme I_j gezeigt ist, wird R_Pi' wie folgt unter Verwendung der Positionsausrichtung R_Pi des Merkmalspunkts P_i, wie aus dem Modellmusterkoordinatensystem ersichtlich, und der erkannten Position R_Tjg der Aufnahme T_jg, wie aus Bildaufnahmekoordinatensystem ersichtlich, ausgedrückt. R_Pi' = R_Tjg·R_Pi
  • Der einfacheren späteren Erläuterung wegen wird die Position von P_i, wie aus dem Bildaufnahmekoordinatensystem ersichtlich, als t_Pi' ausgewiesen und wird die Ausrichtung von P_i, wie vom Bildaufnahmekoordinatensystem aus gesehen, als v_Pi' ausgewiesen.
  • In diesem Fall wird die erste Markierung L1_jg (j = 1 bis NI, g = 1 bis NT_j) der Aufnahme T_jg jedes Objekts zugewiesen. Bei der ersten Ausführungsform können zwei Optionen als Markierung des Bilds des Objekts ausgewählt werden, d. h. „OK” und „NG”. Bei der ersten Ausführungsform werden unter den Aufnahmen der erkannten Objekte die ersten Markierungen L1_jg der Aufnahmen aller Objekte, deren Übereinstimmungsgrad größer gleich dem Schwellenwert ist, auf „OK” geändert. Unter den Aufnahmen der erkannten Objekte werden die ersten Markierungen L1_jg der Aufnahmen der Objekte, deren Übereinstimmungsgrad kleiner als der Schwellenwert ist, auf „NG” geändert.
  • In Schritt S104 prüft der Benutzer die Aufnahme T_jg (j = 1 bis NI, g = 1 bis NT_j) des Objekts, das anhand jeder Eingabebildaufnahme I_j (j = 1 bis NI) erkannt wird, und korrigiert die Markierung. Der Benutzer prüft die Aufnahme des Objekts, das mit „OK” versehen ist, und wenn der Benutzer ermittelt, dass es sich nicht um das Objekt handelt, ändert der Benutzer die erste Markierung auf „NG” und die korrigierte Markierung wird gespeichert. Des Weiteren prüft der Benutzer die Aufnahme des Objekts, das mit „NG” versehen ist, und wenn der Benutzer ermittelt, dass es sich um das zu erkennende Objekt handelt, ändert der Benutzer die erste Markierung auf „OK und die korrigierte Markierung wird gespeichert.
  • Bei der ersten Ausführungsform wechselt der Benutzer zwischen dem Eingabebildaufnahme-Listenbildschirm, der von der Eingabebildaufnahme-Anzeigeeinheit 42 angezeigt wird, und dem Erkennungsergebnislistenbildschirm, der von der Erkennungsergebnisanzeigeeinheit 41 angezeigt wird, hin und her, um das Bild T_jg (j = 1 bis NI, g = 1 bis NT_j) des Objekts zu prüfen.
  • Der Eingabebildaufnahme-Listenbildschirm und der Erkennungsergebnislistenbildschirm werden auf der Anzeigevorrichtung angezeigt. Die zwei Bildschirme können nebeneinander angezeigt werden oder durch Wechseln der Bildschirme. Bei der ersten Ausführungsform wird ein Verfahren zum Anzeigen der zwei Bildschirme durch Wechseln der Bildschirme erläutert.
  • 8 ist ein Schaubild, das ein Beispiel einer Anzeige eines Eingabebildaufnahme-Listenbildschirms veranschaulicht.
  • Am Eingabebildaufnahme-Listenbildschirm werden alle Eingabebildaufnahmen I_j (j = 1 bis NI) aufgelistet und wie in 8 veranschaulicht angezeigt. Beispielsweise erfolgt die Anzeige dieses Bildschirms gemäß der nachstehenden Regel.
    • – Eingabebildaufnahmen werden mit einer ausgewiesenen Vergrößerungsrate auf dem Bildschirm angeordnet und angezeigt. Bei der ersten Ausführungsform sind alle Größen von Eingabebildaufnahmen gleich, die Größen der Eingabebildaufnahmen können sich jedoch unterscheiden.
    • – Die Anzahl von Reihen oder die Anzahl von Zeilen der Bildaufnahme auf dem Bildschirm wird anhand der Größe des Bildschirms, der Größe der Eingabebildaufnahme und der Vergrößerungsrate automatisch bestimmt.
  • Wenn nicht alle Bildaufnahmen angezeigt werden können, wird ein Scrollbalken angezeigt. Der Benutzer kann alle Bildaufnahmen durch Scrollen im Bildschirm mit dem Scrollbalken anschauen. Der Scrollbalken kann vertikal oder horizontal gezeigt werden.
    • – Die Anzeigevergrößerungsrate der Eingabebildaufnahme kann mit einer Vergrößerungsraten-Dropdown-Liste ausgewiesen werden. Die Eingabebildaufnahmen können mit einer Größe angezeigt werden, die größer als die ursprüngliche Bildaufnahme ist, oder können mit einer Größe angezeigt werden, die kleiner als die ursprüngliche Bildaufnahme ist.
  • Eine Verfahrensweise zum Auftragen eines Modellmusters auf einer Aufnahme eines Objekts, das auf einer Eingabebildaufnahme gezeigt ist, wird erläutert. Das Auftragen des Modellmusters kann vorzugsweise gemäß der nachstehenden Verfahrensweise erfolgen.
    • (1) Die nachstehend gezeigte Verarbeitung von (2) wird an allen Eingabebildaufnahmen I_j (j = 1 bis NI) durchgeführt.
    • (2) Die nachstehend gezeigte Verarbeitung von (2-1) bis (2-2) wird an den Aufnahmen T_jg (g = 1 bis NT_j) aller Objekte durchgeführt, die anhand der Eingabebildaufnahme I_j erkannt werden.
    • (2-1) Die Positionen R_Pi' aller Merkmalspunkte P_i (i = 1 bis NP) des Modellmusters, wie aus dem Bildaufnahmekoordinatensystem ersichtlich, werden auf Basis der Position R_Tjg der Aufnahme des Objekts berechnet.
    • (2-2) Ein Punkt wird an Position R_Pi' der Eingabebildaufnahme I_j aufgetragen. Wenn die erste Markierung L1_jg „OK ist, wird der Punkt grün aufgetragen. Wenn die erste Markierung L1_jg „NG” ist, wird der Punkt rot aufgetragen. Der Merkmalspunkt P_i kann nicht als Punkt aufgetragen werden und stattdessen kann er als Zeilensegment aufgetragen werden. Aus diesem Grund wird die erste Markierung L1_jg als Reihe von Merkmalspunkten des Objekts ausgedrückt, das grün oder rot angezeigt wird.
  • Es folgt eine Erläuterung der zweiten Markierung.
    • – Jede Eingabebildaufnahme hat eine zweite Markierung L2_j (j = 1 bis NI).
    • – Eine Korrekturschaltfläche für eine zweite Markierung ist oben links jeder Eingabebildaufnahme angeordnet. Die Korrekturschaltfläche für die zweite Markierung kann außerhalb der Bildaufnahme angeordnet werden, z. B. unter der Eingabebildaufnahme.
  • Die zweite Markierung L2_j wird wie folgt auf Basis der ersten Markierung L1_jg (g = 1 bis NT_j) ermittelt.
    • – Wenn die ersten Markierungen L1_jg der Aufnahmen aller Objekte auf der gleichen Eingabebildaufnahme „OK” sind, werden die zweiten Markierungen L2_j auf „OK” eingestellt.
    • – Wenn die Aufnahmen der Objekte auf der gleichen Eingabebildaufnahme auch nur eine einzelne Aufnahme umfassen, deren erste Markierung L1_jg „NG” ist, wird die zweite Markierung L2_j auf „NG” eingestellt.
  • Die Korrekturschaltfläche für die zweite Markierung wird wie folgt angezeigt.
    • – Die zweite Markierung wird als Markierung angezeigt, die auf der Korrekturschaltfläche für die zweite Markierung angezeigt wird.
    • – Wenn die zweite Markierung „OK” ist, ist die Hintergrundfarbe der Korrekturschaltfläche für die zweite Markierung grün, und wenn die zweite Markierung „NG” ist, ist die Hintergrundfarbe der Korrekturschaltfläche für die zweite Markierung rot.
  • Wenn die Korrekturschaltfläche für die zweite Markierung angeklickt wird, wird die zweite Markierung L2_j zwischen „OK” und „NG” umgeschaltet. Demgemäß werden die ersten Markierungen L1_jg der Aufnahmen aller Objekte auf der gleichen Bildaufnahme ebenfalls auf die gleiche wie L2_j geändert. Synchron mit der Änderung der ersten Markierung L1_jg und der zweiten Markierung L2_j wird auch der Bildschirm aktualisiert.
  • 9 ist ein Schaubild, das ein Beispiel einer Anzeige nach Klicken auf die Korrekturschaltfläche für die zweite Markierung in dem Zustand von 8 veranschaulicht. Die zweite Markierung der zweiten Bildaufnahme von links in der ersten Reihe ändert sich von „OK” auf „NG”.
  • Wenn der Benutzer auf die Eingabebildaufnahme I_j auf dem Eingabebildaufnahme-Listenbildschirm klickt, wird ein Erkennungsergebnislistenbildschirm angezeigt, der eine Liste von Erkennungsergebnissen für diese Eingabebildaufnahme anzeigt.
  • 10 ist ein Schaubild, das ein Beispiel einer Anzeige eines Erkennungsergebnislistenbildschirms veranschaulicht.
  • Wie in 10 veranschaulicht, werden die Aufnahmen T_jg (g = 1 bis NT_j) der Objekte auf der ausgewählten Eingabebildaufnahme I_j auf dem Erkennungsergebnislistenbildschirm aufgelistet und wie folgt angezeigt.
    • – Ein erster Rahmenbereich und ein zweiter Rahmenbereich werden auf dem Erkennungsergebnislistenbildschirm angezeigt.
    • – Im ersten Rahmenbereich und im zweiten Rahmenbereich kann die Anzeigevergrößerungsrate der Bildaufnahme auf eine andere Rate geändert werden.
    • – Die Größen des ersten Rahmenbereichs und des zweiten Rahmenbereichs können ebenfalls geändert werden. Beispielsweise können die Größen der zwei Rahmenbereich durch Ziehen der Grenzlinie zwischen dem ersten Rahmenbereich und dem zweiten Rahmenbereich geändert werden.
    • – Wenn die Zurück-Schaltfläche angeklickt wird, kann der Benutzer zum Eingabebildaufnahme-Listenbildschirm zurückkehren.
  • Im ersten Rahmenbereich wird die gesamte Bildaufnahme angezeigt.
    • – Wenn eine Vergrößerungsraten-Dropdown-Liste des ersten Rahmenbereichs verwendet wird, kann die Anzeigevergrößerungsrate der Gesamtbildaufnahme verändert werden.
    • – Wenn die Gesamtbildaufnahme nicht in den ersten Rahmenbereich fällt, wird ein Scrollbalken angezeigt.
    • – Ein Modellmuster kann mit dem gleichen Verfahren wie das Verfahren zum Auftragen des Modellmusters auf die Bildaufnahme des Eingabebildaufnahme-Listenbildschirms auf die Aufnahme des erkannten Objekts auf der Gesamtbildaufnahme aufgetragen werden.
  • Eine Teilbildaufnahme wird im zweiten Rahmenbereich angezeigt.
    • – Wenn die Vergrößerungsraten-Dropdown-Liste des zweiten Rahmenbereichs verwendet wird, kann die Anzeigevergrößerungsrate der Teilbildaufnahme verändert werden.
    • – Wenn nicht alle Teilbildaufnahmen in den zweiten Rahmenbereich passen, wird ein Scrollbalken angezeigt. Der Scrollbalken kann vertikal oder horizontal gezeigt werden.
    • – Die Teilbildaufnahme wird für die Aufnahme T_jg (g = 1 bis NT_j) jedes Objekts erzeugt. Die Teilbildaufnahme wird gemäß der folgenden Verfahrensweise erzeugt.
    • 1. Ein Modellmuster wird auf das Bild des erkannten Objekts der Eingabebildaufnahme aufgetragen. Dazu werden die folgenden Verfahrensweisen (1-1) bis (1-2) an der Aufnahme T_jg des Objekts durchgeführt. (1-1) Die Position R_Pi' aller Merkmalspunkte P_i (i = 1 bis NP) des Modellmusters, wie aus dem Bildaufnahmekoordinatensystem ersichtlich, wird auf Basis der Position R_Tjg der Aufnahme des Objekts berechnet. (1-2) Ein Punkt wird an Position R_Pi' der Eingabebildaufnahme I_j aufgetragen. Wenn die erste Markierung L1_jg „OK” ist, wird der Punkt grün aufgetragen. Wenn die erste Markierung L1_jg „NG” ist, wird der Punkt rot aufgetragen. Der Merkmalspunkt P_i kann nicht als Punkt aufgetragen werden und stattdessen kann er als Zeilensegment aufgetragen werden.
    • 2. Ein maximaler Wert tx_Pi_max und ein Mindestwert tx_Pi_min in X-Richtung und ein maximaler Wert ty_Pi_max und ein Mindestwert ty_Pi_min in Y-Richtung der Position t_Pi' = (tx_Pi, ty_Pi) aller R_Pi' (i = 1 bis NP), die berechnet wurden, werden abgeleitet.
    • 3. Wenn eine Form, bei der eine Teilbildaufnahme gegenüber der Eingabebildaufnahme zugeschnitten wird, ein Rechteck ist, wird das Rechteck durch die Position am oberen linken Scheitel und die Position am unteren rechten Scheitel definiert. Wenn die Begrenzung aist, kann die Position des oberen linken Scheitels als (tx_Pi_min – a, ty_Pi_min – a) berechnet werden und kann die Position des unteren rechten Scheitels als (tx_Pi_max + a, ty_Pi_max + a) berechnet werden. Die Begrenzung a kann ein vorab festgelegter Wert sein oder kann anhand der Größe der Bildaufnahme berechnet werden.
    • 4. Eine Bildaufnahme wird gegenüber der Eingabebildaufnahme mit dem berechneten Rechteck zugeschnitten und die Bildaufnahme wird als Teilbildaufnahme verwendet.
  • Wenn die Teilbildaufnahme von der Teilbildaufnahme-Auswahleinheit 51 ausgewählt wird, wird die Teilbildaufnahme in einen Auswahlzustand gesetzt, um hervorgehoben angezeigt zu werden. Beispielsweise wenn die Teilbildaufnahme angeklickt wird, wird die Teilbildaufnahme so angezeigt, dass sie sich von anderen Teilbildaufnahmen unterscheidet, d. h. die Teilbildaufnahme wird hervorgehoben angezeigt. Um die Teilbildaufnahme hervorgehoben anzuzeigen, kann z. B. die Teilbildaufnahme von einer Rahmenlinie in heller Farbe umschlossen werden. Die Aufnahme T_jg des Objekts, die der Teilaufnahme entspricht, wird in der Gesamtbildaufnahme ebenfalls hervorgehoben angezeigt. Um die Gesamtbildaufnahme hervorgehoben anzuzeigen, kann das Bild des Objekts ebenfalls von einer hellen Rahmenlinie umschlossen werden. Die Form der Rahmenlinie kann gleich wie das Rechteck sein, auf das die Teilbildaufnahme zugeschnitten wird. Alternativ kann sie durch Ändern der Farbe, mit der das Modellmuster aufgetragen wird, hervorgehoben angezeigt werden. Des Weiteren kann, wenn die Gesamtbildaufnahme vergrößert wird und nur ein Abschnitt der Gesamtbildaufnahme angezeigt wird, die Gesamtbildaufnahme automatisch gescrollt werden, so dass der Benutzer die Aufnahme des Objekts, wie hervorgehoben angezeigt, prüfen kann.
    • – Jede Teilbildaufnahme wird mit der ersten Markierung L1_jg (j = 1 bis NI, g = 1 bis NT_j) assoziiert.
    • – Eine Korrekturschaltfläche für die erste Markierung ist oben links jeder Teilbildaufnahme angeordnet. Die Korrekturschaltfläche für die erste Markierung kann außerhalb der Bildaufnahme angeordnet werden, z. B. unmittelbar unter der Teilbildaufnahme.
    • – Eine erste Markierung („OK” oder „NG”) wird auf der Korrekturschaltfläche für die erste Markierung angezeigt.
    • – Wenn die erste Markierung „OK” ist, ist die Hintergrundfarbe der Korrekturschaltfläche für die erste Markierung grün, und wenn die erste Markierung „NG” ist, ist die Hintergrundfarbe der Korrekturschaltfläche für die erste Markierung rot.
    • – Wenn die Korrekturschaltfläche für die erste Markierung angeklickt wird, wird die erste Markierung L1_jg zwischen „OK” und „NG” umgeschaltet. Synchron mit der Änderung der ersten Markierung L1_jg wird auch der Bildschirm aktualisiert.
  • 11 ist ein Schaubild, das einen Anzeigebildschirm nach Klicken auf eine Korrekturschaltfläche für die erste Markierung in dem Zustand von 10 veranschaulicht. Die Teilbildaufnahme oben links im zweiten Rahmenbereich und der Merkmalspunkt des Objekts im ersten Rahmenbereich, der der Teilbildaufnahme entspricht, wird von grün auf rot geändert. Die Korrekturschaltfläche für die erste Markierung, die in Assoziation mit der Teilbildaufnahme oben links im zweiten Rahmenbereich angezeigt wird, wird von „OK” auf „NG” geändert.
  • 12 ist ein Schaubild, das ein weiteres Beispiel einer Anzeige eines Erkennungsergebnislistenbildschirms veranschaulicht.
  • Wie in 12 veranschaulicht, kann der erste Rahmenbereich bei einem weiteren Anzeigebildschirm vergrößert werden und kann der zweite Rahmenbereich verkleinert werden. Bei diesem Beispiel ist die Vergrößerungsrate des ersten Rahmenbereichs 50% und die ist Vergrößerungsrate des zweiten Rahmenbereichs 25%. Bei einer solchen Konfiguration kann der Benutzer im zweiten Rahmenbereich die ganze Aufnahme jedes Objekts im zweiten Rahmenbereich grob prüfen und wenn der Benutzer genauer prüfen möchte, kann der Benutzer die Aufnahme im ersten Rahmenbereich prüfen.
  • 13 ist ein Schaubild, das ein noch weiteres Beispiel einer Anzeige eines Erkennungsergebnislistenbildschirms veranschaulicht.
  • Wie in 13 veranschaulicht, kann die Vergrößerungsrate des ersten Rahmenbereichs bei einem noch weiteren Anzeigebeispiel verringert werden und kann die Vergrößerungsrate des zweiten Rahmenbereichs erhöht werden. Bei diesem Beispiel ist die Vergrößerungsrate des ersten Rahmenbereichs 25% und die ist Vergrößerungsrate des zweiten Rahmenbereichs 50%. Gemäß einer solchen Konfiguration kann der Benutzer die Aufnahme des Objekts genau prüfen, indem die Aufnahme vergrößert im zweiten Rahmenbereich angezeigt wird, und der Benutzer kann herausfinden, an welcher Position sich das Objekt in der Gesamtbildaufnahme im ersten Rahmenbereich befindet.
  • 14 ist ein Schaubild, das ein noch weiteres Beispiel einer Anzeige eines Erkennungsergebnislistenbildschirms veranschaulicht.
  • Bei dem Beispiel von 14 sind eine Vorherige-Bildaufnahme-Schaltfläche, eine Nächste-Bildaufnahme-Schaltfläche und ein Textfeld für einen Index einer Bildaufnahme zum unteren Teil des Erkennungsergebnislistenbildschirms hinzugefügt.
  • Wenn die Vorherige-Bildaufnahme-Schaltfläche gedrückt wird, werden eine vorherige Eingabebildaufnahme I_j – 1, wobei es sich um eine Bildaufnahme vor der Eingabebildaufnahme I_j handelt, und Erkennungsergebnisse T_j – 1g (g = 1 bis NT_j – 1) angezeigt.
  • Wenn die Nächste-Bildaufnahme-Schaltfläche gedrückt wird, werden eine nächste Eingabebildaufnahme I_j + 1, wobei es sich um eine Bildaufnahme nach der Eingabebildaufnahme I_j handelt, und Erkennungsergebnisse T_j + 1g (g = 1 bis NT_j + 1) angezeigt.
  • Wenn ein ganzzahliger Wert x in das Textfeld für den Index der Bildaufnahme eingegeben wird, werden die Eingabebildaufnahme I_x und die Erkennungsergebnisse T_xg (g = 1 bis NT_x) angezeigt.
  • Demgemäß können eine weitere Eingabebildaufnahme und die Erkennungsergebnisse für die Bildaufnahme auf dem Erkennungsergebnislistenbildschirm angezeigt werden, ohne dass zum Eingabebildaufnahme-Listenbildschirm zurückgekehrt wird.
  • 15 ist ein Schaubild, das ein noch weiteres Beispiel einer Anzeige eines Erkennungsergebnislistenbildschirms veranschaulicht.
  • Die Anordnung des ersten Rahmenbereichs und des zweiten Rahmenbereichs ist ggf. keine Nebeneinanderanordnung, sondern eine vertikale Anordnung. Der erste Rahmenbereich und der zweite Rahmenbereich können auch wie in 15 veranschaulicht angeordnet sein. Bei einer solchen Anordnung können mehr Aufnahmen von Objekten angeordnet und als Teilbildaufnahmen angezeigt werden.
  • In Schritt S105 werden mehrere Datensätze, die die Aufnahme T_jg (j = 1 bis NI, g = g = 1 bis NT_j) der erkannten Objekte und die ersten Markierungen L1_jg umfassen, als Lerndaten verwendet und die Lerneinheit 22 führt ein solches Maschinenlernen oder statistisches Verarbeiten durch. Die von der Lerneinheit 22 durchgeführte Verarbeitung, die den Fall der zweiten Ausführungsform umfasst, wird später erläutert.
  • Der folgende Fall kann als Modifikation der Bildverarbeitungseinrichtung gemäß der ersten Ausführungsform angesehen werden.
    • – Mehrere Modellmuster können gehalten werden und ein Name wird jedem Modellmuster zugewiesen. Ein Name eines übereinstimmenden Modellmusters wird in der Markierung verwendet. Wenn die Markierung korrigiert wird, wird die Markierung mit der Dropdown-Liste ausgewählt.
    • – Anstatt ein Modellmuster mit mehreren Merkmalspunkten zu definieren, kann das Modellmuster als Form einer Vorlagen-Bildaufnahme definiert werden. In diesem Fall wird ein Objekt unter Verwendung einer Technik wie z. B. normalisierter Korrelation erkannt. Wenn eine Vorlagen-Bildaufnahme als Modellmuster verwendet wird, kann ein Merkmalspunkt nicht aufgetragen werden; aus diesem Grund ist es erforderlich, ein Erkennungsergebnis auszudrücken, z. B. durch Auftragen eines Rechtecks um die Aufnahme des Objekts.
    • – Die Markierung wird unter Verwendung eines Kontrollkästchens oder eines Textfelds anstatt einer Schaltfläche korrigiert. Wenn das Kontrollkästchen verwendet wird, können nur zwei Werte ausgewiesen werden. Wenn das Textfeld verwendet wird, kann eine beliebige bestimmte Zeichenfolge eingegeben werden.
    • – Die Vergrößerungsrate wird mit einem Schieber anstatt einer Dropdown-Liste verändert.
    • – Der Benutzer bestimmt die Vergrößerungsrate nicht. Stattdessen wird die Vergrößerungsrate anhand der Bildschirmgröße und der Bildaufnahmegröße automatisch ermittelt.
    • – Anstatt einen Merkmalspunkt eines Modellmusters auf einer Bildaufnahme aufzutragen, wird eine Mittelposition eines Modellmusters oder ein Rechteck, das ein Modellmuster umschließt, aufgetragen. Das Auftragen kann durch Kombinieren dieser erfolgen. Die Mittelposition und das Rechteck, das das Modellmuster umschließt, können vom Benutzer manuell definiert werden oder können automatisch festgelegt werden, wenn das Modellmuster erzeugt wird.
    • – Wenn viele Bildaufnahmen auf dem Eingabebildaufnahme-Listenbildschirm angezeigt werden, wechselt der Benutzer die anzuzeigende Aufnahme durch Wechseln der Seite, anstatt mit dem Scrollbalken zu scrollen. Beispielsweise wenn 100 Bildaufnahmen vorhanden sind, werden 9 Bildaufnahmen auf einer einzelnen Seite angezeigt und werden die Aufnahmen nach Aufteilung auf 12 Seiten angezeigt. Im zweiten Rahmenbereich des Erkennungsergebnislistenbildschirms kann das gleiche Verfahren herangezogen werden.
    • – Ein Verfahren zum Zuschneiden einer Teilbildaufnahme eines Erkennungsergebnislistenbildschirms kann wie folgt sein.
    • 1. Ein Rechteck, das ein Modellmuster umschließt, wird vorab definiert. Dieses Rechteck kann automatisch definiert werden, wenn ein Modellmuster gelehrt wird, oder kann vom Benutzer manuell definiert werden. Das Rechteck wird durch die Positionsausrichtung eines Scheitels U1 am linken Ende des Rechtecks und mit einer Breite U_W und einer Höhe U_H definiert. Die Positionsausrichtung des Scheitels U1, wie aus dem Modellmusterkoordinatensystem ersichtlich, wird mit einer homogenen Transformationsmatrix R_U1 definiert.
    • 2. Eine Positionsausrichtung R_U1' des Scheitels U1, wie aus dem Bildaufnahmekoordinatensystem ersichtlich, wird auf Basis der Position R_Tjg der Aufnahme des Objekts berechnet.
    • 3. Eine Teilbildaufnahme wird unter Verwendung der Positionsausrichtung R_U1' des Scheitels U1 im Bildaufnahmekoordinatensystem, mit der Breite U_W und der Höhe U_H zugeschnitten.
  • In diesem Fall wird die Aufnahme des Objekts auf der Teilbildaufnahme mit der gleichen Ausrichtung angezeigt. Es sei verstanden, dass eine Form, zu der eine Teilbildaufnahme zugeschnitten ist, ggf. kein Rechteck ist.
  • 16 ist ein Schaubild, das ein Beispiel einer Anzeige eines Erkennungsergebnislistenbildschirms veranschaulicht, wenn Aufnahmen von Objekten auf einer Teilbildaufnahme mit der gleichen Ausrichtung angezeigt werden.
    • – Aufnahmen von Objekten mit unterschiedlichen Größen können gleichzeitig angezeigt werden. In diesem Fall können Aufnahmen von Objekten in der gleichen Größe angezeigt werden oder können mit dem ursprünglichen Größenverhältnis angezeigt werden.
  • 17 ist ein Schaubild, das ein Beispiel einer Anzeige eines Erkennungsergebnislistenbildschirms veranschaulicht, wenn Aufnahmen von Objekten unterschiedlicher Größen gleichzeitig mit dem ursprünglichen Größenverhältnis angezeigt werden.
  • 18 ist ein Ablaufplan, der einen Ablauf der Verarbeitung einer Bildverarbeitungseinrichtung gemäß der zweiten Ausführungsform veranschaulicht.
  • Die Bildverarbeitungseinrichtung gemäß der zweiten Ausführungsform umfasst die gleiche Hardwarekonfiguration wie die Bildverarbeitungseinrichtung gemäß der ersten Ausführungsform und ein Abschnitt der Verarbeitung unterscheidet sich von jener der ersten Ausführungsform. Im Rahmen der Erläuterung bezüglich der zweiten Ausführungsform wird zunächst z. B. ein Fall erläutert, bei dem die Lerneinheit 22 ein statistisches Verarbeiten durchführt.
  • 19 ist ein Schaubild, das ein Beispiel einer Anzeige eines Erkennungsergebnislistenbildschirms veranschaulicht, der bei der zweiten Ausführungsform verwendet wird.
  • Auf dem Bildschirm von 19 sind ein erster Rahmenbereich und ein zweiter Rahmenbereich vertikal nebeneinander angeordnet. Eine SCHNAPPSCHUSS-Schaltfläche, eine SUCHEN-Schaltfläche und eine FERTIG-Schaltfläche befinden sich auf der rechten Seite des ersten Rahmenbereichs.
  • In Schritt S201 wird die gleiche Verarbeitung wie bei Schritt S101 der ersten Ausführungsform durchgeführt.
  • In Schritt S202 wird ein Objekt innerhalb eines Sichtfelds des visuellen Sensors 11 platziert und der Benutzer drückt die SCHNAPPSCHUSS-Schaltfläche, um eine Eingabebildaufnahme zu erfassen. Die Aufnahme des Objekts, das auf der Eingabebildaufnahme I_j gezeigt ist, umfasst vorzugsweise eine Abweichung, die bei der Erkennung zu einem Problem führen kann. Wenn der Benutzer nach dem Prüfen der Eingabebildaufnahme I_j ermittelt, dass die Eingabebildaufnahme I_j als Lerndaten nicht zu bevorzugen sind, kann der Benutzer die SCHNAPPSCHUSS-Schaltfläche erneut drücken, um die Eingabebildaufnahme I_j erneut zu erfassen. Die erfasste Bildaufnahme wird als Gesamtbildaufnahme im ersten Rahmenbereich angezeigt. Zu diesem Zeitpunkt wird das Objekt nicht erkannt und daher wird kein Modellmuster auf die Aufnahme des Objekts in der Gesamtbildaufnahme aufgetragen und die Teilbildaufnahme wird auch nicht angezeigt. Zu diesem Zeitpunkt kann nur der erste Rahmenbereich angezeigt werden und der zweite Rahmenbereich kann nicht angezeigt werden.
  • In Schritt S203 wird, wenn die SUCHEN-Schaltfläche gedrückt wird, ein Objekt anhand der Eingabebildaufnahme I_j erkannt. Die Verarbeitung der Erkennung kann auf die gleiche Weise wie bei Schritt S103 der ersten Ausführungsform erfolgen. In diesem Fall erfolgt eine Erkennung jedoch nicht nur anhand einer einzelnen Eingabebildaufnahme I_j.
  • In Schritt S204 werden die Aufnahmen T_jg (g = 1 bis NT_j) der Objekte, die anhand der Eingabebildaufnahme I_j erkannt werden, aufgelistet und auf einem Erkennungsergebnislistenbildschirm angezeigt.
  • 20 ist ein Schaubild, das ein Beispiel einer Anzeige eines in Schritt S204 angezeigten Erkennungsergebnislistenbildschirms veranschaulicht.
  • Die Gesamtbildaufnahme und die Teilbildaufnahme können auf die gleiche Weise wie bei der ersten Ausführungsform angezeigt werden. Auf der rechten Seite des ersten Rahmenbereichs sind die SCHNAPPSCHUSS-Schaltfläche und die SUCHEN-Schaltfläche ausgeblendet und eine HINZUFÜGEN-Schaltfläche und eine VERWERFEN-Schaltfläche sind hinzugefügt. Der Benutzer prüft die Gesamtbildaufnahme und die Teilbildaufnahme, die auf dem Erkennungsergebnislistenbildschirm angezeigt werden und der Benutzer prüft, wie bei der ersten Ausführungsform, ob bezüglich des Erkennungsergebnisses ein Problem vorliegt.
  • Wie auf dem Erkennungsergebnislistenbildschirm der ersten Ausführungsform ist es in Schritt S204 des Weiteren möglich, die erste Markierung zu korrigieren.
  • 21 ist ein Schaubild, das ein Beispiel einer Anzeige eines Erkennungsergebnislistenbildschirms veranschaulicht, wenn eine erste Markierung korrigiert wird.
  • In diesem Fall prüft der Benutzer die Aufnahme des Objekts, das mit „OK versehen ist, und wenn der Benutzer ermittelt, dass es sich nicht um das Objekt handelt, ändert der Benutzer die erste Markierung auf „NG” und die korrigierte Markierung wird gespeichert. Des Weiteren prüft der Benutzer die Aufnahme des Objekts, das mit „NG” versehen ist, und wenn der Benutzer ermittelt, dass es sich um das zu erkennende Objekt handelt, ändert der Benutzer die erste Markierung auf „OK und die korrigierte Markierung wird gespeichert.
  • In Schritt S205 ermittelt der Benutzer, ob die Aufnahmen T_jg (g = 1 bis NT_j) der Objekte zu den Lerndaten hinzuzufügen sind, und wenn ermittelt wird, dass die Aufnahmen T_jg (g = 1 bis NT_j) der Objekte zu den Lerndaten hinzuzufügen sind, drückt der Benutzer die HINZUFÜGEN-Schaltfläche, um die Aufnahmen T_jg (g = 1 bis NT_j) und die ersten Markierungen L1_jg (g = 1 bis NT_j) der Objekte mit der Eingabebildaufnahme I_j zu assoziieren, und fügt diese zu den Lerndaten hinzu. Wenn ermittelt wird, dass die Aufnahmen T_jg (g = 1 bis NT_j) der Objekte nicht zu den Lerndaten hinzuzufügen sind, drückt der Benutzer auf die VERWERFEN-Schaltfläche, um die Eingabebildaufnahme I_j und die Aufnahmen T_jg und die ersten Markierungen L1_jg der Objekte zu verwerfen. Wenn der Benutzer die HINZUFÜGEN-Schaltfläche und die VERWERFEN-Schaltfläche drückt, wird mit der Verarbeitung jeweils erneut mit Schritt S202 begonnen.
  • Wenn ausreichend Lerndaten hinzugefügt wurden, drückt der Benutzer die FERTIG-Schaltfläche und die Verarbeitung geht zu Schritt S206 über.
  • In diesem Fall kann vor S206 ein Schritt, bei dem der Eingabebildaufnahme-Listenbildschirm und der Erkennungsergebnislistenbildschirm verwendet werden, um die ersten Markierungen L1_jg (j = 1 bis NI, g = 1 bis NT_j) der Aufnahmen T_jg (j = 1 bis NI, g = 1 bis NT_j) der Objekte, die allen Eingabebildaufnahmen I_j (j = 1 bis NI) entsprechen, die zu den Lerndaten hinzugefügt wurden, geprüft und korrigiert werden, genau wie Schritt S104 der ersten Ausführungsform, hinzugefügt werden.
  • Auf Basis der gesammelten Lerndaten werden in Schritt S206 genau wie in Schritt S105 der ersten Ausführungsform mehrere Datensätze, die die Aufnahmen T_jg (j = 1 bis NI, g = 1 bis NT_j) und die ersten Markierungen L1_jg (j = 1 bis NI, g = 1 bis NT_j) der Objekte umfassen, als Lerndaten verwendet und die Lerneinheit 22 führt das statistische Verarbeiten durch.
  • Im Folgenden wird die statistische Verarbeitung, die von der Lerneinheit 22 gemäß der ersten und der zweiten Ausführungsform durchgeführt wird, erläutert.
  • Die Lerneinheit 22 führt ein Lernen durch, so dass die Aufnahmen T_jg (j = 1 bis NI, g = 1 bis NT_j) der Objekte korrekt als Objekte ermittelt werden, die dem Modellmuster entsprechen. Anders ausgedrückt führt die Lerneinheit 22 ein Lernen durch, so dass korrekt ermittelt werden kann, ob eine Aufnahme eines Objekts umfasst ist, wenn eine Teilbildaufnahme eingegeben wird, die als eine Aufnahme eines Objekts umfassend angesehen wird. Üblicherweise erkennt die Objekterkennungseinheit 21 ein Objekt anhand der Eingabebildaufnahme, so dass eine gewisse Genauigkeitshöhe erreicht wird, durch das Lernen der Lerneinheit 22 wird die Genauigkeit der Erkennung jedoch noch weiter verbessert. In diesem Fall führt die Objekterkennungseinheit 21 eine Erkennung durch, und eine Teilbildaufnahme, die als für eine Verwendung als Lernziel geeignet angesehen wird und die eine Aufnahme eines Objekts umfasst, dessen erste Markierung „OK” ist, wird in der Lerndatenspeichereinheit 32 gespeichert. Wenn die Betriebsverarbeitungsleistung der Lerneinheit 22 ausreichend hoch ist, kann eine Eingabebildaufnahme anstatt einer Teilbildaufnahme zum Erkennen von Objekten eingegeben werden. Die Lerneinheit 22 führt eine statistische Verarbeitung an mehreren Teilbildaufnahmen durch, die in der Lerndatenspeichereinheit 32 gespeichert sind, um das Modellmuster zu verbessern.
  • Der Anmelder der vorliegenden Anmeldung hat eine Technik zum Verbessern des Modellmusters durch Durchführen einer statistischen Verarbeitung an mehreren Aufnahmen von Objekten offenbart, die auf Basis eines Modellmusters aus der japanischen Patentanmeldung Nr. 2015-218357 erkannt werden, und beispielsweise kann die Lerneinheit 22 mit einer Technik unter Verwendung einer statistischen Verarbeitung umgesetzt werden, die in der japanischen Patentanmeldung Nr. 2015-218357 offenbart ist. Die von der Lerneinheit 22 durchgeführte statistische Verarbeitung ist jedoch nicht darauf beschränkt.
  • Die erste und die zweite Ausführungsform, bei denen die Lerneinheit 22 eine statistische Verarbeitung durchführt, wurden hier vorstehend erläutert. Nachstehend wird der Fall erläutert, dass die Lerneinheit 22 ein Maschinenlernen (überwachtes Lernen) durchführt.
  • Die Lerneinheit 22 führt ein Maschinenlernen durch, um die Wahrscheinlichkeit, dass die Objekterkennungseinheit 21 ein Objekt erkennt, zu verbessern. In diesem Fall bedeutet eine korrekte Erkennung, dass ein Objekt, bei dem es sich tatsächlich um ein Objekt handelt, korrekt als Objekt ermittelt wird, ein Objekt, bei dem es sich nicht um ein Objekt handelt, korrekt als kein Objekt ermittelt wird, und ein Erkennungsfehler, bei dem ein Objekt nicht erkannt wird, obwohl es sich um ein Objekt handelt, nicht auftritt, und eine Fehlerkennung, bei der ein Objekt, bei dem es sich tatsächlich um kein Objekt handelt, als Objekt ermittelt wird, nicht auftritt. Um ein solches Lernen durchzuführen, wird bevorzugt, dass Teilbildaufnahmen („OK”, „OK”), die von der Bildverarbeitungseinrichtung 10 als Aufnahmen von Objekten auf einer Eingabebildaufnahme ermittelt wurden und in Bezug auf welche der Benutzer geprüft hat, dass die Ermittlung korrekt ist, Teilbildaufnahmen („OK, „NG”), die von der Bildverarbeitungseinrichtung 10 als Aufnahmen von Objekten auf einer Eingabebildaufnahme ermittelt wurden, in Bezug auf welche der Benutzer jedoch geprüft hat, dass die Ermittlung inkorrekt ist, Teilbildaufnahmen („NG”, „OK”), die von der Bildverarbeitungseinrichtung 10 als keine Aufnahmen von Objekten auf Eingabebildaufnahme ermittelt wurden, in Bezug auf welche der Benutzer jedoch geprüft hat, dass die Ermittlung inkorrekt ist, und Teilbildaufnahmen („NG”, „NG”), die von der Bildverarbeitungseinrichtung 10 als keine Aufnahmen von Objekten auf einer Eingabebildaufnahme ermittelt werden und in Bezug auf welche der Benutzer geprüft hat, dass die Ermittlung korrekt ist, ähnliche Verhältnis aufweisen, was Lerndaten betrifft, um das Lernen effizient durchzuführen. Aus diesem Grund wird bei der ersten und der zweiten Ausführungsform, bei denen eine Lerneinheit 22 die statistische Verarbeitung durchführt, eine Teilbildaufnahme mit einem Verlauf, bei dem eine erste Markierung von „NG” auf „OK” geändert wurde, und eine Teilbildaufnahme mit einem Verlauf, bei dem eine erste Markierung von „OK” auf „NG” geändert wurde, mit jedem Verlauf assoziiert und in der Lerndatenspeichereinheit 32 gespeichert. Es handelt sich bei diesen um die Teilbildaufnahme („NG”, „OK) und die Teilbildaufnahme („OK, „NG”). Des Weiteren wählt der Benutzer Teilbildaufnahmen, die sich als Lerndaten eignen, aus den Teilbildaufnahmen („OK, „OK”) aus, die als Aufnahmen von Objekten auf einer Eingabebildaufnahme ermittelt wurden und in Bezug auf welche die Ermittlung aufrechterhalten wird, und aus den Teilbildaufnahmen („NG”, „NG”), die als keine Aufnahmen von Objekten auf einer Eingabebildaufnahme ermittelt wurden und in Bezug auf welche die Ermittlung aufrechterhalten wird, aus und speichert sie als Teilbildaufnahme („OK, „OK) und Teilbildaufnahme („NG”, „NG”) in der Lerndatenspeichereinheit 32. Die Ausführungsform ist jedoch nicht darauf beschränkt und Teilbildaufnahmen können willkürlich gesammelt und als Lerndaten verwendet werden. Die Teilbildaufnahmen von „NG”, „NG” können als Lerndaten verwendet werden.
  • Die Lerneinheit 22 hat eine Funktion zum Extrahieren nützlicher Regeln, wissenswerter Gleichungen, Ermittlungsreferenzen und dergleichen, die in einem Satz von Eingabedaten vorhanden sind, durch Analyse, zum Ausgeben eines Ermittlungsergebnisses dieser und zum Durchführen eines Lernens (Maschinenlernen) von Wissen. Für das Maschinenlernen gibt es diverse Techniken, die Techniken können jedoch grob gesagt in z. B. „überwachtes Lernen”, „nichtüberwachtes Lernen” und „Verstärkungslernen” eingeteilt werden, in diesem Fall wird jedoch „überwachtes Lernen” herangezogen. Um diese Techniken umzusetzen, gibt es des Weiteren eine Technik, die „tiefes Lernen” genannt wird, um das Extrahieren eines Merkmalswert selbst zu lernen. Für ein solches Maschinenlernen (Maschinenlernvorrichtung 20) kann ein Universalrechner oder ein Prozessor verwendet werden, bei einer GPGPU (allgemeine Berechnung auf Graphikverarbeitungseinheiten) jedoch kann ein großskalierter PC-Cluster und dergleichen verwendet werden, so dass die Verarbeitung mit höherer Geschwindigkeit durchgeführt werden kann.
  • Beim überwachten Lernen werden viele Sätze von Daten in die Lerneinheit 22 eingegeben, die beliebige bestimmte Eingaben und ein Ergebnis (Markierung) umfassen, so dass Merkmale in den Datensätzen gelernt werden, und ein Modell zum Schätzen eines Ergebnisses anhand einer Eingabe, d. h. eine Beziehung dieser, wird rekursiv erhalten. Wenn dieses überwachte Lernen auf die Ausführungsform angewandt wird, kann die Lerneinheit 22 z. B. unter Verwendung eines Algorithmus wie z. B. eines neuronalen Netzes umgesetzt werden.
  • Ein neuronales Netz kann beim überwachten Lernen als Approximationsalgorithmus einer Wertfunktion verwendet werden. 22 ist ein Schaubild, das ein Modell eines Neurons schematisch veranschaulicht, und 23 ist ein Schaubild, das ein dreischichtiges neuronales Netz schematisch veranschaulicht, das durch Kombinieren von Neuronen konfiguriert wird, wie in 22 veranschaulicht. Mehr im Detail wird das neuronale Netz durch z. B. eine arithmetische Vorrichtung und einen Speicher gebildet, die ein Neuronenmodell simulieren, wie in 22 veranschaulicht.
  • Wie in 22 veranschaulicht, gibt ein Neuron eine Ausgabe (Ergebnis) y gemäß mehreren Eingaben x aus (z. B. eine Eingabe x1 bis eine Eingabe x3 in 22). Die Eingaben x (x1, x2, x3) werden jeweils mit Gewichten w (w1, w2, w3) multipliziert, die den Eingaben x entsprechen. Demgemäß gibt das Neuron das Ergebnis y aus, das durch die folgende Gleichung ausgedrückt wird. Es sei angemerkt, dass es sich bei den Eingaben x, dem Ergebnis y und den Gewichten w jeweils um Vektoren handelt. In der folgenden Gleichung bezeichnet θ eine systematische Abweichung und bezeichnet fk eine Aktivierungsfunktion. y = fk(Σ n / i=1xiwi – θ)
  • Das dreischichtige neuronale Netz, das durch Kombinieren der Neuronen gebildet wird, wie in 22 gezeigt, wird unter Bezugnahme auf 23 erläutert. Wie in 23 veranschaulicht, werden mehrere Eingaben x (in diesem Fall z. B. die Eingabe x1 bis Eingabe x3) von der linken Seite des neuronalen Netzes eingegeben und die Ergebnisse y (in diesem Fall z. B. das Ergebnis y1 bis Eingabe y3) von der rechten Seite ausgegeben. Mehr im Detail werden die Eingaben x1, x2 und x3 in drei Neuronen N11 bis N13 eingegeben, nachdem sie jeweils mit entsprechenden Gewichten für die Neuronen N11 bis N13 multipliziert wurden. Die Gewichte, mit denen die Eingaben multipliziert werden, werden gesammelt als w1 bezeichnet.
  • Die Neuronen N11 bis N13 geben jeweils z11 bis z13 aus. In 23 werden z11 bis z13 gesammelt als Merkmalsvektor z1 bezeichnet und können als Vektor angesehen werden, der durch Extrahieren des Merkmalswerts des Eingabevektors erhalten wird. Dieser Merkmalsvektor z1 ist ein Merkmalsvektor zwischen dem Gewicht w1 und dem Gewicht w2. z11 bis z13 werden in zwei Neuronen N21 und N22 eingegeben, nachdem sie jeweils mit entsprechenden Gewichten für die Neuronen N21 und N22 multipliziert wurden. Die Gewichte, mit denen die Merkmalsvektoren multipliziert werden, werden gesammelt als w2 bezeichnet.
  • Die Neuronen N21 und N22 geben z21 bzw. z22 aus. In 23 werden diese z21 und z22 gesammelt als Merkmalsvektor z2 bezeichnet. Dieser Merkmalsvektor z2 ist ein Merkmalsvektor zwischen dem Gewicht w2 und Gewicht w3. z21 und z22 werden in drei Neuronen N31 bis N33 eingegeben, nachdem sie jeweils mit entsprechenden Gewichten für die Neuronen N31 bis N33 multipliziert wurden. Die Gewichte, mit denen die Merkmalsvektoren multipliziert werden, werden gesammelt als w3 bezeichnet.
  • Schließlich geben die Neuronen N31 bis N33 jeweils Ergebnis y1 bis Ergebnis y3 aus. Betriebe des neuronalen Netzes umfassen einen Lernmodus und einen Wertprognosemodus. Beim Lernmodus beispielsweise wird das Gewicht W unter Verwendung des Lerndatensatzes gelernt und unter Verwendung des Parameters wird eine Verhaltensbestimmung eines Roboters im Prognosemodus durchgeführt. Der Einfachheit halber wird er als Prognose beschrieben, es wird jedoch verstanden, dass diverse Aufgaben, z. B. Erkennung, Klassifizierung und Interferenz, durchgeführt werden können.
  • In diesem Fall können Daten, die durch tatsächliches Betreiben des Roboters im Prognosemodus erhalten werden, unmittelbar gelernt und in einem darauffolgenden Verhalten widergespiegelt werden (Online-Lernen), und es kann ein gesammeltes Lernen unter Verwendung einer Datengruppe, die vorab gesammelt wurde, durchgeführt werden und danach kann der Erkennungsmodus mit dem gleichen Parameter kontinuierlich ausgeführt werden (bündelweises Lernen). Alternativ kann der Lernmodus zwischenzeitlich jedes Mal, wenn eine gewisse Datenmenge angehäuft wurde, zwischengeschaltet werden.
  • Die Gewichte w1 bis w3 können durch Rückpropagierung gelernt werden. Es sei verstanden, dass Informationen zu einem Fehler auf der rechten Seite eintreten und zur linken Seite fließen. Die Rückpropagierung ist eine Technik zum Anpassen (Lernen) eines Gewichts für jedes Neuron, so dass ein Unterschied zwischen der Ausgabe y und der tatsächlichen Ausgabe y (Supervisor) verringert wird, wenn die Eingabe x eingegeben wird.
  • Bei einem solchen neuronalen Netz kann die Anzahl von Schichten auf drei oder mehr Schichten erhöht werden (tiefes Lernen genannt). Eine arithmetische Vorrichtung, die eine Merkmalsextraktion von Eingaben schrittweise durchführt und ein Ergebnis rekursiv ableitet, kann nur anhand der Supervisor-Daten automatisch erhalten werden.
  • 24 ist ein Schaubild, das eine schematische Konfiguration der Lerneinheit 22 gemäß der ersten und der zweiten Ausführungsform veranschaulicht.
  • Die Lerneinheit 22 umfasst eine Statusquantitätsbeobachtungseinheit 61, ein neuronales Netz 62 und eine Steuereinheit 63 zum Aktualisieren eines neuronalen Netzes (NN). Wie oben beschrieben, wird die Lerneinheit 22 z. B. unter Verwendung von GPGPU (allgemeine Berechnung auf Graphikverarbeitungseinheiten) umgesetzt.
  • Die Statusquantitätsbeobachtungseinheit 61 empfängt einen Datensatz, der eine Teilbildaufnahme und erste Markierungen von Aufnahmen von darauf umfassten Objekten umfasst, von der Lerndatenspeichereinheit 32. Die Lerndatenspeichereinheit 32 speichert eine äußerst große Anzahl von Datensätzen und sendet die Datensätze in der jeweiligen Reihenfolge an die Statusquantitätsbeobachtungseinheit 61.
  • Das neuronale Netz 62 ist ein neuronales Netz zum Durchführen eines tiefen Lernens und berechnet ein Erkennungsergebnis („OK”, „NG”) in Reaktion auf eine Teilbildaufnahme, die von der Statusquantitätsbeobachtungseinheit 61 bereitgestellt wird. Im neuronalen Netz 62 kann das Gewicht für jedes Neuron von der NN-Aktualisierungssteuereinheit 63 angepasst (gelernt) werden.
  • Die NN-Aktualisierungssteuereinheit 63 vergleicht ein Erkennungsergebnis („OK”, „NG”), das vom neuronalen Netz 62 gemäß der Teilbildaufnahme, die von der Statusquantitätsbeobachtungseinheit 61 bereitgestellt wird, und der ersten Markierung (Supervisor-Daten) der Teilbildaufnahme berechnet wurde, und führt eine Aktualisierungssteuerung zum Ändern des Gewichts für jedes Neuron des neuronalen Netzes 62 durch, um die Wahrscheinlichkeit zu erhöhen, dass das Vergleichsergebnis übereinstimmt.
  • Es sei angemerkt, dass die von der Lerneinheit 22 verarbeiteten Inhalte nicht auf die obigen Inhalte beschränkt sind. Im Allgemeinen wird beim überwachten Maschinenlernen eine Funktion des Zuordnens einer Eingabe zu einer Ausgabe (Markierung), die dieser entspricht, gelernt. Die erste und die zweite Ausführungsform offenbaren eine Einheit zum Eingeben einer Eingabebildaufnahme und einer Aufnahme eines erkannten Objekts und schnellen Korrigieren einer Markierung, die eine Ausgabe dieser davon ist. Das Verfahren zum Lernen einer Funktion zum Zuordnen anhand der Eingabe und der Ausgabe kann ein beliebiges Verfahren sein.
  • Die Ausführungsformen wurden zwar hier vorstehend erläutert, der Erkennungsergebnislistenbildschirm hat jedoch die folgenden Merkmale.
    • – Der Erkennungsergebnislistenbildschirm wird durch zwei Rahmenbereiche gebildet, die einen ersten (oberen) Rahmenbereich und einen zweiten (unteren) Rahmenbereich umfassen.
    • – Eine Teilbildaufnahme, die durch Zuschneiden einer Aufnahme eines jeweils erkannten Objekts erhalten wird, wird im zweiten Rahmenbereich angezeigt.
    • – Eine Aufnahme eines Objekts wird auf der Gesamtbildaufnahme im ersten Rahmenbereich angezeigt. Die Anordnung der Rahmenbereiche unterliegt jedoch keinen besonderen Beschränkungen und die Rahmenbereiche können entweder vertikal oder horizontal oder in einer beliebigen anderen Anordnung angeordnet werden.
    • – Die Anzeigevergrößerungsrate jedes Rahmenbereichs kann unabhängig geändert werden.
    • – Wenn eine Aufnahme eines Objekts im zweiten Rahmenbereich ausgewählt wird, wird eine Aufnahme eines entsprechenden Objekts im oberen Rahmenbereich hervorgehoben.
    • – Des Weiteren kann, wenn nur ein Abschnitt einer Bildaufnahme im ersten Rahmenbereich angezeigt wird, die Gesamtbildaufnahme gescrollt werden, so dass die Aufnahme des ausgewählten Objekts angezeigt wird.
    • – Wenn die Aufnahme des Objekts im ersten Rahmenbereich ausgewählt wird, wird die Aufnahme des entsprechenden Objekts im zweiten Rahmenbereich ausgewählt.
    • – Im zweiten Rahmenbereich können Markierungen (OK/NG und dergleichen) von Erkennungsergebnissen und Ergebnisse bezüglich der Ermittlung der Korrektheit und Inkorrektheit korrigiert werden.
  • Der obige Anzeigebildschirm ist mit den folgenden Vorteilen verbunden.
    • – Im zweiten Rahmenbereich kann der Benutzer eine Prüfung durchführen, wobei er sich auf eine Aufnahme eines Objekts konzentriert, die ein Ziel ist, ohne von Aufnahmen anderer Objekte auf der gleichen Bildaufnahme gestört zu werden.
    • – Wenn die Markierung des erkannten Objekts geändert wird, kann der Benutzer eine Aufnahme eines Objekts, zu dem eine Schaltfläche, ein Textfeld und dergleichen gehört, auf einfache Weise identifizieren.
    • – Der Benutzer kann auf einfache Weise herausfinden, in welcher Position auf der Bildaufnahme sich jede Aufnahme des erkannten Objekts befindet.
    • – Im ersten Rahmenbereich wird eine Aufnahme eines Objekts auf der Gesamtbildaufnahme vergrößert angezeigt und im zweiten Rahmenbereich werden Aufnahmen von Objekten verkleinert angezeigt, so dass der Benutzer im ersten Rahmenbereich eine Aufnahme eines Objekts ausführlich prüfen kann und der Benutzer jedes der ganzen Objekte auf der zweiten Aufnahme grob prüfen kann.
    • – Im Gegensatz dazu kann im zweiten Rahmenbereich eine Aufnahme jedes Objekts vergrößert angezeigt werden und kann die Gesamtbildaufnahme im ersten Rahmenbereich verkleinert angezeigt werden, so dass der Benutzer im zweiten Rahmenbereich eine Aufnahme eines Objekts ausführlich prüfen kann und der erste Rahmenbereich zeigen kann, an welcher Position auf der Gesamtbildaufnahme eine Aufnahme des Objekts befindet.
  • Des Weiteren möchte der Benutzer ggf. Erkennungsergebnisse und Ermittlungsergebnisse für mehrere Bildaufnahmen prüfen. Beispielsweise umfasst dies die folgenden Fälle.
    • – Der Benutzer möchte ggf. prüfen, ob eine inkorrekte Erkennung in Bezug auf erfasste Bildaufnahmen während der Produktion vorliegt.
    • – Der Benutzer möchte ggf. eine Erkennung an mehreren Bildaufnahmen durchführen, nachdem ein Erkennungsparameter geändert wurde, und der Benutzer möchte ggf. ermitteln, ob eine Erkennung an allen Bildaufnahmen korrekt durchgeführt wurde.
    • – Wenn ein vorhandenes Ergebnis bezüglich der Ermittlung der Korrektheit und Inkorrektheit als Lerndaten verwendet wird, um ein Maschinenlernen eines Parameters zum Durchführen einer Ermittlung im Rahmen einer Ermittlung der Korrektheit und Inkorrektheit durchzuführen, möchte der Benutzer ggf. prüfen, ob das vorhandene Ergebnis bezüglich der Ermittlung der Korrektheit und Inkorrektheit korrekt ist, und wenn es inkorrekt ist, korrigiert der Benutzer ein Ermittlungsergebnis (Markierung).
  • Wenn der Benutzer Erkennungsergebnisse für mehrere Bildaufnahmen wie oben beschrieben prüft, ist es effektiv, ein Verfahren zu verwenden, bei dem verkleinerte Bildaufnahmen mehrerer Bildaufnahmen auf einem Eingabebildaufnahme-Listenbildschirm angeordnet und angezeigt werden, Erkennungsergebnisse auf die Bildaufnahmen aufgetragen werden, und wenn der Benutzer genauer prüft, wählt der Benutzer eine Bildaufnahme aus, um zu einem Eingabebildaufnahme-Listenbildschirm überzugehen, auf dem der Benutzer ein Erkennungsergebnis für jede Bildaufnahme, wie oben erläutert, prüft.
  • Des Weiteren sind eine Konfiguration, die in den Ansprüchen beschrieben ist, und eine Wirkung davon wie folgt.
  • Eine Bildverarbeitungseinrichtung gemäß der Erfindung umfasst eine Objekterkennungseinheit zum Erkennen einer oder mehrerer Aufnahmen von Objekt anhand einer Eingabebildaufnahme, auf der die Objekte erfasst wurden, auf Basis eines Modellmusters des Objekts und eine Erkennungsergebnisanzeigeeinheit zum graphischen Überlagern und Anzeigen eines Erkennungsergebnisses zu jeder auf diese Weise erkannten Aufnahme. Die Erkennungsergebnisanzeigeeinheit umfasst einen ersten Rahmenbereich zum Anzeigen der ganzen Eingabebildaufnahme und einen zweiten Rahmenbereich zum Auflisten und Anzeigen einer oder mehrerer Teilbildaufnahmen, die jeweils eine anhand der Eingabebildaufnahme erkannte Aufnahme umfassen. Auf der Eingabebildaufnahme, die im ersten Rahmenbereich gezeigt wird, wird ein Erkennungsergebnis überlagert und auf allen erkannten Aufnahmen angezeigt, und auf der Teilbildaufnahme, die im zweiten Rahmenbereich angezeigt wird, wird das Erkennungsergebnis einer Aufnahme, die jeder Teilbildaufnahme entspricht, überlagert und angezeigt.
  • Gemäß dieser Konfiguration können im ersten Rahmenbereich die folgenden Punkte auf der Gesamtbildaufnahme geprüft werden.
    • – Wo und wie die Aufnahme des Objekts gezeigt ist.
    • – Wie viele Aufnahmen von Objekten gezeigt sind.
    • – Ob Aufnahmen mehrerer Objekte anhand des gleichen Abschnitts erkannt wurden.
  • Im zweiten Rahmen kann der Benutzer eine Prüfung durchführen, wobei er sich auf eine Aufnahme eines Objekts konzentriert, die ein Ziel ist, ohne von Aufnahmen anderer Objekte auf der gleichen Bildaufnahme gestört zu werden.
  • Der erste Rahmenbereich und der zweite Rahmenbereich werden gleichzeitig im gleichen Fenster angezeigt, so dass die Aufnahme des Objekts geprüft werden kann, während gleichzeitig die obigen Vorteile genutzt werden. Demgemäß können die Aufnahmen mehrerer Objekte, die auf der Bildaufnahme gezeigt sind, in kurzer Zeit geprüft werden.
  • Wie in der internationalen Veröffentlichung Nr. 2001/041068 beschrieben, kann ein Verfahren zum Anzeigen einer Gesamtbildaufnahme im ersten Rahmenbereich und zum Anzeigen eines Erkennungsergebnisses in einem Tabellenformat im zweiten Rahmenbereich berücksichtigt werden. Bei diesem Verfahren ist es jedoch schwierig, eine Beziehung zwischen einer Zeile einer Tabelle, die ein Erkennungsergebnis ausdrückt, und einer Aufnahme eines Objekts auf der Bildaufnahme zu erkennen. Beim Prüfen eines Erkennungsergebnisses unter Verwendung von Zeichen im Tabellenformat hingegen ermöglicht das Verfahren des Sehens der Teilbildaufnahme dem Benutzer eine intuitivere Prüfung der Aufnahme des Objekts.
  • Die Erkennungsergebnisanzeigeeinheit überlagert ferner erste Markierungsinformationen, die in Assoziation mit einer Aufnahme gespeichert sind, entsprechend jeder Teilbildaufnahme, auf der im zweiten Rahmenbereich angezeigten Teilbildaufnahme und zeigt diese dort an und ermöglicht einem Benutzer das Ändern der ersten Markierungsinformationen auf Basis eines vom Benutzer durchgeführten Betriebs.
  • Wenn eine Einheit zum Betreiben einer Markierung auf der Teilbildaufnahme im zweiten Rahmenbereich bereitgestellt ist, gestaltet sich das Erkennen einer Beziehung zwischen der Aufnahme des Objekts und der Betriebseinheit für die Markierung einfacher. Die Markierungen können korrigiert werden, ohne dass ein Betrieb des Auswählens eines Objekts durchgeführt wird. Bei dem in der internationalen Veröffentlichung 2001/041068 beschriebenen Verfahren ist es z. B. erforderlich, eine Markierung nach Auswahl eines Objekts zu korrigieren. Es gibt noch ein anderes Verfahren, das das Hervorheben einer Aufnahme eines Objekts, die einem Erkennungsergebnis entspricht, wenn ein Erkennungsergebnis in einem Tabellenformat angezeigt wird und eine Zeile der Tabelle ausgewählt wird, auf einer Gesamtbildaufnahme und das Bereitstellen einer Einheit zum Korrigieren einer Markierung in einer Zeile der Tabelle umfasst. Bei diesem Verfahren ist es jedoch erforderlich, eine Zeile einer Tabelle auszuwählen, um eine Bildaufnahme zu prüfen. Es gibt ein noch weiteres Verfahren zum Bereitstellen einer Einheit zum Betreiben einer Markierung auf einer Gesamtbildaufnahme in einem ersten Rahmenbereich, bei diesem Verfahren ist es jedoch schwierig, eine Entsprechungsbeziehung zwischen der Betriebseinheit und der Aufnahme des Objekts zu finden, wenn Aufnahmen von Objekten einander überlappen oder nebeneinanderliegen.
  • Die Erkennungsergebnisanzeigeeinheit zeigt Bildaufnahmen im ersten Rahmenbereich und im zweiten Rahmenbereich mit einer Einstellungsvergrößerungsrate für jede dieser an.
  • Zunächst kann die ganze Aufnahme eines Objekts so konfiguriert sein, dass sie im ersten Rahmenbereich vergrößert und auf einer Gesamtbildaufnahme angezeigt wird, und Aufnahmen von Objekten können so konfiguriert sein, dass sie im zweiten Rahmenbereich verkleinert und angezeigt werden. In diesem Fall kann der Benutzer die Aufnahme des Objekts genau prüfen, indem die Aufnahme vergrößert im ersten Rahmenbereich angezeigt wird, und der Benutzer kann die ganze Aufnahme jedes Objekts im zweiten Rahmenbereich grob prüfen. Danach kann eine Aufnahme jedes Objekts so konfiguriert sein, dass sie im zweiten Rahmenbereich vergrößert angezeigt wird, und Aufnahmen aller Objekte können so konfiguriert sein, dass sie im ersten Rahmenbereich verkleinert angezeigt werden. In diesem Fall kann der Benutzer im zweiten Rahmen eine Aufnahme eines Objekts durch Vergrößern und Anzeigen der Aufnahme des Objekts genau prüfen. Auf der ersten Aufnahme kann der Benutzer herausfinden, an welcher Position in der Gesamtbildaufnahme sich das Objekt befindet. Wie oben beschrieben, prüft der Benutzer die Aufnahme des Objekts gleichzeitig mit unterschiedlichen Vergrößerungsraten für das gleiche Objekt, so dass der Benutzer die Aufnahme des Objekts schneller prüfen kann.
  • Die Erkennungsergebnisanzeigeeinheit umfasst eine Teilbildaufnahme-Auswahleinheit zum Auswählen einer einer Mehrzahl der Teilbildaufnahmen, die im zweiten Rahmenbereich angezeigt werden, und auf der im ersten Rahmenbereich angezeigten Eingabebildaufnahme wird ein Erkennungsergebnis einer Aufnahme eines Objekts, entsprechend einer Teilbildaufnahme, die von der Teilbildaufnahme-Auswahleinheit (51) ausgewählt wird, hervorgehoben angezeigt.
  • Gemäß dieser Konfiguration kann der Benutzer eine Entsprechungsbeziehung zwischen einer Aufnahme eines Objekts, die auf der Gesamtbildaufnahme im ersten Rahmenbereich angezeigt wird, und einer Aufnahme eines Objekts, die auf der Teilbildaufnahme im zweiten Rahmenbereich angezeigt wird, auf einfache Weise prüfen.
  • Die Erkennungsergebnisanzeigeeinheit überlagert die ersten Markierungsinformationen, die jeder der einen oder mehreren Aufnahmen entsprechen, die anhand der Eingabebildaufnahme erkannt werden, auf der im ersten Rahmenbereich angezeigten Eingabebildaufnahme.
  • Gemäß dieser Konfiguration kann der Benutzer Informationen zur Markierung sogar auf der Gesamtbildaufnahme im ersten Rahmenbereich prüfen. Dies ist nützlich, wenn sich das Prüfen der Aufnahme des Objekts mit nur der Teilbildaufnahme schwierig gestaltet. Beispielsweise wenn die Aufnahme des Objekts einen Abschnitt eines Elements zeigt, kann es schwierig sein, die Positionsbeziehung der Aufnahme des Objekts hinsichtlich des ganzen Elements zu prüfen. In einem solchen Fall kann der Benutzer die Aufnahme des Objekts durch Anzeigen von Markierungsinformationen auf der Gesamtbildaufnahme im ersten Rahmenbereich auf einfache Weise prüfen.
  • Die Bildverarbeitungseinrichtung umfasst eine Erkennungsergebnisspeichereinheit, die eine Mehrzahl von Eingabebildaufnahmen mit Erkennungsergebnissen einer oder mehrerer Aufnahmen der Objekte umfasst, die anhand jeder der Mehrzahl von Eingabebildaufnahmen erkannt werden, assoziiert und diese speichert, und eine Eingabebildaufnahme-Auswahleinheit zum Auswählen einer der Mehrzahl von Eingabebildaufnahmen, und die Erkennungsergebnisanzeigeeinheit zeigt die eine der Eingabebildaufnahmen, die von der Eingabebildaufnahme-Auswahleinheit ausgewählt wird, und ein Erkennungsergebnis, das in der Erkennungsergebnisspeichereinheit in Assoziation mit der einen der Eingabebildaufnahmen gespeichert ist, an.
  • Gemäß dieser Konfiguration kann der Benutzer mehrere Bildaufnahmen in der Erkennungsergebnisanzeigeeinheit prüfen, ohne zwischen der Eingabebildaufnahme-Anzeigeeinheit und der Erkennungsergebnisanzeigeeinheit hin- und herzuwechseln. Beispielsweise wird eine Nächste-Bildaufnahme-Schaltfläche als Eingabebildaufnahme-Auswahleinheit in der Erkennungsergebnisanzeigeeinheit bereitgestellt, so dass der Benutzer Bildaufnahmen in der Erkennungsergebnisanzeigeeinheit sukzessive ändern kann.
  • Die Bildverarbeitungseinrichtung umfasst eine Eingabebildaufnahme-Anzeigeeinheit, die die Mehrzahl von in der Erkennungsergebnisspeichereinheit gespeicherten Eingabebildaufnahmen nach Überlagerung einer oder mehrerer Aufnahmen und Erkennungsergebnisse der anhand der Eingabebildaufnahmen erkannten Objekte auflistet und anzeigt. Die Erkennungsergebnisanzeigeeinheit zeigt die von der Eingabebildaufnahme-Auswahleinheit ausgewählte Eingabebildaufnahme an und ermöglicht das Wechseln zwischen der Eingabebildaufnahme-Anzeigeeinheit und der Erkennungsergebnisanzeigeeinheit auf Basis eines vom Benutzer durchgeführten Betriebs.
  • Mit der Eingabebildaufnahme-Anzeigeeinheit werden Erkennungsergebnisse für eine Mehrzahl von Bildaufnahmen aufgelistet und angezeigt, so dass der Benutzer eine Bildaufnahme erkennen kann, bei der ein Problem zu bestehen scheint, und wenn der Benutzer die Bildaufnahme genauer prüfen möchte, kann der Benutzer nur das Erkennungsergebnis für diese Bildaufnahme mit der Erkennungsergebnisanzeigeeinheit prüfen. Folglich kann der Benutzer intuitiv zu einem Bildschirm übergehen, um eine Erkennung in Bezug auf eine bestimmte Bildaufnahme aus vielen Bildaufnahmen zu prüfen.
  • Die Erkennungsergebnisspeichereinheit assoziiert zweite Markierungsinformationen mit einer Mehrzahl von Eingabebildaufnahmen und speichert diese, und die Eingabebildaufnahme-Anzeigeeinheit überlagert ferner die zweite Markierung, die in Assoziation mit jeder der Mehrzahl von Eingabebildaufnahmen gespeichert ist, und zeigt diese an und ermöglicht einem Benutzer das Ändern der zweiten Markierungsinformationen, und wenn der Benutzer die zweiten Markierungsinformationen einer der Eingabebildaufnahmen ändert, werden die ersten Markierungsinformationen, die jeweils den Aufnahmen der Mehrzahl von Objekten entsprechen, die in Assoziation mit der Eingabebildaufnahme gespeichert sind, gesammelt geändert.
  • Gemäß dieser Konfiguration kann der Benutzer, wenn ein Erkennungsergebnis einfach durch Prüfen jeder Bildaufnahme mit der Eingabebildaufnahme-Anzeigeeinheit geprüft werden kann, eine Markierung eines Erkennungsergebnisses korrigieren, ohne auf den Erkennungsergebnisanzeigebildschirm zu wechseln. Beispielsweise wenn die Aufnahme des Objekts mit der Eingabebildaufnahme-Anzeigeeinheit ausreichend groß angezeigt wird, muss der Benutzer sie nicht auf dem Erkennungsergebnisanzeigebildschirm prüfen. Wenn jedoch eine Mehrzahl von Erkennungsergebnissen auf der Bildaufnahme angezeigt werden, kann dieses Verfahren nur verwendet werden, wenn alle Erkennungsergebnisse auf die gleiche Markierung geändert werden. Wenn nur ein einzelnes Erkennungsergebnis auf der Bildaufnahme angezeigt wird, prüft der Benutzer diese wahrscheinlich nur mit der Eingabebildaufnahme-Anzeigeeinheit. In diesem Fall ist es nicht erforderlich, auf die Eingabebildaufnahme-Anzeigeeinheit zu wechseln, um jede Markierung zu korrigieren, da nur eine einzelne Markierung vorhanden ist. Mit einer solchen Funktion kann das Problem mit dem gleichen Verfahren behandelt werden, unabhängig davon, ob ein einzelnes Erkennungsergebnis oder eine Mehrzahl von Erkennungsergebnissen auf einer Bildaufnahme vorhanden sind.
  • Die Bildverarbeitungseinrichtung umfasst eine Lerndatenspeichereinheit, die erste Markierungsinformationen zu jeder der erkannten Aufnahmen hinzufügt, diese miteinander assoziiert, um Lerndaten zu bilden, und die Lerndaten speichert, und eine Lerneinheit, die ein Maschinenlernen oder ein statistisches Verarbeiten auf Basis der Lerndaten durchführt.
  • Gemäß dieser Konfiguration wird eine Erkennung oder Ermittlung der Korrektheit und Inkorrektheit an einer Aufnahme eines Objekts durchgeführt, so dass die Genauigkeit des Hinzufügens der ersten Markierungsinformationen verbessert wird.
  • Bei der mit der Bildverarbeitungseinrichtung gemäß der vorliegenden Erfindung erzielten Anzeige liegt ein Vorteil darin, dass ein Erkennungsergebnis und ein Ergebnis bezüglich der Ermittlung der Korrektheit und Inkorrektheit zu einem Objekt, das anhand einer Eingabebildaufnahme erkannt wird, auf einfache Weise geprüft werden können.
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • JP 2007-114843 [0006]
    • WO 2001/041068 [0007, 0160, 0162]
    • JP 2013-142558 [0008]
    • JP 2015-218357 [0131, 0131]
  • Zitierte Nicht-Patentliteratur
    • „Object Recognition from Local Scale-Invariant Features”, David G. Lowe, Proc. of the International Conference on Computer Vision, Corfu (Sept. 1999) [0054]
    • „Generalizing the Hough Transform to Detect Arbitrary Shapes”, D. H. Ballard, Pattern Recognition Bd. 13, Nr. 2, S. 111–122, 1981 [0062]
    • „Random sample consensus: a paradigm for model fitting with applications to picture image analysis and automated cartography”, Martin A. Fischler, et al., Communications of the Association for Computing Machinery, Bd. 24, Nr. 6, S. 381–395, Juni 1981 [0062]

Claims (9)

  1. Bildverarbeitungseinrichtung (10), die umfasst: ein Objekterkennungsmittel (21) zum Erkennen einer oder mehrerer Aufnahmen von Objekten anhand einer Eingabebildaufnahme, auf der Objekte erfasst wurden, auf Basis eines Modellmusters des Objekts; und ein Erkennungsergebnisanzeigemittel (41) zum graphischen Überlagern und Anzeigen eines Erkennungsergebnisses auf jeder auf diese Weise erkannten Aufnahme, wobei das Erkennungsergebnisanzeigemittel (41) umfasst: einen ersten Rahmenbereich zum Anzeigen der ganzen Eingabebildaufnahme; und einen zweiten Rahmenbereich zum Auflisten und Anzeigen einer oder mehrerer Teilbildaufnahmen, die jeweils eine Aufnahme umfassen, die anhand der Eingabebildaufnahme erkannt wird, und wobei ein Erkennungsergebnis auf der im ersten Rahmenbereich angezeigten Eingabebildaufnahme auf allen erkannten Aufnahmen überlagert und angezeigt wird, und ein Erkennungsergebnis einer Aufnahme, die jeder Teilbildaufnahme entspricht, auf der im zweiten Rahmenbereich gezeigten Teilbildaufnahme überlagert und angezeigt wird.
  2. Bildverarbeitungseinrichtung (10) nach Anspruch 1, wobei das Erkennungsergebnisanzeigemittel (41) ferner erste Markierungsinformationen, die in Assoziation mit einer Aufnahme gespeichert sind, entsprechend jeder Teilbildaufnahme, auf der im zweiten Rahmenbereich angezeigten Teilbildaufnahme überlagert und anzeigt und einem Benutzer das Ändern der ersten Markierungsinformationen auf Basis eines vom Benutzer durchgeführten Betriebs ermöglicht.
  3. Bildverarbeitungseinrichtung (10) nach Anspruch 1, wobei das Erkennungsergebnisanzeigemittel (41) Bildaufnahmen in jedem des ersten Rahmenbereichs und des zweiten Rahmenbereichs mit einer Einstellungsvergrößerungsrate für jede von ihnen anzeigt.
  4. Bildverarbeitungseinrichtung (10) nach Anspruch 1, wobei das Erkennungsergebnisanzeigemittel (41) ein Teilbildaufnahme-Auswahlmittel (51) zum Auswählen einer aus einer Mehrzahl der Teilbildaufnahmen, die im zweiten Rahmenbereich angezeigt werden, umfasst, und ein Erkennungsergebnis einer Aufnahme eines Objekts, die der Teilbildaufnahme entspricht, die von dem Teilbildaufnahme-Auswahlmittel (51) ausgewählt wurde, auf der im ersten Rahmenbereich angezeigten Teilbildaufnahme hervorgehoben angezeigt wird.
  5. Bildverarbeitungseinrichtung (10) nach Anspruch 2, wobei das Erkennungsergebnisanzeigemittel (41) die ersten Markierungsinformationen, die jeder der einen oder mehreren Aufnahmen entsprechen, die anhand der Eingabebildaufnahme erkannt werden, auf der im ersten Rahmenbereich angezeigten Eingabebildaufnahme überlagert.
  6. Bildverarbeitungseinrichtung (10) nach Anspruch 1, wobei die Bildverarbeitungseinrichtung (10) ein Erkennungsergebnisspeichermittel (33), das eine Mehrzahl von Eingabebildaufnahmen mit Erkennungsergebnissen einer oder mehrerer Aufnahmen der Objekte umfasst, die anhand jeder der Mehrzahl von Eingabebildaufnahmen erkannt wurden, assoziiert und die Mehrzahl von Eingabebildaufnahmen und die Erkennungsergebnisse speichert, und ein Eingabebildaufnahme-Auswahlmittel (52) zum Auswählen einer der Mehrzahl von Eingabebildaufnahmen umfasst, und das Erkennungsergebnisanzeigemittel (41) die eine der Eingabebildaufnahmen, die vom Eingabebildaufnahme-Auswahlmittel (52) ausgewählt wurde, und ein Erkennungsergebnis, das im Erkennungsergebnisspeichermittel (33) in Verbindung mit der einen der Eingabebildaufnahmen gespeichert ist, anzeigt.
  7. Bildverarbeitungseinrichtung (10) nach Anspruch 6, wobei die Bildverarbeitungseinrichtung (10) ein Eingabebildaufnahme-Anzeigemittel (42) umfasst, das die Mehrzahl von in dem Erkennungsergebnisspeichermittel (33) gespeicherten Eingabebildaufnahmen nach Überlagerung einer oder mehrerer Aufnahmen und Erkennungsergebnisse der anhand der Eingabebildaufnahmen erkannten Objekte auflistet und anzeigt. wobei das Erkennungsergebnisanzeigemittel (41) die von dem Eingabebildaufnahme-Auswahlmittel (52) ausgewählte Eingabebildaufnahme anzeigt und das Wechseln zwischen dem Eingabebildaufnahme-Anzeigemittel (42) und dem Erkennungsergebnisanzeigemittel (41) auf Basis eines von einem Benutzer durchgeführten Betriebs ermöglicht.
  8. Bildverarbeitungseinrichtung (10) nach Anspruch 7, wobei das Erkennungsergebnisspeichermittel (33) zweite Markierungsinformationen mit einer Mehrzahl von Eingabebildaufnahmen assoziiert und die zweiten Markierungsinformationen und die Mehrzahl von Eingabebildaufnahmen speichert, und und das Eingabebildaufnahme-Anzeigemittel (42) ferner die zweite Markierung, die in Verbindung mit jeder der Mehrzahl von Eingabebildaufnahmen gespeichert ist, überlagert und anzeigt und einem Benutzer das Ändern der zweiten Markierungsinformationen ermöglicht, und wenn der Benutzer die zweiten Markierungsinformationen einer der Eingabebildaufnahmen ändert, die ersten Markierungsinformationen, die jeweils den Aufnahmen der Mehrzahl von Objekten entsprechen, die in Assoziation mit der Eingabebildaufnahme gespeichert sind, gesammelt geändert werden.
  9. Bildverarbeitungseinrichtung (10) nach einem der Ansprüche 1 bis 8, die umfasst: ein Lerndatenspeichermittel (32), das erste Markierungsinformationen zu jeder der erkannten Aufnahmen hinzufügt, diese miteinander assoziiert, um Lerndaten zu bilden, und die Lerndaten speichert; und ein Lernmittel (22), das ein Maschinenlernen oder ein statistisches Verarbeiten auf Basis der Lerndaten durchführt.
DE102017001667.4A 2016-02-25 2017-02-20 Bildverarbeitungseinrichtung zum Anzeigen eines Objekts, das anhand einer Eingabebildaufnahme erkannt wird Pending DE102017001667A1 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2016-034774 2016-02-25
JP2016034774A JP6333871B2 (ja) 2016-02-25 2016-02-25 入力画像から検出した対象物を表示する画像処理装置

Publications (1)

Publication Number Publication Date
DE102017001667A1 true DE102017001667A1 (de) 2017-08-31

Family

ID=59580203

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102017001667.4A Pending DE102017001667A1 (de) 2016-02-25 2017-02-20 Bildverarbeitungseinrichtung zum Anzeigen eines Objekts, das anhand einer Eingabebildaufnahme erkannt wird

Country Status (4)

Country Link
US (1) US10930037B2 (de)
JP (1) JP6333871B2 (de)
CN (1) CN107123106A (de)
DE (1) DE102017001667A1 (de)

Families Citing this family (32)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6333871B2 (ja) * 2016-02-25 2018-05-30 ファナック株式会社 入力画像から検出した対象物を表示する画像処理装置
JP6780769B2 (ja) * 2017-03-23 2020-11-04 日本電気株式会社 学習装置、学習方法および学習プログラム
EP3515671B1 (de) * 2017-06-19 2020-05-13 Google LLC Robotische greifvorhersage unter verwendung neuronaler netzwerke und geometriebewusster objektdarstellung
JP6936957B2 (ja) * 2017-11-07 2021-09-22 オムロン株式会社 検査装置、データ生成装置、データ生成方法及びデータ生成プログラム
JP6936958B2 (ja) * 2017-11-08 2021-09-22 オムロン株式会社 データ生成装置、データ生成方法及びデータ生成プログラム
JP6924413B2 (ja) * 2017-12-25 2021-08-25 オムロン株式会社 データ生成装置、データ生成方法及びデータ生成プログラム
CN111902712B (zh) * 2018-03-29 2023-07-25 三菱电机株式会社 异常检查装置及异常检查方法
JP7053366B2 (ja) * 2018-05-10 2022-04-12 株式会社荏原製作所 検査装置及び検査方法
WO2019216263A1 (ja) * 2018-05-10 2019-11-14 ソニー株式会社 情報処理装置、情報処理方法およびプログラム
DE112018007729B4 (de) * 2018-06-14 2022-09-08 Yamaha Hatsudoki Kabushiki Kaisha Maschinelle Lernvorrichtung und mit dieser ausgestattetes Robotersystem
JP7308421B2 (ja) * 2018-07-02 2023-07-14 パナソニックIpマネジメント株式会社 学習装置、学習システム、及び学習方法
JP7148322B2 (ja) * 2018-08-23 2022-10-05 ファナック株式会社 画像処理装置
JP7161948B2 (ja) * 2018-09-07 2022-10-27 株式会社フジクラ 機械学習装置、機械学習方法、機械学習プログラム、及び検査装置
JP2021192471A (ja) * 2018-09-14 2021-12-16 ソニーグループ株式会社 表示制御装置および表示制御方法、並びにプログラム
US11325252B2 (en) * 2018-09-15 2022-05-10 X Development Llc Action prediction networks for robotic grasping
KR102015939B1 (ko) * 2018-09-27 2019-08-28 주식회사 크라우드웍스 인공지능 영상 학습을 위한 동영상의 학습 대상 프레임 이미지 샘플링 방법, 장치, 프로그램 및 그 영상 학습 방법
JP7214432B2 (ja) * 2018-10-22 2023-01-30 キヤノン株式会社 画像処理方法、画像処理プログラム、記録媒体、画像処理装置、生産システム、物品の製造方法
WO2020129617A1 (ja) * 2018-12-19 2020-06-25 パナソニックIpマネジメント株式会社 外観検査装置及びそれを用いた溶接箇所の形状不良の有無及び種類の判定精度の向上方法、溶接システム及びそれを用いたワークの溶接方法
US20200202178A1 (en) * 2018-12-19 2020-06-25 Abb Schweiz Ag Automatic visual data generation for object training and evaluation
JP7130190B2 (ja) 2018-12-27 2022-09-05 オムロン株式会社 画像判定装置、学習方法及び画像判定プログラム
US11312012B2 (en) * 2019-01-01 2022-04-26 Giant Ai, Inc. Software compensated robotics
US10861187B2 (en) * 2019-02-13 2020-12-08 Apical Limited Method of processing object detection data
US11165954B1 (en) * 2019-06-19 2021-11-02 Objectvideo Labs, Llc Scene-aware custom tuned video surveillance detection system
CN110315544B (zh) * 2019-06-24 2022-10-14 南京邮电大学 一种基于视频图像演示的机器人操作学习方法
JP2021015546A (ja) * 2019-07-16 2021-02-12 株式会社日立製作所 情報処理システムおよび情報処理方法
CN110941987B (zh) * 2019-10-10 2023-04-07 北京百度网讯科技有限公司 目标对象识别方法、装置、电子设备及存储介质
JP7324317B2 (ja) 2020-02-04 2023-08-09 ファナック株式会社 画像処理装置
CN115668283A (zh) 2020-05-18 2023-01-31 发那科株式会社 机器学习装置和机器学习系统
US11880939B2 (en) * 2020-08-20 2024-01-23 Intel Corporation Embedding complex 3D objects into an augmented reality scene using image segmentation
KR102509581B1 (ko) * 2020-11-19 2023-03-13 한양대학교 산학협력단 영상 판단 장치 및 그 판단 방법
KR102524151B1 (ko) * 2020-12-14 2023-04-21 주식회사 아이디알인비전 생산부품의 스마트 비전검사를 위한 인공지능머신의 라벨링 학습방법
CN114764773A (zh) * 2021-01-12 2022-07-19 欧姆龙(上海)有限公司 物品检测方法、装置以及电子设备

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2001041068A1 (fr) 1999-11-29 2001-06-07 Olympus Optical Co., Ltd. Systeme de detection de defaut
JP2007114843A (ja) 2005-10-18 2007-05-10 Denso Corp 良否判定装置
JP2013142558A (ja) 2012-01-06 2013-07-22 Keyence Corp 外観検査装置、外観検査方法及びコンピュータプログラム
JP2015218357A (ja) 2014-05-16 2015-12-07 東レエンジニアリング株式会社 薄膜形成装置および薄膜形成方法

Family Cites Families (427)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4783829A (en) * 1983-02-23 1988-11-08 Hitachi, Ltd. Pattern recognition apparatus
US4642813A (en) * 1983-04-18 1987-02-10 Object Recognition Systems, Inc. Electro-optical quality control inspection of elements on a product
JPH0638274B2 (ja) * 1989-07-31 1994-05-18 工業技術院長 画像認識装置および画像認識方法
JP3334807B2 (ja) * 1991-07-25 2002-10-15 株式会社日立製作所 ニュ−ラルネットを利用したパタ−ン分類方法および装置
US5583771A (en) * 1994-08-04 1996-12-10 Delco Electronics Corp. Method and apparatus for distinguishing between deployment events and non-deployment events in an SIR system
US5995652A (en) * 1995-01-23 1999-11-30 Sony Corporation Pattern searching method using neural networks and correlation
JP3560670B2 (ja) * 1995-02-06 2004-09-02 富士通株式会社 適応的認識システム
EP0727760A3 (de) * 1995-02-17 1997-01-29 Ibm System zur Produktgrössenerkennung
JP3184092B2 (ja) * 1996-05-27 2001-07-09 シャープ株式会社 画像処理方法
US6031930A (en) * 1996-08-23 2000-02-29 Bacus Research Laboratories, Inc. Method and apparatus for testing a progression of neoplasia including cancer chemoprevention testing
US6396941B1 (en) * 1996-08-23 2002-05-28 Bacus Research Laboratories, Inc. Method and apparatus for internet, intranet, and local viewing of virtual microscope slides
US6404906B2 (en) * 1997-03-03 2002-06-11 Bacus Research Laboratories,Inc. Method and apparatus for acquiring and reconstructing magnified specimen images from a computer-controlled microscope
US5960125A (en) * 1996-11-21 1999-09-28 Cognex Corporation Nonfeedback-based machine vision method for determining a calibration relationship between a camera and a moveable object
US6141033A (en) * 1997-05-15 2000-10-31 Cognex Corporation Bandwidth reduction of multichannel images for machine vision
JPH1167853A (ja) * 1997-08-26 1999-03-09 Mitsubishi Electric Corp ウェーハマップ解析補助システムおよびウェーハマップ解析方法
US5978521A (en) * 1997-09-25 1999-11-02 Cognex Corporation Machine vision methods using feedback to determine calibration locations of multiple cameras that image a common object
DE69901030T2 (de) * 1998-05-29 2002-07-18 Matsushita Electric Works Ltd Bildverarbeitungs-inspektionsgerät
DE19829366C2 (de) * 1998-07-01 2000-06-29 Stefan Gleis Verfahren zur Bereitstellung von fertigungsbezogenen Daten in einer Serienfertigung von Fertigungsobjekten, insbesondere von Kraftfahrzeugen
US6421458B2 (en) * 1998-08-28 2002-07-16 Cognex Corporation Automated inspection of objects undergoing general affine transformation
US6546137B1 (en) * 1999-01-25 2003-04-08 Siemens Corporate Research, Inc. Flash system for fast and accurate pattern localization
JP2002071574A (ja) * 2000-08-28 2002-03-08 Matsushita Electric Works Ltd 画像処理装置の不良画像表示方法及び画像処理装置
US6920241B1 (en) * 2000-09-29 2005-07-19 Cognex Corporation System and method for bundled location and regional inspection
JP2002140404A (ja) * 2000-11-02 2002-05-17 Hitachi Ltd データベース統合処理方法及びその実施装置並びにその処理プログラムを記録した記録媒体
US6771808B1 (en) * 2000-12-15 2004-08-03 Cognex Corporation System and method for registering patterns transformed in six degrees of freedom using machine vision
US6728582B1 (en) * 2000-12-15 2004-04-27 Cognex Corporation System and method for determining the position of an object in three dimensions using a machine vision system with two cameras
US6466690C1 (en) * 2000-12-19 2008-11-18 Bacus Res Lab Inc Method and apparatus for processing an image of a tissue sample microarray
US6807305B2 (en) * 2001-01-12 2004-10-19 National Instruments Corporation System and method for image pattern matching using a unified signal transform
US20020164070A1 (en) * 2001-03-14 2002-11-07 Kuhner Mark B. Automatic algorithm generation
US7088854B2 (en) * 2001-04-25 2006-08-08 Cotman Carl W Method and apparatus for generating special-purpose image analysis algorithms
US6944331B2 (en) * 2001-10-26 2005-09-13 National Instruments Corporation Locating regions in a target image using color matching, luminance pattern matching and hue plane pattern matching
JP2005515910A (ja) * 2002-01-31 2005-06-02 ブレインテック カナダ インコーポレイテッド シングルカメラ3dビジョンガイドロボティクスの方法および装置
US7233699B2 (en) * 2002-03-18 2007-06-19 National Instruments Corporation Pattern matching using multiple techniques
US7171048B2 (en) * 2002-04-10 2007-01-30 National Instruments Corporation Pattern matching system utilizing discrete curve matching with a mapping operator
US7133538B2 (en) * 2002-04-10 2006-11-07 National Instruments Corporation Pattern matching utilizing discrete curve matching with multiple mapping operators
US20030210262A1 (en) * 2002-05-10 2003-11-13 Tripath Imaging, Inc. Video microscopy system and multi-view virtual slide viewer capable of simultaneously acquiring and displaying various digital views of an area of interest located on a microscopic slide
JP3988128B2 (ja) * 2002-07-18 2007-10-10 ヤマハ株式会社 ディジタル・ミキサ
CN100450338C (zh) * 2002-07-25 2009-01-07 松下电器产业株式会社 检查基片上印刷的焊糊的装置和方法
US7158677B2 (en) * 2002-08-20 2007-01-02 National Instruments Corporation Matching of discrete curves under affine transforms
US20040175764A1 (en) * 2003-01-06 2004-09-09 Hiroto Nishiyama Image processing apparatus, image processing program, recording medium, and image processing method
US7187811B2 (en) * 2003-03-18 2007-03-06 Advanced & Wise Technology Corp. Method for image resolution enhancement
US7421097B2 (en) * 2003-05-27 2008-09-02 Honeywell International Inc. Face identification verification using 3 dimensional modeling
US7936928B2 (en) * 2003-06-05 2011-05-03 National Instruments Corporation Mutual symmetry detection
US7269286B2 (en) * 2003-06-05 2007-09-11 National Instruments Corporation Discrete curve symmetry detection
US9692964B2 (en) * 2003-06-26 2017-06-27 Fotonation Limited Modification of post-viewing parameters for digital images using image region or feature information
CA2529460A1 (en) * 2003-07-04 2005-01-13 Kwang-Don Park Random-type identifying material, 3-d identifying system and method using the same
JP4345426B2 (ja) * 2003-10-07 2009-10-14 ソニー株式会社 画像照合方法、プログラム、および画像照合装置
JP2005158780A (ja) * 2003-11-20 2005-06-16 Hitachi Ltd パターン欠陥検査方法及びその装置
US8626686B1 (en) * 2004-01-14 2014-01-07 Evolved Machines, Inc. Invariant object recognition
JP4521858B2 (ja) * 2004-02-12 2010-08-11 株式会社キーエンス 画像処理装置
US20050226489A1 (en) * 2004-03-04 2005-10-13 Glenn Beach Machine vision system for identifying and sorting projectiles and other objects
US7925070B2 (en) * 2004-03-30 2011-04-12 Sysmex Corporation Method for displaying virtual slide and terminal device for displaying virtual slide
JP4357355B2 (ja) * 2004-05-07 2009-11-04 株式会社日立ハイテクノロジーズ パターン検査方法及びその装置
JP4217664B2 (ja) * 2004-06-28 2009-02-04 キヤノン株式会社 画像処理方法、画像処理装置
US7340089B2 (en) * 2004-08-17 2008-03-04 National Instruments Corporation Geometric pattern matching using dynamic feature combinations
US9334096B2 (en) * 2004-10-01 2016-05-10 Edge Medical Properties, Llc Multiple inspection system and method that inspects different medications
JP2006105943A (ja) * 2004-10-08 2006-04-20 Omron Corp 知識作成装置及びパラメータ探索方法並びにプログラム製品
US7583852B2 (en) * 2004-10-26 2009-09-01 Mitutoyo Corporation Method of filtering an image for high precision machine vision metrology
JP4613617B2 (ja) * 2005-01-07 2011-01-19 ソニー株式会社 画像処理システム、学習装置および方法、並びにプログラム
JP2006253980A (ja) * 2005-03-10 2006-09-21 Fujitsu Ltd 受信方法および受信装置
KR100785594B1 (ko) * 2005-06-17 2007-12-13 오므론 가부시키가이샤 화상 처리 장치
JP4774824B2 (ja) * 2005-06-17 2011-09-14 オムロン株式会社 3次元計測処理の計測対象範囲の確認方法および計測対象範囲の設定方法ならびに各方法を実施する装置
US7580560B2 (en) * 2005-07-18 2009-08-25 Mitutoyo Corporation System and method for fast template matching by adaptive template decomposition
JP2008052227A (ja) * 2005-09-15 2008-03-06 Olympus Corp 観察装置
US7394926B2 (en) * 2005-09-30 2008-07-01 Mitutoyo Corporation Magnified machine vision user interface
US8111904B2 (en) * 2005-10-07 2012-02-07 Cognex Technology And Investment Corp. Methods and apparatus for practical 3D vision system
US20070120844A1 (en) * 2005-11-28 2007-05-31 Baumer Optronic Gmbh Method and apparatus for the graphical operation of real-time image processing systems
US8103087B2 (en) * 2006-01-20 2012-01-24 Hitachi High-Technologies Corporation Fault inspection method
DE102006008936A1 (de) * 2006-02-27 2007-08-30 Siemens Ag Verfahren zum Erkennen von Objekten und Objekterkennungssystem
WO2007116500A1 (ja) * 2006-03-31 2007-10-18 Olympus Corporation 情報呈示システム、情報呈示端末及びサーバ
JP4882505B2 (ja) * 2006-05-19 2012-02-22 東京エレクトロン株式会社 異物分布パターンの照合方法及びその装置
JP2008059197A (ja) * 2006-08-30 2008-03-13 Canon Inc 画像照合装置、画像照合方法、コンピュータプログラム及び記憶媒体
FR2905613B1 (fr) * 2006-09-11 2008-11-14 Veolia Proprete Sa Procede de tri selectif sequentiel et installation pour sa mise en oeuvre.
DE102006043910B4 (de) * 2006-09-19 2010-02-25 Siemens Ag Ergebnisfilter und Verfahren zur Selektion der Ergebnisdaten einer Applikation zur automatischen Mustererkennung
JP4226623B2 (ja) * 2006-09-29 2009-02-18 ファナック株式会社 ワーク取り出し装置
JP2008171034A (ja) * 2007-01-05 2008-07-24 Hitachi Ltd プログラムの作成支援装置、その作成支援プログラム及びその作成支援方法
KR101137141B1 (ko) * 2007-03-29 2012-04-20 파나소닉 주식회사 초음파 측정 방법 및 장치
US7903883B2 (en) * 2007-03-30 2011-03-08 Microsoft Corporation Local bi-gram model for object recognition
US20080267499A1 (en) * 2007-04-30 2008-10-30 General Electric Company Method and system for automatic detection of objects in an image
JP4928346B2 (ja) * 2007-05-08 2012-05-09 キヤノン株式会社 画像検索装置および画像検索方法ならびにそのプログラムおよび記憶媒体
US8126260B2 (en) * 2007-05-29 2012-02-28 Cognex Corporation System and method for locating a three-dimensional object using machine vision
US8184912B2 (en) * 2007-06-06 2012-05-22 Sharp Kabushiki Kaisha Image processing apparatus, image forming apparatus, image processing system, and image processing method
JP5184824B2 (ja) * 2007-06-15 2013-04-17 キヤノン株式会社 演算処理装置及び方法
US7957583B2 (en) * 2007-08-02 2011-06-07 Roboticvisiontech Llc System and method of three-dimensional pose estimation
US8073234B2 (en) * 2007-08-27 2011-12-06 Acushnet Company Method and apparatus for inspecting objects using multiple images having varying optical properties
US8103085B1 (en) * 2007-09-25 2012-01-24 Cognex Corporation System and method for detecting flaws in objects using machine vision
JP5368687B2 (ja) * 2007-09-26 2013-12-18 キヤノン株式会社 演算処理装置および方法
JP5075646B2 (ja) * 2008-01-09 2012-11-21 株式会社日立ハイテクノロジーズ 半導体欠陥検査装置ならびにその方法
JP5276854B2 (ja) * 2008-02-13 2013-08-28 株式会社日立ハイテクノロジーズ パターン生成装置およびパターン形状評価装置
US8711265B2 (en) * 2008-04-24 2014-04-29 Canon Kabushiki Kaisha Image processing apparatus, control method for the same, and storage medium
JP2009282319A (ja) * 2008-05-22 2009-12-03 Toshiba Corp パターン検証方法、パターン検証システム、パターン検証プログラム、マスク製造方法、および半導体装置の製造方法
JP4565023B2 (ja) * 2008-07-04 2010-10-20 ファナック株式会社 物品取り出し装置
JP5277804B2 (ja) * 2008-09-05 2013-08-28 富士通株式会社 指紋認証装置、指紋認証プログラムおよび指紋認証方法
JP2010085145A (ja) * 2008-09-30 2010-04-15 Hitachi High-Technologies Corp 検査装置及び検査方法
JP5063551B2 (ja) * 2008-10-03 2012-10-31 株式会社日立ハイテクノロジーズ パターンマッチング方法、及び画像処理装置
JP5325522B2 (ja) * 2008-10-15 2013-10-23 株式会社堀場製作所 複合型観察装置
JP2010121999A (ja) * 2008-11-18 2010-06-03 Omron Corp 3次元モデルの作成方法および物体認識装置
US9204050B2 (en) * 2008-12-25 2015-12-01 Panasonic Intellectual Property Management Co., Ltd. Information displaying apparatus and information displaying method
JP5075111B2 (ja) * 2008-12-29 2012-11-14 株式会社日立ハイテクノロジーズ 画像分類基準更新方法、プログラムおよび画像分類装置
US8442304B2 (en) * 2008-12-29 2013-05-14 Cognex Corporation System and method for three-dimensional alignment of objects using machine vision
JP5509773B2 (ja) * 2009-01-21 2014-06-04 オムロン株式会社 パラメータ決定支援装置およびパラメータ決定支援プログラム
JP5381166B2 (ja) * 2009-03-04 2014-01-08 オムロン株式会社 モデル画像取得支援装置、モデル画像取得支援方法およびモデル画像取得支援プログラム
JP5218177B2 (ja) * 2009-03-13 2013-06-26 オムロン株式会社 画像処理装置および方法
JP5152058B2 (ja) * 2009-03-19 2013-02-27 セイコーエプソン株式会社 液滴吐出ヘッドの検査方法、液滴吐出ヘッドの検査装置及び液滴吐出装置
US9020298B2 (en) * 2009-04-15 2015-04-28 Microsoft Technology Licensing, Llc Automated image cropping to include particular subjects
JP2010256242A (ja) * 2009-04-27 2010-11-11 Hitachi High-Technologies Corp 欠陥検査装置及び欠陥検査方法
JP5500871B2 (ja) * 2009-05-29 2014-05-21 株式会社日立ハイテクノロジーズ テンプレートマッチング用テンプレート作成方法、及びテンプレート作成装置
US8369481B2 (en) * 2009-06-08 2013-02-05 Ishida Co., Ltd. X-ray inspection device
US8391603B2 (en) * 2009-06-18 2013-03-05 Omisa Inc. System and method for image segmentation
WO2011004534A1 (ja) * 2009-07-09 2011-01-13 株式会社 日立ハイテクノロジーズ 半導体欠陥分類方法,半導体欠陥分類装置,半導体欠陥分類プログラム
JP2011066185A (ja) * 2009-09-17 2011-03-31 Ushio Inc ワークアライメントマークの検出方法および露光装置
DE102009049849B4 (de) * 2009-10-19 2020-09-24 Apple Inc. Verfahren zur Bestimmung der Pose einer Kamera, Verfahren zur Erkennung eines Objekts einer realen Umgebung und Verfahren zur Erstellung eines Datenmodells
JP5385752B2 (ja) * 2009-10-20 2014-01-08 キヤノン株式会社 画像認識装置、その処理方法及びプログラム
JP5589366B2 (ja) * 2009-11-27 2014-09-17 ソニー株式会社 情報処理装置、情報処理方法及びそのプログラム
JP5561027B2 (ja) * 2009-11-30 2014-07-30 ソニー株式会社 情報処理装置、情報処理方法及びそのプログラム
JP5658451B2 (ja) * 2009-11-30 2015-01-28 ソニー株式会社 情報処理装置、情報処理方法及びそのプログラム
JP2011154501A (ja) * 2010-01-27 2011-08-11 Sony Corp 学習装置、学習方法、識別装置、識別方法、プログラム、及び情報処理システム
JP2011154500A (ja) * 2010-01-27 2011-08-11 Sony Corp 学習装置、学習方法、識別装置、識別方法、及びプログラム
JP5695924B2 (ja) * 2010-02-01 2015-04-08 株式会社ニューフレアテクノロジー 欠陥推定装置および欠陥推定方法並びに検査装置および検査方法
JP2011185650A (ja) * 2010-03-05 2011-09-22 Omron Corp モデル作成装置およびモデル作成プログラム
JP5531750B2 (ja) * 2010-04-16 2014-06-25 ソニー株式会社 情報処理装置、情報処理方法、プログラム、及び情報処理システム
JP5401605B2 (ja) * 2010-05-07 2014-01-29 株式会社日立ハイテクノロジーズ テンプレートマッチング処理装置およびテンプレートマッチング処理プログラム
WO2012005004A1 (ja) * 2010-07-09 2012-01-12 パナソニック株式会社 錠剤監査支援方法及び錠剤監査支援装置
JP4938115B2 (ja) * 2010-07-27 2012-05-23 ファナック株式会社 ワーク取出し装置およびワーク取出し方法
JP5525953B2 (ja) * 2010-07-29 2014-06-18 株式会社キーエンス 寸法測定装置、寸法測定方法及び寸法測定装置用のプログラム
US8995747B2 (en) * 2010-07-29 2015-03-31 Sharp Laboratories Of America, Inc. Methods, systems and apparatus for defect detection and classification
JP5728878B2 (ja) * 2010-10-13 2015-06-03 オムロン株式会社 画像処理装置および画像処理方法
JP5568456B2 (ja) * 2010-12-06 2014-08-06 株式会社日立ハイテクノロジーズ 荷電粒子線装置
US8600192B2 (en) * 2010-12-08 2013-12-03 Cognex Corporation System and method for finding correspondence between cameras in a three-dimensional vision system
US9124873B2 (en) * 2010-12-08 2015-09-01 Cognex Corporation System and method for finding correspondence between cameras in a three-dimensional vision system
WO2012102069A1 (ja) * 2011-01-24 2012-08-02 日本電気株式会社 情報処理システム、情報処理方法、情報処理装置およびその制御方法とその制御プログラムを格納した記憶媒体
JP5652227B2 (ja) * 2011-01-25 2015-01-14 ソニー株式会社 画像処理装置および方法、並びにプログラム
US9092851B2 (en) * 2011-01-31 2015-07-28 Nec Corporation Information processing system, information processing method, information processing apparatus, control method therefor, and storage medium storing control program therefor
JP5799516B2 (ja) * 2011-02-03 2015-10-28 セイコーエプソン株式会社 ロボット装置、検査装置、検査プログラム、および検査方法
JP5666958B2 (ja) * 2011-03-29 2015-02-12 アズビル株式会社 フィールド機器管理システム
KR101899269B1 (ko) * 2011-04-28 2018-10-29 가부시키가이샤 유야마 세이사쿠쇼 약제 감사 장치 및 약제 분포 장치
JP2012243179A (ja) * 2011-05-23 2012-12-10 Sony Corp 情報処理装置、情報処理方法、及び、プログラム
US8970618B2 (en) * 2011-06-16 2015-03-03 University Of Leeds Virtual microscopy
JP5787642B2 (ja) * 2011-06-28 2015-09-30 キヤノン株式会社 対象物保持装置、対象物保持装置の制御方法、およびプログラム
JP5800611B2 (ja) * 2011-07-07 2015-10-28 オリンパス株式会社 撮影装置
CN103492862A (zh) * 2011-07-13 2014-01-01 松下电器产业株式会社 药片检查装置以及药片检查方法
JP5892360B2 (ja) * 2011-08-02 2016-03-23 ソニー株式会社 ロボット指示装置、ロボット指示方法、プログラム、及び通信システム
JP5422062B2 (ja) * 2011-08-08 2014-02-19 パナソニック株式会社 薬包体監査システム
JP2013038630A (ja) * 2011-08-09 2013-02-21 Brother Ind Ltd ファクシミリ装置
JP6242563B2 (ja) * 2011-09-09 2017-12-06 株式会社メガチップス 物体検出装置
US20140233826A1 (en) * 2011-09-27 2014-08-21 Board Of Regents Of The University Of Texas System Systems and methods for automated screening and prognosis of cancer from whole-slide biopsy images
US20130163867A1 (en) * 2011-10-17 2013-06-27 Military Wraps Research & Development, Inc. Systems, processes, and computer program products for creating geo-location-based visual designs and arrangements originating from geo-location-based imagery
JP5726710B2 (ja) * 2011-11-07 2015-06-03 ジヤトコ株式会社 自動変速機用油温センサの異常診断方法
JP2013101045A (ja) * 2011-11-08 2013-05-23 Fanuc Ltd 物品の3次元位置姿勢の認識装置及び認識方法
JP5728372B2 (ja) * 2011-11-30 2015-06-03 キヤノン株式会社 情報処理装置、情報処理装置の制御方法、およびプログラム
WO2013088707A1 (ja) * 2011-12-16 2013-06-20 日本電気株式会社 辞書学習装置、パターン照合装置、辞書学習方法および記憶媒体
US9813607B2 (en) * 2011-12-16 2017-11-07 Nokia Technologies Oy Method and apparatus for image capture targeting
JP5828552B2 (ja) * 2011-12-22 2015-12-09 本田技研工業株式会社 物体分類装置、物体分類方法、物体認識装置及び物体認識方法
US20140306992A1 (en) * 2011-12-26 2014-10-16 Canon Kabushiki Kaisha Image processing apparatus, image processing system and image processing method
JP6091137B2 (ja) * 2011-12-26 2017-03-08 キヤノン株式会社 画像処理装置、画像処理システム、画像処理方法およびプログラム
JP5874398B2 (ja) * 2012-01-05 2016-03-02 オムロン株式会社 画像検査装置の検査領域設定方法
JP5861462B2 (ja) * 2012-01-17 2016-02-16 オムロン株式会社 はんだ検査のための検査基準登録方法およびその方法を用いた基板検査装置
JP2013174581A (ja) * 2012-01-25 2013-09-05 Canon Inc 画像データ生成装置および画像データ生成方法
JP2013178742A (ja) * 2012-01-30 2013-09-09 Canon Inc 画像処理装置、画像処理システム、画像処理方法およびプログラム
JP5383836B2 (ja) * 2012-02-03 2014-01-08 ファナック株式会社 検索ウィンドウを自動的に調整する機能を備えた画像処理装置
JP2013167798A (ja) * 2012-02-16 2013-08-29 Canon Inc 画像生成装置及びその制御方法
JP5977544B2 (ja) * 2012-03-09 2016-08-24 キヤノン株式会社 情報処理装置、情報処理方法
JP6004809B2 (ja) * 2012-03-13 2016-10-12 キヤノン株式会社 位置姿勢推定装置、情報処理装置、情報処理方法
JP5953842B2 (ja) * 2012-03-14 2016-07-20 オムロン株式会社 画像検査方法および検査領域設定方法
JP5895624B2 (ja) * 2012-03-14 2016-03-30 オムロン株式会社 画像処理装置、画像処理方法、制御プログラムおよび記録媒体
JP5660067B2 (ja) * 2012-03-21 2015-01-28 カシオ計算機株式会社 画像検索システム、画像検索装置、画像検索方法、及びプログラム
JP2013200639A (ja) * 2012-03-23 2013-10-03 Canon Inc 描画データ生成装置、描画データ生成方法、プログラム、および描画データ生成システム
CN104246999B (zh) 2012-03-29 2018-05-08 富士机械制造株式会社 晶片图数据核对系统以及晶片图数据核对方法
JP5771561B2 (ja) * 2012-05-30 2015-09-02 株式会社日立ハイテクノロジーズ 欠陥検査方法および欠陥検査装置
JP6019798B2 (ja) * 2012-06-22 2016-11-02 ソニー株式会社 情報処理装置、情報処理システム及び情報処理方法
US20150345936A1 (en) * 2012-06-26 2015-12-03 Konica Minolta, Inc. Image Processing Apparatus, Image Processing Method And Image Processing Program
WO2014015889A1 (en) * 2012-07-23 2014-01-30 Metaio Gmbh Method of providing image feature descriptors
JP5642738B2 (ja) * 2012-07-26 2014-12-17 ファナック株式会社 バラ積みされた物品をロボットで取出す装置及び方法
WO2014024655A1 (ja) * 2012-08-09 2014-02-13 コニカミノルタ株式会社 画像処理装置、画像処理方法および画像処理プログラム
JP5541426B1 (ja) * 2012-08-10 2014-07-09 コニカミノルタ株式会社 画像処理装置、画像処理方法および画像処理プログラム
CN104584073B (zh) * 2012-08-23 2017-04-05 日本电气株式会社 物体识别装置和物体识别方法
JP6102124B2 (ja) * 2012-08-24 2017-03-29 ソニー株式会社 情報処理装置、情報処理方法、及びプログラム
JP5670397B2 (ja) * 2012-08-29 2015-02-18 ファナック株式会社 バラ積みされた物品をロボットで取出す装置及び方法
EP2704055A1 (de) * 2012-08-31 2014-03-05 Layar B.V. Bestimmung des Raums zur Anzeige von Inhalt in vergrößerter Realität
JP5620445B2 (ja) * 2012-09-13 2014-11-05 ファナック株式会社 選択条件に基づいてロボットの保持位置姿勢を決定する物品取出装置
JP5947169B2 (ja) * 2012-09-14 2016-07-06 株式会社キーエンス 外観検査装置、外観検査法およびプログラム
US9511274B2 (en) * 2012-09-28 2016-12-06 Bally Gaming Inc. Methods for automatically generating a card deck library and master images for a deck of cards, and a related card processing apparatus
TWI466062B (zh) * 2012-10-04 2014-12-21 Ind Tech Res Inst 重建三維模型的方法與三維模型重建裝置
US9723272B2 (en) * 2012-10-05 2017-08-01 Magna Electronics Inc. Multi-camera image stitching calibration system
JP6091866B2 (ja) * 2012-11-30 2017-03-08 株式会社キーエンス 計測顕微鏡装置、画像生成方法及び計測顕微鏡装置操作プログラム並びにコンピュータで読み取り可能な記録媒体
JP6020124B2 (ja) * 2012-12-18 2016-11-02 富士通株式会社 画像処理装置、画像処理方法および画像処理プログラム
JP2014126943A (ja) * 2012-12-25 2014-07-07 Fanuc Ltd 画像中の対象物を検出するために画像処理を行う画像処理装置及び方法
JP2014127011A (ja) * 2012-12-26 2014-07-07 Sony Corp 情報処理装置、情報処理方法、およびプログラム
CN103900715A (zh) * 2012-12-27 2014-07-02 杭州美盛红外光电技术有限公司 红外选择装置和红外选择方法
DE102013000301A1 (de) * 2013-01-10 2014-07-10 Basler Ag Verfahren und Vorrichtung zur Erzeugung eines verbesserten Farbbildes mit einem Sensor mit Farbfilter
US9311451B2 (en) * 2013-02-18 2016-04-12 Lck Co., Ltd. Medication dispensing apparatus for preventing medication dispensing error
JP6369456B2 (ja) * 2013-02-20 2018-08-08 株式会社湯山製作所 薬剤鑑査装置、及び薬剤分包システム
JP6192088B2 (ja) * 2013-02-20 2017-09-06 国立大学法人九州工業大学 物体検出方法および物体検出装置
US9020248B2 (en) * 2013-02-22 2015-04-28 Nec Laboratories America, Inc. Window dependent feature regions and strict spatial layout for object detection
JP5661833B2 (ja) * 2013-02-28 2015-01-28 ファナック株式会社 線状パターンを含む対象物の外観検査装置及び外観検査方法
US10783615B2 (en) * 2013-03-13 2020-09-22 Kofax, Inc. Content-based object detection, 3D reconstruction, and data extraction from digital images
CA2905730C (en) * 2013-03-15 2022-06-21 Hologic, Inc. System and method for reviewing and analyzing cytological specimens
JP5672326B2 (ja) * 2013-03-19 2015-02-18 株式会社安川電機 ロボットシステム
US8922817B2 (en) * 2013-03-22 2014-12-30 pita4 mobile LLC Mobile Printing device
JP6126437B2 (ja) * 2013-03-29 2017-05-10 キヤノン株式会社 画像処理装置および画像処理方法
JP6455829B2 (ja) 2013-04-01 2019-01-23 キヤノン株式会社 画像処理装置、画像処理方法、およびプログラム
JP6197340B2 (ja) * 2013-04-05 2017-09-20 オムロン株式会社 画像処理装置、画像処理方法、およびプログラム
JP6167622B2 (ja) * 2013-04-08 2017-07-26 オムロン株式会社 制御システムおよび制御方法
US20160070985A1 (en) * 2013-05-02 2016-03-10 Konica Minolta Inc. Image processing apparatus, image processing method, and storage medium storing image processing program thereon
WO2014186642A2 (en) * 2013-05-17 2014-11-20 International Electronic Machines Corporation Operations monitoring in an area
DE102013106514B3 (de) * 2013-06-21 2014-10-30 Pilz Gmbh & Co. Kg Vorrichtung und Verfahren zum Absichern einer automatisiert arbeitenden Maschine
JP6581079B2 (ja) * 2013-06-26 2019-09-25 レニショウ パブリック リミテッド カンパニーRenishaw Public Limited Company 付加製造において使用するための幾何学的データを生成するための方法および装置
JP6415026B2 (ja) * 2013-06-28 2018-10-31 キヤノン株式会社 干渉判定装置、干渉判定方法、コンピュータプログラム
KR102124617B1 (ko) * 2013-09-03 2020-06-19 삼성전자주식회사 이미지 합성 방법 및 그 전자 장치
DE102013109915B4 (de) * 2013-09-10 2015-04-02 Thyssenkrupp Steel Europe Ag Verfahren und Vorrichtung zur Überprüfung eines Inspektionssystems zur Erkennung von Oberflächendefekten
JP6078444B2 (ja) * 2013-09-20 2017-02-08 日立オートモティブシステムズ株式会社 パワーステアリング装置および車両搭載機器の制御装置
JP5788461B2 (ja) * 2013-11-05 2015-09-30 ファナック株式会社 バラ積みされた物品をロボットで取出す装置及び方法
JP2015089590A (ja) * 2013-11-05 2015-05-11 ファナック株式会社 バラ積みされた物品をロボットで取出す装置及び方法
US10079999B2 (en) * 2013-11-18 2018-09-18 Koninklijke Philips N.V. Video surveillance for MRI safety monintoring
US9778650B2 (en) * 2013-12-11 2017-10-03 Honda Motor Co., Ltd. Apparatus, system and method for kitting and automation assembly
JP6354178B2 (ja) * 2014-01-31 2018-07-11 オムロン株式会社 画像処理装置、管理システムおよび管理方法
JP6278741B2 (ja) * 2014-02-27 2018-02-14 株式会社キーエンス 画像測定器
JP5824173B1 (ja) * 2014-02-28 2015-11-25 ファナック株式会社 ロボットを用いて物品を整列させる物品整列装置及び物品整列方法、並びに物品整列装置を備えた物品移送システム
KR102081139B1 (ko) * 2014-03-12 2020-02-25 한국전자통신연구원 물체 피킹 시스템, 물체 검출 장치 및 그 방법
US20190251349A1 (en) * 2014-03-12 2019-08-15 Gary L. Duerksen System and method for object classification and sorting
JP5897624B2 (ja) * 2014-03-12 2016-03-30 ファナック株式会社 ワークの取出工程をシミュレーションするロボットシミュレーション装置
JP6337530B2 (ja) * 2014-03-14 2018-06-06 オムロン株式会社 画像処理装置、画像処理方法、および画像処理プログラム
JP6176388B2 (ja) * 2014-03-14 2017-08-09 オムロン株式会社 画像識別装置、画像センサ、画像識別方法
JP6642968B2 (ja) * 2014-03-20 2020-02-12 キヤノン株式会社 情報処理装置、情報処理方法、プログラム
JP6470506B2 (ja) * 2014-06-09 2019-02-13 株式会社キーエンス 検査装置
JP6403445B2 (ja) * 2014-06-09 2018-10-10 株式会社キーエンス 検査装置、検査方法およびプログラム
JP6290720B2 (ja) * 2014-06-09 2018-03-07 株式会社キーエンス 検査装置、検査方法およびプログラム
US9981380B2 (en) * 2014-07-01 2018-05-29 Seiko Epson Corporation Teaching apparatus and robot system
JP6372198B2 (ja) * 2014-07-01 2018-08-15 セイコーエプソン株式会社 ロボットシステム及び処理装置
JP6395481B2 (ja) * 2014-07-11 2018-09-26 キヤノン株式会社 画像認識装置、方法及びプログラム
JP6376873B2 (ja) * 2014-07-16 2018-08-22 キヤノン株式会社 画像処理装置、画像処理方法及びプログラム
JP6554695B2 (ja) * 2014-07-18 2019-08-07 株式会社ミツトヨ 画像測定装置
JP6357946B2 (ja) * 2014-07-25 2018-07-18 富士通株式会社 出力プログラム,出力装置,及び出力方法
JP6677160B2 (ja) * 2014-08-28 2020-04-08 ソニー株式会社 情報処理装置、情報処理システム、情報処理方法及びプログラム
JP6415190B2 (ja) * 2014-09-03 2018-10-31 キヤノン株式会社 ロボット装置、ロボット制御プログラム、記録媒体、およびロボット装置の制御方法
JP6705379B2 (ja) * 2014-09-25 2020-06-03 株式会社湯山製作所 鑑査支援システム
GB2532075A (en) * 2014-11-10 2016-05-11 Lego As System and method for toy recognition and detection based on convolutional neural networks
US9563825B2 (en) * 2014-11-20 2017-02-07 Adobe Systems Incorporated Convolutional neural network using a binarized convolution layer
JP6126067B2 (ja) * 2014-11-28 2017-05-10 ファナック株式会社 工作機械及びロボットを備えた協働システム
US9305216B1 (en) * 2014-12-15 2016-04-05 Amazon Technologies, Inc. Context-based detection and classification of actions
JP6140204B2 (ja) * 2015-02-06 2017-05-31 ファナック株式会社 3次元センサを備えた搬送ロボットシステム
JP6494313B2 (ja) * 2015-02-09 2019-04-03 キヤノン株式会社 画像処理方法、装置システム、プログラム、記憶媒体
FR3032365B1 (fr) * 2015-02-10 2017-02-03 Veolia Environnement-VE Procedure de tri selectif
JP6453668B2 (ja) * 2015-02-27 2019-01-16 富士フイルム株式会社 計測値管理装置とその作動方法および作動プログラム、並びに計測値管理システム
JP6512435B2 (ja) * 2015-04-10 2019-05-15 パナソニックIpマネジメント株式会社 プロジェクタ
JP6554900B2 (ja) * 2015-04-28 2019-08-07 オムロン株式会社 テンプレート作成装置及びテンプレート作成方法
DE102015207902A1 (de) * 2015-04-29 2016-11-03 Mando Corporation Verfahren und Vorrichtung zur Bestätigung des relevanten inneren weißen Kreises bei der Erkennung des Umfelds eines kreisförmigen Verkehrszeichens
KR102367828B1 (ko) * 2015-06-05 2022-02-25 삼성전자주식회사 이미지 운용 방법 및 이를 지원하는 전자 장치
US9844881B2 (en) * 2015-06-22 2017-12-19 GM Global Technology Operations LLC Robotic device including machine vision
US9449258B1 (en) * 2015-07-02 2016-09-20 Agt International Gmbh Multi-camera vehicle identification system
US9934566B2 (en) * 2015-07-14 2018-04-03 Siemens Healthcare Gmbh 3-D vessel tree surface reconstruction method
JP6659098B2 (ja) * 2015-07-29 2020-03-04 キヤノン株式会社 画像処理方法、画像処理装置、プログラム及び記録媒体
JP6474334B2 (ja) * 2015-07-30 2019-02-27 株式会社キーエンス 画像検査装置、画像検査方法および画像検査プログラム
DE102016009030B4 (de) * 2015-07-31 2019-05-09 Fanuc Corporation Vorrichtung für maschinelles Lernen, Robotersystem und maschinelles Lernsystem zum Lernen eines Werkstückaufnahmevorgangs
US9767564B2 (en) * 2015-08-14 2017-09-19 International Business Machines Corporation Monitoring of object impressions and viewing patterns
EP3136290A1 (de) * 2015-08-28 2017-03-01 Thomson Licensing Verfahren und vorrichtung zur ermittlung der form eines objektes in einem bild, entsprechendes computerprogrammprodukt und computerlesbares medium
JP6407826B2 (ja) * 2015-09-03 2018-10-17 ファナック株式会社 座標系設定方法、座標系設定装置、及び座標系設定装置を備えたロボットシステム
CN108351296A (zh) * 2015-09-07 2018-07-31 移动Odt公司 用于检测生物学证据的手持移动设备
US10181187B2 (en) * 2015-09-09 2019-01-15 Canon Kabushiki Kaisha Information processing apparatus, method thereof, information processing system, and computer-readable storage medium that display a medical image with comment information
CN106530194B (zh) * 2015-09-09 2020-02-07 阿里巴巴集团控股有限公司 一种疑似侵权产品图片的检测方法及装置
US9947107B2 (en) * 2015-09-16 2018-04-17 Agt International Gmbh Method and system for tracking objects between cameras
US10152828B2 (en) * 2015-09-30 2018-12-11 Umap AV Corp. Generating scene reconstructions from images
US10176382B1 (en) * 2015-10-01 2019-01-08 Hrl Laboratories, Llc Method and apparatus for sparse associative recognition and recall for visual media reasoning
US10382300B2 (en) * 2015-10-06 2019-08-13 Evolv Technologies, Inc. Platform for gathering real-time analysis
US20170103124A1 (en) * 2015-10-07 2017-04-13 Abdelrahman Hassan Remote search engine using camera
US10311596B2 (en) * 2015-10-16 2019-06-04 Seiko Epson Corporation Image processing device, robot, robot system, and marker
JP6618767B2 (ja) * 2015-10-27 2019-12-11 株式会社デンソーテン 画像処理装置および画像処理方法
JP6348093B2 (ja) * 2015-11-06 2018-06-27 ファナック株式会社 入力データから検出対象物の像を検出する画像処理装置および方法
CN107040709A (zh) * 2015-11-12 2017-08-11 精工爱普生株式会社 图像处理装置、机器人系统、机器人以及图像处理方法
US10540476B2 (en) * 2015-11-16 2020-01-21 Hitachi, Ltd. Computer-implemented method for simplifying analysis of a computer-aided model
US9930248B2 (en) * 2015-11-17 2018-03-27 Eman Bayani Digital image capturing device system and method
JP6601179B2 (ja) * 2015-11-18 2019-11-06 オムロン株式会社 シミュレーション装置、シミュレーション方法、およびシミュレーションプログラム
JP6540472B2 (ja) * 2015-11-18 2019-07-10 オムロン株式会社 シミュレーション装置、シミュレーション方法、およびシミュレーションプログラム
JP6608682B2 (ja) * 2015-11-24 2019-11-20 株式会社キーエンス 位置決め方法、外観検査装置、プログラム、コンピュータ可読記録媒体および外観検査方法
JP6630545B2 (ja) * 2015-11-24 2020-01-15 株式会社キーエンス 位置決め方法、位置決め装置、プログラムおよびコンピュータ可読記録媒体
JP6117901B1 (ja) * 2015-11-30 2017-04-19 ファナック株式会社 複数の物品の位置姿勢計測装置及び該位置姿勢計測装置を含むロボットシステム
US11210595B2 (en) * 2015-11-30 2021-12-28 Allegro Artificial Intelligence Ltd System and method for selective use of examples
US9892344B1 (en) * 2015-11-30 2018-02-13 A9.Com, Inc. Activation layers for deep learning networks
JP6710946B2 (ja) * 2015-12-01 2020-06-17 セイコーエプソン株式会社 制御装置、ロボットおよびロボットシステム
US9846808B2 (en) * 2015-12-31 2017-12-19 Adaptive Computation, Llc Image integration search based on human visual pathway model
JP6688088B2 (ja) * 2016-01-19 2020-04-28 キヤノン株式会社 情報処理装置およびその制御方法
JP6031202B1 (ja) * 2016-01-29 2016-11-24 ファナック株式会社 製造機械の異常の原因を発見するセル制御装置
JP2017146840A (ja) * 2016-02-18 2017-08-24 富士ゼロックス株式会社 画像処理装置およびプログラム
JP6333871B2 (ja) * 2016-02-25 2018-05-30 ファナック株式会社 入力画像から検出した対象物を表示する画像処理装置
CN108885715B (zh) * 2016-03-03 2020-06-26 谷歌有限责任公司 用于机器人抓取的深度机器学习方法和装置
JP6625914B2 (ja) * 2016-03-17 2019-12-25 ファナック株式会社 機械学習装置、レーザ加工システムおよび機械学習方法
CN107924465B (zh) * 2016-03-18 2021-09-10 Jvc 建伍株式会社 物体识别装置、物体识别方法以及存储介质
JP6430986B2 (ja) * 2016-03-25 2018-11-28 ファナック株式会社 ロボットを用いた位置決め装置
US9779296B1 (en) * 2016-04-01 2017-10-03 Kofax, Inc. Content-based detection and three dimensional geometric reconstruction of objects in image and video data
JP6727543B2 (ja) * 2016-04-01 2020-07-22 富士ゼロックス株式会社 画像パターン認識装置及びプログラム
FI128735B (en) * 2016-05-06 2020-11-13 Procemex Oy Ltd Machine vision method and system
JP6542710B2 (ja) * 2016-05-26 2019-07-10 ファナック株式会社 アラーム解決のためのプログラム修正支援機能を備えた数値制御装置
JP6850080B2 (ja) * 2016-05-27 2021-03-31 株式会社キーエンス 画像処理センサ
US10146036B2 (en) * 2016-06-07 2018-12-04 Globalfoundries Inc. Semiconductor wafer inspection using care area group-specific threshold settings for detecting defects
US10245724B2 (en) * 2016-06-09 2019-04-02 Shmuel Ur Innovation Ltd. System, method and product for utilizing prediction models of an environment
JP6684158B2 (ja) * 2016-06-13 2020-04-22 株式会社キーエンス 画像処理センサ、画像処理方法
JP6764701B2 (ja) * 2016-06-13 2020-10-07 株式会社キーエンス 画像処理センサ、画像処理方法、画像処理プログラム及びコンピュータで読み取り可能な記録媒体並びに記録した機器
JP6730855B2 (ja) * 2016-06-13 2020-07-29 株式会社キーエンス 画像処理センサ、画像処理方法、画像処理プログラム及びコンピュータで読み取り可能な記録媒体並びに記録した機器
WO2018000038A1 (en) * 2016-06-29 2018-01-04 Seeing Machines Limited System and method for identifying a camera pose of a forward facing camera in a vehicle
JP6801263B2 (ja) * 2016-06-30 2020-12-16 富士通株式会社 表示制御プログラム、表示制御方法および表示制御装置
US20200047337A1 (en) * 2016-07-13 2020-02-13 Discovery Robotics Robotic platform with event based mode change
US9898846B1 (en) * 2016-08-11 2018-02-20 Noa, Inc. Method and apparatus for traffic condition diagram generation
US10131051B1 (en) * 2016-08-12 2018-11-20 Amazon Technologies, Inc. Anticipation-based robotic object grasping
US10025902B2 (en) * 2016-08-12 2018-07-17 Verily Life Sciences Llc Enhanced pathology diagnosis
DE102016215144A1 (de) * 2016-08-15 2018-02-15 Ifm Electronic Gmbh Verfahren zur Vollständigkeitsprüfung
US10055882B2 (en) * 2016-08-15 2018-08-21 Aquifi, Inc. System and method for three-dimensional scanning and for capturing a bidirectional reflectance distribution function
JP6517762B2 (ja) * 2016-08-23 2019-05-22 ファナック株式会社 人とロボットが協働して作業を行うロボットの動作を学習するロボットシステム
JP2018041261A (ja) * 2016-09-07 2018-03-15 東芝テック株式会社 情報処理装置及びプログラム
WO2018058044A1 (en) * 2016-09-23 2018-03-29 Aon Benfield Inc. Platform, systems, and methods for identifying property characteristics and property feature maintenance through aerial imagery analysis
JP6514171B2 (ja) * 2016-09-27 2019-05-15 ファナック株式会社 最適な物品把持経路を学習する機械学習装置、及び機械学習方法
US10187593B2 (en) * 2016-09-27 2019-01-22 Rxsafe Llc Verification system for a pharmacy packaging system
JP2018054437A (ja) * 2016-09-28 2018-04-05 株式会社デンソー 検査装置
US11752295B2 (en) * 2016-09-30 2023-09-12 Sony Interactive Entertainment Inc. Method and system for classifying virtual reality (VR) content based on modeled discomfort of a user
JP6549545B2 (ja) * 2016-10-11 2019-07-24 ファナック株式会社 人の行動を学習してロボットを制御する制御装置およびロボットシステム
US10282607B2 (en) * 2016-10-28 2019-05-07 The Nielsen Company (Us), Llc Reducing scale estimate errors in shelf images
US10643396B2 (en) * 2016-11-11 2020-05-05 Microbrightfield, Inc. Methods and software for creating a 3D image from images of multiple histological sections and for mapping anatomical information from a reference atlas to a histological image
US10685386B2 (en) * 2016-11-30 2020-06-16 Bank Of America Corporation Virtual assessments using augmented reality user devices
EP3557521A4 (de) * 2016-12-19 2020-08-05 Kabushiki Kaisha Yaskawa Denki Bilderkennungsprozessor und steuergerät für industrielle vorrichtung
JP6392908B2 (ja) * 2017-01-12 2018-09-19 ファナック株式会社 視覚センサの異常原因推定システム
WO2018135098A1 (ja) * 2017-01-18 2018-07-26 パナソニックIpマネジメント株式会社 監視装置、監視方法およびコンピュータプログラム
WO2018136262A1 (en) * 2017-01-20 2018-07-26 Aquifi, Inc. Systems and methods for defect detection
US10140773B2 (en) * 2017-02-01 2018-11-27 Accenture Global Solutions Limited Rendering virtual objects in 3D environments
JP7111694B2 (ja) * 2017-02-28 2022-08-02 日本電気株式会社 点検支援装置、点検支援方法およびプログラム
JP6823502B2 (ja) * 2017-03-03 2021-02-03 株式会社キーエンス ロボット設定装置、ロボット設定方法、ロボット設定プログラム及びコンピュータで読み取り可能な記録媒体並びに記録した機器
US10322510B2 (en) * 2017-03-03 2019-06-18 Futurewei Technologies, Inc. Fine-grained object recognition in robotic systems
JP6889574B2 (ja) * 2017-03-03 2021-06-18 株式会社キーエンス ロボット設定装置、ロボット設定方法、ロボット設定プログラム及びコンピュータで読み取り可能な記録媒体並びに記録した機器
WO2018165038A1 (en) * 2017-03-06 2018-09-13 Miso Robotics, Inc. Augmented reality-enhanced food preparation system and related methods
JP6588675B2 (ja) * 2017-03-10 2019-10-09 富士フイルム株式会社 画像処理システム、画像処理装置、画像処理方法及び画像処理プログラム
JP6684475B2 (ja) * 2017-03-13 2020-04-22 オムロン株式会社 画像処理装置、画像処理方法及びプログラム
JP6542824B2 (ja) * 2017-03-13 2019-07-10 ファナック株式会社 入力画像から検出した対象物の像の尤度を計算する画像処理装置および画像処理方法
GB201704373D0 (en) * 2017-03-20 2017-05-03 Rolls-Royce Ltd Surface defect detection
JP2018173814A (ja) * 2017-03-31 2018-11-08 富士通株式会社 画像処理装置、画像処理方法、画像処理プログラム、及び教師データ生成方法
JP6862538B2 (ja) * 2017-04-14 2021-04-21 株式会社日立ハイテク 撮像装置および形態特徴データ表示方法
US10803292B2 (en) * 2017-04-26 2020-10-13 Mashgin Inc. Separation of objects in images from three-dimensional cameras
US10467454B2 (en) * 2017-04-26 2019-11-05 Mashgin Inc. Synchronization of image data from multiple three-dimensional cameras for image recognition
JP6526100B2 (ja) * 2017-04-28 2019-06-05 ファナック株式会社 物品取出システム
WO2018208791A1 (en) * 2017-05-08 2018-11-15 Aquifi, Inc. Systems and methods for inspection and defect detection using 3-d scanning
JP6919982B2 (ja) * 2017-05-09 2021-08-18 株式会社キーエンス 画像検査装置
JP6917762B2 (ja) * 2017-05-09 2021-08-11 株式会社キーエンス 画像検査装置
JP6864549B2 (ja) * 2017-05-09 2021-04-28 株式会社キーエンス 画像検査装置
JP6857079B2 (ja) * 2017-05-09 2021-04-14 株式会社キーエンス 画像検査装置
WO2018207481A1 (ja) * 2017-05-09 2018-11-15 古野電気株式会社 自動検査装置
JP6487493B2 (ja) * 2017-05-18 2019-03-20 ファナック株式会社 画像処理システム
JP6974697B2 (ja) * 2017-05-26 2021-12-01 富士通株式会社 教師データ生成装置、教師データ生成方法、教師データ生成プログラム、及び物体検出システム
JP7188870B2 (ja) * 2017-05-31 2022-12-13 株式会社キーエンス 画像検査装置
JP6917781B2 (ja) * 2017-05-31 2021-08-11 株式会社キーエンス 画像検査装置
JP6997541B2 (ja) * 2017-05-31 2022-01-17 株式会社キーエンス 画像検査装置、画像検査プログラム及びコンピュータで読み取り可能な記録媒体並びに記録した機器
US20190138786A1 (en) * 2017-06-06 2019-05-09 Sightline Innovation Inc. System and method for identification and classification of objects
US10268928B2 (en) * 2017-06-07 2019-04-23 Adobe Inc. Combined structure and style network
CA3030734C (en) * 2017-06-16 2023-01-10 Robotiq Inc. Robotic arm camera system and method
JP6549644B2 (ja) * 2017-06-27 2019-07-24 ファナック株式会社 機械学習装置、ロボット制御システム及び機械学習方法
JP7167418B2 (ja) * 2017-06-30 2022-11-09 オムロン株式会社 位置制御システム、位置検出装置、および制御プログラム
JP6705777B2 (ja) * 2017-07-10 2020-06-03 ファナック株式会社 機械学習装置、検査装置及び機械学習方法
US10733755B2 (en) * 2017-07-18 2020-08-04 Qualcomm Incorporated Learning geometric differentials for matching 3D models to objects in a 2D image
JP6523379B2 (ja) * 2017-07-25 2019-05-29 ファナック株式会社 情報処理装置
US11836911B2 (en) * 2017-07-26 2023-12-05 Canon Kabushiki Kaisha Image data management method, production apparatus, production system, image data management method for production system, and non-transitory computer-readable recording medium
JP6729516B2 (ja) * 2017-07-27 2020-07-22 トヨタ自動車株式会社 識別装置
WO2019026104A1 (ja) * 2017-07-31 2019-02-07 富士通株式会社 情報処理装置、情報処理プログラム及び情報処理方法
JP6970551B2 (ja) * 2017-07-31 2021-11-24 株式会社キーエンス 形状測定装置及び形状測定方法
US10489693B2 (en) * 2017-08-03 2019-11-26 Motorola Solutions, Inc. Method and apparatus for distributed edge learning
JP7132701B2 (ja) * 2017-08-10 2022-09-07 株式会社ブリヂストン タイヤ画像の認識方法及びタイヤ画像の認識装置
GB2565775A (en) * 2017-08-21 2019-02-27 Nokia Technologies Oy A Method, an apparatus and a computer program product for object detection
JP6680732B2 (ja) * 2017-08-23 2020-04-15 ファナック株式会社 物品積み付け装置及び機械学習装置
GB201713829D0 (en) * 2017-08-29 2017-10-11 We Are Human Ltd Image data processing system and method
US11093793B2 (en) * 2017-08-29 2021-08-17 Vintra, Inc. Systems and methods for a tailored neural network detector
JP7197971B2 (ja) * 2017-08-31 2022-12-28 キヤノン株式会社 情報処理装置、情報処理装置の制御方法及びプログラム
CN108288067B (zh) * 2017-09-12 2020-07-24 腾讯科技(深圳)有限公司 图像文本匹配模型的训练方法、双向搜索方法及相关装置
JP6608890B2 (ja) * 2017-09-12 2019-11-20 ファナック株式会社 機械学習装置、ロボットシステム及び機械学習方法
TWI628415B (zh) * 2017-09-13 2018-07-01 國立清華大學 基於影像尺的定位量測系統
JP6871116B2 (ja) * 2017-09-15 2021-05-12 株式会社東芝 セルソータ
JP6889865B2 (ja) * 2017-09-22 2021-06-18 オムロン株式会社 テンプレート作成装置、物体認識処理装置、テンプレート作成方法及びプログラム
US20190096135A1 (en) * 2017-09-26 2019-03-28 Aquifi, Inc. Systems and methods for visual inspection based on augmented reality
JP6626057B2 (ja) * 2017-09-27 2019-12-25 ファナック株式会社 検査装置及び検査システム
US10909429B2 (en) * 2017-09-27 2021-02-02 Monotype Imaging Inc. Using attributes for identifying imagery for selection
JP6881188B2 (ja) * 2017-09-27 2021-06-02 オムロン株式会社 位置検出装置およびプログラム
US10820870B2 (en) * 2017-10-03 2020-11-03 Canon Medical Systems Corporation X-ray diagnostic apparatus and X-ray high-voltage generator
US11488053B2 (en) * 2017-10-06 2022-11-01 Adobe Inc. Automatically controlling modifications to typeface designs with machine-learning models
WO2019075276A1 (en) * 2017-10-11 2019-04-18 Aquifi, Inc. SYSTEMS AND METHODS FOR IDENTIFYING OBJECT
US10833877B2 (en) * 2017-10-12 2020-11-10 Canon Kabushiki Kaisha Method of authenticating authentication-target apparatus by authentication apparatus, authentication apparatus, authentication- target apparatus, and image forming apparatus
US10628961B2 (en) * 2017-10-13 2020-04-21 Qualcomm Incorporated Object tracking for neural network systems
JP6646026B2 (ja) * 2017-10-16 2020-02-14 ファナック株式会社 作業システム、物品に対する作業実施方法、およびロボット
JP2019075009A (ja) * 2017-10-18 2019-05-16 パナソニックIpマネジメント株式会社 作業支援システム、厨房支援システム、作業支援方法、及びプログラム
AU2018353840B2 (en) * 2017-10-20 2021-09-16 BXB Digital Pty Limited Systems and methods for tracking goods carriers
KR102516001B1 (ko) * 2017-10-24 2023-03-29 로레알 심층 신경망을 사용하는 이미지 처리를 위한 시스템 및 방법
TWI649659B (zh) * 2017-10-27 2019-02-01 財團法人工業技術研究院 自動光學檢測影像分類方法、系統及含有該方法之電腦可讀取媒體
EP3704626A1 (de) * 2017-11-02 2020-09-09 Amp Robotics Corporation Systeme und verfahren zur optischen materialcharakterisierung von abfallmaterialien mithilfe von maschinenlernen
JP6936957B2 (ja) * 2017-11-07 2021-09-22 オムロン株式会社 検査装置、データ生成装置、データ生成方法及びデータ生成プログラム
JP6936958B2 (ja) * 2017-11-08 2021-09-22 オムロン株式会社 データ生成装置、データ生成方法及びデータ生成プログラム
US10521705B2 (en) * 2017-11-14 2019-12-31 Adobe Inc. Automatically selecting images using multicontext aware ratings
JP7004145B2 (ja) * 2017-11-15 2022-01-21 オムロン株式会社 欠陥検査装置、欠陥検査方法、及びそのプログラム
JP6693938B2 (ja) * 2017-11-17 2020-05-13 ファナック株式会社 外観検査装置
US10235797B1 (en) * 2017-11-27 2019-03-19 Lowe's Companies, Inc. Inverse rendering of visual material properties
US10713563B2 (en) * 2017-11-27 2020-07-14 Technische Universiteit Eindhoven Object recognition using a convolutional neural network trained by principal component analysis and repeated spectral clustering
US10671896B2 (en) * 2017-12-04 2020-06-02 International Business Machines Corporation Systems and user interfaces for enhancement of data utilized in machine-learning based medical image review
US10607122B2 (en) * 2017-12-04 2020-03-31 International Business Machines Corporation Systems and user interfaces for enhancement of data utilized in machine-learning based medical image review
JP6992475B2 (ja) * 2017-12-14 2022-01-13 オムロン株式会社 情報処理装置、識別システム、設定方法及びプログラム
JP6955211B2 (ja) * 2017-12-14 2021-10-27 オムロン株式会社 識別装置、識別方法及びプログラム
US10558844B2 (en) * 2017-12-18 2020-02-11 Datalogic Ip Tech S.R.L. Lightweight 3D vision camera with intelligent segmentation engine for machine vision and auto identification
KR20190073756A (ko) * 2017-12-19 2019-06-27 삼성전자주식회사 반도체 결함 분류 장치, 반도체의 결함을 분류하는 방법, 그리고 반도체 결함 분류 시스템
US10529077B2 (en) * 2017-12-19 2020-01-07 Canon Kabushiki Kaisha System and method for detecting interaction
JP6873941B2 (ja) * 2018-03-02 2021-05-19 株式会社日立製作所 ロボット作業システム、及びロボット作業システムの制御方法
JP7106902B2 (ja) * 2018-03-13 2022-07-27 富士通株式会社 学習プログラム、学習方法および学習装置
JP7015001B2 (ja) * 2018-03-14 2022-02-02 オムロン株式会社 欠陥検査装置、欠陥検査方法、及びそのプログラム
JP6810087B2 (ja) * 2018-03-29 2021-01-06 ファナック株式会社 機械学習装置、機械学習装置を用いたロボット制御装置及びロボットビジョンシステム、並びに機械学習方法
US11260534B2 (en) * 2018-04-04 2022-03-01 Canon Kabushiki Kaisha Information processing apparatus and information processing method
KR102036127B1 (ko) * 2018-04-10 2019-11-26 (주)오엔에스커뮤니케이션 영상 인식을 이용한 의류 생산 모니터링 시스템
US10967507B2 (en) * 2018-05-02 2021-04-06 X Development Llc Positioning a robot sensor for object classification
US10733723B2 (en) * 2018-05-22 2020-08-04 Midea Group Co., Ltd. Methods and system for improved quality inspection
US10706525B2 (en) * 2018-05-22 2020-07-07 Midea Group Co. Ltd. Methods and systems for improved quality inspection
US10885608B2 (en) * 2018-06-06 2021-01-05 Adobe Inc. Super-resolution with reference images
US20200005422A1 (en) * 2018-06-29 2020-01-02 Photogauge, Inc. System and method for using images for automatic visual inspection with machine learning
US11568597B2 (en) * 2018-08-14 2023-01-31 The Boeing Company Automated supervision and inspection of assembly process
US11948669B2 (en) * 2018-08-29 2024-04-02 Canon Medical Systems Corporation Medical information management apparatus and medical information management system
JP7045963B2 (ja) * 2018-08-30 2022-04-01 オリンパス株式会社 計測装置の作動方法、計測装置、およびプログラム
KR20200039047A (ko) * 2018-10-01 2020-04-16 에스케이씨 주식회사 필름 결함 검출 방법 및 시스템
JP7214432B2 (ja) * 2018-10-22 2023-01-30 キヤノン株式会社 画像処理方法、画像処理プログラム、記録媒体、画像処理装置、生産システム、物品の製造方法
US10769496B2 (en) * 2018-10-25 2020-09-08 Adobe Inc. Logo detection
US10842445B2 (en) * 2018-11-08 2020-11-24 General Electric Company System and method for unsupervised deep learning for deformable image registration
JP6871220B2 (ja) * 2018-11-08 2021-05-12 ファナック株式会社 制御システム
US11312020B2 (en) * 2018-11-20 2022-04-26 Beijing Jingdong Shangke Information Technology Co System and method for fast object detection in robot picking
US10726543B2 (en) * 2018-11-27 2020-07-28 General Electric Company Fluorescent penetrant inspection system and method
US11245700B2 (en) * 2018-12-06 2022-02-08 Fujitsu Limited Information processing apparatus, information processing method, and recording medium recording information processing program
JP6956063B2 (ja) * 2018-12-07 2021-10-27 ファナック株式会社 加工品の表面損傷検査システム
US11164326B2 (en) * 2018-12-18 2021-11-02 Samsung Electronics Co., Ltd. Method and apparatus for calculating depth map
JP7176965B2 (ja) * 2019-02-01 2022-11-22 株式会社キーエンス 画像検査装置
JP2020139905A (ja) * 2019-03-01 2020-09-03 セイコーエプソン株式会社 検査装置、検査方法、およびプログラム
US11176428B2 (en) * 2019-04-01 2021-11-16 Canon Medical Systems Corporation Apparatus and method for sinogram restoration in computed tomography (CT) using adaptive filtering with deep learning (DL)
KR20190095200A (ko) * 2019-07-26 2019-08-14 엘지전자 주식회사 영상 내 물체 인식 장치 및 방법

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2001041068A1 (fr) 1999-11-29 2001-06-07 Olympus Optical Co., Ltd. Systeme de detection de defaut
JP2007114843A (ja) 2005-10-18 2007-05-10 Denso Corp 良否判定装置
JP2013142558A (ja) 2012-01-06 2013-07-22 Keyence Corp 外観検査装置、外観検査方法及びコンピュータプログラム
JP2015218357A (ja) 2014-05-16 2015-12-07 東レエンジニアリング株式会社 薄膜形成装置および薄膜形成方法

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
„Generalizing the Hough Transform to Detect Arbitrary Shapes", D. H. Ballard, Pattern Recognition Bd. 13, Nr. 2, S. 111–122, 1981
„Object Recognition from Local Scale-Invariant Features", David G. Lowe, Proc. of the International Conference on Computer Vision, Corfu (Sept. 1999)
„Random sample consensus: a paradigm for model fitting with applications to picture image analysis and automated cartography", Martin A. Fischler, et al., Communications of the Association for Computing Machinery, Bd. 24, Nr. 6, S. 381–395, Juni 1981

Also Published As

Publication number Publication date
CN107123106A (zh) 2017-09-01
US20170249766A1 (en) 2017-08-31
US10930037B2 (en) 2021-02-23
JP2017151813A (ja) 2017-08-31
JP6333871B2 (ja) 2018-05-30

Similar Documents

Publication Publication Date Title
DE102017001667A1 (de) Bildverarbeitungseinrichtung zum Anzeigen eines Objekts, das anhand einer Eingabebildaufnahme erkannt wird
DE102018119682A1 (de) Bildverarbeitungsvorrichtung, bildverarbeitungsverfahren und nicht-vorübergehendes computerlesbares speichermedium
DE102017220307B4 (de) Vorrichtung und Verfahren zum Erkennen von Verkehrszeichen
DE112020000279T5 (de) Erlernen eines erkennungsmodells unter verwenden einer verlustfunktion
DE102013217354B4 (de) Kantenmessungs-videowerkzeug und schnittstelle mit automatischen parametersatzalternativen
DE19612949C1 (de) Verfahren zur Erkennung mindestens eines fingerförmigen Objekts in einem ersten, handförmigen Objekt durch einen Rechner
DE112016006262B4 (de) Dreidimensionaler Scanner und Verarbeitungsverfahren zur Messunterstützung für diesen
DE102018207414A1 (de) Bildverarbeitungssystem
DE112014001658T5 (de) Nachverfolgungsverarbeitungsvorrichtung und Nachverfolgungsverarbeitungssystem, das damit ausgestattet ist, und Nachverfolgungsverarbeitungsverfahren
DE102016206010B4 (de) Systeme und Verfahren zur Klassifizierung und Angleichung von hochgradig ähnlichen oder selbstähnlichen Mustern
DE102018102688A1 (de) Bildverarbeitungsvorrichtung, Bildverarbeitungsprogramm und Bildverarbeitungssystem
DE102019124810A1 (de) Bildverarbeitungsgerät und Bildverarbeitungsverfahren
DE102009057884A1 (de) Abbildungsvorrichtung
DE102021107333A1 (de) 3d-stellungsabschätzung mit einer 2d-kamera
DE102019127282A1 (de) System und Verfahren zum Analysieren einer dreidimensionalen Umgebung durch tiefes Lernen
DE202019105838U1 (de) Anordnung mit einem Koordinatenmessgerät oder Mikroskop
DE102021100444A1 (de) Mikroskopiesystem und verfahren zum bewerten von bildverarbeitungsergebnissen
DE112018003571T5 (de) Informationsverarbeitungsvorrichtung und Informationsverarbeitungsverfahren
DE102018102833A1 (de) Positionskontrollsystem, positionserkennungsvorrichtung und steuerprogramm
DE102019133685A1 (de) Informationsverarbeitungssystem und -verfahren
EP3123393B1 (de) Verfahren zur optischen erkennung von zeichen
DE102019131678A1 (de) Mikroskop und Verfahren zum Verarbeiten von Mikroskopbildern
DE102020209080A1 (de) Bildverarbeitungssystem
DE102021107351A1 (de) System zur eigenschaftserkennung durch deep-learning und vektorfeldschätzung
DE102021201124A1 (de) Trainieren von bildklassifizierernetzen

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R016 Response to examination communication