DE102018131076A1 - Systeme und verfahren zum angleichen an die farbe und das erscheinungsbild von zielbeschichtungen - Google Patents

Systeme und verfahren zum angleichen an die farbe und das erscheinungsbild von zielbeschichtungen Download PDF

Info

Publication number
DE102018131076A1
DE102018131076A1 DE102018131076.5A DE102018131076A DE102018131076A1 DE 102018131076 A1 DE102018131076 A1 DE 102018131076A1 DE 102018131076 A DE102018131076 A DE 102018131076A DE 102018131076 A1 DE102018131076 A1 DE 102018131076A1
Authority
DE
Germany
Prior art keywords
target
image
coating
match
target image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102018131076.5A
Other languages
English (en)
Inventor
Larry Steenhoek
Alesio Tamburro
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Axalta Coating Systems GmbH
Original Assignee
Coatings Foreign IP Co LLC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Coatings Foreign IP Co LLC filed Critical Coatings Foreign IP Co LLC
Publication of DE102018131076A1 publication Critical patent/DE102018131076A1/de
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01JMEASUREMENT OF INTENSITY, VELOCITY, SPECTRAL CONTENT, POLARISATION, PHASE OR PULSE CHARACTERISTICS OF INFRARED, VISIBLE OR ULTRAVIOLET LIGHT; COLORIMETRY; RADIATION PYROMETRY
    • G01J3/00Spectrometry; Spectrophotometry; Monochromators; Measuring colours
    • G01J3/46Measurement of colour; Colour measuring devices, e.g. colorimeters
    • G01J3/463Colour matching
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01JMEASUREMENT OF INTENSITY, VELOCITY, SPECTRAL CONTENT, POLARISATION, PHASE OR PULSE CHARACTERISTICS OF INFRARED, VISIBLE OR ULTRAVIOLET LIGHT; COLORIMETRY; RADIATION PYROMETRY
    • G01J3/00Spectrometry; Spectrophotometry; Monochromators; Measuring colours
    • G01J3/46Measurement of colour; Colour measuring devices, e.g. colorimeters
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/50Information retrieval; Database structures therefor; File system structures therefor of still image data
    • G06F16/51Indexing; Data structures therefor; Storage structures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/50Information retrieval; Database structures therefor; File system structures therefor of still image data
    • G06F16/53Querying
    • G06F16/535Filtering based on additional data, e.g. user or group profiles
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/50Information retrieval; Database structures therefor; File system structures therefor of still image data
    • G06F16/58Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/583Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
    • G06F16/5838Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content using colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • G06N20/20Ensemble learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N5/00Computing arrangements using knowledge-based models
    • G06N5/01Dynamic search techniques; Heuristics; Dynamic trees; Branch-and-bound
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N7/00Computing arrangements based on specific mathematical models
    • G06N7/01Probabilistic graphical models, e.g. probabilistic networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0004Industrial image inspection
    • G06T7/001Industrial image inspection using an image reference approach
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • G06T7/33Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/90Determination of colour characteristics
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • G06V10/443Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/56Extraction of image or video features relating to colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/75Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
    • G06V10/757Matching configurations of points or features
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/46Colour picture communication systems
    • H04N1/56Processing of colour picture signals
    • H04N1/60Colour correction or control
    • H04N1/6002Corrections within particular colour systems
    • H04N1/6008Corrections within particular colour systems with primary colour signals, e.g. RGB or CMY(K)
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/46Colour picture communication systems
    • H04N1/56Processing of colour picture signals
    • H04N1/60Colour correction or control
    • H04N1/603Colour correction or control controlled by characteristics of the picture signal generator or the picture reproducer
    • H04N1/6033Colour correction or control controlled by characteristics of the picture signal generator or the picture reproducer using test pattern analysis
    • H04N1/6047Colour correction or control controlled by characteristics of the picture signal generator or the picture reproducer using test pattern analysis wherein the test pattern is part of an arbitrary user image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30108Industrial image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30108Industrial image inspection
    • G06T2207/30156Vehicle coating
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/46Colour picture communication systems
    • H04N1/56Processing of colour picture signals
    • H04N1/60Colour correction or control
    • H04N1/603Colour correction or control controlled by characteristics of the picture signal generator or the picture reproducer
    • H04N1/6052Matching two or more picture signal generators or two or more picture reproducers

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Data Mining & Analysis (AREA)
  • General Engineering & Computer Science (AREA)
  • Spectroscopy & Molecular Physics (AREA)
  • Multimedia (AREA)
  • Software Systems (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Databases & Information Systems (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Signal Processing (AREA)
  • Library & Information Science (AREA)
  • Medical Informatics (AREA)
  • Quality & Reliability (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Algebra (AREA)
  • Probability & Statistics with Applications (AREA)
  • Computational Linguistics (AREA)
  • Pure & Applied Mathematics (AREA)
  • Computational Mathematics (AREA)
  • Mathematical Analysis (AREA)
  • Mathematical Optimization (AREA)
  • Image Analysis (AREA)
  • Spectrometry And Color Measurement (AREA)
  • Investigating Or Analysing Materials By Optical Means (AREA)
  • Analysing Materials By The Use Of Radiation (AREA)

Abstract

Es werden hierin ein System und Verfahren zum Angleichen der Farbe und des Erscheinungsbilds einer Zielbeschichtung bereitgestellt. Das System beinhaltet eine elektronische Bildgebungsvorrichtung, die konfiguriert ist, um Zielbilddaten der Zielbeschichtung zu erhalten. Die Zielbilddaten beinhalten Zielbeschichtungsmerkmale. Das System beinhaltet ferner einen oder mehrere Merkmalsextraktionsalgorithmen, die die Zielbildmerkmale aus den Zielbilddaten extrahieren. Das System beinhaltet ferner ein Maschinenlernmodell, das ein berechnetes Übereinstimmungsmusterbild anhand von mehreren Musterbildern unter Verwendung der Zielbildmerkmale identifiziert. Das Maschinenlernmodell beinhaltet vorab spezifizierte Übereinstimmungskriterien, die die mehreren Musterbilder darstellen, um das berechnete Übereinstimmungsmusterbild anhand der mehreren Musterbilder zu identifizieren. Das berechnete Übereinstimmungsmusterbild wird zum Angleichen der Farbe und des Erscheinungsbilds der Zielbeschichtung verwendet.

Description

  • TECHNISCHES GEBIET
  • Das technische Gebiet ist auf ein System und ein Verfahren zum Angleichen an die Farbe und das Erscheinungsbild einer Zielbeschichtung gerichtet, und bezieht sich genauer auf Systeme und Verfahren zum Identifizieren eines Übereinstimmungsmusterbilds, das eine vorab definierte Ähnlichkeit mit visuellen Daten der Zielbeschichtung aufweist.
  • ALLGEMEINER STAND DER TECHNIK
  • Die Visualisierung und Auswahl von Beschichtungen, die eine gewünschte Farbe und ein gewünschtes Erscheinungsbild aufweisen, spielt bei vielen Anwendungen eine wichtige Rolle. Zum Beispiel müssen Farblieferanten tausende Beschichtungen bereitstellen, um die Bandbreite der Beschichtungen von globalen Erstausstatterherstellern für alle aktuellen und neueren Modelle von Fahrzeugen abzudecken. Das Bereitstellen dieser hohen Anzahl von verschiedenen Beschichtungen als Werkspaketprodukte macht die Farbherstellung komplexer und erhöht die Inventarkosten. Folglich stellen Farblieferanten ein Mischmaschinensystem bereit, das typischerweise 50 bis 100 Komponenten (z. B. Einzelpigmentfarben, Bindematerialien, Lösungsmittel, Zusatzstoffe) mit Beschichtungsformeln für die Komponenten, die mit der Bandbreite an Beschichtungen von Fahrzeugen übereinstimmen, beinhaltet. Die Mischmaschine kann sich bei einer Reparatureinrichtung (d. h., Karosseriewerkstatt) oder einem Farbhändler befinden und ermöglicht einem Benutzer, die Beschichtung mit der gewünschten Farbe und dem gewünschten Erscheinungsbild durch Ausgeben der Komponenten in Mengen entsprechend der Beschichtungsformel zu erhalten. Die Beschichtungsformeln werden typischerweise in einer Datenbank verwaltet und an Kunden durch Computersoftware durch Herunterladen oder eine direkte Verbindung mit Internet-Datenbanken vertrieben. Jede der Beschichtungsformeln bezieht sich typischerweise auf eine oder mehrere alternative Beschichtungsformeln, um Variationen der Beschichtungen aufgrund von Variationen bei der Fahrzeugherstellung zu berücksichtigen.
  • Die Identifizierung der Beschichtungsformel, die einer Zielbeschichtung am ähnlichsten ist, wird durch diese Variation verkompliziert. Zum Beispiel könnte eine bestimmte Beschichtung bei drei Fahrzeugmodellen vorkommen, die in zwei Fertigungswerken mit verschiedenen Anwendungsgeräten unter Verwendung von Farbe von zwei Erstaustatterfarblieferanten und über eine Lebensdauer von fünf Modelljahren produziert werden. Diese Variationsquellen führen zu einer deutlichen Beschichtungsvariation unter dem Bestand von Fahrzeugen mit dieser bestimmten Beschichtung. Die alternativen Beschichtungsformeln, die von dem Farblieferanten bereitgestellt werden, werden mit Untergruppen des Farbbestands abgeglichen, so dass eine gute Übereinstimmung für ein beliebiges Fahrzeug, das eine Reparatur benötigt, verfügbar ist. Jede der alternativen Beschichtungsformeln kann durch einen Farbchip in dem Farbfächer dargestellt werden, welcher dem Benutzer ermöglicht, die Formel, die am ehesten übereinstimmt, durch visuellen Vergleich mit dem Fahrzeug auszuwählen.
  • Das Identifizieren der Beschichtungsformel, die der Zielbeschichtung für eine Reparatur am ähnlichsten ist, wird typischerweise durch die Verwendung eines Spektrofotometers oder eines Farbfächers erreicht. Spektrofotometer messen ein oder mehrere Farb- und Erscheinungsbildattribute der zu reparierenden Zielbeschichtung. Diese Farb- und Erscheinungsbilddaten werden dann mit den entsprechenden Daten von potentiellen Kandidatenformeln, die in einer Datenbank enthalten sind, verglichen. Die Kandidatenformel, deren Farb- und Erscheinungsbildattribute am ehesten mit jenen der zu reparierenden Zielbeschichtung übereinstimmen, wird dann als die Beschichtungsformel, die der Zielbeschichtung am ähnlichsten ist, ausgewählt. Spektrofotometer sind jedoch teuer und auf den Wirtschaftsmärkten nicht leicht erhältlich.
  • Alternativ beinhalten Farbfächer mehrere Musterbeschichtungsschichten auf Seiten oder Klappen innerhalb des Farbfächers. Die Musterbeschichtungsschichten des Farbfächers werden dann visuell mit der Zielbeschichtung verglichen, die repariert wird. Die Formel, die der Musterbeschichtungsschicht zugeordnet ist, die am ehesten mit den Farb- und Erscheinungsbildattributen der zu reparierenden Zielbeschichtung übereinstimmt, wird dann als die Beschichtungsformel, die der Zielbeschichtung am ähnlichsten ist, ausgewählt. Farbfächer sind jedoch umständlich in der Verwendung und schwer zu warten aufgrund der riesigen Anzahl von Musterbeschichtungsschichten, die zum Berücksichtigen aller Beschichtungen bei Fahrzeugen, die im Umlauf sind, heutzutage nötig sind.
  • Von daher ist es wünschenswert, ein System und ein Verfahren zum Angleichen an die Farbe und das Erscheinungsbild einer Zielbeschichtung bereitzustellen. Zusätzlich werden andere wünschenswerte Merkmale und Charakteristiken anhand der folgenden Kurzdarstellung der Erfindung und ausführlichen Beschreibung und der beigefügten Ansprüche zusammen mit den begleitenden Zeichnungen und diesem allgemeinen Stand der Technik offensichtlich.
  • KURZDARSTELLUNG DER ERFINDUNG
  • Dies wird durch den Gegenstand der unabhängigen Ansprüche gelöst. Weitere Ausführungsformen sind in den abhängigen Ansprüchen dargestellt.
  • Verschiedene nichteinschränkende Ausführungsformen eines Systems zum Angleichen an die Farbe und das Erscheinungsbild einer Zielbeschichtung und verschiedene nichteinschränkende Ausführungsformen von Verfahren dafür sind hierin offenbart.
  • In einer nichteinschränkenden Ausführungsform beinhaltet das System eine Speichervorrichtung zum Speichern von Anweisungen zum Durchführen des Angleichens an die Farbe und das Erscheinungsbild der Zielbeschichtung, ohne jedoch darauf beschränkt zu sein. Das System beinhaltet ferner einen oder mehrere Datenprozessoren, die konfiguriert sind, um die Anweisungen auszuführen, ohne jedoch darauf beschränkt zu sein. Der eine oder die mehreren Datenprozessoren sind konfiguriert, um die Anweisungen auszuführen, um von dem einen oder den mehreren Datenprozessoren Zielbilddaten der Zielbeschichtung zu erhalten. Die Zielbilddaten werden von einer elektronischen Bildgebungsvorrichtung erstellt und beinhalten Zielbildmerkmale. Der eine oder die mehreren Datenprozessoren sind konfiguriert, um die Anweisungen auszuführen, um durch den einen oder die mehreren Prozessoren einen oder mehrere Merkmalsextraktionsalgorithmen abzurufen, die die Zielbildmerkmale aus den Zielbilddaten extrahieren. Der eine oder die mehreren Datenprozessoren sind konfiguriert, um die Anweisungen auszuführen, um die Zielbilddaten bei dem einen oder den mehreren Merkmalsextraktionsalgorithmen anzuwenden. Der eine oder die mehreren Datenprozessoren sind konfiguriert, um die Anweisungen auszuführen, um die Zielbildmerkmale aus den Zielbilddaten unter Verwendung des einen oder der mehreren Merkmalsextraktionsalgorithmen zu extrahieren. Der eine oder die mehreren Datenprozessoren sind konfiguriert, um die Anweisungen auszuführen, um durch den einen oder die mehreren Datenprozessoren ein Maschinenlernmodell abzurufen, das ein berechnetes Übereinstimmungsmusterbild aus mehreren Musterbildern unter Verwendung der Zielbildmerkmale identifiziert. Das Maschinenlernmodell beinhaltet vorab spezifizierte Übereinstimmungskriterien, die die mehreren Musterbilder darstellen, um das berechnete Übereinstimmungsmusterbild aus den mehreren Musterbildern zu identifizieren. Der eine oder die mehreren Datenprozessoren sind konfiguriert, um die Anweisungen auszuführen, um die Zielbildmerkmale bei dem Maschinenlernmodell anzuwenden. Der eine oder die mehreren Datenprozessoren sind konfiguriert, um die Anweisungen auszuführen, um das berechnete Übereinstimmungsmusterbild basierend darauf, dass eines oder mehrere der vorab spezifizierten Übereinstimmungskriterien im Wesentlichen erfüllt werden, zu identifizieren. Das berechnete Übereinstimmungsmusterbild wird zum Angleichen der Farbe und des Erscheinungsbilds der Zielbeschichtung verwendet.
  • In einer anderen nichteinschränkenden Ausführungsform beinhaltet das Verfahren das Erhalten durch einen oder mehrere Datenprozessoren von Zielbilddaten der Zielbeschichtung, ohne jedoch darauf beschränkt zu sein. Die Zielbilddaten werden von einer elektronischen Bildgebungsvorrichtung erstellt und beinhalten Zielbildmerkmale. Das Verfahren beinhaltet ferner das Abrufen durch einen oder mehrere Prozessoren von einem oder mehreren Merkmalsextraktionsalgorithmen, die die Zielbildmerkmale aus den Zielbilddaten extrahieren, ohne jedoch darauf beschränkt zu sein. Das Verfahren beinhaltet ferner das Anwenden der Zielbilddaten bei dem einen oder den mehreren Merkmalsextraktionsalgorithmen, ohne jedoch darauf beschränkt zu sein. Das Verfahren beinhaltet ferner das Extrahieren der Zielbildmerkmale aus den Zielbilddaten unter Verwendung des einen oder der mehreren Merkmalsextraktionsalgorithmen, ohne jedoch darauf beschränkt zu sein. Das Verfahren beinhaltet ferner das Abrufen durch einen oder mehrere Datenprozessoren eines Maschinenlernmodells, das ein berechnetes Übereinstimmungsmusterbild anhand von mehreren Musterbildern unter Verwendung der Zielbildmerkmale identifiziert, ohne jedoch darauf beschränkt zu sein. Das Maschinenlernmodell beinhaltet vorab spezifizierte Übereinstimmungskriterien, die die mehreren Musterbilder zum Identifizieren des berechneten Übereinstimmungsmusterbilds anhand der mehreren Musterbilder repräsentieren. Das Verfahren beinhaltet ferner das Anwenden der Zielbildmerkmale bei dem Maschinenlernmodell, ohne jedoch darauf beschränkt zu sein. Das Verfahren beinhaltet ferner das Identifizieren des berechneten Übereinstimmungsmusterbilds basierend darauf, dass eines oder mehrere der vorab spezifizierten Übereinstimmungskriterien im Wesentlichen erfüllt werden, ohne jedoch darauf beschränkt zu sein. Das berechnete Übereinstimmungsmusterbild wird zum Angleichen der Farbe und des Erscheinungsbilds der Zielbeschichtung verwendet.
  • Weitere Beispiele der vorliegenden Erfindung, welche für eine einfachere Bezugnahme nummeriert sind, werden im Folgenden beschrieben:
  • Beispiel [1] Ein prozessorimplementiertes System zum Angleichen der Farbe und des Erscheinungsbilds einer Zielbeschichtung, wobei das System Folgendes umfasst:
    • eine Speichervorrichtung zum Speichern von Anweisungen zum Durchführen des Angleichens der Farbe und des Erscheinungsbilds der Zielbeschichtung; und
    • einen oder mehrere Datenprozessoren, die konfiguriert sind, um die Anweisungen auszuführen, um:
    • von einem oder mehreren Datenprozessoren Zielbilddaten der Zielbeschichtung zu erhalten, wobei die Zielbilddaten von einer elektronischen Bildgebungsvorrichtung erstellt werden und Zielbildmerkmale beinhalten;
    • durch einen oder mehrere Prozessoren einen oder mehrere Merkmalsextraktionsalgorithmen abzurufen, die die Zielbildmerkmale aus den Zielbilddaten extrahieren;
    • die Zielbilddaten bei dem einen oder den mehreren Merkmalsextraktionsalgorithmen anzuwenden;
    • die Zielbildmerkmale aus den Zielbilddaten unter Verwendung des einen oder der mehreren Merkmalsextraktionsalgorithmen zu extrahieren;
    • durch einen oder mehrere Datenprozessoren ein Maschinenlernmodell abzurufen, das ein berechnetes Übereinstimmungsmusterbild anhand von mehreren Musterbilden unter Verwendung der Zielbildmerkmale identifiziert, wobei das Maschinenlernmodell vorab spezifizierte Übereinstimmungskriterien beinhaltet, die die mehreren Musterbilder darstellen, um das berechnete Übereinstimmungsmusterbild anhand der mehreren Musterbilder zu identifizieren;
    • die Zielbildmerkmale bei dem Maschinenlernmodell anzuwenden; und das berechnete Übereinstimmungsmusterbild basierend darauf, dass eines oder mehrere der vorab spezifizierten Übereinstimmungskriterien im Wesentlichen erfüllt werden, zu identifizieren;
    • wobei das berechnete Übereinstimmungsmusterbild zum Angleichen an die Farbe und das Erscheinungsbild der Zielbeschichtung verwendet wird.
  • Beispiel [2] Das System von Beispiel [1], wobei das System ferner eine Bilddatenbank umfasst, wobei die Bilddatenbank die mehreren Musterbilder beinhaltet und der eine oder die mehreren Datenprozessoren konfiguriert sind, um die Anweisungen auszuführen, um Musterbildmerkmale aus den mehreren Musterbildern unter Verwendung des einen oder der mehreren Merkmalsextraktionsalgorithmen zu extrahieren.
  • Beispiel [3] Das System von Beispiel [2], wobei der eine oder die mehreren Datenprozessoren konfiguriert sind, um die Anweisungen auszuführen, um die vorab spezifizierten Übereinstimmungskriterien basierend auf den Musterbildmerkmalen zu erstellen.
  • Beispiel [4] Das System von Beispiel [3], wobei der eine oder die mehreren Datenprozessoren konfiguriert sind, um die Anweisungen auszuführen, um das Maschinenlernmodell basierend auf den mehreren Musterbildern durch Erstellen der vorab spezifizierten Übereinstimmungskriterien basierend auf den Musterbildmerkmalen zu schulen.
  • Beispiel [5] Das System von Beispiel [1] oder von einem der Beispiele [2] bis [4], wobei die Zielbilddaten RGB-Werte definieren, die repräsentativ für die Zielbeschichtung sind, und wobei der eine oder die mehreren Datenprozessoren konfiguriert sind, um die Anweisungen auszuführen, um die RGB-Werte in L*a*b*-Werte, die repräsentativ für die Zielbeschichtung sind, umzuwandeln.
  • Beispiel [6] Das System von Beispiel [5], wobei die Zielbildmerkmale Darstellungen basierend auf Bildentropie umfassen, und wobei der eine oder die mehreren Merkmalsextraktionsalgorithmen konfiguriert sind, um die Darstellung basierend auf Bildentropie zum Extrahieren der Zielbildmerkmale aus den L*a*b*-Werten der Zielbilddaten zu identifizieren.
  • Beispiel [7] Das System von Beispiel [1] oder von einem der Beispiele [2] bis [6], wobei die elektronische Bildgebungsvorrichtung ferner als eine mobile Vorrichtung definiert ist.
  • Beispiel [8] Das System von Beispiel [1] oder von einem der Beispiele [2] bis [7], wobei die elektronische Bildgebungsvorrichtung eine Kamera umfasst, die konfiguriert ist, um die Zielbilddaten zu erhalten.
  • Beispiel [9] Das System von Beispiel [1] oder von einem der Beispiele [2] bis [8], wobei die elektronische Bildgebungsvorrichtung ferner eine Anzeige umfasst, die konfiguriert ist, um das berechnete Übereinstimmungsmusterbild anzuzeigen. Beispiel [10] Das System von Beispiel [9], wobei die Anzeige ferner konfiguriert ist, um ein Bild der Zielbeschichtung neben dem berechneten Übereinstimmungsmusterbild anzuzeigen.
  • Beispiel [11] Das System von Beispiel [10], wobei die Anzeige ferner konfiguriert ist, um ein oder mehrere alternative Übereinstimmungsmusterbilder, die mit dem berechneten Übereinstimmungsmusterbild in Bezug stehen, anzuzeigen.
  • Beispiel [12] Das System von Beispiel [11], wobei das berechnete Übereinstimmungsmusterbild einer primären Beschichtungsformel entspricht und das eine oder die mehreren alternativen Übereinstimmungsmusterbilder alternativen Beschichtungsformeln entsprechen, die mit der primären Beschichtungsformel in Bezug stehen.
  • Beispiel [13] Das System von Beispiel [11] oder von Beispiel [12], ferner umfassend ein Benutzereingabemodul, das konfiguriert ist, um durch einen Benutzer ein visuelles Übereinstimmungsmusterbild aus dem berechneten Übereinstimmungsmusterbild und dem einen oder den mehreren alternativen Übereinstimmungsmusterbildern basierend auf einer beobachteten Ähnlichkeit mit dem Bild der Zielbeschichtung durch den Benutzer auszuwählen.
  • Beispiel [14] Das System von Beispiel [1] oder von einem der Beispiele [2] bis [13], wobei das Maschinenlernmodell einen Random Decision Forest-Algorithmus einschließlich der mehreren vorab spezifizierten Übereinstimmungskriterien umfasst. Beispiel [15] Ein Verfahren zum Angleichen der Farbe und des Erscheinungsbilds einer Zielbeschichtung, wobei das Verfahren Folgendes umfasst:
    • Erhalten durch einen oder mehrere Datenprozessoren von Zielbilddaten der Zielbeschichtung, wobei die Zielbilddaten von einer elektronischen Bildgebungsvorrichtung erstellt werden und Zielbildmerkmale beinhalten;
    • Abrufen durch einen oder mehrere Prozessoren von einem oder mehreren Merkmalsextraktionsalgorithmen, die die Zielbildmerkmale aus den Zielbilddaten extrahieren;
    • Anwenden der Zielbilddaten bei dem einen oder den mehreren Merkmalsextrakti onsalgori thmen;
    • Extrahieren der Zielbildmerkmale aus den Zielbilddaten unter Verwendung des einen oder der mehreren Merkmalsextraktionsalgorithmen;
    • Abrufen durch einen oder mehrere Datenprozessoren eines Maschinenlernmodells, das ein berechnetes Übereinstimmungsmusterbild anhand von mehreren Musterbildern unter Verwendung der Zielbildmerkmale identifiziert, wobei das Maschinenlernmodell vorab spezifizierte Übereinstimmungskriterien beinhaltet, die die mehreren Musterbilder repräsentieren, um das berechnete Übereinstimmungsmusterbild anhand der mehreren Musterbilder zu identifizieren;
    • Anwenden der Zielbildmerkmale bei dem Maschinenlernmodell; und
    • Identifizieren des berechneten Übereinstimmungsmusterbilds basierend darauf, dass eines oder mehrere der vorab spezifizierten Übereinstimmungskriterien im Wesentlichen erfüllt werden;
    • wobei das berechnete Übereinstimmungsmusterbild zum Angleichen der Farbe und des Erscheinungsbilds der Zielbeschichtung verwendet wird.
  • Beispiel [16] Das Verfahren von Beispiel [15], ferner umfassend den Schritt des Erstellens des Maschinenlernmodells basierend auf den mehreren Musterbildern, wobei der Schritt des Erstellens des Maschinenlernmodells Folgendes beinhaltet:
    • Abrufen der mehreren Musterbilder von einer Bilddatenbank;
    • Extrahieren von Musterbildmerkmalen aus den mehreren Musterbildern unter Verwendung des einen oder der mehreren Merkmalsextraktionsalgorithmen; und Erstellen der vorab spezifizierten Übereinstimmungskriterien basierend auf den Musterbildmerkmalen.
  • Beispiel [17] Das Verfahren von Beispiel [15] oder von Beispiel [16], wobei die elektronische Bildgebungsvorrichtung eine Anzeige beinhaltet und wobei das Verfahren ferner folgende Schritte umfasst:
    • Anzeigen auf der Anzeige;
    • des berechneten Übereinstimmungsmusterbilds,
    • eines oder mehrerer alternativer Übereinstimmungsmusterbilder, die mit dem berechneten Übereinstimmungsmusterbild in Bezug stehen, und eines Bilds der Zielbeschichtung neben dem berechneten Übereinstimmungsmusterbild und dem einen oder den mehreren alternativen Übereinstimmungsmusterbilder; und Auswählen durch einen Benutzer eines visuellen Übereinstimmungsmusterbilds aus dem berechneten Übereinstimmungsmusterbild und dem einen oder den mehreren alternativen Übereinstimmungsmusterbildern basierend auf einer beobachteten Ähnlichkeit mit den Zielbilddaten.
  • Beispiel [18] Das Verfahren von Beispiel [17], wobei das berechnete Übereinstimmungsmusterbild einer primären Beschichtungsformel entspricht und das eine oder die mehreren alternativen Übereinstimmungsmusterbilder alternativen Beschichtungsformeln entsprechen, die mit der primären Beschichtungsformel in Bezug stehen.
  • Beispiel [19] Das Verfahren von Beispiel [15] oder von einem der Beispiele [16] bis [18], ferner umfassend das Bilden einer Beschichtungszusammensetzung entsprechend dem berechneten Übereinstimmungsmusterbild.
  • Beispiel [20] Das Verfahren von Beispiel [19], ferner umfassend das Anwenden der Beschichtungszusammensetzung bei einem Substrat.
  • Figurenliste
  • Andere Vorteile des offenbarten Gegenstands werden leicht erkannt werden, da dieser durch Bezugnahme auf die folgende ausführliche Beschreibung besser verstanden werden wird, wenn diese in Verbindung mit den beigefügten Zeichnungen betrachtet wird, wobei:
    • 1 eine perspektivische Ansicht ist, die eine nichteinschränkende Ausführungsform eines Systems zum Angleichen der Farbe und des Erscheinungsbilds einer Zielbeschichtung veranschaulicht;
    • 2 ein Blockdiagramm ist, das eine nichteinschränkende Ausführungsform des Systems von 1 veranschaulicht;
    • 3A ein Bild ist, das eine nichteinschränkende Ausführungsform der Zielbeschichtung von 1 veranschaulicht;
    • 3B eine grafische Darstellung von RGB-Werten ist, die eine nichteinschränkende Ausführungsform der Zielbeschichtung von 2A veranschaulicht;
    • 4A ein Bild ist, das eine nichteinschränkende Ausführungsform eines ersten Musterbilds des Systems von 1 veranschaulicht;
    • 4B eine grafische Darstellung von RGB-Werten ist, die eine nichteinschränkende Ausführungsform des ersten Musterbilds von 4A veranschaulicht;
    • 5A ein Bild ist, das eine nichteinschränkende Ausführungsform eines zweiten Musterbilds des Systems von 1 veranschaulicht;
    • 5B eine grafische Darstellung von RGB-Werten ist, die eine nichteinschränkende Ausführungsform des zweiten Musterbilds von 5A veranschaulicht;
    • 6 eine perspektivische Ansicht ist, die eine nichteinschränkende Ausführungsform einer elektronischen Bildgebungsvorrichtung des Systems von 1 veranschaulicht;
    • 7 eine andere perspektivische Ansicht ist, die eine nichteinschränkende Ausführungsform einer elektronischen Bildgebungsvorrichtung des Systems von 1 veranschaulicht;
    • 8 ein Flussdiagramm ist, das eine nichteinschränkende Ausführungsform des Systems von 1 veranschaulicht;
    • 9 ein Flussdiagramm ist, das eine nichteinschränkende Ausführungsform des Verfahrens von 8 veranschaulicht; und
    • 10 ein Flussdiagramm ist, das eine andere nichteinschränkende Ausführungsform des Verfahrens von 8 veranschaulicht.
  • AUSFÜHRLICHE BESCHREIBUNG
  • Die folgende ausführliche Beschreibung ist nur von beispielhafter Natur und soll die Erfindung oder die Anmeldung und Verwendungen der Erfindung nicht einschränken. Ferner besteht keine Absicht, an irgendeine Theorie gebunden zu sein, die in dem vorherigen allgemeinen Stand der Technik oder der folgenden ausführlichen Beschreibung präsentiert wird. Es versteht sich, dass in sämtlichen Zeichnungen entsprechende Bezugszeichen gleiche oder entsprechende Teile und Merkmale angeben.
  • Die in der vorliegenden Offenbarung gekennzeichneten Merkmale und Vorteile werden von einem Fachmann durch Lesen der folgenden ausführlichen Beschreibung besser verstanden. Es sei daraufhingewiesen, dass bestimmte Merkmale, welche der Klarheit wegen zuvor und im Folgenden im Kontext von separaten Ausführungsformen beschrieben sind, auch in einer Kombination in einer einzigen Ausführungsform bereitgestellt werden können. Umgekehrt können verschiedene Merkmale, die der Kürze wegen im Kontext einer einzigen Ausführungsform beschrieben sind, auch separat oder in einer beliebigen Teilkombination bereitgestellt werden. Zusätzlich können Bezugnahmen im Singular auch den Plural beinhalten (zum Beispiel können sich „ein“ und „eine“ auf ein(e/n) oder ein(e/n) oder mehrere beziehen), es sei denn, der Kontext gibt spezifisch das Gegenteil an.
  • Die Verwendung von numerischen Werten in den verschiedenen Bereichen, die in dieser Offenbarung spezifiziert sind, soweit nicht ausdrücklich das Gegenteil angegeben wird, wird als Annäherung angegeben, als wenn den Mindest- und Höchstwerten innerhalb der genannten Bereiche jeweils das Wort „ungefähr“ vorangehen würde. Dadurch können leichte Abweichungen oberhalb und unterhalb der genannten Bereiche verwendet werden, um im Wesentlichen dieselben Ergebnisse wie Werte innerhalb der Bereiche zu erhalten. Ebenfalls ist die Offenbarung dieser Bereiche als ein kontinuierlicher Bereich einschließlich jedes Werts zwischen den Mindest- und Höchstwerten vorgesehen.
  • Techniken und Technologien können hierin hinsichtlich funktioneller und/oder logischer Blockkomponenten und bezüglich symbolischer Darstellungen von Operationen, Verarbeitungsaufgaben und Funktionen, die von verschiedenen Rechenkomponenten oder -vorrichtungen durchgeführt werden können, beschrieben sein. Es sei darauf hingewiesen, dass die verschiedenen Blockkomponenten, die in den Figuren gezeigt sind, durch eine beliebige Anzahl von Hardware-, Software- und/oder Firmwarekomponenten realisiert werden können, die konfiguriert sind, um die spezifizierten Funktionen durchzuführen. Zum Beispiel kann eine Ausführungsform eines Systems oder einer Komponente verschiedene integrierte Schaltungskomponenten, z. B. Speicherelemente, Digitalsignalverarbeitungselemente, Logikelemente, Look-up-Tabellen oder dergleichen einsetzen, welche eine Vielfalt an Funktionen unter der Steuerung von einem oder mehreren Mikroprozessoren oder sonstigen Steuervorrichtungen ausführen können.
  • Die folgende Beschreibung kann sich auf Elemente oder Knoten oder Merkmale beziehen, die miteinander „gekoppelt“ sind. So wie er hierin verwendet wird, bedeutet der Begriff „gekoppelt“, dass ein Element/Knoten/Merkmal direkt oder indirekt mit einem anderen Element/Knoten/Merkmal, und nicht notwendigerweise mechanisch, verbunden ist (oder direkt oder indirekt mit diesem kommuniziert), soweit nicht ausdrücklich das Gegenteil angegeben ist. Wenngleich die Zeichnungen eine beispielhafte Anordnung von Elementen darstellen können, können somit zusätzlich intervenierende Elemente, Vorrichtungen, Merkmale oder Komponenten in einer Ausführungsform des dargestellten Gegenstands vorhanden sein. Zusätzlich kann auch eine bestimmte Terminologie in der folgenden Beschreibung nur zu Bezugszwecken verwendet werden und soll daher nicht einschränkend sein.
  • Techniken und Technologien können hierin hinsichtlich funktioneller und/oder logischer Blockkomponenten und bezüglich symbolischer Darstellungen von Operationen, Verarbeitungsaufgaben und Funktionen, die von verschiedenen Rechenkomponenten oder -vorrichtungen durchgeführt werden können, beschrieben sein. Solche Operationen, Aufgaben und Funktionen werden manchmal als von einem Computer ausgeführt, in einen Computer eingespeist, softwareimplementiert oder computerimplementiert bezeichnet. In der Praxis können eine oder mehrere Prozessorvorrichtungen die beschriebenen Operationen, Aufgaben und Funktionen durch Manipulieren elektrischer Signale, die Daten-Bits an Speicherorten in dem Systemspeicher repräsentieren, sowie eine andere Verarbeitung von Signalen, ausführen. Die Speicherorte, wo Daten-Bits verwaltet werden, sind physische Orte, die bestimmte elektrische, magnetische, optische oder organische Eigenschaften aufweisen, die den Daten-Bits entsprechen. Es sei darauf hingewiesen, dass die verschiedenen Blockkomponenten, die in den Figuren gezeigt sind, durch eine beliebige Anzahl von Hardware-, Software- und/oder Firmwarekomponenten realisiert werden können, die konfiguriert sind, um die spezifizierten Funktionen durchzuführen. Zum Beispiel kann eine Ausführungsform eines Systems oder einer Komponente verschiedene integrierte Schaltungskomponenten, z. B. Speicherelemente, Digitalsignalverarbeitungselemente, Logikelemente, Look-up-Tabellen oder dergleichen einsetzen, welche eine Vielfalt an Funktionen unter der Steuerung von einem oder mehreren Mikroprozessoren oder sonstigen Steuervorrichtungen ausführen können.
  • Der Kürze wegen sind herkömmliche Techniken in Bezug auf Grafik- und Bildverarbeitung, Touchscreen-Anzeigen und sonstige funktionelle Aspekte bestimmter Systeme und Teilsysteme (und die einzelnen Betriebskomponenten davon) möglicherweise hierin nicht ausführlich beschrieben. Ferner sollen die Verbindungslinien, die in den verschiedenen Figuren gezeigt sind, die hierin enthalten sind, beispielhafte funktionelle Beziehungen und/oder physische Kopplungen zwischen den verschiedenen Elementen darstellen. Es sei darauf hingewiesen, dass viele alternative oder zusätzliche funktionelle Beziehungen oder physische Verbindungen in einer Ausführungsform des Gegenstands vorhanden sein können.
  • So, wie er hierin verwendet wird, bezieht sich der Begriff „Modul“ auf eine beliebige Hardware, Software, Firmware, elektronische Steuerkomponente, Verarbeitungslogik und/oder Prozessorvorrichtung einzeln oder in einer beliebigen Kombination einschließlich ohne Beschränkung: eine anwendungsspezifische integrierte Schaltung (ASIC, Application Specific Integrated Circuit), eine elektronische Schaltung, ein Prozessor (geteilter Prozessor, dedizierter Prozessor oder Gruppenprozessor) und Speicher, die ein oder mehrere Software- oder Firmwareprogramme ausführen, eine kombinierende Logikschaltung und/oder sonstige geeignete Komponenten, die die beschriebene Funktionalität bereitstellen.
  • So, wie er hierin verwendet wird, bezieht sich der Begriff „Pigment“ oder „Pigmente“ auf einen Farbstoff oder Farbstoffe, die Farbe oder Farben produzieren. Ein Pigment kann von natürlichen oder synthetischen Quellen stammen und kann aus organischen oder anorganischen Bestandteilen hergestellt sein. Pigmente können auch Metallteilchen oder -flocken mit spezifischen oder gemischten Formen und Abmessungen beinhalten. Ein Pigment ist üblicherweise nicht in einer Beschichtungszusammensetzung löslich.
  • Der Begriff „Effektpigment“ oder „Effektpigmente“ bezieht sich auf Pigmente, die spezielle Effekte bei einer Beschichtung hervorrufen. Beispiele für Effektpigmente beinhalten lichtstreuende Pigmente, Lichtinterferenzpigmente und lichtreflektierende Pigmente, ohne jedoch darauf beschränkt zu sein. Metallflocken, wie etwa Aluminiumflocken, und Perlglanzpigmente, wie etwa glimmerbasierte Pigmente, sind Beispiele für Effektpigmente.
  • Der Begriff „Erscheinungsbild“ kann Folgendes beinhalten: (1) den Aspekt der visuellen Erfahrung, durch welchen eine Beschichtung gesehen oder erkannt wird; und (2) die Wahrnehmung, in welcher die spektralen und geometrischen Aspekte einer Beschichtung in ihrer Beleuchtungs- und Betrachtungsumgebung integriert sind. Allgemein beinhaltet das Erscheinungsbild die Textur, die Grobkörnigkeit, das Glitzern oder sonstige visuelle Effekte einer Beschichtung, insbesondere, wenn sie aus unterschiedlichen Sichtwinkeln und/oder mit unterschiedlichen Lichtverhältnissen betrachtet wird. Die Erscheinungsbildmerkmale oder Erscheinungsbilddaten können Beschreibungs- oder Messdaten bezüglich der Textur, des metallischen Effekts, des Perlglanzeffekts, des Glanzes, der Unterschiedlichkeit des Bilds, Flockenerscheinungsbilder und -größen, wie etwa Textur, Grobkörnigkeit, Glitzern Schimmern und Funkeln sowie die Verbesserung der Tiefenwahrnehmung bei den Beschichtungen, die von den Flocken verliehen werden, die insbesondere von Metallflocken, wie etwa Aluminiumflocken, produziert werden, beinhalten, ohne jedoch darauf beschränkt zu sein. Erscheinungsbildmerkmale können durch Sichtprüfung oder durch Verwenden einer Erscheinungsbildmessvorrichtung erhalten werden.
  • Der Begriff „Farbdaten“ oder „Farbmerkmale“ einer Beschichtung kann gemessene Farbdaten einschließlich Spektralreflexionsgradwerte, X,Y,Z-Werte, L,a,b-Werte, L*,a*,b*-Werte, L,C,h-Werte oder einer Kombination davon umfassen. Farbdaten können ferner einen Farbcode eines Fahrzeugs, einen Farbnamen oder eine Farbbeschreibung oder eine Kombination davon umfassen. Farbdaten können sogar ferner visuelle Aspekte der Farbe der Beschichtung, Farbsättigung, Farbton, Helligkeit oder Dunkelheit umfassen. Die Farbdaten können durch Sichtprüfung oder durch Verwenden einer Farbmessvorrichtung, wie etwa ein Farbmessgerät, ein Spektrofotometer oder ein Goniospektrofotometer, erhalten werden. Insbesondere erhalten Spektrofotometer Farbdaten durch Bestimmen der Wellenlänge von Licht, das von einer Beschichtungsschicht reflektiert wird. Die Farbdaten können auch Beschreibungsdaten, wie etwa ein Name einer Farbe, ein Farbcode eines Fahrzeugs; eine Binärzahl, Textur- oder verschlüsselte Datendatei, die Beschreibungsdaten für eine oder mehrere Farben enthält; eine Messdatendatei, wie etwa jene, die durch eine Farbmessvorrichtung erstellt werden; oder eine Export/Import-Datendatei, die durch eine Rechenvorrichtung oder eine Farbmessvorrichtung erstellt werden, umfassen. Farbdaten können auch von einer Erscheinungsbildmessvorrichtung oder einer dualen Farb-Erscheinungsbildmessvorrichtung erstellt werden.
  • Der Begriff „Beschichtung“ oder „Beschichtungszusammensetzung“ kann beliebige Beschichtungszusammensetzungen beinhalten, die für einen Fachmann bekannt sind, und kann eine Zweikomponenten-Beschichtungszusammensetzung, auch als „2K-Beschichtungszusammensetzung“ bekannt; eine Einkomponenten- oder 1K-Beschichtungszusammensetzung; eine Beschichtungszusammensetzung, die eine vernetzbare Komponente und eine vernetzende Komponente aufweist; eine strahlungshärtbare Beschichtungszusammensetzung, wie etwa eine UV-härtbare Beschichtungszusammensetzung oder eine durch einen Elektronstrahl härtbare Beschichtungszusammensetzung; eine Mono-Cure-Beschichtungszusammensetzung; eine Dual-Cure-Beschichtungszusammensetzung; eine Lackbeschichtungszusammensetzung; eine wasserbasierte Beschichtungszusammensetzung oder wässrige Beschichtungszusammensetzung; eine lösungsmittelbasierte Beschichtungszusammensetzung; oder beliebige sonstige Beschichtungszusammensetzungen, die für einen Fachmann bekannt sind, beinhalten. Die Beschichtungszusammensetzung kann als eine Grundierung, ein Grundlack oder eine Farbbeschichtungszusammensetzung durch Aufnehmen beliebiger gewünschter Pigmente oder Effektpigmente formuliert werden. Die Beschichtungszusammensetzung kann auch als eine Klarlackzusammensetzung formuliert sein.
  • Der Begriff „Fahrzeug“, „Automobil-“, „Personenkraftwagen“ oder „Automobilfahrzeug“ kann einen Personenkraftwagen, wie etwa ein Auto, Bus, Lastwagen, Sattelschlepper, Kleinlastwagen, SUV (Sports Utility Vehicle); Traktor; Motorrad; Anhänger; Geländefahrzeug; Schwerlastkraftwagen, wie etwa ein Bulldozer, ein mobiler Kran und eine Erdbaumaschine; Flugzeuge; Boote; Schiffe; und sonstige Transportmittel beinhalten.
  • Der Begriff „Formel,“ „übereinstimmende Formel“ oder „übereinstimmende Formulierung“ für eine Beschichtungszusammensetzung bezieht sich auf eine Sammlung von Informationen oder eine Anweisung auf deren Grundlage die Beschichtungszusammensetzung präpariert werden kann. In einem Beispiel beinhaltet eine übereinstimmende Formel eine Liste von Namen und Mengen von Pigmenten, Effektpigmenten und sonstigen Komponenten einer Beschichtungszusammensetzung. In einem anderen Beispiel beinhaltet eine übereinstimmende Formel Anweisungen dahingehend, wie mehrere Komponenten einer Beschichtungszusammensetzung zu mischen sind.
  • Ein prozessorimplementiertes System 10 zum Angleichen der Farbe und des Erscheinungsbilds einer Zielbeschichtung 12 wird hierin unter Bezugnahme auf 1 bereitgestellt. Die Zielbeschichtung 12 kann sich auf einem Substrat 14 befinden. Das Substrat 14 kann ein Fahrzeug oder Teile eines Fahrzeugs sein. Das Substrat 14 kann auch ein beliebiger beschichteter Gegenstand einschließlich der Zielbeschichtung 12 sein. Die Zielbeschichtung 12 kann eine Farbbeschichtungsschicht, eine Klarlackschicht oder eine Kombination einer Farbbeschichtungsschicht und einer Klarlackschicht beinhalten. Die Farbbeschichtungsschicht kann anhand einer Farbbeschichtungszusammensetzung gebildet sein. Die Klarlackschicht kann anhand einer Klarlackbeschichtungszusammensetzung gebildet sein. Die Zielbeschichtung 12 kann anhand von einer oder mehreren lösungsmittelbasierten Beschichtungszusammensetzungen, einer oder mehreren wasserbasierten Beschichtungszusammensetzungen, einer oder mehreren Zweikomponenten-Beschichtungszusammensetzungen oder einer oder mehreren Einkomponenten-Beschichtungszusammensetzungen gebildet sein. Die Zielbeschichtung 12 kann auch anhand von einer oder mehreren Beschichtungszusammensetzungen, die jeweils eine vernetzbare Komponente und eine vernetzende Komponente aufweisen, einer oder mehreren strahlungshärtbaren Beschichtungszusammensetzungen oder einer oder mehreren Lackbeschichtungszusammensetzungen gebildet sein.
  • Unter Bezugnahme auf 2 und weiterer Bezugnahme auf 1 beinhaltet das System 10 eine elektronische Bildgebungsvorrichtung 16, die konfiguriert ist, um Zielbilddaten 18 der Zielbeschichtung 12 zu erstellen. Die elektronische Bildgebungsvorrichtung 16 kann eine Vorrichtung sein, die Bilder unter einem breiten Bereich von elektromagnetischen Wellenlängen einschließlich sichtbarer oder unsichtbarer Wellenlängen aufnehmen kann. Die elektronische Bildgebungsvorrichtung 16 kann ferner als eine mobile Vorrichtung definiert sein. Beispiele für mobile Vorrichtungen beinhalten ein Mobiltelefon (z. B. ein Smartphone), einen mobilen Computer (z. B. ein Tablet oder ein Laptop), eine tragbare Vorrichtung (z. B. Smartwatch oder Headset), oder irgendeine andere Art von im Stand der Technik bekannten Vorrichtung, die konfiguriert ist, um die Zielbilddaten 18 zu erhalten, ohne jedoch darauf beschränkt zu sein. In einer beispielhaften Ausführungsform ist die mobile Vorrichtung ein Smartphone oder ein Tablet.
  • In Ausführungsformen beinhaltet die elektronische Bildgebungsvorrichtung 16 eine Kamera 20 (siehe 7). Die Kamera 20 kann konfiguriert sein, um die Zielbilddaten 18 zu erhalten. Die Kamera 20 kann konfiguriert sein, um Bilder aufzunehmen, die sichtbare Wellenlängen aufweisen. Die Zielbilddaten 18 können von einem Bild 58 der Zielbeschichtung 12, wie etwa ein Standbild oder ein Video, abgeleitet werden. In bestimmten Ausführungsformen werden die Zielbilddaten 18 von einem Standbild abgeleitet. In der in 1 gezeigten beispielhaften Ausführungsform ist die elektronische Bildgebungsvorrichtung 16 in der Nähe von und beabstandet von der Zielbeschichtung 12 angeordnet gezeigt. Es sei jedoch daraufhingewiesen, dass die elektronische Bildgebungsvorrichtung 16 der beispielhaften Ausführungsform tragbar ist, so dass sie zu einer anderen Beschichtung (nicht gezeigt) bewegt werden kann. In anderen Ausführungsformen (nicht gezeigt) kann die elektronische Bildgebungsvorrichtung 16 an einem Ort fixiert sein. In noch anderen Ausführungsformen (nicht gezeigt) kann die elektronische Bildgebungsvorrichtung 16 an einem Roboterarm befestigt sein, um automatisch bewegt zu werden. In weiteren Ausführungsformen (nicht gezeigt) kann die elektronische Bildgebungsvorrichtung 16 konfiguriert sein, um Charakteristiken von mehreren Oberflächen gleichzeitig zu messen.
  • Das System 10 beinhaltet ferner eine Speichervorrichtung 22 zum Speichern von Anweisungen zum Durchführen des Angleichens der Farbe und des Erscheinungsbilds der Zielbeschichtung 12. Die Speichervorrichtung 22 kann Anweisungen speichern, die von einem oder mehreren Datenprozessoren 24 durchgeführt werden können. Die Anweisungen, die in der Speichervorrichtung 22 gespeichert sind, können ein oder mehrere separate Programme beinhalten, von welchen jedes eine geordneten Auflistung von ausführbaren Anweisungen zum Implementieren von logischen Funktionen beinhaltet. Wenn das System 10 in Betrieb ist, sind der eine oder die mehreren Datenprozessoren 24 konfiguriert, um die Anweisungen auszuführen, die innerhalb der Speichervorrichtung 22 gespeichert sind, um Daten zu und von der Speichervorrichtung 22 zu kommunizieren und allgemein Operationen des Systems 10 gemäß den Anweisungen zu steuern. In bestimmten Ausführungsformen ist die Speichervorrichtung 22 mit der elektronischen Bildgebungsvorrichtung 16, einem Server, der mit dem System 10 verknüpft ist, einer Cloud-Computing-Umgebung, die mit dem System 10 verknüpft ist, oder Kombinationen davon verknüpft (oder alternativ darin enthalten).
  • Wie zuvor vorgestellt wurde, beinhaltet das System 10 ferner den einen oder die mehreren Datenprozessoren 24, die konfiguriert sind, um die Anweisungen auszuführen. Der eine oder die mehreren Datenprozessoren 24 sind konfiguriert, um kommunikativ mit der elektronischen Bildgebungsvorrichtung 16 gekoppelt zu sein. Der eine oder die mehreren Datenprozessoren 24 können ein beliebiger nach Kundenwünschen gefertigter oder kommerziell erhältlicher Prozessor, eine zentrale Verarbeitungseinheit (CPU, Central Processing Unit), ein Hilfsprozessor unter mehreren Prozessoren, der mit der elektronischen Bildgebungsvorrichtung 16 verknüpft ist, ein halbleiterbasierter Mikroprozessor (in Form eines Mikrochips oder Chipsatzes) oder allgemein eine beliebige Vorrichtung zum Ausführen von Anweisungen sein. Der eine oder die mehreren Datenprozessoren 24 können kommunikativ mit einer beliebigen Komponente des Systems 10 durch drahtgebundene Verbindungen, drahtlose Verbindungen und/oder Vorrichtungen oder eine Kombination davon gekoppelt sein. Beispiele für geeignete drahtgebundene Verbindungen beinhalten Hardwarekopplungen, Verteiler, Stecker, Kabel oder Drähte, ohne jedoch darauf beschränkt zu sein. Beispiele für geeignete drahtlose Verbindungen und Vorrichtungen beinhalten eine Wi-Fi-Vorrichtung, eine Bluetooth-Vorrichtung, eine drahtlose Großraumnetzwerk(WAN, Wide Area Network)-vorrichtung, eine Wi-Max-Vorrichtung, eine lokale Netzwerk(LAN, Local Area Network)-vorrichtung, eine 3G-Breitbandvorrichtung, eine Infrarotkommunikationsvorrichtung, eine optische Datenübertragungsvorrichtung, einen Funksender und wahlweise -empfänger, ein schnurloses Telefon, eine Schnurlostelefonadapterkarte oder beliebige sonstige Vorrichtungen, die Signale in einem breiten Bereich von elektromagnetischen Wellenlängen einschließlich Funkfrequenz, Mikrowellenfrequenz, sichtbare oder unsichtbare Wellenlängen, übertragen können, ohne jedoch darauf beschränkt zu sein.
  • Unter Bezugnahme auf 3A und 3B sind der eine oder die mehreren Datenprozessoren 24 konfiguriert, um die Anweisungen auszuführen, um von dem einen oder den mehreren Datenprozessoren 24 Zielbilddaten 18 der Zielbeschichtung 12 zu erhalten. Wie zuvor beschrieben wurde, werden die Zielbilddaten 18 von der elektronischen Bildgebungsvorrichtung 16 erstellt. Die Zielbilddaten 18 können RGB-Werte, L*a*b*-Werte oder eine Kombination davon definieren, die repräsentativ für die Zielbeschichtung 12 sind. In bestimmten Ausführungsformen definieren die Zielbilddaten 18 die RGB-Werte, die repräsentativ für die Zielbeschichtung 12 sind. Der eine oder die mehreren Datenprozessoren 24 können ferner konfiguriert sein, um die Anweisungen auszuführen, um die RGB-Werte der Zielbilddaten 18 in L*a*b*-Werte, die repräsentativ für die Zielbeschichtung 12 sind, umzuwandeln.
  • Die Zielbilddaten 18 beinhalten Zielbildmerkmale 26. Die Zielbildmerkmale 26 können Farb- und Erscheinungsbildcharakteristiken der Zielbeschichtung 12, Darstellungen der Zielbilddaten 18 oder eine Kombination davon beinhalten. In bestimmten Ausführungsformen können die Zielbildmerkmale 26 Darstellungen basierend auf Bildentropie beinhalten.
  • Der eine oder die mehreren Datenprozessoren 24 sind konfiguriert, um die Anweisungen auszuführen, um durch den einen oder die mehreren Datenprozessoren 24 einen oder mehrere Merkmalsextraktionsalgorithmen 28' abzurufen, die die Zielbildmerkmale 26 aus den Zielbilddaten 18 extrahieren. In Ausführungsformen sind der eine oder die mehreren Merkmalsextraktionsalgorithmen 28' konfiguriert, um die Darstellung basierend auf Bildentropie zum Extrahieren der Zielbildmerkmale 26 aus den Zielbilddaten 18 zu identifizieren. Dazu können der eine oder die mehreren Datenprozessoren 24 konfiguriert sein, um die Anweisungen auszuführen, um die Darstellung basierend auf Bildentropie zum Extrahieren der Zielbildmerkmale 26 aus den Zielbilddaten 18 zu identifizieren.
  • Das Identifizieren der Darstellung basierend auf Bildentropie kann das Bestimmen von Farbbildentropiekurven für die Zielbilddaten 18 beinhalten. Die Zielbilddaten 18 können in einem dreidimensionalen L*a*b*-Raum mit den Farbentropiekurven basierend auf Shannon-Entropie von jeder der a*b*-Ebenen, jeder der L*a*-Ebenen, jeder der L*b*-Ebenen oder Kombinationen davon dargestellt werden. Die Bestimmung der Farbentropiekurven kann das Aufteilen des dreidimensionalen L*a*b*-Raums der Zielbilddaten 18 in mehrere kubische Teilräume, das tabellarische Ordnen der kubischen Räume, die ähnliche Merkmale aufweisen, um zu einer kubischen Gesamtraumanzahl für jedes Charakteristikum zu gelangen, das Erzeugen von leeren Bildentropiearrays für jede der Abmessungen des dreidimensionalen L*a*b*-Raums und das Befüllen der leeren Bildentropiearrays mit der kubischen Gesamtraumanzahl entsprechend jeder der Abmessungen beinhalten.
  • Das Identifizieren der Darstellung basierend auf Bildentropie kann auch das Bestimmen von Farbdifferenzbildentropiekurven für die Zielbilddaten 18 beinhalten. Die Zielbilddaten 18 können in einem dreidimensionalen L*a*b*-Raum dargestellt werden, wobei der dreidimensionale L*a*b*-Raum in Bezug auf einen alternativen dreidimensionalen L*a*b*-Raum analysiert wird. Das Bestimmen der Farbdifferenzentropiekurven kann das Berechnen von dL*-Bildentropie, dC*-Bildentropie und dh*-Bildentropie zwischen dem dreidimensionalen L*a*b*-Raum und dem alternativen dreidimensionalen L*a*b*-Raum beinhalten.
  • Das Identifizieren der Darstellung basierend auf Bildentropie kann auch das Bestimmen von Schwarz-Weiß-Intensitätsbildentropie anhand der L*-Ebene des dreidimensionalen L*a*b*-Raums der Zielbilddaten 18 beinhalten. Das Identifizieren der Darstellung basierend auf Bildentropie kann auch das Bestimmen von Durchschnitts-L*a*b*-Werten der Zielbilddaten 18 beinhalten. Das Identifizieren der Darstellung basierend auf Bildentropie kann auch das Bestimmen von L*a*b*-Werten für den Mittelpunkt des befülltesten kubischen Teilraums beinhalten.
  • Der eine oder die mehreren Datenprozessoren 24 sind auch konfiguriert, um die zuvor beschriebenen Anweisungen auszuführen, um die Zielbilddaten 18 bei dem einen oder den mehreren Merkmalsextraktionsalgorithmen 28' anzuwenden. Der eine oder die mehreren Datenprozessoren 24 sind ferner konfiguriert, um die zuvor beschriebenen Anweisungen auszuführen, um die Zielbildmerkmale 26 aus den Zielbilddaten 18 unter Verwendung des einen oder der mehreren Merkmalsextraktionsalgorithmen 28' zu extrahieren.
  • In einer beispielhaften Ausführungsform ist das System 10 konfiguriert, um die Zielbildmerkmale 26 aus den Zielbilddaten 18 durch Identifizieren der Darstellung basierend auf Bildentropie der Zielbildmerkmale 26 zu extrahieren. Das Identifizieren der Darstellung basierend auf Bildentropie kann das Bestimmen von Farbbildentropiekurven für die Zielbilddaten 18, das Bestimmen von Schwarz-Weiß-Intensitätsbildentropie anhand der L*-Ebene des dreidimensionalen L*a*b*-Raums der Zielbilddaten 18, das Bestimmen von Durchschnitts-L*a*b*-Werten der Zielbilddaten 18, das Bestimmen von L*a*b*-Werten für den Mittelpunkt des befülltesten kubischen Teilraums oder Kombinationen davon beinhalten.
  • Unter Bezugnahme auf 4A und 5A und weiterer Bezugnahme auf 2 beinhaltet in Ausführungsformen das System 10 ferner eine Bilddatenbank 30. Die Bilddatenbank 30 kann mit der elektronischen Bildgebungsvorrichtung 16 verknüpft sein oder von der elektronischen Bildgebungsvorrichtung 16 getrennt sein, wie etwa in einer serverbasierten Umgebung oder in einer Cloud-Computing-Umgebung. Es sei darauf hingewiesen, dass der eine oder die mehreren Datenprozessoren 24 konfiguriert sind, um kommunikativ mit der Bilddatenbank 30 gekoppelt zu sein. Die Bilddatenbank 30 kann mehrere Musterbilder 32, wie etwa ein erstes Musterbild 34, wie in 4A gezeigt, und ein zweites Musterbild 36, wie in 5A gezeigt, beinhalten. In Ausführungsformen ist jedes der mehreren Musterbilder 32 ein Bild eines Paneels, das eine Musterbeschichtung beinhaltet. Es kann eine Vielfalt an Musterbeschichtungen, die eine Gruppe von Beschichtungsformeln definieren, abgebildet werden, um die mehreren Musterbilder 32 zu erzeugen. Die Musterbilder 32 können unter Verwendung von einer oder mehreren unterschiedlichen elektronischen Bildgebungsvorrichtungen 16 abgebildet werden, um Veränderungen bezüglich der Bildgebungsfähigkeiten und Leistungsfähigkeit jeder der elektronischen Bildgebungsvorrichtungen 16 zu berücksichtigen. Die mehreren Musterbilder 32 können in einem beliebigen Format vorliegen, wie etwa RAW, JPEG, TIFF, BMP, GIF, PNG und dergleichen.
  • Der eine oder die mehreren Datenprozessoren 24 können konfiguriert sein, um die Anweisungen auszuführen, um von dem einen oder den mehreren Datenprozessoren 24 Musterbilddaten 38 der Musterbilder 32 zu erhalten. Die Musterbilddaten 38 können von der elektronischen Bildgebungsvorrichtung 16 erzeugt werden. Die Musterbilddaten 38 können RGB-Werte, L*a*b*-Werte oder eine Kombination davon definieren, die repräsentativ für die Musterbilder sind 32. In bestimmten Ausführungsformen definieren die Musterbilddaten 38 die RGB-Werte, die repräsentativ für die Musterbilder 32 sind, wie etwa in 4B für das erste Musterbild 34 und 5B für das zweite Musterbild 36 gezeigt ist. Der eine oder die mehreren Datenprozessoren 24 können ferner konfiguriert sein, um die Anweisungen auszuführen, um die RGB-Werte der Musterbilddaten 38 in L*a*b*-Werte, die repräsentativ für die Musterbilder 32 sind, umzuwandeln. Das System 10 kann konfiguriert sein, um die Musterbilddaten 38 der mehreren Musterbilder 32 für verschiedene elektronische Bildgebungsvorrichtungen 16 zu normalisieren, wodurch die Leistungsfähigkeit des Systems 10 verbessert wird.
  • Die Musterbilddaten 38 können Musterbildmerkmale 40 beinhalten. Die Musterbildmerkmale 40 können Farb- und Erscheinungsbildcharakteristiken des Musterbilds 32, Darstellungen der Musterbilddaten 38 oder eine Kombination davon beinhalten. In bestimmten Ausführungsformen können die Musterbildmerkmale 40 Darstellungen basierend auf Bildentropie beinhalten.
  • Der eine oder die mehreren Datenprozessoren 24 sind konfiguriert, um die Anweisungen auszuführen, um von dem einen oder den mehreren Datenprozessoren 24 einen oder mehrere Merkmalsextraktionsalgorithmen 28" abzurufen, die die Musterbildmerkmale 40 aus den Musterbilddaten 38 extrahieren. In Ausführungsformen sind der eine oder die mehreren Merkmalsextraktionsalgorithmen 28" konfiguriert, um die Darstellung basierend auf Bildentropie zum Extrahieren der Musterbildmerkmale 40 aus den Musterbilddaten 38 zu identifizieren. Dazu können der eine oder die mehreren Datenprozessoren 24 konfiguriert sein, um die Anweisungen auszuführen, um die Darstellung basierend auf Bildentropie zum Extrahieren der Musterbildmerkmale 40 aus den Musterbilddaten 38 zu identifizieren. Es sei darauf hingewiesen, dass der eine oder die mehreren Merkmalsextraktionsalgorithmen 28", die verwendet werden, um die Musterbildmerkmale 40 zu extrahieren, dieselben wie oder andere als der eine oder die mehreren Merkmalsextraktionsalgorithmen 28' sein können, die verwendet werden, um die Zielbildmerkmale 26 zu extrahieren.
  • In einer beispielhaften Ausführungsform ist das System 10 konfiguriert, um die Musterbildmerkmale 40 durch Identifizieren der Darstellung basierend auf Bildentropie der Musterbildmerkmale 40 aus den Musterbilddaten 38 zu extrahieren. Das Identifizieren der Darstellung basierend auf Bildentropie kann das Bestimmen von Farbbildentropiekurven für die Musterbilddaten 38, das Bestimmen von Farbbildentropiekurven für die Musterbilddaten 38, das Bestimmen von Schwarz-Weiß-Intensitätsbildentropie anhand der L*-Ebene des dreidimensionalen L*a*b*-Raums der Musterbilddaten 38, das Bestimmen von Durchschnitts-L*a*b*-Werten der Musterbilddaten 38, das Bestimmen von L*a*b*-Werten für den Mittelpunkt des befülltesten kubischen Teilraums oder Kombinationen davon beinhalten.
  • Der eine oder die mehreren Datenprozessoren 24 sind konfiguriert, um die Anweisungen auszuführen, um durch einen oder mehrere Datenprozessoren ein Maschinenlernmodell 42 abzurufen, das ein berechnetes Übereinstimmungsmusterbild 44 anhand der mehreren Musterbilder 32 unter Verwendung der Zielbildmerkmale 26 identifiziert. Das Maschinenlernmodell 42 kann überwachtes Training, nichtüberwachtes Training oder eine Kombination davon verwenden. In einer beispielhaften Ausführungsform verwendet das Maschinenlernmodell 42 überwachtes Training. Beispiele für geeignete Maschinenlernmodelle beinhalten lineare Regression, Entscheidungsbaum, K-Mittelwert-Clustering, Hauptkomponentenanalyse (PCA, Principal Component Analysis), Random Decision Forest, neuronales Netzwerk oder eine beliebige andere Art von Maschinenlernalgorithmus, der im Stand der Technik bekannt ist, ohne jedoch darauf beschränkt zu sein. In einer beispielhaften Ausführungsform basiert das Maschinenlernmodell auf einem Random Decision Forest-Algorithmus.
  • Das Maschinenlernmodell 42 beinhaltet vorab spezifizierte Übereinstimmungskriterien 46, die die mehreren Musterbilder 32 zum Identifizieren des berechneten Übereinstimmungsmusterbilds 44 anhand der mehreren Musterbilder 32 darstellen. In Ausführungsformen sind die vorab spezifizierten Übereinstimmungskriterien 46 in einem oder mehreren Entscheidungsbäumen angeordnet. Der eine oder die mehreren Datenprozessoren 24 sind konfiguriert, um die Zielbildmerkmale 26 bei dem Maschinenlernmodell 42 anzuwenden. In einer beispielhaften Ausführungsform sind die vorab spezifizierten Übereinstimmungskriterien 46 in einem oder mehreren Entscheidungsbäumen enthalten, wobei die Entscheidungsbäume Wurzelknoten, Zwischenknoten durch verschiedene Ebenen und Endknoten beinhalten. Die Zielbildmerkmale 26 können durch die Knoten zu einem oder mehreren der Endknoten verarbeitet werden, wobei jeder der Endknoten eines der mehreren Musterbilder 32 darstellt.
  • Der eine oder die mehreren Datenprozessoren 24 sind auch konfiguriert, um das berechnete Übereinstimmungsmusterbild 44 basierend darauf, dass eines oder mehrere der vorab spezifizierten Übereinstimmungskriterien 46 im Wesentlichen erfüllt werden, zu identifizieren. In Ausführungsformen bedeutet der Ausdruck „im Wesentlichen erfüllen“, dass das berechnete Übereinstimmungsmusterbild 44 anhand der mehreren Musterbilder 32 durch Aufweisen der größten Wahrscheinlichkeit für eine Übereinstimmung mit der Zielbeschichtung 12 identifiziert wird. In einer beispielhaften Ausführungsform basiert das Maschinenlernmodell 42 auf einem Random Decision Forest-Algorithmus, der mehrere Entscheidungsbäume mit Ergebnissen jedes der Entscheidungsbäume beinhaltet, durch Verarbeitung der Zielbildmerkmale 26, der verwendet wird, um eine Wahrscheinlichkeit, dass jedes der Musterbilder 32 mit der Zielbeschichtung 12 übereinstimmt, zu bestimmen. Das Musterbild 32, das die größte Wahrscheinlichkeit für eine Übereinstimmung mit der Zielbeschichtung 12 aufweist, kann als das berechnete Übereinstimmungsmusterbild 44 definiert werden.
  • In Ausführungsformen sind der eine oder die mehreren Datenprozessoren 24 konfiguriert, um die Anweisungen auszuführen, um die vorab spezifizierten Übereinstimmungskriterien 46 des Maschinenlernmodells 42 basierend auf den Musterbildmerkmalen 40 zu erstellen. In bestimmten Ausführungsformen werden die vorab spezifizierten Übereinstimmungskriterien 46 basierend auf den Musterbildmerkmalen 40, die aus den mehreren Musterbildern 32 extrahiert werden, erzeugt. Der eine oder die mehreren Datenprozessoren 24 können konfiguriert sein, um die Anweisungen auszuführen, um das Maschinenlernmodell 42 basierend auf den mehreren Musterbildern 32 durch Erzeugen der vorab spezifizierten Übereinstimmungskriterien 46 basierend auf den Musterbildmerkmalen 40 zu trainieren. Das Maschinenlernmodell 42 kann in regelmäßigen Zeiträumen (z. B. monatlich) basierend auf den mehreren Musterbildern 32, die innerhalb der Bilddatenbank 30 enthalten sind, trainiert werden. Wie zuvor beschrieben wurde, können die Musterbilddaten 38, die die RGB-Werte definieren, die repräsentativ für die Musterbilder 32 sind, in L*a*b*-Werte umgewandelt werden, wobei die Musterbildmerkmale 40 aus den Musterbilddaten 38 einschließlich der L*a*b*-Werte durch Identifizieren der Darstellungen basierend auf Bildentropie extrahiert werden.
  • Das berechnete Übereinstimmungsmusterbild 44 wird zum Angleichen der Farbe und des Erscheinungsbilds der Zielbeschichtung 12 verwendet. Das berechnete Übereinstimmungsmusterbild 44 kann einer Beschichtungsformel entsprechen, die potentiell mit der Farbe und dem Erscheinungsbild der Zielbeschichtung 12 übereinstimmt. Das System 10 kann ein oder mehrere alternative Übereinstimmungsmusterbilder 48 beinhalten, die mit dem berechneten Übereinstimmungsmusterbild 44 in Bezug stehen. Das eine oder die mehreren alternativen Übereinstimmungsmusterbilder 48 können mit dem berechneten Übereinstimmungsmusterbild 44 basierend auf der Beschichtungsformel, der beobachteten Ähnlichkeit, der berechneten Ähnlichkeit oder Kombinationen davon in Bezug stehen. In bestimmten Ausführungsformen stehen das eine oder die mehreren alternativen Übereinstimmungsmusterbilder 48 mit dem berechneten Übereinstimmungsmusterbild 44 basierend auf der Beschichtungsformel in Bezug. In Ausführungsformen entspricht das berechnete Übereinstimmungsmusterbild 44 einer primären Beschichtungsformel und entsprechen das eine oder die mehreren alternativen Übereinstimmungsmusterbilder 48 alternativen Beschichtungsformeln, die mit der primären Beschichtungsformel in Bezug stehen. Das System 10 kann ein visuelles Übereinstimmungsmusterbild 50 beinhalten, das von einem Benutzer aus dem berechneten Übereinstimmungsmusterbild 44 und dem einen oder den mehreren alternativen Übereinstimmungsmusterbildern 48 basierend auf einer von dem Benutzer beobachteten Ähnlichkeit mit der Zielbeschichtung 12 ausgewählt werden kann.
  • Unter Bezugnahme auf 6 und 7 beinhaltet in Ausführungsformen die elektronische Bildgebungsvorrichtung 16 ferner eine Anzeige 52, die konfiguriert ist, um das berechnete Übereinstimmungsmusterbild 44 anzuzeigen. In bestimmten Ausführungsformen ist die Anzeige 52 ferner konfiguriert, um ein Bild 58 der Zielbeschichtung 12 neben dem berechneten Übereinstimmungsmusterbild 44 anzuzeigen. In einer beispielhaften Ausführungsform ist die Anzeige 52 ferner konfiguriert, um das eine oder die mehreren alternativen Übereinstimmungsmusterbilder 48 anzuzeigen, die mit dem berechneten Übereinstimmungsmusterbild 44 in Bezug stehen. In Ausführungsformen der elektronischen Bildgebungsvorrichtung 16, die die Kamera 20 beinhaltet, kann die Anzeige 52 gegenüber der Kamera 20 liegen.
  • In Ausführungsformen beinhaltet das System 10 ferner ein Benutzereingabemodul 54, das konfiguriert ist, um durch einen Benutzer das visuelle Übereinstimmungsmusterbild 50 aus dem berechneten Übereinstimmungsmusterbild 44 und dem einen oder den mehreren alternativen Übereinstimmungsmusterbildern 48 basierend auf einer von dem Benutzer beobachteten Ähnlichkeit mit der Zielbeschichtung 12 auszuwählen. In Ausführungsformen der elektronischen Bildgebungsvorrichtung 16, die die Anzeige 52 beinhaltet, kann der Benutzer das visuelle Übereinstimmungsmusterbild 50 durch Berührungseingabe auf der Anzeige 52 auswählen.
  • In Ausführungsformen beinhaltet das System 10 ferner eine Lichtquelle 56, die konfiguriert ist, um die Zielbeschichtung 12 zu beleuchten. In Ausführungsformen der elektronischen Bildgebungsvorrichtung 16, die die Kamera 20 beinhaltet, kann die elektronische Bildgebungsvorrichtung 16 die Lichtquelle 56 beinhalten und kann die Lichtquelle 56 neben der Kamera 20 liegen.
  • In Ausführungsformen beinhaltet das System 10 ferner eine Dark-Box (nicht gezeigt) zur Isolierung der abzubildenden Zielbeschichtung 12 von Fremdlicht, Schatten und Reflexionen. Die Dark-Box kann konfiguriert sein, um die elektronische Bildgebungsvorrichtung 16 aufzunehmen und ein Aussetzen der Zielbeschichtung 12 gegenüber der Kamera 20 und der Lichtquelle 56 zu erlauben. Die Dark-Box kann einen Lichtstreuer (nicht gezeigt) beinhalten, der konfiguriert ist, um mit der Lichtquelle 56 zum ausreichenden Streuen des Lichts, das von der Lichtquelle 56 erzeugt wird, zusammenzuwirken.
  • Ein Verfahren 1100 zum Angleichen der Farbe und des Erscheinungsbilds der Zielbeschichtung 12 ist auch hierin unter Bezugnahme auf 8 und weiterer Bezugnahme auf 1-7 bereitgestellt. Das Verfahren 1100 beinhaltet den Schritt 1102 des Erhaltens durch einen oder mehrere Datenprozessoren der Zielbilddaten 18 der Zielbeschichtung 12. Die Zielbilddaten 18 werden durch die elektronische Bildgebungsvorrichtung 16 erzeugt und beinhalten die Zielbildmerkmale 26. Das Verfahren 1100 beinhaltet ferner den Schritt 1104 des Abrufens durch einen oder mehrere Prozessoren von einem oder mehreren Merkmalsextraktionsalgorithmen 28', die die Zielbildmerkmale 26 aus den Zielbilddaten 18 extrahieren. Das Verfahren 1100 beinhaltet ferner den Schritt 1106 des Anwendens der Zielbildmerkmale 26 bei dem einen oder den mehreren Merkmalsextraktionsalgorithmen 28'. Das Verfahren 1100 beinhaltet ferner den Schritt 1108 des Extrahierens der Zielbildmerkmale 26 aus den Zielbilddaten 18 unter Verwendung des einen oder der mehreren Merkmalsextraktionsalgorithmen 28'.
  • Das Verfahren 1100 beinhaltet ferner den Schritt 1110 des Abrufens durch einen oder mehrere Datenprozessoren des Maschinenlernmodells 42, das das berechnete Übereinstimmungsmusterbild 44 anhand der mehreren Musterbilder 32 unter Verwendung der Zielbildmerkmale 26 identifiziert. Das Maschinenlernmodell 42 beinhaltet die vorab spezifizierten Übereinstimmungskriterien 46, die die mehreren Musterbilder 32 darstellen, um das berechnete Übereinstimmungsmusterbild 44 anhand der mehreren Musterbilder 32 zu identifizieren. Das Verfahren 1100 beinhaltet ferner den Schritt 1112 des Anwendens der Zielbildmerkmale 26 bei dem Maschinenlernmodell 42. Das Verfahren 1100 beinhaltet ferner den Schritt 1114 des Identifizierens des berechneten Übereinstimmungsmusterbilds 44 basierend darauf, dass eines oder mehrere der vorab spezifizierten Übereinstimmungskriterien 46 im Wesentlichen erfüllt werden.
  • In Ausführungsformen beinhaltet das Verfahren 1100 ferner den Schritt 1116 des Anzeigens auf der Anzeige 52 des berechneten Übereinstimmungsmusterbilds 44, des einen oder der mehreren alternativen Übereinstimmungsmusterbilder 48, die mit dem berechneten Übereinstimmungsmusterbild 44 in Bezug stehen, und eines Bilds 58 der Zielbeschichtung 12 neben dem berechneten Übereinstimmungsmusterbild 44 und dem einen oder den mehreren alternativen Übereinstimmungsmusterbildern 48. In Ausführungsformen beinhaltet das Verfahren 1100 ferner den Schritt 1118 des Auswählens durch den Benutzer des visuellen Übereinstimmungsmusterbilds 50 anhand des berechneten Übereinstimmungsmusterbilds 44 und des einen oder der mehreren alternativen Übereinstimmungsmusterbilder 48 basierend auf der beobachteten Ähnlichkeit mit den Zielbilddaten 18.
  • Unter Bezugnahme auf 9 und weiterer Bezugnahme auf 1-8 beinhaltet in Ausführungsformen das Verfahren 1100 ferner den Schritt 1120 des Erstellens des Maschinenlernmodells 42 basierend auf den mehreren Musterbildern 32. Der Schritt 1120 des Erstellens des Maschinenlernmodells 42 kann den Schritt 1122 des Abrufens der mehreren Musterbilder 32 von der Bilddatenbank 30 beinhalten. Der Schritt 1120 des Erstellens des Maschinenlernmodells 42 kann ferner den Schritt 1124 des Extrahierens der Musterbildmerkmale 40 aus den mehreren Musterbildern 32 basierend auf einem oder mehreren Merkmalsextraktionsalgorithmen 28' beinhalten. Der Schritt 1120 des Erstellens des Maschinenlernmodells 42 kann ferner den Schritt 1126 des Erstellens der vorab spezifizierten Übereinstimmungskriterien 46 basierend auf den Musterbildmerkmalen 40 beinhalten.
  • Unter Bezugnahme auf 10 und weiterer Bezugnahme auf 1-9 beinhaltet in Ausführungsformen das Verfahren 1100 ferner den Schritt 1128 des Bildens einer Beschichtungszusammensetzung entsprechend dem berechneten Übereinstimmungsmusterbild 44. Das Verfahren 1100 kann ferner den Schritt 1130 des Anwendens der Beschichtungszusammensetzung bei dem Substrat 14 beinhalten.
  • Das Verfahren 1100 und das System 10, die hierin offenbart sind, können für einen beliebigen beschichteten Gegenstand oder ein beliebiges beschichtetes Substrat 14 einschließlich der Zielbeschichtung 12 verwendet werden. Einige Beispiele für solche beschichteten Gegenstände können Haushaltsgeräte, wie etwa ein Kühlschrank, eine Waschmaschine, eine Geschirrspülmaschine, Mikrowellen, Brat- und Backofen; elektronische Geräte, wie etwa Fernseher, Computer, elektronische Spielevorrichtungen, Audio- und Videogeräte; Freizeitgeräte, wie etwa Fahrräder, Skiausrüstung, Geländefahrzeuge; und Wohn- oder Büromöbel, wie etwa Tische, Aktenschränke; Wasserfahrzeuge oder Schiffe, wie etwa Boote, Yachten oder persönliche Wasserfahrzeuge (PWCs, Personal Watercrafts); Flugzeuge; Gebäude; Strukturen, wie etwa Brücken; Industriegeräte, wie etwa Kräne, Schwerlastwagen oder Erdbaumaschinen; oder Dekorationsartikel beinhalten.
  • Wenngleich mindestens eine beispielhafte Ausführungsform in der vorherigen ausführlichen Beschreibung präsentiert worden ist, sei darauf hingewiesen, dass eine große Anzahl von Variationen existiert. Es sei auch darauf hingewiesen, dass die beispielhafte Ausführungsform bzw. die beispielhaften Ausführungsformen nur Beispiele sind und den Schutzumfang, die Anwendbarkeit oder Konfiguration auf keinerlei Art einschränken sollen. Vielmehr wird die vorherige ausführliche Beschreibung einem Fachmann einen geeigneten Leitfaden zum Implementieren einer beispielhaften Ausführungsform bereitstellen, wobei sich versteht, dass verschiedene Änderungen hinsichtlich der Funktion und Anordnung von Elementen, die in einer beispielhaften Ausführungsform beschrieben sind, vorgenommen werden können, ohne sich von dem Schutzumfang zu entfernen, wie er in den beigefügten Ansprüchen und ihren legalen Äquivalenten dargelegt ist.

Claims (21)

  1. Beansprucht wird:
  2. Prozessorimplementiertes System zum Angleichen an die Farbe und das Erscheinungsbild einer Zielbeschichtung, wobei das System Folgendes umfasst: eine Speichervorrichtung zum Speichern von Anweisungen zum Durchführen des Angleichens an die Farbe und das Erscheinungsbild der Zielbeschichtung; und einen oder mehrere Datenprozessoren, die konfiguriert sind, um die Anweisungen auszuführen, um: durch einen oder mehrere Datenprozessoren Zielbilddaten der Zielbeschichtung zu erhalten, wobei die Zielbilddaten von einer elektronischen Bildgebungsvorrichtung erstellt werden und Zielbildmerkmale beinhalten; durch einen oder mehrere Prozessoren einen oder mehrere Merkmalsextraktionsalgorithmen abzurufen, die die Zielbildmerkmale aus den Zielbilddaten extrahieren; die Zielbilddaten bei dem einen oder den mehreren Merkmalsextraktionsalgorithmen anzuwenden; die Zielbildmerkmale aus den Zielbilddaten unter Verwendung des einen oder der mehreren Merkmalsextraktionsalgorithmen zu extrahieren; durch einen oder mehrere Datenprozessoren ein Maschinenlernmodell abzurufen, das ein berechnetes Übereinstimmungsmusterbild anhand von mehreren Musterbildern unter Verwendung der Zielbildmerkmale identifiziert, wobei das Maschinenlernmodell vorab spezifizierte Übereinstimmungskriterien beinhaltet, die die mehreren Musterbilder darstellen, um das berechnete Übereinstimmungsmusterbild anhand der mehreren Musterbilder zu identifizieren; die Zielbildmerkmale bei dem Maschinenlernmodell anzuwenden; und das berechnete Übereinstimmungsmusterbild basierend darauf, dass eines oder mehrere der vorab spezifizierten Übereinstimmungskriterien im Wesentlichen erfüllt werden, zu identifizieren; wobei das berechnete Übereinstimmungsmusterbild zum Angleichen an die Farbe und das Erscheinungsbild der Zielbeschichtung verwendet wird.
  3. System nach Anspruch 1, wobei das System ferner eine Bilddatenbank umfasst, wobei die Bilddatenbank die mehreren Musterbilder beinhaltet, und der eine oder die mehreren Datenprozessoren konfiguriert sind, um die Anweisungen auszuführen, um Musterbildmerkmale aus den mehreren Musterbildern unter Verwendung des einen oder der mehreren Merkmalsextraktionsalgorithmen zu extrahieren.
  4. System nach Anspruch 2, wobei der eine oder die mehreren Datenprozessoren konfiguriert sind, um die Anweisungen auszuführen, um die vorab spezifizierten Übereinstimmungskriterien basierend auf den Musterbildmerkmalen zu erstellen.
  5. System nach Anspruch 3, wobei der eine oder die mehreren Datenprozessoren konfiguriert sind, um die Anweisungen auszuführen, um das Maschinenlernmodell basierend auf den mehreren Musterbildern durch Erstellen der vorab spezifizierten Übereinstimmungskriterien basierend auf den Musterbildmerkmalen zu trainieren.
  6. System nach einem der Ansprüche 1 bis 4, wobei die Zielbilddaten RGB-Werte definieren, die repräsentativ für die Zielbeschichtung sind, und wobei der eine oder die mehreren Datenprozessoren konfiguriert sind, um die Anweisungen auszuführen, um die RGB-Werte in L*a*b*-Werte umzuwandeln, die repräsentativ für die Zielbeschichtung sind.
  7. System nach Anspruch 5, wobei die Zielbildmerkmale Darstellungen basierend auf Bildentropie umfassen, und wobei der eine oder die mehreren Merkmalsextraktionsalgorithmen konfiguriert sind, um die Darstellung basierend auf Bildentropie zum Extrahieren der Zielbildmerkmale aus den L*a*b*-Werten der Zielbilddaten zu identifizieren.
  8. System nach einem der Ansprüche 1 bis 6, wobei die elektronische Bildgebungsvorrichtung ferner als eine mobile Vorrichtung definiert ist.
  9. System nach einem der Ansprüche 1 bis 7, wobei die elektronische Bildgebungsvorrichtung eine Kamera umfasst, die konfiguriert ist, um die Zielbilddaten zu erhalten.
  10. System nach einem der Ansprüche 1 bis 8, wobei die elektronische Bildgebungsvorrichtung ferner eine Anzeige umfasst, die konfiguriert ist, um das berechnete Übereinstimmungsmusterbild anzuzeigen.
  11. System nach Anspruch 9, wobei die Anzeige ferner konfiguriert ist, um ein Bild der Zielbeschichtung neben dem berechneten Übereinstimmungsmusterbild anzuzeigen.
  12. System nach Anspruch 10, wobei die Anzeige ferner konfiguriert ist, um ein oder mehrere alternative Übereinstimmungsmusterbilder anzuzeigen, die mit dem berechneten Übereinstimmungsmusterbild in Bezug stehen.
  13. System nach Anspruch 11, wobei das berechnete Übereinstimmungsmusterbild einer primären Beschichtungsformel entspricht und das eine oder die mehreren alternativen Übereinstimmungsmusterbilder alternativen Beschichtungsformeln entsprechen, die mit der primären Beschichtungsformel in Bezug stehen.
  14. System nach Anspruch 11 oder 12, ferner umfassend ein Benutzereingabemodul, das konfiguriert ist, um durch einen Benutzer ein visuelles Übereinstimmungsmusterbild aus dem berechneten Übereinstimmungsmusterbild und dem einen oder den mehreren alternativen Übereinstimmungsmusterbildern basierend auf einer von dem Benutzer beobachteten Ähnlichkeit mit dem Bild der Zielbeschichtung auszuwählen.
  15. System nach einem der Ansprüche 1 bis 13, wobei das Maschinenlernmodell einen Random Decision Forest-Algorithmus umfasst, der die mehreren vorab spezifizierten Übereinstimmungskriterien beinhaltet.
  16. Verfahren zum Angleichen an die Farbe und das Erscheinungsbild einer Zielbeschichtung, wobei das Verfahren Folgendes umfasst: Erhalten durch einen oder mehrere Datenprozessoren von Zielbilddaten der Zielbeschichtung, wobei die Zielbilddaten durch eine elektronische Bildgebungsvorrichtung erzeugt werden und Zielbildmerkmale beinhalten; Abrufen durch einen oder mehrere Prozessoren von einem oder mehreren Merkmalsextraktionsalgorithmen, die die Zielbildmerkmale aus den Zielbilddaten extrahieren; Anwenden der Zielbilddaten bei dem einen oder den mehreren Merkmalsextrakti onsalgori thmen; Extrahieren der Zielbildmerkmale aus den Zielbilddaten unter Verwendung des einen oder der mehreren Merkmalsextraktionsalgorithmen; Abrufen durch einen oder mehrere Datenprozessoren eines Maschinenlernmodells, das ein berechnetes Übereinstimmungsmusterbild anhand von mehreren Musterbildern unter Verwendung der Zielbildmerkmale identifiziert, wobei das Maschinenlernmodell vorab spezifizierte Übereinstimmungskriterien beinhaltet, die die mehreren Musterbilder darstellen, um das berechnete Übereinstimmungsmusterbild anhand der mehreren Musterbilder zu identifizieren; Anwenden der Zielbildmerkmale bei dem Maschinenlernmodell; und Identifizieren des berechneten Übereinstimmungsmusterbilds basierend darauf, dass eines oder mehrere der vorab spezifizierten Übereinstimmungskriterien im Wesentlichen erfüllt werden; wobei das berechnete Übereinstimmungsmusterbild zum Angleichen an die Farbe und das Erscheinungsbild der Zielbeschichtung verwendet wird.
  17. Verfahren nach Anspruch 15, ferner umfassend den Schritt des Erstellens des Maschinenlernmodells basierend auf den mehreren Musterbildern, wobei der Schritt des Erstellens des Maschinenlernmodells Folgendes beinhaltet: Abrufen der mehreren Musterbilder von einer Bilddatenbank; Extrahieren von Musterbildmerkmalen aus den mehreren Musterbildern unter Verwendung des einen oder der mehreren Merkmalsextraktionsalgorithmen; und Erstellen der vorab spezifizierten Übereinstimmungskriterien basierend auf den Musterbildmerkmalen.
  18. Verfahren nach Anspruch 15 oder 16, wobei die elektronische Bildgebungsvorrichtung eine Anzeige beinhaltet und wobei das Verfahren ferner folgende Schritte umfasst: Anzeigen auf der Anzeige; des berechneten Übereinstimmungsmusterbilds, eines oder mehrerer alternativer Übereinstimmungsmusterbilder in Bezug auf das berechnete Übereinstimmungsmusterbild, und eines Bilds der Zielbeschichtung neben dem berechneten Übereinstimmungsmusterbild und dem einen oder den mehreren alternativen Übereinstimmungsmusterbildern; und Auswählen durch einen Benutzer eines visuellen Übereinstimmungsmusterbilds aus dem berechneten Übereinstimmungsmusterbild und dem einen oder den mehreren alternativen Übereinstimmungsmusterbildern basierend auf einer beobachteten Ähnlichkeit mit den Zielbilddaten.
  19. Verfahren nach Anspruch 17, wobei das berechnete Übereinstimmungsmusterbild einer primären Beschichtungsformel entspricht und das eine oder die mehreren alternativen Übereinstimmungsmusterbilder alternativen Beschichtungsformeln entsprechen, die mit der primären Beschichtungsformel in Bezug stehen.
  20. Verfahren nach einem der Ansprüche 15 bis 18, ferner umfassend das Bilden einer Beschichtungszusammensetzung entsprechend dem berechneten Übereinstimmungsmusterbild.
  21. Verfahren nach Anspruch 19, ferner umfassend das Anwenden der Beschichtungszusammensetzung bei einem Substrat.
DE102018131076.5A 2017-12-06 2018-12-05 Systeme und verfahren zum angleichen an die farbe und das erscheinungsbild von zielbeschichtungen Pending DE102018131076A1 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US15/833,597 US11062479B2 (en) 2017-12-06 2017-12-06 Systems and methods for matching color and appearance of target coatings
US15/833,597 2017-12-06

Publications (1)

Publication Number Publication Date
DE102018131076A1 true DE102018131076A1 (de) 2019-06-06

Family

ID=66548456

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102018131076.5A Pending DE102018131076A1 (de) 2017-12-06 2018-12-05 Systeme und verfahren zum angleichen an die farbe und das erscheinungsbild von zielbeschichtungen

Country Status (5)

Country Link
US (4) US11062479B2 (de)
EP (2) EP3746933A4 (de)
CN (2) CN110046635A (de)
DE (1) DE102018131076A1 (de)
WO (2) WO2019113605A1 (de)

Families Citing this family (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6843780B2 (ja) * 2018-01-18 2021-03-17 ヤフー株式会社 情報処理装置、学習済みモデル、情報処理方法、およびプログラム
JP6954260B2 (ja) * 2018-12-18 2021-10-27 セイコーエプソン株式会社 学習装置、印刷制御装置及び学習済モデル
WO2021132654A1 (ja) * 2019-12-27 2021-07-01 関西ペイント株式会社 塗料の製造方法、色彩データを予測する方法及びコンピュータ調色システム
US20210201513A1 (en) * 2019-12-31 2021-07-01 Axalta Coating Systems Ip Co., Llc Systems and methods for matching color and appearance of target coatings
US11574420B2 (en) * 2019-12-31 2023-02-07 Axalta Coating Systems Ip Co., Llc Systems and methods for matching color and appearance of target coatings
US11978233B2 (en) * 2019-12-31 2024-05-07 Axalta Coating Systems Ip Co., Llc Systems and methods for matching color and appearance of target coatings
JP7272296B2 (ja) * 2020-02-07 2023-05-12 トヨタ自動車株式会社 判定方法、判定装置及び判定プログラム
CA3168395A1 (en) * 2020-02-26 2021-02-26 Donald R. BAUGHMAN Method and device for deploying and using an image similarity metric with deep learning
US11195285B2 (en) * 2020-04-01 2021-12-07 Bae Systems Information And Electronic Systems Integration Inc. Moving object detection using a digital read-out integrated circuit and degree of polarization and angle of polarization at the pixel level
JP7417789B2 (ja) 2020-09-04 2024-01-18 サン ケミカル コーポレイション 完全統合型デジタル色管理システム
CN114858793A (zh) * 2021-02-04 2022-08-05 深圳迈瑞生物医疗电子股份有限公司 样本图像拍摄系统、方法以及计算机可读存储介质
CN114213895B (zh) * 2021-12-10 2023-04-25 惠州深赛尔化工有限公司 一种水性家电彩钢底漆涂料的工艺质量控制方法
CN114612695A (zh) * 2022-03-11 2022-06-10 江阴市浩盛电器线缆制造有限公司 嵌入式布线规则判断系统
US20240035969A1 (en) 2022-07-28 2024-02-01 Axalta Coating Systems Ip Co., Llc Method and system for matching color and/or appearance of a surface

Family Cites Families (63)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US3065314A (en) 1959-10-08 1962-11-20 Gen Motors Corp Timed control mechanism
JPH09229773A (ja) 1996-02-22 1997-09-05 Toto Ltd コンピュータカラーマッチング方法
DE19636774C2 (de) 1996-09-10 1999-04-22 Herberts Gmbh Verfahren zur Anpassung einer Farbrezeptur
JP4039470B2 (ja) 1997-05-09 2008-01-30 日清紡績株式会社 メタリック・パール系塗料のコンピュータ調色における着色材と光輝材の配合比又は光輝材の配合量を求める方法
US6163622A (en) 1997-12-18 2000-12-19 U.S. Philips Corporation Image retrieval system
US6941287B1 (en) * 1999-04-30 2005-09-06 E. I. Du Pont De Nemours And Company Distributed hierarchical evolutionary modeling and visualization of empirical data
JP3626387B2 (ja) 2000-02-04 2005-03-09 関西ペイント株式会社 コンピュータ調色装置及びこの装置を用いた塗料の調色方法
JP2001265786A (ja) 2000-03-21 2001-09-28 Kansai Paint Co Ltd 塗料中の光輝材を同定する方法
US7743055B2 (en) 2000-03-28 2010-06-22 E.I. Du Pont De Nemours And Company Digital display of color and appearance and the use thereof
CA2384127A1 (en) * 2000-07-07 2002-01-17 Kansai Paint Co., Ltd. Toning method of paint having brilliant feeling
EP1207386A1 (de) 2000-11-20 2002-05-22 The Dow Chemical Company Verfahren zum Charakterisieren des Aussehens eines Gegenstandes, zum Vorhersagen des Aussehens eines Gegenstandes und zum Herstellen eines Gegenstandes mit vorbestimmtem Aussehen, das optional auf Grundlage eines Referenzobjektes bestimmt wurde
KR100788643B1 (ko) 2001-01-09 2007-12-26 삼성전자주식회사 색과 질감의 조합을 기반으로 하는 영상 검색 방법
US6714924B1 (en) 2001-02-07 2004-03-30 Basf Corporation Computer-implemented neural network color matching formulation system
US6804390B2 (en) 2001-02-07 2004-10-12 Basf Corporation Computer-implemented neural network color matching formulation applications
CN1646330B (zh) * 2001-07-11 2010-10-13 洛桑聚合联合学院 结合有微结构的图像
US6870614B2 (en) 2002-05-30 2005-03-22 General Electric Company Method, system and computer product for formulating a bi-directional color match
US20040218182A1 (en) * 2003-04-30 2004-11-04 Alman David H. Method for identifying effect pigments in a paint film for field color matching
US6952265B2 (en) * 2003-06-12 2005-10-04 E. I. Du Pont De Nemours And Company Method of characterization of surface coating containing metallic flakes and device used therein
US7953274B2 (en) * 2005-03-18 2011-05-31 Valspar Sourcing, Inc. Digital method for matching stains
US20070032965A1 (en) 2005-07-20 2007-02-08 Basf Corporation System and method for determining a paint formula with a portable device
US8176414B1 (en) 2005-09-30 2012-05-08 Google Inc. Document division method and system
US8065314B2 (en) * 2006-10-02 2011-11-22 E. I. Du Pont De Nemours And Company Method for matching color and appearance of a coating containing effect pigments
US7885482B2 (en) 2006-10-26 2011-02-08 Microsoft Corporation Coverage-based image relevance ranking
JP5039144B2 (ja) 2006-11-20 2012-10-03 イー・アイ・デュポン・ドウ・ヌムール・アンド・カンパニー 限られた測定データでゴニオ外観性材料の双方向反射分布関数を生成するための方法
CN101617205B (zh) 2007-02-21 2013-07-10 纳幕尔杜邦公司 自动选择着色剂和薄片以匹配涂层颜色和外观
EP2130014B1 (de) * 2007-03-29 2019-05-15 Coatings Foreign IP Co. LLC System für farbabgleich und digitale farbanzeige
CN101730835B (zh) * 2007-06-20 2014-02-12 关西涂料株式会社 涂料颜色数据库的创建方法、使用数据库的检索方法、及其系统、程序和记录介质
DE502007001147D1 (de) 2007-12-07 2009-09-03 Basf Se Verfahren und Vorrichtung zur Modellierung und Simulation optischer Eigenschaften von Effektstofflacken und Bestimmung von Beleuchtungs- und Messgeometrien für Spektralphotometer
US20090157212A1 (en) * 2007-12-12 2009-06-18 Basf Corporation System and method of determining paint formula having a effect pigment
US8407014B2 (en) 2008-02-21 2013-03-26 E I Du Pont De Nemours And Company Automatic selection of colorants and flakes for matching coating color and appearance
US20090274827A1 (en) * 2008-04-30 2009-11-05 Ppg Industries Ohio, Inc. Color formulation selection process with visual display
US8049924B2 (en) * 2008-05-27 2011-11-01 Xerox Corporation Methods and apparatus for color control of coated images on a printed media
US8629882B2 (en) 2008-05-29 2014-01-14 Ppg Industries Ohio, Inc. Digital color chip
JP2010019732A (ja) 2008-07-11 2010-01-28 Honda Motor Co Ltd ガスセンサ
WO2010116885A1 (ja) * 2009-04-06 2010-10-14 日本電気株式会社 データ処理装置、画像照合方法、プログラムおよび画像照合システム
CN101630363B (zh) * 2009-07-13 2011-11-23 中国船舶重工集团公司第七〇九研究所 复杂背景下彩色图像人脸的快速检测方法
GB201000835D0 (en) 2010-01-19 2010-03-03 Akzo Nobel Coatings Int Bv Method and system for determining colour from an image
AU2011270773A1 (en) 2010-06-25 2012-11-08 Coatings Foreign Ip Co. Llc Process for producing and delivering matching color coating and use thereof
WO2012177508A2 (en) 2011-06-20 2012-12-27 E.I. Du Pont De Nemours And Company Method for matching sparkle appearance of coatings
US8903132B2 (en) * 2011-09-12 2014-12-02 2343127 Ontario Inc. Efficient system and method for body part detection and tracking
WO2013049796A1 (en) * 2011-09-30 2013-04-04 E. I. Du Pont De Nemours And Company System for matching color and appearance of coatings containing effect pigments
WO2013049792A1 (en) 2011-09-30 2013-04-04 E. I. Du Pont De Nemours And Company Method for matching color and appearance of coatings containing effect pigments
US10375148B2 (en) 2011-12-21 2019-08-06 Akzo Nobel Coatings International B.V. Colour variant selection method using a mobile device
RU2489705C1 (ru) 2012-02-27 2013-08-10 федеральное государственное бюджетное образовательное учреждение высшего профессионального образования "Пермский национальный исследовательский политехнический университет" Способ определения степени гомогенизации гетерогенных смесей по оптолептической информации об их поверхности
US9098911B2 (en) * 2012-11-01 2015-08-04 Google Inc. Depth map generation from a monoscopic image based on combined depth cues
ES2467590B2 (es) 2012-11-12 2015-07-21 Universidad De Alicante Procedimiento para estimar el color de materiales gonioaparentes
US9830429B2 (en) 2013-03-14 2017-11-28 Ppg Industries Ohio, Inc. Systems and methods for multi-flux color matching
US10586162B2 (en) 2013-03-15 2020-03-10 Ppg Industries Ohio, Inc. Systems and methods for determining a coating formulation
US10147043B2 (en) 2013-03-15 2018-12-04 Ppg Industries Ohio, Inc. Systems and methods for texture assessment of a coating formulation
CN203385671U (zh) * 2013-08-16 2014-01-08 上海理工大学 基于移动电子设备的视觉识别便携实验台
US9256959B1 (en) * 2013-08-29 2016-02-09 Marvell International Ltd. Systems and methods for color lens shading correction
US8879813B1 (en) * 2013-10-22 2014-11-04 Eyenuk, Inc. Systems and methods for automated interest region detection in retinal images
NZ631068A (en) 2013-11-08 2015-10-30 Ppg Ind Ohio Inc Texture analysis of a coated surface using electrostatics calculations
WO2015118370A1 (en) * 2014-02-04 2015-08-13 Intel Corporation Techniques for frame repetition control in frame rate up-conversion
JP6384183B2 (ja) 2014-08-05 2018-09-05 株式会社リコー 試料測定装置および試料測定プログラム
US10113910B2 (en) * 2014-08-26 2018-10-30 Digimarc Corporation Sensor-synchronized spectrally-structured-light imaging
US9607403B2 (en) * 2014-10-28 2017-03-28 Ppg Industries Ohio, Inc. Pigment identification of complex coating mixtures with sparkle color
CN104504716A (zh) 2014-12-31 2015-04-08 广州厚邦木业制造有限公司 基于bp神经网络的实木地板油漆自动配色方法
US9406024B1 (en) 2015-02-10 2016-08-02 International Business Machines Corporation System and method for color paint selection and acquisition
US9798949B1 (en) * 2015-03-19 2017-10-24 A9.Com, Inc. Region selection for image match
US9818205B2 (en) * 2016-02-19 2017-11-14 Ppg Industries Ohio, Inc. Simplified texture comparison engine
US10613727B2 (en) * 2016-02-19 2020-04-07 Ppg Industries Ohio, Inc. Color and texture match ratings for optimal match selection
CN107330188B (zh) * 2017-06-30 2023-01-10 武汉大学深圳研究院 面向复制对象的多色半色调设备拆分式建模方法及系统

Also Published As

Publication number Publication date
CN111954885A (zh) 2020-11-17
US20210239531A1 (en) 2021-08-05
CN110046635A (zh) 2019-07-23
EP3746933A1 (de) 2020-12-09
US11062479B2 (en) 2021-07-13
EP3746933A4 (de) 2021-06-09
US20200387742A1 (en) 2020-12-10
US11692878B2 (en) 2023-07-04
WO2019113605A1 (en) 2019-06-13
WO2019113606A2 (en) 2019-06-13
US11568570B2 (en) 2023-01-31
EP3721191A2 (de) 2020-10-14
EP3721191A4 (de) 2021-06-02
CN111989553A (zh) 2020-11-24
WO2019113606A3 (en) 2019-07-18
US20190172228A1 (en) 2019-06-06
US20210272322A1 (en) 2021-09-02

Similar Documents

Publication Publication Date Title
DE102018131076A1 (de) Systeme und verfahren zum angleichen an die farbe und das erscheinungsbild von zielbeschichtungen
US11574420B2 (en) Systems and methods for matching color and appearance of target coatings
US11080552B2 (en) Systems and methods for paint match simulation
DE112014000995T5 (de) Verfahren zum In-Übereinstimmung-Bringen von Farbe und Aussehen von Beschichtungen
US8000524B2 (en) Color naming, color categorization and describing color composition of images
US11978233B2 (en) Systems and methods for matching color and appearance of target coatings
CN101523194B (zh) 测量涂层外观的方法及其应用
DE102015220110A1 (de) System und Verfahren zur Farbmessung unter Verwendung von Ortsangaben und Orientierungssensoren
DE112018006287T5 (de) Inspektionssystem, inspektionsverfahren, programm und speichermedium
DE112012004460B4 (de) Prozess zur Anzeige und dem Entwerfen von Farben
EP3846130A1 (de) Systeme und verfahren zur anpassung von farbe und aussehen von zielbeschichtungen
DE102015003947A1 (de) System und Verfahren zum Sortieren von Farbfächerfarben
Abdullah et al. Digital image processing analysis using Matlab
CN111989553B (zh) 颜色匹配样本数据库以及用于颜色匹配样本数据库的系统和方法
Nikolaev et al. On spectral models and colour constancy clues
Raza et al. Automatic colour segmentation and colour palette identification of complex images
EP4302270A1 (de) Systeme, verfahren und schnittstellen zum vergleich komplexer beschichtungsmischungen mit glitzerfarbe

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R081 Change of applicant/patentee

Owner name: AXALTA COATING SYSTEMS GMBH, CH

Free format text: FORMER OWNER: COATINGS FOREIGN IP CO. LLC, WILMINGTON, DEL., US