DE112019006192T5 - METHOD FOR IMPROVING THE ACCURACY OF A TRAINING IMAGE DATA SET OF A FOLDING NEURONAL NETWORK FOR LOSS PREVENTION APPLICATIONS - Google Patents
METHOD FOR IMPROVING THE ACCURACY OF A TRAINING IMAGE DATA SET OF A FOLDING NEURONAL NETWORK FOR LOSS PREVENTION APPLICATIONS Download PDFInfo
- Publication number
- DE112019006192T5 DE112019006192T5 DE112019006192.5T DE112019006192T DE112019006192T5 DE 112019006192 T5 DE112019006192 T5 DE 112019006192T5 DE 112019006192 T DE112019006192 T DE 112019006192T DE 112019006192 T5 DE112019006192 T5 DE 112019006192T5
- Authority
- DE
- Germany
- Prior art keywords
- character
- image scan
- scan data
- data
- identification data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N5/00—Computing arrangements using knowledge-based models
- G06N5/01—Dynamic search techniques; Heuristics; Dynamic trees; Branch-and-bound
Abstract
Techniken zum Verbessern der Genauigkeit eines neuronalen Netzwerks, das für Verlustvermeidungsanwendungen trainiert wird, umfassen das Identifizieren von physikalischen Merkmalen eines Objekts in Bildscandaten, das Zuschneiden von Zeichen aus den Bildscandaten und das Untersuchen von physikalischen Merkmalen in den zeichenbefreiten Bildscandaten unter Verwendung eines neuronalen Netzwerks, um das Objekt zu identifizieren, basierend auf einem Vergleich von Identifikationsdaten, die auf den physikalischen Merkmalen basieren, und einer anderen Identifikation, beispielsweise basierend auf den Zeichen. Als Reaktion auf eine Übereinstimmungsvorhersage erfolgt ein Anzeigen einer Übereinstimmung und ein Erzeugen eines Authentifizierungssignals.Techniques for improving the accuracy of a neural network trained for loss prevention applications include identifying physical features of an object in image scan data, cropping characters from the image scan data, and examining physical features in the character stripped image scan data using a neural network identify the object based on a comparison of identification data based on the physical features and another identification based on the characters, for example. In response to a match prediction, a match is indicated and an authentication signal is generated.
Description
HINTERGRUND DER ERFINDUNGBACKGROUND OF THE INVENTION
Mit zunehmender Rechenleistung wurden Faltungsneuronale Netzwerke (CNNs) zur Objekterkennung in erfassten Bildern eingesetzt. Damit ein CNN effektiv ist, sollten die Eingangsbilder von ausreichend hoher Qualität sein, besteht ein Bedarf an Korrektheit beim Training, und die Schichten und die Komplexität des neuronalen Netzwerks sollten sorgfältig ausgewählt werden.With increasing computing power, convolutional neural networks (CNNs) were used for object recognition in captured images. For a CNN to be effective, the input images should be of sufficiently high quality, there is a need for correctness in training, and the layers and complexity of the neural network should be carefully selected.
Typischerweise werden CNNs einem überwachten Training unterzogen, bei dem die Informationen über die Eingangsbilder für das CNN von einer Quelle vorgegeben werden, typischerweise von einem Menschen. Das heißt, beim überwachten Training muss typischerweise jemand dem CNN angeben, was in den Eingangsbildern tatsächlich enthalten ist. Da das typische Training eine große Anzahl von Eingangsbildern erfordert - je größer die Anzahl der Trainingsbilder ist, desto effektiver ist im Allgemeinen das CNN-Training - ist das überwachte Lernen ein zeitraubender Prozess. Dies gilt insbesondere in Umgebungen, in denen Bilder nicht standardisiert sind, z. B. wenn Bilder, die scheinbar dasselbe allgemeine Objekt oder dieselbe Szene zeigen, sehr unterschiedliche, nicht miteinander verbundene Objekte enthalten können. Ein weiteres Problem bei den Anforderungen an das überwachte Training für CNN ist das Fehlen einer ausreichenden Anzahl von Trainingseingangsbildern eines Objekts oder ein Ungleichgewicht in der Anzahl der Trainingsbilder, so dass bestimmte Objekte in einer Bildtrainingsmenge häufiger vertreten sind als andere Objekte, wodurch das Training des CNN möglicherweise verzerrt wird.Typically, CNNs undergo supervised training in which the information about the input images for the CNN is provided by a source, typically a human. That is, in supervised training, someone typically has to tell the CNN what is actually contained in the input images. Since typical training requires a large number of input images - the greater the number of training images, the more effective the CNN training in general - supervised learning is a time consuming process. This is especially true in environments where images are not standardized, e.g. For example, when images that appear to show the same general object or scene may contain very different, unrelated objects. Another problem with the supervised training requirements for CNN is the lack of a sufficient number of training input images of an object or an imbalance in the number of training images such that certain objects are more frequently represented in an image training set than other objects, thereby reducing the training of the CNN may be distorted.
Das CNN-Training ist besonders mühsam in Einzelhandelsumgebungen, in denen es für viele der einer Bestandsaufrechterhaltungseinheit (Stock Keeping Unit - SKU) zugeordneten Artikel keine bekannten Bilder (oder Bilddatenbanken) gibt.CNN training is especially troublesome in retail environments where many of the items associated with a stock keeping unit (SKU) do not have known images (or image databases).
Eine der markantesten Möglichkeiten, bei der das Fehlen ausreichender CNN-Trainingstechniken für Einzelhandelsprodukte deutlich wird, ist der Bezug zu Täuschung (Spoofing). Täuschung ist ein Vorgang, bei dem ein Kunde oder ein Verkäufer versucht, einen Artikel an einer Strichcode-Scanstation abzuwickeln, indem er nicht den Strichcode des eigentlichen Artikels scannt, sondern den Strichcode des eigentlichen Artikels mit einem Strichcode eines günstigeren Artikels maskiert. Der günstigere Artikel wird am Verkaufspunkt aufgedrückt, und dem Kunden wird der entsprechende Preis des günstigeren Artikels in Rechnung gestellt, wobei die tatsächlichen Kosten des Artikels vermieden werden.One of the most striking ways in which the lack of adequate CNN training techniques for retail products becomes apparent is through relation to spoofing. Deception is a process in which a customer or a seller tries to transact an item at a barcode scanning station by not scanning the barcode of the actual item, but rather masking the barcode of the actual item with a barcode of a cheaper item. The cheaper item is pushed on at the point of sale and the customer is billed for the corresponding price of the cheaper item, avoiding the actual cost of the item.
Dementsprechend besteht ein Bedarf an Techniken zur Automatisierung des Trainings neuronaler Netzwerke, um Strichcode-Scans akkurat zu verwenden.Accordingly, there is a need for techniques to automate the training of neural networks to use barcode scans accurately.
FigurenlisteFigure list
Die beigefügten Figuren, in denen gleiche Bezugszeichen identische oder funktional ähnliche Elemente in den einzelnen Ansichten bezeichnen, sind zusammen mit der nachfolgenden detaillierten Beschreibung in die Offenbarung inkorporiert und bilden einen Bestandteil der Offenbarung und dienen dazu, hierin beschriebene Ausführungsformen von Konzepten, die die beanspruchte Erfindung umfassen, weiter zu veranschaulichen und verschiedene Prinzipien und Vorteile dieser Ausführungsformen zu erklären.
-
1 ist ein schematisches Blockdiagramm eines Systems mit einem Trainingsmodus zum Trainieren eines neuronalen Netzwerks und einem Täuschungserkennungsmodus zum Erkennen eines Autorisierungstransaktionsversuchs, gemäß einigen Ausführungsformen. -
2 ist eine schematische Darstellung eines Beispieltrainings eines neuronalen Netzwerks zur Täuschungserkennung, gemäß einem Beispiel. -
3 ist eine schematische Darstellung eines weiteren Beispiels für das Training eines neuronalen Netzwerks mit Erkennung und Entfernung von Hintergrundbilddaten, gemäß einem Beispiel. -
4 ist eine schematische Darstellung eines Beispiels für das Training eines neuronalen Netzwerks, das auf ermittelten Variationen zu vorher trainierten Bilddaten basiert, gemäß einem Beispiel. -
5 ist eine schematische Darstellung eines Beispieltrainings eines neuronalen Netzwerks, gemäß einem Beispiel. -
6 ist ein Flussdiagramm eines Verfahrens zum Trainieren eines neuronalen Netzwerks, wie es vom System von1 durchgeführt werden kann, gemäß einigen Ausführungsformen. -
7 ist ein Flussdiagramm eines anderen Verfahrens zum Trainieren eines neuronalen Netzwerks, wie es vom System von1 durchgeführt werden kann, gemäß einigen Ausführungsformen. -
8 ist ein Flussdiagramm eines Verfahrens zum Erkennen eines Täuschungsversuchs an dem Verkaufspunktstandort von1 und zum Erzeugen eines Alarms, gemäß einigen Ausführungsformen. -
9 ist ein Flussdiagramm eines Verfahrens zum Erkennen eines Täuschungsversuchs an dem Verkaufspunktstandort von1 und zum Überordnen und Autorisieren einer sekundären Transaktion, gemäß einigen Ausführungsformen.
-
1 FIG. 3 is a schematic block diagram of a system having a training mode to train a neural network and a fake detection mode to detect an authorization transaction attempt, in accordance with some embodiments. -
2 FIG. 12 is a schematic representation of an example training of a neural network for deception detection, according to an example. -
3 FIG. 12 is a schematic illustration of a further example of training a neural network with detection and removal of background image data, according to an example. -
4th FIG. 12 is a schematic illustration of an example of the training of a neural network that is based on determined variations to previously trained image data, according to an example. -
5 Figure 3 is a schematic representation of an example neural network training, according to an example. -
6th FIG. 13 is a flow diagram of a method for training a neural network as provided by the system of FIG1 can be performed, according to some embodiments. -
7th FIG. 13 is a flow diagram of another method for training a neural network such as that provided by the system of FIG1 can be performed, according to some embodiments. -
8th FIG. 13 is a flow diagram of a method for detecting attempted fraud at the point of sale location of FIG1 and generating an alarm, in accordance with some embodiments. -
9 FIG. 13 is a flow diagram of a method for detecting attempted fraud at the point of sale location of FIG1 and to superordinate and authorize a secondary transaction, in accordance with some embodiments.
Fachleute werden erkennen, dass Elemente in den Figuren der Einfachheit und Klarheit halber dargestellt sind und nicht notwendigerweise maßstabsgetreu gezeichnet wurden. Zum Beispiel können die Dimensionen einiger der Elemente in den Figuren relativ zu anderen Elementen übertrieben sein, um das Verständnis von Ausführungsformen der vorliegenden Erfindung zu verbessern.Those skilled in the art will recognize that elements in the figures are shown for simplicity and clarity and are not necessarily drawn to scale. For example, the dimensions of some of the elements in the figures may be exaggerated relative to other elements in order to improve understanding of embodiments of the present invention.
Die Vorrichtungs- und Verfahrenskomponenten wurden, wo es angemessen ist, durch herkömmliche Symbole in den Zeichnungen dargestellt, die nur jene spezifischen Details zeigen, die zum Verständnis der Ausführungsformen der vorliegenden Erfindung relevant sind, um somit die Offenbarung nicht mit Einzelheiten zu verdecken, die für die Fachleute auf dem Gebiet, die auf die vorliegende Beschreibung zurückgreifen, ohne weiteres ersichtlich sind.The apparatus and method components have, where appropriate, been represented in the drawings by conventional symbols showing only those specific details relevant to an understanding of embodiments of the present invention, so as not to obscure the disclosure with details necessary to those skilled in the art having recourse to the present description will be readily apparent.
DETAILLIERTE BESCHREIBUNG DER ERFINDUNGDETAILED DESCRIPTION OF THE INVENTION
Die vorliegende Erfindung bietet Techniken zur nahtlosen Erfassung von Bildern eines Produkts und zum Scannen dieser Bilder nach einem Strichcode sowie zum Scannen dieser Bilder nach physikalischen Merkmalen eines Objekts im Bild. Die Strichcodedaten können, nachdem sie gescannt und analysiert wurden, mit den für ein Objekt erhaltenen physikalischen Merkmalen verglichen werden, und die Daten können verglichen werden, um zu bestimmen, ob die beiden Datentypen demselben Objekt entsprechen.The present invention provides techniques for seamlessly capturing images of a product and scanning those images for a bar code and scanning those images for physical characteristics of an object in the image. The bar code data, after being scanned and analyzed, can be compared to the physical characteristics obtained for an object, and the data can be compared to determine whether the two types of data correspond to the same object.
In verschiedenen Ausführungsformen ist die vorliegende Erfindung ein Verfahren zum Trainieren eines neuronalen Netzwerks. Das Verfahren, welches ein computerimplementiertes Verfahren ist, das auf einem oder mehreren Prozessoren implementiert ist, kann das Empfangen von Bildscandaten an einem oder mehreren Prozessoren umfassen. Diese Bildscandaten können von einem Objekt stammen, z. B. einem Produkt oder einer Verpackung, das/die an einem Verkaufspunkt, einem Vertriebsort, einem Versandort usw. präsentiert wird. Die Bildscandaten können von einer Bildgebungsvorrichtung wie z. B. einem Strichcodescanner mit Bildgebungsleser oder einem Bildgebungsleser mit einem RFID (Radio Frequency Identification)-Etikettleser erfasst werden. Die Bildscandaten können ein Bild enthalten, das mindestens ein dem Objekt entsprechendes Zeichen sowie physikalische Merkmale des Objekts enthält. Das Zeichen kann z. B. ein Strichcode, ein universeller Produktcode, ein Schnelllesecode oder eine Kombination davon sein. In verschiedenen Beispielen umfasst das Verfahren ferner das Empfangen von dekodierten Zeichendaten an dem einen oder den mehreren Prozessoren zur Bestimmung von Identifikationsdaten für das Objekt.In various embodiments, the present invention is a method of training a neural network. The method, which is a computer-implemented method implemented on one or more processors, may include receiving image scan data on one or more processors. This image scan data can come from an object, e.g. B. a product or packaging presented at a point of sale, distribution point, shipping location, etc. The image scan data can be obtained from an imaging device such as e.g. B. a barcode scanner with an imaging reader or an imaging reader with an RFID (Radio Frequency Identification) label reader. The image scan data can contain an image that contains at least one character corresponding to the object as well as physical features of the object. The character can e.g. B. be a bar code, a universal product code, a quick read code or a combination thereof. In various examples, the method further includes receiving decoded character data at the one or more processors to determine identification data for the object.
Das Verfahren kann ferner das Korrelieren mindestens eines Teils der Bildscandaten mit diesen Identifikationsdaten an dem einen oder den mehreren Prozessoren umfassen, um einen korrelierten Datensatz zu erzeugen. In verschiedenen Beispielen umfasst das Verfahren das Übertragen des korrelierten Datensatzes an dem einen oder den mehreren Prozessoren an einen maschinellen Lernrahmen, wie z. B. ein neuronales Netzwerk, das eine Reihe von Operationen an dem korrelierten Datensatz durchführen kann. In einigen Beispielen untersucht das neuronale Netzwerk mindestens einige der physikalischen Merkmale des Objekts in dem korrelierten Datensatz und bestimmt eine Gewichtung für jedes dieser physikalischen Merkmale. Diese Gewichte sind ein relativer Hinweis auf eine Korrelationsstärke zwischen dem physikalischen Merkmal und den Identifikationsdaten des Objekts. Das Verfahren umfasst ferner das Erzeugen oder Aktualisieren des neuronalen Netzwerks mit den ermittelten Gewichtungen zur Bewertung zukünftiger Bilddaten anhand der gewichteten Merkmale.The method may further include correlating at least a portion of the image scan data with this identification data at the one or more processors to generate a correlated data set. In various examples, the method includes transmitting the correlated data set at the one or more processors to a machine learning framework, such as, for. B. a neural network that can perform a number of operations on the correlated data set. In some examples, the neural network examines at least some of the physical features of the object in the correlated data set and determines a weight for each of those physical features. These weights are a relative indication of a correlation strength between the physical feature and the identification data of the object. The method further comprises generating or updating the neural network with the determined weightings for evaluating future image data on the basis of the weighted features.
Auf diese Weise werden in verschiedenen Beispielen Verfahren zum Trainieren eines neuronalen Netzwerks bereitgestellt, das in der Lage ist, ein Objekt basierend auf physikalischen Merkmalen des Objekts mit einem hohen Grad an Sicherheit zu identifizieren und zu authentifizieren. Die Identifizierung eines Objekts basierend auf diesen physikalischen Merkmalen kann dann mit einer zweiten Identifizierung verglichen werden, die basierend auf einem gescannten Zeichen durchgeführt wird. Diese beiden Identifizierungen können miteinander verglichen werden, um eine Multi-Faktor-Authentifizierung des gescannten Objekts zur Erkennung unsachgemäßer Scans, wie z. B. Täuschungsversuche an einer Verkaufsstelle, zu ermöglichen.In this way, methods are provided in various examples for training a neural network that is able to identify and authenticate an object based on physical features of the object with a high degree of security. The identification of an object based on these physical features can then be compared with a second identification performed based on a scanned character. These two identifications can be compared with each other to provide multi-factor authentication of the scanned object to identify improper scans, such as B. to allow attempts at deception at a point of sale.
In einigen Beispielen beinhaltet das Verfahren ferner, dass das neuronale Netzwerk einen Merkmalssatz für das Objekt mit den Gewichtungen für mindestens einige der physikalischen Merkmale aktualisiert; und dass ein charakteristischer Satz von physikalischen Merkmalen für das Objekt auf der Grundlage des Merkmalssatzes abgeleitet wird.In some examples, the method further includes the neural network updating a feature set for the object with the weights for at least some of the physical features; and that a characteristic set of physical features for the object is derived on the basis of the feature set.
In anderen Beispielen umfasst die vorliegende Erfindung ein System zum Trainieren eines neuronalen Netzwerks. Das System kann einen Server umfassen, der über ein Kommunikationsnetzwerk mit einem oder mehreren Objektscannern kommunikativ gekoppelt ist, wie z. B. einem oder mehreren Strichcodescannern mit Bildgebungslesern oder einem Bildgebungsleser mit einem RFID (Radio Frequency Identification) -Etikettleser. Der Server kann so konfiguriert sein, dass er Bildscandaten von dem Objektscanner über das Kommunikationsnetzwerk empfängt, wobei die Bildscandaten von einem Objekt stammen und wobei die Bildscandaten mindestens ein dem Objekt entsprechendes Zeichen enthalten und wobei die Bildscandaten ferner physikalische Merkmale des Objekts enthalten. Der Server kann ferner so konfiguriert sein, dass er dekodierte Zeichendaten empfängt und Identifikationsdaten für das Objekt bestimmt. Der Server kann zumindest einen Teil der Bildscandaten mit den Identifikationsdaten für das Objekt korrelieren, was zu einem korrelierten Datensatz führt; und der Server kann den korrelierten Datensatz an einen neuronalen Netzwerkrahmen innerhalb des Servers senden. Der neuronale Netzwerkrahmen kann zumindest einige der physikalischen Merkmale des Objekts in dem korrelierten Datensatz untersuchen und eine Gewichtung für jedes der zumindest einigen physikalischen Merkmale des Objekts bestimmen, wobei jede Gewichtung eine relative Anzeige einer Korrelationsstärke zwischen dem physikalischen Merkmal und den Identifikationsdaten des Objekts ist. Der neuronale Netzwerkrahmen kann dann ein trainiertes Netzwerkmodell mit den bestimmten Gewichtungen erzeugen oder aktualisieren.In other examples, the present invention includes a system for training a neural network. The system may include a server communicatively coupled to one or more object scanners via a communication network, such as e.g. B. one or more Barcode scanners with imaging readers or an imaging reader with a radio frequency identification (RFID) label reader. The server can be configured to receive image scan data from the object scanner via the communication network, wherein the image scan data originate from an object and wherein the image scan data contains at least one character corresponding to the object and wherein the image scan data further contains physical features of the object. The server can also be configured to receive decoded character data and determine identification data for the object. The server can correlate at least part of the image scan data with the identification data for the object, which leads to a correlated data set; and the server can send the correlated data set to a neural network frame within the server. The neural network frame may examine at least some of the physical features of the object in the correlated data set and determine a weight for each of the at least some physical features of the object, each weight being a relative indication of a strength of correlation between the physical feature and the identification data of the object. The neural network frame can then generate or update a trained network model with the determined weights.
In einigen Beispielen umfasst die vorliegende Erfindung ein computerimplementiertes Verfahren zur Erkennung von Täuschung (Spoofing). Das Verfahren umfasst das Empfangen von Bildscandaten an einem oder mehreren Prozessoren, wobei die Bildscandaten von einem Objekt stammen und physikalische Merkmale des Objekts enthalten und wobei die Bildscandaten mindestens ein dem Objekt entsprechendes Zeichen und dekodierte Zeichendaten zur Bestimmung erster Identifikationsdaten für das Objekt enthalten. Das Verfahren umfasst ferner das Zuschneiden der Bildscandaten in dem einen oder den mehreren Prozessoren, um das mindestens eine Zeichen aus den Bildscandaten zu entfernen, um zeichenbefreite Bildscandaten zu erzeugen; und das Bereitstellen der zeichenbefreiten Bildscandaten an dem einen oder den mehreren Prozessoren für ein neuronales Netzwerk zum Untersuchen der physikalischen Merkmale des Objekts in den zeichenbefreiten Bildscandaten, und zum Bestimmen zweiter Identifikationsdaten auf der Grundlage der physikalischen Merkmale. Das Verfahren umfasst ferner das Bestimmen einer Übereinstimmungsvorhersage der zeichenbefreiten Bildscandaten an dem neuronalen Netzwerk auf der Grundlage eines Vergleichs der ersten Identifikationsdaten mit den zweiten Identifikationsdaten; und das Erzeugen eines Authentifizierungssignals als Reaktion auf die Bestimmung, dass die Übereinstimmungsvorhersage eine Übereinstimmung anzeigt, und das Erzeugen eines Alarmsignals als Reaktion auf die Bestimmung, dass die Übereinstimmungsvorhersage eine Nicht-Übereinstimmung anzeigt.In some examples, the present invention includes a computer-implemented method for detecting spoofing. The method comprises receiving image scan data at one or more processors, wherein the image scan data originate from an object and contain physical features of the object and wherein the image scan data contain at least one character corresponding to the object and decoded character data for determining first identification data for the object. The method further comprises cropping the image scan data in the one or more processors to remove the at least one character from the image scan data to generate character-exempt image scan data; and providing the non-character image scan data to the one or more processors to a neural network to examine the physical features of the object in the character-exempt image scan data and to determine second identification data based on the physical features. The method further comprises determining a match prediction of the character-free image scan data at the neural network on the basis of a comparison of the first identification data with the second identification data; and generating an authentication signal in response to determining that the match prediction indicates a match and generating an alert signal in response to determining that the match prediction indicates a mismatch.
In anderen Beispielen umfasst die vorliegende Erfindung ein System zur Erkennung von Täuschung (Spoofing). Das System umfasst einen Server, der über ein Kommunikationsnetzwerk kommunikativ mit einem oder mehreren Objektscannern gekoppelt ist, wobei der Server einen oder mehrere Prozessoren und einen oder mehrere Speicher umfasst. Der Server kann so konfiguriert sein, dass er: an einem oder mehreren Prozessoren und von einem der Objektscanner Bildscandaten empfängt, wobei die Bildscandaten von einem Objekt stammen und physikalische Merkmale des Objekts enthalten und wobei die Bildscandaten mindestens ein dem Objekt entsprechendes Zeichen und dekodierte Zeichendaten zum Bestimmen erster Identifikationsdaten für das Objekt enthalten; und an dem einen oder den mehreren Prozessoren die Bildscandaten zuschneidet, um das mindestens eine Zeichen aus den Bildscandaten zu entfernen, um zeichenbefreite Bildscandaten zu erzeugen. Der Server kann ferner so konfiguriert sein, dass er an dem einen oder den mehreren Prozessoren die zeichenbefreiten Bildscandaten einem neuronalen Netzwerk bereitstellt, um die physikalischen Merkmale des Objekts in den zeichenbefreiten Bildscandaten zu untersuchen und zweite Identifikationsdaten auf der Grundlage der physikalischen Merkmale zu bestimmen; an dem neuronalen Netzwerk eine Übereinstimmungsvorhersage der zeichenbefreiten Bildscandaten auf der Grundlage eines Vergleichs der ersten Identifikationsdaten mit den zweiten Identifikationsdaten bestimmt. Der Server kann ferner so konfiguriert sein, dass er als Reaktion auf die Bestimmung, dass die Übereinstimmungsvorhersage eine Übereinstimmung anzeigt, ein Authentifizierungssignal erzeugt, und als Reaktion auf die Bestimmung, dass die Übereinstimmungsvorhersage eine Nicht-Übereinstimmung anzeigt, ein Alarmsignal erzeugt.In other examples, the present invention includes a system for detecting spoofing. The system includes a server communicatively coupled to one or more object scanners via a communications network, the server including one or more processors and one or more memories. The server can be configured in such a way that it receives image scan data at one or more processors and from one of the object scanners, the image scan data originating from an object and containing physical features of the object and the image scan data at least one character corresponding to the object and decoded character data for the Determining first identification data for the object; and at the one or more processors, cropping the image scan data to remove the at least one character from the image scan data to generate character stripped image scan data. The server may further be configured to provide the one or more processors with the character-free image scan data to a neural network in order to examine the physical features of the object in the character-free image scan data and to determine second identification data based on the physical features; determines a match prediction of the character-free image scan data on the neural network on the basis of a comparison of the first identification data with the second identification data. The server may further be configured to generate an authentication signal in response to determining that the match prediction indicates a match and to generate an alert in response to determining that the match prediction indicates a mismatch.
In einigen Beispielen umfasst die vorliegende Erfindung ein weiteres computerimplementiertes Verfahren zur Erkennung von Täuschung (Spoofing). Das Verfahren umfasst das Empfangen von Bildscandaten an einem oder mehreren Prozessoren, wobei die Bildscandaten von einem Objekt stammen und physikalische Merkmale des Objekts enthalten und wobei die Bildscandaten mindestens ein dem Objekt entsprechendes Zeichen und dekodierte Zeichendaten zum Bestimmen erster Identifikationsdaten für das Objekt enthalten; und das Zuschneiden der Bildscandaten an dem einen oder den mehreren Prozessoren, um das mindestens eine Zeichen aus den Bildscandaten zu entfernen, um zeichenbefreite Bildscandaten zu erzeugen. Das Verfahren umfasst ferner das Bereitstellen der zeichenbefreiten Bildscandaten an dem einen oder den mehreren Prozessoren für ein neuronales Netzwerk zum Untersuchen der physikalischen Merkmale des Objekts in den zeichenbefreiten Bildscandaten und zum Bestimmen zweiter Identifikationsdaten auf der Grundlage der physikalischen Merkmale; und das Bestimmen einer Übereinstimmungsvorhersage der zeichenbefreiten Bildscandaten an dem neuronalen Netzwerk auf der Grundlage eines Vergleichs der ersten Identifikationsdaten mit den zweiten Identifikationsdaten. Das Verfahren umfasst ferner, als Reaktion auf das Bestimmen, dass die Übereinstimmungsvorhersage eine Übereinstimmung anzeigt, das Erzeugen eines ersten Authentifizierungssignals, und als Reaktion das Bestimmen, dass die Übereinstimmungsvorhersage eine Nicht-Übereinstimmung anzeigt, das Erzeugen eines zweiten Authentifizierungssignals, das sich von dem ersten Authentifizierungssignal unterscheidet. Das Verfahren kann beispielsweise das Bestimmen eines Prioritätsunterschieds zwischen den ersten Identifikationsdaten und den zweiten Identifikationsdaten umfassen; und das Erzeugen des zweiten Authentifizierungssignals als ein Signal, das eine Transaktion authentifiziert, die mit denjenigen der ersten Identifikationsdaten und der zweiten Identifikationsdaten korrespondiert, die die höhere Priorität haben. Das Verfahren kann ferner das Identifizieren einer Prioritätsheuristik umfassen; das Bestimmen eines Prioritätsunterschieds zwischen den ersten Identifikationsdaten und den zweiten Identifikationsdaten auf der Grundlage der Prioritätsheuristik; und das Erzeugen des zweiten Authentifizierungssignals als ein Signal, das eine Transaktion authentifiziert, die mit denjenigen der ersten Identifikationsdaten und der zweiten Identifikationsdaten korrespondiert, die auf der Grundlage der Prioritätsheuristik die höhere Priorität haben.In some examples, the present invention includes another computer-implemented method for detecting spoofing. The method comprises receiving image scan data at one or more processors, wherein the image scan data originate from an object and contain physical features of the object and wherein the image scan data contain at least one character corresponding to the object and decoded character data for determining first identification data for the object; and cropping the image scan data at the one or more processors to remove the at least one character from the image scan data to produce character stripped image scan data. The method further comprises providing the character-free image scan data to the one or more processors for a neural network for the Examining the physical characteristics of the object in the character-exempt image scan data and determining second identification data based on the physical characteristics; and determining a match prediction of the character-free image scan data at the neural network on the basis of a comparison of the first identification data with the second identification data. The method further comprises, in response to determining that the match prediction indicates a match, generating a first authentication signal, and responsive to determining that the match prediction indicates a mismatch, generating a second authentication signal different from the first Authentication signal differs. The method can include, for example, determining a priority difference between the first identification data and the second identification data; and generating the second authentication signal as a signal authenticating a transaction corresponding to those of the first identification data and the second identification data having the higher priority. The method may further include identifying a priority heuristic; determining a priority difference between the first identification data and the second identification data based on the priority heuristic; and generating the second authentication signal as a signal authenticating a transaction corresponding to those of the first identification data and the second identification data having the higher priority based on the priority heuristic.
In einigen Beispielen umfasst die vorliegende Erfindung ein System zum Erkennen von Täuschung (Spoofing), wobei dieses System einen Server umfasst, der über ein Kommunikationsnetzwerk mit einem oder mehreren Objektscannern kommunikativ gekoppelt ist, wobei der Server einen oder mehrere Prozessoren und einen oder mehrere Speicher umfasst. Der Server ist so konfiguriert, dass er an einem oder mehreren Prozessoren Bildscandaten empfängt, wobei die Bildscandaten von einem Objekt stammen und physikalische Merkmale des Objekts enthalten und wobei die Bildscandaten mindestens ein dem Objekt entsprechendes Zeichen und dekodierte Zeichendaten zur Bestimmung erster Identifikationsdaten für das Objekt enthalten; die Bildscandaten an dem einen oder den mehreren Prozessoren zuschneidet, um das mindestens eine Zeichen aus den Bildscandaten zu entfernen, um zeichenbefreite Bildscandaten zu erzeugen; und die zeichenbefreiten Bildscandaten an dem einen oder den mehreren Prozessoren für ein neuronales Netzwerk bereitstellt, zum Untersuchen der physikalischen Merkmale des Objekts in den zeichenbefreiten Bildscandaten und zum Bestimmen von zweiten Identifikationsdaten basierend auf den physikalischen Merkmalen. Der Server ist ferner so konfiguriert, dass er in dem neuronalen Netzwerk eine Übereinstimmungsvorhersage der zeichenbefreiten Bildscandaten auf der Grundlage eines Vergleichs der ersten Identifikationsdaten mit den zweiten Identifikationsdaten bestimmt; und als Reaktion auf die Bestimmung, dass die Übereinstimmungsvorhersage eine Übereinstimmung anzeigt, ein erstes Authentifizierungssignal erzeugt, und als Reaktion auf die Bestimmung, dass die Übereinstimmungsvorhersage eine Nicht-Übereinstimmung anzeigt, ein zweites Authentifizierungssignal erzeugt, das sich von dem ersten Authentifizierungssignal unterscheidet, und zwar in ähnlicher Weise wie bei dem oben und nachfolgend beschriebenen Verfahren.In some examples, the present invention includes a system for detecting spoofing, which system includes a server communicatively coupled to one or more object scanners via a communications network, the server including one or more processors and one or more memories . The server is configured to receive image scan data on one or more processors, the image scan data originating from an object and containing physical features of the object and wherein the image scan data contain at least one character corresponding to the object and decoded character data for determining first identification data for the object ; cropping the image scan data at the one or more processors to remove the at least one character from the image scan data to produce character stripped image scan data; and providing the non-character image scan data to the one or more processors to a neural network for examining the physical features of the object in the character-exempt image scan data and for determining second identification data based on the physical features. The server is further configured such that it determines a match prediction of the character-free image scan data on the basis of a comparison of the first identification data with the second identification data in the neural network; and in response to determining that the match prediction indicates a match, generates a first authentication signal, and in response to determining that the match prediction indicates a mismatch, generates a second authentication signal different from the first authentication signal in a manner similar to the method described above and below.
Im dargestellten Beispiel umfasst eine Verkaufsstelle
Der Scanner
In einigen Ausführungsformen kann der Bildprozessor
Der Scanner
In beispielhaften Ausführungsformen verfügt der Bildverarbeitungs- und Anti-Täuschungsserver
Der Server
Der Server
Die Bestandsverwaltungssteuerung
Ein Bildgebungsmerkmalsverwalter
In der beispielhaften Ausführungsform speichert der Bildgebungsmerkmalsverwalter
Der Zeichenverwalter
Wie hier beschrieben, setzen die vorliegenden Techniken ein trainiertes Vorhersagemodell ein, um empfangene Bilder eines Objekts (mit oder ohne Zeichen) zu bewerten und diese Bilder zu klassifizieren, um ein dem Objekt zugeordnetes Produkt und Produktidentifikationsdaten zu bestimmen, die dann verwendet werden, um Betrugsversuche, wie z. B. Spoofing, zu verhindern. In einigen Beispielen wird dieses Vorhersagemodell mit einem neuronalen Netzwerk trainiert, und als solches wird dieses Vorhersagemodell hier als „neuronales Netzwerk“ oder „trainiertes neuronales Netzwerk“ bezeichnet. Das neuronale Netzwerk kann auf verschiedene Weise konfiguriert werden. In einigen Beispielen kann das neuronale Netzwerk ein tiefenneuronales Netzwerk und/oder ein faltungsneuronales Netzwerk (CNN) sein. In einigen Beispielen kann das neuronale Netzwerk ein verteiltes und skalierbares neuronales Netzwerk sein. Das neuronale Netzwerk kann auf verschiedene Weise angepasst werden, einschließlich der Bereitstellung einer spezifischen oberen Schicht, wie z. B. aber nicht beschränkt auf eine logistische obere Regressionsschicht. Ein faltungsneuronales Netzwerk kann als ein neuronales Netzwerk betrachtet werden, das Sätze von Knoten mit gebundenen Parametern enthält. Ein tiefenneuronales Faltungsnetzwerk kann als eine gestapelte Struktur mit einer Vielzahl von Schichten betrachtet werden. In den Beispielen hierin wird das neuronale Netzwerk als mit mehreren Schichten, d. h. mehreren gestapelten Schichten, beschrieben, es kann jedoch jede geeignete Konfiguration des neuronalen Netzwerks verwendet werden.As described herein, the present techniques employ a trained predictive model to evaluate received images of an object (with or without characters) and to classify those images to determine a product associated with the object and product identification data that are then used to detect fraud such as B. Spoofing to prevent. In some examples, this predictive model is trained with a neural network, and as such, this predictive model is referred to herein as a "neural network" or "trained neural network". The neural network can be configured in a number of ways. In some examples, the neural network can be a deep neural network and / or a convolutional neural network (CNN). In some examples, the neural network can be a distributed and scalable neural network. The neural network can be customized in a number of ways, including providing a specific upper layer, such as B. but not limited to a logistic upper regression layer. A convolutional neural network can be thought of as a neural network that contains sets of nodes with bound parameters. A deep convolutional neural network can be viewed as a stacked structure with a plurality of layers. In the examples herein, the neural network is referred to as having multiple layers, i.e. H. multiple stacked layers, but any suitable neural network configuration can be used.
CNNs sind z. B. ein maschinelles Lernmodell, das insbesondere für die Bilderkennung und -klassifizierung verwendet wird. In den beispielhaften Ausführungsformen hierin können CNNs beispielsweise auf 2D- oder 3D-Bildern arbeiten, wobei solche Bilder beispielsweise als eine Matrix von Pixelwerten innerhalb der Bildscandaten dargestellt werden. Wie beschrieben, kann das neuronale Netzwerk (z. B. die CNNs) verwendet werden, um eine oder mehrere Klassifizierungen für ein gegebenes Bild zu bestimmen, indem das Bild durch eine Reihe von Rechenbetriebsschichten geleitet wird. Durch Training und Nutzung dieser verschiedenen Schichten kann das CNN-Modell eine Wahrscheinlichkeit bestimmen, dass ein Bild oder physikalische Bildmerkmale zu einer bestimmten Klasse gehören. Trainierte CNN-Modelle können zur Wiederherstellung und Verwendung aufbewahrt und durch weiteres Training verfeinert werden. Trainierte Modelle können auf einem beliebigen flüchtigen oder nichtflüchtigen Speichermedium im Computer gespeichert werden, wie z. B. RAM, Flash-Speicher, Festplatte oder ähnlicher Speicher, der auf Cloud-Servern gehostet wird.CNNs are e.g. B. a machine learning model, which is used in particular for image recognition and classification. In the exemplary embodiments herein, for example, CNNs can operate on 2D or 3D images, such images being represented, for example, as a matrix of pixel values within the image scan data. As described, the neural network (e.g., the CNNs) can be used to determine one or more classifications for a given image by passing the image through a series of layers of computational operation. By training and using these various layers, the CNN model can determine a probability that an image or physical image features belong to a particular class. Trained CNN models can be retained for retrieval and use, and refined through further training. Trained models can be stored on any volatile or non-volatile storage medium in the computer, such as: B. RAM, flash memory, hard disk or similar storage that is hosted on cloud servers.
In einem Beispiel für einen Trainingsmodus erfasst jede der Scanstationen
Im Trainingsmodus erfassen die Scanstationen
In der schematischen Darstellung
Die Bilder der einzelnen Bildscandaten können dann mit einer Identifikation der physikalischen Merkmale gekennzeichnet werden, die vom Verwalter
Im dargestellten Trainingsmodus untersucht der neuronale Netzwerkrahmen
Im Ausführungsbeispiel identifiziert der Bildmerkmalsverwalter
In einigen Beispielen identifiziert das Schema
In beispielhaften Ausführungsformen wird der neuronale Netzwerkrahmen
In einem Block
Im Beispiel eines Produkts als Scanobjekt, wie z. B. Fleisch in einer Tiefkühlabteilung eines Einzelhandelsgeschäfts, kann der Block
In einigen Beispielen ist der Teil der Bildscandaten ein Teil, der alle oder zumindest einen Teil der Zeichen enthält. In einigen Beispielen enthält der Teil der Bildscandaten Teile, die die Zeichen ausschließen, so dass die Authentifizierung, die bei der Täuschungserkennung erfolgt, mit nicht überlappenden Daten arbeitet. In einigen Beispielen sind die Bildscandaten 3D-Bilddaten, die aus einer Vielzahl von Punkten mit dreidimensionalen Daten gebildet sind, und der Teil der Bildscandaten ist entweder ein 2D-Teil dieser 3D-Bilddaten oder ein 3D-Teil davon.In some examples, the portion of the image scan data is a portion that includes all or at least a portion of the characters. In some examples, the portion of the image scan data includes portions that exclude the characters so that the authentication that occurs in the case of deception detection works with non-overlapping data. In some examples, the image scan data is 3D image data composed of a plurality of points with three-dimensional data, and the part of the image scan data is either a 2D part of this 3D image data or a 3D part thereof.
Mit den analysierten Bildscandaten und den identifizierten physikalischen Merkmalen werden in einem Block
Der neuronale Netzwerkrahmen in Block
In einigen Beispielen enthält das neuronale Trainingsnetzwerk aus Block
In einem anderen Beispiel arbeiten die Scanstation
Der Block
In einem Beispiel werden die zeichenbefreiten Bildmerkmale an einen Block
Im dargestellten Beispiel werden separat dekodierte Zeichendaten, die aus den im Bild gescannten Zeichen bestimmt wurden, an einen Block
In einigen Beispielen erzeugt der Block
Der Prozess
Jede dieser Prioritäten kann durch Anwendung einer Prioritätsheuristik bestimmt werden (z. B. hochpreisiges Produkt gewinnt Priorität, Produkt mit geringerem Bestand gewinnt Priorität, verderbliches Produkt gewinnt Priorität). Solche Prioritätsheuristiken können z. B. auf dem Server
Im dargestellten Beispiel wendet der Anti-Täuschungsserver, wenn eine Prioritätsheuristik existiert, in einem Block
In der vorstehenden Beschreibung wurden spezifische Ausführungsformen beschrieben. Ein Durchschnittsfachmann erkennt jedoch, dass verschiedene Modifikationen und Änderungen vorgenommen werden können, ohne den Schutzumfang der Erfindung, wie sie in den untenstehenden Ansprüchen definiert ist, abzuweichen. Dementsprechend sind die Beschreibung und die Figuren vielmehr in einem illustrativen als in einem einschränkenden Sinne zu betrachten, und alle derartigen Modifikationen sollen im Umfang der vorliegenden Lehren eingeschlossen sein. Darüber hinaus sollten die beschriebenen Ausführungsformen/Beispiele/Implementierungen nicht als sich gegenseitig ausschließend interpretiert werden, sondern als potentiell kombinierbar verstanden werden, wenn solche Kombinationen in irgendeiner Weise permissiv sind. Mit anderen Worten kann jedes Merkmal, das in einer der vorgenannten Ausführungsformen/Beispiele/Implementierungen offenbart ist, in jeder der anderen vorgenannten Ausführungsformen/Beispiele/Implementierungen enthalten sein.In the above description, specific embodiments have been described. However, one of ordinary skill in the art will recognize that various modifications and changes can be made without departing from the scope of the invention as defined in the claims below. Accordingly, the specification and figures are to be regarded in an illustrative rather than a restrictive sense, and all such modifications are intended to be included within the scope of the present teachings. In addition, the described embodiments / examples / implementations should not be interpreted as mutually exclusive, but rather as potentially combinable if such combinations are permissive in any way. In other words, any feature disclosed in any of the aforementioned embodiments / examples / implementations may be included in any of the other aforementioned embodiments / examples / implementations.
Die Nutzen, Vorteile, Lösungen für Probleme und alle Elemente, die zum Auftreten oder einer Verstärkung eines Nutzens, eines Vorteils, oder einer Lösung führen können, sind nicht als kritische, erforderliche oder wesentliche Merkmale oder Elemente in einigen oder sämtlichen Ansprüchen zu verstehen. Die Erfindung ist lediglich durch die angehängten Ansprüche definiert, einschließlich jeglicher Änderungen, die während der Anhängigkeit dieser Anmeldung vorgenommen wurden und aller Äquivalente der erteilten Ansprüche.The benefits, advantages, solutions to problems and all elements that may lead to the occurrence or amplification of a benefit, an advantage or a solution are not to be understood as critical, required or essential features or elements in any or all of the claims. The invention is defined only by the appended claims, including any changes made during the pendency of this application and all equivalents of the granted claims.
Darüber hinaus können in diesem Dokument relationale Begriffe wie erster und zweiter, oberer und unterer und dergleichen lediglich verwendet sein, um eine Entität oder Aktion von einer anderen Entität oder Aktion zu unterscheiden, ohne notwendigerweise eine tatsächliche derartige Beziehung oder Reihenfolge zwischen solchen Entitäten oder Aktionen zu erfordern oder zu implizieren. Die Ausdrücke „umfasst“, „umfassend“, „hat“, „haben“, „aufweist“, „aufweisend“, „enthält“, „enthaltend“ oder jede andere Variation davon sollen eine nicht-ausschließliche Einbeziehung abdecken, derart, dass ein Prozess, Verfahren, Produkt oder Vorrichtung, das eine Liste von Elementen umfasst, hat, aufweist, enthält, nicht nur diese Elemente aufweist, sondern auch andere Elemente aufweisen kann, die nicht ausdrücklich aufgelistet sind oder einem solchen Prozess, Verfahren, Produkt oder Vorrichtung inhärent sind. Ein Element, dem „umfasst ... ein“, „hat ... ein“, „aufweist ... ein“ oder „enthält ...ein“ vorausgeht, schließt ohne weitere Einschränkungen die Existenz zusätzlicher identischer Elemente in dem Prozess, dem Verfahren, dem Produkt oder der Vorrichtung, die das Element umfasst, hat, aufweist oder enthält, nicht aus. Die Begriffe „ein“ und „eine“ sind als eine oder mehrere definiert, sofern es hierin nicht ausdrücklich anders angegeben wird. Die Begriffe „im Wesentlichen“, „im Allgemeinen“, „ungefähr“, „etwa“ oder jede andere Version davon sind so definiert, dass sie von einem Fachmann auf diesem Gebiet nahekommend verstanden werden, und in einer nicht-einschränkenden Ausführungsform ist der Ausdruck definiert als innerhalb von 10%, in einer weiteren Ausführungsform als innerhalb von 5%, in einer weiteren Ausführungsform als innerhalb von 1% und in einer weiteren Ausführungsform als innerhalb von 0,5%. Der Ausdruck „gekoppelt“, wie er hierin verwendet wird, ist als verbunden definiert, jedoch nicht notwendigerweise direkt und nicht notwendigerweise mechanisch. Eine Vorrichtung oder eine Struktur, die auf eine bestimmte Art „konfiguriert“ ist, ist zumindest auch so konfiguriert, kann aber auch auf Arten konfiguriert sein, die nicht aufgeführt sind.Furthermore, relational terms such as first and second, upper and lower, and the like, may be used in this document merely to distinguish one entity or action from another entity or action, without necessarily implying any actual such relationship or order between such entities or actions require or imply. The terms “comprises”, “comprising”, “has”, “having”, “having”, “having”, “containing”, “containing” or any other variation thereof are intended to cover non-exclusive inclusion such that a Process, method, product or device that comprises, has, has, contains, not only has these elements, but may also have other elements that are not expressly listed or are inherent in such a process, method, product or device are. An element preceded by "comprises ... a", "has ... a", "has ... a" or "contains ... a" excludes, without further restrictions, the existence of additional identical elements in the process, does not affect the method, product, or device comprising, having, or containing the element. The terms “a” and “an” are defined as one or more unless expressly stated otherwise herein. The terms “substantially,” “generally,” “approximately,” “about,” or any other version thereof, are defined to be readily understood by one of ordinary skill in the art, and in one non-limiting embodiment, the term is defined as within 10%, in a further embodiment as within 5%, in a further embodiment as within 1% and in a further embodiment as within 0.5%. As used herein, the term “coupled” is defined as connected, but not necessarily directly and not necessarily mechanically. A device or structure that is "configured" in a certain way is at least so configured as well, but may also be configured in ways that are not listed.
Es versteht sich, dass einige Ausführungsformen von einem oder mehreren generischen oder spezialisierten Prozessoren (oder „Verarbeitungsgeräten“) wie Mikroprozessoren, digitale Signalprozessoren, kundenspezifische Prozessoren und Field-Programmable-Gate-Arrays (FPGAs) und einmalig gespeicherten Programmanweisungen (einschließlich sowohl Software als auch Firmware) umfasst sein können, die den einen oder die mehreren Prozessoren steuern, um in Verbindung mit bestimmten Nicht-Prozessorschaltungen einige, die meisten oder alle der hierin beschriebenen Funktionen des Verfahrens und/oder der Vorrichtung zu implementieren. Alternativ können einige oder alle Funktionen durch eine Zustandsmaschine implementiert sein, die keine gespeicherten Programmanweisungen aufweist, oder in einer oder mehreren anwendungsspezifischen integrierten Schaltungen (ASICs), in denen jede Funktion oder einige Kombinationen von bestimmten Funktionen als benutzerdefinierte Logik implementiert sind. Natürlich kann eine Kombination der beiden Ansätze verwendet werden.It will be understood that some embodiments may include one or more generic or specialized processors (or "processing devices") such as microprocessors, digital signal processors, custom processors, and field programmable gate arrays (FPGAs) and one-time stored program instructions (including both software and Firmware) that control the one or more processors to implement in conjunction with certain non-processor circuitry some, most, or all of the functions of the method and / or apparatus described herein. Alternatively, some or all of the functions may be implemented by a state machine that does not have stored program instructions, or in one or more application specific integrated circuits (ASICs) in which each function or some combination of certain functions is implemented as user-defined logic. Of course, a combination of the two approaches can be used.
Darüber hinaus kann eine Ausführungsform als ein computerlesbares Speichermedium implementiert sein, auf dem computerlesbarer Code gespeichert ist, um einen Computer (der zum Beispiel einen Prozessor umfasst) zu programmieren, um ein Verfahren auszuführen, wie es hierin beschrieben und beansprucht ist. Beispiele solcher computerlesbaren Speichermedien weisen eine Festplatte, eine CD-ROM, eine optische Speichervorrichtung, eine magnetische Speichervorrichtung, einen ROM (Nur-Lese-Speicher), einen PROM (programmierbarer Nur-Lese-Speicher), einen EPROM (löschbarer programmierbarer Nur-Lese-Speicher), einen EEPROM (elektrisch löschbarer programmierbarer Nur-Lese-Speicher) und einen Flash-Speicher auf, sind aber nicht hierauf beschränkt auf. Ferner wird davon ausgegangen, dass ein Durchschnittsfachmann, ungeachtet möglicher signifikanter Anstrengungen und vieler Designwahlen, die zum Beispiel durch verfügbare Zeit, aktuelle Technologie und wirtschaftliche Überlegungen motiviert sind, ohne Weiteres in der Lage ist, solche Softwareanweisungen und - programme und ICs mit minimalem Experimentieren zu generieren, wenn er durch die hierin offenbarten Konzepte und Prinzipien angeleitet wird.Additionally, an embodiment may be implemented as a computer readable storage medium having stored thereon computer readable code for programming a computer (e.g., comprising a processor) to perform a method as described and claimed herein. Examples of such computer readable storage media include a hard disk, CD-ROM, optical storage device, magnetic storage device, ROM (read only memory), PROM (programmable read only memory), EPROM (erasable programmable read only Memory), an EEPROM (electrically erasable programmable read-only memory) and a flash memory, but are not limited to. Further, it is believed that one of ordinary skill in the art, regardless of potentially significant effort and many design choices, motivated, for example, by available time, current technology, and economic considerations, is readily able to provide such software instructions and programs and ICs with minimal experimentation when guided by the concepts and principles disclosed herein.
Die Zusammenfassung der Offenbarung wird bereitgestellt, um es dem Leser zu ermöglichen, schnell das Wesen der technischen Offenbarung zu ermitteln. Sie wird mit dem Verständnis bereitgestellt, dass sie nicht zur Auslegung oder Einschränkung des Umfangs oder der Bedeutung der Ansprüche verwendet wird. Ferner kann der vorangehenden detaillierten Beschreibung entnommen werden, dass verschiedene Merkmale in verschiedenen Ausführungsformen zum Zwecke der Verschlankung der Offenbarung zusammengefasst sind. Diese Art der Offenbarung ist nicht so auszulegen, dass sie die Absicht widerspiegelt, dass die beanspruchten Ausführungsformen mehr Merkmale erfordern, als ausdrücklich in jedem Anspruch angegeben sind. Vielmehr ist es so, wie die folgenden Ansprüche zeigen, dass der erfinderische Gegenstand in weniger als allen Merkmalen einer einzigen offenbarten Ausführungsform liegt. Somit werden die folgenden Ansprüche hiermit in die detaillierte Beschreibung inkorporiert, wobei jeder Anspruch für sich als ein separat beanspruchter Gegenstand steht.The abstract of the disclosure is provided to enable the reader to quickly ascertain the nature of the technical disclosure. It is provided with the understanding that it will not be used to interpret or limit the scope or meaning of the claims. Furthermore, it can be inferred from the preceding detailed description that various features are combined in various embodiments for the purpose of streamlining the disclosure. This type of disclosure is not to be construed as reflecting the intent that the claimed embodiments require more features than are expressly stated in each claim. Rather, as the following claims demonstrate, inventive subject matter resides in less than all features of a single disclosed embodiment. Thus, the following claims are hereby incorporated into the Detailed Description, with each claim standing on its own as a separately claimed subject matter.
Claims (30)
Applications Claiming Priority (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US16/218,969 | 2018-12-13 | ||
US16/218,969 US20200193281A1 (en) | 2018-12-13 | 2018-12-13 | Method for automating supervisory signal during training of a neural network using barcode scan |
US16/221,816 US20200192608A1 (en) | 2018-12-17 | 2018-12-17 | Method for improving the accuracy of a convolution neural network training image data set for loss prevention applications |
US16/221,816 | 2018-12-17 | ||
PCT/US2019/056466 WO2020123029A2 (en) | 2018-12-13 | 2019-10-16 | Method for improving the accuracy of a convolution neural network training image data set for loss prevention applications |
Publications (1)
Publication Number | Publication Date |
---|---|
DE112019006192T5 true DE112019006192T5 (en) | 2021-09-02 |
Family
ID=71075807
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE112019006192.5T Pending DE112019006192T5 (en) | 2018-12-13 | 2019-10-16 | METHOD FOR IMPROVING THE ACCURACY OF A TRAINING IMAGE DATA SET OF A FOLDING NEURONAL NETWORK FOR LOSS PREVENTION APPLICATIONS |
Country Status (4)
Country | Link |
---|---|
AU (1) | AU2019397995B2 (en) |
DE (1) | DE112019006192T5 (en) |
GB (1) | GB2594176B (en) |
WO (1) | WO2020123029A2 (en) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115718445B (en) * | 2022-11-15 | 2023-09-01 | 杭州将古文化发展有限公司 | Intelligent Internet of things management system suitable for museum |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8494909B2 (en) * | 2009-02-09 | 2013-07-23 | Datalogic ADC, Inc. | Automatic learning in a merchandise checkout system with visual recognition |
US9092683B2 (en) * | 2012-07-10 | 2015-07-28 | Honeywell International Inc. | Cloud-based system for processing of decodable indicia |
US9870377B2 (en) * | 2014-04-29 | 2018-01-16 | Ncr Corporation | Signal-to-noise ratio image validation |
JP7009389B2 (en) * | 2016-05-09 | 2022-01-25 | グラバンゴ コーポレイション | Systems and methods for computer vision driven applications in the environment |
-
2019
- 2019-10-16 AU AU2019397995A patent/AU2019397995B2/en active Active
- 2019-10-16 WO PCT/US2019/056466 patent/WO2020123029A2/en active Application Filing
- 2019-10-16 DE DE112019006192.5T patent/DE112019006192T5/en active Pending
- 2019-10-16 GB GB2108211.0A patent/GB2594176B/en active Active
Also Published As
Publication number | Publication date |
---|---|
AU2019397995A1 (en) | 2021-04-29 |
WO2020123029A3 (en) | 2020-07-30 |
WO2020123029A2 (en) | 2020-06-18 |
AU2019397995B2 (en) | 2021-12-23 |
GB2594176A (en) | 2021-10-20 |
GB2594176B (en) | 2023-02-22 |
GB202108211D0 (en) | 2021-07-21 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10769399B2 (en) | Method for improper product barcode detection | |
BE1026846B1 (en) | PROCEDURE FOR AUTOMATION OF A CONTROL SIGNAL DURING TRAINING A NEURAL NETWORK WITH A BARCODE SCAN | |
DE112011102294T5 (en) | Optimizing the detection of human activity from video material | |
DE112021003744T5 (en) | BAR CODE SCANNING BASED ON GESTURE RECOGNITION AND ANALYSIS | |
DE102020126615A1 (en) | THREE-DIMENSIONAL (3 D) DEPTH AND TWO-DIMENSIONAL (2 D) IMAGING SYSTEMS AND METHODS FOR AUTOMATIC CONTAINER DOOR DETECTION | |
DE112021003033T5 (en) | BAR CODE READER WITH 3D CAMERA(S) | |
US20200192608A1 (en) | Method for improving the accuracy of a convolution neural network training image data set for loss prevention applications | |
DE102018120510A1 (en) | PURCHASER IDENTIFICATION SYSTEMS AND METHODS FOR IDENTIFYING NEW RADIO FREQUENCY IDENTIFICATION (RFID) IDEAS EVENTS NEAR AN RFID READER | |
DE102020124613A1 (en) | IMPROVED SELECTION OF AN OBJECT OF INTEREST IN NEURAL NETWORK SYSTEMS AT POINT OF SALE | |
CN109034694B (en) | Production raw material intelligent storage method and system based on intelligent manufacturing | |
DE112020005807T5 (en) | PROCESSES TO OPTIMIZE THE DETECTION OF ILLEGAL PRODUCT BARCODES | |
US10891561B2 (en) | Image processing for item recognition | |
DE102019109289A1 (en) | System and method for detecting potential fraud on the part of the cashier, as well as the method for forming the goods statement for training the artificial neural network | |
DE112020004895T5 (en) | SYSTEM AND METHOD FOR SITUATION ADAPTIVE IMPROVEMENT OF BAR CODE READING IMAGE CAPTURE | |
DE102019109266A1 (en) | REDUCTION OF THEFT IN A PLACE OF SALE BASED ON A DYNAMICALLY UPDATED HARDWARE OBJECTIVE LIBRARY. | |
EP3696135B1 (en) | Forklift and system with forklift for the identification of goods | |
DE102020117545A1 (en) | SYSTEM AND METHOD FOR IDENTIFYING OBJECTS IN A COMPOSITE OBJECT | |
DE112019006192T5 (en) | METHOD FOR IMPROVING THE ACCURACY OF A TRAINING IMAGE DATA SET OF A FOLDING NEURONAL NETWORK FOR LOSS PREVENTION APPLICATIONS | |
CN112966681B (en) | Method, equipment and storage medium for intelligent recognition, filing and retrieval of commodity photographing | |
DE102019118954A1 (en) | AUTOMATIC READING OF SHAPE DATA | |
DE102020126353A1 (en) | METHODS AND SYSTEMS FOR DETECTION OF ARTICLES LEAVED IN PRODUCTS CARRIERS | |
DE112018005119B4 (en) | SYSTEMS AND METHODS FOR CONTROLLING ONE OR MORE PRODUCT READING DEVICES AND FOR DETERMINING PRODUCT CHARACTERISTICS | |
DE112019006422T5 (en) | AUTOMATED POS SYSTEMS AND PROCEDURES | |
DE102018006764A1 (en) | METHOD AND SYSTEM (S) FOR MANAGING FREIGHT VEHICLES | |
DE112020006245T5 (en) | SYSTEM AND PROCEDURE FOR SELECTIVE ADDITIONAL DATA COLLECTION |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
R012 | Request for examination validly filed | ||
R079 | Amendment of ipc main class |
Free format text: PREVIOUS MAIN CLASS: G06K0009660000 Ipc: G06V0030194000 |