DE112016003724T5 - Vergleichen eines extrahierten benutzernamens mit gespeicherten benutzerdaten - Google Patents

Vergleichen eines extrahierten benutzernamens mit gespeicherten benutzerdaten Download PDF

Info

Publication number
DE112016003724T5
DE112016003724T5 DE112016003724.4T DE112016003724T DE112016003724T5 DE 112016003724 T5 DE112016003724 T5 DE 112016003724T5 DE 112016003724 T DE112016003724 T DE 112016003724T DE 112016003724 T5 DE112016003724 T5 DE 112016003724T5
Authority
DE
Germany
Prior art keywords
name
segments
extracted
user
computing devices
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
DE112016003724.4T
Other languages
English (en)
Inventor
Henry Allan Rowley
Sanjiv Kumar
Xiaofeng Liu
Brian Lin Chang
Daniel Niels Holtmann-Rice
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Google LLC
Original Assignee
Google LLC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Google LLC filed Critical Google LLC
Publication of DE112016003724T5 publication Critical patent/DE112016003724T5/de
Withdrawn legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q20/00Payment architectures, schemes or protocols
    • G06Q20/30Payment architectures, schemes or protocols characterised by the use of specific devices or networks
    • G06Q20/34Payment architectures, schemes or protocols characterised by the use of specific devices or networks using cards, e.g. integrated circuit [IC] cards or magnetic cards
    • G06Q20/356Aspects of software for card payments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/40Document-oriented image-based pattern recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q20/00Payment architectures, schemes or protocols
    • G06Q20/08Payment architectures
    • G06Q20/10Payment architectures specially adapted for electronic funds transfer [EFT] systems; specially adapted for home banking systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q20/00Payment architectures, schemes or protocols
    • G06Q20/30Payment architectures, schemes or protocols characterised by the use of specific devices or networks
    • G06Q20/36Payment architectures, schemes or protocols characterised by the use of specific devices or networks using electronic wallets or electronic money safes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q20/00Payment architectures, schemes or protocols
    • G06Q20/30Payment architectures, schemes or protocols characterised by the use of specific devices or networks
    • G06Q20/36Payment architectures, schemes or protocols characterised by the use of specific devices or networks using electronic wallets or electronic money safes
    • G06Q20/367Payment architectures, schemes or protocols characterised by the use of specific devices or networks using electronic wallets or electronic money safes involving electronic purses or money safes
    • G06Q20/3674Payment architectures, schemes or protocols characterised by the use of specific devices or networks using electronic wallets or electronic money safes involving electronic purses or money safes involving authentication
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q20/00Payment architectures, schemes or protocols
    • G06Q20/38Payment protocols; Details thereof
    • G06Q20/40Authorisation, e.g. identification of payer or payee, verification of customer or shop credentials; Review and approval of payers, e.g. check credit lines or negative lists
    • G06Q20/401Transaction verification
    • G06Q20/4014Identity check for transactions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/22Image preprocessing by selection of a specific region containing or referencing a pattern; Locating or processing of specific regions to guide the detection or recognition
    • G06V10/225Image preprocessing by selection of a specific region containing or referencing a pattern; Locating or processing of specific regions to guide the detection or recognition based on a marking or identifier characterising the area
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/98Detection or correction of errors, e.g. by rescanning the pattern or by human intervention; Evaluation of the quality of the acquired patterns
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • G06V30/12Detection or correction of errors, e.g. by rescanning the pattern
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • G06V30/26Techniques for post-processing, e.g. correcting the recognition result
    • G06V30/262Techniques for post-processing, e.g. correcting the recognition result using context analysis, e.g. lexical, syntactic or semantic context
    • G06V30/268Lexical context
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Business, Economics & Management (AREA)
  • Multimedia (AREA)
  • Accounting & Taxation (AREA)
  • Finance (AREA)
  • General Business, Economics & Management (AREA)
  • Strategic Management (AREA)
  • Artificial Intelligence (AREA)
  • Computational Linguistics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Quality & Reliability (AREA)
  • Economics (AREA)
  • Development Economics (AREA)
  • Microelectronics & Electronic Packaging (AREA)
  • Computer Security & Cryptography (AREA)
  • Character Discrimination (AREA)
  • Financial Or Insurance-Related Operations Such As Payment And Settlement (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

Eine Anwendung extrahiert einen Benutzernamen von einem Geldkartenbild mithilfe optischer Zeichenerkennung („OCR“) und vergleicht Segmente des Benutzernamens mit Namen, die in Benutzerdaten gespeichert sind, um den extrahierten Namen zu verfeinern. Die Anwendung führt einen OCR-Algorithmus bei einem Kartenbild aus und vergleicht einen extrahierten Namen mit Benutzerdaten. Die Anwendung identifiziert wahrscheinlich übereinstimmende Namen mit dem extrahierten Namen. Die OCR-Anwendung gliedert den extrahierten Namen in eine oder mehrere Reihen von Segmenten auf und vergleicht die Segmente vom extrahierten Namen mit Segmenten von den gespeicherten Namen. Die OCR-Anwendung ermittelt eine Editierdistanz zwischen dem extrahierten Namen und jedem potenziell übereinstimmenden gespeicherten Namen. Wenn die Editierdistanz unter einem konfigurierten Schwellenwert ist, überarbeitet die OCR-Anwendung den extrahierten Namen so, dass er mit dem identifizierten gespeicherten Namen übereinstimmt. Der verfeinerte Name wird dem Benutzer zur Verifizierung präsentiert.

Description

  • QUERVERWEISE ZU VERWANDTEN ANMELDUNGEN
  • Diese Anmeldung beansprucht Priorität von US-Patentanmeldung Nr. 14/827,330 , die am 16. August 2015 unter dem Titel „Comparing An Extracted User Name with Stored User Data“ (Vergleichen eines extrahierten Benutzernamens mit gespeicherten Benutzerdaten) eingereicht wurde. Die gesamten Inhalte der oben angegebenen Prioritätsanmeldung sind hiermit durch Bezugnahme vollständig einbezogen.
  • TECHNISCHES GEBIET
  • Die hierin offenbarte Technologie bezieht sich auf das Extrahieren eines Benutzernamens von einer Geldkarte und das Vergleichen von Segmenten des Benutzernamens mit Namen, die in den Benutzerdaten gespeichert sind, um den extrahierten Namen zu verfeinern.
  • HINTERGRUND
  • Wenn Verbraucher Online-Käufe oder Käufe mithilfe von Mobilgeräten durchführen, sind sie häufig gezwungen, Kreditkarteninformationen für die Zahlung in das Mobilgerät einzugeben. Aufgrund der geringen Bildschirmgröße und der Tastaturschnittstelle auf einem Mobilgerät ist eine solche Eingabe im Allgemeinen umständlich und fehleranfällig. Benutzer können für Käufe viele unterschiedliche Karten wie Kreditkarten, Debitkarten, Zahlkarten und andere Karten verwenden. Probleme bei der Informationseingabe werden für einen Händler vervielfacht, wenn versucht wird, mobile Zahlungen auf Mobilgeräten für mehrere Transaktionen zu verarbeiten.
  • Aktuelle Anwendungen für das Verwenden optischer Zeichenerkennungsanwendungen („OCR“) für das Erhalten von Zahlungsinformationen von einer Zahlungskarte nutzen keine anderen verfügbaren Daten wie Namen und Kontakte, die in den Benutzerdaten gespeichert sind, um den extrahierten Namen zu überarbeiten.
  • KURZDARSTELLUNG
  • Die Techniken hierin stellen computerimplementierte Verfahren bereit, um es einem Benutzercomputergerät zu ermöglichen, einen Benutzernamen von einem Geldkartenbild mithilfe optischer Zeichenerkennung („OCR“) zu extrahieren und Segmente des Benutzernamens mit Namen zu vergleichen, die in den Benutzerdaten gespeichert sind, um den extrahierten Namen zu verfeinern. Eine OCR-Anwendung erfasst ein Bild der Karte und führt einen OCR-Algorithmus beim Kartenbild durch. Die OCR-Anwendung identifiziert eine Liste potenziell übereinstimmender gespeicherter Namen. Die OCR-Anwendung gliedert den extrahierten Namen in eine oder mehrere Reihen von Segmenten auf und vergleicht die Segmente vom extrahierten Namen mit Segmenten von den gespeicherten Namen. Die OCR-Anwendung ermittelt eine Editierdistanz zwischen dem extrahierten Namen und jedem potenziell übereinstimmenden gespeicherten Namen. Eine gesamte Editierdistanz wird durch Einbeziehung einer Editierdistanz für jedes Segment und einer Editierdistanz zwischen Segmenten berechnet. Nach Identifizieren der Reihe mit der geringsten gesamten Editierdistanz vergleicht die OCR-Anwendung die Editierdistanz mit einem konfigurierten Schwellenwert. Wenn die Editierdistanz unter dem Schwellenwert ist, überarbeitet die OCR-Anwendung den extrahierten Namen so, dass er mit dem identifizierten gespeicherten Namen übereinstimmt. Der verfeinerte Name wird dem Benutzer zur Verifizierung präsentiert.
  • Die hierin offenbarte Technologie bezieht sich auf das Extrahieren eines Benutzernamens von einer Geldkarte und das Vergleichen von Segmenten des Benutzernamens mit Namen, die in den Benutzerdaten gespeichert sind, um den extrahierten Namen zu verfeinern.
  • Diese und andere Aspekte, Objekte, Merkmale und Vorteile der exemplarischen Ausführungsform werden Fachleuten nach dem Studium der folgenden ausführlichen Beschreibung von veranschaulichten exemplarischen Ausführungsformen offensichtlich sein.
  • Figurenliste
    • 1 ist ein Blockdiagramm, das ein System für das Verwenden gespeicherter Benutzernamen zum Verifizieren und Korrigieren extrahierter Benutzernamen gemäß bestimmten exemplarischen Ausführungsformen der hierin offenbarten Technologie darstellt.
    • 2 ist ein Blockablaufdiagramm, das Verfahren für das Verwenden gespeicherter Benutzernamen zum Verifizieren und Korrigieren extrahierter Benutzernamen gemäß bestimmten exemplarischen Ausführungsformen darstellt.
    • 3 ist ein Blockablaufdiagramm, das Verfahren für das Vergleichen eines extrahierten Namens mit analysierten Benutzerdaten gemäß bestimmten exemplarischen Ausführungsformen darstellt.
    • 4 ist eine Veranschaulichung eines Benutzercomputergeräts, das ein Bild einer Geldkarte anzeigt, gemäß bestimmten exemplarischen Ausführungsformen.
    • 5 ist ein Blockdiagramm, das eine Rechenmaschine und ein Modul gemäß bestimmten exemplarischen Ausführungsformen darstellt.
  • AUSFÜHRLICHE BESCHREIBUNG DER EXEMPLARISCHEN AUSFÜHRUNGSFORMEN
  • Die Ausführungsformen hierin stellen computerimplementierte Techniken bereit, um es einem Benutzercomputergerät zu ermöglichen, einen Benutzernamen von einem Geldkartenbild mithilfe optischer Zeichenerkennung („OCR“) zu extrahieren und Segmente des Benutzernamens mit Namen zu vergleichen, die in den Benutzerdaten gespeichert sind, um den extrahierten Namen zu verfeinern.
  • Der Benutzer setzt ein Mobiltelefon, eine Digitalkamera oder ein anderes Benutzercomputergerät ein, um ein Bild einer Karte aufzunehmen, die dem Konto zugeordnet ist, das der Benutzer in das Benutzercomputergerät eingeben möchte. Eine OCR-Anwendung, die auf dem Benutzercomputergerät oder einem Server betrieben wird, der dem Benutzercomputergerät zugeordnet ist, empfängt das Bild der Karte. Die OCR-Anwendung führt einen OCR-Algorithmus bei dem Kartenbild durch und vergleicht einen extrahierten Namen mit Benutzerdaten, die auf dem Benutzercomputergerät oder in irgendwelchen verbundenen Konten gespeichert sind, die dem Benutzer zugeordnet sind, wie z. B. eine Kontaktdatenbank, Finanzkonten des Benutzers, ein digitales Geldbörsenkonto oder jegliche anderen geeigneten Benutzerdaten. Die OCR-Anwendung identifiziert eine Liste potenziell übereinstimmender gespeicherter Namen.
  • Die OCR-Anwendung gliedert den extrahierten Namen in eine oder mehrere Reihen von Segmenten auf. In einem Beispiel werden die Segmente bei jeder Leerstelle im extrahierten Namen aufgegliedert. Im Namen Jon A Smith könnten die Segmente zum Beispiel in drei Segmente aufgegliedert werden, wie z. B. Jon / A / Smith. Die im Namenserkennungsalgorithmus identifizierten Namen werden in ähnliche Weise in Segmente aufgegliedert.
  • Die OCR-Anwendung vergleicht die Segmente vom extrahierten Namen mit den Segmenten von den gespeicherten Namen. Die OCR-Anwendung ermittelt eine Editierdistanz zwischen jedem Satz von Namen im Vergleich. Wenn das erste Segment eines gespeicherten Namens zum Beispiel Jan ist, wäre die Editierdistanz ein Buchstabe. Das heißt, Ändern des einzelnen Buchstabens „o“ in Jon zu einem „a“ würde das gespeicherte Namenssegment „Jan“ produzieren. Eine gesamte Editierdistanz kann durch Einbeziehung einer Editierdistanz für jedes Segment und einer Editierdistanz zwischen Segmenten berechnet werden. Wenn zwei der drei Segmente perfekt übereinstimmen, aber ein Segment Editierungen erfordert, wäre die Editierdistanz zwischen den Segmenten ein Segment.
  • In einem anderen Beispiel kann eine gesamte Editierdistanz durch Summieren der Editierdistanz für jedes Segment berechnet werden. In einem anderen Beispiel tragen Segmente, die kein entsprechendes Segment in einem verglichenen Namen haben, nicht zur gesamten Editierdistanz bei. In einem anderen Beispiel tragen übersprungene Segmente vom gespeicherten Namen nicht zur gesamten Editierdistanz bei, aber extrahierte Segmente, die kein entsprechendes gespeichertes Namenssegment haben, tragen zur gesamten Editierdistanz bei.
  • In einem anderen Beispiel können zusätzliche Segmentaufteilungen für den extrahierten Namen identifiziert werden. Jon A Smith kann zum Beispiel in Jon / A Smith, Jon A / Smith oder Jon / A / Smith oder jede andere geeignete Gruppierung von Segmenten segmentiert werden.
  • In einem anderen Beispiel können bestimmte Buchstaben von der Geldkarte abgenutzt sein und Leerstellen im extrahierten Namen hinterlassen, wie z. B. bei dem extrahierten Namen Jon A Sm th. Die OCR-Anwendung kann den exemplarischen extrahierten Namen in 1, 2, 3 oder 4 Segmente aufteilen. Nach Vergleich mit den gespeicherten Namen kann die Anzahl der Segmente, die die geringste Editierdistanz produziert, verwendet werden.
  • Nach Identifizieren der Reihe mit der kürzesten gesamten Editierdistanz vergleicht die OCR-Anwendung die Editierdistanz mit einem konfigurierten Schwellenwert. Wenn die Editierdistanz unter dem Schwellenwert ist, überarbeitet die OCR-Anwendung den extrahierten Namen so, dass er mit dem identifizierten gespeicherten Namen übereinstimmt. Der überarbeitete Name wird dem Benutzer zur Verifizierung präsentiert. Der überarbeitete Name wird der Anwendung oder dem System mitgeteilt, das den Benutzernamen verwendet, zum Beispiel die digitale Geldbörsenanwendung.
  • In bestimmten Beispielen wird der extrahierte Name nicht überarbeitet, um den kompletten gespeicherten Namen widerzuspiegeln. Das heißt, die gesamte Editierdistanz wird nicht verwendet, um nur die Überarbeitung anzunehmen oder abzulehnen. Stattdessen können einzelne extrahierte Namenssegmente überarbeitet werden, wenn das individuelle extrahierte Namensegment eine Editierdistanz unter einem konfigurierten Schwellenwert hat. Das Überarbeiten einzelner Segmente ermöglicht die Verwendung teilweiser Übereinstimmungen. In einem Beispiel scannt ein Benutzer die Karte eines Ehegatten mithilfe eines Benutzergeräts ein. Wenn das Nachnamensegment auf der Karte mit dem Nachnamen eines Kontonamens auf einem Mobiltelefonkonto übereinstimmt, das dem Benutzergerät zugeordnet ist, führt die OCR-Anwendung eine Korrektur beim Nachnamensegment durch. Wenn der Vorname jedoch nicht unter einem Schwellenwert übereinstimmt, wird der Vorname nicht überarbeitet.
  • Durch Verwenden von und Vertrauen auf die hierin beschriebenen Verfahren und Systeme extrahiert eine OCR-Anwendung, ein OCR-System, ein Benutzercomputergerät oder ein anderes Computersystem einen Benutzernamen von einer Geldkarte und vergleicht Segmente des Benutzernamens mit Namen, die in Benutzerdaten gespeichert sind, um den Extrahierungsvorgang durch Verfeinern des Namens zu verbessern. Daher können die hierin beschriebenen Systeme und Verfahren eingesetzt werden, um es dem Computergerät zu ermöglichen, Benutzerdaten zu verwenden, wie z. B. Kontaktanwendungen und Kontonamen, um vorgeschlagene Benutzernamen vor der Präsentation für einen Benutzer zu verifizieren und zu überarbeiten. Das Vertrauen auf die Benutzerdaten, um den Extrahierungsvorgang zu verbessern, ermöglicht es dem Computergerät, genauere und präzisere Datenextrahierung für den Benutzer bereitzustellen. Die verbesserte Extrahierung ermöglicht es dem Benutzer, die Zeit zu verkürzen und den Aufwand zu verringern, die nötig sind, um Geldkartendaten in eine digitale Geldbörsen- oder andere geeignete Anwendung einzugeben. Ferner führt das Aufgliedern des extrahierten Namens und der gespeicherten Namen in eine oder mehrere Reihen von Segmenten und das anschließende Vergleichen und Berechnen der Editierdistanz segmentweise zu einer effizienten Implementierung für die Berechnung des verfeinerten Namens, da das Durchführen entsprechender Operationen bei vollständigen Namen im Allgemeinen mehr Rechenressourcen (aufgrund höherer Rechenkomplexität) als das Durchführen von Operationen segmentweise erfordert.
  • Beispielhafte Systemarchitektur
  • Es werden unter Bezugnahme auf die Zeichnungen, in denen gleiche Ziffern gleiche (aber nicht zwangsläufig identische) Elemente überall in den Figuren darstellen, exemplarische Ausführungsformen im Detail beschrieben.
  • 1 ist ein Blockdiagramm, das ein System für das Verwenden gespeicherter Benutzernamen zum Verifizieren und Korrigieren extrahierter Benutzernamen gemäß bestimmten exemplarischen Ausführungsformen darstellt.
  • Wie in 1 dargestellt, beinhaltet das System 100 die Netzwerkcomputergeräte 110, 120 und 170, die so konfiguriert sind, dass sie miteinander über eines oder mehrere Netzwerke 105 kommunizieren. Bei einigen Ausführungsformen muss ein mit einem Gerät verbundener Benutzer 101 eine Anwendung installieren und/oder eine Merkmalauswahl tätigen, um die Vorteile der hierin beschriebenen Techniken zu erlangen.
  • Jedes Netzwerk 105 beinhaltet drahtgebundene oder drahtlose Netzwerktelekommunikationsmittel, durch die Netzwerkgeräte (einschließlich Geräte 110, 120 und 170) Daten austauschen können. Jedes Netzwerk 105 kann zum Beispiel ein lokales Netzwerk („LAN“), ein Wide Area Network („WAN“), ein Intranet, ein Internet, ein Mobiltelefonnetzwerk, Speichernetzwerk („SAN“), persönliches Funknetzwerk („PAN“), ein Metropolitan Area Network („MAN“), ein drahtloses lokales Netzwerk („WLAN“), ein Virtuelles Privates Netzwerk („VPN“), ein Mobilfunk- oder anderes Mobilkommunikationsnetzwerk, Bluetooth, Nahfeldkommunikation („NFC“) oder jede Kombination davon oder irgendeine andere geeignete Architektur oder System beinhalten, die/das die Kommunikation von Signalen oder Daten ermöglicht. Überall in der Erörterung der exemplarischen Ausführungsformen sollte es selbstverständlich sein, dass die Begriffe „Daten“ und „Informationen“ hierin austauschbar verwendet werden, um Text, Bilder, Audio, Video oder irgendeine andere Form von Informationen zu bezeichnen, die in einer computerbasierten Umgebung existieren können. Die durch die Geräte 110, 120 und 170 verwendete Kommunikationstechnologie kann ähnlich Netzwerken zu Netzwerk 105 oder eine alternative Kommunikationstechnologie sein.
  • Jedes Netzwerkcomputergerät 110, 120 und 170 beinhaltet ein Gerät mit einem Kommunikationsmodul, das zum Senden und Empfangen von Daten über das Netzwerk 105 fähig ist. Jedes Netzwerkgerät 110, 120 und 170 kann beispielsweise einen Server, Desktop-Computer, Laptop, Tablet-Computer, einen Fernseher mit einem oder mehreren darin eingebetteten und/oder damit gekoppelten Prozessoren, Smartphone, Handheld-Computer, Personal Digital Assistant („PDA“) oder irgendein anderes verdrahtetes oder drahtloses prozessorgesteuertes Gerät beinhalten. In der in 1 dargestellten exemplarischen Ausführungsform werden die Netzwerkgeräte 110, 120 und 170 durch Endbenutzer oder Verbraucher, OCR-Systemoperatoren bzw. Kartenausstelleroperatoren betrieben.
  • Der Benutzer 101 kann die Kommunikationsanwendung 112 verwenden, die zum Beispiel eine Webbrowseranwendung oder eine eigenständige Anwendung sein kann, um Dokumente oder Webseiten über ein verteiltes Netzwerk 105 anzuzeigen, herunterzuladen, hochzuladen oder anderweitig darauf zuzugreifen. Das Netzwerk 105 beinhaltet ein drahtgebundenes oder drahtloses Netzwerktelekommunikationssystem oder -gerät, durch das Netzwerkgeräte (einschließlich Geräte 110, 120 und 170) Daten austauschen können. Das Netzwerk 105 kann zum Beispiel ein lokales Netzwerk („LAN“), ein Wide Area Network („WAN“), ein Intranet, ein Internet, Speichernetzwerk („SAN“), persönliches Funknetzwerk („PAN“), ein Metropolitan Area Network („MAN“), ein drahtloses lokales Netzwerk („WLAN“), ein Virtuelles Privates Netzwerk („VPN“), ein Mobilfunk- oder anderes Mobilkommunikationsnetzwerk, Bluetooth, Nahfeldkommunikation („NFC“) oder jede Kombination davon oder irgendeine andere geeignete Architektur oder System beinhalten, die/das die Kommunikation von Signalen, Daten und/oder Nachrichten ermöglicht.
  • Das Benutzercomputergerät 110 kann eine Kommunikationsanwendung 112 einsetzen, um mit dem Webserver 124 des OCR-Systems 120 oder anderen Servern zu kommunizieren. Die Kommunikationsanwendung 112 kann es Geräten ermöglichen, über andere Technologien als das Netzwerk 105 zu kommunizieren. Beispiele können Mobilfunknetze, Funknetze oder andere Kommunikationsnetzwerke beinhalten.
  • Das Benutzercomputergerät 110 kann eine digitale Geldbörsenanwendung 111 beinhalten. Die digitale Geldbörsenanwendung 111 kann jegliche Anwendung, Hardware, Software oder jeglichen Prozess umfassen, die/den das Benutzercomputergerät 110 einsetzen kann, um dem Benutzer 101 beim Abschließen eines Kaufs zu unterstützen. Die digitale Geldbörsenanwendung 111 kann mit der Kommunikationsanwendung 112 interagieren oder kann als Begleitanwendung der Kommunikationsanwendung 112 verkörpert sein. Als eine Begleitanwendung wird die digitale Geldbörsenanwendung 111 innerhalb der Kommunikationsanwendung 112 ausgeführt. Das heißt, die digitale Geldbörsenanwendung 111 kann ein Anwendungsprogramm sein, das in der Kommunikationsanwendung 112 eingebettet ist. In bestimmten Ausführungsformen kann sich eine digitale Geldbörse des Benutzers 101 in einer Cloud-Computerumgebung, auf einem Händlerserver oder in jedweder anderen Umgebung befinden.
  • Das Benutzercomputergerät 110 kann eine digitale optische Zeichenerkennungsanwendung („OCR“) 115 beinhalten. Die OCR-Anwendung 115 kann mit der Kommunikationsanwendung 112 interagieren oder als Begleitanwendung der Kommunikationsanwendung 112 verkörpert sein und innerhalb der Kommunikationsanwendung 112 ausgeführt werden. In einer exemplarischen Ausführungsform kann die OCR-Anwendung 115 zusätzlich oder alternativ als eine Begleitanwendung der digitalen Geldbörsenanwendung 111 verkörpert sein und innerhalb der digitalen Geldbörsenanwendung 111 ausgeführt werden. Die OCR-Anwendung 115 kann eine Softwareschnittstelle einsetzen, die in der digitalen Geldbörsenanwendung 111 geöffnet werden kann oder in der Kommunikationsanwendung 112 geöffnet werden kann. Die Schnittstelle kann es dem Benutzer 101 ermöglichen, die OCR-Anwendung 115 zu konfigurieren.
  • Die OCR-Anwendung 115 kann verwendet werden, um eine Karte 102 zu analysieren und Informationen oder andere Daten von der Karte 102 zu extrahieren. Das OCR-System 120 oder andere System, das die OCR-Algorithmen oder anderen Verfahren entwickelt, kann einen Satz computerlesbarer Programmanweisungen beinhalten, zum Beispiel mithilfe von JavaScript, die es dem OCR-System 120 ermöglichen, mit der OCR-Anwendung 115 zu interagieren.
  • Jegliche der in der Spezifikation als durch die OCR-Anwendung 115 durchgeführt beschriebenen Funktionen können vom OCR-System 120, dem Benutzercomputergerät, der digitalen Geldbörsenanwendung 111, einem Händlersystem (nicht abgebildet) oder jedwedem anderen geeigneten Hardware- oder Softwaresystem oder jedweder anderen Anwendung durchgeführt werden. In einem Beispiel kann die OCR-Anwendung 115 auf dem Benutzercomputergerät 110 ein Bild einer Karte 102 erhalten und das Bild zum OCR-System 120 senden, um die Informationen auf der Karte 102 zu extrahieren.
  • Das Benutzercomputergerät 110 beinhaltet eine Datenspeichereinheit 113, die durch die OCR-Anwendung 115, die Kommunikationsanwendung 112 oder jedwedes geeignete Computergerät oder jedwede geeignete Anwendung zugänglich ist. Die exemplarische Datenspeichereinheit 113 kann eines oder mehrere greifbare computerlesbare Medien beinhalten. Die Datenspeichereinheit 113 kann auf dem Benutzercomputergerät 110 gespeichert sein oder sie kann mit dem Benutzercomputergerät 110 logisch gekoppelt sein. Die Datenspeichereinheit 113 kann zum Beispiel integrierten Flash-Speicher und/oder eine oder mehrere auswechselbare Speicherkarten oder auswechselbaren Flash-Speicher beinhalten.
  • Das Benutzercomputergerät 110 kann eine Kamera 114 beinhalten. Die Kamera kann jedwedes Modul oder jedwede Funktion des Benutzercomputergeräts 110 sein, das/die ein digitales Bild erhält. Die Kamera 114 kann auf dem Benutzercomputergerät 110 integriert oder auf irgendeine Weise logisch mit dem Benutzercomputergerät 110 verbunden sein. Die Kamera 114 kann in der Lage sein, individuelle Bilder oder einen Videoscan zu erhalten. Jedwedes andere geeignete Bildaufnahmegerät kann durch die Kamera 114 dargestellt sein.
  • Das Benutzercomputergerät 110 kann Benutzeranwendungen 116 beinhalten. Die Benutzeranwendungen 116 können Kontaktanwendungen, E-Mail-Anwendungen, digitale Geldbörsenanwendungen oder jedwede Anwendungen sein, die den Namen des Benutzers 101 und/oder Namen von Verwandten des Benutzers 101 einsetzen können. Der Benutzer 101 kann der OCR-Anwendung 115 die Berechtigung geben, auf die Namen und anderen Daten von den Benutzeranwendungen 116 zuzugreifen. Die OCR-Anwendung 115 kann die Daten von den Benutzeranwendungen 116 verwenden, um den OCR-Vorgang zu verifizieren oder zu verbessern.
  • Ein Kartenaussteller, wie z. B. eine Bank oder eine andere Einrichtung, kann der Aussteller eines Finanzkontos sein, das registriert wird. Der Kartenaussteller kann zum Beispiel ein Kreditkartenaussteller, ein Debitkartenaussteller, ein Zahlkartenaussteller, ein Finanzinstitut, das ein Konto bereitstellt, oder jedweder andere Anbieter eines Finanzkontos sein. Ein Zahlungsverarbeitungssystem (nicht abgebildet) kann ebenfalls als Aussteller für das zugeordnete Finanzkonto fungieren. Die Registrierungsinformationen des Benutzers 101 werden in der Datenspeichereinheit des Kartenausstellers gespeichert und sind durch den Webserver 174 zugänglich. Der Kartenaussteller setzt ein Kartenausstellersystem 170 ein, um die Karten auszustellen, das Benutzerkonto zu verwalten und jedwede anderen geeigneten Funktionen durchzuführen. Das Kartenausstellersystem 170 kann alternativ Karten ausstellen, die für Identifizierung, Zugriff, Verifizierung, Ticketausstellung verwendet werden, oder Karten für jedweden anderen geeigneten Zweck. Das Kartenaussteller 170 setzt einen Webserver 174 ein, um es einem Benutzer 101 zu ermöglichen, Karten zu registrieren, um es Händlern zu ermöglichen, mit dem Kartenausstellersystem 170 zu kommunizieren, um Transaktionen durchzuführen oder jedwede anderen geeigneten Aufgaben durchzuführen.
  • Das OCR-System 120 verwendet einen OCR-System-Webserver 124, der ein System betreibt, das OCR-Algorithmen, Verfahren, Prozesse oder Dienste produziert, verwaltet, speichert oder pflegt. Der OCR-System-Webserver 124 kann das computerimplementierte System darstellen, das das OCR-System 120 einsetzt, um OCR-Dienste für Benutzercomputergeräte 110, Händlercomputersysteme oder jedwede geeignete Entität bereitzustellen. Der OCR-System-Webserver 124 kann mit einem oder mehreren Zahlungsverarbeitungssystemen, einem Benutzercomputergerät 110 oder anderen Computergeräten über jedwede verfügbaren Technologien kommunizieren. Solche Technologien können zum Beispiel eine Internetverbindung über das Netzwerk 105, E-Mail, Text, Sofortnachrichten oder andere geeignete Kommunikationstechnologien beinhalten. Das OCR-System 120 kann eine Datenspeichereinheit 127 beinhalten, die durch den Webserver 124 des OCR-Systems 120 zugänglich ist. Die Datenspeichereinheit 127 kann eines oder mehrere greifbare computerlesbare Speichergeräte beinhalten.
  • In bestimmten Beispielen können jegliche der in der Spezifikation als durch das OCR-System 120 durchgeführt beschriebenen Funktionen von der OCR-Anwendung 115, dem Benutzercomputergerät 110 oder jedwedem anderen geeigneten Hardware- oder Softwaresystem oder jedweder anderen Anwendung durchgeführt werden.
  • In der gesamten Spezifikation wird der allgemeine Begriff „Karte“ verwendet, um jedwede Art von physischem Karteninstrument, wie z. B. die Zahlungskontokarte 102, darzustellen. In exemplarischen Ausführungsformen können die verschiedenen Arten von Karte 102, die durch „Karte“ 102 dargestellt werden, Kreditkarten, Debitkarten, Zahlkarten, Treuekarten, Ausweiskarten oder jedwede andere geeignete Karte beinhalten, die ein Konto eines Benutzers 101 oder andere Informationen darauf darstellt.
  • Der Benutzer 101 kann die Karte 102 einsetzen, wenn er eine Transaktion durchführt, wie z. B. einen Kauf, einen Zugang mit Ticket, ein Kundentreue-Check-in oder andere geeignete Transaktion. Der Benutzer 101 kann die Karteninformationen für den Zweck des Importierens des Kontos, das durch die Karte 102 dargestellt wird, in eine digitale Geldbörsenanwendung 111 eines Computergeräts 110 oder für andere digitale Kontozwecke erhalten. Die Karte 102 ist normalerweise eine Plastikkarte, die die Kontoinformationen und andere Daten auf der Karte 102 enthält. In vielen Ausführungen der Karte 102 sind der Kundenname, das Ablaufdatum und die Kartennummer auf der Karte 102 eingeprägt. Die eingeprägten Informationen sind sowohl von der Vorder- als auch von der Rückseite der Karte 102 sichtbar, auch wenn eingeprägte Informationen auf der Rückseite der Karte 102 normalerweise umgekehrt sind.
  • Es ist offensichtlich, dass die dargestellten Netzwerkverbindungen exemplarisch sind, und andere Mittel zum Herstellen einer Kommunikationsverbindung zwischen den Computern und Geräten verwendet werden können. Des Weiteren werden Fachleute anhand der vorliegenden Offenbarung erkennen, dass das Benutzercomputergerät 110, das OCR-System 120 und das Kartenausstellersystem 170, die in 1 veranschaulicht sind, jede von mehreren anderen geeigneten Computersystemkonfigurationen haben können. Ein als ein Mobiltelefon oder Handheld-Computer verkörpertes Benutzercomputergerät 110 kann beispielsweise alle vorstehend beschriebenen Komponenten beinhalten oder auch nicht.
  • In exemplarischen Ausführungsformen können die Netzwerkcomputergeräte und irgendwelche anderen Rechenmaschinen, die der hierin dargestellten Technologie zugeordnet sind, irgendeine Art von Rechenmaschine sein, wie z. B., aber nicht beschränkt auf, die in Bezug auf 5 ausführlicher beschriebenen. Ferner können jegliche Funktionen, Anwendungen oder Module, die irgendwelchen dieser Rechenmaschinen zugeordnet sind, wie beispielsweise die hierin beschriebenen oder irgendwelche anderen (zum Beispiel Skripte, Webinhalt, Software, Firmware oder Hardware), die der hierin präsentierten Technologie zugeordnet sind, irgendeines der in Bezug auf 5 ausführlicher beschriebenen Module sein. Die hierin beschriebenen Rechenmaschinen können miteinander sowie mit anderen Rechenmaschinen oder Kommunikationssystemen über eines oder mehrere Netzwerke wie Netzwerk 105 kommunizieren. Das Netzwerk 105 kann irgendeinen Datentyp oder irgendein Kommunikationsnetzwerk einschließlich irgendeiner der in Bezug auf 5 beschriebenen Netzwerktechnologien beinhalten.
  • Beispielhafte Prozesse
  • Die in den 2-3 veranschaulichten exemplarischen Verfahren werden im Folgenden in Bezug auf die Komponenten der exemplarischen Betriebsumgebung 100 beschrieben. Die exemplarischen Verfahren der 2-3 können auch mit anderen Systemen und in anderen Umgebungen ausgeführt werden.
  • 2 ist ein Blockablaufdiagramm, das ein Verfahren 200 für das Verwenden gespeicherter Benutzernamen zum Verifizieren und Korrigieren extrahierter Benutzernamen gemäß bestimmten exemplarischen Ausführungsformen darstellt.
  • Bezugnehmend auf 1 und 2 erhält in Block 205 eine optische Zeichenerkennungsanwendung („OCR“) 115 auf dem Benutzercomputergerät 110 einen digitalen Scan oder ein digitales Bild der Zahlungskontokarte 102. Der Benutzer 101 setzt ein Mobiltelefon, eine Digitalkamera oder ein anderes Benutzercomputergerät 110 ein, um ein Bild der Karte 102 aufzunehmen, die dem Konto zugeordnet ist, das der Benutzer 101 in das Benutzercomputergerät 110 eingeben möchte.
  • In der gesamten Spezifikation wird der allgemeinen Begriff „Karte“ verwendet, um jedwede Art von physischem Karteninstrument, wie z. B. eine Magnetstreifenkarte, darzustellen. In exemplarischen Ausführungsformen können die verschiedenen Arten des Instruments, das durch „Karte“ 102 dargestellt wird, Kreditkarten, Debitkarten, Zahlkarten, Treuekarten, Ausweiskarten oder jedwede andere geeignete Karte beinhalten, die ein Konto oder eine andere Aufzeichnung eines Benutzers oder andere Informationen darauf darstellt. Hierin beschriebene exemplarische Ausführungsformen können auf die Bilder der anderen Elemente angewandt werden, wie z. B. Belege, Bordkarten, Tickets und andere geeignete Elemente. Die Karte 102 kann auch ein Bild oder Faksimile der Karte sein. Die Karte 102 kann zum Beispiel eine Darstellung einer Karte auf einem Anzeigebildschirm oder ein gedrucktes Bild einer Karte 102 sein.
  • Der Benutzer 101 kann die Karte 102 einsetzen, wenn er eine Transaktion durchführt, wie z. B. einen Kauf, einen Zugang mit Ticket, ein Kundentreue-Check-in oder andere geeignete Transaktion. Der Benutzer 101 kann die Karteninformationen für den Zweck des Importierens des Kontos, das durch die Karte 102 dargestellt wird, in ein Modul einer digitalen Geldbörsenanwendung 111 eines Computergeräts 110 oder für andere digitale Kontozwecke erhalten. Die Karte 102 ist normalerweise eine Plastikkarte, die die Kontoinformationen und andere Daten auf der Karte 102 enthält. In vielen Ausführungen der Karte 102 sind der Kundenname, das Ablaufdatum und die Kartennummer auf der Karte physisch eingeprägt oder sonst geschrieben.
  • Ein Benutzer 101 kann die Informationen von der Karte 102 in ein Benutzercomputergerät 110 oder ein anderes Computergerät eingeben wollen, zum Beispiel um einen Online-Kauf durchzuführen, einen Kauf an einem Händlerort durchzuführen, die Informationen zu einer digitalen Geldbörsenanwendung 111 auf einem Benutzercomputergerät hinzuzufügen, oder für jedweden anderen geeigneten Grund. In einem Beispiel möchte der Benutzer 101 ein Benutzercomputergerät 110 verwenden, um eine Kauftransaktion mithilfe einer digitalen Geldbörsenanwendung 111 durchzuführen, die auf dem mobilen Computergerät ausgeführt wird. Die digitale Geldbörsenanwendung 111 kann eine Eingabe der Details eines bestimmten Benutzerzahlungskontos erfordern, um eine Transaktion mit dem bestimmten Benutzerzahlungskonto durchzuführen oder ein Konto einzurichten. Aufgrund der geringen Bildschirmgröße und der Tastaturschnittstelle auf einem Mobilgerät kann eine solche Eingabe umständlich und fehleranfällig bei der manuellen Eingabe sein. Zusätzlich kann es sein, dass ein Händlersystem Karteninformationen erfassen muss, um eine Transaktion durchzuführen, oder aus anderen Gründen.
  • Eine OCR-Anwendung 115 auf einem Benutzercomputergerät 110 empfängt das Bild der Karte 102 für die Zwecke des Extrahierens der erforderlichen Informationen, wie z. B. den Namen des Benutzers 102. Das Bild kann von der Kamera 114 oder einem anderen digitalen Bildmodul eines Benutzercomputergeräts 110, wie z. B. der Kamera 114 an einem Mobiltelefon, erhalten werden. Das Bild kann von einem Scanner erhalten werden, der mit dem Benutzercomputergerät 110 gekoppelt ist, oder von jedwedem anderen geeigneten digitalen Bildgebungsgerät. Das Bild kann von einem Video erhalten werden, das durch das Benutzercomputergerät 110 erfasst wurde. Auf das Bild kann von der OCR-Anwendung 115 auf dem Benutzercomputergerät 110 von einem Speicherort auf dem Benutzercomputergerät 110, von einem Remote-Speicherort oder von jedwedem geeigneten Ort zugegriffen werden. Alle Quellen, die in der Lage sind, das Bild bereitzustellen, werden hierin als „Kamera“ 114 bezeichnet.
  • Eine OCR-Anwendung 115 empfängt das Bild der Karte 102 der Kamera 114. Die Funktionen der OCR-Anwendung 115 kann durch jede(s) geeignete Modul, Hardware, Software oder Anwendung durchgeführt werden, das/die auf dem Benutzercomputergerät ausgeführt wird. Einige oder alle Funktionen der OCR-Anwendung 115 können durch einen Remote-Server oder ein anderes Computergerät durchgeführt werden, wie z. B. den Server, der in einem OCR-System 120 betrieben wird. Eine digitale Geldbörsenanwendung 111 auf dem Benutzercomputergerät 110 kann zum Beispiel das Bild einer Karte 102 erhalten und das Bild zum OCR-System 120 für die Verarbeitung senden. In einem anderen Beispiel können einige der OCR-Funktionen durch das Benutzercomputergerät 110 und einige durch das OCR-System 120 oder einen anderen Remote-Server durchgeführt werden. Hierin bereitgestellte Beispiele können angeben, dass viele der Funktionen durch eine OCR-Anwendung 115 auf dem Benutzercomputergerät 110 durchgeführt werden, aber einige oder alle der Funktionen können durch jedwedes geeignete Computergerät durchgeführt werden.
  • Das Bild wird auf einer Benutzeroberfläche des Benutzercomputergeräts 110 als Live-Videobild der Karte 102 oder ein einzelnes Bild der Karte 102 präsentiert. Die OCR-Anwendung 115 kann eines oder mehrere Bilder vom Video-Feed der Kamera 114 isolieren und speichern. Der Benutzer 101 kann zum Beispiel mit der Funktion der Kamera 114 eines Benutzercomputergeräts 110 über eine Karte gehen und die Darstellung der Karte auf der Benutzeroberfläche des Benutzercomputergeräts 110 beobachten. Eine Veranschaulichung der Karte 102, die auf dem Benutzercomputergerät präsentiert wird, ist in 4 dargestellt.
  • 4 ist eine Veranschaulichung eines Benutzercomputergeräts 110, das ein Bild einer Geldkarte 102 anzeigt, gemäß bestimmten exemplarischen Ausführungsformen. Das Benutzercomputergerät 110 ist als mobiles Smartphone dargestellt. Das Benutzercomputergerät 110 ist mit einem Anzeigebildschirm 405 als Benutzeroberfläche dargestellt. Die Karte 102 wird auf dem Benutzercomputergerät 110 angezeigt dargestellt.
  • Zurückkehrend zu 2 isoliert in Block 210 die OCR-Anwendung 115 das Bild der Karte. Jegliche Bilddatenmanipulation oder Bildextraktion kann verwendet werden, um das Kartenbild zu isolieren.
  • Die OCR-Anwendung 115 der Kamera 114 oder des Benutzercomputergeräts 110 oder anderen Computergeräts führt eine Unschärfeerkennung bei dem Bild durch. Das Bild kann als verschwommen, zu hell, zu dunkel oder sonst auf eine Weise verschleiert erkannt werden, die das Erhalten eines Bildes mit hoher Auflösung verhindert. Die OCR-Anwendung 115 oder das andere Computergerät kann das Bilderfassungsverfahren anpassen, um die Unschärfe im Bild zu verringern. Die OCR-Anwendung 115 kann zum Beispiel die Kamera 114 ausrichten, um den Fokus auf der Geldkarte anzupassen. In einem anderen Beispiel kann die OCR-Anwendung 115 den Benutzer anweisen, die Kamera 114 näher zu oder weiter weg von der Geldkarte zu bewegen. In einem anderen Beispiel kann die OCR-Anwendung 115 eine digitale Bildmanipulation durchführen, um die Unschärfe zu verringern. Jedwedes andere geeignete Verfahren der Korrektur eines verschwommenen Bildes kann verwendet werden.
  • In Block 215 extrahiert die OCR-Anwendung 115 den Benutzernamen aus dem Bild der Karte 102. Die OCR-Anwendung 115 wendet einen OCR-Algorithmus auf das Kartenbild an, um die Informationen auf der Karte 102 zu identifizieren. Der OCR-Algorithmus kann jedweden geeigneten Prozess, jedwedes geeignete Programm, Verfahren oder andere Weise der Erkennung der Ziffern oder Zeichen darstellen, die auf dem Kartenbild dargestellt sind. Der OCR-Algorithmus kann so angepasst werden, dass er nach Zeichen des Benutzernamens an bestimmten Orten auf dem Kartenbild sucht. Der OCR-Algorithmus kann angepasst werden, nach bestimmten Kombinationen von Zeichen zu suchen. Der OCR-Algorithmus kann angepasst werden, um zu wissen, dass die Karten vom bestimmten Kreditkartenunternehmen normalerweise bestimmte Daten auf der Rückseite der Karte 102 haben. Der OCR-Algorithmus kann angepasst werden, um zu wissen, welche Zeichen normalerweise eingeprägt sind. Der OCR-Algorithmus kann angepasst werden, um nach jedweden konfigurierten Anordnungen, Datenorten, Beschränkungen, Kartentypen, Zeichenkonfigurationen oder anderen geeigneten Kartendaten zu suchen, um den Benutzernamen und andere Kontoinformationen zu identifizieren. Die OCR-Anwendung 115 kann ein statistisches Sprachmodell verwenden, um das Ergebnis zu verfeinern. Ein Sprachmodell verwendet Informationen über die Wahrscheinlichkeiten verschiedener Zeichen und kombiniert die Zeichen, um den wahrscheinlichsten Namen zu ermitteln. Wenn die Ergebnisse des OCR-Algorithmus zum Beispiel einen extrahierten Namen „Anna“ zurückgeben, schlussfolgert das statistische Sprachmodell, dass „Anna“ ein wahrscheinlicheres Ergebnis ist, und aktualisiert das Ergebnis.
  • In Block 220 analysiert die OCR-Anwendung 115 die Benutzerkontaktlisten und anderen Benutzerdaten. Die OCR-Anwendung 115 greift auf gespeicherte Informationen, die Benutzer 101 zugeordnet sind, vom Benutzercomputergerät 110 und jedwedem anderen geeigneten Ort zu. Die Namen können aus Kontaktlisten, E-Mail-Anwendungen, sozialen Netzwerken des Benutzers und anderen geeigneten Benutzeranwendungen 116 extrahiert werden, wobei Informationen daraus auf dem Benutzercomputergerät 110, dem OCR-System 120 oder einem anderen geeigneten Ort gespeichert werden können. In einem anderen Beispiel greift die OCR-Anwendung 115 auf gespeicherte Informationen zu, die verschiedenen Benutzerkonten zugeordnet sind, wie z. B. dem digitalen Geldbörsenkonto, einem Finanzzahlungskonto oder jedem anderen geeigneten Konto des Benutzers 101. Die OCR-Anwendung 115 identifiziert Namen in den Benutzerdaten, die mit dem extrahierten Namen verglichen werden sollen. Die OCR-Anwendung 115 greift zum Beispiel auf das digitale Geldbörsenkonto auf dem Benutzercomputergerät 110 zu und identifiziert den Namen des Benutzers 101, der dem digitalen Geldbörsenkonto zugeordnet ist. Der Name des Benutzers 101, der dem digitalen Geldbörsenkonto zugeordnet ist, ist wahrscheinlich derselbe Name wie der Benutzername auf der Karte 102.
  • In Block 225 vergleicht die OCR Anwendung 115 den extrahierten Namen mit den analysierten Benutzerdaten. Die Details von Block 225 sind in Bezug auf Verfahren 225 von 3 näher beschrieben.
  • 3 ist ein Blockablaufdiagramm, das Verfahren für das Vergleichen des extrahierten Namens mit analysierten Benutzerdaten gemäß bestimmten exemplarischen Ausführungsformen darstellt. In Block 305 identifiziert die OCR-Anwendung 115 einen oder mehrere gespeicherte Namen, die wahrscheinlich dem extrahierten Namen zugeordnet sind. Die OCR-Anwendung 115 identifiziert Namen, die in den Benutzerdaten wiederholt werden, wie z. B. Namen bei Benutzerkonten, die auf dem Benutzercomputergerät 110 verwaltet werden. Alternativ identifiziert die OCR-Anwendung 115 Namen, die dem Benutzernamen ähnlich sind. Ein Ehegatte oder ein anderes Familienmitglied mit demselben Nachnamen des Benutzers 101 kann zum Beispiel häufig in den Benutzerdaten dargestellt sein, wie z. B. einer Kontaktliste oder einem sozialen Netzwerk.
  • In Block 310 gliedert die OCR-Anwendung 115 den extrahierten Namen in eine oder mehrere Reihen von Segmenten auf. In einem Beispiel werden die Segmente bei jeder Leerstelle im extrahierten Namen aufgegliedert. Im Namen Jon A Smith könnten die Segmente zum Beispiel in drei Segmente aufgegliedert werden, wie z. B. Jon / A / Smith. Die im Namenserkennungsalgorithmus identifizierten Namen werden in ähnliche Weise in Segmente aufgegliedert.
  • In einem anderen Beispiel können zusätzliche Segmentaufteilungen für den extrahierten Namen identifiziert werden. Jon A Smith kann zum Beispiel in Jon / A Smith, Jon A / Smith oder Jon / A / Smith oder jede andere geeignete Gruppierung von Segmenten segmentiert werden.
  • In einem anderen Beispiel können bestimmte Buchstaben von der Geldkarte abgenutzt sein und Leerstellen im extrahierten Namen hinterlassen, wie z. B. bei dem extrahierten Namen Jon A Sm th. Die OCR-Anwendung kann den exemplarischen extrahierten Namen in 1, 2, 3 oder 4 Segmente aufteilen. Die Segmente können zum Beispiel als Jon / A Sm / th, Jon A Sm / th, Jon / A Sm th, Jon / A / Sm th, Jon A / Sm th, Jon / A / Sm / th oder jedwede andere geeignete Reihe von Segmenten dargestellt werden.
  • In Block 315 gliedert die OCR-Anwendung 115 die gespeicherten Namen in eine oder mehrere Reihen von Segmenten auf. Die Segmentierung der gespeicherten Namen wird in einem ähnlichen Verfahren durchgeführt wie dem Verfahren für die Segmentierung des extrahierten Namens in Block 310. Normalerweise werden die Segmente der gespeicherten Namen an jeder Leerstelle im Namen aufgegliedert.
  • In Block 320 vergleicht die OCR-Anwendung 115 jedes Segment der einen oder mehreren Reihen von Segmenten des extrahierten Namens mit Segmenten des gespeicherten Namens. Jedes der Segmente der extrahierten Namen wird mit den Segmenten der gespeicherten Namen verglichen. Die OCR-Anwendung 115 vergleicht zum Beispiel jeden Buchstaben eines Segments des extrahierten Namens mit jedem Buchstaben eines Segments eines gespeicherten Namens und ermittelt, ob die Buchstaben gleich sind. Wenn die Buchstaben nicht gleich sind, werden die unterschiedlichen Buchstaben identifiziert.
  • In Block 325 berechnet die OCR-Anwendung 115 eine Editierdistanz für jedes der Segmente. Die OCR-Anwendung 115 ermittelt eine Editierdistanz zwischen jedem Segment im Vergleich. Wenn in diesem Beispiel das erste Segment eines gespeicherten Namens zum Beispiel Jan ist, wäre die Editierdistanz ein Buchstabe. Das heißt, Ändern des einzelnen Buchstabens „o“ in Jon zu einem „a“ würde das gespeicherte Namenssegment „Jan“ produzieren. Das Ändern eines einzigen Buchstabens würde eine Editierdistanz von 1 bereitstellen. Der Editierdistanzvergleich kann für jedes Segment jeder der Reihen von Segmenten durchgeführt werden. Die Segmente können mit jedem der gespeicherten Namen verglichen werden, die als wahrscheinliche Übereinstimmungen mit dem extrahierten Namen identifiziert wurden.
  • In Block 330 berechnet die OCR-Anwendung 115 eine gesamte Editierdistanz für jede der einen oder mehreren Reihen von Segmenten des extrahierten Namens mit Segmenten des gespeicherten Namens. Die OCR-Anwendung 115 berechnet die gesamte Editierdistanz für eine Reihe von Segmenten durch Kombinieren der Editierdistanzen jedes der einzelnen Segmente der Reihe von Segmenten. Die Editierdistanzen können hinzugefügt oder es kann jedwede andere mathematische Funktion auf die Segmenteditierdistanzen angewandt werden. Es kann zum Beispiel ein Score wie z. B. „90 %“ oder „A“ auf Basis der Editierdistanzen jedes der einzelnen Segmente der Reihe von Segmenten produziert werden.
  • In bestimmten Beispielen können, beim Berechnen der gesamten Editierdistanz, bestimmte Segmente aus der Berechnung weggelassen werden. In einem Beispiel ist der extrahierte Benutzername in „Jon / Smith“ segmentiert, während der gespeicherte Name in „Dr / Jon / A / Smith“ segmentiert ist. Die Segmente „Jon“ und „Smith“ haben eine Editierdistanz von 0 und die Segmente „Dr“ und „A“ aus dem gespeicherten Namen können für die Zwecke der Berechnung der gesamten Editierdistanz weggelassen werden, was eine gesamte Editierdistanz von 0 bereitstellt. In einem anderen Beispiel tragen übersprungene gespeicherte Segmente nicht zur gesamten Editierdistanz bei, aber extrahierte Segmente, die kein entsprechendes gespeichertes Namenssegment haben, tragen zur gesamten Editierdistanz bei.
  • In einem Beispiel ist der extrahierte Benutzername in „Jon / Smith“ segmentiert, während der gespeicherte Name in „Dr / Jan / Smith“ segmentiert ist. Die Editierdistanzen für „Jon“ und „A“ werden als eins ermittelt. Das heißt, ein Buchstabe kann für jedes Segment geändert werden, um eine Übereinstimmung mit dem gespeicherten Namen zu erstellen. Das Segment „Dr“ vom gespeicherten Namen wird aus der gesamten Editierdistanz weggelassen, weil der extrahierte Name kein entsprechendes Segment beinhaltet. Das Hinzufügen der erforderlichen Editierdistanzen würde eine gesamte Editierdistanz von 2 erstellen. Alternativ kann ein Übereinstimmungsscore auf Basis der Editierdistanzen, wie z. B. ein Score von A, 90%, oder jedem anderen geeigneten Scoringsystem erstellt werden.
  • In einem Beispiel wird die Editierdistanz nur in Zeichen, und nicht in Segmenten, gemessen. Die Editierdistanz würde als gesamte editierte Zeichen gezählt und würde nicht die Anzahl der editierten Segmente beinhalten. Eine Entsprechung zwischen den Segmenten des extrahierten Namens und den gespeicherten Namensegmenten wird hergestellt, sodass jedes extrahierte Namenssegment entweder ein entsprechendes gespeichertes Namenssegment hat oder übersprungen wird, und ähnlich jedes gespeicherte Namenssegment entweder ein entsprechendes extrahiertes Namenssegment hat oder übersprungen wird. Die gesamte Editierdistanz wird dann durch Summieren der Editierdistanz zwischen jedem Paar entsprechender Segmente und Hinzufügen dieser Summe zur gesamten Länge aller extrahierten Namenssegmente, die übersprungen wurden, berechnet. Das heißt, das Überspringen gespeicherter Namenssegmente wird nicht bestraft und das Überspringen gespeicherter Namenssegmente fügt nichts zur gesamten Editierdistanz hinzu.
  • Als ein Beispiel:
    • Extrahierter Name: Mr Jon Smith
    • Gespeicherter Name: Joe P Smithers
  • Die Editierdistanzen wären wie folgt: „Mr“ aus dem extrahierten Namen hätte eine Editierdistanz von 2, da das Segment vom extrahierten Namen ist. „Jon“ hätte eine Editierdistanz von 1 im Vergleich zu „Joe“. Das „P“ aus dem gespeicherten Namen würde nicht zur Editierdistanz beitragen, da das übersprungene Segment vom gespeicherten Namen ist. „Smith“ hätte eine Editierdistanz von 3 im Vergleich zu „Smithers“.
  • Somit ist die gesamte Editierdistanz 2 + 1 + 3 = 6.
  • In Block 335 identifiziert die OCR-Anwendung 115 eine Reihe von Segmenten mit der geringsten Editierdistanz. Nach Berechnen der gesamten Editierdistanz oder des Score von jeder der Reihe von Segmenten im Vergleich zu jedem der gespeicherten Namen, die als wahrscheinliche Übereinstimmungen identifiziert wurden, identifiziert die OCR-Anwendung 115 die Reihe von Segmenten mit der geringsten gesamten Editierdistanz. In einem Beispiel, wenn der extrahierte Name in Segmente wie folgt aufgeteilt wird: Jon / A Smith, Jon A / Smith oder Jon / A / Smith. Jon / A Smith hat eine gesamte Editierdistanz von drei. Jon A / Smith hat eine gesamte Editierdistanz von zwei. Jon / A / Smith hat eine gesamte Editierdistanz von eins. Somit hat Jon / A / Smith die geringste gesamte Editierdistanz der verschiedenen Reihen von Segmenten.
  • In Block 340 vergleicht die OCR-Anwendung 115 die Editierdistanz mit einer Schwellenwerteditierdistanz. Nach Identifizieren der Reihe mit der geringsten gesamten Editierdistanz vergleicht die OCR-Anwendung 115 die gesamte Editierdistanz mit einem konfigurierten Schwellenwert. Wenn die Editierdistanz unter dem Schwellenwert ist, überarbeitet die OCR-Anwendung 115 den extrahierten Namen so, dass er mit dem identifizierten gespeicherten Namen übereinstimmt. In einem Beispiel ist die gesamte Schwellenwerteditierdistanz als drei konfiguriert. Der Schwellenwert kann durch den Benutzer 101, einen Operator des OCR-Systems 140, einen Operator des Kartenausstellersystems 170 oder jedwede(s) andere geeignete Person, System oder Partei konfiguriert werden. Der Schwellenwert kann auf der berechneten gesamten Editierdistanz, einem Score, der auf den Editierdistanzen der Segmente basiert, oder jedwedem anderen Schwellenwert, der auf dem System basiert, das für die Beurteilung des extrahierten Benutzernamens verwendet wird, basieren.
  • Von Block 340 kehrt das Verfahren 225 zu Block 230 von 3 zurück.
  • In Block 230 ermittelt die OCR-Anwendung 115, ob die gesamte Editierdistanz unter dem konfigurierten Schwellenwert ist. Wenn die gesamte Editierdistanz unter dem konfigurierten Schwellenwert ist, fährt das Verfahren 200 mit Block 235 fort.
  • In Block 235 verfeinert die OCR-Anwendung 115 den extrahierten Namen auf Basis des gespeicherten Namens. Da angenommen wird, dass der gespeicherte Name vom Benutzer 101, dem Kartenaussteller oder einer anderen Person oder einem System genau eingegeben wurde, wird der extrahierte Name so überarbeitet, dass er dem gespeicherten Namen entspricht. Wenn der extrahierte Name zum Beispiel „Jon A Smith“ ist und der gespeicherte Name „Jan A Smith“ ist, ändert die OCR-Anwendung 115 den extrahierten Namen zu „Jan A Smith“. Segmente, die im extrahierten Namen nicht erschienen sind, können bei der Überarbeitung ausgelassen oder eingefügt werden. Das heißt, wenn der extrahierte Name „Jon A Smith“ ist und der gespeicherte Name „Dr Jon H. Smith“ ist, kann die OCR-Anwendung 115 den extrahierten Namen zu „Dr Jon H. Smith“ ändern. Alternativ kann die OCR-Anwendung 115 den extrahierten Namen nur zu „Jon H. Smith“ korrigieren und „Dr“ weglassen.
  • In bestimmten Beispielen wird der extrahierte Name nicht überarbeitet, um den kompletten gespeicherten Namen widerzuspiegeln. Das heißt, die gesamte Editierdistanz wird nicht verwendet, um nur die Überarbeitung anzunehmen oder abzulehnen. Stattdessen können einzelne extrahierte Namenssegmente überarbeitet werden, wenn das individuelle extrahierte Namensegment eine Editierdistanz unter einem konfigurierten Schwellenwert hat. Das Überarbeiten einzelner Segmente ermöglicht die Verwendung teilweiser Übereinstimmungen. In einem Beispiel scannt ein Benutzer 101 die Karte eines Ehegatten mithilfe eines Benutzergeräts 110 ein. Wenn der Nachname auf der Karte mit dem Kontonamen auf einem Mobiltelefonkonto übereinstimmt, das dem Benutzercomputergerät 110 zugeordnet ist, führt die OCR-Anwendung 115 eine Korrektur beim Nachnamen durch. Wenn der Vorname jedoch nicht unter einem Schwellenwert übereinstimmt, wird der Vorname nicht überarbeitet. Wenn der extrahierte Name von der Karte zum Beispiel „Alice Smathers“ ist und ein gespeicherter Name „Jon Smithers“ häufig in den Benutzerdaten erscheint, kann die OCR-Anwendung 115 den extrahierten Namen zu „Alice Smithers“ verfeinern.
  • In Block 240 empfängt die OCR-Anwendung 115 die Bestätigung des extrahierten Namens vom Benutzer 101. Die OCR-Anwendung 115 stellt den verfeinerten Namen für den Benutzer 101 auf einer Benutzeroberfläche des Benutzercomputergeräts 110 mit Anweisungen zum Verifizieren oder Korrigieren des Namens bereit. Wenn die OCR-Anwendung 115 den extrahierten Namen falsch überarbeitet hat, kann der Benutzer 101 den korrekten Namen in die Benutzeroberfläche eingeben.
  • Von Block 240 fährt das Verfahren 200 mit Block 245 fort.
  • Zurückkehrend zu Block 230 fährt, wenn die gesamte Editierdistanz gleich oder über dem konfigurierten Schwellenwert ist, das Verfahren 200 mit Block 240 fort. Die OCR-Anwendung 115 fährt lediglich fort, einen nicht überarbeiteten Namen für das Benutzercomputergerät 110 bereitzustellen, wie in Block 235 beschrieben. Das heißt, die OCR-Anwendung 115 stellt den nicht korrigierten Namen für den Benutzer 101 auf einer Benutzeroberfläche des Benutzercomputergeräts 110 mit Anweisungen zum Verifizieren oder Korrigieren des Namens bereit. Wenn die OCR-Anwendung 115 den extrahierten Namen falsch extrahiert hat, kann der Benutzer 101 den korrekten Namen in die Benutzeroberfläche eingeben.
  • In einem alternativen Beispiel kehrt das Verfahren 200 zu Block 215 von Block 230 zurück, wenn die Editierdistanz gleich oder über dem konfigurierten Schwellenwert ist. Das Verfahren 200 kann das Verfahren der Blöcke 215, 220, 225 und 230 in einem Versuch wiederholen, einen Benutzernamen zu extrahieren, der eine gesamte Editierdistanz produziert, die unter dem Schwellenwert ist. In einem Beispiel wiederholt das Verfahren 200 die Blöcke 215, 220, 225 und 230 eine begrenzte Anzahl von Versuchen, wie z. B. 2, 5 oder 10. In einem anderen Beispiel wiederholt das Verfahren 200 die Blöcke 215, 220, 225 und 230, bis der Versuch durch den Benutzer 101 abgebrochen wird, ein geeigneter Benutzername erhalten wird oder andere Anweisungen empfangen werden.
  • In Block 245 liefert die OCR-Anwendung 115 die extrahierten Daten für eine digitale Geldbörsenanwendung 111, ein POS-Terminal, ein Zahlungsverarbeitungssystem, eine Website oder irgendeine andere geeignete Anwendung oder ein System, die/das der Benutzer 101 autorisiert. Die extrahierten Daten können durch eine Anwendung auf dem Benutzercomputergerät 110, wie z. B. der digitalen Geldbörsenanwendung 111, verwendet werden. Die extrahierten Daten können über eine Internetverbindung über das Netzwerk 105 über Nahfeldkommunikationstechnologie („NFC“), per E-Mail, Text oder auf jede andere geeignete Weise gesendet werden.
  • Exemplarische Systeme
  • 5 stellt eine Rechenmaschine 2000 und ein Modul 2050 gemäß bestimmten exemplarischen Ausführungsformen dar. Die Rechenmaschine 2000 kann irgendwelchen der hier dargestellten verschiedenen Computer, Server, mobilen Geräten, eingebetteten Systemen oder Computersystemen entsprechen. Das Modul 2050 kann eine oder mehrere Hardware- oder Softwareelemente umfassen, die konfiguriert sind, die Rechenmaschine 2000 beim Ausführen der hier dargestellten verschiedenen Verfahren und Verarbeitungsfunktionen zu unterstützen. Die Rechenmaschine 2000 kann verschiedene interne oder befestigte Komponenten wie einen Prozessor 2010, einen Systembus 2020, einen Systemspeicher 2030, ein Speichermedium 2040, eine Ein-/Ausgabe-Schnittstelle 2060 und eine Netzwerkschnittstelle 2070 zum Kommunizieren mit einem Netzwerk 2080 umfassen.
  • Die Rechenmaschine 2000 kann als ein konventionelles Computersystem, ein eingebetteter Controller, ein Laptop, ein Server, ein mobiles Gerät, ein Smartphone, ein tragbarer Computer, eine Set-Top-Box, ein Kiosk, ein Fahrzeuginformationssystem, weitere Prozessoren, die einem Fernseher zugeordnet sind, einer individuellen Maschine, jeder anderen Hardwareplattform oder irgendeiner Kombination oder Vielzahl davon implementiert sein. Die Rechenmaschine 2000 kann ein dezentrales System sein, das konfiguriert ist, mehrere über ein Datennetz oder ein Bussystem miteinander verbundene Rechenmaschinen zu verwenden.
  • Der Prozessor 2010 kann konfiguriert sein, um Code oder Befehle auszuführen, um die Operationen und hierin beschriebene Funktionalität auszuführen, Anforderungsfluss und Adresszuordnungen zu verwalten und Berechnungen auszuführen und Befehle zu erzeugen. Der Prozessor 2010 kann zur Überwachung und Steuerung des Betriebs der Komponenten in der Rechenmaschine 2000 konfiguriert sein. Der Prozessor 2010 kann ein Universalprozessor, ein Prozessorkern, ein Mehrfachprozessor, ein rekonfigurierbarer Prozessor, ein Mikrocontroller, ein Digitalsignal-Prozessor („DSP“), eine anwendungsspezifische integrierte Schaltung („ASIC“), ein Grafikprozessor („GPU“), ein feldprogrammierbares Gate-Array („FPGA“), eine programmierbare Logikbaugruppe („PLD“), eine Steuerung, eine Zustandsmaschine, eine gategesteuerte Logik, diskrete Hardwarekomponenten, irgendeine andere Verarbeitungseinheit oder irgendeine Kombination oder Vielzahl davon sein. Der Prozessor 2010 kann eine einzelne Verarbeitungseinheit, mehrere Verarbeitungseinheiten, ein einzelner Prozessorkern, mehrere Prozessorkerne, Spezialprozessorkerne, Koprozessoren oder jede Kombination davon sein. Gemäß bestimmten Ausführungsformen kann der Prozessor 2010 zusammen mit anderen Komponenten der Rechenmaschine 2000 eine virtualisierte Rechenmaschine sein, die innerhalb von einer oder mehreren anderen Rechenmaschinen ausführt.
  • Der Systemspeicher 2030 kann nicht flüchtige Speicher wie read-only Speicher („ROM“), programmierbaren ROM („PROM“), lösch- und programmierbaren ROM („EPROM“), Flash-Speicher oder ein anderes Gerät beinhalten, das fähig ist, Programmanweisungen oder Daten mit oder ohne Stromquelle zu speichern. Der Systemspeicher 2030 kann auch flüchtige Speicher wie Random Access Memory („RAM“), Static Random Access Memory („SRAM“), dynamischer Random Access Memory („DRAM“) und Synchronous Dynamic Random Access Memory („SDRAM“) umfassen. Andere RAM-Arten können auch verwendet werden, um den Systemspeicher 2030 zu implementieren. Der Systemspeicher 2030 kann unter Verwendung eines einzelnen Speichermoduls oder mehrerer Speichermodule implementiert sein. Während der Systemspeicher 2030 als Teil der Rechenmaschine 2000 dargestellt ist, erkennt ein Fachmann, dass der Systemspeicher 2030 von der Rechenmaschine 2000 getrennt sein kann, ohne vom Umfang der Technologie des Gebiets abzuweichen. Es versteht sich auch, dass der Systemspeicher 2030 ein nicht flüchtiges Speichergerät wie das Speichermedium 2040 umfassen oder in Verbindung damit betrieben werden kann.
  • Das Speichermedium 2040 kann eine Festplatte, eine Diskette, eine Compact Disc Read Only Memory („CD-ROM“), eine Digital Versatile Disc („DVD“), eine Blu-Ray-Disk, ein Magnetband, ein Flash-Speicher, anderes nicht flüchtiges Speichergerät, ein Halbleiterlaufwerk („SSD“), irgendein Magnetspeicher, irgendein optisches Speichergerät, irgendein elektrisches Speichergerät, irgendein Halbleiterspeichergerät, irgendein physisch basiertes Speichergerät, irgendein anderes Datenspeichergerät oder irgendeine Kombination oder Vielzahl davon beinhalten. Das Speichermedium 2040 kann ein oder mehrere Betriebssysteme, Anwendungsprogramme und Programmmodule wie Modul 2050, Daten oder irgendwelche anderen Informationen speichern. Das Speichermedium 2040 kann Teil der Rechenmaschine 2000 oder damit verbunden sein. Das Speichermedium 2040 kann auch Teil von einer oder mehreren anderen Rechenmaschinen sein, die in Kommunikation mit der Rechenmaschine 2000 sind, wie beispielsweise Server, Datenbankserver, Cloud-Speicher, Netzwerkspeicher und so weiter.
  • Das Modul 2050 kann eine oder mehrere Hardware- oder Softwareelemente umfassen, die konfiguriert sind, die Rechenmaschine 2000 beim Ausführen der hier dargestellten verschiedenen Verfahren und Verarbeitungsfunktionen zu unterstützen. Das Modul 2050 kann eine oder mehrere Sequenzen von Befehlen, die als Software oder Firmware in Verbindung mit dem Systemspeicher 2030, dem Speichermedium 2040 oder mit beiden gespeichert sind, umfassen. Das Speichermedium 2040 kann daher Beispiele von maschinen- oder computerlesbaren Medien darstellen, auf denen Befehle oder Code zur Ausführung durch den Prozessor 2010 gespeichert sein können. Maschinen- oder computerlesbare Medien können generell irgendein Medium oder Medien bezeichnen, die verwendet werden, um an den Prozessor 2010 Befehle bereitzustellen. Solche mit dem Modul 2050 verbundenen maschinen- oder computerlesbaren Medien können ein Computersoftwareprodukt umfassen. Es versteht sich jedoch, dass ein Computersoftwareprodukt, welches das Modul 2050 umfasst, auch mit einem oder mehreren Prozessen oder Verfahren zum Liefern des Moduls 2050 an die Rechenmaschine 2000 über das Netzwerk 2080, irgendein Signalträgermedium oder irgendeine andere Kommunikations- oder Lieferungstechnologie verbunden sein kann. Das Modul 2050 kann auch Hardwareschaltungen oder Informationen umfassen, um Hardwareschaltungen wie Mikrocode oder Konfigurationsinformationen für einen FPGA oder einen anderen PLD zu konfigurieren.
  • Die Ein-/Ausgangs- („I/O“) -Schnittstelle 2060 kann konfiguriert sein, mit einer oder mehreren externen Geräten zu koppeln, Daten von dem einen oder den mehreren externen Geräten zu empfangen und Daten zu dem einen oder den mehreren externen Geräten zu senden. Solche externen Geräte zusammen mit den verschiedenen internen Geräten sind auch als Peripheriegeräte bekannt. Die E/A-Schnittstelle 2060 kann sowohl elektrische als auch physische Verbindungen umfassen, um die verschiedenen Peripheriegeräte mit der Rechenmaschine 2000 oder dem Prozessor 2010 betriebsfähig zu koppeln. Die I/O-Schnittstelle 2060 kann konfiguriert sein, Daten, Adressen und Steuersignale zwischen den Peripheriegeräten, der Rechenmaschine 2000 oder dem Prozessor 2010 zu kommunizieren. Die I/O-Schnittstelle 2060 kann konfiguriert sein, jede Standardschnittstelle wie eine Small Computer System Interface („SCSI“), SAS-Schnittstelle („SAS“), Faserkanal, Peripheral Component Interconnect („PCI“), PCI-Express (PCIe), serieller Bus, Parallelbus, Advanced Technology Attached („ATA“), serielle ATA („SATA“), universeller serieller Bus („USB“), Thunderbolt, FireWire, verschiedene Videobusse und dergleichen zu implementieren. Die I/O-Schnittstelle 2060 kann konfiguriert sein, nur eine Schnittstellen- oder Bustechnik zu implementieren. Alternativ kann die I/O-Schnittstelle 2060 konfiguriert sein, mehrere Schnittstellen oder Bustechniken zu implementieren. Die I/O-Schnittstelle 2060 kann als Teil des Systembus 2020, als gesamter Systembus 2020 oder um in Verbindung damit zu operieren konfiguriert sein. Die I/O-Schnittstelle 2060 kann einen oder mehrere Puffer beinhalten, um Übertragungen zwischen einem oder mehreren externen Geräten, internen Geräten, der Rechenmaschine 2000 oder dem Prozessor 2010 zu puffern.
  • Die I/O-Schnittstelle 2060 kann die Rechenmaschine 2000 mit verschiedenen Eingabegeräten koppeln, die Mäuse, Touchscreens, Scanner, elektronische Digitalisierer, Sensoren, Empfänger, Touchpads, Trackballs, Kameras, Mikrofone, Tastaturen, irgendwelche anderen Zeigegeräte oder irgendwelche Kombinationen davon umfassen. Die I/O-Schnittstelle 2060 kann die Rechenmaschine 2000 mit verschiedenen Ausgabegeräten koppeln, die Videodisplays, Lautsprecher, Drucker, Projektoren, taktile Rückführungsgeräte, eine Automatisierungssteuerung, Robotikkomponenten, Aktoren, Motoren, Lüfter, Magnetventile, Ventile, Pumpen, Sender, Signalemitter, Lichter und so weiter umfassen.
  • Die Rechenmaschine 2000 kann in einer vernetzten Umgebung unter Verwendung logischer Verknüpfungen durch die Netzwerkschnittstelle 2070 mit einem oder mehreren anderen Systemen oder Rechenmaschinen über das Netzwerk 2080 betrieben werden. Das Netzwerk 2080 kann Wide Area Networks (WAN), lokale Netzwerke (LAN), Intranetze, das Internet, Netzwerke mit drahtlosem Zugang, drahtgebundene Netzwerke, Mobilfunknetze, Telefonnetze, optische Netzwerke oder Kombinationen davon umfassen. Das Netzwerk 2080 kann paketvermittelt, schaltungsvermittelt, von irgendeiner Topologie sein und kann jedes Kommunikationsprotokoll verwenden. Kommunikationslinks innerhalb des Netzwerks 2080 können verschiedene digitale oder analoge Kommunikationsmedien wie Lichtwellenleiter, direkte optische Übertragung, Wellenleiter, elektrische Leiter, drahtlose Verbindungen, Antennen, Funkfrequenzkommunikationen und so weiter einbeziehen.
  • Der Prozessor 2010 kann mit den anderen Elementen der Rechenmaschine 2000 oder den verschiedenen hierin beschriebenen Peripheriegeräten durch den Systembus 2020 verbunden sein. Es ist zu verstehen, dass der Systembus 2020 innerhalb des Prozessors 2010, außerhalb des Prozessors 2010 oder beides sein kann. Gemäß einigen Ausführungsformen kann irgendeiner der Prozessoren 2010, die anderen Elemente der Rechenmaschine 2000 oder die verschiedenen hierin beschriebenen Peripheriegeräte in ein einzelnes Gerät wie ein System-On-Chip („SOC“), System-on-Package („SOP“) oder eine ASIC-Gerät integriert sein.
  • In Situationen, in denen die hier erörterten Systeme persönliche Informationen über Benutzer sammeln oder persönliche Informationen nutzen können, kann den Benutzern die Möglichkeit eingeräumt werden, zu steuern, ob Programme oder Merkmale Benutzerinformationen sammeln (z. B. Informationen über das soziale Netzwerk eines Benutzers, soziale Handlungen oder Aktivitäten, Beruf, Benutzerpräferenzen oder der aktuelle Standort eines Benutzers), oder um zu steuern, ob und/oder wie Inhalte von dem Inhaltsserver empfangen werden, die für den Benutzer von größerer Relevanz sein können. Darüber hinaus können bestimmte Daten auf eine oder mehrere Weisen behandelt werden, bevor diese gespeichert oder verwendet werden, sodass personenbezogene Informationen entfernt werden. Eine Benutzeridentität kann beispielsweise so behandelt werden, dass keine personenbezogenen Informationen für den Benutzer bestimmt werden können, oder ein geografischer Standort des Benutzers verallgemeinert werden kann, wenn Standortinformationen (wie beispielsweise eine Stadt, Postleitzahl oder ein Bundesland) erhalten werden, sodass ein bestimmter Standort eines Benutzers nicht festgestellt werden kann. Auf diese Weise kann der Benutzer die Kontrolle darüber haben, inwiefern Informationen über den Benutzer gesammelt und von einem Inhaltsserver verwendet werden.
  • Ausführungsformen können ein Computerprogramm umfassen, das die hierin beschriebenen und veranschaulichten Funktionen verkörpert, wobei das Computerprogramm in einem Computersystem implementiert ist, das Anweisungen umfasst, die in einem maschinenlesbaren Medium gespeichert sind, und einen Prozessor, der die Anweisungen ausführt Es sollte jedoch offensichtlich sein, dass es viele unterschiedliche Arten geben könnte, Ausführungsformen in der Computerprogrammierung zu implementieren, und die Ausführungsformen sollten nicht als auf irgendeine Reihe von Computerprogrammbefehlen begrenzt ausgelegt werden. Ein ausgebildeter Programmierer wäre ferner in der Lage, ein derartiges Computerprogramm zu schreiben, um eine Ausführungsform der offenbarten Ausführungsformen basierend auf den angefügten Flussdiagrammen und der verbundenen Beschreibung im Anwendungstext zu implementieren. Die Offenbarung einer bestimmten Reihe von Programmcodebefehlen wird daher für ein geeignetes Verständnis dessen, wie man Ausführungsformen herstellt und verwendet, nicht als erforderlich betrachtet. Ferner wird der Fachmann erkennen, dass ein oder mehrere Aspekte der hier beschriebenen Ausführungsformen durch Hardware, Software oder eine Kombination davon ausgeführt werden können, wie sie in einem oder mehreren Computersystemen verkörpert sein können. Des Weiteren sollte jede Bezugnahme auf eine Handlung, die durch einen Computer ausgeführt wird, nicht derart ausgelegt werden, dass diese durch einen einzelnen Computer ausgeführt wird, da mehr als ein Computer die Handlung ausführen kann.
  • Die hierin beschriebenen exemplarischen Ausführungsformen können mit Computerhardware und -software verwendet werden, welche die vorher beschriebenen Verfahren und Verarbeitungsfunktionen ausführen. Die hierin beschriebenen Systeme, Verfahrensweisen und Verfahren können in einem programmierbaren Computer, computerausführbarer Software oder digitalen Schaltungen verkörpert sein. Die Software kann auf computerlesbaren Medien gespeichert sein. Computerlesbare Medien können beispielsweise eine Diskette, RAM, ROM, Festplatte, entfernbare Medien, Flash-Speicher, Memorystick, optische Medien, magneto-optische Medien, CD-ROM usw. umfassen. Digitale Schaltungen können integrierte Schaltungen, Gate-Arrays, Bausteinlogik, feldprogrammierbare Gate-Arrays (FPGA) usw. umfassen.
  • Die exemplarischen Systeme, Verfahren und Handlungen, die in den zuvor präsentierten Ausführungsformen beschrieben sind, sind veranschaulichend und bei alternativen Ausführungsformen können bestimmte Handlungen in einer unterschiedlichen Reihenfolge ausgeführt werden, miteinander parallel, vollständig ausgelassen, und/oder zwischen unterschiedlichen exemplarischen Ausführungsformen kombiniert und/oder bestimmte zusätzliche Handlungen durchgeführt werden, ohne vom Umfang und Sinn von den verschiedenen Ausführungsformen abzuweichen. Demgemäß sind solche alternativen Ausführungsformen in den hierin beschriebenen Erfindungen einbezogen.
  • Obwohl vorstehend spezifische Ausführungsformen im Detail beschrieben wurden, dient die Beschreibung lediglich zum Zweck der Veranschaulichung. Es versteht sich daher, dass viele vorstehend beschriebene Aspekte nicht als erforderliche oder wesentliche Bestandteile beabsichtigt sind, es sei denn, es ist ausdrücklich anders angegeben. Modifikationen von und äquivalente Komponenten oder Handlungen, die den offenbarten Aspekten der exemplarischen Ausfiihrungsformen entsprechen, zusätzlich zu den vorstehend beschriebenen, können von einem Durchschnittsfachmann mit dem Vorteil der vorliegenden Offenbarung ausgeführt werden, ohne vom Sinn und Umfang von in den folgenden Ansprüchen definierten Ausführungsformen abzuweichen, deren Umfang die breiteste Interpretation gewährt werden soll, sodass sie solche Modifikationen und äquivalente Strukturen umfassen.
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • US 14827330 [0001]

Claims (21)

  1. Folgendes wird beansprucht:
  2. Computerimplementiertes Verfahren zum Extrahieren von Benutzernamen von Geldkarten und Vergleichen von Segmenten der Benutzernamen mit Namen, die in Benutzerdaten gespeichert sind, um den extrahierten Namen zu überarbeiten, umfassend: Empfangen, durch eines oder mehrere Computergeräte, eines digitalen Bildes einer Karte; Anwenden, durch das eine oder die mehreren Computergeräte, eines optischen Zeichenerkennungsalgorithmus auf das digitale Bild der Karte, um einen extrahierten Namen eines Benutzers zu erhalten, der der Karte zugeordnet ist; Identifizieren, durch das eine oder die mehreren Computergeräte, eines Namens von gespeicherten Benutzerdaten, der wahrscheinlich dem extrahierten Benutzernamen zuzuordnen ist; Aufteilen, durch das eine oder die mehreren Computergeräte, des extrahierten Namens in eine Reihe von Segmenten; Aufteilen, durch das eine oder die mehreren Computergeräte, des identifizierten Namens in eine Reihe von Segmenten; Vergleichen, durch das eine oder die mehreren Computergeräte, der Reihe von Segmenten des extrahierten Namens mit der Reihe von Segmenten des identifizierten Namens; Berechnen, durch das eine oder die mehreren Computergeräte, einer Editierdistanz von den Segmenten der extrahierten Namen mit Reihen von Segmenten des identifizierten Namens; Ermitteln, durch das eine oder die mehreren Computergeräte, dass die Editierdistanz unter einem konfigurierten Schwellenwert ist; und Überarbeiten, durch das eine oder die mehreren Computergeräte, eines oder mehrerer Segmente des extrahierten Namens auf Basis des identifizierten Namens.
  3. Verfahren nach Anspruch 1, ferner umfassend: Aufteilen, durch das eine oder die mehreren Computergeräte, des extrahierten Namens in eine Vielzahl von Reihen von Segmenten, wobei jede der Vielzahl von Reihen von Segmenten unterschiedliche Segmentaufteilungen hat; Vergleichen, durch das eine oder die mehreren Computergeräte, jeder der Vielzahl von Reihen von Segmenten des extrahierten Namens mit der Reihe von Segmenten des identifizierten Namens; Auswählen, durch das eine oder die mehreren Computergeräte, einer der Vielzahl von Reihen von Segmenten, die eine kürzeste Editierdistanz mit dem extrahierten Namen hat; Ermitteln, durch das eine oder die mehreren Computergeräte, dass die Editierdistanz unter einem konfigurierten Schwellenwert ist; und Überarbeiten, durch das eine oder die mehreren Computergeräte, des extrahierten Namens auf Basis des identifizierten Namens.
  4. Verfahren nach Anspruch 1 oder 2, wobei der extrahierte Name und der identifizierte Name in Segmente in jeder Leerstelle im Namen aufgeteilt sind.
  5. Verfahren nach einem der Ansprüche 1 bis 3, ferner umfassend: Bereitstellen, durch das eine oder die mehreren Computergeräte, des überarbeiteten Namens dem Benutzer für Verifizierung oder Änderung; und Empfangen, durch das eine oder die mehreren Computergeräte, einer Eingabe der Überarbeitung von dem Benutzer.
  6. Verfahren nach einem der Ansprüche 1 bis 4, wobei die Karte eine Kreditkarte, eine Debitkarte, eine Ausweiskarte, eine Treuekarte, eine Zugangskarte oder eine Zahlkarte umfasst.
  7. Verfahren nach einem der Ansprüche 1 bis 5, ferner umfassend Bereitstellen, durch das eine oder die mehreren Computergeräte, des überarbeiteten Namens für eine digitale Geldbörsenanwendung auf dem einen oder den mehreren Computergeräten für die Verwendung in einer Transaktion.
  8. Verfahren nach einem der Ansprüche 1 bis 6, wobei die Editierdistanz die Anzahl der Zeichen im extrahierten Namenssegment ist, das eine Überarbeitung erfordert, um einem entsprechenden identifizierten Namenssegment zu entsprechen.
  9. Verfahren nach einem der Ansprüche 1 bis 7, ferner umfassend das Weglassen durch das eine oder die mehreren Computergeräte, eines Segments vom extrahierten Namen, wenn das Segment kein entsprechendes Segment im identifizierten Namen hat.
  10. Verfahren nach einem der Ansprüche 1 bis 8, wobei die gespeicherten Benutzerdaten von einer Kontaktliste auf dem einen oder den mehreren Computergeräten sind.
  11. Verfahren nach einem der Ansprüche 1 bis 9, wobei die gespeicherten Benutzerdaten von einem Konto des Benutzers sind, das auf dem einen oder den mehreren Computergeräten gepflegt wird.
  12. Computerprogrammprodukt, umfassend: ein nicht transitorisches, computerlesbares Speichergerät, auf dem computerausführbare Programmanweisungen verkörpert sind, die, wenn sie durch einen Computer ausgeführt werden, den Computer veranlassen, Benutzernamen von Geldkarten zu extrahieren und Segmente der Benutzernamen mit Namen zu vergleichen, die in Benutzerdaten gespeichert sind, um den extrahierten Namen zu überarbeiten, die computerausführbaren Programmanweisungen umfassend: computerlesbare Programmanweisungen zum Empfangen eines digitalen Bildes einer Geldkarte; computerlesbare Programmanweisungen zum Anwenden eines optischen Zeichenerkennungsalgorithmus auf das digitale Bild der Geldkarte, um einen extrahierten Namen eines Benutzers zu erhalten, der der Karte zugeordnet ist; computerlesbare Programmanweisungen zum Identifizieren eines Namens von gespeicherten Benutzerdaten, der wahrscheinlich dem extrahierten Namen zuzuordnen ist; computerlesbare Programmanweisungen zum Aufteilen des extrahierten Namens in eine Vielzahl von Reihen von Segmenten, wobei jede der Vielzahl von Reihen von Segmenten unterschiedliche Segmentaufteilungen hat; computerlesbare Programmanweisungen zum Aufteilen des identifizierten Namens in eine Reihe von Segmenten; computerlesbare Programmanweisungen zum Vergleichen jeder der Vielzahl von Reihen von Segmenten des extrahierten Namens mit der Reihe von Segmenten des identifizierten Namens; computerlesbare Programmanweisungen zum Berechnen einer Editierdistanz von den Segmenten der extrahierten Namen mit Reihen von Segmenten des identifizierten Namens; computerlesbare Programmanweisungen zum Auswählen einer der Vielzahl von Reihen von Segmenten, die eine kürzeste Editierdistanz zu dem extrahierten Namen hat; computerlesbare Programmanweisungen zum Ermitteln, dass die Editierdistanz unter einem konfigurierten Schwellenwert ist; und computerlesbare Programmanweisungen zum Überarbeiten des extrahierten Namens auf Basis des identifizierten Namens.
  13. Computerprogrammprodukt nach Anspruch 11, wobei der extrahierte Name und der identifizierte Name in Segmente in jeder Leerstelle im Namen aufgeteilt sind.
  14. Computerprogrammprodukt nach Anspruch 11 oder 12, ferner umfassend computerausführbare Programmanweisungen zum erneuten Anwenden des optischen Zeichenerkennungsalgorithmus auf das digitale Bild der Geldkarte bei einer Ermittlung, dass ein Konfidenzniveau unter einem vorher konfigurierten Schwellenwert ist.
  15. Computerprogrammprodukt nach einem der Ansprüche 11 bis 13, ferner umfassend computerlesbare Programmanweisungen zum Bereitstellen des überarbeiteten Namens für eine digitale Geldbörsenanwendung auf einem Benutzercomputergerät für die Verwendung in einer Transaktion.
  16. Computerprogrammprodukt nach einem der Ansprüche 11 bis 14, wobei die Geldkarte eine Kreditkarte oder eine Debitkarte umfasst.
  17. Computerprogrammprodukt nach einem der Ansprüche 11 bis 15, wobei die gespeicherten Benutzerdaten von einer Kontaktliste auf dem einen oder den mehreren Computergeräten sind.
  18. System zum Extrahieren von Benutzernamen von Geldkarten und Vergleichen von Segmenten der Benutzernamen mit Namen, die in Benutzerdaten gespeichert sind, um den extrahierten Namen zu überarbeiten, umfassend: ein Speichergerät; ein mit dem Speichergerät kommunikativ gekoppelter Prozessor, wobei der Prozessor so konfiguriert ist, dass er computerlesbare Anweisungen ausführt, die im Speichergerät gespeichert sind, um das System zu Folgendem zu veranlassen: Empfangen eines digitalen Bildes einer Karte; Anwenden eines optischen Zeichenerkennungsalgorithmus auf das digitale Bild der Karte, um einen extrahierten Namen eines Benutzers zu erhalten, der der Karte zugeordnet ist; Identifizieren eines Namens von gespeicherten Benutzerdaten, der wahrscheinlich dem extrahierten Namen zuzuordnen ist; Aufteilen des extrahierten Namens in eine Reihe von Segmenten; Aufteilen des identifizierten Namens in eine Reihe von Segmenten; Vergleichen der Reihe von Segmenten des extrahierten Namens mit der Reihe von Segmenten des identifizierten Namens; Berechnen einer Editierdistanz von den Segmenten der extrahierten Namen mit Reihen von Segmenten des identifizierten Namens; Ermitteln, dass die Editierdistanz unter einem konfigurierten Schwellenwert ist; Bereitstellen eines überarbeiteten Namens für einen Benutzer zur Verifizierung oder Überarbeitung, wobei die Überarbeitung auf dem identifizierten Namen basiert; und Empfangen einer Verifizierung der Überarbeitung vom Benutzer.
  19. System nach Anspruch 17, wobei die Editierdistanz eine Anzahl von Zeichen in einem extrahierten Namenssegment ist, die eine Überarbeitung erfordern würden, um einem entsprechenden identifizierten Namenssegment zu entsprechen.
  20. System nach Anspruch 17 oder 18, wobei der extrahierte Name und der identifizierte Name in Segmente in jeder Leerstelle im Namen aufgeteilt sind.
  21. System nach einem der Ansprüche 17 bis 19, wobei die gespeicherten Benutzerdaten von einem Konto des Benutzers stammen, das auf dem Prozessor gepflegt wird.
DE112016003724.4T 2015-08-16 2016-08-16 Vergleichen eines extrahierten benutzernamens mit gespeicherten benutzerdaten Withdrawn DE112016003724T5 (de)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US14/827,330 2015-08-16
US14/827,330 US20170046668A1 (en) 2015-08-16 2015-08-16 Comparing An Extracted User Name with Stored User Data
PCT/US2016/047226 WO2017031135A1 (en) 2015-08-16 2016-08-16 Comparing an extracted user name with stored user data

Publications (1)

Publication Number Publication Date
DE112016003724T5 true DE112016003724T5 (de) 2018-05-03

Family

ID=56801823

Family Applications (1)

Application Number Title Priority Date Filing Date
DE112016003724.4T Withdrawn DE112016003724T5 (de) 2015-08-16 2016-08-16 Vergleichen eines extrahierten benutzernamens mit gespeicherten benutzerdaten

Country Status (8)

Country Link
US (1) US20170046668A1 (de)
EP (1) EP3335152A1 (de)
JP (1) JP2018523188A (de)
KR (1) KR20170133462A (de)
CN (1) CN108064385A (de)
DE (1) DE112016003724T5 (de)
GB (1) GB2553722A (de)
WO (1) WO2017031135A1 (de)

Families Citing this family (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10282535B2 (en) * 2014-09-02 2019-05-07 NXT-ID, Inc. Method and system to validate identity without putting privacy at risk
MX2018010050A (es) 2016-02-23 2019-01-21 Nchain Holdings Ltd Transacciones turing completas basadas en agente que integran retroalimentacion dentro de un sistema de cadena de bloques.
AU2017223133B2 (en) 2016-02-23 2022-09-08 nChain Holdings Limited Determining a common secret for the secure exchange of information and hierarchical, deterministic cryptographic keys
CN109417465B (zh) 2016-02-23 2021-01-15 区块链控股有限公司 区块链执行的智能合约的注册和自动化管理方法
EP3259724B1 (de) * 2016-02-23 2021-03-24 Nchain Holdings Limited Sicherer verlustresistenter mehrparteienspeicher und transfer von kryptografischen schlüsseln für blockchain-basierte systemen in verbindung mit einem geldbörsenverwaltungssystem
US10296788B1 (en) * 2016-12-19 2019-05-21 Matrox Electronic Systems Ltd. Method and system for processing candidate strings detected in an image to identify a match of a model string in the image
JP2019004365A (ja) * 2017-06-16 2019-01-10 富士ゼロックス株式会社 情報処理装置
US10192215B1 (en) 2018-03-02 2019-01-29 Capital One Services, Llc Trigger peer to peer payment with financial cards and phone camera
JP7254606B2 (ja) * 2019-04-25 2023-04-10 日本電設工業株式会社 積算業務支援システム及び積算業務支援プログラム
SG10201904554TA (en) 2019-05-21 2019-09-27 Alibaba Group Holding Ltd Methods and devices for quantifying text similarity
CN112069374B (zh) * 2020-09-18 2024-04-30 中国工商银行股份有限公司 一种银行多个客户编号的识别方法及装置
CN116129456B (zh) * 2023-02-09 2023-07-25 广西壮族自治区自然资源遥感院 一种产权权属信息识别录入方法及系统

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPWO2004016443A1 (ja) * 2002-08-19 2005-12-02 セイコーエプソン株式会社 データ収集用シート、データ収集システムおよびデータ収集方法
US7826665B2 (en) * 2005-12-12 2010-11-02 Xerox Corporation Personal information retrieval using knowledge bases for optical character recognition correction
US7664343B2 (en) * 2006-01-23 2010-02-16 Lockheed Martin Corporation Modified Levenshtein distance algorithm for coding
US8150161B2 (en) * 2008-09-22 2012-04-03 Intuit Inc. Technique for correcting character-recognition errors
KR20110056561A (ko) * 2008-09-30 2011-05-30 애플 인크. 피어 대 피어 금융 트랜잭션 장치들 및 방법들
US8774516B2 (en) * 2009-02-10 2014-07-08 Kofax, Inc. Systems, methods and computer program products for determining document validity
US9349063B2 (en) * 2010-10-22 2016-05-24 Qualcomm Incorporated System and method for capturing token data with a portable computing device
EP2533141A1 (de) * 2011-06-07 2012-12-12 Amadeus S.A.S. System zur Anzeige persönlicher Informationen und zugehöriges Verfahren
CN102393847B (zh) * 2011-07-05 2013-04-17 上海合合信息科技发展有限公司 判断联系人列表中是否存在欲添加名片的方法
KR20140128172A (ko) * 2013-04-26 2014-11-05 인텔렉추얼디스커버리 주식회사 신용 카드 정보를 처리하는 단말 장치 및 그 동작 방법
US20150006362A1 (en) * 2013-06-28 2015-01-01 Google Inc. Extracting card data using card art
US20150227690A1 (en) * 2014-02-12 2015-08-13 Xerox Corporation System and method to facilitate patient on-boarding

Also Published As

Publication number Publication date
US20170046668A1 (en) 2017-02-16
EP3335152A1 (de) 2018-06-20
CN108064385A (zh) 2018-05-22
KR20170133462A (ko) 2017-12-05
GB2553722A (en) 2018-03-14
WO2017031135A1 (en) 2017-02-23
GB201717859D0 (en) 2017-12-13
JP2018523188A (ja) 2018-08-16

Similar Documents

Publication Publication Date Title
DE112016003724T5 (de) Vergleichen eines extrahierten benutzernamens mit gespeicherten benutzerdaten
US10963730B2 (en) Comparing extracted card data using continuous scanning
US10296799B2 (en) Extracting card identification data
US10055663B2 (en) Comparing extracted card data with user data
US9536160B2 (en) Extracting card data with card models
DE112016001971T5 (de) Identifizieren von verbrauchern in einer transaktion über gesichtserkennung
JP2016541049A (ja) カードのocr画像のクライアント側フィルタリング
EP3017399B1 (de) Zahlungskarten-ocr mit relaxierter ausrichtung
US20170053162A1 (en) Card art display

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R119 Application deemed withdrawn, or ip right lapsed, due to non-payment of renewal fee