DE60031929T2 - Verfahren zum Trennen von Zeichen für die Erkennung von Kraftfahrzeugskennzeichenschildern - Google Patents

Verfahren zum Trennen von Zeichen für die Erkennung von Kraftfahrzeugskennzeichenschildern Download PDF

Info

Publication number
DE60031929T2
DE60031929T2 DE60031929T DE60031929T DE60031929T2 DE 60031929 T2 DE60031929 T2 DE 60031929T2 DE 60031929 T DE60031929 T DE 60031929T DE 60031929 T DE60031929 T DE 60031929T DE 60031929 T2 DE60031929 T2 DE 60031929T2
Authority
DE
Germany
Prior art keywords
image
character
license plate
characters
recognition
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
DE60031929T
Other languages
English (en)
Other versions
DE60031929D1 (de
Inventor
Jenn-kwei Princeton Tyan
Claus Monmouth Junction Neubauer
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Siemens Corp
Original Assignee
Siemens Corporate Research Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Siemens Corporate Research Inc filed Critical Siemens Corporate Research Inc
Publication of DE60031929D1 publication Critical patent/DE60031929D1/de
Application granted granted Critical
Publication of DE60031929T2 publication Critical patent/DE60031929T2/de
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • G06V30/14Image acquisition
    • G06V30/148Segmentation of character regions
    • G06V30/153Segmentation of character regions using recognition of characters or words
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/62Text, e.g. of license plates, overlay texts or captions on TV images
    • G06V20/625License plates
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Character Input (AREA)
  • Character Discrimination (AREA)
  • Devices For Checking Fares Or Tickets At Control Points (AREA)

Description

  • HINTERGRUND
  • 1. Gebiet der Erfindung
  • Diese Offenbarung betrifft die Zeichenerkennung und insbesondere ein Verfahren zum Abtrennen von Zeichen in einem Nummernschild, damit dieses erkannt wird.
  • 2. Beschreibung des Stands der Technik
  • Es sind bereits mehrere herkömmliche auf Computersicht beruhende Systeme zum Lesen von KFZ-Kennzeichen entwickelt worden. Diese Systeme bestehen normalerweise aus drei Modulen, nämlich der Schildlokalisierung, der Zeichenabtrennung und der Zeichenerkennung. Bei einer seriellen Vorgehensweise benötigt man die Zeichenabtrennung, damit man die Zeichenerkennung ausführen kann, die vollständig auf getrennten Zeichen beruht. Es ist wenig wahrscheinlich, dass unkorrekt getrennte Zeichen korrekt erkannt werden. In der Tat beruhen die meisten Erkennungsfehler in Systemen ohne Schleifen nicht auf der mangelnden Erkennungsfähigkeit, sondern auf Abtrennfehlern auf unterschiedlichen Bildebenen. Bei der Nummernschilderkennung ist es schwierig, eine störfeste Zeichenabtrennung zu entwickeln. Die Gründe dafür sind hauptsächlich, dass die begrenzte Auflösung der Zeichen auf dem Nummernschild zusammen mit Schmutz, Kratzern, Schatten, Neigung usw. die Leistungsfähigkeit der Abtrennung beeinträchtigen. Zudem können die starken Beleuchtungsschwankungen im Freien das Entwickeln eines verlässlichen Abtrennschemas sehr erschweren.
  • In herkömmlichen Systemen zur optischen Zeichenerkennung (OCR, OCR = Optical Character Recognition) wird die Pixelprojektion häufig zur Zeichenabtrennung verwendet. Im Allgemeinen arbeiten die herkömmlichen Systeme für die meisten Erkennungsaufgaben an maschinengedruckten Texten zufriedenstellend. Der Vorteil derartiger Systeme ist der Gewinn an Verarbeitungsgeschwindigkeit. Findet man die Zeichen auf dem Nummernschild unter den besten Bedingungen vor, d. h. sie sind ausreichend getrennt und nicht unterbrochen, so kann man die Zeichenabtrennung direkt anhand der Projektionsfunktion vornehmen. In der Realität trifft man jedoch saubere und gleichförmig beleuchtete Nummernschildbilder selten an.
  • LU Y: "Machine printed character segmentation--an overview" PATTERN RECOGNITION, PERGAMON PRESS INC. ELMSFORD, N. Y., USA, vol. 28, no. 1, 1995, pages 67–80, offenbart ein Verfahren zum Abtrennen und Erkennen gedruckter Zeichen, die in Bereiche mit vermuteten Zeichen unterteilt werden. Die Segmente werden in kleinere Segmente unterteilt, wenn sie mehrere Zeichen enthalten. EP 0862132 offenbart auch ein Verfahren zum Unterteilen und Erkennen von Nummernschildern, bei dem die Bilder erfasst und vorverarbeitet werden und bei dem Bereiche in Bereiche mit vermuteten Zeichen unterteilt werden. Tritt zwischen zwei aufeinander folgenden Zeichen ein überdurchschnittlich breiter Spalt auf, so kann erneut abgetrennt werden, um nach zusätzlichen Zeichen zu suchen. R. M. Bozinovic und S. N. Srihari stellen in "Off-Line Cursive Script Word Recognition" (IEEE Transc. Pattern Analysis and Machine Intelligence, January 1989) ein Zeichenerkennungsverfahren vor, in dem Vorwärtstrennen und Wiederverschmelzen von Zeichenbereichen verwendet werden. Gemäß diesem Artikel werden alle Hypothesen bezüglich der erhaltenen Buchstaben beim Verschmelzen von ein, zwei oder drei Zeichenbereichen mit den Buchstaben und Symbolen des Alphabets überprüft (a ... z). Daraufhin werden die Buchstabenhypothesen mit hohen Vertrauenswerten zusammen mit den Buchstabenhypothesen betrachtet, die im vorhergehenden Zyklus hohe Vertrauenswerte erbrachten, usw. Alle diese herkömmlichen Verfahren liefern jedoch nicht unter allen Umständen eine vollständige Zeichenerkennung.
  • Daher besteht Bedarf an einem störfesten Abtrennverfahren, das Zeichen unter zahlreichen verschiedenen Beleuchtungs- und Umgebungsbedingungen segmentiert.
  • ZUSAMMENFASSUNG DER ERFINDUNG
  • Ein Verfahren zum Abtrennen und Erkennen von Nummernschildern gemäß der Erfindung, das man mit Hilfe einer Programmspeichervorrichtung implementieren kann, die maschinenlesbar ist und greifbar ein Programm aus Befehlen verwirklicht, die die Maschine abarbeiten kann, damit sie die Verfahrensschritte ausführt, umfasst das Erfassen eines Bilds eines Nummernschilds und das Vorverarbeiten des Bilds, damit das Bild für das Abtrennen und das Erkennen vorbereitet wird. Das Bild wird in vermutete Zeichenbereiche des Nummernschildbilds vorwärts getrennt. Vermutete Zeichenbereiche im Nummernschildbild werden erkannt und mit einem Vertrauenswert versehen, der auf der Wahrscheinlichkeit einer korrekten Übereinstimmung beruht. Weisen die vermuteten Zeichen einen Vertrauenswert unterhalb eines Grenzwerts auf, so erfolgt das Rückwärtsverschmelzen benachbarter vermuteter Zeichenbereiche. Die rückwärts verschmolzenen vermuteten Zeichenbereiche im Nummernschild werden erkannt. Haben die rückwärts verschmolzenen vermuteten Zeichenbereiche einen Vertrauenswert unter dem Grenzwert, so werden die Rückwärtsverschmelzungs- und Erkennungsschritte wiederholt.
  • Der Schritt des Vorverarbeitens des Bilds zum Vorbereiten des Bilds für das Abtrennen und das Erkennen umfasst die Schritte: das Verfeinern einer Position des Nummernschilds durch das Ermitteln einer Zeichenhöhe auf dem Nummernschildbild durch das Verwenden einer Projektionsfunktion; das Berechnen einer räumlichen Varianz zum Bestimmen einer Mittenposition der Zeichen; das Verwenden der Mittenposition und der Höhe der Zeichen zum Verkleinern der Größe einer interessierenden Region durch das Erfassen der Kanten einer Plattengrenze und das Berechnen einer Länge der Kanten zum Erkennen der interessierenden Region.
  • In anderen Ausführungsformen, in den die Programmspeichervorrichtung verwendbar ist, kann der Schritt des Erkennens vermuteter Zeichenbereiche im Nummernschildbild das Ermitteln von Bereichen mit einem Vertrauenswert unter einem Grenzwert umfassen, und der Schritt des Vorwärtstrennens von Regionen kann den Schritt des Abtrennens sich berührender oder sich überlappender Zeichen in benachbarten vermuteten Zeichenbereichen durch das Anwenden einer Unterscheidungsfunktion abhängig von Konturprojektionen der Zeichen enthalten. Der Schritt des Abtrennens sich berührender oder sich überlappender Zeichen kann iterativ angewendet werden, um den Grenzwert eines Vertrauenswerts zu erreichen. Der Schritt des Erkennens von vermuteten Zeichenbereichen im Nummernschildbild und das Bereitstellen eines Vertrauenswerts abhängig von einer Wahrscheinlichkeit einer korrekten Übereinstimmung kann den Schritt der Zeichenerkennung im Bild des Nummernschilds durch das Verwenden mindestens entweder eines neuronalen Netzes oder eines Schablonenvergleichs enthalten.
  • In weiteren Ausführungsformen kann der Schritt des Erkennens der rückwärts verschmolzenen vermuteten Zeichenbereiche im Nummernschild den Schritt der Zeichenerkennung im Bild des Nummernschilds durch das Verwenden mindestens entweder eines neuronalen Netzes oder eines Schablonenvergleichs enthalten. Der Schritt des Vorverarbeitens des Bilds, damit das Bild für das Abtrennen und Erkennen vorbereitet wird, kann die Schritte enthalten: Erfassen einer Neigung im Bild des Nummernschilds durch das Erfassen von Kanten und das Wählen von Merkmalspunkten, um ein Projektionsfeld auf den Kanten zu bestimmen; Auswählen des Projektionsfelds mit der höchsten Bewertung, damit ein Drehwinkel bestimmt wird; und Korrigieren des Bilds des Nummernschilds entsprechend dem Drehwinkel. Der Schritt des Vorverarbeitens des Bilds, damit das Bild für das Abtrennen und Erkennen vorbereitet wird, kann die Schritte umfassen: Bereitstellen eines Projektionsprofils von Pixelintensitäten auf vertikalen Pixellinien im Bild; Filtern des Projektionsprofils; und Erkennen der Orte von Zeichen im Bild, die durch eine Fläche unter einem Grenzwert im gefilterten Projektionsprofil beschrieben werden. Der Schritt des Ausgebens der erkannten Zeichen des Nummernschildbilds wird bevorzugt vorgenommen. Der Schritt des Vergleichens der erkannten Zeichen und Zeichenblöcke mit vorbestimmten Nummernschildcodes und Konventionen kann enthalten sein, damit die Genauigkeit der Erkennung geprüft wird.
  • Diese und weitere Aufgaben, Merkmale und Vorteile der Erfindung gehen aus der folgenden ausführlichen Beschreibung erläuternder Ausführungsformen der Erfindung zusammen mit den beiliegenden Zeichnungen hervor.
  • KURZE BESCHREIBUNG DER ZEICHNUNGEN
  • Diese Offenlegung liefert eine ausführliche Beschreibung bevorzugter Ausführungsformen anhand der folgenden Zeichnungen.
  • Es zeigt:
  • 1 ein Flussdiagramm eines Erkennungsverfahrens für Nummernschilder der Erfindung;
  • 2 eine Kurve der Bewertung in Abhängigkeit vom Neigungswinkel zum Bestimmen eines Neigungswinkels für Nummernschilder gemäß der Erfindung;
  • 3 eine Kurve von S(j) in Abhängigkeit von den Pixeln zum Bestimmen der Zeichenhöhe für Nummernschildzeichen gemäß der Erfindung;
  • 4 ein Blockdiagramm mit unterschiedlichen Stadien der Schildpositionsverfeinerung gemäß der Erfindung;
  • 5A Pixel für überlappende Zeichen, die gemäß der Erfindung abzutrennen sind;
  • 5B eine Konturprojektion zum Ermitteln der Positionen der Zeichen in 5A, die gemäß der Erfindung zu trennen sind;
  • 5C eine Unterscheidungsbewertungskurve zum Bestimmen eines Orts für das Abtrennen der Zeichen in 5A gemäß der Erfindung;
  • 5D obere und untere Profile zum Bestimmen der Höhen der Zeichen in 5A, die gemäß der Erfindung zu trennen sind;
  • 6A Pixel für sich berührende Zeichen, die gemäß der Erfindung zu trennen sind;
  • 6B eine Konturprojektion zum Ermitteln der Positionen der Zeichen in 6A, die gemäß der Erfindung zu trennen sind;
  • 6C eine Unterscheidungsbewertungskurve zum Bestimmen eines Orts für das Abtrennen der Zeichen in 6A gemäß der Erfindung;
  • 6D obere und untere Profile zum Bestimmen der Höhen der Zeichen in 6A, die gemäß der Erfindung zu trennen sind;
  • 7 ein Flussdiagramm eines auf die Erkennung gestützten Abtrennverfahrens der Erfindung;
  • 8 vermutete Zeichenbereiche, die durch einen Vorwärtstrennvorgang der Erfindung bestimmt werden;
  • 9 einen Entscheidungsbaum, der beim Ausführen einer Rückwärtsverschmelzung der Erfindung verwendet wird; und
  • 10A und 10B Beispiele für verschiedene Werte von k, einer Konstanten zum Justieren von Zeichengrenzen, die beim Bilden eines höheren Vertrauenswerts in der Zeichenerkennung verwendet wird.
  • AUSFÜHRLICHE BESCHREIBUNG BEVORZUGTER AUSFÜHRUNGSFORMEN
  • Die Erfindung betrifft die Zeichenerkennung und insbesondere ein wenig störanfälliges Verfahren zum Abtrennen von Zeichen in einem Nummernschild, das erkannt werden soll. Die automatische Erkennung der Nummernschilder von Fahrzeugen ist besonders für hochgenaue Anwendungen nützlich, bei denen eine Fahrzeugidentifizierung erfolgt. Die Erkennung der Nummernschilder von Fahrzeugen ist in der Verkehrsüberwachung und Steuerung vorteilhaft und für das Bewahren von Aufzeichnungen des Durchgangsverkehrs, beispielsweise am Tor eines Parkplatzes. Zum Verbessern der Leistung der Zeichenabtrennung führt die Erfindung eine Bildvorverarbeitung aus, die die Schildneigung behandelt und die Schildposition nach dem Drehen des Bilds verfeinert. Dies ist als Vorbereitung der Daten für die spätere Verarbeitung erforderlich. Die Fahrzeugbilder sind durch unterbrochene und einander berührende Zeichen beeinträchtigt. Fehler beim Erkennen und Abtrennen dieser Zeichen führen zu einem Abtrennvorgang, der für die meisten Fehler verantwortlich ist, die die Erkennungssysteme liefern.
  • Die Erfindung stellt ein Verfahren bereit, mit dem man sich berührende Zeichen exakter trennen und unterbrochene Zeichen genauer zusammenfügen kann. Die Erfindung stellt eine wirksame und leistungsfähige Unterscheidungsfunktion bereit, die sich berührende Zeichen abhängig von einer Differentialanalyse der Zeichenkontourentfernung erkennt. Die Erfindung trennt auch unterschnittene Zeichen, die sich mit benachbarten Zeichen überlappen.
  • Anstelle eines Verarbeitungsschemas ohne Rückführung setzt die Erfindung ein bedingt rekursives Abtrennverfahren ein, das einzelne Zeichen abtrennen kann, beispielsweise von einem Nummernschild, und zwar genau und wirkungsvoll. Die Verfahren der Erfindung sind miteinander verknüpft, und zwar das Abtrennen und das Erkennen, damit man anhand des Ergebnisses der Zeichenerkennung prüfen kann, ob die Zeichen auf dem Schild korrekt getrennt worden sind. In einer Ausführungsform wird für eine Vorwärtstrennprozedur eine Unterscheidungsfunktion gezielt auf vermutete Zeichenbereiche angewendet, die den besten Abtrennpunkt bestimmt, falls sich Zeichen berühren oder überlappen. Daraufhin folgt eine Rückwärtsverschmelzprozedur, um fehlerhafte Abtren nungen aufgrund von unterbrochenen Zeichen zu beheben. Sowohl in der Abtrenn- als auch in der Verschmelzprozedur erfolgt eine Rückführung der Klassifizierung aus dem Zeichenerkennungsschritt.
  • Die Erfindung verwirklicht einen Klassifizierer, der einen Schablonenvergleich und neuronale Netze enthält. Dies erhöht die Erkennungsleistung in vorteilhafter Weise und liefert bessere Abtrennergebnisse. Die Erfindung umfasst zudem regelgestützte Merkmale und Messvorgänge beim Segmentieren des Schilds. Dazu gehören Kennzeichenregeln und Codes, die das Aussehen des Schilds (z. B. Stadt/Ortskennzeichen), die alphanumerischen Felder und die Größe des Zeichensatzes festlegen. Man beachte, dass die von der Erfindung erkannten Zeichen in den Nummernschildern verändert werden können und dass die Zeichen nicht einmal feststehen müssen.
  • Natürlich können die in 1 bis 7 dargestellten Elemente in unterschiedlichen Formen von Hardware, Software oder Kombinationen aus beiden implementiert werden. Bevorzugt werden diese Elemente in Software auf einer oder mehreren geeignet programmierten Allzweck-Digitalverarbeitungsvorrichtungen implementiert, die einen Prozessor und Speicher und Ein/Ausgabe-Schnittstellen aufweisen.
  • Es wird nun im Einzelnen auf die Zeichnungen eingegangen, in denen gleiche Bezugszeichen ähnliche oder identische Elemente innerhalb der diversen Ansichten darstellen. Zunächst sei 1 betrachtet, die ein Flussdiagramm bzw. Blockdiagramm der Erfindung zeigt. Im Block 10 wird ein Bild aufgenommen bzw. erfasst, und zwar bevorzugt mit einer Digitalkamera, die einen Prozessor und einen Speicher aufweist. Im Block 11 wird das Bild durchsucht, um ein interessierendes Gebiet zu finden (beispielsweise ein Nummernschild). Dies kann man als Grobsuche bezeichnen.
  • Im Block 12 erfolgt eine Bild- oder Abtrennvorverarbeitung, damit die Erkennungsrate verbessert wird. Ohne eine geeignete Vorverarbeitung können die nachfolgenden Abtrenn- und Erkennungsschritte schwierig werden. Diverse Vorverarbeitungsverfahren für das Erkennen mit neuronalen Netzen können beispielsweise eine Bild- und/oder Zeichenentzerrung enthalten. Im Block 14 wird auf Lichteffekte eingegangen (beispielsweise Beleuchtung, Entfernung und/oder Ausrichtung), damit man ein gutes Grundbild erhält. Ein Beispiel für diese Effekte, das für die nachfolgende Verarbeitung wichtig ist, ist die Normierung der Helligkeit. Besondere Vorverarbeitungen für das Abtrennen, das Erkennen der Schildneigung (Block 16) und die Verfeinerung der Nummernschildposition (Block 18) werden wie folgt vorgenommen.
  • Im Block 16 wird die Neigung oder Schräglage des Schilds erfasst und bearbeitet. Eine Neigung oder Schräglage des Schilds beeinflusst die Zeichenabtrennung nachteilig. Das Erkennen und Korrigieren der Neigung eines Nummernschildbilds verbessert die Genauigkeit der Abtrennung und Erkennung. Zum Schätzen der Neigung des Nummernschilds hängt die Genauigkeit von der Auswahl von Merkmalen innerhalb des Nummernschildbilds ab.
  • Herkömmliche Algorithmen zum Erkennen der Neigung von Nummernschildern beruhen auf lokalen Minimum-Pixeln und lokalen Maximum-Pixeln, die aus Zeichenbereichen entnommen werden. Eine Untersuchung des Zwischenraums der Objektpixel durch einen Satz orthogonaler Projektionen ermittelt einen möglichen Neigungswinkel. Die Genauigkeit hängt jedoch vom Zeichenhintergrund ab. Ist das Schild schmutzig, verrauscht oder ungleichmäßig ausgeleuchtet, so können unerwünschte Merkmalspunkte eingeschlossen werden, und die entstehende Genauigkeit ist unbefriedigend. Statt dessen werden in der Erfindung Merkmalspunkte von den Ober- und Unterkanten der Zeichen zusammen mit einer Schildgrenze verwendet, die in waagrechter Richtung parallel dazu ist.
  • Mit Hilfe eines Kantendetektors werden sämtliche Zeichenkanten und Schildkanten in waagrechter Richtung erfasst. Die herausragenden Kantenpunkte werden nun mit Hilfe eines adaptiven Grenzwerts ausgewählt, der auf dem Mittelwert und der Standardabweichung beruht. Sei beispielsweise ein Winkel von θ Grad gegeben, um den bezüglich der Mittenposition des Bilds gedreht wird, so wird eine vertikale Projektion der im vorhergehenden Schritt erhaltenen Punkte berechnet, und man erhält ein eindimensionales Projektionsfeld P(θ). Verwendet man wegen des kleinen Drehwinkels eine Fachgröße mit einer Pixeleinheit je Abtastauflösung, so wird der Neigungswinkel wie folgt bestimmt. Für jede Projektionsrichtung wird eine Bewertungsfunktion C(θ) berechnet, nämlich die Summe der Quadrate der akkumulierten Werte eines jeden Fachs. Damit erhält man C(θ) wie folgt:
    Figure 00070001
    wobei Pi(θ) der Wert des i-ten Fachs ist, das man für den Winkel θ findet, und n die Anzahl der Fächer ist. Der Winkel, der das größte C(θ) liefert, ist der korrekte Neigungswinkel. Da die Projektion eine Auflösung von einem Grad hat, kann man das ma ximale C(θ) durch eine quadratische Anpassfunktion weiter interpolieren, damit die Genauigkeit verbessert wird. In einer Ausführungsform wird die Rechenzeit dadurch begrenzt, dass man einen geschätzten Winkelbereich eingrenzt. Der geschätzte Winkelbereich kann auf eine Neigung innerhalb von zehn Grad beschränkt werden, so dass immer noch eine erschöpfende Suche möglich ist, ohne die Geschwindigkeit zu beeinträchtigen. Ist das Schild um einen großen Winkel geneigt, so kann eine erschöpfende Suche zeitaufwendig sein. Eine Grob- und Feinsuche (beispielsweise eine binäre Suche oder eine Fibonacci-Suche) kann sich als nützlich erweisen, um den Suchaufwand zu verringern, der zum finden des Maximums nötig ist. Man kann auch nichtlineare Verfahren der kleinsten Fehlerquadrate verwenden. Der Neigungswinkel dient der Unterstützung beim Erkennen der Schildzeichen.
  • In 2 ist eine Kurve der Bewertungsfunktion C(θ) (Bewertung) über dem Drehwinkel bzw. Neigungswinkel aufgetragen. In diesem Beispiel ist ein zu erkennendes Nummernschild um einen Winkel gegen die waagrechte Achse geneigt. Die Kurve zeigt, dass ein Neigungswinkel von ungefähr vier Grad im Eingabebild des Nummernschilds vorhanden ist (d. h. die höchste Bewertung). Dieser Winkel wird nun durch das Justieren des Nummernschildbilds korrigiert, damit man ein Bild mit einem Drehwinkel von ungefähr null Grad erhält.
  • Im Block 18 erfolgt ein Verfeinern der Position des Schilds. Das Ausgabebild der Nummernschilderkennung (Block 11) liefert in der Regel eine größere Fläche, die nicht nur die Schildzeichen sondern auch den Schildrahmen und möglicherweise die Karosserie des Fahrzeugs enthält. Man muss nun eine verfeinerte Suche ausführen, die nicht benötigte Bereiche ausscheidet, die Schildzeichen jedoch beibehält. Die Erfindung nimmt das Verfeinern der Schildposition in vertikaler und horizontaler Richtung vor und bezieht dabei die Merkmale wie den Schildrand, den Schildhintergrund und die Schildzeichen ein.
  • In den meisten Fällen ist das beste Merkmal zum Vereinfachen der Positionsverfeinerung das Vorhandensein des Schildrands im Bild, der eine rechteckige Form bildet und vom Oberflächenbereich umgeben ist. Durch das Erkennen der vertikalen und horizontalen Kanten und das Suchen der größten Kantenlänge von jeder Seite kann das Verfeinern exakt erfolgen. Bei einigen Nummernschildern, bei denen man durch einen der Fahrzeugkarosserie vergleichbaren homogenen Hintergrund eine oder mehrere Schildkanten nicht erkennen kann, mag dies zu einem beträchtlichen Fehler führen. In diesen Fällen werden Merkmale der Schildzeichen gemessen, d. h. die Höhe und die Breite.
  • Die Erfindung schätzt die Zeichenhöhe im Bild, dessen Neigung korrigiert wurde. Die Signatur einer Sprung-Übergangs-Zahl wird als Maßmerkmal für das Vorhandensein eines Zeichens verwendet. Sei angenommen, dass ein Kandidatenbereich des Schilds die Abmessungen M × N (in Pixel) hat, so ist die Projektionsfunktion über die Summation aller Zeichen-Signaturen in der Zeile definiert:
    Figure 00090001
    wobei r(i, j) die Anzahl der Übergänge (Objekt-Hintergrund oder Hintergrund-Objekt) auf den Pixeln (i, j) ist. Dieses Merkmal wird am binärisierten Bild des Schildkandidaten berechnet, d. h., wenn das vermutete Nummernschild gefunden ist. Die Binärisierung beruht bevorzugt auf einem lokalen Mittelwert und einer lokalen Standardabweichung über dem Bild. Der Grenzwert am Pixel (i, j) wird wie folgt berechnet: T(i, j) = m(i, j) + k·d(i, j) (3)wobei m(i, j) und d(i, j) die Abtastmittelwerte bzw. Standardabweichungswerte in einer lokalen Umgebung (i, j) sind. In einer bevorzugten Ausführungsform dient eine 16 × 16-Umgebung dazu, lokale Einzelheiten zu bewahren und Rauscheffekte so gering wie möglich zu halten. Den Wert k verwendet man dazu, einzustellen, wie stark die Zeichengrenze als Teil des gegebenen Bilds verwendet wird. Man wählt beispielsweise k = –0,2, damit man gut getrennte Druckzeichen erhält. Man beachte, dass ein konstantes k zu einer Breitenveränderung zwischen Zeichen aufgrund einer ungleichförmigen Beleuchtung führen kann. Die Auswirkung von k bezüglich des Erkennungsergebnisses wird im Weiteren erläutert. Statistisch gesehen ist die mittlere Übergangszahl je Zeile im Oberflächenbereich wesentlich größer als in Nicht-Oberflächenbereichen. Wird S(j) passend segmentiert, so entspricht das Ergebnis der größtmöglichen Ausbreitungsentfernung den Zeichenhöhen.
  • 3 zeigt eine Projektionsfunktion S(j), bei der die Zeichenhöhe die Entfernung von den Werten von S(j) über einem Grenzwert ist. Den Grenzwert von S(j) erhält man adaptiv abhängig von einem Mittelwert und einer Standardabweichung von S(j). Hat man die Zeichenhöhen bestimmt, so wird der interessierende Bereich in vertikaler Richtung weiter eingeschränkt.
  • Die Breite der Zahlen auf dem Schild kann man anhand eines Vorabwissens bezüglich des Verhältnisses der Schildbreite zur Schildhöhe schätzen. Man braucht nur die Mittenposition der Zahl auf dem Schild in Richtung der waagrechten Achse zu ermitteln. Zum Schätzen dieser Position kann man ein räumliches Varianzverfahren implementieren. Berechnet man die räumliche Varianz entlang einer Linie des Nummernschilds (z. B. waagrecht), so entsprechen Regionen mit hoher räumlicher Varianz den Textbereichen und Regionen mit geringer räumlicher Varianz den Nicht-Textbereichen. Man kann also die Position, die zur größten Varianz gehört, als Mittenposition der Schildzahl auf der waagrechten Achse wählen.
  • Mit der Untersuchung der Schildkanten lässt sich die Genauigkeit der Verfeinerung verbessern, und man kann fehlerhafte Erkennungen beseitigen. Nach erfolgtem Verfeinern auf der waagrechten Achse wird die interessierende Region erneut entnommen und für die nachfolgende Segmentierung und Klassifizierung mit einer festen Auflösung erneut abgetastet. 4 zeigt die Ergebnisse der Schildpositionsverfeinerung in unterschiedlichen Stufen des Verfahrens.
  • In Block 20 wird die Zeichenabtrennung vorgenommen. Dies schließt das Erkennen der Zeichen im Nummernschild durch das Abtrennen der Zeichenbilder für die Erkennung ein. (Siehe auch Block 110 in 7). Gemäß der Erfindung wird im Block 22 eine erkennungsgestützte Abtrennung verwendet. Im Block 22 erfolgt – wenn nötig – eine Trennung sich berührender bzw. sich überlappender Zeichen. Das Bewältigen der Trennung einander berührender Zeichen ist für jede optischen Zeichenerkennungsanwendung (OCR) wichtig. Der Stand der Technik hat mehrere Vorgehensweisen entwickelt, die an der Unfähigkeit kranken, überlagerte Zeichen (d. h. Zeichen, die sich mit benachbarten Zeichen überlappen) von Zeichen zu unterscheiden, die benachbarte Zeichen berühren.
  • Die Erfindung verwendet eine Unterscheidungsfunktion, die auf einer Konturprojektion beruht. Für ein berührendes Zeichen mit der Breite W wird eine Konturprojektionsfunktion Vc(k) definiert zu: Vc(k) = bottom(k) – top(k), k = 1, 2, 3, ..., W (4)wobei die Funktion top(k) eine obere Position auf der vertikalen Achse gesehen vom oberen Profil der äußeren Kontur der sich berührenden Zeichen liefert, und die Funktion bottom(k) eine untere Position auf der vertikalen Achse gesehen vom unteren Profil der äußeren Kontur der sich berührenden Zeichen. 5D und 6D zeigen obere und untere Profile für die sich überlappenden Zeichen "17" in 5A bzw. die sich berührenden Zeichen "48" in 6A. Verwendet man die obige Projektionsfunktion mit einigen benachbarten Spalten, so wird die Trennunterscheidungsfunktion Fc(k) wie folgt definiert:
    Figure 00110001
    wobei d ein Versatz von einer momentanen Zeichenposition zu benachbarten Zeichenpositionen ist. Das Summierungsintervall von n1 bis n2 bezeichnet alle möglichen Versätze, die empirisch anhand der Zeichengröße und dem Überlappungszustand im Text bestimmt werden. Für die gewünschte Unempfindlichkeit der Erfindung hat sich gezeigt, dass n1 = 1 und n2 = 2 zu einer guten Unterscheidungsfähigkeit führen. Andere Werte für n1 und n2 werden ebenfalls in Betracht gezogen. 5B und 6B zeigen Konturprojektionen Vc(k) als Funktion von k für 5A bzw. 6A. 5C und 6C zeigen die Werte der Unterscheidungsfunktion Fc(k) in Abhängigkeit von k. Jeder Versatz d trägt zu den Werten der Unterscheidungsfunktion bei, die in der Nähe des Berührpunkts der Zeichen stark anwächst. Mit Hilfe eines geeigneten Grenzwerts werden Kandidaten für Abtrennpunkte gewählt, an den das Bild zu teilen ist. Man beachte, dass die vorgeschlagene Konturprojektion nur bei zweifelhaften Zeichen angewendet wird, bei denen die Klassifizierung versagt hat. Es wäre redundant, diese abgetrennten Zeichen zu überprüfen, wenn man sie mit einem guten Vertrauenswert erkennen kann. Zusätzlich kann die vorgeschlagene Konturprojektion mit der Pixelprojektion verbunden werden, um sich berührende Zeichen zu erkennen, die sich in maschinengedruckten Dokumenten mit Kleinbuchstaben mischen.
  • Die erkennungsgestützte Abtrennung im Block 22 erfolgt gemäß der Erfindung. Die erkennungsgestützte Abtrennung durchsucht das Bild nach Zeichenkomponenten, die sich mit Klassen in ihrem Alphabet decken. Die Erkennung vergleicht Schablonen oder verwendet einen statistischen Klassifizierer zum Erkennen von Zeichen und gibt einen Vertrauenswert zurück, der auf der Wahrscheinlichkeit beruht, dass das Zeichen korrekt erkannt worden ist.
  • Das Arbeitsprinzip der Erfindung unterscheidet sich ziemlich stark von Segmentierungen ohne Rückführung, die in allen Zeichensätzen auf der Unterscheidung von Grenzen von inneren Bereichen beruhen, und ist eng mit der Zeichenerkennung verbunden. Herkömmliche erkennungsgestützte Segmentierungen verwenden ein gleitendes Fenster mit veränderlicher Breite, das Folgen von Abtrennkandidaten liefert, die durch die Zeichenerkennung bestätigt werden. Das Eingabefenster kann durch Verändern der Fensterlage und Größe zahlreiche Folgen erzeugen. Die beste Folge, zu der das höchste Vertrauensmaß gehört, wird als Abtrennergebnis gewählt. Die Schwierigkeit bei diesen herkömmlichen Verfahren besteht jedoch darin, dass es problematisch ist, für den ersten Versuch ein geeignetes Fenster zu wählen, und zwar insbesondere für Zeichen mit proportionalem Abstand. Tsujimoto und Asada, haben in "Resolving ambiguity in segmenting touching characters", The First International Conference on Document Analysis and Recognition, pp. 701–709, October 1991, einen rekursiven Abtrenn- und Erkennalgorithmus zum Abtrennen sich berührender Zeichen entwickelt. Sie führten eine Unterbrechungs-Bewertungsfunktion ein, die versuchsweise Unterbrechungspositionen findet, und bestätigten dann diese Unterbrechungspositionen durch das Absuchen eines Entscheidungsbaums, der aus den Erkennungsergebnissen aufgebaut wird. Nachteilig ist dabei, dass die Bearbeitung sehr rechenintensiv werden kann, wenn mehr Unterbrechungspositionen in den Aufbau des Entscheidungsbaums einbezogen werden.
  • 7 zeigt gemäß der Erfindung ein bedingt rekursives Abtrennverfahren, das eine Vorwärtstrenn- und Rückwärtsverschmelzprozedur implementiert und auf der Ausgabe der Erkennung beruht. Im Block 100 erfolgt wie beschrieben die Abtrenn-Vorverarbeitung an einem Bild, beispielsweise einem Nummernschildbild. Im Block 110 wird die anfängliche Abtrennung vorgenommen. Das Eingabebild wird abhängig von vertikalen Projektionen in Bereiche zerlegt; dadurch lassen sich zahlreiche mögliche Fehler beim ersten Versuch ausschließen. Als Ableitung aus der herkömmlichen Schwarzpixel-Projektion erhält man die Projektionsfunktion durch die Auswahl des dunkelsten Pixels in jeder Spalte. Die vertikale Projektion umfasst das Anwenden eines Tiefpassfilters auf das Projektionsprofil. Daraufhin werden die erkannten Positionen zwischen Zeichen durch das Subtrahieren der ursprünglichen Projektionsfunktion und der gefilterten Funktion bestimmt.
  • Die Erkennungsmaschine wird bevorzugt als Prüfung verwendet. Enthält das getrennte Bild einen Vertrauenswert unter einem Grenzwert, so wird der Vorgang wiederholt, nachdem vermutete Zeichen getrennt oder verschmolzen wurden.
  • Nach der ersten Segmentierung kann jeder entstandene Bereich (d. h. ein Bereich mit einem vermuteten oder möglichen Zeichen) entweder als unterbrochenes Zei chen, Einzelzeichen, sich berührende Zeichen oder unbekanntes Symbol eingestuft werden. Hat das Nummernschild ein hochwertiges Bild, so kann nahezu jeder abgetrennte Bereich mit einem hohen Vertrauensmaß klassifiziert werden, das auf dieser Stufe ein erkanntes Zeichen bedeutet. Die meisten Bilder von Nummernschildern befinden sich jedoch nicht in einem solchen Zustand. Führen die Bereiche zu nicht erkannten Zeichen, so wird jeder Bereich durch eine Komponentenanalyse geprüft, um kleine Komponenten herauszufiltern, beispielsweise Schrauben oder Muttern, die sich im Bild des Nummernschilds befinden.
  • Im Block 114 wird daraufhin die beschriebene Unterscheidungsfunktion zum Abtrennen sich berührender Zeichen auf die zu großen Bereiche angewendet, um festzustellen, ob sie sich weiter unterteilen lassen. Man kann dabei voraussetzen, dass die zugehörige Bewertung der Unterscheidungsfunktion über dem definierten Grenzwert liegt, so dass unnötige Trennungen vermieden werden. Der Vorwärtstrennprozedur im Block 114 folgt unmittelbar eine rekursive Erkennung, die zum Block 114 zurückkehrt, bis man keinen Unterbrechungspunkt mehr in verdächtigen Bereichen findet, in denen man einen geringen Vertrauenswert für die Erkennung des fraglichen Zeichens erhält. Ein Beispiel zeigt 8, in der sechs Zeichenbereiche (1–6), die zwischen Pfeilen angegeben sind, Positionen bezeichnen, an denen das Zeichenbild zu trennen ist.
  • Im Block 116 erfolgt ein Rückwärtsverschmelzvorgang, mit dem Bereiche im Bild bewertet werden, um festzustellen, ob man durch das Zusammenfassen von Bereichen einen höheren Vertrauenswert erhält. Dabei handelt es sich um einen rekursiven Erkennungsvorgang, der durch die Rückführschleife in 7 bezeichnet ist. Es wird nun 9 betrachtet. Jeder Knoten 200 für jeden vermuteten Zeichenbereich 1–6 (siehe 8) könnte abhängig von der Erkennung des Bereichs ein tatsächliches Zeichen bilden. Kann man einen Knoten mit einem gewichtigen Vertrauenswert einstufen, so wird das Ergebnis im jeweiligen Knoten gespeichert. Daraufhin werden die nachfolgenden Knoten verarbeitet, die die möglichen Kombinationen der verbleibenden Bereiche darstellen. Knoten, die eine schlechte Erkennung liefern, werden nicht weiter bewertet (z. B. Knoten mit * in 8). Jede nachfolgende Bewertung beschränkt sich lediglich auf die Nachbarschaft des fraglichen Bereichs und seine beiden direkt benachbarten Knoten. Dadurch verringert sich die Rechenzeit. Der Baum wird aufgebaut, bis keine Bereiche mehr übrig sind. Der Pfad durch den Baum mit der größten Wahrscheinlichkeit wird als korrekte Segmentierung gewählt, und die entsprechende Erkennung ist unmittelbar verfügbar. Führt keiner der Pfade zu einer guten Erkennung, so kann man die weniger wahrscheinlichen Pfade bewerten. Als Beispiel sei 8 betrachtet. Im Knoten 200a wird für den Bereich 1 festgestellt, dass er kein erkanntes Zeichen enthält (der Knoten wird mit einem * versehen). Die Verarbeitung betrachtet nun die Bereiche 1 und 2 im Knoten 200b. Mit ausreichender Sicherheit wird ein "N" erkannt. Im Knoten 200c werden die Bereiche 1, 2 und 3 geprüft. Die Bewertung führt jedoch nicht zu Ergebnissen mit einem ausreichenden Vertrauenswert. Die Verarbeitung schreitet wie dargestellt fort.
  • Im Block 115 erfolgt die Zeichenerkennung gemäß der Erfindung. Die Zeichenerkennung kann in mehreren unterschiedlichen Weisen vorgenommen werden. In besonders brauchbaren Ausführungsformen können ein neuronales Netz, Schablonenvergleich oder eine Kombination aus beiden Verfahren verwendet werden. Der Schablonenvergleich wird nun ausführlicher beschrieben.
  • Das Abtrennverfahren der Erfindung hängt in seiner Genauigkeit vom Zeichenerkennungsverfahren ab, mit dem die unterteilten Bereiche bearbeitet werden. Es ist insofern von diesem Algorithmus unabhängig, als jedes beliebige Erkennungsverfahren zusammen mit der Segmentierung verwendbar ist. Daher implementiert die Erfindung zusätzlich zum neuronalen Netz, das als OCR-Maschine dient, den Schablonenvergleich, damit die Erkennungsaufgabe noch weiter vereinfacht wird. Der Schablonenvergleich wird auf abgetrennte Bereiche angewendet, die von Rechtecken eingeschlossen sind, wobei die verbundenen Komponenten in den Bereichen eine mittlere Größe haben. Zudem werden die Bereiche (mit einem Zeichen oder einem Teil eines Zeichens) vom neuronalen Netz mit einem geringeren Vertrauensmaß (unter einem Grenzwert) erkannt. In einem solchen Fall wird der interessierende Bereich zuerst binärisiert und auf die Größe skaliert, die die Schablonen in einer Datenbank haben, beispielsweise 15 × 25 oder 20 × 30 Pixel. Ein normierter Übereinstimmungsindex mit dem Bereich von –1 bis 1 ist als Vertrauensmaß definiert, das man erhält, indem man das abgespeicherte Symbolbild und das eingegebene Objektbild Pixel für Pixel vergleicht. Nähert sich das Vertrauensmaß der 1, so werden die abgespeicherten Bilder (virtuelle Abtastungen), die zu den Zeichensymbolen gehören, klassifiziert. Dies bedeutet eine perfekte Übereinstimmung (Vertrauenswert 1), d. h. die Klasse des Eingabebilds ist gleich der Klasse des abgespeicherten Bilds und umgekehrt. Man kann einen Grenzwert von ungefähr 0,5 wählen, um nicht übereinstimmende Zeichen auszufiltern. Den Grenzwert kann man entsprechend der Anwendung einstellen. Der Schablonenvergleich bietet eine umfassende Suche in einer gespeicherten Datenbank, die zahlreiche Symbolbilder enthält. Hierzu gehören auch unterschiedliche Größen und Arten des gleichen Zeichens, verschiedene Beleuchtungseffekte, Schatten, unscharfe Bilder usw.
  • Man beachte, dass beim Vergleichsvorgang übereinstimmende Hintergrundpixel in der Regel nicht gezählt werden, da dies den Übereinstimmungsindex stark verschiebt. Wird jedoch ein Loch als Struktur betrachtet, so ist die Menge der Hintergrundpixel im Loch als Zeichen zulässig. Hierzu werden die Löcher mit einem Pixelwert gekennzeichnet, der sich von den Werten unterscheidet, die für Hintergrund- und Objektpixel verwendet werden. Nun wird ein Sonderfall (d. h. Lochpixel) für die Übereinstimmung erstellt. Im Wesentlichen heißt dies, dass Lochpixel wie Objektpixel behandelt werden, jedoch eine eigene Klasse bilden und nicht mit einem Objektpixel übereinstimmen.
  • Für das Binärisieren der Bilder abhängig vom lokalen Mittelwert und der lokalen Standardabweichung über dem Bild kann man das Verfahren nach Niblack verwenden. (Siehe z. B. O. D. Trier et al., "Goal-directed evaluation of binarization methods", IEEE Transaction on Pattern Analysis and Machine Intelligence, Vol. 17, No. 12, pp. 1191–1201, December 1995). In Gleichung 3 dient der Wert k dazu, einzustellen, wie stark die Zeichengrenze als Teil des gegebenen Bilds betrachtet wird. Bei sich verändernden Umgebungsbedingungen ist es wahrscheinlich, dass die Zeichenbreiten auf unterschiedliche Größen variieren. Ein konstantes k kann für eine gute Übereinstimmung ungeeignet sein. Damit werden abhängig von der Änderung von k mehrfache Grenzwerte abgeleitet. Wird in einer Ausführungsform k in Schritten von 0,25 von –0,5 auf 0,5 erhöht, so erhält man eine gute Auswahl, die eine breite Schwankung der Symbole des Datensatzes abdeckt. 10A und 10B zeigen, wie unterschiedliche Grenzwerte den Zeichenrand beeinflussen. Die Bilder 400 und 410 sind die zu vergleichenden Bilder. Durch das Verändern von k kann man für jedes Bild eine bessere Übereinstimmung erzielen. Das Bild 400 weist den größten Vertrauenswert auf, wenn k in 10A den Wert 0,5 annimmt. Das Bild 410 hat den größten Vertrauenswert, wenn k in 10B den Wert 0,0 annimmt.
  • Die Erfinder haben Versuche gemäß der Erfindung vorgenommen und dabei eine intelligente Kamera verwendet. Die Systemleistung beruhte dabei auf der Gesamterkennungsrate vollständiger Nummernschilder bei unterschiedlichen Entfernungen und Beleuchtungseffekten. Veränderungen der Beleuchtung wurden durch das Verändern der Linsenöffnung mit den Blenden 2, 2,4 und 4 erzeugt. Man beachte, dass die definierte Erkennungsrate die Anzahl der Nummernschilder bedeutet und nicht die Anzahl der Zeichen.
  • Eine geschlossene Schleife aus der Erkennungsstufe und der Abtrennstufe senkt die Störanfälligkeit gegenüber Auswirkungen von Veränderungen in der Umgebung. Die Erfindung wird anhand deutscher Nummernschilder vorgestellt. Die Algorithmen sind je doch allgemeingültig und auf die Nummernschilder unterschiedlicher Länder und auch auf andere Zeichenerkennungsaufgaben erweiterbar.
  • Beim automatisierten Nummernschild-Erkennungssystem werden zahlreiche Lesefehler durch eine ungenügende Zeichenabtrennung verursacht. Die Zeichenabtrennung wird insbesondere dann schwierig, wenn die erfassten Fahrzeugbilder ernsthaft beeinträchtigt sind. In der Erfindung werden Computersichttechniken verwendet, und es wird ein erkennungsgestütztes Trennverfahren vorgeschlagen, das mit Schablonenvergleich und einem neuronalen Netz verbunden ist. Dies verbessert die Genauigkeit des Erkennungssystems, das darauf abzielt, Nummernschilder automatisch zu lesen. Es werden verbesserte Algorithmen für eine auf Projektionen gestützte Abtrennung beschrieben. In der Vorverarbeitungsstufe werden Verfahren zum Erkennen der Schildneigung und zum Verfeinern der Position entwickelt, damit die Daten für die folgende Verarbeitung aufbereitet werden. Zum Abtrennen sich berührender Zeichen wird eine Unterscheidungsfunktion vorgestellt, die auf einer Differentialanalyse der Zeichenkonturentfernung beruht. Eine bedingt rekursive Abtrennung mit der Zurückführung der Erkennung wird entwickelt, damit man einander berührende Zeichen wirksam trennen und unterbrochenen Zeichen verschmelzen kann.
  • Beschrieben werden bevorzugte Ausführungsformen für ein Zeichenabtrennungsverfahren in der Fahrzeug-Nummernschilderkennung (die als Erläuterung dienen sollen und nicht als Einschränkung). Fachleute können anhand der obigen Lehren Abwandlungen und Veränderungen vornehmen. An den besonderen offenbarten Ausführungsformen der Erfindung können natürlich Veränderungen vorgenommen werden, die in den Bereich der Erfindung fallen, der durch die beigefügten Ansprüche umrissen wird.

Claims (11)

  1. Verfahren zum Abtrennen und Erkennen von Nummernschildern, umfassend die Schritte: Erfassen (10) eines Bilds eines Nummernschilds; Vorverarbeiten (11) des Bilds, damit das Bild für das Abtrennen und das Erkennen vorbereitet wird; Vorwärtstrennen (114) von Bereichen des Nummernschildbilds in vermutete Zeichenbereiche; Erkennen (115) der vermuteten Zeichenbereiche im Bild des Nummernschilds und Erzeugen eines Vertrauenswerts abhängig von der Wahrscheinlichkeit einer korrekten Übereinstimmung; falls die vermuteten Zeichen einen Vertrauenswert unterhalb eines Grenzwerts aufweisen, das Rückwärtsverschmelzen (116) benachbarter vermuteter Zeichenbereiche, damit Regionen im Bild bewertet werden und ermittelt wird, ob ein höherer Vertrauenswert durch das Zusammenfassen von Regionen erreichbar ist; Erkennen der rückwärts verschmolzenen vermuteten Zeichenbereiche im Nummernschild; und falls die rückwärts verschmolzenen vermuteten Zeichenbereiche einen Vertrauenswert unterhalb des Grenzwerts aufweisen, das Wiederholen des Rückwärtsverschmelzens und der Erkennungsschritte, wobei der Schritt des Vorverarbeitens des Bilds zum Vorbereiten des Bilds für das Abtrennen und das Erkennen die Schritte umfasst: Verfeinern (18) einer Position des Nummernschilds durch: das Ermitteln einer Zeichenhöhe auf dem Nummernschildbild durch das Verwenden einer Projektionsfunktion; das Berechnen einer räumlichen Varianz zum Bestimmen einer Mittenposition des Zeichens; das Verwenden der Mittenposition und der Höhe des Zeichens zum Verkleinern der Größe einer interessierenden Region durch das Erfassen der Kanten einer Plattengrenze und das Berechnen einer Länge der Kanten zum Erkennen der interessierenden Region.
  2. Programmspeichervorrichtung, die maschinenlesbar ist und greifbar ein Programm aus Befehlen verwirklicht, die die Maschine ausführen kann, damit sie Verfahrensschritte zum Abtrennen und Erkennen von Nummernschildern ausführt, wobei die Verfahrensschritte umfassen: Erfassen (10) eines Bilds eines Nummernschilds; Vorverarbeiten (11) des Bilds, damit das Bild für das Abtrennen und das Erkennen vorbereitet wird; Vorwärtstrennen (114) von Bereichen des Nummernschildbilds in vermutete Zeichenbereiche; Erkennen (115) der vermuteten Zeichenbereiche im Bild des Nummernschilds und Erzeugen eines Vertrauenswerts abhängig von der Wahrscheinlichkeit einer korrekten Übereinstimmung; falls die vermuteten Zeichen einen Vertrauenswert unterhalb eines Grenzwerts aufweisen, das Rückwärtsverschmelzen (116) benachbarter vermuteter Zeichenbereiche, damit Regionen im Bild bewertet werden und ermittelt wird, ob ein höherer Vertrauenswert durch das Zusammenfassen von Regionen erreichbar ist; Erkennen der rückwärts verschmolzenen vermuteten Zeichenbereiche im Nummernschild; und falls die rückwärts verschmolzenen vermuteten Zeichenbereiche einen Vertrauenswert unterhalb des Grenzwerts aufweisen, das Wiederholen des Rückwärtsverschmelzens und der Erkennungsschritte, wobei der Schritt des Vorverarbeitens des Bilds zum Vorbereiten des Bilds für das Abtrennen und das Erkennen die Schritte umfasst: Verfeinern (18) einer Position des Nummernschilds durch: das Ermitteln einer Zeichenhöhe auf dem Nummernschildbild durch das Verwenden einer Projektionsfunktion; das Berechnen einer räumlichen Varianz zum Bestimmen einer Mittenposition des Zeichens; das Verwenden der Mittenposition und der Höhe des Zeichens zum Verkleinern der Größe einer interessierenden Region durch das Erfassen der Kanten einer Plattengrenze und das Berechnen einer Länge der Kanten zum Erkennen der interessierenden Region.
  3. Verfahren nach Anspruch 1 oder Programmspeichervorrichtung nach Anspruch 2, wobei der Schritt des Erkennens (115) von vermuteten Zeichenbereichen im Bild des Nummernschilds das Ermitteln von Regionen mit einem Vertrauenswert unter einem Grenzwert enthält, und der Schritt des Vorwärtstrennens (114) von Regionen den Schritt des Abtrennens sich berührender oder sich überlappender Zeichen in benachbarten vermuteten Zeichenbereichen durch das Anwenden einer Unterscheidungsfunktion abhängig von Konturprojektionen der Zeichen enthält.
  4. Verfahren oder Programmspeichervorrichtung nach Anspruch 3, wobei der Schritt des Abtrennens sich berührender oder sich überlappender Zeichen iterativ angewendet wird, um den Grenzwert eines Vertrauenswerts zu erreichen.
  5. Verfahren oder Programmspeichervorrichtung nach Anspruch 1 oder 2, wobei der Schritt des Erkennens (115) von vermuteten Zeichenbereichen im Nummernschildbild und das Bereitstellen eines Vertrauenswerts abhängig von einer Wahrscheinlichkeit einer korrekten Übereinstimmung den Schritt der Zeichenerkennung im Bild des Nummernschilds durch das Verwenden mindestens entweder eines neuronalen Netzes oder eines Schablonenvergleichs enthält.
  6. Verfahren oder Programmspeichervorrichtung nach Anspruch 1 oder 2, wobei der Schritt des Erkennens der rückwärts verschmolzenen vermuteten Zeichenbereiche im Nummernschild den Schritt der Zeichenerkennung im Bild des Nummernschilds durch das Verwenden mindestens entweder eines neuronalen Netzes oder eines Schablonenvergleichs enthält.
  7. Verfahren oder Programmspeichervorrichtung nach Anspruch 1 oder 2, wobei der Schritt des Vorverarbeitens des Bilds, damit das Bild für das Abtrennen und Erkennen vorbereitet wird, die Schritte umfasst: Erfassen einer Neigung (16) im Bild des Nummernschilds durch das Erfassen von Kanten und das Wählen von Merkmalspunkten, um ein Projektionsfeld auf den Kanten zu bestimmen; Auswählen des Projektionsfelds mit der höchsten Bewertung, damit ein Drehwinkel bestimmt wird; und Korrigieren des Bilds des Nummernschilds entsprechend dem Drehwinkel.
  8. Verfahren oder Programmspeichervorrichtung nach Anspruch 1 oder 2, wobei der Schritt des Vorverarbeitens des Bilds, damit das Bild für das Abtrennen und Erkennen vorbereitet wird, die Schritte (14) umfasst: Bereitstellen eines Projektionsprofils von Pixelintensitäten auf vertikalen Pixellinien im Bild; Filtern des Projektionsprofils; und Erkennen der Orte von Zeichen im Bild, die durch eine Fläche unter einem Grenzwert im gefilterten Projektionsprofil beschrieben werden.
  9. Verfahren oder Programmspeichervorrichtung nach Anspruch 1 oder 2, zudem umfassend den Schritt des Ausgebens der erkannten Zeichen des Nummernschildbilds.
  10. Verfahren oder Programmspeichervorrichtung nach Anspruch 1 oder 2, zudem umfassend den Schritt des Vergleichens der erkannten Zeichen und Zeichenblöcke mit vorbestimmten Nummernschildcodes und Konventionen, damit die Genauigkeit der Erkennung geprüft wird.
  11. Verfahren nach irgendeinem der vorhergehenden Verfahrensansprüche, wobei das Vorwärtstrennen (14) der Regionen des Nummernschildbilds in vermutete Zeichenbereiche durch das Abtrennen sich berührender oder sich überlappender Zeichen in benachbarten vermuteten Zeichenbereichen erfolgt, und eine Unterscheidungsfunktion abhängig von Konturprojektionen der Zeichen angewendet wird; und wobei das Rückwärtsverschmelzen (116) benachbarter vermuteter Zeichenbereiche stattfindet, falls die vermuteten Zeichen einen Vertrauenswert unter einem Grenzwert haben, der sich vom Wert durch sich berührende oder sich überlappende Zeichen unterscheidet; zudem umfassend die Schritte des Vergleichens erkannter Zeichen und Zeichenblöcke mit vorbestimmten Nummernschildcodes und Konventionen, damit die Genauigkeit der Erkennung geprüft wird; und das Ausgeben erkannter Zeichen des Nummernschildbilds.
DE60031929T 1999-09-15 2000-09-07 Verfahren zum Trennen von Zeichen für die Erkennung von Kraftfahrzeugskennzeichenschildern Expired - Lifetime DE60031929T2 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US396952 1999-09-15
US09/396,952 US6473517B1 (en) 1999-09-15 1999-09-15 Character segmentation method for vehicle license plate recognition

Publications (2)

Publication Number Publication Date
DE60031929D1 DE60031929D1 (de) 2007-01-04
DE60031929T2 true DE60031929T2 (de) 2007-03-15

Family

ID=23569273

Family Applications (1)

Application Number Title Priority Date Filing Date
DE60031929T Expired - Lifetime DE60031929T2 (de) 1999-09-15 2000-09-07 Verfahren zum Trennen von Zeichen für die Erkennung von Kraftfahrzeugskennzeichenschildern

Country Status (5)

Country Link
US (1) US6473517B1 (de)
EP (1) EP1085456B1 (de)
AT (1) ATE346350T1 (de)
DE (1) DE60031929T2 (de)
ES (1) ES2275474T3 (de)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102009006829A1 (de) 2009-01-30 2010-08-05 Siemens Aktiengesellschaft Verfahren und System zur Ermittlung von Verkehrsinformation
DE10066477B3 (de) * 1999-02-12 2016-06-30 Fisher-Rosemount Systems, Inc. Tragbarer Computer in einer Prozesssteuerungsumgebung

Families Citing this family (129)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE50001023D1 (de) * 1999-06-15 2003-02-06 Infineon Technologies Ag Verfahren und schaltungsanordnung zur kontrastverbesserung eines bildes
US6801660B1 (en) 2000-08-22 2004-10-05 Microsoft Corporation Method and system for maintaining alternates in association with recognized words
US6771817B1 (en) 2000-08-22 2004-08-03 Microsoft Corporation Method and system for extending ink word data structures while maintaining version compatibility
US6785417B1 (en) 2000-08-22 2004-08-31 Microsoft Corp Method and system for searching for words in ink word documents
US6754386B1 (en) * 2000-08-22 2004-06-22 Microsft Corporation Method and system of matching ink processor and recognizer word breaks
US6836759B1 (en) * 2000-08-22 2004-12-28 Microsoft Corporation Method and system of handling the selection of alternates for recognized words
US7031553B2 (en) * 2000-09-22 2006-04-18 Sri International Method and apparatus for recognizing text in an image sequence of scene imagery
US7738706B2 (en) * 2000-09-22 2010-06-15 Sri International Method and apparatus for recognition of symbols in images of three-dimensional scenes
US6823084B2 (en) * 2000-09-22 2004-11-23 Sri International Method and apparatus for portably recognizing text in an image sequence of scene imagery
US6714694B1 (en) * 2000-11-27 2004-03-30 Xerox Corporation Method for sliding window image processing of associative operators
US6873732B2 (en) * 2001-07-09 2005-03-29 Xerox Corporation Method and apparatus for resolving perspective distortion in a document image and for calculating line sums in images
US20030113015A1 (en) * 2001-12-18 2003-06-19 Toshiaki Tanaka Method and apparatus for extracting text information from moving image
JP2004005364A (ja) * 2002-04-03 2004-01-08 Fuji Photo Film Co Ltd 類似画像検索システム
US6986106B2 (en) 2002-05-13 2006-01-10 Microsoft Corporation Correction widget
US7379421B1 (en) * 2002-07-23 2008-05-27 At&T Delaware Intellectual Property, Inc. System and method for forwarding messages
US7137076B2 (en) * 2002-07-30 2006-11-14 Microsoft Corporation Correcting recognition results associated with user input
US7382277B2 (en) 2003-02-12 2008-06-03 Edward D. Ioli Trust System for tracking suspicious vehicular activity
US20040167861A1 (en) * 2003-02-21 2004-08-26 Hedley Jay E. Electronic toll management
EP1460835B1 (de) * 2003-03-19 2018-11-14 InterDigital Madison Patent Holdings Verfahren zur Identifizierung von Marken in Videosequenzen
EP1463301A1 (de) * 2003-03-19 2004-09-29 Thomson Licensing S.A. Verfahren zur Identifizierung von Marken in Videosequenzen
JP4189654B2 (ja) * 2003-04-18 2008-12-03 セイコーエプソン株式会社 画像処理装置
US20050084134A1 (en) * 2003-10-17 2005-04-21 Toda Sorin M. License plate recognition
US20060030985A1 (en) * 2003-10-24 2006-02-09 Active Recognition Technologies Inc., Vehicle recognition using multiple metrics
US7848573B2 (en) * 2003-12-03 2010-12-07 Microsoft Corporation Scaled text replacement of ink
US7506271B2 (en) * 2003-12-15 2009-03-17 Microsoft Corporation Multi-modal handwriting recognition correction
TWI231702B (en) * 2004-01-16 2005-04-21 Univ Nat Taiwan Science Tech Segment based image registration method
US7447358B2 (en) * 2004-03-31 2008-11-04 Intel Corporation Image segmentation using branch and bound analysis
FR2872660B1 (fr) * 2004-07-05 2006-12-22 Eastman Kodak Co Appareil de prise de vue et procede pour la formation d'images annotees
IL162878A0 (en) * 2004-07-06 2005-11-20 Hi Tech Solutions Ltd Multi-level neural network based characters identification method and system
US7460711B2 (en) * 2004-08-27 2008-12-02 Avago Technologies Ecbu Ip (Singapore) Pte. Ltd. Efficient method for reading meter values by processing digital images of a meter
US7302098B2 (en) * 2004-12-03 2007-11-27 Motorola, Inc. Character segmentation method and apparatus
US7231288B2 (en) * 2005-03-15 2007-06-12 Visteon Global Technologies, Inc. System to determine distance to a lead vehicle
EP1917639A4 (de) * 2005-08-25 2017-11-08 Ricoh Company, Ltd. Bildverarbeitungsverfahren und -vorrichtung, digitalkamera und ein bildverarbeitungsprogramm aufzeichnendes aufzeichnungsmedium
US7613328B2 (en) * 2005-09-09 2009-11-03 Honeywell International Inc. Label detection
US20070058856A1 (en) * 2005-09-15 2007-03-15 Honeywell International Inc. Character recoginition in video data
US7382280B2 (en) * 2005-10-17 2008-06-03 Cleverdevices, Inc. Parking violation recording system and method
US20130163823A1 (en) * 2006-04-04 2013-06-27 Cyclops Technologies, Inc. Image Capture and Recognition System Having Real-Time Secure Communication
US20130163822A1 (en) * 2006-04-04 2013-06-27 Cyclops Technologies, Inc. Airborne Image Capture and Recognition System
DE102007012458A1 (de) 2007-03-15 2008-09-18 Robert Bosch Gmbh Verfahren zur Objektbildung
JP5011508B2 (ja) * 2007-04-27 2012-08-29 日本電産サンキョー株式会社 文字列認識方法及び文字列認識装置
WO2009052578A1 (en) * 2007-10-24 2009-04-30 Sensen Networks Pty Ltd Verification of identification of an image characteristic over multiple images
US8023741B2 (en) 2008-05-23 2011-09-20 Sharp Laboratories Of America, Inc. Methods and systems for detecting numerals in a digital image
US8023770B2 (en) * 2008-05-23 2011-09-20 Sharp Laboratories Of America, Inc. Methods and systems for identifying the orientation of a digital image
KR101035744B1 (ko) * 2008-12-08 2011-05-20 삼성전자주식회사 카메라를 이용한 문자 인식 장치 및 방법
US8306327B2 (en) * 2008-12-30 2012-11-06 International Business Machines Corporation Adaptive partial character recognition
TWI381321B (zh) * 2009-04-30 2013-01-01 Ind Tech Res Inst 重組多張影像與辨識方法以及影像擷取與辨識系統
TWI384408B (zh) * 2009-04-30 2013-02-01 Ind Tech Res Inst 影像辨識以及輸出方法與其系統
CN101882219B (zh) * 2009-05-08 2013-09-11 财团法人工业技术研究院 图像辨识以及输出方法及其系统
TWI409718B (zh) * 2009-12-04 2013-09-21 Huper Lab Co Ltd 移動中車輛之車牌定位方法
TWI478074B (zh) * 2010-12-01 2015-03-21 Inst Information Industry 文字辨識方法、裝置以及儲存其之電腦可讀取紀錄媒體
KR101727137B1 (ko) * 2010-12-14 2017-04-14 한국전자통신연구원 텍스트 영역의 추출 방법, 추출 장치 및 이를 이용한 번호판 자동 인식 시스템
CN102043959B (zh) * 2010-12-28 2012-09-26 青岛海信网络科技股份有限公司 车牌字符分割方法
EP2666123A4 (de) 2011-01-18 2017-03-08 RTC Vision Ltd. System und verfahren für verbesserte zeichenerkennung in verzerrten bildern
US8483440B2 (en) * 2011-04-13 2013-07-09 Xerox Corporation Methods and systems for verifying automatic license plate recognition results
CN102222226B (zh) * 2011-06-21 2013-01-23 杭州电子科技大学 一种基于先验分析的迭代式车牌字符分割方法
US8731244B2 (en) * 2011-07-28 2014-05-20 Xerox Corporation Systems and methods for improving image recognition
DE102011053052B3 (de) * 2011-08-26 2013-02-28 Jenoptik Robot Gmbh Verfahren und Vorrichtung zur Identifikation von Kraftfahrzeugen zur Verkehrsüberwachung
US8644561B2 (en) 2012-01-18 2014-02-04 Xerox Corporation License plate optical character recognition method and system
US9053361B2 (en) 2012-01-26 2015-06-09 Qualcomm Incorporated Identifying regions of text to merge in a natural image or video frame
US9064191B2 (en) 2012-01-26 2015-06-23 Qualcomm Incorporated Lower modifier detection and extraction from devanagari text images to improve OCR performance
EP2645305A3 (de) * 2012-03-26 2014-05-14 Tata Consultancy Services Limited System und Verfahren zum Verarbeiten eines Bildes zum Identifizieren von alfanumerischen Zeichen in einer Serie
US8781172B2 (en) * 2012-03-30 2014-07-15 Xerox Corporation Methods and systems for enhancing the performance of automated license plate recognition applications utilizing multiple results
US8934676B2 (en) 2012-05-04 2015-01-13 Xerox Corporation Robust character segmentation for license plate images
CN102722707A (zh) * 2012-06-11 2012-10-10 复旦大学 基于连通区域和间隙模型的车牌字符分割方法
US9014480B2 (en) 2012-07-19 2015-04-21 Qualcomm Incorporated Identifying a maximally stable extremal region (MSER) in an image by skipping comparison of pixels in the region
US9262699B2 (en) 2012-07-19 2016-02-16 Qualcomm Incorporated Method of handling complex variants of words through prefix-tree based decoding for Devanagiri OCR
US9141874B2 (en) 2012-07-19 2015-09-22 Qualcomm Incorporated Feature extraction and use with a probability density function (PDF) divergence metric
US9047540B2 (en) 2012-07-19 2015-06-02 Qualcomm Incorporated Trellis based word decoder with reverse pass
US9076242B2 (en) 2012-07-19 2015-07-07 Qualcomm Incorporated Automatic correction of skew in natural images and video
CN103065138B (zh) * 2012-12-06 2015-07-15 中通服公众信息产业股份有限公司 一种机动车牌号的识别方法
CN103207998A (zh) * 2012-12-24 2013-07-17 电子科技大学 一种基于支持向量机的车牌字符分割方法
JP6080586B2 (ja) * 2013-02-13 2017-02-15 株式会社ファインデックス 文字認識システム、文字認識プログラム及び文字認識方法
US9122953B2 (en) 2013-04-15 2015-09-01 Xerox Corporation Methods and systems for character segmentation in automated license plate recognition applications
US9002066B2 (en) * 2013-05-06 2015-04-07 Xerox Corporation Methods, systems and processor-readable media for designing a license plate overlay decal having infrared annotation marks
US9082038B2 (en) 2013-05-29 2015-07-14 Xerox Corporation Dram c adjustment of automatic license plate recognition processing based on vehicle class information
US9042647B2 (en) * 2013-06-06 2015-05-26 Xerox Corporation Adaptive character segmentation method and system for automated license plate recognition
CN103530600B (zh) * 2013-06-06 2016-08-24 东软集团股份有限公司 复杂光照下的车牌识别方法及系统
US9530310B2 (en) 2013-11-01 2016-12-27 Xerox Corporation Method and system for detecting and tracking a vehicle of interest utilizing a network of traffic image-capturing units
US9213910B2 (en) 2013-11-06 2015-12-15 Xerox Corporation Reinforcement learning approach to character level segmentation of license plate images
TW201540336A (zh) * 2014-01-24 2015-11-01 Sanofi Aventis Deutschland 用於附接至注射裝置之輔助裝置
JP5821994B2 (ja) * 2014-04-21 2015-11-24 富士ゼロックス株式会社 画像処理装置、画像形成装置およびプログラム
DK3167408T3 (da) * 2014-07-10 2024-03-04 Sanofi Aventis Deutschland Anordning og fremgangsmåde til udførelse af optisk tegngenkendelse
CN104239878B (zh) * 2014-08-30 2017-05-10 电子科技大学 一种基于概率极值搜索的车牌字符识别方法
CN104268978B (zh) * 2014-09-24 2017-02-15 苏州佳世达光电有限公司 纸钞序号辨识方法
US9460367B2 (en) * 2014-11-26 2016-10-04 Xerox Corporation Method and system for automating an image rejection process
US9400936B2 (en) * 2014-12-11 2016-07-26 Xerox Corporation Methods and systems for vehicle tag number recognition
US9536315B2 (en) 2015-01-13 2017-01-03 Xerox Corporation Annotation free license plate recognition method and system
CN104616009B (zh) * 2015-02-13 2018-05-18 广州广电运通金融电子股份有限公司 一种字符切割识别方法
JP6487255B2 (ja) * 2015-03-31 2019-03-20 日本電産サンキョー株式会社 文字切り出し装置、文字認識装置、および文字切り出し方法
US10901967B2 (en) 2015-04-09 2021-01-26 Veritoll, Llc License plate matching systems and methods
US9501707B2 (en) 2015-04-16 2016-11-22 Xerox Corporation Method and system for bootstrapping an OCR engine for license plate recognition
US9418305B1 (en) 2015-04-29 2016-08-16 Xerox Corporation Segmentation free approach to automatic license plate recognition
US10657404B2 (en) * 2015-07-17 2020-05-19 Rakuten, Inc. Character recognition device, character recognition method, and character recognition program
CN105447487A (zh) * 2015-08-27 2016-03-30 中山大学 一种车牌识别系统的评测方法及系统
US11587327B2 (en) 2015-10-01 2023-02-21 Intellivision Technologies Corp Methods and systems for accurately recognizing vehicle license plates
US10706330B2 (en) 2015-10-01 2020-07-07 Intellivision Technologies Corp Methods and systems for accurately recognizing vehicle license plates
CN105259252B (zh) * 2015-10-15 2018-09-21 浙江大学 超声相控阵检测聚乙烯电熔接头缺陷类型自动识别方法
US9836646B2 (en) * 2015-10-15 2017-12-05 I.R.I.S. Method for identifying a character in a digital image
CN105447457A (zh) * 2015-11-15 2016-03-30 安徽清新互联信息科技有限公司 一种基于自适应特征的车牌字符识别方法
CN105405298B (zh) * 2015-12-24 2018-01-16 浙江宇视科技有限公司 一种车牌标识的识别方法和装置
US10068146B2 (en) 2016-02-25 2018-09-04 Conduent Business Services, Llc Method and system for detection-based segmentation-free license plate recognition
CN107273892B (zh) * 2017-06-12 2020-06-16 北京智芯原动科技有限公司 一种车牌字符分割方法及装置
US10950124B2 (en) 2017-08-22 2021-03-16 Q-Free Netherlands B.V. License plate recognition
CN107704857B (zh) * 2017-09-25 2020-07-24 北京邮电大学 一种端到端的轻量级车牌识别方法及装置
WO2019070300A1 (en) * 2017-10-06 2019-04-11 Google Llc SYSTEMS AND METHODS FOR IMAGE SWITCHING
CN109960978A (zh) * 2017-12-25 2019-07-02 大连楼兰科技股份有限公司 基于图像分层技术的车辆检测系统及装置
GB2571530B (en) * 2018-02-28 2020-09-23 Canon Europa Nv An image processing method and an image processing system
CN110728278A (zh) * 2018-07-16 2020-01-24 杭州海康威视数字技术股份有限公司 车牌识别方法及装置
CN109117822A (zh) * 2018-08-31 2019-01-01 贵州大学 一种基于深度学习的零件实例分割识别方法
CN109165635A (zh) * 2018-09-27 2019-01-08 珠海格力电器股份有限公司 显示屏中光符标记的视觉检测系统及其方法与智能终端
CN109635804A (zh) * 2018-12-06 2019-04-16 北京联合大学 一种基于SIFT和kNN的车牌识别方法及系统
CN111325210A (zh) * 2018-12-14 2020-06-23 北京京东尚科信息技术有限公司 用于输出信息的方法和装置
CN109766805B (zh) * 2018-12-28 2022-12-09 安徽清新互联信息科技有限公司 一种基于深度学习的双层车牌字符识别方法
CN109753914B (zh) * 2018-12-28 2023-05-30 安徽清新互联信息科技有限公司 一种基于深度学习的车牌字符识别方法
CN109815956B (zh) * 2018-12-28 2022-12-09 安徽清新互联信息科技有限公司 一种基于自适应位置分割的车牌字符识别方法
US10616443B1 (en) * 2019-02-11 2020-04-07 Open Text Sa Ulc On-device artificial intelligence systems and methods for document auto-rotation
US11227174B1 (en) 2019-06-10 2022-01-18 James Alves License plate recognition
CN110443251A (zh) * 2019-08-13 2019-11-12 树根互联技术有限公司 仪表图像识别方法及装置
CN110598703B (zh) * 2019-09-24 2022-12-20 深圳大学 一种基于深度神经网络的ocr识别方法及装置
CN111709417B (zh) * 2020-05-28 2023-09-22 西安理工大学 一种矿车车牌识别方法
CN111881741A (zh) * 2020-06-22 2020-11-03 浙江大华技术股份有限公司 车牌识别方法、装置、计算机设备和计算机可读存储介质
US20220058415A1 (en) * 2020-08-24 2022-02-24 Electronic Transaction Consultants, Llc Gamified Alphanumeric Character Identification
CN112381088A (zh) * 2020-11-11 2021-02-19 上善智城(苏州)信息科技有限公司 一种油罐车车牌识别方法及系统
CN112733856B (zh) * 2020-12-31 2022-08-09 成都福立盟环保大数据有限公司 一种大型车辆放大车牌的识别方法
CN113516123B (zh) * 2021-05-14 2023-11-24 南京工程学院 一种针对轮胎压印字符的检测识别方法
US11615634B2 (en) * 2021-07-01 2023-03-28 International Business Machines Corporation Character recognition of license plate under complex background
CN114627653B (zh) * 2022-05-12 2022-08-02 浙江电马云车科技有限公司 基于双目识别的5g智能道闸管理系统
CN115082923B (zh) * 2022-08-24 2022-11-08 成都工业学院 一种基于机器视觉的牛奶包装盒生产日期识别方法
CN116109663B (zh) * 2023-04-04 2023-06-23 山东大学第二医院 基于多阈值分割的胃部ct影像分割方法

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS5998283A (ja) * 1982-11-27 1984-06-06 Hitachi Ltd パターン切出しおよび認識方法、ならびにそのシステム
JPS6274181A (ja) * 1985-09-27 1987-04-04 Sony Corp 文字認識装置
EP0446630A3 (en) * 1990-03-12 1993-02-24 International Business Machines Corporation Method and apparatus for segmenting characters in an amount field on a financial document
EP0631683B1 (de) * 1992-03-20 2001-08-01 Commonwealth Scientific And Industrial Research Organisation Gegenstands-überwachungsystem
CA2135240A1 (en) * 1993-12-01 1995-06-02 James F. Frazier Automated license plate locator and reader
JP3805005B2 (ja) * 1994-11-09 2006-08-02 キヤノン株式会社 画像処理装置及び光学的文字認識装置及びそれらの方法
US5799276A (en) * 1995-11-07 1998-08-25 Accent Incorporated Knowledge-based speech recognition system and methods having frame length computed based upon estimated pitch period of vocalic intervals
SG71018A1 (en) * 1997-03-01 2000-03-21 Inst Of Systems Science Nat Un Robust identification code recognition system

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE10066477B3 (de) * 1999-02-12 2016-06-30 Fisher-Rosemount Systems, Inc. Tragbarer Computer in einer Prozesssteuerungsumgebung
DE102009006829A1 (de) 2009-01-30 2010-08-05 Siemens Aktiengesellschaft Verfahren und System zur Ermittlung von Verkehrsinformation

Also Published As

Publication number Publication date
ATE346350T1 (de) 2006-12-15
EP1085456A2 (de) 2001-03-21
DE60031929D1 (de) 2007-01-04
EP1085456B1 (de) 2006-11-22
US6473517B1 (en) 2002-10-29
ES2275474T3 (es) 2007-06-16
EP1085456A3 (de) 2004-03-03

Similar Documents

Publication Publication Date Title
DE60031929T2 (de) Verfahren zum Trennen von Zeichen für die Erkennung von Kraftfahrzeugskennzeichenschildern
DE60030377T2 (de) Kennzeichenschilderkennung mit einer intelligenten Kamera
DE102006057552B4 (de) System und Verfahren zur Messung des Abstands eines vorausfahrenden Fahrzeugs
EP2467828B1 (de) Verfahren und system zur automatischen objekterkennung und anschliessenden objektverfolgung nach massgabe der objektform
DE69533054T2 (de) Mehrfenstertechnik zur Schwellenwertverarbeitung eines Bildes unter Verwendung lokaler Bildeigenschaften
Prabhakar et al. Automatic vehicle number plate detection and recognition
DE102017220307B4 (de) Vorrichtung und Verfahren zum Erkennen von Verkehrszeichen
DE102013207484A1 (de) Nummernschildzeichensegmentierung unter Verwendung von Wahrscheinlichkeitsmaximierung
DE102014214448A1 (de) Vorrichtung und Verfahren zur Erkennung eines Verkehrszeichens
DE19705757A1 (de) Verfahren und Gerät für das Design eines hoch-zuverlässigen Mustererkennungs-Systems
DE102006005512A1 (de) System und Verfahren zur Messung der Entfernung eines vorausfahrenden Fahrzeugs
WO2009019250A2 (de) Verfahren und einrichtung zur objekterkennung in einem bild
DE102017220752A1 (de) Bildverarbeitungsvorrichtung, Bildbverarbeitungsverfahren und Bildverarbeitungsprogramm
Islam et al. An efficient method for extraction and recognition of bangla characters from vehicle license plates
EP0564858B1 (de) Verfahren zur Auflösung von Clustern bewegter Segmente
EP2549408A1 (de) Verfahren zur Detektion und Klassifikation von Objekten
Choudhury et al. A new zone based algorithm for detection of license plate from Indian vehicle
EP1329856B1 (de) Verfahren zur Erkennung eines Prägebildes einer Münze in einem Münzautomaten
DE102015200434A1 (de) Verfahren und Vorrichtung zur Verbesserung der Objekterkennung bei unterschiedlichenBeleuchtungssituationen
EP3259703B1 (de) Mobilgerät zum erfassen eines textbereiches auf einem identifikationsdokument
Tyan et al. Character segmentation algorithm for recognition of vehicle license plate
DE102015200437A1 (de) Verfahren und Vorrichtung zur Ermittlung der Konfidenz einer Objekterkennung
DE10301634B4 (de) Lokal-adaptive Objekterkennung für digitales Bildmaterial
Poursiyah et al. An Effective and Fast Iranian License Plate Detection Using Statistical and Geometrical Approaches
DE102017212426A1 (de) Verfahren und Vorrichtung zum Reduzieren einer Anzahl von Detektionskandidaten eines Objekterkennungsverfahrens

Legal Events

Date Code Title Description
8364 No opposition during term of opposition
8328 Change in the person/name/address of the agent

Representative=s name: MAIER, D., DIPL.-ING. UNIV., PAT.-ASS., 85221 DACH

8327 Change in the person/name/address of the patent owner

Owner name: SIEMENS CORP. (N. D. GES. D. STAATES DELAWARE), US