EP2208170A1 - Method for image analysis, especially for mobile stations - Google Patents

Method for image analysis, especially for mobile stations

Info

Publication number
EP2208170A1
EP2208170A1 EP08848083A EP08848083A EP2208170A1 EP 2208170 A1 EP2208170 A1 EP 2208170A1 EP 08848083 A EP08848083 A EP 08848083A EP 08848083 A EP08848083 A EP 08848083A EP 2208170 A1 EP2208170 A1 EP 2208170A1
Authority
EP
European Patent Office
Prior art keywords
pixel
list
letters
value
pixel groups
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Ceased
Application number
EP08848083A
Other languages
German (de)
French (fr)
Inventor
Gerd Mosakowski
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Deutsche Telekom AG
Original Assignee
T Mobile International AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by T Mobile International AG filed Critical T Mobile International AG
Publication of EP2208170A1 publication Critical patent/EP2208170A1/en
Ceased legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • G06V30/18Extraction of features or characteristics of the image
    • G06V30/1801Detecting partial patterns, e.g. edges or contours, or configurations, e.g. loops, corners, strokes or intersections
    • G06V30/18076Detecting partial patterns, e.g. edges or contours, or configurations, e.g. loops, corners, strokes or intersections by analysing connectivity, e.g. edge linking, connected component analysis or slices
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition

Definitions

  • the invention relates to a method for image analysis, in particular for a mobile device with built-in digital camera for automatic optical character recognition (OCR), according to the preamble of patent claim 1 or 2.
  • OCR optical character recognition
  • Handheld scanners that display, save or transfer scanned text to a computer screen. There are always problems when the original is scanned askew, or only letters of the fragments can be recognized (for example, flag inscribed in the wind). In addition, such techniques fail when direct scanning is not possible (e.g., roadside signage). According to the current state of the art, such an image could be recorded with a high resolution, which can be subsequently scanned. However, there is no direct OCR in the camera itself, as it is too computationally intensive with conventional methods.
  • Pattern Matching or, as in the case of handwriting recognition, with the description of the letters by lines and crossing points Pattern matching can be used particularly well in the case of standardized letters (eg In the case of license plate recognition, the characters to be recognized are limited to a small number, which are also standardized.
  • DE 10025017 A1 discloses a mobile phone, which in particular for a simpler application and use of additional services and functions such. As short message service, payment transactions, identity or security checks, etc. is suitable.
  • the mobile phone has an integrated device for reading characters, symbols codes and / or identity features, which is a scanner, a bar code reader or a fingerprint reader in the form of a CCD sensor, thus providing a comfortable and fast input and capture of text, Symbols or safety-relevant characteristics possible.
  • DE 202005018376 U1 discloses a mobile telephone with keyboard, screen, data processing system and an optical scanning system arranged behind an opening or a window of the housing, in particular a hand-held scanner, and an integrated translation program.
  • the optical scanning system makes it possible to scan characters and / or words available in another language. Selecting the language translates the word or words.
  • the user of the mobile phone is able to read him strange words and texts. This can be beneficial menus, warnings, operating instructions and maps and signs.
  • users can also enter words themselves from the keyboard of the mobile phone or select from an encyclopedia contained in the memory of the data processing system. By interconnecting the data processing system with the screen and keyboard, the choice of language translates these words and displays them on the screen.
  • DE 10163688 A1 discloses a method and a system for tracking goods which are provided with an optically readable, alphanumeric identification, as well as a detection device therefor.
  • the marking is captured as an image by the recording device and converted into image data.
  • These are sent by the detection device by radio to a receiver which is connected to a computer system, which further evaluates the image data.
  • the image data are evaluated before being sent to the receiver in the detection device. How exactly the evaluation of the image data is done, is not disclosed in detail.
  • Object of the present invention is therefore to provide a generic method for image processing in mobile devices with digital camera, which works much more accurate and faster.
  • the invention is characterized by the features of independent claim 1 or 2.
  • Advantage of the invention is a more robust OCR detection with optional translation in real time (real-time), which also manages with relatively little computing power.
  • the robustness refers in particular to the fact that detection works better than conventional systems even under poor conditions (especially light conditions, overlapping interference).
  • this is achieved by first performing an adaptive pixel group-optimized preprocessing, which searches the image for lines.
  • the most important distinguishing feature of the previously known methods is that now no further direct pattern comparison takes place, but an attempt is made to trace the lines as optimally as possible. From the sequence of movements is then closed on the corresponding character. Because this sequence of movements scale well and describe with relatively little effort This technology is currently suitable for mobile use.
  • the sequence of movements of known characters is stored in a search word, so that the movement can be concluded directly on the letter.
  • a dictionary / lexicon can be used. If words are recognized by the dictionary / lexicon, the recognized letters can be used for even more optimized character recognition.
  • Application scenarios are camera mobile phones for tourists abroad, in particular to read traffic signs, menu cards, general information signs.
  • the content can be translated into a second language.
  • the translation is shown to the user on the display, or read out via a "text to speech application”.
  • the robustness of the recognition is based initially on a normalization of the line widths or letter sizes. Subsequently, the letters are traced, in which case the actual letters are recognized during the tracing.
  • the robustness of the detection method results from the combination of different solution steps. Due to the normalization of the bar widths, shadow effects and poor lighting conditions have hardly any influence on the detection rate. Due to the size norms, the
  • the image is converted into electrical signals with an image recording element (for example a CCD camera). These signals are then stored according to the method of the patent DE 101 13 880 B4 in a prioritized array.
  • a position factor can also be included in the prioritization. The position factor is the greater, the closer the pixel group is to the starting pixel.
  • the Startpixel is located in the western languages (English, German, French) first in the upper left corner of the array.
  • the pixel groups here can also vary during the recognition process.
  • An example of a pixel group is a one-line horizontal array of pixels whose length is dependent on a double change in brightness. For dark letters to be recognized on a light background, the distance between the first light-dark transition and the subsequent dark-light transition would then be a size for an assumed stroke width. Pixel groups of the same assumed bar widths are each compiled in a separate list.
  • a low-pass filter In this filter, the sum of n adjacent pixels is taken in each case to find corresponding light-dark, or dark-light transitions. Due to the summation, any pixel errors or errors due to strong noise are greatly reduced.
  • each list thus obtained is sorted in such a way that the pixel groups which have a lower Y position are sorted in descending order. If several similar pixel groups are at the same Y positions, new lists are created for them. From these lists, an attempt is now made to derive corresponding vectors. In the process, the pixel groups with the lowest and highest Y values are selected from the respective lists. Between these pixel group positions a line is calculated. Then the deviations of the other pixel groups to this line are determined. If all deviations are below a certain threshold, then a description vector has been found for this list.
  • the list is split and an attempt is made to generate corresponding vectors for each sub-list. It makes sense to divide the list where the largest deviations from the calculated line occurred. In this way one obtains a number of vectors. Touching vectors are summarized in another vector list and sorted according to the Y values. This vector list then describes corresponding letters. The vector list is then normalized (eg to the maximum Y difference). Such a normalized vector list can then go through a solution tree in which the different letters are stored. With this approach you will first recognize only a part of the letters. However, you get in this way first information about the font to be recognized. For large characters you will get double letters.
  • recognition errors with dictionaries could be partially detected and corrected.
  • the output of the recognized characters can be realized both via a display and via a "speech-to-text program".
  • the method described describes an optimized method which forms vectors from pixel-based images, wherein each individual pixel (with a one-line pixel group) only needs to be traversed once.
  • an edge optimization is usually carried out to increase the recognition rate beforehand, and only then is the recognition process started. In the method described above, this is done in one step, so it is both less computationally intensive and more robust.

Abstract

A robust OCR system requiring little computing capacity is obtained by first carrying out an adaptive pre-processing optimised in terms of pixel groups, which analyses the image in line segments. The most significant difference compared to previously known methods is that there is no longer a direct pattern comparison, instead the line segments are gone over in as optimum a manner as possible. The corresponding character is then deduced from the sequence of movements. As this sequence of movements can be scaled well and descibed in a relatively simple manner, this technique is especially suitable for mobile use. The sequence of movements of know characters is stored in a search word, such that the letters can be directly deduced from the movement. A dictionary/lexicon can also be used. If words are recognised by means of the dictionary/lexicon, the recognised letters can be used for an even more optimised character font identification. The invention is advantageous in that a robust OCR system is provided, which also requires little computing capacity. The system according to the invention is robust especially in that the recognition works better than with conventional systems even under bad conditions, especially light ratios and interferences.

Description

Verfahren zur Bildanalyse, insbesondere für ein Mobilfunkqerät Method for image analysis, in particular for a mobile radio device
Die Erfindung betrifft ein Verfahren zur Bildanalyse, insbesondere für ein Mobilfunkgerät mit eingebauter Digitalkamera zur automatischen optischen Zeichenerkennung (OCR), nach dem Oberbegriff des Patentanspruchs 1 oder 2.The invention relates to a method for image analysis, in particular for a mobile device with built-in digital camera for automatic optical character recognition (OCR), according to the preamble of patent claim 1 or 2.
Es gibt eine Vielzahl von OCR-Systemen für PCs. Typischerweise wird ein Flachbett- Scanner zum Einlesen von Texten verwendet. Für den mobilen Einsatz gibt esThere are a variety of OCR systems for PCs. Typically, a flatbed scanner is used to read in texts. There are for mobile use
Handscanner, die den eingescannten Text auf einem Display anzeigen, abspeichern oder auf einen Computer übertragen. Probleme gibt es immer dann, wenn die Vorlage schief eingescannt ist, oder nur Buchstaben der Fragmente zu erkennen sind (zum Beispiel beschriftete Flagge im Wind). Außerdem versagen solche Techniken, wenn kein direktes Einscannen möglich ist (z.B. Hinweisschilder am Straßenrand). Nach heutigem Stand der Technik könnte ein solches Bild mit einer hohen Auflösung aufgenommen werden, welches nachträglich gescannt werden kann. Jedoch findet in der Kamera selbst keine direkte OCR statt, da diese mit herkömmlichen Verfahren zu rechenintensiv ist.Handheld scanners that display, save or transfer scanned text to a computer screen. There are always problems when the original is scanned askew, or only letters of the fragments can be recognized (for example, flag inscribed in the wind). In addition, such techniques fail when direct scanning is not possible (e.g., roadside signage). According to the current state of the art, such an image could be recorded with a high resolution, which can be subsequently scanned. However, there is no direct OCR in the camera itself, as it is too computationally intensive with conventional methods.
Sollen längere Texte erkannt werden, ist es häufig notwendig, mehrere Bilder aufzunehmen und dann zusammenzufügen (360° Fotos zusammensetzen). Um eine ausreichende Qualität zu bekommen, muss der Vorgang in der Regel noch manuell nachgearbeitet werden.If longer texts are to be recognized, it is often necessary to take several pictures and then put them together (put 360 ° photos together). In order to get a sufficient quality, the process usually has to be reworked manually.
Wesentliche Verfahren zur OCR arbeiten mit einem reinen Bitmuster-Vergleich „Pattern-Matching" oder wie bei der Handschrifterkennung mit der Beschreibung der Buchstaben durch Linien und Kreuzungspunkte. Pattern-Matching kann besonders dann gut eingesetzt werden, wenn es sich um normierte Buchstaben handelt (z.B. Kfz-Kennzeichen). Bei der Erkennung von Kennzeichen sind die zu erkennenden Zeichen auf eine kleine Anzahl beschränkt, die zudem normiert sind.Essential procedures for OCR work with a pure bit pattern comparison "Pattern Matching" or, as in the case of handwriting recognition, with the description of the letters by lines and crossing points Pattern matching can be used particularly well in the case of standardized letters (eg In the case of license plate recognition, the characters to be recognized are limited to a small number, which are also standardized.
Weiterhin sind verschiedene Anwendungen im Bereich der Augment-Reality bekannt. Als Beispiel dafür bietet die Überlagerung einer Fotoaufnahme (Satelliten Foto) mit einer Straßenkarte, die die einzelnen Straßennamen anzeigt (www.clicktel.de). Stand der Technik ist ein Verfahren der priorisierenden Pixelgruppen gemäß der DE 10113880 B4 oder der hierzu äquivalenten EP 1371229 B1 , welche die Merkmale nach dem Oberbegriff des Patentanspruchs 2 offenbaren.Furthermore, various applications in the field of augmented reality are known. An example of this is the overlaying of a photograph (satellite photo) with a road map showing the individual street names (www.clicktel.de). The prior art is a method of prioritizing pixel groups according to DE 10113880 B4 or equivalent EP 1371229 B1, which discloses the features according to the preamble of claim 2.
Die DE 10025017 A1 offenbart ein Mobiltelefon, welches insbesondere für eine einfachere Anwendung und Nutzung von Zusatzdiensten und -funktionen, wie z. B. Kurznachrichtendienst, Bezahltransaktionen, Identitäts- oder Sicherheitsüberprüfungen etc. geeignet ist. Das Mobiltelefon besitzt eine integrierte Einrichtung zum Lesen von Zeichen, Symbolen Codes und/oder (Identitäts- Merkmalen, welche ein Scanner, ein Barcodeleser oder ein Fingerabdruckleser in Form eines CCD-Sensors ist. Damit ist eine komfortable und schnelle Eingabe und Erfassung von Text, Symbolen oder sicherheitsrelevanten Merkmalen möglich.DE 10025017 A1 discloses a mobile phone, which in particular for a simpler application and use of additional services and functions such. As short message service, payment transactions, identity or security checks, etc. is suitable. The mobile phone has an integrated device for reading characters, symbols codes and / or identity features, which is a scanner, a bar code reader or a fingerprint reader in the form of a CCD sensor, thus providing a comfortable and fast input and capture of text, Symbols or safety-relevant characteristics possible.
Die DE 202005018376 U1 offenbart ein Mobiltelefon mit Tastatur, Bildschirm, Datenverarbeitungssystem und einem hinter einer Öffnung oder einem Fenster des Gehäuses angeordneten optischen Abtastsystem, insbesondere Handscanner, sowie einem integrierten Übersetzungsprogramm. Über das optische Abtastsystem wird es möglich, in einer anderen Sprache vorhandene Zeichen und/oder Wörter einzuscannen. Mit der Auswahl der Sprache erfolgt die Übersetzung des Wortes oder der Wörter. Dadurch ist der Nutzer des Mobiltelefons in der Lage, ihm fremde Wörter und Texte zu lesen. Das können vorteilhafte Weise Speisekarten, Warnhinweise, Bedienvorschriften und Landkarten sowie Schilder sein. Darüber hinaus kann in der Nutzer auch selbst über die Tastatur des Mobiltelefons Wörter eingeben oder aus einer im Speicher des Datenverarbeitungssystems enthaltenen Enzyklopädie auswählen. Durch die Zusammenschaltung des Datenverarbeitungssystems mit dem Bildschirm und der Tastatur werden durch die Wahl der Sprache diese Wörter übersetzt und auf dem Bildschirm dargestellt.DE 202005018376 U1 discloses a mobile telephone with keyboard, screen, data processing system and an optical scanning system arranged behind an opening or a window of the housing, in particular a hand-held scanner, and an integrated translation program. The optical scanning system makes it possible to scan characters and / or words available in another language. Selecting the language translates the word or words. As a result, the user of the mobile phone is able to read him strange words and texts. This can be beneficial menus, warnings, operating instructions and maps and signs. In addition, users can also enter words themselves from the keyboard of the mobile phone or select from an encyclopedia contained in the memory of the data processing system. By interconnecting the data processing system with the screen and keyboard, the choice of language translates these words and displays them on the screen.
Die DE 10163688 A1 offenbart ein Verfahren und ein System zur Verfolgung von Gütern, die mit einer optisch lesbaren, alphanumerischen Kennzeichnung versehen sind, sowie ein Erfassungsgerät hierfür. Die Kennzeichnung wird als Bild vom Erfassungsgerät erfasst und in Bilddaten umgewandelt. Diese werden vom Erfassungsgerät per Funk an einen Empfänger gesendet, der mit einem Computersystem verbunden ist, welcher die Bilddaten weiter auswertet. Alternativ werden die Bilddaten vor der Versendung an den Empfänger noch im Erfassungsgerät ausgewertet. Wie genau die Auswertung der Bilddaten erfolgt, ist nicht näher offenbart.DE 10163688 A1 discloses a method and a system for tracking goods which are provided with an optically readable, alphanumeric identification, as well as a detection device therefor. The marking is captured as an image by the recording device and converted into image data. These are sent by the detection device by radio to a receiver which is connected to a computer system, which further evaluates the image data. Alternatively, the image data are evaluated before being sent to the receiver in the detection device. How exactly the evaluation of the image data is done, is not disclosed in detail.
Die DE 10 2005 033 001 A1 offenbart bereits ein Verfahren zur Bildverarbeitung in mobilen Endgeräten z.B. Mobiltelefonen mit einer Kamera, welche digitale Bildinformationen aufnimmt und zum Teil dieser Bildinformationen mithilfe von Mustererkennungsverfahren, zum Beispiel Texterkennungsverfahren (OCR) analysiert werden. Wie genau diese Texterkennungsverfahren (OCR) arbeiten, ist jedoch in dieser Druckschrift nicht beschrieben.DE 10 2005 033 001 A1 already discloses a method for image processing in mobile terminals, e.g. Mobile phones with a camera, which receives digital image information and part of this image information using pattern recognition methods, such as text recognition methods (OCR) are analyzed. How exactly these text recognition methods (OCR) work, however, is not described in this document.
Aufgabe der vorliegenden Erfindung ist es daher, ein gattungsgemäßes Verfahren zur Bildverarbeitung in mobilen Endgeräten mit digitaler Kamera bereitzustellen, welches wesentlichen exakter und schneller arbeitet.Object of the present invention is therefore to provide a generic method for image processing in mobile devices with digital camera, which works much more accurate and faster.
Die Erfindung wird durch die Merkmale des unabhängigen Patentanspruches 1 oder 2 gekennzeichnet.The invention is characterized by the features of independent claim 1 or 2.
Vorteilhafte Weiterbildungen sind Gegenstand der abhängigen Patentansprüche.Advantageous developments are the subject of the dependent claims.
Vorteil der Erfindung ist eine robustere OCR-Erfassung mit optionaler Übersetzung in realtime (Echtzeit), die auch mit vergleichsweise wenig Rechenleistung auskommt. Die Robustheit bezieht sich insbesondere darauf, dass die Erkennung auch unter schlechten Bedingungen (insbesondere Lichtverhältnisse, überlagernde Störungen) besser als herkömmliche Systeme funktioniert.Advantage of the invention is a more robust OCR detection with optional translation in real time (real-time), which also manages with relatively little computing power. The robustness refers in particular to the fact that detection works better than conventional systems even under poor conditions (especially light conditions, overlapping interference).
Dies wird zum Einen dadurch erreicht, dass zunächst eine lernfähige pixelgruppenoptimierte Vorverarbeitung stattfindet, die das Bild nach Strichen durchsucht. Wesentlichstes Unterscheidungsmerkmal zu den bisher bekannten Verfahren ist, dass nun kein weiterer direkter Patternvergleich stattfindet, sondern versucht wird, die Striche möglichst optimal nachzuzeichnen. Aus der Bewegungsabfolge wird dann auf das entsprechende Zeichen geschlossen. Da diese Bewegungsabfolge sich gut skalieren und mit relativ wenig Aufwand beschreiben lässt, ist diese Technik gerade für den mobilen Einsatz geeignet. Die Bewegungsabfolge bekannter Zeichen ist in einem Suchwort hinterlegt, so dass aus der Bewegung direkt auf den Buchstaben geschlossen werden kann. Zusätzlich kann noch ein Wörterbuch/Lexikon eingesetzt werden. Werden Wörter anhand des Wörterbuches/Lexikons erkannt, können die erkannten Buchstaben für eine noch optimiertere Schrifterkennung herangezogen werden.On the one hand, this is achieved by first performing an adaptive pixel group-optimized preprocessing, which searches the image for lines. The most important distinguishing feature of the previously known methods is that now no further direct pattern comparison takes place, but an attempt is made to trace the lines as optimally as possible. From the sequence of movements is then closed on the corresponding character. Because this sequence of movements scale well and describe with relatively little effort This technology is currently suitable for mobile use. The sequence of movements of known characters is stored in a search word, so that the movement can be concluded directly on the letter. In addition, a dictionary / lexicon can be used. If words are recognized by the dictionary / lexicon, the recognized letters can be used for even more optimized character recognition.
Anwendungsszenarien sind Kamerahandys für Touristen im Ausland, um insbesondere Verkehrsschilder, Menükarten, allgemeine Hinweisschilder zu lesen. Dabei kann der Inhalt gleich in eine 2. Sprache übersetzt werden. Dem Nutzer wird die Übersetzung auf dem Display angezeigt, oder über eine „Text to Speech- Applikation" (Sprachausgabe von Text)vorgelesen.Application scenarios are camera mobile phones for tourists abroad, in particular to read traffic signs, menu cards, general information signs. The content can be translated into a second language. The translation is shown to the user on the display, or read out via a "text to speech application".
Die Robustheit der Erkennung basiert zunächst auf einer Normierung der Strichbreiten, bzw. Buchstabengrößen. Anschließend werden die Buchstaben nachgezeichnet, wobei dann im Rahmen der Nachzeichnung die eigentlichen Buchstaben erkannt werden. Die Robustheit der Erkennungsmethode ergibt sich aus der Kombination von verschiedenen Lösungsschritten. Durch die Normierung der Strichbreiten haben Schatteneffekte und schlechte Lichtverhältnisse kaum einen Einfluss auf die Erkennungsrate. Durch die Größen-Normierungen können dieThe robustness of the recognition is based initially on a normalization of the line widths or letter sizes. Subsequently, the letters are traced, in which case the actual letters are recognized during the tracing. The robustness of the detection method results from the combination of different solution steps. Due to the normalization of the bar widths, shadow effects and poor lighting conditions have hardly any influence on the detection rate. Due to the size norms, the
Effekte auf z.B. entfernten Schildern ausgeglichen werden. Durch das Nachzeichnen gelangt man durch einfache, wenig aufwändige, aber doch erweiterbare Lösungsbäume zum richtigen Buchstaben bzw. Ziffer. Um die Ergebnisse noch robuster zu machen, kann zusätzlich noch ein Wörterbuch eingesetzt werden. Durch Rückmeldungen von erkannten Wörtern können Lösungsbäume und Strichbreiten der Vorlage entsprechend optimiert werden.Effects on e.g. be compensated by distant signs. By tracing one gets through simple, inexpensive, yet extensible solution trees to the correct letter or number. In order to make the results even more robust, a dictionary can additionally be used. Through feedback of recognized words solution trees and line widths of the template can be optimized accordingly.
Zur Lösung des Problems werden folgende Schritte durchlaufen.To solve the problem, the following steps will be taken.
Zunächst wird mit einem Bildaufnahmeelement (zum Beispiel CCD Kamera) das Bild in elektrische Signale umgewandelt. Diese Signale werden dann entsprechend dem Verfahren nach dem Patent DE 101 13 880 B4 in einem priorisierten Array abgelegt. Optional kann zusätzlich ein Positionsfaktor in die Priorisierung mit einfließen. Der Positionsfaktor ist umso größer, je näher die Pixelgruppe an dem Startpixel liegt. Das Startpixel befindet sich bei den westlichen Sprachen (englisch, deutsch, französisch) zunächst in der linken oberen Ecke des Arrays.First of all, the image is converted into electrical signals with an image recording element (for example a CCD camera). These signals are then stored according to the method of the patent DE 101 13 880 B4 in a prioritized array. Optionally, a position factor can also be included in the prioritization. The position factor is the greater, the closer the pixel group is to the starting pixel. The Startpixel is located in the western languages (English, German, French) first in the upper left corner of the array.
Im Unterschied zu dem Patent DE 101 13 880 B4, das mit einer vorher festgelegten Form der Pixelgruppe arbeitet, können die Pixelgruppen hier auch während des Erkennungsvorgangs variieren. Ein Beispiel für eine Pixelgruppe ist eine einzeilige horizontale Anordnung von Pixeln, deren Länge abhängig von einem doppelten Wechsel der Helligkeit ist. Bei zu erkennenden dunklen Buchstaben auf einem hellen Hintergrund wäre dann der Abstand zwischen dem ersten Hell-dunkel-Übergang und dem darauf folgenden Dunkel-hell-Übergang eine Größe für eine angenommene Strichbreite ist. Pixelgruppen gleicher angenommenen Strichbreiten werden jeweils in einer separaten Liste zusammengetragen. Um die Robustheit des Verfahrens gegenüber Pixelfehlern zu erhöhen kann zusätzlich mit einem Tiefpassfilter gearbeitet werden. Bei diesem Filter wird jeweils die Summe aus n benachbarten Pixeln genommen um entsprechende Hell-dunkel, bzw. Dunkel-hell Übergänge zu finden. Durch die Summenbildung werden evtl. Pixelfehler, bzw. Fehler durch starkes Rauschen stark vermindert.In contrast to the patent DE 101 13 880 B4, which works with a predetermined form of the pixel group, the pixel groups here can also vary during the recognition process. An example of a pixel group is a one-line horizontal array of pixels whose length is dependent on a double change in brightness. For dark letters to be recognized on a light background, the distance between the first light-dark transition and the subsequent dark-light transition would then be a size for an assumed stroke width. Pixel groups of the same assumed bar widths are each compiled in a separate list. In order to increase the robustness of the method with respect to pixel errors, it is additionally possible to work with a low-pass filter. In this filter, the sum of n adjacent pixels is taken in each case to find corresponding light-dark, or dark-light transitions. Due to the summation, any pixel errors or errors due to strong noise are greatly reduced.
Zur Erkennung des Buchstabens werden ähnliche Pixelgruppen in jeweils einer separaten Liste zusammengetragen. Jede so gewonnene Liste wird dabei so sortiert, dass die Pixelgruppen, die eine niedrigere Y-Position aufweisen, absteigend sortiert sind. Liegen mehrere ähnliche Pixelgruppen auf gleichen Y-Positionen, so werden für diese neue Listen erzeugt. Aus diesen Listen wird nun versucht, entsprechende Vektoren abzuleiten. Dabei werden aus den jeweiligen Listen die Pixelgruppen mit dem niedrigsten und dem höchsten Y-Wert herausgesucht. Zwischen diesen Pixelgruppenpositionen wird nun eine Linie berechnet. Anschließend werden die Abweichungen der anderen Pixelgruppen zu dieser Linie bestimmt. Liegen alle Abweichungen unterhalb eines bestimmten Schwellwertes, so ist für diese Liste ein Beschreibungsvektor gefunden worden. Liegen die Abweichungen oberhalb eines Schwellwertes, wird die Liste geteilt, und es wird versucht, für jede Teilliste entsprechende Vektoren zu generieren. Dabei ist es sinnvoll, die Liste dort zu teilen, wo die größten Abweichungen zur berechneten Linie vorlagen. Auf diese Weise erhält man eine Anzahl von Vektoren. Sich berührende Vektoren werden in einer weiteren Vektorliste zusammengefasst, und den Y-Werten entsprechend sortiert. Diese Vektorliste beschreibt dann entsprechende Buchstaben. Die Vektorliste wird anschließend normiert (z.B. auf die maximale Y-Differenz). Eine solche normierte Vektorliste kann dann einen Lösungsbaum durchlaufen, in dem die verschiedenen Buchstaben hinterlegt sind. Mit diesem Ansatz wird man zuerst nur einen Teil der Buchstaben erkennen. Jedoch bekommt man auf diese Weise erste Informationen über die zu erkennende Schrift. Bei großen Schriftzeichen wird man jeweils doppelte Buchstaben erhalten. Dies liegt daran, dass entsprechend der Linienbreite der Buchstaben einmal der Hell-dunkel-, als auch in der Dunkel-hell-Übergang als jeweils einzelner Buchstabe interpretiert wird. Dabei ist davon auszugehen, dass der Abstand dieser Doppelbuchstaben einigermaßen konstant ist. Dieser Umstand kann jedoch nunmehr dazu benutzt werden, die Form der benutzten Pixelgruppen entsprechend der Linienbreite zu optimieren. So sollte die Breite der verwendeten Pixelgruppe so gewählt werden, dass sie das Dreifache der Linienbreite ist. Die optimale Höhe der Pixelgruppe ist abhängig von der Schrifthöhe. Mit den so optimierten Pixelgruppen wird nun das Bild weiter abgetastet. Durch die Vergrößerung der Pixelgruppen entstehen aufgrund der weniger benötigten internen Listen eine schnellere Verarbeitung, die zudem genauere Resultate liefert. Eine weitere Form der Optimierung ist es, die Ergebnisbäume zu optimieren. Da sich der Schrifttyp innerhalb eines Textes in der Regel nicht ändert, gibt es für jeden Text mit dieser Schriftart optimierte Ergebnisbäume. Geht man von 26 Buchstaben aus, ergeben sich aus Groß- und Kleinschreibung 52 verschiedene Buchstaben. Geht man von einem binären Baum von 128 Zeichen aus, reichen 7 Verzweigungen (2 hoch 7), um die Buchstaben zu bestimmen.To recognize the letter similar pixel groups are each compiled in a separate list. Each list thus obtained is sorted in such a way that the pixel groups which have a lower Y position are sorted in descending order. If several similar pixel groups are at the same Y positions, new lists are created for them. From these lists, an attempt is now made to derive corresponding vectors. In the process, the pixel groups with the lowest and highest Y values are selected from the respective lists. Between these pixel group positions a line is calculated. Then the deviations of the other pixel groups to this line are determined. If all deviations are below a certain threshold, then a description vector has been found for this list. If the deviations are above a threshold, the list is split and an attempt is made to generate corresponding vectors for each sub-list. It makes sense to divide the list where the largest deviations from the calculated line occurred. In this way one obtains a number of vectors. Touching vectors are summarized in another vector list and sorted according to the Y values. This vector list then describes corresponding letters. The vector list is then normalized (eg to the maximum Y difference). Such a normalized vector list can then go through a solution tree in which the different letters are stored. With this approach you will first recognize only a part of the letters. However, you get in this way first information about the font to be recognized. For large characters you will get double letters. This is because according to the line width of the letters once the light-dark, as well as in the dark-light transition is interpreted as a single letter. It can be assumed that the distance between these double letters is reasonably constant. However, this fact can now be used to optimize the shape of the pixel groups used according to the line width. So the width of the pixel group used should be chosen to be three times the line width. The optimal height of the pixel group depends on the font height. With the thus optimized pixel groups, the image is now scanned further. Enlarging the pixel groups results in faster processing due to the less required internal lists, which also provides more accurate results. Another form of optimization is to optimize the result trees. Since the font usually does not change within a text, there are optimized result trees for each text with this font. Assuming 26 letters, the letters are case-insensitive. Assuming a binary tree of 128 characters, 7 branches (2 to 7) are enough to determine the letters.
Für Maschinenschrift könnte man den gesamten Vorgang der Texterkennung noch weiter optimieren, indem man schon erkannte Buchstaben, oder sogar Silben als Pixelgruppenmaster abspeichert. Parallel dazu oben beschriebenen Verfahren könnten nun mit dem Pixelgruppenmaster z.B. Vokale einfach erkannt werden, da sie einen extrem hohen Pixelgruppenwert erzielen würden.For typescript you could optimize the entire process of text recognition even further by storing already recognized letters, or even syllables as a pixel group master. Methods described in parallel above could now be used with the pixel group master, e.g. Vowels are easily recognized because they would achieve an extremely high pixel group value.
Als zusätzliche Option könnten Erkennungsfehler mit Wörterbüchern zum Teil erkannt und korrigiert werden. Die Ausgabe der erkannten Zeichen kann sowohl über ein Display, als auch über einen „Speech-to-Text-Programm" (Textausgabe von Sprache) realisiert werden. Das beschriebene Verfahren beschreibt ein optimiertes Verfahren welches aus pixelbasierten Bildern Vektoren bildet, wobei jedes einzelne Pixel (bei einzeiliger Pixelgruppe) nur einmal durchlaufen zu werden braucht. Bei bisher bekannten OCR Verfahren wird meist zur Erhöhung der Erkennungsrate vorher eine Kantenoptimierung durchgeführt, und erst anschließend mit dem Erkennungsverfahren begonnen. In dem oben beschriebenen Verfahren, geschieht dies in nur einem Schritt, so das es sowohl weniger Rechenintensiv als auch robuster ist. As an additional option, recognition errors with dictionaries could be partially detected and corrected. The output of the recognized characters can be realized both via a display and via a "speech-to-text program". The method described describes an optimized method which forms vectors from pixel-based images, wherein each individual pixel (with a one-line pixel group) only needs to be traversed once. In previously known OCR methods, an edge optimization is usually carried out to increase the recognition rate beforehand, and only then is the recognition process started. In the method described above, this is done in one step, so it is both less computationally intensive and more robust.

Claims

Patentansprüche claims
1. Verfahren zur OCR Erkennung, das folgende Schritte durchläuft: a) Erkennung von Strichen durch Pixelgruppenorientierte Listenbildung, wobei die Listen jeweils einzelne Striche darstellen; b) Nachzeichnen der Buchstaben auf Basis der generierten Listen; c) Vergleich der Bewegungsfolge beim Nachzeichnen des Buchstabens mit normierten Referenzbuchstaben, abgelegt in einem Lösungsbaum.A method of OCR recognition, comprising the steps of: a) recognizing strokes by pixel group-oriented listing, each of the lists representing individual strokes; b) tracing the letters based on the generated lists; c) Comparison of the sequence of movements when tracing the letter with standardized reference letters, stored in a solution tree.
2. Verfahren zur Analyse von Bilddaten, die aus einem Array einzelner Bildpunkte (Pixel) bestehen, wobei jedes Pixel einen sich zeitlich verändernden Pixelwert aufweist, der Färb- oder Helligkeitsinformation des Pixels beschreibt, wobei die folgenden Schritte durchlaufen werden: a) Ermitteln eines Prioritätswertes für jedes Pixel des Arrays durch Festlegen des verwendeten Pixels als Bezugspixel und Berechnen eines Pixeldifferenzwertes anhand des jeweils momentanen Pixelwerts des Bezugspixels in Bezug auf die momentanen Pixelwerte einer zuvor festgelegten Gruppe von benachbarten Pixeln; b) Zusammenfassen der für die Berechnung des Prioritätswertes hinzugezogenen Pixel zu einer Pixelgruppe, c) Sortieren der Pixelgruppen anhand des Prioritätswertes des zugeordneten Bezugspixels und Ablegen in einem Prioritätenarray; d) Abspeichern und/oder Übertragen der Pixelgruppen entsprechend ihrer Priorität im Prioritätenarray, wobei zur Optimierung der Rechenleistung nur ein Teil der Pixelgruppen für die Listenbildung genutzt wird, dadurch gekennzeichnet, dass zusätzlich ein Positionsfaktor mit in den Prioritätswert einfließt, der umso größer ist, je näher die2. A method of analyzing image data consisting of an array of individual pixels, each pixel having a time-varying pixel value describing color or brightness information of the pixel, the steps of: a) determining a priority value for each pixel of the array, by setting the pixel used as a reference pixel and calculating a pixel difference value from the respective current pixel value of the reference pixel with respect to the current pixel values of a predetermined set of adjacent pixels; b) summarizing the pixels used to calculate the priority value into a pixel group, c) sorting the pixel groups based on the priority value of the associated reference pixel and dropping them in a priority array; d) storing and / or transmitting the pixel groups according to their priority in the priority array, wherein only a part of the pixel groups is used for the list formation to optimize the computing power, characterized in that in addition a position factor is included in the priority value, which is the greater, depending closer to the
Pixelgruppe an einem je nach Sprache vordefinierten Startpixel liegt.Pixel group is located at a predefined depending on the language start pixel.
3. Verfahren nach Anspruch 2, dadurch gekennzeichnet, dass der Pixeldifferenzwert sich aus der Differenz des Pixelwerts eines betrachteten Pixels zum Pixelwert einiger seiner betrachteten Nachbarpixel der Pixelgruppe ergibt.3. The method according to claim 2, characterized in that the pixel difference value is the difference of the pixel value of a considered pixels to the pixel value of some of its considered neighboring pixels of the pixel group.
4. Verfahren nach Anspruch 2 oder 3, dadurch gekennzeichnet, dass der Pixeldifferenzwert Rückschlüsse auf die Strichbreite zulässt.4. The method according to claim 2 or 3, characterized in that the pixel difference value allows conclusions about the stroke width.
5. Verfahren nach einem der Ansprüche 1 bis 4, dadurch gekennzeichnet das aus ähnlichen Pixelgruppen Listen gebildet werden.5. The method according to any one of claims 1 to 4, characterized in that formed of similar pixel groups lists.
6. Verfahren nach einem der Ansprüche 2 bis 5, dadurch gekennzeichnet, dass nach den Schritten 1 a) bis 1d) folgende Schritte durchlaufen werden:6. The method according to any one of claims 2 to 5, characterized in that after the steps 1 a) to 1 d) the following steps are performed:
Es findet zunächst eine lernfähige pixelgruppenoptimierte Vorverarbeitung statt, die das Bild nach Strichen durchsucht, wobei nachfolgend versucht wird, diese Striche möglichst optimal nachzuzeichnen, wobei aus derThere is first an adaptive pixel group-optimized preprocessing, which searches the image for lines, wherein subsequently attempts to trace these lines as optimally as possible, from the
Bewegungsabfolge dann auf das entsprechende Zeichen über gespeicherte Suchwörter/Lösungsbäume geschlossen wird.Motion sequence is then closed on the corresponding character via stored search words / solution trees.
7. Verfahren nach einem der Ansprüche 2 bis 5, dadurch gekennzeichnet, dass nach den Schritten 1 a) bis 1d) folgende Schritte durchlaufen werden:7. The method according to any one of claims 2 to 5, characterized in that after the steps 1 a) to 1 d) the following steps are performed:
Es werden ähnliche Pixelgruppen in jeweils einer separaten Liste zusammengetragen und jede so gewonnene Liste dabei so sortiert wird, dass die Pixelgruppen, die eine niedrigere Y-Position aufweisen absteigend sortiert sind, wobei, wenn mehrere ähnliche Pixelgruppen auf gleichen Y-Positionen liegen, für diese neue Listen erzeugt werden, wobei aus diesen Listen Vektoren abgeleitet und die Pixelgruppen mit dem niedrigsten und dem höchsten Y-Wert herausgesucht werden und wobei zwischen diesen Pixelgruppenpositionen eine Linie berechnet wird und wobei die Abweichungen der anderen Pixelgruppen zu dieser Linie bestimmt werden.Similar pixel groups are each collected in a separate list, and each list thus obtained is sorted such that the pixel groups having a lower Y position are sorted in descending order, and if a plurality of similar pixel groups are in the same Y positions, for them generate new lists from which lists vectors are derived and the pixel groups with the lowest and the highest Y value are searched for and where a line is calculated between these pixel group positions and the deviations of the other pixel groups are determined to this line.
8. Verfahren nach Anspruch 7, dadurch gekennzeichnet, dass, falls alle Abweichungen unterhalb eines bestimmten Schwellwertes liegen, ist für diese Liste ein Beschreibungsvektor gefunden worden, falls aber die Abweichungen oberhalb eines Schwellwertes liegen, wird die Liste geteilt, und es wird versucht, für jede Teilliste entsprechende Vektoren zu generieren.8. The method according to claim 7, characterized in that, if all deviations are below a certain threshold, a description vector has been found for this list, but if the deviations above a threshold, the list is divided and an attempt is made to generate corresponding vectors for each sub-list.
9. Verfahren nach Anspruch 7 oder 8, dadurch gekennzeichnet, dass die Liste dort geteilt wird, wo die größten Abweichungen zur berechneten Linie vorlagen.9. The method according to claim 7 or 8, characterized in that the list is shared where the largest deviations to the calculated line were.
10. Verfahren nach einem der Ansprüche 7 bis 9, dadurch gekennzeichnet, dass die Vektorliste anschließend normiert wird, z.B. auf die maximale Y- Differenz.10. The method according to any one of claims 7 to 9, characterized in that the vector list is then normalized, e.g. to the maximum Y difference.
11.Verfahren nach Anspruch 10, dadurch gekennzeichnet, dass die normierte Vektorliste einen Lösungsbaum durchläuft, in dem die verschiedenen Buchstaben hinterlegt sind.11.A method according to claim 10, characterized in that the normalized vector list passes through a solution tree in which the different letters are stored.
12. Verfahren nach einem der Ansprüche 7 bis 1 1 , dadurch gekennzeichnet, dass sich berührende Vektoren in einer weiteren Vektorliste zusammengefasst, und den Y-Werten entsprechend sortiert werden.12. The method according to any one of claims 7 to 1 1, characterized in that touching vectors are combined in a further vector list, and sorted according to the Y values.
13. Verfahren nach einem der Ansprüche 7 bis 12, dadurch gekennzeichnet, dass die Breite der verwendeten Pixelgruppe so gewählt wird, dass sie das dreifache der Linienbreite ist und die optimale Höhe der Pixelgruppe abhängig von der Schrifthöhe ist.13. The method according to any one of claims 7 to 12, characterized in that the width of the pixel group used is chosen so that it is three times the line width and the optimal height of the pixel group is dependent on the font height.
14. Verfahren nach einem der Ansprüche 7 bis 13, dadurch gekennzeichnet, dass mit den so optimierten Pixelgruppen das Bild anschließend weiter abgetastet wird.14. The method according to any one of claims 7 to 13, characterized in that the image is then further scanned with the thus optimized pixel groups.
15. Verfahren nach einem der Ansprüche 7 bis 14, dadurch gekennzeichnet, dass für jeden Text mit dieser Schriftart optimierte Ergebnisbäume erzeugt werden. 15. The method according to any one of claims 7 to 14, characterized in that optimized result trees are generated for each text with this font.
16. Verfahren nach einem der Ansprüche 7 bis 15, dadurch gekennzeichnet, dass für Maschinenschrift schon erkannte Buchstaben, oder sogar Silben als Pixelgruppenmaster abspeichert werden.16. The method according to any one of claims 7 to 15, characterized in that for typescript already recognized letters, or even syllables are stored as a pixel group master.
17. Verfahren nach einem der Ansprüche 1 bis 16, dadurch gekennzeichnet, dass ein Wörterbuch/Lexikon eingesetzt wird, anhand dessen die erkannten Buchstaben für eine noch optimiertere Schrifterkennung herangezogen werden.17. The method according to any one of claims 1 to 16, characterized in that a dictionary / lexicon is used, based on which the recognized letters are used for an even more optimized character recognition.
18. Verfahren nach einem der Ansprüche 1 bis 17, dadurch gekennzeichnet, dass die erkannten Wörter in eine wählbare Sprache übersetzt und optisch und/oder akustisch ausgegeben wird.18. The method according to any one of claims 1 to 17, characterized in that the recognized words translated into a selectable language and output visually and / or acoustically.
19. Verfahren nach einem der Ansprüche 1 bis 18, dadurch gekennzeichnet, dass durch Rückmeldungen von erkannten Wörtern Lösungsbäume und19. The method according to any one of claims 1 to 18, characterized in that by feedback of recognized words solution trees and
Strichbreiten der Vorlage entsprechend optimiert werden.Line widths of the template are optimized accordingly.
20. Verfahren nach einem der Ansprüche 1 bis 19, dadurch gekennzeichnet, dass die laufende Ermittlung und Ausgabe der nach Prioritäten sortierten Pixelgruppen bereits durch ein verwendetes bildaufnehmendes System, insbesondere ein in einem Mobiltelefon integrierter Scanner oder CCD- Kamera, erfolgt. 20. The method according to any one of claims 1 to 19, characterized in that the current determination and output of the sorted priority groups of pixels already by a used image-receiving system, in particular a built-in mobile phone scanner or CCD camera takes place.
EP08848083A 2007-11-05 2008-10-28 Method for image analysis, especially for mobile stations Ceased EP2208170A1 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
DE102007052622A DE102007052622A1 (en) 2007-11-05 2007-11-05 Method for image analysis, in particular for a mobile radio device
PCT/EP2008/009093 WO2009059715A1 (en) 2007-11-05 2008-10-28 Method for image analysis, especially for mobile stations

Publications (1)

Publication Number Publication Date
EP2208170A1 true EP2208170A1 (en) 2010-07-21

Family

ID=40514367

Family Applications (1)

Application Number Title Priority Date Filing Date
EP08848083A Ceased EP2208170A1 (en) 2007-11-05 2008-10-28 Method for image analysis, especially for mobile stations

Country Status (10)

Country Link
US (1) US8532389B2 (en)
EP (1) EP2208170A1 (en)
KR (1) KR101606469B1 (en)
CN (1) CN101855640B (en)
BR (1) BRPI0820570A2 (en)
CA (1) CA2704830C (en)
DE (1) DE102007052622A1 (en)
MX (1) MX2010004732A (en)
RU (1) RU2454718C2 (en)
WO (1) WO2009059715A1 (en)

Families Citing this family (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9028344B2 (en) * 2010-01-28 2015-05-12 Chsz, Llc Electronic golf assistant utilizing electronic storing
CN102364926A (en) * 2011-10-21 2012-02-29 镇江科大船苑计算机网络工程有限公司 Android-based intelligent information conversion method
US8831381B2 (en) 2012-01-26 2014-09-09 Qualcomm Incorporated Detecting and correcting skew in regions of text in natural images
US9064191B2 (en) 2012-01-26 2015-06-23 Qualcomm Incorporated Lower modifier detection and extraction from devanagari text images to improve OCR performance
US9047540B2 (en) 2012-07-19 2015-06-02 Qualcomm Incorporated Trellis based word decoder with reverse pass
US9141874B2 (en) 2012-07-19 2015-09-22 Qualcomm Incorporated Feature extraction and use with a probability density function (PDF) divergence metric
US9262699B2 (en) 2012-07-19 2016-02-16 Qualcomm Incorporated Method of handling complex variants of words through prefix-tree based decoding for Devanagiri OCR
US9076242B2 (en) 2012-07-19 2015-07-07 Qualcomm Incorporated Automatic correction of skew in natural images and video
US9183458B2 (en) 2012-07-19 2015-11-10 Qualcomm Incorporated Parameter selection and coarse localization of interest regions for MSER processing
RU2587406C2 (en) 2014-05-29 2016-06-20 Общество С Ограниченной Ответственностью "Яндекс" Method of processing visual object and electronic device used therein
RU2582064C1 (en) * 2014-12-16 2016-04-20 Общество с ограниченной ответственностью "Аби Девелопмент" Methods and systems for effective automatic recognition of symbols using forest solutions
RU2598300C2 (en) 2015-01-27 2016-09-20 Общество с ограниченной ответственностью "Аби Девелопмент" Methods and systems for automatic recognition of characters using forest solutions

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5581634A (en) * 1992-08-18 1996-12-03 Perception Software Corporation Recognition system with an automated development tool

Family Cites Families (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS5917668A (en) * 1982-07-20 1984-01-28 Ricoh Co Ltd Method for extracting stroke
JPS60217477A (en) * 1984-04-12 1985-10-31 Toshiba Corp Handwritten character recognizing device
DE3815869A1 (en) * 1987-05-08 1988-11-17 Ricoh Kk Method for the extraction of attribute quantities of a character
CN1075565A (en) 1992-02-15 1993-08-25 曾怜玉 Character recognition method with learning ability
US5319721A (en) * 1992-04-14 1994-06-07 International Business Machines Corporation Methods and apparatus for evolving a starter set of handwriting prototypes into a user-specific set
CN1029534C (en) 1993-02-25 1995-08-16 清华大学 Handwriting Chinese character online identifying method and system
JP3260979B2 (en) * 1994-07-15 2002-02-25 株式会社リコー Character recognition method
US5940534A (en) * 1995-07-17 1999-08-17 Nippon Telegraph And Telephone Corporation On-line handwritten character recognition using affine transformation to maximize overlapping of corresponding input and reference pattern strokes
US5796867A (en) * 1996-06-12 1998-08-18 Industrial Technology Research Institute Stroke-number-free and stroke-order-free on-line Chinese character recognition method
US6970599B2 (en) * 2002-07-25 2005-11-29 America Online, Inc. Chinese character handwriting recognition system
RU2249251C2 (en) * 1999-06-21 2005-03-27 Де ла рю Жиори С.А. Automatic recognition of symbols on structural background by combination of models of symbols and background
DE10025017B4 (en) 1999-06-21 2008-04-10 T-Mobile Deutschland Gmbh Method for operating a mobile phone
US6807309B1 (en) * 2000-12-27 2004-10-19 Canon Kabushiki Kaisha Linear list compression
DE10113880B4 (en) 2001-03-21 2004-04-29 T-Mobile Deutschland Gmbh Method for compressing and decompressing video data
US7359560B2 (en) 2001-03-21 2008-04-15 T-Mobile Deutschland Gmbh Method for compression and decompression of image data with use of priority values
DE10163688A1 (en) 2001-12-21 2003-07-03 Blg Complements Gmbh & Co Kg Goods tracking method e.g. at ports and flight terminals, involves using detection device to converting image of alphanumerical goods identification by digitalization into image data
RU2260280C2 (en) * 2002-12-15 2005-09-20 Всероссийский научно-исследовательский институт консервной и овощесушильной промышленности (Государственное научное учреждение) Method for protection of vegetative solanaceous cultures from insect pests
DE102005033001A1 (en) 2005-07-14 2007-01-25 Siemens Ag Method for optimizing control processes when using mobile terminals
DE202005018376U1 (en) 2005-11-18 2006-02-02 Alcatech Service Und Vertrieb Gmbh & Co Kg Mobile appliance as mobile computer or mobilephone, includes optical scanning system with entrance in mobile appliance housing for electromagnetic beam

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5581634A (en) * 1992-08-18 1996-12-03 Perception Software Corporation Recognition system with an automated development tool

Also Published As

Publication number Publication date
CN101855640B (en) 2013-12-04
MX2010004732A (en) 2010-05-20
RU2010122947A (en) 2011-12-20
BRPI0820570A2 (en) 2015-06-16
CA2704830A1 (en) 2009-05-14
RU2454718C2 (en) 2012-06-27
CA2704830C (en) 2014-09-30
KR20100099154A (en) 2010-09-10
KR101606469B1 (en) 2016-03-25
US20100296729A1 (en) 2010-11-25
US8532389B2 (en) 2013-09-10
DE102007052622A1 (en) 2009-05-07
WO2009059715A1 (en) 2009-05-14
CN101855640A (en) 2010-10-06

Similar Documents

Publication Publication Date Title
EP2208170A1 (en) Method for image analysis, especially for mobile stations
DE102006059663B4 (en) Apparatus, method and computer program for identifying a traffic sign in an image
DE10195927B4 (en) Generalized text localization in pictures
DE10195928B4 (en) Estimate the text color and segment images
DE102009059264B4 (en) Method for quickly locating a decipherable pattern
DE60204005T2 (en) METHOD AND DEVICE FOR RECOGNIZING A HANDWRITTEN PATTERN
Saha et al. A Hough transform based technique for text segmentation
DE60303202T2 (en) SYSTEM AND METHOD FOR IDENTIFYING AND EXTRACTING CHARACTER CHARTS FROM RECORDED IMAGE DATA
DE60312572T2 (en) Method and apparatus for converting digital images of hand drawings for further use in a structured text / graphics editor.
EP1665132B1 (en) Method and system for collecting data from a plurality of machine readable documents
DE602004005216T2 (en) DOCUMENTS SCANNER
DE4427992C2 (en) Method for generating a document representation from a bitmap image of a document
DE19705757A1 (en) Computer-based hand-written character recognition
DE10162156A1 (en) Extraction of text and graphics from PDF files for use in browser files such as HTML files with defined anchorable information units or hyperlinks by direct text and graphic extraction rather than use of scanning based approaches
DE19960555A1 (en) Method for finding and reading a two-dimensional bar code
DE102011005579A1 (en) Image processing apparatus, image processing method and storage medium
DE19956158A1 (en) Image binarisation method for scanned greytone images e.g. newspaper article, uses 2 different conversion methods for providing 2 binary images from scanned greytone image, combined to provide output binary image
EP2082357B1 (en) Device, method and computer program for identifying characters in an image
DE112021000371T5 (en) DIGITAL IMAGE EDITING
WO2005119580A1 (en) Method and device for the structural analysis of a document
DE19726592C2 (en) Information recognition device
CN115565193A (en) Questionnaire information input method and device, electronic equipment and storage medium
DE60225268T2 (en) METHOD FOR DETERMINING TEXT FIELDS IN A VIDEO IMAGE
EP0515714B1 (en) Computer-aided binary image processing method
DE102016201383A1 (en) Method for preprocessing digital data for use in a text recognition system

Legal Events

Date Code Title Description
PUAI Public reference made under article 153(3) epc to a published international application that has entered the european phase

Free format text: ORIGINAL CODE: 0009012

17P Request for examination filed

Effective date: 20100428

AK Designated contracting states

Kind code of ref document: A1

Designated state(s): AT BE BG CH CY CZ DE DK EE ES FI FR GB GR HR HU IE IS IT LI LT LU LV MC MT NL NO PL PT RO SE SI SK TR

AX Request for extension of the european patent

Extension state: AL BA MK RS

DAX Request for extension of the european patent (deleted)
17Q First examination report despatched

Effective date: 20140404

REG Reference to a national code

Ref country code: DE

Ref legal event code: R003

STAA Information on the status of an ep patent application or granted ep patent

Free format text: STATUS: THE APPLICATION HAS BEEN REFUSED

18R Application refused

Effective date: 20160130