DE102013005658A1 - Erfassung eines dokuments - Google Patents

Erfassung eines dokuments Download PDF

Info

Publication number
DE102013005658A1
DE102013005658A1 DE102013005658.6A DE102013005658A DE102013005658A1 DE 102013005658 A1 DE102013005658 A1 DE 102013005658A1 DE 102013005658 A DE102013005658 A DE 102013005658A DE 102013005658 A1 DE102013005658 A1 DE 102013005658A1
Authority
DE
Germany
Prior art keywords
processing unit
recording
document
camera
image data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102013005658.6A
Other languages
English (en)
Inventor
Mirco Schöpf
Dmitri Toropov
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
DocuWare GmbH
Original Assignee
DocuWare GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by DocuWare GmbH filed Critical DocuWare GmbH
Priority to DE102013005658.6A priority Critical patent/DE102013005658A1/de
Priority to US14/242,564 priority patent/US9826155B2/en
Publication of DE102013005658A1 publication Critical patent/DE102013005658A1/de
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • G06V30/12Detection or correction of errors, e.g. by rescanning the pattern
    • G06V30/133Evaluation of quality of the acquired characters
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/68Control of cameras or camera modules for stable pick-up of the scene, e.g. compensating for camera body vibrations
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/68Control of cameras or camera modules for stable pick-up of the scene, e.g. compensating for camera body vibrations
    • H04N23/681Motion detection
    • H04N23/6811Motion detection based on the image signal
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/40Document-oriented image-based pattern recognition

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Quality & Reliability (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Character Input (AREA)
  • Studio Devices (AREA)

Abstract

Es wird ein Verfahren zur Erfassung eines Dokuments vorgeschlagen, bei dem mittels einer Kamera Bilddaten aufgenommen werden, bei dem basierend auf den aufgenommenen Bilddaten von einer ersten Verarbeitungseinheit gefilterte Aufnahmedaten bestimmt werden und bei dem basierend auf den gefilterten Aufnahmedaten von einer zweiten Verarbeitungseinheit eine Aufnahme der Kamera gespeichert wird, falls ein Stabilitätskriterium erfüllt ist. Weiterhin werden entsprechend Vorrichtung, Computerprogrammprodukt sowie Speichermedium angegeben.

Description

  • Die Erfindung betrifft die Erfassung eines Dokuments insbesondere zur weiteren Verarbeitung in einem Zeichenerkennung und/oder einem Dokumentenmanagementsystem.
  • Es sind unterschiedliche Verfahren zur Texterkennung (auch bezeichnet als optische Zeichenerkennung, OCR für ”Optical Character Recognition”) bekannt, anhand derer automatisiert eine Texterkennung innerhalb von Bildern durchgeführt werden kann. Bei den Bildern handelt es sich z. B. um elektronisch eingescannte Dokumente, deren Inhalt weiter analysiert werden soll.
  • Bei den Dokumenten kann es sich um elektronische Dokumente, z. B. um elektronisch verarbeitete, vorverarbeitete oder verarbeitbare Dokumente handeln. Der Ansatz ist z. B. verwendbar bei Anwendungen, die ein Dokumentenmanagement bzw. eine Dokumentenarchivierung z. B. von Geschäftsdokumenten betreffen oder für andere Arten der Datenextraktion, z. B. eine Extraktion von Informationen aus abfotografierten Kassenbons und anderen Kleindokumenten.
  • Bekannte Ansätze führen die bildverarbeitenden Algorithmen auf einer zentralen Prozessoreinheit (CPU) aus. Hierdurch werden Ressourcen in der zentralen Prozessoreinheit gebunden, die dann nicht für andere Aufgaben bereitstehen. Insbesondere ist hierbei eine schnelle Bilderkennung, z. B. in Echtzeit oder nahezu in Echtzeit, nicht mehr möglich oder erfordert eine zentrale Prozessoreinheit mit erheblichen Leistungsreserven, was wiederum das Gerät zur Dokumenterfassung verteuert.
  • Ein weiterer Nachteil besteht darin, dass ein Benutzer, der mit einer Kamera eine Aufnahme macht und diese Aufnahme dann mit einer Bilderkennungssoftware weiterverarbeiten lassen will, die Aufnahme oft mehrfach durchführen muss bis ein für die Weiterverarbeitung ausreichend gutes Ergebnis (z. B. scharfes Bild, vollständiges Bild) zur Verfügung steht. Insbesondere ist es ein Nachteil, dass der Benutzer durch ein Betätigen eines Auslösers die Aufnahme verwackelt.
  • Die Aufgabe besteht darin, eine verbesserte und effizientere Erfassung und/oder Verarbeitung von elektronischen Dokumenten zu ermöglichen. Insbesondere ist es eine Aufgabe, die Erfassung eines Dokuments für einen Benutzer zu erleichtern bzw. sicherzustellen, dass der Benutzer schneller zu besseren Erkennungsergebnissen von elektronischen Dokumenten gelangt.
  • Diese Aufgabe wird gemäß den Merkmalen der unabhängigen Ansprüche gelöst. Bevorzugte Ausführungsformen sind insbesondere den abhängigen Ansprüchen entnehmbar.
  • Zur Lösung der Aufgabe wird ein Verfahren zur Erfassung eines Dokuments vorgeschlagen,
    • – bei dem mittels einer Kamera Bilddaten aufgenommen werden,
    • – bei dem basierend auf den aufgenommenen Bilddaten von einer ersten Verarbeitungseinheit gefilterte Aufnahmedaten bestimmt werden,
    • – bei dem basierend auf den gefilterten Aufnahmedaten von einer zweiten Verarbeitungseinheit eine Aufnahme der Kamera gespeichert wird, falls ein Stabilitätskriterium erfüllt ist.
  • Bei den Bilddaten kann es sich um hintereinander durchgeführte Aufnahmen, Bilder, um ein Video oder einen Bildstrom handeln. Das Dokument kann eine gedruckte oder elektronische Vorlage sein, die mittels der Kamera in Bilddaten umgewandelt wird. Die Aufnahme stellt somit eine digitalisierte Repräsentation des Dokuments dar, dass z. B. mit einem Dokumentmanagementsystem, umfassend insbesondere eine Zeichenerkennung (OCR), weiterverarbeitet werden kann.
  • Bei den Aufnahmedaten, insbesondere den gefilterten Aufnahmedaten, kann es sich um Daten betreffend den Inhalt der Aufnahme, z. B. Metadaten, und/oder um Bilddaten handeln. Insbesondere kann eine gefilterte Aufnahme Metadaten und/oder Bilddaten umfassen. Eine Filterung der Aufnahme kann insbesondere eine Transformation in Bilddaten oder sonstige Daten, z. B. Metadaten, umfassen.
  • Ein Vorteil besteht somit darin, dass ein Scannen von unterschiedlichen Dokumenten z. B. mit einem portablen Gerät (auch bezeichnet als ein mobiles Gerät oder Mobilgerät), z. B. einem Mobiltelefon oder einem sogenannten Smartphone, vereinfacht wird. Durch die verbesserte Verarbeitungsgeschwindigkeit erhält der Benutzer zeitnah Rückmeldung z. B. vor oder während des Scanvorgangs oder während bzw. nach der Erkennung des elektronischen Dokuments. Insbesondere kann die Aufnahme des Dokuments mittels der Kamera so unterstützt werden, dass Fehlbedienungen oder unnötige Wiederholungen von Aufnahmen reduziert oder verhindert werden.
  • Somit kann der Benutzer mit der Kamera des portablen Geräts z. B. freihändig ein Dokument aufnehmen; die schnelle Verarbeitung gemäß der vorliegenden Lösung ermöglicht die Erkennung z. B. der Dokumentränder in Echtzeit oder nahezu in Echtzeit. Die Aufnahme kann z. B. automatisch ausgelöst werden, wenn der Benutzer die Kamera für eine vorgegebene Zeitdauer ruhig hält. Hierdurch wird verhindert, dass der Benutzer manuell den Auslöser betätigen muss, dadurch verwackelt und somit die Aufnahme solange wiederholen muss, bis eine der Aufnahmen gut genug ist, um bei der Weiterverarbeitung, z. B. einer OCR-Verarbeitung, ausreichend gute Erkennungsergebnisse zu liefern.
  • Die Weiterverarbeitung umfasst vorzugsweise eine Zeichenerkennung (OCR). Beispielsweise kann mittels des portablen Geräts die Aufnahme des Dokuments und/oder die Weiterverarbeitung des Dokuments mittels Zeichenerkennung durchgeführt werden. Optional kann die Weiterverarbeitung auch von einer anderen Einheit, z. B. eine über ein Netzwerk angebundenen Komponente oder Struktur durchgeführt werden. Beispielsweise kann das von dem portablen Gerät aufgenommene Dokument an einen Server oder an eine Serverstruktur (umfassend mehrerer Rechner) übermittelt werden und dort weiterverarbeitet werden. Das Ergebnis der Weiterverarbeitung kann ganz oder teilweise an das portable Gerät übermittelt oder dem portablen Gerät, z. B. über eine Schnittstelle des Netzwerks, angeboten werden. Bei dem Netzwerk kann es sich z. B. um ein IP-Netzwerk, ein LAN, ein WAN, das Internet oder einen Teil des Internets (z. B. ein Intranet) handeln.
  • Die Kommunikation zwischen dem portablen Gerät und dem Netzwerk kann z. B. über eine drahtlose oder eine drahtgebundene Schnittstelle erfolgen. Bei der drahtlosen Schnittstelle kann es sich um eine WLAN, Bluetooth, Nahfeldkommunikations-Schnittstelle oder um eine sonstige Funkschnittstelle, z. B. eine Mobilfunkschnittstelle, handeln.
  • Eine Weiterbildung ist es, dass die erste Verarbeitungseinheit eine graphische Prozessoreinheit (GPU) umfasst.
  • Eine andere Weiterbildung ist es, dass die zweite Verarbeitungseinheit eine zentrale Prozessoreinheit (CPU) umfasst.
  • Somit kann die Verarbeitungsleistung eines Mobilgeräts auf die vorhandenen Verarbeitungseinheiten aufgeteilt werden und somit eine zeitnahe Rückmeldung an den Benutzer erreicht werden.
  • Insbesondere ist es eine Weiterbildung, dass die Kamera, die erste Verarbeitungseinheit und die zweite Verarbeitungseinheit Teil eines portablen Endgeräts, insbesondere eines Smartphones sind.
  • Auch ist es eine Weiterbildung, dass die Kamera die Bilddaten der ersten Verarbeitungseinheit in einer ersten Auflösung bereitstellt und von der zweiten Verarbeitungseinheit die Aufnahme in einer zweiten Auflösung gespeichert wird.
  • Beispielsweise kann die zweite Auflösung höher sein als die erste Auflösung.
  • Ferner ist es eine Weiterbildung, dass die erste Auflösung der Auflösung einer Anzeigeeinheit entspricht.
  • Bei der Anzeigeeinheit handelt es sich insbesondere um die Anzeigeeinheit des portablen Geräts.
  • Somit kann die Verarbeitung zumindest teilweise basierend auf der reduzierten zweiten Auflösung erfolgen, wobei zur Weiterverarbeitung, z. B. im Rahmen einer Zeichenerkennung, dann die Aufnahme mit der höheren, ggf. vollen, ersten Auflösung genutzt wird.
  • Eine nächste Weiterbildung besteht darin, dass anhand der ersten Verarbeitungseinheit mindestens einer der folgenden Schritte durchgeführt wird:
    • – Durchführen einer ersten Filterung gemäß einem Canny-Algorithmus;
    • – Übermitteln einer Textur, die mittels der Filterung gemäß dem Canny-Algorithmus ermittelt wurde, an die zweite Verarbeitungseinheit;
    • – Durchführen einer Hough-Transformation basierend aufgespeicherten Koordinaten, die von der zweiten Verarbeitungseinheit bereitgestellt werden;
    • – Durchführen einer zweiten Filterung basierend auf der Hough-Transformation und weiterleiten einer gefilterten Textur an die zweite Verarbeitungseinheit.
  • Insbesondere kann es sich um eine schwarz-weiße Textur oder um eine farbige Textur handeln.
  • Eine Ausgestaltung ist es, dass die gespeicherten Koordinaten von der zweiten Verarbeitungseinheit bestimmt werden, indem Bildpunkte ermittelt werden, die auf einer Kante oder im Wesentlichen auf einer Kante liegen und die Koordinaten dieser Bildpunkte gespeichert werden.
  • Eine alternative Ausführungsform besteht darin, dass anhand der zweiten Filterung diejenigen Bildpunkte in einem Hough-Raum herausgefiltert werden, wo nicht ausreichen viele Punkt auf einer Linie liegen.
  • Eine nächste Ausgestaltung ist es, dass anhand der gefilterten Textur von der zweiten Verarbeitungseinheit Dokumentgrenzen ermittelt werden und insbesondere in Form eines Rahmens den auf einer Anzeigeeinheit dargestellten Bilddaten überlagert werden.
  • Auch ist es eine Ausgestaltung, dass bestimmt wird, ob der Rahmen und/oder die Bilddaten stabil sind und, sofern dies der Fall ist, wird die Aufnahme der Kamera gespeichert.
  • Eine Weiterbildung besteht darin, dass bestimmt wird, ob der Rahmen und/oder die Bilddaten stabil sind, mittels mindestens einer der folgenden Ansätze:
    • – die Bilddaten werden über eine vorgegebene Zeitdauer analysiert und wenn deren Änderung geringer als ein vorgegebener Schwellwert ist, wird die Aufnahme gespeichert;
    • – der Rahmen wird über eine vorgegebene Zeitdauer analysiert und wenn dessen Änderung geringer als ein vorgegebener Schwellwert ist, wird die Aufnahme gespeichert;
    • – es wird die Aufnahme gespeichert, wenn ein geringes Verwackeln detektiert wird;
    • – es wird die Aufnahme gespeichert, wenn der Rahmen um ein Dokument oder um einen bestimmten Bereich des Dokuments verläuft.
  • Die vorstehenden Ansätze können einzeln oder in Kombinationen) miteinander realisiert werden.
  • Insbesondere kann ein Sensor vorgesehen sein, der eine Bewegung und somit ein Verwackeln des portablen Geräts feststellen kann. Beispielsweise kann eine Aufnahme dann gespeichert werden, wenn der Sensor eine Bewegung des portablen Geräts feststellt, die geringer als ein vorgegebener Schwellwert ist. Vorzugsweise kann zusätzlich die Bedingung geprüft werden, ob dann auch der Rahmen das Dokument um das Dokument verläuft oder um einen geeigneten Bereich des Dokuments verläuft. So kann sichergestellt werden, dass der Benutzer einerseits das portable Gerät möglichst ruhig hält und dass der Rahmen um das zu erfassende Dokument verläuft. Beides sind Voraussetzungen für eine hohe Zeichenerkennung im Rahmen einer nachgelagerten Dokumentenverarbeitung.
  • Eine zusätzliche Ausgestaltung ist es, dass ein transformiertes Bild bestimmt wird, indem anhand der Koordinaten des Rahmens eine perspektivische Transformation der Aufnahme durchgeführt wird.
  • Eine andere Ausgestaltung ist es, dass das transformierte Bild mittels einer Zeichenerkennung weiterverarbeitet wird.
  • Auch ist es eine Möglichkeit, dass die Zeichenerkennung zumindest teilweise auf der ersten Verarbeitungseinheit oder der zweiten Verarbeitungseinheit durchgeführt wird.
  • Auch ist es eine weitere Ausgestaltung, dass die Zeichenerkennung zumindest teilweise auf einer externen Verarbeitungseinheit, die zumindest vorübergehend über eine drahtlose oder drahtgebundene Kommunikationsverbindung gekoppelt ist, durchgeführt wird.
  • Insbesondere ist es eine Weiterbildung, dass die gespeicherte Aufnahme transformiert wird, z. B. mittels einer perspektivischen Transformation.
  • Optional kann die gespeicherte Aufnahme von einer Dokumentenerkennung verarbeitet werden.
  • Die vorstehenden Erläuterungen betreffend das Verfahren gelten für die anderen Anspruchskategorien entsprechend. Beispielsweise kann jede der Vorrichtungen in einer Komponente oder verteilt in mehreren Komponenten ausgeführt sein.
  • Zur Lösung der Aufgabe wird eine Vorrichtung zur Erfassung eines Dokuments vorgeschlagen
    • – aufweisend eine Kamera eine erste Verarbeitungseinheit und eine zweite Verarbeitungseinheit,
    • – wobei anhand der Kamera Bilddaten aufnehmbar sind,
    • – wobei anhand der ersten Verarbeitungseinheit basierend auf den aufgenommenen Bilddaten gefilterte Aufnahmedaten bestimmbar sind,
    • – wobei anhand der zweiten Verarbeitungseinheit basierend auf den gefilterten Aufnahmedaten eine Aufnahme der Kamera abspeicherbar ist, falls ein Stabilitätskriterium erfüllt ist.
  • Eine Weiterbildung ist es, dass die erste Verarbeitungseinheit eine graphische Prozessoreinheit umfasst und bei der die zweite Verarbeitungseinheit eine zentrale Prozessoreinheit umfasst.
  • Gemäß einer Ausgestaltung ist die Vorrichtung ein portables oder mobiles Gerät, insbesondere ein Tablet-Computer oder ein Smartphone, mit einer drahtlosen oder drahtgebundenen Kommunikationsschnittstelle.
  • Eine andere Ausgestaltung ist es, dass die erste Verarbeitungseinheit und/oder die zweite Verarbeitungseinheit eingerichtet ist, um basierend auf der Aufnahme eine Zeichenerkennung durchzuführen.
  • Auch ist es eine Ausgestaltung, dass die Vorrichtung eingerichtet ist, die Aufnahme an eine weitere Vorrichtung zu übertragen, wobei von der weiteren Vorrichtung eine Dokumentenverarbeitung basierend auf der Aufnahme durchführbar ist.
  • Bei der weiteren Vorrichtung kann es sich um eine über ein Netzwerk, z. B. das Internet, angebundene Komponente, z. B. einen Rechner oder mehrere Rechner, handeln.
  • Auch wird ein System vorgeschlagen umfassend mindestens eine der hierin beschriebenen Vorrichtungen.
  • Die hier vorgestellte Lösung umfasst ferner ein Computerprogrammprodukt, das direkt in einen Speicher eines digitalen Computers ladbar ist, umfassend Programmcodeteile, die dazu geeignet sind, Schritte des hier beschriebenen Verfahrens durchzuführen.
  • Weiterhin wird das oben genannte Problem gelöst mittels eines computerlesbaren Speichermediums, z. B. eines beliebigen Speichers, umfassend von einem Computer ausführbare Anweisungen (z. B. in Form von Programmcode), die dazu geeignet sind, dass der Computer Schritte des hier beschriebenen Verfahrens durchführt.
  • Die oben beschriebenen Eigenschaften, Merkmale und Vorteile dieser Erfindung sowie die Art und Weise, wie diese erreicht werden, werden klarer und deutlicher verständlich im Zusammenhang mit der folgenden schematischen Beschreibung von Ausführungsbeispielen, die im Zusammenhang mit dem nachfolgenden figurenbeschreibenden Teil näher erläutert werden. Dabei können zur Übersichtlichkeit gleiche oder gleichwirkende Elemente mit gleichen Bezugszeichen versehen sein.
  • Es zeigt:
  • 1 ein schematisches Ablaufdiagramm, mit Schritten, die zumindest teilweise auf einem portablen Gerät, z. B. einem Smartphone, durchführbar sind und die effiziente Erfassung sowie Weiterverarbeitung eines Dokuments ermöglichen.
  • Die vorliegende Lösung verwendet insbesondere Algorithmen zur Kantendetektion und zur perspektivischen Entzerrung einer Aufnahme eines Dokuments. Es wird vorgeschlagen, die Bildverarbeitungsaufgaben zwischen zwei Verarbeitungseinheiten eines Geräts, z. B. einer zentralen Prozessoreinheit (CPU) und einer grafischen Prozessoreinheit (GPU), aufzuteilen. Bei dem Gerät kann es sich um ein portables oder mobiles Gerät (z. B. ein Smartphones, einen Tablet-Computer oder einen mobilen Computers) handeln. Vorzugsweise verfügt das Gerät über eine integrierte oder verbindbare Scanvorrichtung, z. B. eine Kamera.
  • Somit ist es möglich, dass z. B. die Kantendetektion eines weiterzuverarbeitenden Dokuments in Echtzeit durchgeführt werden kann und der Benutzer bei der Aufnahme des Dokuments mittels der Kamera des portablen Geräts in Echtzeit oder quasi in Echtzeit eine Rückmeldung erhält, wann die Aufnahme durchgeführt werden kann bzw. wann die Aufnahme erfolgt ist.
  • 1 zeigt ein schematisches Ablaufdiagramm, mit Schritten, die zumindest teilweise auf einem portablen Gerät, z. B. einem Smartphone, mit einer Kamera 103, einer graphischen Prozessoreinheit (GPU) 101 und einer zentralen Prozessoreinheit (CPU) 102 durchführbar sind, wobei die GPU 101 und die CPU 102 beispielsweise über einen gemeinsamen Speicher 111 miteinander gekoppelt sind:
    • (1) Beispielsweise liefert die Kamera 103 fortlaufend Bilder (auch bezeichnet als eine Aufnahme, ein Video oder ein Bilderstrom bzw. Bilder-Stream).
    • ungen, Der Bilderstrom kann in unterschiedlichen Auflösz. B. in einer Auflösung der Anzeigeeinheit des portablen Geräts, bereitgestellt und weiterverarbeitet werden. Falls die Kamera eine höhere Auflösung bereitstellen kann ist es von Vorteil für den Bilderstrom eine Auflösung der Kamera zu wählen, die gleich oder geringer ist der Auflösung der Anzeigeeinheit.
    • Beispielsweise wird der Bilderstrom 105 in der Auflösung der Anzeigeeinheit genutzt und auf der Anzeigeeinheit dargestellt. Ein zu bestimmendes Rechteck kann zusammen mit dem Bilderstrom 105 auf der Anzeigeeinheit dargestellt werden (siehe hierzu Pfeil 120 sowie Block 106 und nachfolgende Beschreibung).
    • Weiterhin wird der Bilderstrom 110 in der Auflösung der Anzeigeeinheit (ggf. auch einer anderen vorzugsweise gegenüber der maximalen Auflösung der ung), Kamera reduzierten Auflösz. B. mit 640 mal 480 Bildpunkten, der GPU 101 bereitgestellt.
    • Beispielsweise kann basierend auf dem Bilderstrom ein (ggf. schwarz-weißes oder monochromes) Pixelbild gemäß [Canny1986] anhand der GPU 101 erzeugt werden (vergleiche Schritt 107). Nach Anwendung des Filters nach [Cannyl986] liegt eine schwarz-weiße Textur 113 vor, bei der die Pixel, die auf Kanten liegen, weiß eingefärbt sind.
    • (2) Diese Textur 113ann z. B. in einer reduzierten Auflösung ( kz. B. 640 mal 480 Bildpunkte) zur Verarbeitung an die CPU weitergeleitet werden.
    • (3) In einem Schritt 112 werden Bildpunkte (auch bezeichnet als Pixel) bestimmt, die auf einer Kante liegen und deren Koordinaten gespeichert.
    • (4) Die gespeicherten Koordinaten 114 werden zur Durchführung einer sogenannten Hough Transformation 108 nach [Hough1962] an die GPU 101 übermittelt.
    • Jeder Punkt in einem normalen Raum entspricht einer Linie in einem Hough-Raum. Die Linien werden auf eine Textur so übertragen, dass ein Bildpunkt umso heller wird, je mehr Linien durch diesen Bildpunkt verlaufen. Jeder Bildpunkt (also seine Koordinaten) in dem Hough-Raum entspricht dabei einer Linie in dem normalen Raum. Je mehr (Kanten-)Punkte auf der Linie in dem normalen Raum liegen, desto höher wird die Helligkeit dieses Bildpunkts.
    • (5) Es werden diejenigen Punkt in dem Hough-Raum herausgefiltert (vergleiche Filterung 109), wo nicht ausreichend viele Punkte auf der entsprechenden Linie liegen. Dies kann z. B. mittels eines Schwellwertvergleichs erfolgen, d. h. es kann bestimmt werden, ob mindestens eine bestimmte Anzahl Punkte auf der Linie liegen.
    • Aus dieser Filterung 109 ergibt sich eine Textur 115, die zur CPU 102 zur weiteren Verarbeitung übergeben wird.
    • (6) Von der CPU 102 werden in der erhaltenen Textur diejenigen Linien gesucht, die das Dokument begrenzen (vergleiche Schritt 116). Aus diesen Kanten wird ein Rechteck (auch bezeichnet als Rahmen) bestimmt (vergleiche Schritt 117) und Koordinaten des Rechtecks werden zwischengespeichert zur Verwendung z. B. einer nachfolgenden perspektivischen Entzerrung (siehe Pfeil 129).
    • (7) Es wird mittels eines geeigneten Algorithmus bestimmt, ob das Bild stabil ist (vergleiche Schritt 118).
    • Beispielsweise kann eine Stabilitätserkennung des Bildes anhand der durch den Algorithmus erhaltenen Koordinaten der Ecken des Dokuments durchgeführt werden. So kann das Bild als stabil erkannt werden, falls sich die Koordinaten der Ecken des Dokuments während einer bestimmten Zeit um weniger als einen vorgegebenen Schwellenwert bewegen. Alternativ oder zusätzlich können die Koordinaten der Ecken mit einem Filteralgorithmus verarbeitet werden, um bestimmte Eigenschaften hervorzuheben: So können mittels eines Tiefpass-Filters z. B. geringe schnelle Änderungen in Koordinaten reduziert oder beseitigt werden, die z. B. auf einer numerischen Instabilität der Filteralgorithmen basieren. Ferner ist es möglich, die Änderungen von Koordinaten durch ein Filter (z. B. ein Tiefpass-Filter) zu verarbeiten.
    • Dies ist von Vorteil, wenn der Benutzer das portable Gerät frei in der Hand hält und somit die einzelnen Aufnahmen des Bilderstroms durch die Bewegung der Hand variieren (wackeln). Eine ”verwackelte” Aufnahme kann zu einer schlechten Erkennungsleistung einer nachgeschalteten Dokumentenerkennung (z. B. in Form einer OCR-Verarbeitung) führen.
    • Beispielsweise wird der Bilderstrom über eine bestimmte Zeitdauer analysiert und diejenige Aufnahme zur weiteren Verarbeitung verwendet, die am wenigsten verwackelt ist. So kann automatisch ein Zeitpunkt aus einer Vielzahl von Zeitpunkten bestimmt werden, in dem der Benutzer die Kamera möglichst ruhig hält bzw. gehalten hat. So kann eine Gradienten-Auswertung in dem Bilderstrom durchgeführt werden derart, dass diejenige Aufnahme aus einer Menge von Aufnahmen ausgewählt wird, die eine geringe Veränderung (also einen kleinen Gradienten) aufweist. Die Menge von Aufnahmen kann während einer vorgegebenen Zeitdauer (einem Zeitfenster) gemacht werden.
    • Alternativ kann ein Verwackeln mittels eines geeigneten Sensors gemessen werden und (mindestens) eine Aufnahme des Bilderstroms abgespeichert werden, wenn das Verwackeln geringer ist als ein vorgegebener Schwellwert.
    • Ein zusätzliches Kriterium für eine geeignete Aufnahme ist, dass der Rahmen das aufgenommene Dokument bzw. den gewünschten aufgenommenen Bereich des Dokuments abdeckt (bzw. um dieses Dokument bzw. den Teil des Dokuments verläuft). So kann automatisch erkannt werden, sobald der Benutzer die Kamera so bewegt, dass die Kanten um das Dokument nicht mehr bestimmt ann der Benutzer werden können. In einem solchen Fall kz. B. darauf hingewiesen werden, die Kamera in eine bestimmte Richtung zu bewegen. Alternativ kann eine optische, akustische oder haptische Meldung ausgegeben werden, dass im Moment eine Aufnahme mit einer hohen Wahrscheinlichkeit nicht zu dem gewünschten Ergebnis führen würde.
    • Dieser Schritt des Ablaufs ermittelt den optimalen (stabilsten) Moment, um eine Aufnahme durchzuführen mit der ein optimales Ergebnis bei der Dokumentdetektion erzielt werden kann.
    • (8) Wird festgestellt (vergleiche Pfeil 123 für den Fall, dass die Aufnahme und/oder der Rahmen stabil ist/sind und Pfeil 122 für den Fall, dass die Aufnahme und/oder der Rahmen nicht stabil ist/sind), dass ein Bild stabil ist, also wenn z. B. ein Verwackeln gering und/oder der Rahmen stabil ist/sind, wird in einem Schritt 124 die Aufnahme mit einer vorgegebene Auflösung, z. B. mit der maximalen Auflösung der Kamera 103 (vergleiche Pfeil 104) abgespeichert.
    • Vorzugsweise arbeiten die vorherigen Schritte zumindest teilweise mit einer reduzierten Auflösung der Aufnahme bzw. des Bilderstroms, um die zu verarbeitende Datenmenge zu reduzieren. Damit ist die Verarbeitung schneller oder es kann auf leistungsschwächere und damit kostengünstigere Komponenten (GPU und/oder CPU) zurückgegriffen werden.
    • (9) Die unter Schritt (6) ermittelten Koordinaten 129 werden eingesetzt, um basierend auf der in Schritt 124 gespeicherten Aufnahme 125 eine perspektivische Transformation 126 des hochauflösenden Bildes durchzuführen.
    • (10) Das sich ergebende perspektivisch transformierte Bild 119 wird in einem vorgegebenen Dateiformat (z. B. als PNG-Datei) gespeichert und von einem Dokumentenmanagementsystem weiterverarbeitet (vergleiche Schritt 121). Das Dokumentenmanagementsystem kann Teil des portablen Geräts oder separat zu diesem ausgeführt sein.
  • Die vorliegende Lösung ermöglicht die verteilte Anwendung von Bilderkennungs-Algorithmen auf einer zentralen Prozessoreinheit und auf einer grafischen Prozessoreinheit. Dies stellt eine Voraussetzung für die Dokumentenerkennung mittels portabler Geräte dar. Insbesondere kann so die Dokumentenerkennung und/oder Dokumentenerfassung in Echtzeit oder nahezu in Echtzeit durchgeführt werden.
  • Damit können Dokumente mittels portabler Geräte schnell und problemlos in hoher Qualität für die weitere Dokumentenverarbeitung erfasst werden. Die ”mobile Erfassung” von Dokumenten stellt Eingangsdaten bereit, die wiederum gute OCR-Ergebnisse der Dokumentenverarbeitung ermöglichen. Dies reduziert den Aufwand für die Dokumentenerfassung erheblich und fördert die Benutzerakzeptanz, weil der Scanvorgang des Dokuments einfach und nahezu überall mit dem portablen Gerät, z. B. einem Smartphone mit Kamera, durchgeführt werden kann.
  • Obwohl die Erfindung im Detail durch das mindestens eine gezeigte Ausführungsbeispiel näher illustriert und beschrieben wurde, so ist die Erfindung nicht darauf eingeschränkt und andere Variationen können vom Fachmann hieraus abgeleitet werden, ohne den Schutzumfang der Erfindung zu verlassen.
  • Zitierte Druckschriften:
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Nicht-Patentliteratur
    • [Canny1986] [0054]
    • [Cannyl986] [0054]

Claims (25)

  1. Verfahren zur Erfassung eines Dokuments, – bei dem mittels einer Kamera Bilddaten aufgenommen werden, – bei dem basierend auf den aufgenommenen Bilddaten von einer ersten Verarbeitungseinheit gefilterte Aufnahmedaten bestimmt werden, – bei dem basierend auf den gefilterten Aufnahmedaten von einer zweiten Verarbeitungseinheit eine Aufnahme der Kamera gespeichert wird, falls ein Stabilitätskriterium erfüllt ist.
  2. Verfahren nach Anspruch 1, bei dem die erste Verarbeitungseinheit eine graphische Prozessoreinheit umfasst.
  3. Verfahren nach einem der vorhergehenden Ansprüche, bei dem die zweite Verarbeitungseinheit eine zentrale Prozessoreinheit umfasst.
  4. Verfahren nach einem der vorhergehenden Ansprüche, bei dem die Kamera, die erste Verarbeitungseinheit und die zweite Verarbeitungseinheit Teil eines portablen Endgeräts, insbesondere eines Smartphones sind.
  5. Verfahren nach einem der vorhergehenden Ansprüche, bei dem die Kamera die Bilddaten der ersten Verarbeitungseinheit in einer ersten Auflösung bereitstellt und von der zweiten Verarbeitungseinheit die Aufnahme in einer zweiten Auflösung gespeichert wird.
  6. Verfahren nach Anspruch 5, bei dem die zweite Auflösung höher ist als die erste Auflösung.
  7. Verfahren nach einem der Ansprüche 5 oder 6, bei dem die erste Auflösung der Auflösung einer Anzeigeeinheit entspricht.
  8. Verfahren nach einem der vorhergehenden Ansprüche, bei dem anhand der ersten Verarbeitungseinheit mindestens einer der folgenden Schritte durchgeführt wird: – Durchführen einer ersten Filterung gemäß einem Canny-Algorithmus; – Übermitteln einer Textur, die mittels der Filterung gemäß dem Canny-Algorithmus ermittelt wurde, an die zweite Verarbeitungseinheit; – Durchführen einer Hough-Transformation basierend auf gespeicherten Koordinaten, die von der zweiten Verarbeitungseinheit bereitgestellt werden; – Durchführen einer zweiten Filterung basierend auf der Hough-Transformation und weiterleiten einer gefilterten Textur an die zweite Verarbeitungseinheit.
  9. Verfahren nach Anspruch 8, bei dem die gespeicherten Koordinaten von der zweiten Verarbeitungseinheit bestimmt werden, indem Bildpunkte ermittelt werden, die auf oder im Wesentlichen auf einer Kante liegen und die Koordinaten dieser Bildpunkte gespeichert werden.
  10. Verfahren nach einem der Ansprüche 8 oder 9, bei dem anhand der zweiten Filterung diejenigen Bildpunkte in einem Hough-Raum herausgefiltert werden, wo nicht ausreichen viele Punkt auf einer Linie liegen.
  11. Verfahren nach einem der Ansprüche 8 bis 10, bei dem anhand der gefilterten Textur von der zweiten Verarbeitungseinheit Dokumentgrenzen ermittelt werden und insbesondere in Form eines Rahmens den auf einer Anzeigeeinheit dargestellten Bilddaten überlagert werden.
  12. Verfahren nach Anspruch 11, bei dem bestimmt wird, ob der Rahmen und/oder die Bilddaten stabil sind und, sofern dies der Fall ist, wird die Aufnahme der Kamera gespeichert.
  13. Verfahren nach Anspruch 12, bei dem bestimmt wird, ob der Rahmen und/oder die Bilddaten stabil sind, mittels mindestens einer der folgenden Ansätze: – die Bilddaten werden über eine vorgegebene Zeitdauer analysiert und wenn deren Änderung geringer als ein vorgegebener Schwellwert ist, wird die Aufnahme gespeichert; – der Rahmen wird über eine vorgegebene Zeitdauer analysiert und wenn dessen Änderung geringer als ein vorgegebener Schwellwert ist, wird die Aufnahme gespeichert; – es wird die Aufnahme gespeichert, wenn ein geringes Verwackeln detektiert wird; – es wird die Aufnahme gespeichert, wenn der Rahmen um ein Dokument oder um einen bestimmten Bereich des Dokuments verläuft.
  14. Verfahren nach einem der Ansprüche 11 bis 13, bei dem ein transformiertes Bild bestimmt wird, indem anhand der Koordinaten des Rahmens eine perspektivische Transformation der Aufnahme durchgeführt wird.
  15. Verfahren nach Anspruch 14, bei dem das transformierte Bild mittels einer Zeichenerkennung weiterverarbeitet wird.
  16. Verfahren nach Anspruch 15, bei dem die Zeichenerkennung zumindest teilweise auf der ersten Verarbeitungseinheit oder der zweiten Verarbeitungseinheit durchgeführt wird.
  17. Verfahren nach Anspruch 15, bei dem die Zeichenerkennung zumindest teilweise auf einer externen Verarbeitungseinheit, die zumindest vorübergehend über eine drahtlose oder drahtgebundene Kommunikationsverbindung gekoppelt ist, durchgeführt wird.
  18. Vorrichtung zur Erfassung eines Dokuments – aufweisend eine Kamera eine erste Verarbeitungseinheit und eine zweite Verarbeitungseinheit, – wobei anhand der Kamera Bilddaten aufnehmbar sind, – wobei anhand der ersten Verarbeitungseinheit basierend auf den aufgenommenen Bilddaten gefilterte Aufnahmedaten bestimmbar sind, – wobei anhand der zweiten Verarbeitungseinheit basierend auf den gefilterten Aufnahmedaten eine Aufnahme der Kamera abspeicherbar ist, falls ein Stabilitätskriterium erfüllt ist.
  19. Vorrichtung nach Anspruch 18, bei der die erste Verarbeitungseinheit eine graphische Prozessoreinheit umfasst und bei der die zweite Verarbeitungseinheit eine zentrale Prozessoreinheit umfasst.
  20. Vorrichtung nach einem der Ansprüche 18 oder 19, wobei die Vorrichtung ein portables oder mobiles Gerät, insbesondere ein Tablet-Computer oder ein Smartphone, mit einer drahtlosen oder drahtgebundenen Kommunikationsschnittstelle ist.
  21. Vorrichtung nach einem der Ansprüche 18 bis 20, bei der die erste Verarbeitungseinheit und/oder die zweite Verarbeitungseinheit eingerichtet ist, um basierend auf der Aufnahme eine Zeichenerkennung durchzuführen.
  22. Vorrichtung nach einem der Ansprüche 18 bis 20, wobei die Vorrichtung eingerichtet ist, die Aufnahme an eine weitere Vorrichtung zu übertragen, wobei von der weiteren Vorrichtung eine Dokumentenverarbeitung basierend auf der Aufnahme durchführbar ist.
  23. System umfassend mindestens eine Vorrichtung nach einem der Ansprüche 18 bis 22.
  24. Computerprogrammprodukt, das in einen Speicher eines digitalen Computers ladbar ist, umfassend Programmcodeteile, die dazu geeignet sind, Schritte des Verfahrens nach einem der Ansprüche 1 bis 17 durchzuführen.
  25. Computerlesbares Speichermedium umfassend von einem Computer ausführbare Anweisungen, die dazu geeignet sind, dass der Computer Schritte des Verfahrens nach einem der Ansprüche 1 bis 17 durchführt.
DE102013005658.6A 2013-04-02 2013-04-02 Erfassung eines dokuments Pending DE102013005658A1 (de)

Priority Applications (2)

Application Number Priority Date Filing Date Title
DE102013005658.6A DE102013005658A1 (de) 2013-04-02 2013-04-02 Erfassung eines dokuments
US14/242,564 US9826155B2 (en) 2013-04-02 2014-04-01 Detecting a document

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102013005658.6A DE102013005658A1 (de) 2013-04-02 2013-04-02 Erfassung eines dokuments

Publications (1)

Publication Number Publication Date
DE102013005658A1 true DE102013005658A1 (de) 2014-10-02

Family

ID=51519575

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102013005658.6A Pending DE102013005658A1 (de) 2013-04-02 2013-04-02 Erfassung eines dokuments

Country Status (2)

Country Link
US (1) US9826155B2 (de)
DE (1) DE102013005658A1 (de)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110059686A (zh) * 2019-04-26 2019-07-26 腾讯科技(深圳)有限公司 字符识别方法、装置、设备及可读存储介质

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FR3038432A1 (fr) * 2015-07-02 2017-01-06 Gabriel Kasser Procede de rectification d'une image et d'extraction d'elements d'information issus de cette image
WO2017102026A1 (en) * 2015-12-18 2017-06-22 Telefonaktiebolaget Lm Ericsson (Publ) Immersive video with haptic feedback
CN109993048B (zh) * 2018-11-26 2022-12-13 普达迪泰(天津)智能装备科技有限公司 一种沥青路面条纹过滤方法及检测系统

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US3069654A (en) 1960-03-25 1962-12-18 Paul V C Hough Method and means for recognizing complex patterns
US20110285874A1 (en) * 2010-05-21 2011-11-24 Hand Held Products, Inc. Interactive user interface for capturing a document in an image signal
US20130070122A1 (en) * 2009-09-23 2013-03-21 Microsoft Corporation Camera-Based Scanning

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8035692B2 (en) * 2007-03-30 2011-10-11 Fujifilm Corporation Image taking apparatus which forms an image of a subject on an imaging device to create image data representative of the subject
EP2053844B1 (de) * 2007-06-28 2011-05-18 Panasonic Corporation Bildverarbeitungsvorrichtung, bildverarbeitungsverfahren und entsprechendes programm
JP5171282B2 (ja) * 2008-01-21 2013-03-27 キヤノン株式会社 像振れ補正装置、撮像装置、光学装置および像振れ補正装置の制御方法
US20120087537A1 (en) * 2010-10-12 2012-04-12 Lisong Liu System and methods for reading and managing business card information
US8503813B2 (en) * 2010-12-22 2013-08-06 Arcsoft Hangzhou Co., Ltd. Image rectification method
US8699090B1 (en) * 2012-01-09 2014-04-15 Intuit Inc. Automated image capture based on spatial-stability information
US9317764B2 (en) * 2012-12-13 2016-04-19 Qualcomm Incorporated Text image quality based feedback for improving OCR

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US3069654A (en) 1960-03-25 1962-12-18 Paul V C Hough Method and means for recognizing complex patterns
US20130070122A1 (en) * 2009-09-23 2013-03-21 Microsoft Corporation Camera-Based Scanning
US20110285874A1 (en) * 2010-05-21 2011-11-24 Hand Held Products, Inc. Interactive user interface for capturing a document in an image signal

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
[Canny1986]
[Canny1986] "A Computational Approach to Edge Detection", IEEE, USA, 1986
[Cannyl986]
[Hough1962] http://de.wikipedia.org/wiki/Hough-Transformation

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110059686A (zh) * 2019-04-26 2019-07-26 腾讯科技(深圳)有限公司 字符识别方法、装置、设备及可读存储介质
CN110059686B (zh) * 2019-04-26 2023-08-22 腾讯科技(深圳)有限公司 字符识别方法、装置、设备及可读存储介质

Also Published As

Publication number Publication date
US9826155B2 (en) 2017-11-21
US20140294305A1 (en) 2014-10-02

Similar Documents

Publication Publication Date Title
DE10214079B4 (de) WEB-Camming und Bandbreitensteuerung auf Grundlage der Bewegungs- und Audioerkennung
DE102012016160A1 (de) Bilderfassung für eine spätere Nachfokussierung oder Fokusmanipulation
DE102013206153A1 (de) Verfahren und system zur robusten neigungseinstellung und zum zuschneiden von nummernschildbildern
DE202015009148U1 (de) Automatische Bearbeitung von Bildern
DE102015101656A1 (de) Optisches modul und elektronische vorrichtung
DE112020006492T5 (de) Verfahren zum Erzeugen eines Quick-Response-Codes und Druckvorrichtung
DE112016007018T5 (de) Identifizierung der iris oder eines anderen körperteils auf einer datenverarbeitungseinrichtung
DE112018005075T5 (de) Informationsverarbeitungsvorrichtung, informationsverarbeitungsverfahren und programm
DE102018101035A1 (de) Bildstabilisierungsvorrichtung und steuerverfahren dafür, bildaufnahmevorrichtung und speichermedium
DE102015102681A1 (de) All-in-focus - implementierung
DE102013201980B4 (de) Verfahren zur Fokuseinstellung und entsprechendes Bilderfassungsgerät
DE102013005658A1 (de) Erfassung eines dokuments
EP2790408A1 (de) Verfahren zur komprimierten Speicherung von grafischen Daten
EP3123393B1 (de) Verfahren zur optischen erkennung von zeichen
DE112021005703T5 (de) Informationsverarbeitungseinrichtung und informationsverarbeitungsverfahren
DE102012201024B4 (de) Verfahren zum Verarbeiten eines Bildes zur Verdeutlichung von Text in dem Bild
DE202017106567U1 (de) Kamerasystem einschliesslich Objektiv mit Vergrösserungsgradient
DE112013001869T5 (de) Bilderzeugungsvorrichtung, Kameravorrichtung, Bilddarstellungsvorrichtung und Bilderzeugungsverfahren
EP3384461A1 (de) Verfahren und vorrichtung zur bildkorrektur
DE102015009894A1 (de) Ausrichten von Mehrfachansichtsabtastungen
DE112017007162T5 (de) Gesichtsermittlungsvorrichtung, dazugehöriges Steuerungsverfahren und Programm
DE102013004120B4 (de) Elektronische Vorrichtung und Fokuseinstellungsverfahren von dieser
WO2018224444A1 (de) Verfahren und vorrichtung zur bildkorrektur
DE112022001773T5 (de) Systeme und Verfahren zur Bestimmung eines adaptiven Bereichs von Interesse (ROI) für die Berechnung von Bildmetriken
DE102013021618A1 (de) Bildverarbeitungsvorrichtung und Bildverarbeitungsverfahren zum Ausführen einer Bildverarbeitung, um ein Objekt in einem Bild zu erfassen

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R016 Response to examination communication
R016 Response to examination communication