-
Die
Erfindung betrifft einen optoelektronischen Sensor zum Erfassen
von Codes mit abschnittsweisem Einlesen und Echtzeitkompression von
Bilddaten nach dem Oberbegriff von Anspruch 1.
-
Zur
optischen Erfassung von Codes werden schon seit längerem
scannende Codeleser eingesetzt, welche mit einem Lichtstrahl den
Code zeilenweise abtasten. Zunehmend basieren Codeleser aber auch
auf Kamerachips, welche Bilddaten der mit den Codes versehenen Objekte
liefern. Dies gilt besonders dann, wenn neben eindimensionalen Barcodes
auch zweidimensionale Matrixcodes optisch erfasst werden sollen.
-
Dabei
genügt es, wenn der Bildsensor der Kamera statt einer Matrix
lediglich eine Zeile umfasst. Das Bild wird dann zusammengesetzt,
während ein mobiler Codeleser über das zu lesende
Objekt bewegt wird, oder die zu erfassenden Objekte mit den Codes
werden an einem stationären Codeleser vorbeigeführt.
Eine häufige Anwendung ist das automatische Sortieren von
Paketen in Logistikzentren oder von Gepäckstücken
in Flughäfen.
-
Die
Kamera liefert dabei eine große Bilddatenmenge, deren Weiterverarbeitung
entsprechende Anforderungen an die Auswertungskapazitäten, Speichermöglichkeiten
und Bandbreiten für die Datenweitergabe stellt. Daher ist
es vorteilhaft, wenn die Bilddaten zur Datenreduktion komprimiert
werden. Sofern durch die Kompression an der Schnittstelle zwischen
Kamera und nachgeordneten Systemen ein Bandbreitenvorteil erzielt
werden soll, müssen die Bilddaten bereits in der Kamera
komprimiert werden. Dies wiederum verzögert die Ausgabe
der Bilder, weil die Verarbeitungszeit des Kompressionsalgorithmus zu
den sonstigen Auswertungsaufgaben in dem Codeleser hinzukommt.
-
Aus
der
DE 102 22 281
A1 ist ein Verfahren zum Betrieb eines optoelektronischen
Sensors bekannt, welcher für eine schnelle Kompression
von Bilddaten ausgebildet ist. Dabei werden empfangene Bildzeilen
bereits während des Einlesens der nachfolgenden Bildzeilen
komprimiert, so dass die Verzögerung durch die Verarbeitungszeit
des Kompressionsalgorithmus nur noch von den wenigen zuletzt gelesenen
Zeilen des Bildes und nicht mehr von dem Gesamtbild als solchem
abhängt. Der Nachteil hierbei ist, dass die komprimiert
ausgegebenen Bilder eine feste zugeordnete Qualität aufweisen,
welche nicht allen Anwendungen gleichermaßen gerecht wird.
-
Da
die eigentlichen Codeinformationen bereits in dem kamerabasierten
Codeleser dekodiert und demnach im Klartext ausgegeben werden, wird die
Ausgabe der komprimierten Bilddaten hauptsächlich noch
für zwei externe Anwendungen benötigt. Einerseits
werden hochaufgelöste Bilder einem System zur Texterkennung
zugeführt (OCR, optical character recognition), andererseits
Bilder von geringerer Qualität archiviert oder von Hand
ausgewertet (video coding). Letzteres ist vor allem dann erforderlich,
wenn der Codeleser nicht in der Lage war, sämtliche Informationen
automatisch zu erfassen. Bei diesen in der Praxis nur bei einem
sehr kleinen Bruchteil der Fälle auftretenden Lesefehlern
(No Read) ist Personal gefordert, die Erkennung der Codeinformation
und die nachfolgende Sortierung manuell zu steuern.
-
Um
das OCR-System bedienen zu können, müssen die
Daten also mit einem relativ geringen Kompressionsgrad und in hoher
Bildqualität ausgegeben werden. Möchte man später,
beispielsweise um in einem Archivierungssystem mit geringeren Speicherressourcen
auszukommen, Bilddaten in einem höheren Kompressionsgrad
gewinnen, so bleibt nur die Möglichkeit, die Daten extern
zu entpacken und in der gewünschten anderen Qualität
erneut zu komprimieren. Dieses Verfahren ist zeitaufwändig und
benötigt zusätzliche eigene Auswertungskapazitäten.
In vielen bestehenden Sortieranlagen ist aber selbst dieser umständlichere
Umweg verbaut, weil das OCR-System gar keine Datenverbindung zum Archivierungssystem
hat, sich räumlich entfernt oder in einem anderen Subnetz
befindet, und weil die gewünschte Lebensdauer der Bilddaten
sich stark unterscheiden kann. Beispielsweise kann das OCR-System
die Bilddaten unmittelbar nach der Texterkennung verwerfen, und
sie stehen danach für eine Umkompression in eine andere
Qualität zur Archivierung nicht mehr zur Verfügung.
-
Die
Erzeugung von Bilddaten in dem jeweils gewünschten Kompressionsgrad
der nachgeordneten Anwendungen lässt sich somit herkömmlich
nur unter erheblichem Zusatzaufwand oder gar nicht lösen.
-
Es
ist daher Aufgabe der Erfindung, eine schnelle, echtzeitfähige
Erfassung von Bilddaten anzugeben, welche flexibel mit unterschiedlichen
Anforderungen an die Bildqualität umgehen kann.
-
Diese
Aufgabe wird durch einen optoelektronischen Sensor mit einer Kompressionseinheit
mit mindestens zwei Kompressionskanälen gemäß Anspruch
1 gelöst.
-
Dabei
geht die erfindungsgemäße Lösung von
dem Prinzip aus, die hochaufgelösten Rohdaten für
jede benötigte Qualität bereits intern in dem
Codeleser zu erzeugen. Zwischenschritte in Form eines Entpackens
und erneuten Komprimierens werden so vermieden. Jede nachgeordnete
Anwendung erhält unmittelbar aus dem Codeleser diejenigen
Daten, welche sie benötigt.
-
Daraus
ergibt sich der Vorteil einer sehr einfachen Einbindung in und Umrüstung
von bestehenden Sortieranlagen, beispielsweise wenn nachträglich
eine zusätzliche Anwendung wie Archivierung, video coding
oder OCR eingefügt werden soll. Erfindungsgemäß stehen
die hierfür erforderlichen komprimierten Bilddaten unmittelbar
zur Verfügung. Zusätzliche Schnittstellen innerhalb
dieser Anwendungen oder Rechenkapazitäten zum Umcodieren
der Bilddaten in benötigte Qualitäten sind nicht
erforderlich. Die Komprimierung der Bilddaten erfolgt dennoch ohne
Zeitverlust und in Echtzeit bereits während der Aufnahme.
-
Indem
die komprimierten Bilddaten anders als bei einem herkömmlichen
System mit Ausgabe von komprimierten Bilddaten in nur einer Bildqualität unabhängig
an verschiedene nachgeordnete Anwendungen ausgegeben werden, entfallen
jegliche Anpassungen dieser Anwendungen aneinander und Abhängigkeiten
voneinander, um die Datenweitergabe und Konvertierung zu unterstützen,
da sie unabhängig mit den erforderlichen Bilddaten versorgt
werden. Dabei werden auch Zeitverluste vermieden, welche durch das
Entpacken, erneute Komprimieren und Weiterleiten an solche Anwendungen
entstehen, die mit dem ursprünglichen Kompressionsgrad
des herkömmlichen Codelesers nicht zusammenarbeiten. Anwendungen,
welche mit Bilddaten geringerer Qualität auskommen, müssen
gar nicht erst dafür ausgelegt sein, mit einem höheren Datenaufkommen umzugehen.
Schließlich ist auch die Zuverlässigkeit erhöht,
weil beide Anwendungen unabhängig Bilddaten erhalten. Im
herkömmlichen System könnte die erste Anwendung
ausfallen, stellt damit keine umkonvertierten oder überhaupt
keine Bilddaten mehr bereit und verhindert damit auch Arbeiten der
anderen Anwendung.
-
In
den Kompressionskanälen ist bevorzugt als Kompressionsverfahren
JPEG implementiert. Dieser Standard ist schnell, robust und erhält
zumindest bei nicht allzu starken Kompressionsgraden eine gute Bildqualität.
-
Die
Kompressionsparameter umfassen bevorzugt Bildanfang, Bildende, Bildbreite,
Farbtiefe, Kompressionsgrad und/oder Bildqualität, wobei
die Kompressionsparameter konfigurierbar sind. Damit lassen sich
in den beiden Kompressionskanälen eine große Zahl
von Freiheitsgraden einstellen und somit eine Vielzahl von Anwendungen
unterstützen. Durch die Einstellbarkeit, etwa durch Bedienknöpfe
an dem Sensor oder eine Benutzeroberfläche eines angeschlossenen
Computers, Notebooks, PDAs, Mobiltelefons oder dergleichen ist die
Parametrierung beider Kanäle sehr komfortabel.
-
Vorteilhafterweise
ist eine Auswertungseinheit vorgesehen, welche die abschnittsweise
eingelesenen und komprimierten Bilddaten jedes Kompressionskanals
zu jeweils einem komprimierten Gesamtbild zusammensetzen kann. Damit
ist an den Ausgängen des Sensors jeweils ein vollständiges
Gesamtbild je Kompressionskanal in der zugehörigen Qualität
verfügbar.
-
In
einer bevorzugten Ausführungsform ist ein gemeinsamer Anschluss
vorgesehen, um die komprimierten Bilddaten und/oder die komprimierten
Gesamtbilder auszugeben. Die Ausgabe erfolgt über eine
gemeinsame Schnittstelle, wobei die komprimierten Bilddaten entweder
einem gemeinsamen System zugeführt werden, auf welchem
Anwendungen für die verschiedenen Bildqualitäten
implementiert sind, oder die Trennung der verschiedenen Bilder erfolgt
in einem nachgeordneten Netzwerkbaustein oder Knoten mit bekannten
Verfahren wie Multiplexing oder einer Zuordnung anhand von Protokollen
oder Adressierungen der Datenpakete.
-
In
einer alternativen bevorzugten Ausführungsform sind mehrere
Anschlüsse vorgesehen, um die komprimierten Bilddaten und/oder
die komprimierten Gesamtbilder der verschiedenen Kompressionskanäle
an verschiedene Zielsysteme ausgeben zu können. Damit können
auch voneinander völlig unabhängige Systeme angeschlossen werden,
so dass die Weiterverarbeitung der Bilddaten unterschiedlicher Kompressionsqualität
in Anwendungen erfolgen kann, welche dann untereinander keine Bandbreite
für die Kommunikation von Bilddaten benötigen
oder sogar überhaupt nicht miteinander verbunden sind.
-
Der
Sensor ist bevorzugt ein kamerabasierter Codeleser, dessen Komponenten
in einem gemeinsamen Gehäuse integriert sind. Damit muss
lediglich eine Einheit, nämlich die Kamera, in einem System
angeschlossen werden, um Bilddaten in unterschiedlicher Kompressionsqualität
verfügbar zu haben. Komponenten des Sensors sind insbesondere
ein Zeilenbildsensor, die Kompressionseinheit, die Auswertungseinheit
und ein oder mehrere Anschlüsse zur Bildausgabe.
-
Die
Kompressionseinheit ist vorteilhafterweise auf einem digitalen Logikbaustein
implementiert, insbesondere einem FPGA (Field Programmable Gate
Array), einem PLD (Programmable Logic Device) oder in ASIC (Application
Specific Integrated Circuit). Es wäre weiterhin auch denkbar,
einen Mikroprozessor einzusetzen oder jeden Kanal auf einem eigenen
Baustein zu implementieren. Ein einziger digitaler Logikbaustein
ist aber kostengünstiger und kann besser integriert werden.
Der Logikbaustein ermöglicht, die empfangenen Rohbilddaten
aus dem Bildsensor direkt in Echtzeit „on the fly” zu
komprimieren.
-
Die
Kompressionseinheit ist bevorzugt dafür ausgebildet, einen
ersten Teil von Verarbeitungsschritten für die Kompression
vorab gemeinsam auszuführen, wobei die einzelnen Kompressionskanäle dafür
ausgebildet sind, die weiteren Verarbeitungsschritte auszuführen
und wobei insbesondere der erste Teil eine diskrete Cosinustransformation
und die weiteren Verarbeitungsschritte eine Quantisierung und/oder
eine Huffman-Codierung umfassen. Indem die Kanäle erst
nach einem gemeinsamen Verarbeitungsanteil kaskadiert werden, kann
die Kompressionseinheit noch höher integriert ausgebildet
werden, die räumliche Anordnung auf dem Logikbaustein als
besonders klein gehalten werden. Alle kaskadierten Kanäle
laufen absolut synchron und werden aus dem gemeinsamen Verarbeitungspfad mit
vorverarbeiteten Bilddaten versorgt. In der Konkretisierung der
Kompressionseinheit auf das JPEG-Format kann die anfängliche
verlustfreie diskrete Cosinustransformation (DCT, discrete cosine transformation)
noch unabhängig von den Kompressionsparametern ausgeführt
werden. Die auf den individuellen Verlustgrad abgestimmte Quantisierung und
abschließende Huffman-Codierung erfolgt dann in den einzelnen
Kompressionskanälen, so dass hier jeder JPEG-Kanal über
seine eigene Quantisierungstabelle einen Ausgangsdatenstrom erzeugt.
Die Kompressionskanäle werden zur Einsparung redundanter
Auswertungskapazitäten so spät wie möglich im
Datenfluss verzweigt.
-
Alternativ
ist auch denkbar, die Kompressionskanäle komplett voneinander
zu trennen, sei es in verschiedenen Funktionsblöcken auf
demselben oder sogar in jeweils eigenen Logikbausteinen. Sämtliche
Kompressionsparameter wie Bildanfang, Bildende und Bildbreite und
sogar das Kompressionsverfahren an sich ist dann für jeden
Kompressionskanal unabhängig frei wählbar.
-
Der
Lichtempfänger ist bevorzugt ein Zeilensensor und das abschnittsweise
Einlesen von Bilddaten erfolgt somit zeilenweise, wobei die Kompressionseinheit
dafür ausgebildet ist, jede empfangene Zeile oder jeweils
einen Block aus mehreren empfangenen Zeilen zu komprimieren. Für
eine maximale Zeiteinsparung ist vorteilhaft, jede Zeile sofort
zu komprimieren, denn dann ist die Verzögerung zwischen
Empfang von Bilddaten und Ausgabe von komprimierten Bilddaten besonders
gering. Der Zeitverlust bis zu einer blockweisen Verarbeitung mit mehreren
Zeilen spielt aber meist keine Rolle. Das JPEG-Format fordert in
seiner üblichen Form eine Verarbeitung von 8×8-Pixelblocks,
so dass hierfür vorteilhaft ist, jeweils acht Zeilen einzulesen
und gemeinsam zu komprimieren.
-
Vorteilhafterweise
werden die Kompressionsverfahren und/oder die Kompressionsparameter von
Hand oder aufgrund von Parametern bei der Gewinnung der Bilddaten
eingestellt. Damit können Anpassungen an bestimmte Codes
oder Lesesituationen vorgenommen werden. Diese Erfordernisse kann
der Sensor teilweise selbst erkennen, beispielsweise indem Referenzbilder
angeboten werden oder bestimmte Parameter wie die Beleuchtungssituation, die
Perspektive oder Orientierung des Sensors oder dergleichen verarbeitet
werden.
-
Bevorzugt
sind ein erster Kompressionskanal für die Erzeugung von
ersten Gesamtbildern hoher Bildqualität, ein zweiter Kompressionskanal
für die Erzeugung von zweiten Gesamtbildern geringerer
Bildqualität und ein dritter Kompressionskanal für die
Erzeugung von Miniaturbildern vorgesehen, wobei die ersten Gesamtbilder
per Texterkennung, die zweiten Gesamtbilder archiviert oder manuell
ausgewertet und die dritten Gesamtbilder in einem Übersichtsverzeichnis
der erzeugten Bilder verarbeitet werden, wobei insbesondere die
Texterkennung und die Archivierung in voneinander getrennten Systemen
erfolgt. Für automatische Texterkennung ist zumeist eine
hohe Bildqua lität erforderlich, besonders in den Bereichen,
in denen Textfelder liegen. Für eine Archivierung oder
manuelle Nachbearbeitung genügen auch höhere Kompressionsgrade
von 50 oder höher, zumindest um offensichtliche Fehler
im Druck, zerstörte oder fehlende Codelabel zu erkennen.
Miniaturbilder schließlich kommen mit sehr hohen Kompressionsgraden
aus, da sie lediglich einen in wenigen Pixel aufgelösten Überblick
verschaffen sollen. Für die Aufbereitung von Miniaturbildern
ist JPEG nicht unbedingt der geeignetste Standard, weil starke Blockartefakte
auftreten und ein Herabskalieren, also Auslassen zahlreicher nicht
benötigter Pixel bessere Ergebnisse liefern kann.
-
Die
Erfindung wird nachstehend auch hinsichtlich weiterer Vorteile und
Merkmale unter Bezugnahme auf die beigefügte Zeichnung
anhand von Ausführungsbeispielen erläutert. Die
Figuren der Zeichnung zeigen in:
-
1 eine
schematische dreidimensionale Übersichtsdarstellung der
Montage des erfindungsgemäßen optoelektronischen
Sensors über einem Förderband, welches Objekte
mit zu lesenden Codes durch das Sichtfeld des Sensors fördert;
-
2 ein
Blockschaltbild einer Ausführungsform des erfindungsgemäßen
optoelektronischen Sensors; und
-
3 eine
schematische Darstellung des Bilddatenflusses in einer erfindungsgemäß vorgesehenen
Kompressionseinheit.
-
1 zeigt
einen erfindungsgemäßen optoelektronischen Sensor 10,
der über einem Förderband 12 montiert
ist, welches Objekte 14, wie durch den Pfeil 16 angedeutet,
durch das Sichtfeld 18 des Sensors 10 fördert.
Die Objekte 14 tragen an ihren Außenflächen
Codebereiche 20, die von dem Sensor 10 gelesen
und ausgewertet werden. Diese Codebereiche 20 können
von dem Sensor 10 nur dann gelesen werden, wenn sie auf
der Oberseite oder zumindest von oben erkennbar angebracht sind.
Daher kann entgegen der Darstellung in 1 zum Lesen eines
etwa seitlich oder unten angebrachten Codes 21 eine Mehrzahl
von Sensoren 10 aus verschiedenen Richtungen montiert sein,
um eine sogenannte Omnilesung aus allen Richtungen zu ermöglichen.
-
Das
Sichtfeld 18 des Sensors 10 ist hier als eine
einzige Ebene dargestellt, die einem zeilenförmigen Bildsensor
entspricht. Diese Lesezeile kann durch einen Scanner realisiert
sein. In einer bevorzugten Ausführungsform basiert der
Sensor 10 aber auf einem Kamerachip, also beispielsweise
einem CCD- oder CMOS-Chip mit einer matrixförmigen oder
einer zeilenförmigen Anordnung von lichtempfindlichen Pixelelementen.
Indem die Objekte 14 in der Förderrichtung 16 zeilenweise
aufgenommen oder abge tastet werden, entsteht nach und nach ein Gesamtbild
der vorbeigeförderten Objekte 18 und der aufgeklebten
Codes 20. Alternativ zu dieser zeilenweisen Abtastung können
aber auch andere Abschnitte aufgenommen werden. So ist zum Beispiel denkbar,
größere Bereiche aus mehreren Zeilen gleichzeitig
aufzunehmen oder, den Zusatzaufwand beim Zusammenfügen
eines Gesamtbilds in Kauf nehmend, auch eine beliebige andere Geometrie
der jeweils einzelnen aufgenommenen Abschnitte. Das Zusammenfügen
zu einem Gesamtbild ist bei einer gleichmäßigen
Förderung der Objekte 14 in stationärem
Aufbau relativ einfach zu lösen, besonders wenn die Fördereinrichtung 16 Weg-
oder Geschwindigkeitsmessdaten liefert. Dennoch ist denkbar, den Sensor 10 auch
als mobiles Gerät, beispielsweise Handgerät, einzusetzen
und jeweils an dem zu lesenden Bereich vorbeizuführen.
Der Sensor 10 und seine Komponenten sind in einem gemeinsamen
Gehäuse vorgesehen.
-
Aufgabe
des Sensors 10 ist, die Codebereiche 20 zu erkennen
und die dort angebrachten Codes auszulesen, zu dekodieren und dem
jeweils zugehörigen Objekt 14 zuzuordnen. Diese
decodierten Klartextinformationen gibt der Sensor 10 nach
außen weiter. Zusätzlich kann aber in vielen Anwendungen sinnvoll
sein, auch Bilddaten weiterzugeben, um extern zusätzliche
Verarbeitungsschritte durchzuführen. So wird beispielsweise
bei einem Texterkennungssystem (OCR) die erkannte Textinformation
mit Adressdatenbanken plausibilisiert oder ergänzt. Der Zugriff
auf derartige Datenbanken ist von dem Sensor aus oft nicht möglich
oder erwünscht. Auch wenn Bilder archiviert werden sollen,
etwa zu Diagnosezwecken, zur manuellen Nachbearbeitung oder dergleichen,
müssen die Bilddaten nach außen an ein entsprechendes
Archivierungssystem gegeben werden. Ein drittes Beispiel sind Miniaturbilder,
sogenannte Thumbnails, welche demjenigen, der ein Paket aufgegeben
hat, per Internet eine Ansicht verfügbar machen, um den
Sendeverlauf zu verfolgen. Diese Miniaturbilder können
natürlich auch für andere Zwecke genutzt werden,
etwa um Übersichtsverzeichnisse von archivierten Bildern
zu erstellen.
-
Unter
Bezugnahme auf 2 wird nun erläutert,
wie der Sensor 10 aufgebaut ist, um jeder nachgeordneten
Anwendung Bilder zur Verfügung stellen zu können,
welche nach einem gewünschten Kompressionsverfahren vorverarbeitet
sind. Dabei bezeichnen hier und im folgenden gleiche Bezugszeichen
die gleichen Merkmale, wobei später in 3 zum
Teil für die zu einer Einheit gehörigen Daten
das Bezugszeichen der Einheit selbst verwendet ist.
-
Mit
einem Bildsensor 22, welcher in dem Sichtbereich 18 die
Objekte 14 zeilenweise erfasst, ist eine Kompressionseinheit 24 verbunden.
Die Kompressionseinheit 24 weist zwei parallele Kompressionsblöcke
oder Kompressionskanäle 26a, 26b auf,
denen jeweils der erfasste Bilddatenstrom zugeführt wird.
Jeder Kompressionskanal 26a, 26b komprimiert die
Bilddaten mit einem eigenen Satz von Parametern oder sogar mit einem
eigenen Kompressionsverfahren. Ein besonders wichtiger Parameter, in
dem sich die Kompressionskanäle 26a, 26b voneinander
unterscheiden können, ist der Kompressionsgrad, also der
Prozentsatz, um den die Datenmenge eines jeden Bildes reduziert
ist.
-
Die
komprimierten Bilddaten werden jeweils in einer Speicherqueue 28a, 28b abgelegt (FiFo-Speicher,
FiFo first in, first out). Die Speicherqueue 28a, 28b hält
also jeweils rollierend ein Bild des aktuellen und zuletzt vorbeigeförderten
Sichtbereichs 18 bis zu einem Zeitpunkt in der Vergangenheit
bzw. korrespondierend einer Strecke in Förderrichtung,
die durch die Speicherkapazität vorgegeben ist. Die Speicherqueue 28a, 28b kann
abweichend von der Darstellung auch in demselben Speicherbaustein
implementiert sein.
-
Eine
Steuerung 30 liest Bilddaten aus der Speicherqueue 28a, 28b aus,
um sie zu einem Gesamtbild zusammenzusetzen, beispielsweise so lange
Zeilen zusammenzufügen, bis ein Objekt oder ein Label vollständig
in dem Gesamtbild wiedergegeben ist. Dieses Gesamtbild wird an Anschlüssen 32a, 32b außen
verfügbar gemacht.
-
Die
Steuerung 30 kann weitere, nicht dargestellte Verbindungen
haben und weitere Aufgaben erfüllen. Beispielsweise kann
sie das Bild binarisieren, ein bereits binarisiertes Bild empfangen
und zur Segmentation auswerten, nicht komprimierte Rohbilddaten
direkt von dem Bildsensor 22 empfangen und Codeinformationen
decodieren. Weiterhin ist sowohl denkbar, dass die komprimierten
Bilddaten von der Kompressionseinheit 24 direkt und nicht über
den Umweg der Speicherqueues 28a, 28b an die Steuerung 30 oder
sogar direkt an die Anschlüsse 32a, 32b geleitet
werden. Im letztgenannten Fall erfolgt die externe Ausgabe komprimierter
Bilddaten zeilen- oder blockweise, da kein Gesamtbild zusammengesetzt wurde.
-
An
den beiden Anschlüssen 32a, 32b sind zwei
Systeme 34, 36 zur externen Weiterverarbeitung
der komprimierten Bilddaten angeschlossen. Dabei handelt es sich
um ein OCR-System 34, welches aus Bilddaten hoher Qualität
Textinformationen ausliest, und ein Archiv- oder Video-Coding-System 36,
welches Bilddaten geringerer Qualität speichert oder einer
manuellen Nachbearbeitung unterzieht. Die beiden Systeme 34, 36 können
als unterschiedliche Prozesse auf derselben Hardware implementiert sein,
und dann ist auch denkbar, die Bilddaten aus den beiden Kompressionskanälen 26a, 26b entgegen
der Darstellung mit zwei Anschlüssen 32a, 32b über
einen gemeinsamen Anschluss auszugeben. Die Systeme 34, 36 können
aber auch gänzlich voneinander unabhängig und örtlich
sowie netzwerktechnisch voneinander getrennt sein.
-
3 zeigt
eine weitere Ausführungsform der erfindungsgemäßen
Kompressionseinheit 24 sowie den Datenfluss in dieser Kompressionseinheit 24 in
einem Blockschaltbild. In der Ausführungsform gemäß 3 sind
im Gegensatz zu den voneinander völlig unabhängigen
Kompressionskanälen 26a, 26b der Ausführungsform
gemäß 2 die Kompressionskanäle 26a, 26b, 26c teilweise
noch gemeinsam implementiert und erst für spätere
Kompressionsschritte kaskadiert, die insbesondere auch den Kompressionsgrad
und damit die Bildqualität festlegen.
-
Von
dem Bildsensor 22 werden der Kompressionseinheit 24 Bilddaten
in Abschnitten, Zeilen oder Blöcken von Zeilen zugeführt.
Eine Vielzahl von Kompressionskanälen 26a, 26b, 26c verarbeitet
diese Bilddaten 22 und stellt eine entsprechende Vielzahl
an Sätzen von komprimierten Bilddaten 32a, 32b, 32c zur
Verfügung, welche jeweils in einem Kompressionskanal 26a, 26b, 26c ein
eigenes Kompressionsverfahren oder dasselbe Kompressionsverfahren,
beispielsweise JPEG, mit unterschiedlichen Parametern durchlaufen
haben.
-
In
einer gemeinsamen Kompressionsuntereinheit 38 werden die
Bilddaten zunächst ersten Kompressionsschritten unterworfen.
Anschließend werden die so vorverarbeiteten Daten vervielfältigt und
jeweils einer der Anzahl von Kompressionskanälen 26a, 26b, 26c entsprechenden
Anzahl von individuellen Kompressionsuntereinheiten 40a, 40b, 40c zugeführt.
Dort werden weitere Kompressionsverarbeitungsschritte durchgeführt,
welche individuelle Kompressionsparameter oder Kompressionsverfahren
berücksichtigen und somit im dargestellten Beispiel im
ersten Kompressionskanal 26a Bilddaten hoher Qualität 32a für
Texterkennung, im zweiten Kompressionskanal 26b Bilddaten
geringerer Qualität 32b für Archivierung
oder manuelle Nachbearbeitung aufgrund von Video Coding und im dritten
Kompressionskanal 26c Miniaturbilder 32c erzeugt
werden.
-
Speziell
für das Kompressionsverfahren nach einem JPEG-Standard
können die gemeinsamen Verarbeitungsschritte in der gemeinsamen Kompressionsuntereinheit 38 eine
diskrete Cosinustransformation DCT und die weiteren Verarbeitungsschritte
in den individuellen Kompressionsuntereinheiten 40a, 40b, 40c die
anschließende Quantisierung und das Huffman-Coding sein.
-
Der
erfindungsgemäße Sensor 10 kann insgesamt
die folgenden Datenkanäle aufweisen, welche zumindest intern
vorgesehen sind und wahlweise auch nach außen gegeben werden
können: einen nicht komprimierten Originalgrauwertbildkanal
mit beispielsweise 256 Graustufen zur Codeerkennung, der bevorzugt
nur intern verwendet wird, da gerade für externe Anwendungen
die komprimierten Bilder erzeugt werden, einen Headerkanal für
Zusatzinformationen wie Zoomeinstellung, Fokuslage, Zuordnung von
Code zu Objekt und dergleichen, einen ersten komprimierten Bilddatenkanal
beispielsweise von hoher Bildqualität für OCR,
einen zweiten komprimierten Bilddatenkanal beispielsweise von geringerer
Bildqualität beispielsweise für Archivierung oder video
coding, einen dritten komprimierten Bilddatenkanal beispielsweise
hochkomprimiert für Miniaturbilder, einen Binärbildkanal
für die interne Bildsegmentierung, also beispielsweise
die Identifikation von Textfeldern, Codebereichen und Objekten,
einen Binärbildkanal für die Ausgabe beispielsweise
nach dem Fax-G4-Standard, und möglicherweise weitere Kanäle,
beispielsweise weniger oder weitere komprimierte Kanäle
in anderen als den drei angegebenen Qualitätsstufen.
-
ZITATE ENTHALTEN IN DER BESCHREIBUNG
-
Diese Liste
der vom Anmelder aufgeführten Dokumente wurde automatisiert
erzeugt und ist ausschließlich zur besseren Information
des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen
Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt
keinerlei Haftung für etwaige Fehler oder Auslassungen.
-
Zitierte Patentliteratur
-