DE69322902T2 - Optische Einrichtungen für Kamera - Google Patents

Optische Einrichtungen für Kamera

Info

Publication number
DE69322902T2
DE69322902T2 DE69322902T DE69322902T DE69322902T2 DE 69322902 T2 DE69322902 T2 DE 69322902T2 DE 69322902 T DE69322902 T DE 69322902T DE 69322902 T DE69322902 T DE 69322902T DE 69322902 T2 DE69322902 T2 DE 69322902T2
Authority
DE
Germany
Prior art keywords
ellipse
light
optical
axis
output
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
DE69322902T
Other languages
English (en)
Other versions
DE69322902D1 (de
Inventor
Robert H. Wilton Ct 06897 Esslinger
Joseph P. Fairfield Ct 06430 Mulligan
Gregory P. Southbury Ct 06488 Skinger
Steven L. Oxford Ct 06478 Smith
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
United Parcel Service of America Inc
United Parcel Service Inc
Original Assignee
United Parcel Service of America Inc
United Parcel Service Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by United Parcel Service of America Inc, United Parcel Service Inc filed Critical United Parcel Service of America Inc
Application granted granted Critical
Publication of DE69322902D1 publication Critical patent/DE69322902D1/de
Publication of DE69322902T2 publication Critical patent/DE69322902T2/de
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06KGRAPHICAL DATA READING; PRESENTATION OF DATA; RECORD CARRIERS; HANDLING RECORD CARRIERS
    • G06K7/00Methods or arrangements for sensing record carriers, e.g. for reading patterns
    • G06K7/10Methods or arrangements for sensing record carriers, e.g. for reading patterns by electromagnetic radiation, e.g. optical sensing; by corpuscular radiation
    • G06K7/10544Methods or arrangements for sensing record carriers, e.g. for reading patterns by electromagnetic radiation, e.g. optical sensing; by corpuscular radiation by scanning of the records by radiation in the optical part of the electromagnetic spectrum
    • G06K7/10821Methods or arrangements for sensing record carriers, e.g. for reading patterns by electromagnetic radiation, e.g. optical sensing; by corpuscular radiation by scanning of the records by radiation in the optical part of the electromagnetic spectrum further details of bar or optical code scanning devices
    • G06K7/1092Methods or arrangements for sensing record carriers, e.g. for reading patterns by electromagnetic radiation, e.g. optical sensing; by corpuscular radiation by scanning of the records by radiation in the optical part of the electromagnetic spectrum further details of bar or optical code scanning devices sensing by means of TV-scanning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06KGRAPHICAL DATA READING; PRESENTATION OF DATA; RECORD CARRIERS; HANDLING RECORD CARRIERS
    • G06K7/00Methods or arrangements for sensing record carriers, e.g. for reading patterns
    • G06K7/10Methods or arrangements for sensing record carriers, e.g. for reading patterns by electromagnetic radiation, e.g. optical sensing; by corpuscular radiation
    • G06K7/10544Methods or arrangements for sensing record carriers, e.g. for reading patterns by electromagnetic radiation, e.g. optical sensing; by corpuscular radiation by scanning of the records by radiation in the optical part of the electromagnetic spectrum
    • G06K7/10821Methods or arrangements for sensing record carriers, e.g. for reading patterns by electromagnetic radiation, e.g. optical sensing; by corpuscular radiation by scanning of the records by radiation in the optical part of the electromagnetic spectrum further details of bar or optical code scanning devices
    • G06K7/10851Circuits for pulse shaping, amplifying, eliminating noise signals, checking the function of the sensing device
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06KGRAPHICAL DATA READING; PRESENTATION OF DATA; RECORD CARRIERS; HANDLING RECORD CARRIERS
    • G06K7/00Methods or arrangements for sensing record carriers, e.g. for reading patterns
    • G06K7/10Methods or arrangements for sensing record carriers, e.g. for reading patterns by electromagnetic radiation, e.g. optical sensing; by corpuscular radiation
    • G06K7/14Methods or arrangements for sensing record carriers, e.g. for reading patterns by electromagnetic radiation, e.g. optical sensing; by corpuscular radiation using light without selection of wavelength, e.g. sensing reflected white light
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06KGRAPHICAL DATA READING; PRESENTATION OF DATA; RECORD CARRIERS; HANDLING RECORD CARRIERS
    • G06K7/00Methods or arrangements for sensing record carriers, e.g. for reading patterns
    • G06K7/10Methods or arrangements for sensing record carriers, e.g. for reading patterns by electromagnetic radiation, e.g. optical sensing; by corpuscular radiation
    • G06K7/14Methods or arrangements for sensing record carriers, e.g. for reading patterns by electromagnetic radiation, e.g. optical sensing; by corpuscular radiation using light without selection of wavelength, e.g. sensing reflected white light
    • G06K7/1404Methods for optical code recognition
    • G06K7/1439Methods for optical code recognition including a method step for retrieval of the optical code
    • G06K7/1443Methods for optical code recognition including a method step for retrieval of the optical code locating of the code in an image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06KGRAPHICAL DATA READING; PRESENTATION OF DATA; RECORD CARRIERS; HANDLING RECORD CARRIERS
    • G06K7/00Methods or arrangements for sensing record carriers, e.g. for reading patterns
    • G06K7/10Methods or arrangements for sensing record carriers, e.g. for reading patterns by electromagnetic radiation, e.g. optical sensing; by corpuscular radiation
    • G06K2007/10485Arrangement of optical elements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06KGRAPHICAL DATA READING; PRESENTATION OF DATA; RECORD CARRIERS; HANDLING RECORD CARRIERS
    • G06K2207/00Other aspects
    • G06K2207/1013Multi-focal

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Electromagnetism (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Toxicology (AREA)
  • Artificial Intelligence (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Image Input (AREA)
  • Cameras In General (AREA)
  • Adjustment Of Camera Lenses (AREA)
  • Wire Bonding (AREA)
  • Vehicle Body Suspensions (AREA)
  • Window Of Vehicle (AREA)
  • Rear-View Mirror Devices That Are Mounted On The Exterior Of The Vehicle (AREA)
  • Optical Communication System (AREA)
  • Inorganic Compounds Of Heavy Metals (AREA)
  • Facsimile Scanning Arrangements (AREA)
  • Image Processing (AREA)
  • Color Television Image Signal Generators (AREA)
  • Geophysics And Detection Of Objects (AREA)
  • Automatic Focus Adjustment (AREA)
  • Photometry And Measurement Of Optical Pulse Characteristics (AREA)

Description

  • Die vorliegende Erfindung bezieht sich auf ein System zum optischen Abtasten eines Objekts und auf ein Verfahren zum optischen Abtasten eines Objekts gemäß den Oberbegriffen der unabhängigen Ansprüche. Ein solches System und ein solches Verfahren sind aus JP-A-62-177685 bekannt.
  • Waren, verschiedene Bauteile, Briefe, bewegte Objekte, Behälter sowie eine ganze Palette verwandter Gegenstände, die versandt und transportiert werden, müssen häufig mit Informationen in bezug auf den Ursprung, die Flugnummer, das Ziel, den Namen, den Preis, die Teilnummer sowie zahlreiche weitere Arten von Informationen gekennzeichnet werden. In weiteren Anwendungen ermöglicht das Lesen der codierten Informationen, die auf an den Gegenständen befestigten Etiketten gedruckt sind, sowohl die Automatisierung der Verkaufszahlen und des Inventars als auch den Betrieb elektronischer Registrierkassen. Weitere Anwendungen für die codierten Etiketten umfassen das automatischen Leiten und Sortieren von Post, von Paketen, von Gepäck und dergleichen sowie das Vorsehen von Etiketten, die Herstellungsinformationen tragen, auf Rohstoffen oder Bauteilen in einem Herstellungsprozeß. Etiketten für Artikel dieser Art werden herkömmlich mit Strichcodes gekennzeichnet, wovon einer der UPC-Strichcode ist. Außerdem sind auf dem Gebiet zahlreiche weitere Strichcodesysteme bekannt.
  • Bestimmte Anwendungen erfordern jedoch die Codierung größerer Informationsmengen auf Etiketten zunehmend kleinerer Größe. Kommerziell verfügbare Strichcodesysteme verfügen manchmal nicht über eine ausreichende Daten dichte, um diesen Erfordernissen zu genügen. Versuche, die Datendichte durch das Verringern der Gesamtgröße und des Abstands der Striche in verschiedenen Strichcodesystemen zu erhöhen, haben das Problem nicht gelöst. Wegen der dem Etikettendruckverfahren innewohnenden engen Toleranzen und der zum Auflösen der bitcodierten Striche mit diesen Abmessungen erforderlichen anspruchsvollen optischen Vorrichtung ist die Herstellung von optischen Abtastern mit einer ausreichenden Auflösung zum Erfassen der Strichcodes, die Kontraststriche mit einem Abstand von fünf mil (1 mil = 1/1000 Zoll; 1 Zoll 2,54 cm) oder weniger enthalten, allgemein wirtschaftlich nicht möglich. Alternativ wurden zum Anpassen an erhöhte Datenmengen sehr große Strichcodeetiketten mit dem Ergebnis hergestellt, daß derartige Etiketten nicht kompakt genug sind, um an kleinen Artikeln befestigt zu werden. Ein weiterer wichtiger Faktor sind die Kosten des Etikettenmediums wie etwa Papier. Die Papierkosten eines kleinen Etiketts sind geringer als die eines großen Etiketts. Bei Großserienvorgängen sind diese Kosten ein wichtiger Faktor.
  • Somit wurden weitere Codetypen untersucht, um die mit den Strichcodes verknüpften Probleme zu überwinden. Einige Alternativen zu Strichcodes sind: kreisförmige Formate unter Verwendung radial angeordneter keilförmiger codierter Elemente wie etwa diejenigen, die in dem US-Patent Nr. 3.553.438, erteilt an Blitz und betitelt "Mark Sensing System, or concentric black and white bit-encoded rings", offenbart sind, bzw. diejenigen, die in den US- Patenten Nr. 3.971.917 und 3.916.160, erteilt an Maddox und Russo, offenbart sind; Gitter aus Zeilen und Spalten aus mit Daten codierten Quadraten oder Rechtecken wie etwa in dem US-Patent Nr. 4.286.146 mit dem Titel "Coded Label and Code Reader for the Coded Label", erteilt an Uno; in Zellen angebrachte mikroskopische Pünktchen, die ein regelmäßig beabstandetes Gitter bilden, wie sie in dem US-Patent Nr. 4.634.850 mit dem Titel "Quad Density Optical Data System", erteilt an Pierce, offenbart sind; und dicht gepackte Mehrfarb-Datenfelder aus Punkten oder Elementen, wie sie etwa in dem US-Patent Nr. 4.488.679 mit dem Titel "Code and Reading System", erteilt an Bockholt, beschrieben sind.
  • Für viele Anwendungen waren diese Codes ausreichend. Jedoch schafften einige der in den vorstehenden Beispielen beschriebenen Codierungssysteme sowie weitere auf dem Gebiet bekannte Codierungssysteme dennoch nicht die geforderte Datendichte. Zum Beispiel schafften die codierten kreisförmigen Muster und die Gitter aus rechteckigen oder quadratischen Kästen keine ausreichende Dichte. Alternativ erfordern solche im Fall der obenerwähnten Gitter aus mikroskopischen Pünktchen oder mehrfarbigen Elementen bestehenden Systeme eine spezielle Orientierungs- und Transporteinrichtung, was somit die Zweckmäßigkeit für stark gesteuerte Leseumgebungen begrenzt. Eine weitere Verbesserung, das US-Patent Nr. 4.874.936 mit dem Titel "Hexagonal Information Encoding Article, Process and System", erteilt an Chandler, offenbart ein Etikett für die Speicherung von mit Informationen codierten Hexagonen, das dicht gepackte Informationen speichert und mit einer hohen Geschwindigkeit in irgendeiner Richtung gelesen werden kann. Diese Verbesserung löst somit die mit den Strichcodes verknüpften Datendichteprobleme.
  • Die Formate der neueren Codiersysteme einschließlich des von Chandler gelehrten Codiersystems sind jedoch von den herkömmlichen Strichcodes vollständig verschieden und können von herkömmlichen Strichcodelesern nicht gelesen werden. Daher ist es schwierig, die neueren Codierverfahren, die die Datendichteprobleme der Strichcodes lösen können, in einer Umgebung zu verwenden, in der außerdem Strichcodes vorhanden sind, es sei denn, daß für jeden Codetyp ein getrenntes Abtast- und Decodiergerät bereitgestellt wird. Somit wäre es vorteilhaft, eine einzige Abtast- und Decodiervorrichtung zu besitzen, die verschiedene Typen von Codiersystemen erfassen und decodieren kann, wenn die verschiedenen Codiersysteme alternativ in dem Bereich der optischen Abtast- und Decodiervorrichtung angeordnet werden. Außerdem sind bei der Verwendung von Codes mit einer höheren Dichte eine optische Abtastung mit einer höheren Auflösung und folglich höhere Beleuchtungspegel erforderlich. Die sehr hohen Beleuchtungspegel sind jedoch nur einige Zeit erforderlich. Während der verbleibenden Zeiträume wird Energie verschwendet und eine unnötige Gefahr von Augenverletzungen erzeugt.
  • Ungeachtet des Typs des verwendeten Codiersystems ist in vielen Anwendungen eine hochwertige Erfassung erforderlich. Moderne Fördersysteme können Förderbänder mit Breiten von drei bis vier Fuß (1 Fuß = 12 Zoll; 1 Zoll 2,54 cm) besitzen, über denen die Position eines mit Informationen codierten Etiketts angeordnet sein kann, wobei sie Bandgeschwindigkeiten von fünfhundert Fuß pro Minute oder mehr besitzen können. Sie tragen bewegte Objekte mit einer möglicherweise unterschiedlichen Höhe, auf denen mit Informationen codierte Etiketten angeordnet sind. Somit kann es sehr schwer sein, die auf diesen schnellbewegten Objekten angeordneten mit Daten codierten Etiketten mit optischen Decodiersystemen zu lokalisieren und zu lesen.
  • Diese Probleme führten zu dem Bedarf an der Schaffung einer einfachen, schnellen und kostengünstigen Einrichtung zum Signalisieren der Anwesenheit eines datencodierten Etiketts in dem Blickfeld eines optischen Abtasters, der in einer solchen Weise angeordnet ist, daß er das Abtasten des gesamten Förderbands ermöglicht. Auf dem Gebiet ist eine Lösung dieser Probleme durch die Schaffung leicht erkennbarer optischer Erfassungsziele als Teil eines Codiersystems bekannt. Zum Beispiel verwendet das von Chandler gelehrte System für diesen Zweck ein Erfassungsziel mit konzentrischen Ringen.
  • Es ist selbstverständlich, daß auch Strichcodesysteme ein Erfassungsziel schaffen. Zum Beispiel wird auf dem Gebiet des Erfassens von Strichcodes herkömmlich die von den Strichen gebildete rechteckige Form im voraus erfaßt. In Systemen dieser Art kann ein Rechteck auf das Vorhandensein eines Strichcodes hinweisen. Herkömmliche Strichcodeabtaster versuchen dann nach dem Erfassen des Rechtecks in dem im voraus erfaßten Rechteck codierte Daten zu finden. Falls festgestellt wird, daß in dem Rechteck gültige Daten codiert sind, wird somit der Strichcode erfaßt. Jedoch können in diesem Verfahren viele andere Arten von Rechtecken in dem Bereich der optischen Abtastvorrichtung falsche Voraus-Erfassungen verursachen.
  • Auf dem Gebiet sind weitere Datenanordnungen mit von den konzentrischen Ringen und Strichcodes verschiedenen Erfassungszielen bekannt. Zum Beispiel sind in dem US- Patent Nr. 3.513.320, am 19. Mai 1970 erteilt an Weldon und betitelt "Article Identification System Detecting Plurality of Colors Disposed on an Article", sowie in dem US-Patent Nr. 3.603.728, am 7. September 1979 erteilt an Arimura und betitelt "Position and Direction Detecting System Using Patterns", von Ringen verschiedene konzentrische geometrische Figuren wie etwa Quadrate, Dreiecke, Hexagone sowie zahlreiche Abwandlungen von ihnen beschrieben. Das am 19. September 1972 an Kubo u. a. erteilte und "Method For Detecting the Position and Direction of a Fine Object" betitelte US-Patent Nr. 3.693.154 sowie das am 2. April 1974 an Acker erteilte und "Method and Apparatus for Identifying Objects" betitelte US-Patent Nr. 3.801.775 beschreiben ebenfalls Systeme, die Symbole mit konzentrischen Kreisen als Kennzeichnungs- und Positionsanzeiger verwenden, wobei die Symbole an den optisch abzutastenden Artikeln befestigt sind.
  • Das an Melvin erteilte US-Patent Nr. 3.553.438 mit dem Titel "Mark Sensing System" offenbart eine kreisförmige Datenanordnung mit einem mittig angeordneten Erfassungsziel mit einer Anzahl konzentrischer Kreise. Das Erfassungsziel von Melvin liefert ein Bild, das von einer optischen Abtastvorrichtung zum Lokalisieren des Etiketts verwendet werden kann. Außerdem ermöglicht das Erfassungsziel von Melvin die Bestimmung der geometrischen Mitte des Etiketts und der geometrischen Mitte der Datenanordnung. Dies erfolgt durch eine Logikschaltungsanordnung, die das Impulsmuster, das die konzentrische Ringkonfiguration darstellt, erkennt.
  • Die vorstehenden Systeme werden allgemein mit einem optischen Sensor abgetastet, der eine Videosignalausgabe erzeugen kann. Das Videoausgangssignal entspricht der Änderung der Intensität des an der Datenanordnung reflektierten Lichts und stellt somit die Position und die Orientierung des abgetasteten Symbols dar. Das Videoausgangssignal solcher Systeme weist nach der Digitalisierung ein besonderes Bitmuster auf, das mit einem vorgegebenen Bitmuster verglichen werden kann. Wie in dem von Chandler gelehrten System ist ein übliches Bitmuster dieses Typs eine einfache Sinusschwingung.
  • Die Erfassung des Vorhandenseins von Sinusschwingungen wie etwa den von diesen Systemen erzeugten Sinusschwingungen ist sowohl im Digital- als auch im Analogbereich wohlbekannt. Jedoch muß die Erkennung des Ziels in schnellen optischen Systemen zur Erfassung digitaler Daten in einem viel geringeren Zeitraum erfolgen, als er z. B. zur Erkennung der Tastwahl eines Telephons zur Verfügung steht. Somit muß ein System zum Erfassen irgendwelcher dieser Codes die von einer optischen Abtastung eines üblichen optischen Erfassungsziels hervorgerufenen Sinusschwingungen zuverlässig aus einem Signal identifizieren, das nur solange dauert, wie das Erfassungsziel tatsächlich abgetastet wird.
  • Wie zuvor beschrieben wurde, offenbart Chandler eine kreisförmige Datenanordnung mit einem mittig angeordneten Erfassungsziel mit einer Reihe konzentrischer Ringe, die ein sinusförmiges Abtastausgangssignal erzeugt. Das Erfassungsziel von Chandler schafft eine Einrichtung zum Erfassen des kreisförmigen Etiketts mit dem optischen Sensor und zum Bestimmen seiner geometrischen Mitte und somit der geometrischen Mitte der umgebenden Datenanordnung. Dies erfolgt durch eine Logikschaltungsanordnung, die in der Weise arbeitet, daß sie das Impulsmuster erkennt, das die konzentrische Ringkonfiguration des Erfassungziels darstellt.
  • Dieses Erkennungsverfahren stützt sich auf eine eindimensionale Abtastung des konzentrischen Ringmusters. Wenn das Erfassungsziel mit den konzentrischen Ringen von einem Förderband an die Abtastlinie des optischen Abtastgeräts vorgeschoben wird, durchläuft die Abtastlinie schließlich die Mitte der konzentrischen Ringe. Zu diesem Zeitpunkt wird das sinusförmige Abtastausgangssignal an dem Ausgang der optischen Abtastvorrichtung bereitgestellt. Dieses sinusförmige Abtastsignal wird dann von einem Korrelationsfilter erfaßt. Alternativ kann es von irgendeiner andersartigen Sinusschwingungs-Abtastvorrichtung erfaßt werden. Da andere von der optischen Ab tastvorrichtung abgetastete Objekte ebenfalls ein sinusförmiges Signal mit im wesentlichen der gleichen Frequenz wie das Erfassungsziel mit den konzentrischen Ringen liefern können, unterliegt dieses System jedoch einigen falschen Erfassungen. Ein weiteres System, das einen Detektor für konzentrische Ringe dieser Art lehrt, wird von Shaw in der am 11. Juli 1991 eingereichten US-Patentanmeldung mit der lfd. Nr. 07/728.219, entsprechend der am 21.01.93 veröffentlichten WO-A-93 01 566, gelehrt.
  • Dadurch, daß das bei Chandler dargestellte System eine sehr hohe Datendichte sowie ein zuverlässiges System für die Zielerfassung schafft, löst es viele Probleme der Systeme des Standes der Technik. Zusätzlich zu dem Problem der falschen Erfassungen infolge der eindimensionalen Abtastung ist jedoch zum Erfassen des Ziels sowie zum Decodieren der Daten mit einer hohen Dichte eine relativ hochauflösende Abtastung dieses Etiketts erforderlich. Ein System zum optischen Abtasten, das die Daten mit einer höheren Dichte der Codes, die die Dichteprobleme der Strichcodes lösen, abtasten kann, ist somit möglicherweise komplexer und kostspieliger als ein System, das so beschaffen ist, daß es nur ein Ziel mit einer niedrigen Auflösung erfaßt.
  • Somit müssen Systeme zum optischen Abtasten häufig ein Ziel unter sehr schwierigen Umständen erfassen. Das erfaßte Ziel kann in dem Abtastfeld an verschiedenen Orten erscheinen und sich schnell bewegen. Zusätzlich zu diesen Problemen kann das Erfassungsziel in unterschiedlichen Abständen von der optischen Abtastvorrichtung angeordnet sein. Zum Beispiel können Etiketten an bewegten Objekten wegen der unterschiedlichen Größen der Pakete bei unterschiedlichen Abständen von der Abtastvorrichtung abgetastet werden. Dies führt eine Vergrößerung in das Erfassungsziel der abgetasteten Folge ein. Je näher das Erfassungsziel an der Abtastvorrichtung ist, desto größer erscheint es und desto niedriger ist die Frequenz der abgetasteten Folge. Größere Abtastabstände erzeugen höhere Frequenzen. Da Digitalfilter mit einstellbaren Polstellen und Nullstellen teuer und kompliziert sein können, kann die von den unterschiedlichen Vergrößerungsbeträgen verursachte Erfassung der unterschiedlichen Frequenzen schwierig sein. Außerdem führt der veränderliche Abstand die Notwendigkeit der Fokussierung zum genauen Abtasten des Erfassungsziels ein.
  • Im Stand der Technik sind zwei übliche Lösungen für diese Probleme bekannt. Eine im Stand der Technik bekannte übliche Lösung für das Fokussierungsproblem ist die Verwendung einer ausreichenden Tiefenschärfe, um die Erfassung des Erfassungsziels bei unterschiedlichen Abständen von der optischen Abtastvorrichtung zu ermöglichen. Eine weitere übliche Lösung für das Vergrößerungsproblem besteht im Festsetzen des Abstands zwischen der optischen Abtastvorrichtung und dem Erfassungsziel, um eine Vergrößerung zu verhindern.
  • Literaturverweise des Standes der Technik, die die Verwendung einer großen Tiefenschärfe zum Vermeiden von Fokussierungsproblemen lehren, umfassen: Das US-Patent Nr. 4.544.064 mit dem Titel "Distribution Installation for Moving Piece Goods", erteilt an Felder; das US-Patent Nr. 3.801.775 mit dem Titel "Method and Apparatus for Identifying Objects", erteilt an Acker; das US-Patent Nr. 3.550.770 mit dem Titel "Method for Automatic Sorting or Recording of Objects and Apparatus for Carrying Out the Method", erteilt an Lund, sowie das US-Patent Nr. 4.454.610 mit dem Titel "Methods and Apparatus for the Automatic Classification of Patterns", erteilt an Sziklai.
  • Ein Beispiel eines Literaturverweises, das einen festen Abstand zwischen dem Erfassungsziel und der optischen Abtastvorrichtung lehrt, umfaßt: US-Patent Nr. 3.971.917 mit dem Titel "Labels and Label Readers", erteilt an Maddox u. a. Ein weiterer Literaturverweis, der dies lehrt, ist das US-Patent Nr. 3.757.090 mit dem Titel "Mechanical Reading and Recognition of Information Displayed an Information Carriers", erteilt an Haefeli u. a.
  • Eine Lösung sowohl für das Fokussierungsproblem als auch für das Vergrößerungsproblem ist das Einstellen des Abstands zwischen dem Erfassungsziel und der optischen Abtastvorrichtung. Das US-Patent Nr. 4.776.464, erteilt an Miller, lehrt diese Art der Einstellung. Jedoch ist dieses Verfahren für eine große Anzahl schnell bewegter und eng beabstandeter Objekte mit sehr unterschiedlichen Höhen mechanisch schwierig. Außerdem lehrt das von Shaw in der US-Patentanmeldung mit der lfd. Nr. 07/728.219 (WO-A-93 O1 566) gelehrte System eine ähnliche Lösung für dieses Problem.
  • Das Mehrcode-Kamerasystem der vorliegenden Erfindung kann gleichzeitig nach einer Anzahl unterschiedlicher optischer Codes suchen. Beim Erfassen eines optischen Codes decodiert es gemäß dem richtigen Decodieralgorithmus. Diese Codes können mit Informationen codierte Polygone, verschiedene Strichcodes sowie optische Zeichenerkennungscodes umfassen. Das Mehrcode-Kamerasystem ist mit einer Paralleldecodierarchitektur mit paralleler Decodierung ausgestattet, die ermöglicht, daß es nach mehreren Codes gleichzeitig sucht. Das System ist mit zwei verschiedenen Datenbussen verbunden, die den Parallelbetrieb erleichtern. Diese zwei Busse sind: (1) Ein Systembus, der die Komponenten des Mehrcode-Kamerasystems verbindet, und (2) ein Pixelbus, der einen Analog- Digital-Umsetzer von der optischen Abtastvorrichtung mit einer Anzahl verschiedener Codeerfassungsplatinen verbindet.
  • Einige der verschiedenen bereits in das System eingesetzten Codeerfassungsplatinen umfassen: Eine an den Pixelbus angeschlossene Schnittstellenplatine, die die Logik für die Strichcode-Vorerfassung enthält. Ein ebenfalls an den Pixelbus angeschlossener Detektor für konzentrische Ringe, der einen Algorithmus zum Erfassen von Zielen mit konzentrischen Ringen ausführt. Und falls eine optische Zeichenerkennung ausgeführt werden soll, kann z. B. außerdem ebenfalls eine Erfassungseinrichtung für optische Zeichen an den Pixelbus angeschlossen werden. Für die gleichzeitige Überwachung des Pixelbusses und für die Erfassung zusätzlicher Codearten können in diese Architektur außerdem weitere Codedetektoren eingesetzt werden. Infolge der parallelen Architektur des Mehrcode-Kamerasystems wird die gesamte Verarbeitung der Detektoren für die gleichzeitige Codeerfassung parallel zu den Systemfunktionen ausgeführt. Zum Beispiel wird die Höhenabtastung von dem Systemprozessor parallel zu den verschiedenen Codeerfassungsalgorithmen ausgeführt.
  • In dem Detektor für Erfassungsziele mit konzentrischen Ringen sind die Daten von der optischen Abtastvorrichtung so beschaffen, daß sie zweidimensionale Anordnungen bilden, die zweidimensionale abgetastete Gebiete darstellen, durch die das Erfassungsziel läuft. Die sich daraus ergebenden zweidimensionalen Anordnungen der abgetasteten Daten werden mit ausgewählten Korrelationsschablonen korreliert, wobei jede Korrelationsschablone ein Bild des Erfassungsziels mit den konzentrischen Ringen in einer vorgegebenen Höhe über dem Band darstellt. Dieses Verfahren kann auf Bilder angewendet werden, die zusätzlich zu der Vergrößerung eine irgendwie geartete Transformation erfahren, vorausgesetzt, daß die transformierten Bilder als Schablonenbilder für die Korrelation und Identifizierung dargestellt werden können. Zum Beispiel kann ein Bild identifiziert werden, wenn es durch Verzerren, durch Drehen oder durch Positionieren in unterschiedlichen Winkeln oder durch Drehungen in bezug auf die Abtastvorrichtung transformiert ist.
  • Um unabhängig von dem Abstand des Ziels von der optischen Abtastvorrichtung eine konstante Anzahl von Abtastungen pro Ziel zu schaffen, wird die optische Abtastvorrichtung mit einer Rate getaktet, die die Geschwindigkeit des Ziels darstellt. Da die Vergrößerung nur entlang der Achse senkrecht zur Bewegungsrichtung auftritt, sind die Korrelationsschablonen, wenn sie vergrößerte Bilder darstellen, somit elliptisch anstatt rund. Die richtigen Korrelationsschablonen werden gemäß dem Betrag der Vergrößerung oder der Verzerrung oder des Winkels bestimmt. Die bestimmte Schablone wird dann in den zweidimensionalen Korrelatoren angeordnet.
  • Verschiedene Stufen in dem Ringdetektor werden mit verschiedenen Raten getaktet. Es muß jedoch ein konstanter Durchsatz durch den Detektor bereitgestellt werden. Dies wird durch Verschachteln der Daten und durch gleichzeitiges Ausführen einer unabhängigen Verarbeitung an einem momentanen Vollbild und an einem vorausgehenden Vollbild in den Stufen des Detektors erreicht.
  • Das Kamerasystem erfordert keine optischen Eicheinstellungen. Dies wird durch die Verwendung äußerst enger Toleranzen bei der Bearbeitung des Gehäuses für alle zum Anbringen der Spiegel und der weiteren optischen Elemente verwendeten Bohrungen erreicht. Somit können diese Elemente beim Zusammensetzen des Kamerasystems an genau dem richtigen Ort befestigt werden. Außerdem wird eine Verrippung mit einer äußerst engen Toleranz bereitgestellt, so daß der Reflektor des Kamerasystems bei der federnden Befestigung an der Verrippung seine richtige elliptische Form behält. Die Beleuchtungsquelle des Mehrcode-Kamerasystems und das Förderband sind an den jeweiligen Brennpunkten einer Ellipse angeordnet, wobei der federnd befestigte Reflektor über der Beleuchtungsquelle so beschaffen ist, daß er der Form der Ellipse folgt.
  • Die Abtastrate der optischen Abtastvorrichtung in dem Kamerasystem wird von dem Förderband gesteuert. Die Bandgeschwindigkeit wird der Abtastvorrichtung über den Ausgang des Codierers zugeführt. Da die Abtastrate gemäß der Bandgeschwindigkeit gesteuert wird, steigt die Integrationszeitdauer pro Abtastung bei geringeren Bandgeschwindigkeiten. Somit sinken die Beleuchtungsanforderungen der optischen Abtastvorrichtung bei geringeren Bandgeschwindigkeiten, während sie bei höheren Bandgeschwindigkeiten wachsen. Eine Kompensation für die Menge der von der Beleuchtungsquelle bereitgestellten Beleuchtung sowie eine Kompensation für die Integrationszeit wird dadurch ausgeführt, daß die Amplitude des gesamten Videosignals auf der Grundlage der Amplitude eines Weißbezugs eingestellt wird.
  • Für die Ausführung der Weißbezugskorrektur werden zwei Verfahren bereitgestellt. Ein Verfahren für die Ausführung der Weißbezugskorrektur besteht darin, daß das Ausgangssignal des Codierers einem Frequenz-Spannungs- Umsetzer zugeführt und die Amplitude des Videosignals von der optischen Abtastvorrichtung gemäß dem Gleichstrom- Ausgangspegel dieses Umsetzers gesteuert wird.
  • Ein weiteres Verfahren für die Ausführung der Weißbezugsintegration verwendet über Lichtleitkabel übertragenes Licht. In diesem Verfahren sind von jedem Kolben der Beleuchtungsquelle Lichtleitkabel zu ausgewählten Pixeln der optischen Abtastvorrichtung vorgesehen. Diese ausgewählten Pixel sind für die Weißbezugsintegration vorgesehen und somit für die Darstellung der auf einem optischen Ziel codierten Informationen nicht verfügbar.
  • Um zu verhindern, daß die Kolben einander infolge ihrer relativen Nähe zu dem Sensor dominieren, werden zweckmäßig von jedem Kolben der Beleuchtungsquelle getrennte Lichtleiter verlegt. Das Ausgangssignal der Abtastvorrichtung, das diesen hierzu vorgesehenen Pixeln entspricht, wird dann zum Steuern der Weißbezugsintegration verwendet. Außerdem kann der Codierer zum Steuern des Beleuchtungspegels der Beleuchtungsquelle verwendet werden. Somit kann die Beleuchtungsquelle gedämpft werden, wenn sich das Band langsamer bewegt.
  • Der Dunkelbezug beruht auf dem Ausgangssignal einer Blindzelle in der optischen Abtastvorrichtung, die während jedes Abtastzyklus abgetastet wird. Durch die Dunkelbezugsintegration wird das Problem gelöst, daß ein kleiner Informationswert an dem Ausgang der optischen Abtastvorrichtung auf einem großen Gleichstromversatz sitzen kann. Dieser Versatz kann sich in Abhängigkeit von der Temperatur und der Alterung des Kamerasystems ändern. Um diesen Versatz zu korrigieren, wird für jede Abtastung der Vorrichtung zum optischen Abtasten auf der Grundlage des Ausgangssignals der Dunkelzelle eine iterative Integration ausgeführt. Somit führt das Kamerasystem für jede Abtastung fortwährend wiederholte Integrationen aus, um Versatzkorrektur zu erhalten.
  • Das Mehrcode-Kamerasystem ist mit einem Echtzeit-Fokussierungssystem versehen. In dem Echtzeit-Fokussierungssystem bestimmt ein Objekthöhensensor ständig den Abstand von der Codekamera zu einer Oberfläche unter ihr. Gemäß diesem gemessenen Abstand wird die Kameraoptik der Mehr codekamera fortwährend fokussiert. In diesem Echtzeit- Fokussierungssystem oder Dauerfokussystem wird eine Verzögerung zwischen der Messung eines Abstands und der Steuerung der Kameraoptik gemäß dem gemessenen Abstand gemäß der aus einem Ausgangssignal des Codierers bestimmten Geschwindigkeit des Förderbands eingestellt.
  • Das Mehrcode-Kamerasystem ist mit einem Zwangs-Luftkonvektions-Kühlkreislauf für die Abkühlung z. B. der Elektronik des Systems ausgestattet. In diesem Kühlkreislauf wird Luft über die elektronischen Schaltungen des Kamerasystems, durch einen Zusatzluftkanal, über die Systemstromversorgung, durch ein Wärmeaustauschfach und zurück zu den elektronischen Schaltungen gedrückt. In dem Wärmeaustauschfach wird über die Außenhaut des Fachs ein Wärmeaustausch mit dem Äußeren des Kamerasystems ermöglicht. Außerdem ist der Zusatzluftkanal zwischen der Elektronik und der Systemstromversorgung so beschaffen, daß er die Ableitung einiger Systemwärme von der von den elektronischen Schaltungen zu der Systemstromversorgung zirkulierenden Luft ermöglicht.
  • Die Kamera des Mehrcode-Kamerasystems, die elektronischen Schaltungen und die Systemstromversorgung sind in getrennt abgedichteten Fächern angeordnet. Das dichte Fach für die elektronische Schaltung sowie das dichte Fach für die Systemstromversorgung sind mittels des Zusatzluftkanals über das Fluid miteinander verbunden. Der Gesamtluftkreislauf ist ebenfalls abgedichtet. Da der Gesamtkreislauf abgedichtet ist, ist die umlaufende Luft im wesentlichen staubfrei.
  • Eine horizontale Anordnung des Kamerasystems besitzt Vorteile gegenüber einer vertikalen. Ein wichtiger Vorteil ist die Fähigkeit, die Förderbänder bei einer horizontalen Anordnung der Kamerasysteme enger übereinander zu stapeln. Außerdem unterliegen horizontal angeordnete Systeme weniger Oszillationen. In der Vergangenheit waren diese Systeme immer vertikal, wobei sich ihre Abkühlung auf natürliche Konvektionsströme stützen konnte. Das vorliegende System kann somit wegen der Zwangskühlung horizontal angeordnet werden.
  • JP-A-62-177685 offenbart einen mit einem Ellipsoidspiegel ausgestatteten optischen Informationsleser. Die Brennpunkte F und F' des Spiegels fallen jeweils mit dem Lesepunkt und mit dem Glühfaden einer Lampe zusammen.
  • US-A-3 992 623 offenbart einen optischen Abtaster mit einer Abtastanordnung mit einem gefalteten Spiegel.
  • US-A-4 097 731 offenbart eine automatische Verstärkungsregelung für optische Lesevorrichtungen, in der die Intensität der Sensorlichtquelle geregelt wird, um äußere Faktoren in der Betriebsumgebung zu kompensieren.
  • Die Erfindung hat die Aufgabe, ein System und ein Verfahren zum optischen Abtasten eines Objekts zu schaffen, die gut an unterschiedliche Geschwindigkeiten der abzutastenden Objekte angepaßt sind.
  • Diese Aufgabe wird gelöst in Übereinstimmung mit den Merkmalen der unabhängigen Ansprüche. Die abhängigen Ansprüche sind auf zweckmäßige Ausführungen der Erfindung gerichtet.
  • Fig. 1 zeigt eine Seitenansicht eines Mehrcode-Kamerasystems, auf das die vorliegende Erfindung angewendet werden kann.
  • Fig. 2 zeigt eine Draufsicht des Mehrcode-Kamerasystems nach Fig. 1.
  • Fig. 3 zeigt eine Seitenansicht einer alternativen Ausführung des Mehrcode-Kamerasystems nach Fig. 1, wobei die alternative Ausführung vertikal angeordnet ist und mit natürlichen Konvektionsströmen gekühlt wird.
  • Fig. 4 zeigt einen Blockschaltplan der Datenverarbeitungsarchitektur des Mehrcode-Kamerasystems nach Fig. 1 zum gleichzeitigen Abtasten bewegter Ziele für mehrere verschiedene Erfassungsziele und für mehrere verschiedene Codes sowie zum Erfassen und Decodieren der Ziele.
  • Fig. 5 zeigt einen ausführlicheren Blockschaltplan eines Teils des Detektors für die Erfassungsziele mit den konzentrischen Ringen der parallelen Architektur nach Fig. 4.
  • Fig. 6 zeigt einen ausführlicheren Blockschaltplan eines Abschnitts des Detektors für die Erfassungsziele mit den konzentrischen Ringen der parallelen Architektur nach Fig. 4.
  • Fig. 7 zeigt eine ausführlichere Darstellung des Analog- Digital-Umsetzers der parallelen Architektur nach Fig. 4 zum Empfangen und regelbaren Verarbeiten des Ausgangssignals der optischen Abtastvorrichtung gemäß der Geschwindigkeit des Förderbands.
  • Fig. 8 zeigt eine Teilansicht des Mehrcode-Kamerasystems nach Fig. 1 mit Glasfaserbündeln zum Übertragen von Licht von der Beleuchtungsquelle zu der optischen Abtastvorrichtung zum Ausführen einer Weißbezugsintegration.
  • Fig. 9 zeigt einen Blockschaltplan eines Systems zum Steuern der Beleuchtung des Kamerasystems nach Fig. 1.
  • Fig. 10 zeigt ein System zum fortwährenden Fokussieren der Kamera des Mehrcode-Kamerasystems nach Fig. 1.
  • In Fig. 1 ist nun eine Seitenansicht des horizontal angeordneten Mehrcode-Kamerasystems 10 der vorliegenden Erfindung gezeigt. In dem Mehrcode = Kamerasystem 10 ist auf dem bewegten Paket 42, das von dem Förderband 20 transportiert wird, ein optisch lesbares mit Informationen codiertes Etikett 44 angeordnet. Wenn das mit Informationen codierte Etikett 44 an der Kameraachse 33 vorbei transportiert wird, wird es somit von der Kamera 50 des Mehrcode-Kamerasystems 10 abgetastet, um elektrische Signale zu erzeugen, die das an dem Etikett 44 reflektierte Licht darstellen. Es ist selbstverständlich, daß das an dem optisch lesbaren Etikett 44 reflektierte Licht die auf dem Etikett 44 codierten Informationen darstellt.
  • Die Beleuchtung des optisch lesbaren mit Informationen codierten Etiketts 44 wird in dem Mehrcode-Kamerasystem 10 von dem regelbaren Beleuchtungssystem 12 bereitgestellt. Das regelbare Beleuchtungssystem 12 umfaßt mehrere Beleuchtungsquellen 15 oder Kolben 15, die jeweils in dem Reflektorkasten 13 angebracht sind und von einer einzelnen Stromversorgung 16 gesteuert werden. Um die von ihrer entsprechenden Beleuchtungsquelle 15 gelieferte Lichtenergie zu steuern, kann jede einzelne Stromversorgung 16 in herkömmlicher Weise getrennt gesteuert werden.
  • Das regelbare Beleuchtungssystem 12 des Kamerasystems 10 ist außerdem mit einem elliptischen Reflektor 14 in dem Reflektorkasten 13 ausgestattet. Der elliptische Reflektor 14 ist mit den Rippen 11 an die Form eines Bereichs der Beleuchtungsellipse 18 angepaßt, wobei er auf diese Weise die Beleuchtungsellipse 18 bildet. Der elliptische Reflektor 14 ist so beschaffen, daß er die von den Beleuchtungsquellen 15 auf das über dem Förderband 20 angeordnete optisch lesbare Etikett 44 emittierte Lichtenergie reflektiert. Die Beleuchtungsquellen 15 und das Förderband 20 sind an den jeweiligen Brennpunkten 22, 24 der Beleuchtungsellipse 18 angebracht.
  • Das von den Beleuchtungsquellen 15 emittierte und von dem bewegten Paket 42, dem mit Informationen codierten Etikett 44 und dem Förderband 20 reflektierte Licht wird durch eine optischen Öffnung 27 von dem Spiegelkasten 31 empfangen. Das durch die optische Öffnung 27 empfangene Licht wird mit drei Spiegeln 26 gefaltet, um in dem Spiegelkasten 31 den gefalteten optischen Weg 30 zu schaffen. Die Position der Träger 28 z. B. an den Wänden 25, 29 des Spiegelkastens ist mit sehr engen Toleranzen bestimmt. Somit können die Positionen der Spiegel 26 genau bestimmt werden, wobei auf diese Weise durch die feste Optik des Kamerasystems 10 die Notwendigkeit der Eichung beseitigt wird. Für den Fachmann auf dem Gebiet ist selbstverständlich, daß die durch den gefalteten optischen Weg 30 geschaffene erhöhte Gesamtlänge des optischen Wegs das Mehrcode-Kamerasystem 10 gegenüber der Höhe der bewegten Pakete 42 über dem Förderband 20 weniger empfindlich macht.
  • Das horizontal angeordnete Mehrcode-Kamerasystem 10 ist mit einem dichten Zwangs-Luftkonvektions-Kühlsystem 37 zum Abkühlen der (nicht gezeigten) Elektronik sowie der (nicht gezeigten) Systemstromversorgung des Kamerasystems 10 ausgestattet. Das dichte Zwangs-Luftkonvektions-Kühlsystem 37 umfaßt das Gebläserad 34, das durch den Wärmeaustauscheinlaß 39 Warmluft in das Wärmeaustauschfach 36 zieht und durch den Wärmeaustauschauslaß 38 Kaltluft aus dem Wärmeaustauschfach 36 drückt. In dem Wärmeaustauschfach 36 wird die Luft durch den Wärmeaustausch mit der Umgebung außerhalb des Wärmeaustauschfachs 36 über die Außenhaut des Wärmeaustauschfachs 36 abgekühlt. Die abgekühlte Luft, die durch den Wärmeaustauschauslaß 38 aus dem Wärmeaustauschfach 36 ausgestoßen wird, wird in dem Mehrcode-Kamerasystem 10 zum Abkühlen sowohl der Systemelektronik als auch der Systemstromversorgung verwendet.
  • In Fig. 2 ist nun eine Draufsicht eines Mehrcode-Kamerasystems 10 gezeigt. Das Mehrcode-Kamerasystem 10 ist mit drei getrennt abgedichteten Fächern 40a, b, c ausgestattet. In dem getrennt abgedichteten Fach 40a ist die Systemelektronik des Kamerasystems 10 untergebracht, während in dem getrennt abgedichteten Fach 40c die Systemstromversorgung des Kamerasystems 10 untergebracht ist. Somit sind die Komponenten in den dichten Fächern 40a, c die Komponenten, die von dem Zwangs-Luftkonvektions-Kühlsystem 37 abgekühlt werden müssen. In dem getrennt abgedichteten Fach 40b ist die Kamera 50 untergebracht, die in dem Mehrcode-Kamerasystem 10 keine Abkühlung benötigt. Die Positionierung der Systemelektronik des Fachs 40a und der Kamera 50 des Fachs 40b in dem gleichen Gehäuse des Kamerasystems 10 im wesentlichen nahe beieinander ermöglicht sehr kurze Kabel zwischen der Kamera 50 und der Elektronik des Fachs 40a. Dies führt zu einer besseren Rauschunempfindlichkeit in dem Kamerasystem 10.
  • In dem Zwangs-Luftkonvektions-Kühlsystem 37 wird die aus dem Wärmeaustauschauslaß 38 ausgestoßene abgekühlte Luft durch eine Öffnung durch den Boden des Fachs 40a in das getrennt abgedichtete Fach 40a geleitet. Die abgekühlte Luft von dem Auslaß 38 wird dann über die (nicht gezeigten) Leiterplatten in dem getrennt abgedichteten Fach 40a gedrückt, um die elektronische Schaltungsanordnung des Kamerasystems 10 abzukühlen. Nachdem die Luft über die Leiterplatten des dichten Fachs 40a geleitet wurde, verläßt sie das dichte Fach 40a durch den Einlaß 46 des Zusatzluftkanals 42. Der Zusatzluftkanal 42 verläuft von dem Elektronikfach 40a zum Systemstromversorgungsfach 40c und dient als ein Abzug zwischen ihnen.
  • Der Zusatzluftkanal 42 des Konvektionskühlsystems 37 ist so beschaffen, daß er die durch den Kontakt mit der Elektronik des getrennt abgedichteten Fachs 40a erwärmte Luft während des Durchleitens der Luft durch das Fach 40c teilweise abkühlt. Diese teilweise Abkühlung wird dadurch erreicht, daß eine Ableitung der Wärmeenergie durch die Außenhaut des Zusatzluftkanals 42 an die gegenüber dem Mehrcode-Kamerasystem 10 externe Umgebung ermöglicht wird.
  • Die teilweise abgekühlte Luft aus dem Zusatzluftkanal 42 wird dann durch den Kanalauslaß 48 in das getrennt abgedichtete Fach 40c eingespeist, das die (nicht gezeigte) Systemstromversorgung des Mehrcode-Kamerasystems 10 enthält. Diese teilweise abgekühlte Luft wirkt in der Weise, daß sie, während sie über die Stromversorgung zu dem Wärmeaustauscheinlaß 36 fließt, die Stromversorgung abkühlt. Die erwärmte Luft aus dem getrennt abgekühlten Fach 40c wird dann in dem Wärmeaustauschfach 36 des Konvektionskühlsystems 37 abgekühlt. Dieser Zwangs-Konvektionskreislauf wird dann wiederholt, wenn die abgekühlte Luft von dem Gebläserad 34 zurück in das dichte Fach 40a geleitet wird.
  • Die Beleuchtungsquellen 15 und das Förderband 20 sind, wie zuvor beschrieben wurde, an den jeweiligen Brennpunkten 22, 24 der Beleuchtungsellipse 18 angebracht. Das von den Beleuchtungsquellen 15 nach oben gerichtet emittierte Licht wird an dem elliptischen Reflektor 14 reflektiert und von dem elliptischen Reflektor 14 im wesentlichen nach unten gerichtet. Für den Fachmann auf dem Gebiet ist selbstverständlich, daß auf diese Weise von dem ellipti schen Reflektor 14 emittiertes Licht im wesentlichen in Richtung des Brennpunkts 24 reflektiert wird. Für den Fachmann auf dem Gebiet ist ebenfalls selbstverständlich, daß von dem Brennpunkt 22 unter irgendeinem Winkel reflektiertes Licht in den Brennpunkt 24 reflektiert würde, falls sich der elliptische Reflektor 14 über den gesamten Umfang der Beleuchtungsellipse 18 erstrecken würde. Somit optimiert die Form des elliptischen Reflektors 14 die Menge der an dem Brennpunkt 24 ankommenden von den Beleuchtungsquellen 15 emittierten Lichtenergie.
  • Um die Beleuchtungsellipse 18 zu bilden, ist der Reflektor 14 federnd an den Rippen 11 in dem Reflektorkasten 13 angebracht. Es ist selbstverständlich, daß keine Eichung des Reflektors 14 erforderlich ist, wenn die Rippen 11 zum Bilden der Beleuchtungsellipse 18 mit sehr engen Toleranzen hergestellt sind. Der Reflektor 14 wird lediglich gebogen, auf die Rippen 11 zu eingesetzt und so losgelassen, daß er sich federnd an die Form der Rippen 11 anpaßt.
  • In Fig. 3 ist ein vertikal angeordnetes Mehrcode-Kamerasystem 100 gezeigt. Das vertikal angeordnete Mehrcode- Kamerasystem 100 ist eine alternative Ausführung des horizontal angeordneten Mehrcode-Kamerasystems 10. Das Kamerasystem 100 der alternativen Ausführung ist so beschaffen, daß es, während es das Förderband 20 auf ein auf dem bewegten Paket 42 angeordnetes mit Informationen codiertes Etikett 44 abtastet, in einer vertikalen Lage anstelle einer horizontalen Lage angeordnet wird. Das vertikal angeordnete Kamerasystem 100 wird durch die natürlichen Konvektionsströme anstelle der von dem Zwangs-Luftkühlsystem 37 zum Abkühlen der Komponenten des horizontal angeordneten Kamerasystems 10 erzeugten Zwangs-Konvektionsströme abgekühlt. Da das Kühlsystem 37 des Kamerasystems 10 die Luft in dem Kamerasystem 10 bewegt, um die in dem vertikal angeordneten Mehrcode- Kamerasystem 100 durch die natürlichen Konvektionsströme erzeugte Abkühlung zu erzeugen, bewirkt es ein geeignetes Arbeiten des Kamerasystems 10 in der horizontalen Anordnung.
  • Somit ist für den Fachmann auf dem Gebiet selbstverständlich, daß die horizontale Anordnung des Mehrcode-Kamerasystems 10 durch die gedrückte Luft des Konvektionskühlsystems 37 ermöglicht wird. Das horizontal angeordnete Kamerasystem 10 ist folglich so beschaffen, daß es vorteilhafter in Anwendungen verwendet werden kann, in denen die Förderbänder 20 übereinander gestapelt sind, wobei das Kamerasystem 10 zwischen den Förderbändern 20 positioniert werden muß. Außerdem ist die Verwendung des horizontalen Kamerasystems 10 in Anwendungen zweckmäßig, in denen weitere Gegenstände benachbart über oder unter dem Förderband 20 angeordnet sind, was genügend vertikalen Raum für das vertikal angeordnete Kamerasystem 100 verhindert.
  • Da vertikal angeordnete Systeme wie etwa das Kamerasystem 100 schwingungsempfindlicher sind, ermöglicht die horizontale Positionierung des Mehrcode-Kamerasystems 10 außerdem die Verwendung des Kamerasystems 10 in Umgebungen, die mehr Schwingungen ausgesetzt sind. Jedoch ist selbstverständlich, daß die natürliche Konvektionskühlung des horizontal angeordneten Kamerasystems 100 ausreichend für das Ableiten der Wärmeenergie des Kamerasystems 100 ist und somit die Notwendigkeit für ein Zwangs-Luftkonvektions-Kühlsystem 37 beseitigt, wenn die Bedingungen, die eine horizontale Anordnung eines Kamerasystems erfordernden, nicht vorliegen.
  • In Fig. 4 ist eine parallele Videoprozessorarchitektur 150 der Mehrcode-Kamerasysteme 10, 100 gezeigt. Die parallele Videoprozessorarchitektur 150 umfaßt einen Systemprozessor 160, einen Strichcode-Schnittstellenprozessor 174, einen Prozessor 180 für den Detektor für die konzentrischen Ringe, einen Bildprozessor 190 sowie einen Digitalsignalprozessor 194, die sämtlich an den gleichen Prozessorsystembus 170 angeschlossen sind. Für den Fachmann auf dem Gebiet ist selbstverständlich, daß der Anschluß dieser mehreren Prozessoren 160, 174, 180, 190 sowie des Prozessors 194 an den Systembus 170 die gleichzeitige Verarbeitung der Systemfunktionen der Kamerasysteme 10, 100 sowie der Videoverarbeitungs- und Zielerfassungsfunktionen in der parallelen Architektur 150 ermöglicht. Die Systemfunktionen der Mehrcode-Kamerasysteme 10, 100 umfassen solche Funktionen wie die Verarbeitung der Höheninformation der bewegten Pakete 42 auf dem Förderband 20.
  • Außerdem ist die parallele Videoprozessorarchitektur 150 der Kamerasysteme 10, 100 mit dem Pixelbus 172 ausgestattet, der die Bilddaten überträgt. Der Pixelbus 172 führt die über den Analog-Digital-Umsetzer 166 empfangenen Ausgangsdaten der optischen Abtastvorrichtung 154 sowohl der Strichcode-Schnittstelle 174 als auch dem Detektor 180 für die konzentrischen Ringe zu. Wegen der Verwendung des Busses 172 können sowohl die Strichcode-Schnittstelle 174 als auch der Detektor 180 für die konzentrischen Ringe die von der optischen Abtastvorrichtung 154 gelieferten Pixeldaten während des Abtastens der bewegten Pakete 42 durch die optische Abtastvorrichtung 154 gleichzeitig bearbeiten. Somit kann sowohl nach Zielen mit rechteckigen Konfigurationen als auch nach solchen mit kreisförmigen Konfigurationen gleichzeitig gesucht werden.
  • Die Verwendung der Strichcode-Schnittstelle 174 und des Detektors 180 für die konzentrischen Ringe, die auf diese Weise an den Pixeldatenbus 172 angeschlossen sind, ermöglicht, daß die parallele Architektur 150 der Mehrcode- Kamerasysteme 10, 100 gleichzeitig sowohl nach Strichcodes als auch nach konzentrischen Ringen sucht. Außerdem kann an den Pixeldatenbus 172 gleichzeitig ein System 182 für die optische Zeichenerkennung oder irgendein weiteres herkömmliches Code- oder Zielerfassungssystem angeschlossen sein, um die gleichzeitige Suche nach zusätzlichen Arten von mit Informationen codierten Symbolen oder Zielkonfigurationen zu ermöglichen. Es ist selbstverständlich, daß das System 182 unabhängig von dem Bildprozessor 190 und von dem Digitalsignalprozessor 194 arbeiten kann, falls an die parallele Architektur 150 ein System 182 für die optische Zeichenerkennung angeschlossen ist.
  • Wenn die Strichcode-Schnittstelle 174 bzw. der Detektor 180 für die konzentrischen Ringziele im Ergebnis der gleichzeitigen Suche nach den Pixeldaten in der parallelen Architektur 150 einen Strichcode oder konzentrische Ringe erfaßt, liefert er ein jeweiliges Erfaßt-Signal. Es ist selbstverständlich, daß ein von der Strichcode- Schnittstelle 174 geliefertes Erfaßt-Signal auf eine Vorauserkennung eines Strichcodes, der auf dem mit Informationen codierten Etikett 44 angeordnet ist, hinweist. Es ist weiter selbstverständlich, daß ein von dem Detektor 180 für die konzentrischen Ringe geliefertes Erfaßt- Signal auf die vorläufige Erkennung von konzentrischen Ringen, die auf dem mit Informationen codierten Etikett 44 angeordnet sind, hinweist.
  • Als Antwort auf ein Erfaßt-Signal entweder von der Schnittstelle 174 oder von dem Detektor 180 fahren der Videobildprozessor 190 und der Eingabe/Ausgabe-Digitalsignalprozessor 194 mit der Weiterverarbeitung des erfaßten Symbols fort. Diese Weiterverarbeitung geschieht gleich zeitig mit der Verarbeitung der normalen Systemfunktionen durch den Systemprozessor 160. Somit ist selbstverständlich, daß der Digitalsignalprozessor 194 nicht so beschaffen ist, daß er als ein Coprozessor für den Systemprozessor 160 arbeitet.
  • In ähnlicher Weise kann das System 182 für die optische Zeichenerkennung die Pixeldaten des Pixeldatenbusses 172 gleichzeitig mit der Verarbeitung der Strichcode-Schnittstelle 174 und des Detektors 180 für die konzentrischen Ringe überwachen. Somit kann das System 182 für die optische Zeichenerkennung parallel mit der Suche nach Strichcodes und nach Erfassungszielen mit konzentrischen Ringen nach möglicherweise auf den mit Informationen codierten Etiketten 44 angeordneten optischen Zeichen suchen. Wenn von der optischen Abtastvorrichtung 154 ein optisches Zeichen abgetastet worden ist, kann von dem System 182 ein getrenntes Erfassungssignal geliefert werden.
  • In bezug auf die Systemfunktionen der parallelen Videoprozessorarchitektur 150 ist für den Fachmann auf dem Gebiet selbstverständlich, daß der Systemprozessor 160 in der Weise wirkt, daß er alle Verarbeitungsaktivitäten in der parallelen Architektur 150 koordiniert und steuert. Außerdem wirkt der Systemprozessor 160 in der Weise, daß er die Schnittstelle mit weiteren (nicht gezeigten) möglicherweise an die Kamerasysteme 10, 100 angeschlossenen Peripherieeinrichtungen steuert. Die von dem Systemprozessor 160 ausgeführten Systemfunktionen können die Koordinierung der Fokussierung der Kamera 50, des Bandcodierers 152, der mit den Paketen 42 verknüpften Höhenabtastoperationen sowie die Koordinierung des Analog-Digital-Umsetzers 166, des Detektors 180 für die konzentrischen Ringe, des Eingabe/Ausgabe-Digitalsignalprozessors 194 sowie des Bildprozessors 190 umfassen, ohne aber auf diese beschränkt zu sein.
  • Es ist selbstverständlich, daß der Systemprozessor 160 der parallelen Architektur 150 auch für die mit der Bewegung der Pakete 42 verknüpfte Datenverarbeitung verantwortlich ist. Diese Paketdatenverarbeitung durch den Systemprozessor 160 umfaßt das Koordinieren der Vorder- und Hinterkanten der bewegten Pakete 42 mit den erfaßten Etiketten 44. Sie umfaßt außerdem die. Steuerung der Bewegung der (nicht gezeigten) Trenner eines Fördersystems, in dem das Mehrcode-Kamerasystem 10 angewendet wird. Außerdem kann der Systemprozessor 160 die Systemleistung verfolgen, Daten protokollieren und eine Standortkonfiguration der Eingangsseitenelektronik des Lesers liefern. Zum Beispiel können in den von dem Systemprozessor 160 ausgeführten Systemfunktionen die Höhen der bewegten Pakete 42 aufgezeichnet werden, um die Etiketten 44 den bewegten Objekten 42 zuzuordnen und um die Zeitpunkte für das Betätigen der Trenner zu bestimmen.
  • Wenn der Systemprozessor 160 z. B. unter Verwendung der Höhenabtastdaten auf dem Förderband 20 bewegte Pakete 42 oder andere Objekte 42 identifiziert, werden die Objekte 42 in einem Objektunterprogramm in dem lokalen Speicher 162 des Systemprozessors 160 registriert. Gleichzeitig werden Bilder der auf den Paketen 42 angeordneten mit Informationen codierten Etiketten 44 in einem Etikettunterprogramm in dem lokalen Speicher 191 des Bildprozessors 190 gespeichert. Der Digitalsignalprozessor 194 erzeugt dann entsprechend jedem neuen von der optischen Abtastvorrichtung 154 abgetasteten optisch lesbaren Etikett 44 und seiner Position auf dem Förderband 20 ein Unterbrechungssignal. Wenn diese Unterbrechung von dem Systemprozessor 160 der parallelen Architektur 150 empfangen wird, bringt der Systemprozessor 160 jedes Etikett 44 auf der Grundlage seiner Position auf dem Förderband 20 mit seinem Paket 42 in Verbindung. Wenn der Bildprozessor 190 die Verarbeitung abschließt und der Systemprozessor 160 die abschließende Fehlerkorrektur vornimmt, wird die Decodierung der sich daraus ergebenden Etikettmeldung in das Paketunterprogramm eingegeben.
  • Gleichzeitig mit der Ausführung dieser Systemfunktionen durch den Systemprozessor 160 führt der Bildprozessor 190 die für die Verarbeitung der von der optischen Abtastvorrichtung 154 abgetasteten Bilder erforderlichen Funktionen aus. Der Bildprozessor 190 kann für die Erfassung der Erfassungsziele mit konzentrischen Ringen solche Funktionen wie schnelle Fourier-Transformationen und inverse schnelle Fourier-Transformationen ausführen. Außerdem kann der Bildprozessor 190 als ein Prozessor für das Umsetzen des Bilds eines Etiketts in einen Strom von Symbolelement-Farbzuständen dienen. Weitere Funktionen des Bildprozessors 190 umfassen die Kantenverbesserung, die Beseitigung der konzentrische Ringe aus den Bildern der Etiketten und die Bestimmung der Orientierung der Etiketten 44. Wie zuvor beschrieben wurde, wird die Steuerung der Daten zu und von dem Bildprozessor 190 von dem Systemprozessor 160 ausgeführt.
  • Der Detektor 180 für die konzentrischen Ringe der parallelen Videoprozessorarchitektur 50 setzt die Videodaten des Pixeldatenbusses 172 und die Erfaßt-Signale für konzentrische Ringe um und puffert sie. Über den Bus 172 werden diese Signale an die Schnittstelle 174 übertragen. Die Schnittstelle 174 berechnet die Koordinaten der konzentrischen Ringe und sendet über den Bus 196 an den E/A-Digitalsignalprozessor 194. Nach der Vorauserkennung der Ringe lokalisiert der Digitalsignalprozessor 194 dann inmitten der Videoabtastdaten an den möglichen Orten für konzentrische Ringe die Bilder der tatsächlichen mit Informationen codierten Etiketten 44.
  • Der Parallel-Eingabe/Ausgabe-Block 164 der parallelen Videoprozessorarchitektur 150 umfaßt eine große Anzahl (nicht gezeigter) paralleler Eingabe/Ausgabe-Bits sowie (nicht gezeigter) programmierbarer Zeitgeber. Der Bandcodierer 152 führt dem Block 164 über die Leitung 153 ein Signal zu, das die Geschwindigkeit des Förderbands 20 darstellt und die zwei Zeitgeber in dem Parallel-Eingabe/Ausgabe-Block 164 taktet. Einer dieser zwei Zeitgeber wird verwendet, um die absolute Position des Förderbands 20 zu verfolgen. Der andere von dem Bandgeschwindigkeitscodierer 152 getaktete Zeitgeber des. Blocks 164 wird verwendet, um nach dem Durchlauf einer vorgegebenen Länge des Förderbands 20 eine Unterbrechung zu erzeugen. Wegen der Fähigkeit des Parallel-Eingabe/Ausgabe-Blocks 164, nach Maßgabe des Ausgangssignals des Bandgeschwindigkeitscodierers 152 Unterbrechungen bereitzustellen, kann die parallele Architektur 150 die Geschwindigkeit des Förderbands 20 kompensieren.
  • Wenn in dem von den Kamerasystemen 10, 100 abgetasteten Gebiet auf die Anwesenheit eines Erfassungsziels mit konzentrischen Ringen hingewiesen wird, wird eine Unterbrechung erzeugt. Diese Unterbrechung bewirkt ein Blockkopieren des entsprechenden Bilds des mit Informationen codierten Etiketts 44 in den Bildprozessor 190. In dem Bildprozessor 190 wird das Bild dann in Farbzustände mit einfachen Elementen umgesetzt, wobei die Ergebnisse über den Systembus 170 an den Systemprozessor 160 übertragen werden. Die von dem Systemprozessor 160 empfangenen Daten der Etiketten werden mit einem auf dem Förderband 20 angeordneten besonderen Paket 42 verglichen, wobei die Symbolelemente, die das Etikett 44 auf dem Paket 42 darstellen, in Etikettinformationen umgesetzt werden.
  • Diese Etikettinformationen können z. B. eine Adresse oder eine Postleitzahl für die Pakete 42 sein.
  • Beim Auftreten des Unterbrechungssignals werden die skalierten Bilder der mit Informationen codierten Etiketten 44 in der parallelen Videoprozessorarchitektur 150 aus dem Digitalsignalprozessor 194 in den Bildprozessor 190 kopiert. Die Verarbeitung der Bilder in dem Bildprozessor 190 beginnt, wenn in dem Bildprozessor 190 ein vollständiges unverarbeitetes Bild eines Etiketts gebildet worden ist. Wenn die Bildverarbeitung abgeschlossen ist, schreibt der Bildprozessor 190 die Ergebnisse in ein Unterprogramm für die temporäre Speicherung und informiert mittels einer Unterbrechung den Systemprozessor 160.
  • Die Verarbeitung durch den Bildprozessor 190 führt zu einer Abbildung von Etikettsymbolelementen, wobei jedes Element einem Bitwert zugeordnet ist. Außerdem kann eine Pixelabbildung des ursprünglich an den Bildprozessor 190 übergebenen Bilds geliefert werden. Außerdem kann der Bildprozessor 190 z. B. gefensterte Bilder, verbesserte Bilder, Frequenzbereichsbilder, Hellpunktkoordinaten, eine ausgewählte Orientierung, ein Taktbild sowie Darstellungen der Koordinaten des Mittelpunkts jedes Symbolelements liefern.
  • Der Bildprozessor 190 und der Eingabe/Ausgabe-Digitalsignalprozessor 194 sind über den Bildbus 196 miteinander und mit der Schnittstelle 174 verbunden. Der Bildbus 196 ist ein schneller Datenpfad der Art, wie sie dem Fachmann auf dem Gebiet der Schaltungsanordnung für die Verarbeitung von Videobildern wie etwa dem Bildprozessor 190 bekannt sind. Über den Bildbus 196 führt diese Schnittstellenplatine 174 dem Bildprozessor 190 eine Schwarz weiß-Version oder ein Rohbild in einem komprimierten Format zu.
  • Um weiße Punkte zusammenzuwürfeln und schwarze Punkte zusammenzuwürfeln, wird auf der Schnittstellenplatine 174 außerdem eine Tiefpaßfilterung ausgeführt. Die zusammengewürfelten Punkte werden über den Bildbus 196 dem Bildprozessor 190 für die Strichcodeerfassung zugeführt. Es ist selbstverständlich, daß eine Erfassung konzentrischer Ringe durch die Schnittstellenplatine 174 nur einen Merker und nicht die genauen Koordinaten des Mittelpunkts der konzentrischen Ringe erzeugt. Das Finden der genauen Koordinaten des Mittelpunkts wird von dem Bildprozessor 190 ausgeführt, nachdem die Daten über den Bildbus 196 der Schnittstelle 174 zu dem Bildprozessor 190 zugeführt worden sind.
  • In den Fig. 5, 6 ist nun eine ausführlichere Darstellung des Detektors 180 für die konzentrischen Ringziele der parallelen Videoprozessorarchitektur 150 in den Mehrcode- Kamerasystemen 10, 100 gezeigt. Der Detektor 180 für die konzentrischen Ringziele empfängt über den Analog-Digital-Umsetzer 166 und über den Pixeldatenbus 172 auf den Eingangsleitungen 200, 202 Eingangspixeldaten von der optischen Abtastvorrichtung 154. Die über den Umsetzer 166 und über den Bus 172 von der Abtastvorrichtung 154 empfangenen Pixeldaten stellen die Bilder des Förderbands 20 und der von dem Förderband 20 vorgeschobenen bewegten Objekte 42, die die mit Informationen codierten Etiketten 44 tragen, dar.
  • Die Eingangspixeldaten werden abwechselnd sowohl über die Eingangsleitung für die ungeraden Pixel 200 als auch über die Eingangsleitung für die geraden Pixel 202 dem Zuersteinlesen/Zuerst-ausgeben-Block 204 und dem Zuerst-einlesen/Zuerst-ausgeben-Block 206 zugeführt. Dieses abwech selnde Schreiben der Pixel in die Zuerst-einlesen/Zuerstausgeben-Blöcke 202, 204 wird unter der Steuerung der Schreibsteuerleitung 218 des Zuerst-einlesen/Zuerstausgeben-Blocks 204 und der Schreibsteuerleitung 222 des Zuerst-einlesen/Zuerst-ausgeben-Blocks 206 ausgeführt. Während des Betriebs des Detektors 180 für die konzentrischen Ringe sind die Schreibsteuerleitungen 218, 222 abwechselnd während der halben Zeitdauer aktiv.
  • Somit werden während einer Hälfte der Zeitdauer, während der der Detektor 180 in Betrieb ist, sowohl die ungeraden als auch die geraden Pixel über die Detektoreingangsleitungen 200, 202 gleichzeitig dem Zuerst-einlesen/Zuerstausgeben-Block 204 zugeführt. Während der anderen Hälfte des Betriebs werden sowohl die ungeraden als auch die geraden Pixel von den Detektoreingangsleitungen 200, 202 gleichzeitig dem Zuerst-einlesen/Zuerst-ausgeben-Block 206 zugeführt.
  • Somit ist selbstverständlich, daß die während der Schreiboperationen des Detektors 180 für die konzentrischen Ringe von jedem Zuerst-einlesen/Zuerst-ausgeben- Block 204, 206 empfangenen Pixel sowohl ungerade Pixel über die Eingangsleitung 200 als auch gerade Pixel über die Eingangsleitung 202 umfassen. Auf diese Weise liefern die Detektoreingangsleitungen 200, 202 ständig Pixeldaten an den einen oder an den anderen der zwei Blöcke 204, 206 in dem Detektor 180 für die konzentrischen Ringe. Die beiden Eingangsleitungen 200, 202 führen dem Block 204 die Pixel zu, wenn (während der ungeraden Abtastzeilen) die Schreibsteuerleitung 218 aktiv ist, während die beiden Eingangsleitungen 200, 202 dem Block 206 die Pixel zuführen, wenn (während der geraden Abtastzeilen) die Schreibsteuerleitung 222 aktiv ist.
  • Somit enthält der Block 204 sowohl die ungeraden als auch die geraden Pixel einer momentanen Abtastzeile N, während der Block 206 sowohl die ungeraden als auch die geraden Pixel einer vorausgehenden Abtastzeile N-1 enthält. Die somit von den Zuerst-einlesen/Zuerst-ausgeben-Blöcken 204, 206 empfangenen Pixel werden dann über das Pixelumschaltsystem 225 dem Mehrfachabgriff-Zuerst-einlesen/Zuerst-ausgeben-Block 228 zugeführt. Somit können die Zuerst-einlesen/Zuerst-ausgeben-Blöcke 204, 206 jeweils eine Hälfte der Pixel von der Analog-Digital-Platine 166 empfangen und ihre jeweiligen Pixel dem Pixelumschaltsystem 255 mit der halben Rate zuführen, mit der sie über die Detektoreingangsleitungen 200, 202 empfangen wurden. Wie beschrieben wurde, ist die Rate, mit der der Zuersteinlesen/Zuerst-ausgeben-Block 204 die Daten über die Leitungen 208, 210 für die momentane Abtastung dem Pixelumschaltsystem 225 zuführt, halb so groß wie die Rate, mit der die Daten über die Detektoreingangsleitungen 200, 202 dem Zuerst-einlesen/Zuerst-ausgeben-Block 204 zugeführt werden. Ähnlich ist die Rate, mit der der Zuersteinlesen/Zuerst-ausgeben-Block 206 die Daten über die Leitungen 212, 214 für die vorausgehende Abtastung dem Pixelumschaltsystem 225 zuführt, halb so groß wie die Rate, mit der die Daten über die Detektoreingangsleitungen 200, 202 dem Zuerst-einlesen/Zuerst-ausgeben-Block 206 zugeführt werden.
  • Die Übertragung der Daten über jeden Zuerst-einlesen/Zuerst-ausgeben-Block 204, 206 kann somit mittels einer Analogie zum Füllen eines Fluidbehälters, wobei sich der Fluidbehälter gleichzeitig mit der halben Füllrate leert, verstanden werden. Falls zwei solcher Fluidbehälter bereitgestellt werden und jeder während der halben Zeit gefüllt wird, während sich beide gleichzeitig ständig leeren, kann der Gesamtdurchsatz konstant blei ben, ohne daß die Behälter jemals überlaufen oder leer werden. Die konstante Rate des Durchsatzes eines solchen Fluidsystems ist doppelt so groß wie die Leerrate eines einzelnen Behälters.
  • Die beiden Zuerst-einlesen/Zuerst-ausgeben-Blöcke 204, 206 führen dem Pixelumschaltsystem 225 während der gesamten Zeit Daten zu, während der der Detektor 180 für die konzentrischen Ringe in Betrieb ist. Dieser konstante Datenstrom von den Blöcken 204, 206 geschieht unter der Steuerung der Lesesteuerleitung 220. Es ist selbstverständlich, daß die einzelne Lesesteuerleitung 220 im Gegensatz zu den getrennten Schreibsteuerleitungen 218, 220 an beide Blöcke 204, 206 gleichzeitig angelegt ist. Dies geschieht, um zu ermöglichen, daß beide Blöcke 204, 206 ihre Daten dem Pixelumschaltsystem 225 ständig und gleichzeitig zuführen, obgleich immer nur einer von ihnen Daten empfängt. Außerdem ist selbstverständlich, daß die Ausgangsleitungen 208, 210, 212, 214 aller vier Blöcke ständig aktiv sind, wenn dem Ringdetektorsystem 180 Daten zugeführt werden.
  • Wegen des herkömmlichen Entwurfs der optischen Abtastvorrichtung 154, in der die ungeraden Pixel und die geraden Pixel getrennt bereitgestellt werden, ist der Zuersteinlesen/Zuerst-ausgeben-Block 204 so beschaffen, daß er die geraden Pixel und die ungeraden Pixel über die Detektoreingangsleitungen 200, 202 getrennt empfängt. Der Zuerst-einlesen/Zuerst-ausgeben-Block 204 gibt dann auf den jeweiligen Leitungen 208, 210 die empfangenen Pixel getrennt als ungerade Pixel und gerade Pixel aus. Somit schaltet der Schalter 225a des Pixelumschaltsystems 225 hin- und her, wobei er abwechselnd ein ungerades Pixel von der Blockausgangsleitung 208 und ein gerades Pixel von der Blockausgangsleitung 210 empfängt. Auf diese Weise bringt der Schalter 225a des Umschaltsystems 225 die Pixel auf den Leitungen 208, 210 in die serielle Reihenfolge zurück, um sie über die Leitung 224 für die momentane Abtastung an den Mehrfachabgriff-Zuerst-einlesen/Zuerst-ausgeben-Block 228 anzulegen.
  • Auf ähnliche Weise liefert der Zuerst-einlesen/Zuerstausgeben-Block 206 ungerade Pixel auf der Ausgangsleitung 212 und gerade Pixel auf der Ausgangsleitung 214. Die ungeraden und die geraden Pixel auf den Leitungen 212, 214 werden von dem Pixelumschaltsystem 225 abwechselnd empfangen und mit dem Hin- und Herschalten des Schalters 225b des Pixelumschaltsystems 225 in die serielle Reihenfolge gebracht. Die von dem Schalter 225 in die serielle Reihenfolge gebrachten Abtastdaten werden über die Leitung 224 für die momentane Abtastung und über die Leitung 226 für die vorausgehende Abtastung dem Mehrfachabgriff- Zuerst-einlesen/Zuerst-ausgeben-Block 228 zugeführt. Dann werden die dem Zuerst-einlesen/Zuerst-ausgeben-Block 228 über die Leitung 224 für die momentane Abtastung und über die Leitung 226 für die vorausgehende Abtastung zugeführten Pixel durch den Block 228 geschoben. Das Ausgangsabgriffsystem 230 des Blocks 228 wird bereitgestellt, um, während die Pixel durch den Block 228 geschoben werden, über die Abtastleitungen 224, 226 in jedem Zyklus ein Lesen jedes in den Block 228 geschriebenen Pixels zu ermöglichen.
  • Die Ausgangsabgriffe 2300-23031 des Ausgangsabgriffssystems 230 werden dem Schablonenkorrelator 240 zugeführt, während die Ausgangsabgriffe 2301-23032 dem Schablonenkorrelator 242 zugeführt werden. Die Abgriffe 2300-23031 legen die Vollbilder eines momentanen Bilds eines möglichen Ziels mit konzentrischen Ringen an die Schablonenkorrelation 240 an. Auf ähnliche Weise enthalten die Abgriffe 2301-23032 des Ausgangsabgriffssystems 230 das Vollbild des Bilds, das dem Vollbild des momentanen Bilds vorausgeht. Somit werden zwei verschiedene Vollbilder von Bildern, eines in dem Schablonenkorrelator 240 und das andere in dem Schablonenkorrelator 242 des Detektors 180 für die konzentrischen Ringe, gleichzeitig vergleichen. Wie zuvor beschrieben wurde, wird das bewegte Paket 42, das das mit Informationen codierte Etikett 44 trägt, von dem Förderband 20 in den Kamerasystemen 10, 100 transportiert. Zum Bestimmen der Höhe des bewegten Pakets 42 und folglich des Abstands zwischen dem mit Informationen codierten Etikett 44 und der optischen Abtastvorrichtung 154 kann irgendeine Höhenabtastvorrichtung 260 (z. B. ein herkömmlicher Lichtvorhang) verwendet werden. Die Höheninformationen von der Höhenabtastvorrichtung 260 werden dem Höhenprozessor 258 zugeführt. Der Höhenprozessor 258 verwendet diese Höheninformationen, um aus einer vorgegebenen Anzahl von Schablonen T&sub1; ... TN, die in dem Schablonenblock 256 des lokalen Speichers 191 in dem Bildprozessor 190 gespeichert sind, eine auszuwählen.
  • Die in dem Schablonenblock 256 gespeicherten Schablonen T&sub1; ... TN stellen jeweils ein Bild eines Erfassungsziels mit konzentrischen Ringen, das auf einem mit Informationen codierten Etikett 44 angeordnet ist, in einer von mehreren vorgegebenen Höhen, wie es von der optischen Abtastvorrichtung 154 abgetastet wird, dar. Zum Beispiel kann die Schablone T&sub1; einem abgetasteten Bild des Ziels mit den konzentrischen Ringen auf der Ebene des Förderbands 20 entsprechen, während die Schablone TN einem Bild der konzentrischen Ringe bei einer maximal zulässigen Höhe des bewegten Pakets 42 entsprechen kann.
  • Somit wird nach Maßgabe der Höheninformationen von dem Höhensensor 258 eine ausgewählte Schablone T&sub1;, die der von dem Höhensensor 260 abgetasteten Höhe des bewegten Pakets 42 entspricht, aus der Schablonenauswahleinrich tung 254 ausgelesen. Die ausgewählte Schablone T&sub1; wird dann über eine gemeinsame Schablonenkorrelationsleitung 252 den beiden Schablonenkorrelatoren 240, 242 zugeführt. Auf diese Weise wird in dem Detektor 180 für die konzentrischen Ringe gleichzeitig sowohl eine momentane Abtastung der Abtastvorrichtung 154 als auch eine vorausgehende Abtastung mit der ausgewählten Schablone T&sub1; korreliert. Falls entweder der Schablonenkorrelator 240 oder der Schablonenkorrelator 242 über eine vorgegebene Korrelationsschwelle kommt, wird dem Gatter 248 entweder über die Korrelatorausgangsleitung 244 oder über die Korrelatorausgangsleitung 246 ein Erfassungssignal zugeführt. Wenn dem Gatter 248 entweder über die Leitung 244 oder über die Leitung 246 ein Korrelationssignal zugeführt wird, wird die Erfassungssignalleitung 250 zu einem Zeitpunkt aktiv, an dem die Koordinaten der Mitte der konzentrischen Ringe, die auf dem mit Informationen codierten Etikett 44 angeordnet sind, bestimmt werden können.
  • In Fig. 7 ist nun eine ausführlichere Darstellung des Analog-Digital-Umsetzers 166 der parallelen Videoprozessorarchitektur 150 gezeigt. Das Pixeldaten-Videosignal von der optischen Abtastvorrichtung 154 wird dem Analog- Digital-Umsetzer 166 über die Videoabtaster-Ausgangsleitung 168 zugeführt. Die von dem Analog-Digital-Umsetzer 166 empfangenen Videoinformationen werden über die Summierungsschaltung 280 der idealen Diode 300 zugeführt. Das Ausgangssignal der idealen Diode 300 wird dem Analog- Digital-Block 304 zugeführt, der das von der idealen Diode 300 ausgegebene analoge Signal in ein digitales Signal umsetzt. Dieses ausgegebene digitale Signal wird über die Umsetzerausgangsleitung 310 dem Pixeldecodierbus 172 zugeführt.
  • Zusätzlich zu der von dem Analog-Digital-Block 304 von dem Umsetzer 166 ausgeführten Analog-Digital-Umsetzung werden in dem Umsetzer 166 an den von der optischen Abtastvorrichtung 154 empfangenen Pixeldaten eine Dunkelpegel- oder Gleichstromversatzkorrektur sowie eine Weißpegel- oder Verstärkungskorrektur ausgeführt. Diese zwei Korrekturen beseitigen die Notwendigkeit mehrerer Eichungen in den Mehrcode-Kamerasystemen 10, 100. Bei den beiden beseitigten Eichungen handelt es sich um die mit dem Online-bringen der Kamerasysteme 10, 100 und um die mit der Abnutzung und mit der Alterung der Komponenten in den Kamerasystemen 10, 100 verknüpften Eichungen.
  • Die Dunkelpegel- oder Gleichstromversatzkorrektur-Integration in dem Umsetzer 166 wird von der Dunkelbezugs- Integrationsschleife 340 ausgeführt. In der Dunkelbezugs- Integrationsschleife 340 wird das Ausgangssignal des Analog-Digital-Umsetzerblocks 304 über den Integrator 284 und über den Summierungsknoten 280 zurück an den Eingang des Analog-Digital-Umsetzerblocks 304 angelegt. Die Weißpegel- oder Verstärkungskorrektur in dem Umsetzer 166 wird von der Weißbezugs-Integrationsrückkopplungsschleife 360 ausgeführt. In der Hellbezugs-Integrationsschleife 360 wird das Ausgangssignal des Analog-Digital-Umsetzerblocks 304 über den Summierungsknoten 314 und über den Integrator 312 zurück an den Eingang des Analog-Digital- Umsetzerblocks 304 angelegt.
  • Die Dunkelbezugs-Integrationsschleife 340 führt eine Korrektur für den von der optischen Abtastvorrichtung 154 in der Kamera 50 gelieferten Gleichstromversatz des Videosignals aus. Für den Fachmann auf dem Gebiet ist selbstverständlich, daß die für den Analog-Digital-Umsetzer 166 zur Verarbeitung bereitgestellten Informationssignale in der Größenordnung von 20 Millivolt liegen können, während der Gleichstromversatz in der Größenord nung von 9 Volt liegen kann. Außerdem ist selbstverständlich, daß die 20 Millivolt nutzbarer Informationen möglicherweise nur einen Anteil des auf dem Gleichstromversatz sitzenden Signals bilden. Die verbleibenden auf dem Versatz sitzenden Anteile entsprechen möglicherweise von der optischen Abtastvorrichtung 154 hervorgerufenen Artefakten. Darüber hinaus können diese Artefakte eine Größenordnung größer als das Informationssignal sein. Der Anteil dieses Informationssignals in dem Ausgangssignal der Abtastvorrichtung 154 muß für jedes einzelne Videopixel ausgekoppelt werden.
  • Da das Licht von dem Beleuchtungssystem 12 des Kamerasystems 10 wegen der hohen Geschwindigkeit der bewegten. Objekte 44 nicht sehr viel Zeit hat, um die Ladung in der optischen Abtastvorrichtung 154 der Kamera 50 zu akkumulieren, wird die Weißintegration in dem Digital-Analog- Umsetzer 160 bereitgestellt. Somit besitzt das auf der Abtaster-Ausgangsleitung 168 der Kamera 50 ausgegebene Signal eine geringe Differenz zwischen einem Pixel, das dem hellsten von der Kamera 50 abgetasteten Punkt entspricht, und einem Pixel, das dem dunkelsten von der Kamera 50 abgetasteten Punkt entspricht. Diese geringe Amplitudendifferenz erfordert eine Spezialverarbeitung in dem Umsetzer 166. Außerdem ändert sich die Amplitude der Signale von der optischen Abtastvorrichtung 154, die einer konstanten Lichtmenge entspricht, mit dem Alter, mit der Empfindlichkeit der Komponenten sowie mit weiteren Faktoren.
  • Um eine Kompensation für den Gleichstromversatz des Ausgangssignals der optischen Abtastvorrichtung 154 zu ermöglichen, gibt es ein dunkles Bezugspixel, das einem hierzu vorgesehenen Sensorelement in der Vorrichtung 154 entspricht. Das für das dunkle Bezugspixel vorgesehene Sensorelement wird in der Abtastvorrichtung 154 nicht belichtet. Dieses hierzu vorgesehene Sensorelement akkumuliert eine Ladung auf der Grundlage von anderen Faktoren als der Belichtung. Zum Beispiel hängt die von diesem Sensorelement akkumulierte Ladung von thermischen Wirkungen in der Vorrichtung 154 ab. An dem Ausgang der optischen Abtastvorrichtung 154 wird ein Wert bereitgestellt, der der von diesem hierzu vorgesehenen Sensorelement akkumulierten Ladung entspricht.
  • Somit kann das Ausgangssignal des hierfür vorgesehenen, dem dunklen Pixel entsprechenden Sensorelements zum Einstellen des Schwarzpegels in den Kamerasystemen 10, 100 verwendet werden, indem das Signal der Videoausgangsleitung 168 an den Ausgang dieses Elements geklemmt wird. Dies kann zum Nullen des Gleichstromversatzes verwendet werden. Wenn das geklemmte Signal an die ideale Diode 300 angelegt wird, beseitigt die ideale Diode 300 viele unerwünschte Artefakte aus dem Videosignal. Die Amplitude des verbleibenden Videosignals entspricht der Helligkeit der Pixel der Abtastvorrichtung 154.
  • Wenn das dunkle Pixel an den Multiplizierer 302 angelegt wird, ist bekannt, wann das dunkle Pixel an dem Ausgang des Multiplizierers 302 erscheint. Wenn das schwarze Pixel an dem Ausgang des Multiplizierers 302 erscheint und von dem Umsetzer 304 in ein digitales Signal umgesetzt wird, wird der Digital-Analog-Umsetzerblock 290 ausgelöst. Somit ist das Ausgangssignal des Digital- Analog-Umsetzerblocks 290 eine analoge Darstellung des Ausgangssignals des dunklen Pixels der optischen Abtastvorrichtung 154. Dieses Ausgangssignal wird über die Leitungen 286, 288 dem Dunkelpegelintegrator 284 zugeführt. Der Dunkelpegelintegrator 284 liefert dann nach Maßgabe des Ausgangssignals des dunklen Pixels ein Gleichstromversatz-Einstellsignal. Dieses Gleichstromversatz-Einstellsignal wird der Integrationsausgangsleitung 282 zu dem Summierungsknoten 280 zugeführt, um das Signal von der optischen Abtastvorrichtung 154 auf der Abtaster- Ausgangsleitung 168 in der Weise zu klemmen, daß der Gleichstromversatz null ist.
  • Die Operationen der Dunkelbezugs-Integrationsrückkopplungsschleife 340 in dem Analog-Digital-Umsetzer 166 werden für jede Abtastung der optischen Abtastvorrichtung 154 wiederholt. Somit wird das entsprechende dunkle Pixel während jedes Abtastzyklus zum iterativen Neueinstellen der Gleichstromversatzkorrektur mittels des Summierungsknotens 280 oder Versatzkorrekturknotens 280 nach Maßgabe des Ausgangssignals des Dunkelpegelintegrators 284 verwendet.
  • Um die Weiße des Bilds oder die Amplitude des Signals zu kompensieren, wird zusätzlich zu dem von der optischen Abtastvorrichtung 154 während jeder Abtastung bereitgestellten dunklen Bezugspixel während jeder Abtastung der optischen Abtastvorrichtung 154 ein weißes Bezugspixel bereitgestellt. Für den Fachmann auf dem Gebiet ist selbstverständlich, daß dies erforderlich ist, da bei einer wachsenden Geschwindigkeit des Förderbands 20 und bei einer wachsenden Abtastrate der optischen Abtastvorrichtung 154 weniger Zeit zum Akkumulieren der Ladung in der optischen Abtastvorrichtung 154 zur Verfügung steht. Dies führt zu einer entsprechend geringeren Informationsamplitude in dem Videoausgangssignal der Leitung 168. Außerdem kann der Anwender der Kamerasysteme 10, 100 einen (nicht gezeigten) Eich-Trimmwiderstand einstellen, um einen als ein weißes Bezugspixel in die optische Abtastvorrichtung 154 eingegebenen Spannungspegel festzulegen. Die Weißrückkopplungsschleife 360 des Analog- Digital-Umsetzers 166 korrigiert iterativ für die veränderliche Geschwindigkeit und für die Einstellung des Trimmwiderstands.
  • Wenn das weiße Bezugspixel an den Analog-Digital-Block 304 angelegt wird, wird der Digital-Analog-Block 316 ausgelöst. Dies bewirkt eine analoge Darstellung des Pegels des über die Leitungen 326, 328 des Blocks 316 an den Summierungsknoten 314 anzulegenden weißen Bezugspixels. Das Ausgangssignal des Summierungsknotens 314 kann somit verwendet werden, um über den Multiplizierer 302 eine Weißbezugsrückkopplung für den Eingang des Analog- Digital-Blocks 304 bereitzustellen.
  • Zusätzlich zu der analogen Darstellung der Amplitude des weißen Bezugspixels der optischen Abtastvorrichtung 154 wirkt auf den Summenknoten 314 über die Leitungen 318, 320 außerdem der Frequenz-Spannungs-Umsetzer 324 ein. Für den Fachmann auf dem Gebiet ist selbstverständlich, daß Geschwindigkeitsänderungen des Förderbands 20 zu Signalen mit einer unterschiedlichen Frequenz an dem Ausgang des Bandcodierers 152 führen. Um die sich daraus ergebenden Änderungen der Ausgangsamplitude von der optischen Abtastvorrichtung 154 zu kompensieren, wird das Ausgangssignal des Bandcodierers 152 mit der unterschiedlichen Frequenz über die Codiererausgangsleitung 153 dem Frequenz-Spannungs-Umsetzer 324 zugeführt.
  • Somit führt der Summierungsknoten 314 dem Weißbezugsintegrator 312 ein Signal zu, das sowohl das weiße Bezugspixel als auch die Geschwindigkeit des Förderbands 20 darstellt. Die Weißbezugs-Integrationsrückkopplungsschleife 360, die den Weißbezugsintegrator 312 enthält, kann somit ein integriertes Rückkopplungs-Steuersignal liefern, wobei die Steuerung des Integrators 312 entsprechend der momentanen Amplitude des Weiß-Bezugs und der Geschwindigkeit des Förderbands 20 bereitgestellt wird. Dieses Steuersignal wird dem Analog-Digital-Block 304 in Verbindung mit dem Eingangssignal und mit dem Dunkelbezugs-Rückkopplungssignal zugeführt.
  • Zusätzlich zu den von den Digital-Analog-Blöcken 290, 316 gelieferten analogen Signalen wird in dem Umsetzer 166 ein drittes analoges Ausgangssignal erzeugt, das dem Ausgangssignal des Analog-Digital-Blocks 304 entspricht. Dieses dritte analoge Signal erscheint an dem Ausgang des Digital-Analog-Blocks 330. Das analoge Ausgangssignal des Digital-Analog-Blocks 330 wird in dem Analog-Digital- Umsetzer 166 erzeugt, um die Erfassung der Erfassungsziele mit den konzentrischen Ringen zu unterstützen, die auf den mit Informationen codierten Etiketten 44 vorhanden sein können.
  • Somit wird das Ausgangssignal des Digital-Analog-Blocks 330, möglicherweise einschließlich elektrischer Signale, die ein abgetastetes Ziel mit konzentrischen Ringen auf dem Etikett 44 darstellen, dem Bandpaßfilter 332 zugeführt. Das Bandpaßfilter 332 des Umsetzers 166 ist so beschaffen, daß es die Frequenzen durchläßt, die einer Abtastung von konzentrischen Ringen durch die optische Abtastvorrichtung 154 entsprechen. Es ist selbstverständlich, daß die konzentrischen Ringe bei unterschiedlichen Abständen von der optischen Abtastvorrichtung 154 durch die Vorrichtung 154 mit unterschiedlichen Vergrößerungsbeträgen abgebildet werden. Somit werden als die Eckfrequenzen des Bandpaßfilters 332 die Frequenzen ausgewählt, die einer Abtastung eines Zieletiketts 44 auf der Ebene des Förderbands 20 sowie einer Abtastung eines Ziels in der Maximalhöhe des Objekts 42 entsprechen. Weitere Filterverfahren sind dem Fachmann auf dem Gebiet bekannt.
  • Das Ausgangssignal des Bandpaßfilters 332 wird dem Schwellwertkomparator 334 zugeführt, der eine Einbit- Analog-Digital-Umsetzung bildet, wobei er sämtliche positiven Signale in einen Wert und sämtliche negativen Signale in einen anderen Wert umsetzt. Das Ausgangssignal des Schwellwertkomparators 334 ist in der zweckmäßigen Anordnung des Umsetzers 166 ein im wesentlichen binärer Wert, der über den Bus 172 dem Detektor 180 für die konzentrischen Ringe zugeführt wird. Der Detektor 180 für die konzentrischen Ringe verwendet dieses Signal zur Unterstützung bei der Erfassung eines Erfassungsziels mit konzentrischen Ringen, das durch das von der optischen Abtastvorrichtung 154 abgetastete Feld läuft. Dieses Signal bewirkt üblicherweise eine Lokalisierung eines Erfassungsziels mit konzentrischen Ringen innerhalb von ±2 Pixeln.
  • In Fig. 8 ist nun das Weißbezugs-Rückkopplungssystem 400 gezeigt, das in einer alternativen Anordnung der Weißbezugs-Integrationsrückkopplungsschleife 360 verwendet wird. Das Weißbezugs-Rückkopplungssystem 400 kann in den Mehrcode-Kamerasystemen 10, 100 anstelle des Bandgeschwindigkeitscodierers 152 zum Einstellen des von dem Integrator 312 in der Analog-Digital-Umsetzung 166 gesehenen Weißbezugs verwendet werden. Außerdem kann das Weißbezugs-Rückkopplungssystem 400 jedoch zum Steuern der von den Beleuchtungsquellen 15 des Beleuchtungssystems 12 in den Kamerasystemen 10, 100 gelieferten Beleuchtungsmenge verwendet werden.
  • In dem Weißbezugs-Rückkopplungssystem 400 werden an das Beleuchtungssystem 12 mehrere Glasfaserbündel 402 angelegt. Die Enden der Glasfaserbündel 402, die das Licht empfangen, sind in der Nähe jeder Beleuchtungsquelle 15 angebracht. Das durch die jeweiligen Glasfaserbündel 402 von jeder Quelle 15 empfangene Licht wird von den Bündeln 402 zu der optischen Abtastvorrichtung 154 übertragen. Um das übertragene Licht der optischen Abtastvorrichtung 154 zuzuführen, sind die lichtemittierenden Enden der Glasfa serbündel 402 in einem Spiegelkasten 31 angebracht, der sich in etwa in der Nähe der optischen Abtastvorrichtung 154 befindet. Somit wird das von jeder Beleuchtungsquelle 15 gesendete Licht direkt den im voraus bestimmten Pixeln der optischen Abtastvorrichtung 154 in der Kamera 50 zugeführt.
  • Die im voraus bestimmten Zielpixel der optischen Abtastvorrichtung 152, die das von den lichtemittierenden Enden der Glasfaserbündel 402 gesendete Licht empfangen, werden als Weißbezüge für das in den Kamerasystemen 10, 100 verwendete Weißbezugssystem 400 vorgesehen. Somit sind diese hierzu vorgesehenen Pixel für die Darstellung von auf dem Etikett 44 codierten Informationen, wenn die Abtastvorrichtung 154 das Etikett 44 liest, nicht verfügbar. Die im voraus bestimmten Zielpixel können z. B. die 20 Pixel an einem Ende eines Abtasters mit 4096 Pixeln in der optischen Abtastvorrichtung 154 sein. Da für jede Beleuchtungsquelle 15 oder für jeden Kolben 15 des Beleuchtungssystems 12 einzelne optische Bündel 402 bereitgestellt werden, wird für jeden Kolben 15 verhindert, daß er andere Kolben 15 infolge der relativen Nähe zu einem gemeinsamen Lichtintensitätssensor dominiert.
  • Wie zuvor beschrieben wurde, kann das diesen hierzu vorgesehenen Pixeln entsprechende Ausgangssignal der Pixeldaten von der optischen Abtastvorrichtung 154 dann in dem Analog-Digital-Umsetzer 166 der parallelen Architektur 150 zum Ausführen der Weißbezugskorrektur der Rückkopplungsschleife 360 verwendet werden. In dieser Anordnung wird das direkt von den Beleuchtungsquellen 15 übertragene Licht zum Steuern der von dem Weißintegrator 312 ausgeführten Integration im wesentlichen in der gleichen Weise verwendet, wie es in bezug auf das Ausgangssignal des Bandcodierers 152 auf der Codiererausgangsleitung 155 beschrieben wurde. Für den Fachmann auf dem Gebiet ist somit selbstverständlich, daß der Weißintegrator 312 entweder in Übereinstimmung mit dem durch die Glasfasern 402 übertragenen von den Kolben 15 abgegebenen Licht oder in Übereinstimmung mit der durch das Ausgangssignal des Bandcodierers 152 angegebenen Geschwindigkeit des Förderbands 20 gesteuert werden kann. In Fig. 9 ist nun das adaptive Beleuchtungssteuersystem 450 gezeigt. In dem adaptiven Beleuchtungssteuersystem 450 tastet der Lichtsensor 452 die Menge der von der Beleuchtungsquelle 15 emittierten Lichtenergie ab. Der Lichtsensor 452 wendet ein Rückkopplungssystem für Lampenstromversorgung 16 gemäß der abgetasteten Lichtenergie an. Die Lampenstromversorgung 16 ändert die Menge der von der Beleuchtungsquelle 15 emittierten Lichtenergie dadurch, daß sie die Menge des Stroms ändert, der der Beleuchtungsquelle 15 zugeführt wird.
  • Die Menge des von der Lampenstromversorgung 15 in dem Steuersystem 450 zugeführten Stroms wird ebenfalls gemäß der durch die Frequenz des Ausgangssignals des Bandgeschwindigkeitscodierers 15 angegebenen Geschwindigkeit des Förderbands 20 gesteuert. Das Ausgangssignal des Bandgeschwindigkeitscodierers 152 wird wie zuvor beschreiben dem Frequenz-Spannungs-Umsetzer 324 zugeführt, um eine Steuerspannung für die Lampenstromversorgung 16 zu liefern.
  • Somit wird die Steuerung der Lampenstromversorgung 16 durch den Bandgeschwindigkeitscodierer 152 in dem Beleuchtungssteuersystem 450 durch die Rückkopplung von dem Lichtsensor 452 zu der Lampenstromversorgung 16 bedingt. Die Rückkopplung von dem Lichtsensor 452 kann in Übereinstimmung mit dem Bezugsrückkopplungssystem 400 erhalten werden, wobei die Glasfaserbündel 402 Lichtenergie von den Beleuchtungsquellen 15 an die optische Abtastvorrich tung 154 übertragen, während das Ausgangssignal der optischen Abtastvorrichtung 154 verwendet wird, um die Quellen 15 mit dem Systemprozessor zu steuern.
  • In Fig. 10 ist nun das Dauerfokussystem 500 gezeigt. Das Dauerfokussystem 500 kann verwendet werden, um die Kamera 50 der Mehrcode-Kamerasysteme 10, 100 in Echtzeit fortwährenden zu fokussieren. In dem Fokussierungssystem 500 wird von dem Abstandssensorsystem 506 fortwährend der Abtastabstand zwischen der Kamera 50 und einer Oberfläche unter der Kamera 50 gemessen. Das Abstandssensorsystem 506 ist zweckmäßig so beschaffen, daß es den Anstand von der Kamera 50 nach unten zu dem Förderband 20 oder zu der oberen Oberfläche des auf dem Förderband 20 angeordneten bewegten Objekts 42 mißt.
  • Es ist selbstverständlich, daß das Abstandssensorsystem 506 des Dauerfokussystems 500 irgendein herkömmliches Sensorsystem wie etwa ein Ultraschall- oder Infrarotsystem sein kann. Da jedes Ultraschall-Abstandssensorsystem 506 z. B. eine Fläche des Förderbands 20 mit einem Durchmesser von etwa sieben Zoll abdecken kann, sind in den Kamerasystemen 10, 100 mehrere über dem Förderband 20 ausgerichtete Ultraschall-Abstandssensoren 506 erforderlich. Für den Fachmann auf dem Gebiet ist selbstverständlich, daß Ultraschallsensoren in Anwendungen dieser Art empfindlicher gegenüber dem Winkel der mit Informationen codierten Etiketten 44 sind.
  • Das Abstandssensorsystem 506 in dem Dauerfokussystem 500 sendet Impulse z. B. von Schallwellen 504 in Richtung des Förderbands 20. Die Schallwellen 504 werden von der Oberfläche des Förderbands 20 oder von der oberen Oberfläche des bewegten Objekts 42 reflektiert, wobei die zurückkehrenden Schallwellen 502 zurück zu dem Sensorsystem 506 laufen. Die Impulse der Schallwellen 504 des Sensorsystems 506 werden von dem Modulator 508 gemäß einem über die Triggerleitung 510 dem Modulator 508 zugeführten Triggersignal ausgelöst. Das Triggersignal der Triggerleitung 510 wird über die Codiererausgangsleitung 153 gemäß der Ausgangsfrequenz des Bandgeschwindigkeitscodierers 152 gesteuert. Somit wird die Zeitgebung der Impulse der Schallwellen 504 gemäß der Geschwindigkeit des Förderbands 20 gesteuert.
  • Für den Fachmann auf dem Gebiet ist selbstverständlich, daß die zwischen dem Start eines Impulses der Schallwellen 504 und dem Empfang der entsprechenden Rückschallwellen 502 vergehende Zeitdauer von dem Abstand zwischen dem Sensorsystem 506 und einer Oberfläche unter ihm abhängt. Somit erfaßt der Modulator 508 zusätzlich zu dem Aussenden der Schallwellen 504 außerdem das Auftreten der Rückschallwellen 502 und liefert auf der Leitung 512 ein Echosignal.
  • Der Zähler/Zeitgeber 520 des Dauerfokussystems 500 beginnt mit dem Zählen, wenn dem Modulator 508 über die Triggerleitung 510 ein Triggersignal zugeführt wird, wobei der Codierer 152 in Übereinstimmung damit einen Impuls der Schallwellen 504 auslöst. Außerdem empfängt der Zähler/Zeitgeber 520 das Echosignal auf der Leitung 512 von dem Modulator 508, wenn das Sensorsystem 506 die Rückschallwellen 502 empfängt. Der Zähler/Zeitgeber 520 ist so beschaffen, daß er beim Empfang des Triggersignals 510 mit der Zeitmessung beginnt und die Zählung beim Empfang des Echosignals 512 anhält. Folglich stellt die Zählung in dem Zähler 520 die Zeit dar, die ein Signal benötigt, um eine Strecke von dem Sensorsystem 506 zurückzulegen, an einer Oberfläche abzuprallen und zu dem Systemsensor 506 zurückzukehren. Somit stellt die Zählung in dem Zähler 520 den Abstand zwischen dem Sensor 506 und der Oberfläche dar. Folglich stellt die Zählung in dem Zähler 520 den Abstand zwischen der optischen Abtastvorrichtung 154 sowie der Kamera 50 und der Oberfläche dar.
  • Der Abstand kann dann von einem Fokussierungssystem verwendet werden, um den Brennpunkt der Kamera 50 entsprechend dem Abstand zwischen der Kamera 50 und der von der Kamera 50 abgetasteten Oberfläche zu steuern. Diese Fokussierung kann in irgendeiner dem Fachmann auf dem Gebiet bekannten Weise ausgeführt werden. In dem System 500 kann die optische Abtastvorrichtung 154 unter der Steuerung des Verstärkers 530 um 0,030 Zoll verschoben werden, um auf die Etiketten 44 fokussiert zu werden, die im Bereich zwischen der Ebene des Förderbands 20 und 36 Zoll über der Ebene des Bands 20 liegen.
  • Es ist selbstverständlich, daß die Verwendung der Zählung in dem Zähler 520 zum Fokussieren der Kamera 50 gemäß dem Abstand zwischen der Kameraachse 522 und der Sensorachse 524 sowie der Geschwindigkeit des Förderbands 20 verzögert werden muß. Folglich wird das Verzögerungselement 524 bereitgestellt, um die Verwendung der Zählungsdaten in dem Zähler 520 zum Steuern des Brennpunkts der Kamera 50 in Übereinstimmung mit der Geschwindigkeit des Förderbands 20 zu verzögern. Das Verzögerungselement 524 kann ein gemäß dem Ausgangssignal des Bandcodierers 152 gesteuerter herkömmlicher Zuerst-einlesen/Zuerst-ausgeben- Block 524 sein. Das verzögerte Ausgangssignal des Zählers 520 an dem Ausgang des Verzögerungselements 524 wird dann dem Digital-Analog-Block 528 zugeführt, in dem Block 530 gefiltert und verstärkt und der Schwingspule 532 zugeführt. Die Schwingspule 532 ist mittels des Stabs 534 an die optische Abtastvorrichtung 154 gekoppelt, um die optische Abtastvorrichtung 154 gemäß dem Ausgangssignal des Digital-Analog-Umsetzers 528 zu verschieben.
  • Die Erfassungsziele mit den optischen Ringen wie etwa die von dem Detektor 180 für die Erfassung der konzentrischen Ringe der parallelen Architektur 150 erfaßten Erfassungsziele mit den optischen Ringen werden in dem US-Patent Nr. 4.874.936 mit dem Titel "Hexagonal Information Encoding Article, Process and System" sowie in den US-Patenten Nr. 4.896.029 und 4.998.010 mit dem Titel "Polygon Information Encoding Article, Process and System", alle drei erteilt an Chandler, gelehrt.
  • Es ist selbstverständlich, daß von dem Fachmann auf dem Gebiet an den Einzelheiten, an den Materialien und an den Anordnungen der zur Erläuterung des Wesens dieser Erfindung beschriebenen und gezeigten Teile verschiedene Änderungen vorgenommen werden können, ohne von dem Prinzip und von dem Umfang der in den folgenden Ansprüchen zum Ausdruck kommenden Erfindung abzuweichen.

Claims (11)

1. System (10, 100) zum optischen Abtasten eines Objekts, mit:
einer Reflektoreinrichtung (14), die so ausgebildet ist, daß sie im wesentlichen einen Teil einer Ellipse (18) bildet, wobei die Ellipse (18) eine Ellipsenhautachse sowie einen ersten und einen zweiten Ellipsenbrennpunkt (22, 24) hat, die auf der Ellipsenhauptachse liegen;
einer Beleuchtungsquelleneinrichtung (15) zum Aussenden von Lichtenergie und Zuführen der ausgesendeten Lichtenergie zu einem Objekt (42), wobei die Bleuchtungsquelleneinrichtung (15) am ersten Ellipsenbrennpunkt (22) angebracht ist; und
einer Objektpositioniereinrichtung (20) zum Anordnen des Objekts im wesentlichen in der Nähe der Ellipsenhautachse,
dadurch gekennzeichnet, daß
die Objektpositionierungseinrichtung (20) eine Einrichtung zum Vorbeibewegen des Objekts an der Ellipsenhautachse mit unterschiedlichen Geschwindigkeiten aufweist, und
eine Lichtkompensationseinrichtung (450) vorgesehen ist zum Verändern der Menge der von der Beleuchtungsquelleneinrichtung (15) emittierten Lichtenergie, wobei die Lichtkompensationseinrichtung (450) eine Einrichtung (152) aufweist zum Verändern der emittierten Lichtenergie nach Maßgabe der Bewegungsgeschwindigkeit des Objekts (42).
2. System nach Anspruch 1, dadurch gekennzeichnet, daß die Objektpositionierungseinrichtung (20) eine Einrichtung zum Anordnen des Objekts im zweiten Ellipsenbrennpunkt (24) aufweist.
3. System nach Anspruch 1, weiter gekennzeichnet durch eine optische Abtastvorrichtung (50, 154) mit einer Abtastvorrichtung-Achse (33) zum Abtasten des Objekts (42), wobei der zweite Ellipsenbrennpunkt (24) in etwa in der Nähe der Abtastvorrichtung-Achse (33) angebracht ist.
4. System nach Anspruch 1, dadurch gekennzeichnet, daß die Abtastvorrichtung-Achse einen gefalteten optischen Pfad (30) aufweist zum Vergrößern der optischen Weglänge zwischen der Abtastvorrichtung (50, 154) und dem Objekt (42).
5. System nach Anspruch 1, dadurch gekennzeichnet, daß die Lichtkomplensationseinrichtung (450) eine Lichtempfangseinrichtung (452) aufweist zum Empfangen der von der Beleuchtungsquelleneinrichtung (15) emittierten Lichtenergie und zum Verändern der von der Beleuchtungsquelleneinrichtung (15) emittierten Lichtenergie nach Maßgabe der empfangenen Lichtenergie.
6. System nach Anspruch 4, mit einem optischen Kasten (31), der feste optische Elemente (26) hat, um den gefalteten Pfad (30) im optischen Kasten (31) zu bilden.
7. Verfahren zum optischen Abtasten eines Objekts (42) in einem System mit einem Beleuchtungssystem (12) zum Beleuchten des Objekts (42), mit den Schritten:
(a) Bilden eines Lichtreflektors (14) so, daß er einen Bereich einer Ellipse (18) bildet, die eine Ellip senhauptachse hat sowie einen ersten und einen zweiten Ellipsenbrennpunkt (22, 24), die längs der Ellipsenhauptachse angebracht sind;
(b) Anordnen einer Beleuchtungsquelleneinrichtung (15) im wesentlichen in der Nähe des ersten Ellipsenbrennpunkts (22) zum Aussenden von Lichtenergie und Zuführen der emittierten Lichtenergie zum Objekt (42); und
(c) Anordnen des Objekts (42) im wesentlichen in der Nähe der Ellipsenhauptachse,
weiter gekennzeichnet durch
(d) Vorbeibewegen des Objekts (42) an der Ellipsenhauptachse mit unterschiedlichen Objektgeschwindigkeiten,
(e) Verändern der von der Beleuchtungsquelleneinrichtung (15) emittierten Lichtenergie mittels einer Lichtkompensationseinrichtung (450), wobei die Lichtkompensationseinrichtung (450) eine Geschwindigkeitskodiereinrichtung (152) aufweist zum Verändern des emittierten Lichts nach Maßgabe der veränderlichen Objektgeschwindigkeit.
8. Verfahren nach Anspruch 7, weiter gekennzeichnet durch den Schritt des Anordnens des Objekts im wesentlichen in der Nähe des zweiten Ellipsenbrennpunkts (24).
9. Verfahren nach Anspruch 7, weiter gekennzeichnet durch den Schritt des Anordnens des zweiten Ellipsenbrennpunkts (24) im wesentlichen in der Nähe einer Abtastvorrichtung-Achse einer optischen Abtastvorrichtung.
10. Verfahren nach Anspruch 9, dadurch gekennzeichnet, daß die Abtastvorrichtung-Achse (33) eine gefalteten optischen Weg (30) zum Erhöhen der optischen Weglänge zwi schen der Abtastvorrichtung (50, 154) und dem Objekt (42) aufweist.
11. Verfahren nach Anspruch 7, gekennzeichnet durch den Schritt des Empfangens des vom Beleuchtungssystem (12) emittierten Lichts und des Veränderns der Menge des vom Beleuchtungssystem (12) emittierten Lichts nach Maßgabe des empfangenen Lichts.
DE69322902T 1992-05-26 1993-05-19 Optische Einrichtungen für Kamera Expired - Lifetime DE69322902T2 (de)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
US07/889,037 US5327171A (en) 1992-05-26 1992-05-26 Camera system optics

Publications (2)

Publication Number Publication Date
DE69322902D1 DE69322902D1 (de) 1999-02-18
DE69322902T2 true DE69322902T2 (de) 1999-07-29

Family

ID=25394398

Family Applications (2)

Application Number Title Priority Date Filing Date
DE69332444T Expired - Lifetime DE69332444T2 (de) 1992-05-26 1993-05-19 Abtastsystem und Verfahren
DE69322902T Expired - Lifetime DE69322902T2 (de) 1992-05-26 1993-05-19 Optische Einrichtungen für Kamera

Family Applications Before (1)

Application Number Title Priority Date Filing Date
DE69332444T Expired - Lifetime DE69332444T2 (de) 1992-05-26 1993-05-19 Abtastsystem und Verfahren

Country Status (7)

Country Link
US (2) US5327171A (de)
EP (2) EP0571891B1 (de)
AT (1) ATE175510T1 (de)
DE (2) DE69332444T2 (de)
DK (1) DK0571891T3 (de)
ES (2) ES2129051T3 (de)
GR (1) GR3029659T3 (de)

Families Citing this family (42)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5515102A (en) * 1993-03-09 1996-05-07 Hughes Aircraft Company Charge coupled device apparatus having means for correcting for changes in the charge transfer efficiency of a charge coupled device
US5393967A (en) * 1993-07-21 1995-02-28 Sensis Corporation Method and apparatus for non-contact reading of a relief pattern
US5463213A (en) * 1994-05-03 1995-10-31 Honda; Takafaru Code mark reader
US5638499A (en) * 1994-05-27 1997-06-10 O'connor; Michael Image composition method and apparatus for developing, storing and reproducing image data using absorption, reflection and transmission properties of images to be combined
US5515447A (en) * 1994-06-07 1996-05-07 United Parcel Service Of America, Inc. Method and apparatus for locating an acquisition target in two-dimensional images by detecting symmetry in two different directions
PT766191E (pt) * 1994-06-07 2000-08-31 United Parcel Service Inc Metodo e equipamento para descodificacao de simbolos a duas dimensoes no dominio espacial
ATE275743T1 (de) * 1994-10-25 2004-09-15 United Parcel Service Inc Automatische elektrische kamera für etikettenbildaufnahme
US5581071A (en) * 1994-12-06 1996-12-03 International Business Machines Corporation Barcode scanner with adjustable light source intensity
US5814803A (en) * 1994-12-23 1998-09-29 Spectra-Physics Scanning Systems, Inc. Image reader with multi-focus lens
JPH11501572A (ja) 1995-04-10 1999-02-09 ユナイテッド パーセル サービス オブ アメリカ,インコーポレイテッド 運搬される物品上の指標の位置を検出し記憶する2カメラシステム
US5991470A (en) * 1995-06-07 1999-11-23 Computer Identics, Inc. One-dimensional scanner system for two-dimensional image acquisition
WO1996042064A1 (en) * 1995-06-08 1996-12-27 Psc Inc. Adaptive optical code reader using object location and movement information
JPH096891A (ja) * 1995-06-21 1997-01-10 Asahi Optical Co Ltd データシンボル読み取り装置およびデータシンボル読み取りシステム
WO1997008647A1 (en) * 1995-08-25 1997-03-06 Psc, Inc. Optical reader with condensed cmos circuitry
US5770841A (en) * 1995-09-29 1998-06-23 United Parcel Service Of America, Inc. System and method for reading package information
US5831254A (en) * 1995-12-18 1998-11-03 Welch Allyn, Inc. Exposure control apparatus for use with optical readers
US5791771A (en) * 1995-12-19 1998-08-11 United Parcel Service Of America, Inc. Unsymmetrical elliptical reflector for spatial illumination
US5757425A (en) * 1995-12-19 1998-05-26 Eastman Kodak Company Method and apparatus for independently calibrating light source and photosensor arrays
US5814802A (en) 1996-02-23 1998-09-29 Accu-Sort Systems, Inc. High speed imaging apparatus for CCD based scanners
US6173894B1 (en) 1996-08-23 2001-01-16 Psc Inc. Optical reader with addressable pixels
US5839566A (en) * 1996-08-30 1998-11-24 United Parcel Service Of America, Inc. Belt-carried tilt tray sorter
JP3420444B2 (ja) * 1996-10-17 2003-06-23 キヤノン株式会社 画像形成装置、画像形成方法、及びその記憶媒体
US5923017A (en) * 1997-01-23 1999-07-13 United Parcel Service Of America Moving-light indicia reader system
US5920056A (en) * 1997-01-23 1999-07-06 United Parcel Service Of America, Inc. Optically-guided indicia reader system for assisting in positioning a parcel on a conveyor
US5971132A (en) * 1997-06-18 1999-10-26 United Parcel Service Of America, Inc. High speed automated cog sorter
US5984078A (en) 1997-08-04 1999-11-16 United Parcel Service Of America, Inc. Automated shuttle sorter for conveyors
US5988356A (en) * 1997-09-08 1999-11-23 United Parcel Service Of America, Inc. Automated diverter capable of sorting bulky articles
US6227377B1 (en) 1997-09-09 2001-05-08 United Parcel Service Of America, Inc. Automated array sorter for conveyors
US5917602A (en) * 1998-04-30 1999-06-29 Inex Inc. System and method for image acquisition for inspection of articles on a moving conveyor
JP3592147B2 (ja) * 1998-08-20 2004-11-24 キヤノン株式会社 固体撮像装置
US6189702B1 (en) 1998-11-25 2001-02-20 United Parcel Service Of America, Inc. Overhead mounted sorter for conveyors
JP3507367B2 (ja) * 1999-07-30 2004-03-15 キヤノン株式会社 画像読み取り装置、方法及びコンピュータ読み取り可能な記憶媒体
US6352349B1 (en) 2000-03-24 2002-03-05 United Parcel Services Of America, Inc. Illumination system for use in imaging moving articles
US7464877B2 (en) * 2003-11-13 2008-12-16 Metrologic Instruments, Inc. Digital imaging-based bar code symbol reading system employing image cropping pattern generator and automatic cropped image processor
US6878896B2 (en) * 2002-07-24 2005-04-12 United Parcel Service Of America, Inc. Synchronous semi-automatic parallel sorting
US7433096B2 (en) * 2003-02-28 2008-10-07 Hewlett-Packard Development Company, L.P. Scanning device calibration system and method
US7063256B2 (en) * 2003-03-04 2006-06-20 United Parcel Service Of America Item tracking and processing systems and methods
WO2004079546A2 (en) * 2003-03-04 2004-09-16 United Parcel Service Of America, Inc. System for projecting a handling instruction onto a moving item or parcel
US7561717B2 (en) * 2004-07-09 2009-07-14 United Parcel Service Of America, Inc. System and method for displaying item information
EP2281264B1 (de) 2008-04-17 2013-07-31 Datalogic IP TECH S.r.l. System zum automatischen beschaffen von optisch codierten informationen, illuminator für das system und verfahren zum ausrichten von optischen komponenten des systems miteinander
FR2959902B1 (fr) * 2010-05-04 2013-08-23 E2V Semiconductors Capteur d'image lineaire a defilement et sommation analogique et numerique et procede correspondant
US10471478B2 (en) 2017-04-28 2019-11-12 United Parcel Service Of America, Inc. Conveyor belt assembly for identifying an asset sort location and methods of utilizing the same

Family Cites Families (45)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB842810A (en) * 1958-07-09 1960-07-27 Int Computers & Tabulators Ltd Improvements in or relating to apparatus for sensing records
US3701098A (en) * 1971-06-15 1972-10-24 Scanner Device for machine reading of information without manipulation of the information carrier
DE2210948A1 (de) * 1972-03-07 1973-09-27 Heimann Gmbh Reflektoranordnung mit einer stabfoermigen blitzlichtroehre
US3774014A (en) * 1972-03-20 1973-11-20 Pitney Bowes Alpex Printed code scanning system
US3899687A (en) * 1972-07-10 1975-08-12 Identicon Corp Optical label scanning
GB1416177A (en) * 1972-11-08 1975-12-03 Europ Labelling Machine System Inspection of code-marked articles
US3902047A (en) * 1973-08-31 1975-08-26 Ferranti Packard Ltd Label reader with rotatable television scan
US3992623A (en) * 1975-03-14 1976-11-16 Graphic Sciences, Inc. Optical scanner
DE2634241A1 (de) * 1975-10-06 1977-04-14 Ibm Hochwirksames beleuchtungssystem
US4063820A (en) * 1975-11-10 1977-12-20 Rca Corporation Apparatus for measuring a dimension of an object
US4097731A (en) * 1977-06-02 1978-06-27 Burroughs Corporation Automatic gain control for photosensing devices
US4375920A (en) * 1978-07-31 1983-03-08 Li-Cor, Inc. Area meter
US4351004A (en) * 1980-01-31 1982-09-21 Texas Instruments Incorporated CCD Imager
NL8006241A (nl) * 1980-11-14 1982-06-01 Nederlanden Staat Inrichting voor het automatisch lezen van tekens.
DE3240081A1 (de) * 1981-11-07 1984-05-03 Licentia Gmbh Vorrichtung zur erkennung und verarbeitung von zeichen und/oder vorgegebenen optischen details
US4766300A (en) * 1984-08-06 1988-08-23 Norand Corporation Instant portable bar code reader
JPS58123286A (ja) * 1982-01-16 1983-07-22 Minolta Camera Co Ltd 自動ホワイトバランス調整装置を備えたカラ−ビデオカメラ
DE3204021A1 (de) * 1982-02-05 1983-08-18 Gebhardt Fördertechnik GmbH, 6920 Sinsheim Verteileranlage fuer bewegte stueckgueter
JPS5916464A (ja) * 1982-07-20 1984-01-27 Fuji Xerox Co Ltd シエ−デイング補正装置
JPS5932821A (ja) * 1982-08-18 1984-02-22 Fuji Xerox Co Ltd ランプの光量検知装置
US4488679A (en) * 1982-11-01 1984-12-18 Western Publishing Company, Inc. Code and reading system
US4500776A (en) * 1982-11-08 1985-02-19 Vadim Laser Method and apparatus for remotely reading and decoding bar codes
JPS59136728A (ja) * 1983-01-26 1984-08-06 Canon Inc 画像形成装置
US4568982A (en) * 1984-04-09 1986-02-04 At&T Laboratories Optical scanning method and apparatus
DE3507569A1 (de) * 1985-03-04 1986-09-04 Erhardt & Leimer GmbH, 8900 Augsburg Vorrichtung zur erfassung von kennzeichnungen auf sich bewegenden kennzeichnungstraegern
US5115478A (en) * 1986-01-10 1992-05-19 Minolta Camera Kabushiki Kaisha Image reader
JPS62177685A (ja) * 1986-01-30 1987-08-04 Nec Corp 光学式情報読取装置
US4807045A (en) * 1986-07-18 1989-02-21 Dainippon Screen Mfg. Co., Ltd. Image data processing method and apparatus therefor
DE3636192C1 (de) * 1986-10-24 1988-02-18 Erhardt & Leimer Gmbh Vorrichtung zur Erfassung des Abbildes von Oberflaechenbereichen laufender Warenbahnen
US5014332A (en) * 1987-03-31 1991-05-07 Minolta Camera Kabushiki Kaisha Image reader
US4954897A (en) * 1987-05-22 1990-09-04 Nikon Corporation Electronic still camera system with automatic gain control of image signal amplifier before image signal recording
DE3854653T2 (de) * 1987-06-04 1996-03-21 Dainippon Screen Mfg Gerät zur Stabilisierung der Lichtmenge einer Fluoreszenzlampe.
US4896029A (en) * 1988-04-08 1990-01-23 United Parcel Service Of America, Inc. Polygonal information encoding article, process and system
JPH0284880A (ja) * 1988-06-22 1990-03-26 Ricoh Co Ltd 画像読取り装置の制御方法
US5196950A (en) * 1988-08-04 1993-03-23 Ricoh Company, Ltd. Optical reader and light source used for the same
US5070414A (en) * 1988-09-20 1991-12-03 Kabushiki Kaisha Toshiba Method and apparatus for reading image information formed on material
JP2610317B2 (ja) * 1988-09-28 1997-05-14 株式会社東芝 イメージスキャナ装置
US5032712A (en) * 1988-10-19 1991-07-16 Canon Kabushiki Kaisha Signal accumulation image reading apparatus
US4903144A (en) * 1988-10-27 1990-02-20 Eastman Kodak Company Automatic D.C. offset control for image scanners
US4958064A (en) * 1989-01-30 1990-09-18 Image Recognition Equipment Corporation Bar code locator for video scanner/reader system
JPH0732447B2 (ja) * 1989-05-16 1995-04-10 シャープ株式会社 読取装置
JPH0322751A (ja) * 1989-06-20 1991-01-31 Toshiba Corp 読取り装置
US5212569A (en) * 1989-06-29 1993-05-18 Fuji Photo Film Co., Ltd. Light beam scanning apparatus capable of changing the scanning density
JPH03194673A (ja) * 1989-12-22 1991-08-26 Sumitomo Electric Ind Ltd 記号読取装置
US5378883A (en) * 1991-07-19 1995-01-03 Omniplanar Inc. Omnidirectional wide range hand held bar code reader

Also Published As

Publication number Publication date
ES2186031T3 (es) 2003-05-01
US5327171A (en) 1994-07-05
DE69332444T2 (de) 2003-07-10
EP0855665B1 (de) 2002-10-23
ATE175510T1 (de) 1999-01-15
EP0855665A2 (de) 1998-07-29
DE69332444D1 (de) 2002-11-28
EP0571891A2 (de) 1993-12-01
GR3029659T3 (en) 1999-06-30
EP0571891A3 (en) 1994-07-13
US5430282A (en) 1995-07-04
EP0571891B1 (de) 1999-01-07
DK0571891T3 (da) 1999-07-19
EP0855665A3 (de) 1999-11-17
ES2129051T3 (es) 1999-06-01
DE69322902D1 (de) 1999-02-18

Similar Documents

Publication Publication Date Title
DE69322902T2 (de) Optische Einrichtungen für Kamera
DE69325854T2 (de) Verfahren und System zur Zielbilderkennung
DE69326714T2 (de) Kameralesevorrichtung für verschiedene Kodes
DE69323114T2 (de) Multifunktionelles Kamerasystem
DE68920617T2 (de) Artikel, Verfahren und System zur hexagonalen Datenkodierung.
DE69229345T2 (de) System und verfahren zur erfassung eines optischen zieles
DE68925059T2 (de) Verfahren und Gerät zur polygonalen Datendekodierung
DE69326755T2 (de) Leser zum dekodieren zwei-dimensionaler optischer information
DE102007028866B4 (de) Vorrichtung zum optischen Lesen eines graphischen Symbols, das aus einer Mehrzahl von optisch erkennbaren Informationseinheitsabschnitten aufgebaut ist
DE69128561T2 (de) Zeichenlesevorrichtung
DE69716087T2 (de) System und verfahren zur bilderfassung mit hoher geschwindigkeit
DE69132773T2 (de) Gerät mit erweiterter Schärfentiefe zum elektro-optischen Lesen von Zeichen
DE69605792T2 (de) Dimensionierungssystem
DE3783974T2 (de) Optischer buchstabenleser.
DE2018882A1 (de) Etikettenleser mit Einrichtungen zum Erkennen, Erfassen und Lesen von nicht lesegerecht ausgerichteten Etiketten
US5747823A (en) Two-dimensional code mark detecting method and apparatus therefor
US4242734A (en) Image corner detector using Haar coefficients
DE3687883T2 (de) Vorrichtung zum elektronischen abtasten und zum mikrofilmen von dokumenten.
DE3943680C2 (de) Optisch lesbare Kennzeichnung
JPS62128380A (ja) 文字・バ−コ−ド読取装置
DE60033260T2 (de) Positionsmessvorrichtung und -verfahren
JPS5983079A (ja) 物体検知器
JPS61289476A (ja) 文字読取装置のフオ−マツト生成方式
JP2002334323A (ja) 刻印表示読み取り装置
JP3028510B2 (ja) 画像処理装置,小包から経路指定情報を抽出するための装置,画像処理方法及び小包仕分けの方法

Legal Events

Date Code Title Description
8364 No opposition during term of opposition