FR2642542A1 - Systeme video de balayage et de lecture pour codes a barres - Google Patents

Systeme video de balayage et de lecture pour codes a barres Download PDF

Info

Publication number
FR2642542A1
FR2642542A1 FR9000984A FR9000984A FR2642542A1 FR 2642542 A1 FR2642542 A1 FR 2642542A1 FR 9000984 A FR9000984 A FR 9000984A FR 9000984 A FR9000984 A FR 9000984A FR 2642542 A1 FR2642542 A1 FR 2642542A1
Authority
FR
France
Prior art keywords
elements
group
target
locating
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
FR9000984A
Other languages
English (en)
Inventor
Robert Duncan Kirkpatrick
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Image Recognition Equipment Corp
Original Assignee
Image Recognition Equipment Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Image Recognition Equipment Corp filed Critical Image Recognition Equipment Corp
Publication of FR2642542A1 publication Critical patent/FR2642542A1/fr
Withdrawn legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06KGRAPHICAL DATA READING; PRESENTATION OF DATA; RECORD CARRIERS; HANDLING RECORD CARRIERS
    • G06K7/00Methods or arrangements for sensing record carriers, e.g. for reading patterns
    • G06K7/10Methods or arrangements for sensing record carriers, e.g. for reading patterns by electromagnetic radiation, e.g. optical sensing; by corpuscular radiation
    • G06K7/10544Methods or arrangements for sensing record carriers, e.g. for reading patterns by electromagnetic radiation, e.g. optical sensing; by corpuscular radiation by scanning of the records by radiation in the optical part of the electromagnetic spectrum
    • G06K7/10821Methods or arrangements for sensing record carriers, e.g. for reading patterns by electromagnetic radiation, e.g. optical sensing; by corpuscular radiation by scanning of the records by radiation in the optical part of the electromagnetic spectrum further details of bar or optical code scanning devices
    • G06K7/1092Methods or arrangements for sensing record carriers, e.g. for reading patterns by electromagnetic radiation, e.g. optical sensing; by corpuscular radiation by scanning of the records by radiation in the optical part of the electromagnetic spectrum further details of bar or optical code scanning devices sensing by means of TV-scanning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06KGRAPHICAL DATA READING; PRESENTATION OF DATA; RECORD CARRIERS; HANDLING RECORD CARRIERS
    • G06K19/00Record carriers for use with machines and with at least a part designed to carry digital markings
    • G06K19/06Record carriers for use with machines and with at least a part designed to carry digital markings characterised by the kind of the digital marking, e.g. shape, nature, code
    • G06K19/06009Record carriers for use with machines and with at least a part designed to carry digital markings characterised by the kind of the digital marking, e.g. shape, nature, code with optically detectable marking
    • G06K19/06018Record carriers for use with machines and with at least a part designed to carry digital markings characterised by the kind of the digital marking, e.g. shape, nature, code with optically detectable marking one-dimensional coding
    • G06K19/06028Record carriers for use with machines and with at least a part designed to carry digital markings characterised by the kind of the digital marking, e.g. shape, nature, code with optically detectable marking one-dimensional coding using bar codes
    • GPHYSICS
    • G07CHECKING-DEVICES
    • G07BTICKET-ISSUING APPARATUS; FARE-REGISTERING APPARATUS; FRANKING APPARATUS
    • G07B15/00Arrangements or apparatus for collecting fares, tolls or entrance fees at one or more control points
    • G07B15/02Arrangements or apparatus for collecting fares, tolls or entrance fees at one or more control points taking into account a variable factor such as distance or time, e.g. for passenger transport, parking systems or car rental systems
    • G07B15/04Arrangements or apparatus for collecting fares, tolls or entrance fees at one or more control points taking into account a variable factor such as distance or time, e.g. for passenger transport, parking systems or car rental systems comprising devices to free a barrier, turnstile, or the like
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06KGRAPHICAL DATA READING; PRESENTATION OF DATA; RECORD CARRIERS; HANDLING RECORD CARRIERS
    • G06K19/00Record carriers for use with machines and with at least a part designed to carry digital markings
    • G06K19/06Record carriers for use with machines and with at least a part designed to carry digital markings characterised by the kind of the digital marking, e.g. shape, nature, code
    • G06K2019/06215Aspects not covered by other subgroups
    • G06K2019/06253Aspects not covered by other subgroups for a specific application
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06KGRAPHICAL DATA READING; PRESENTATION OF DATA; RECORD CARRIERS; HANDLING RECORD CARRIERS
    • G06K19/00Record carriers for use with machines and with at least a part designed to carry digital markings
    • G06K19/06Record carriers for use with machines and with at least a part designed to carry digital markings characterised by the kind of the digital marking, e.g. shape, nature, code
    • G06K2019/06215Aspects not covered by other subgroups
    • G06K2019/06262Aspects not covered by other subgroups with target- or other orientation-indicating feature

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Electromagnetism (AREA)
  • Theoretical Computer Science (AREA)
  • General Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Toxicology (AREA)
  • Health & Medical Sciences (AREA)
  • Business, Economics & Management (AREA)
  • Finance (AREA)
  • Image Input (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

Le système de lecture et de balayage pour lire automatiquement les éléments de données 30 d'un code à barres disposé sur une carte de crédit 12 portée par une enveloppe 26 qui est assujettie à un objet mobile, par exemple un véhicule automobile, ou un objet mobile, comporte un groupe 32 d'éléments de localisation de cible qui présentent des caractéristiques prédéterminées et connues et qui sont disposés au voisinage des éléments de données 30, ces éléments de localisation étant constitués par des rectangles qui sont placés sur un fond très contrastant et ces rectangles, lorsqu'ils sont coupés par une ligne passant par le centre de la cible, définissant une séquence de barres et d'espaces contrastants présentant des largeurs prédéterminées sur ladite ligne; et des moyens sensibles aux rapports de largeurs respectifs de ces barres et de ces espaces pour détecter initialement la présence du groupe 32 d'éléments de localisation, puis pour lire les éléments de données 30 du code à barres situés au voisinage du groupe 32 d'éléments de localisation.

Description

La présente invention concerne, d'une manière générale, un système de
lecture de codes à barres, et en particulier un dispositif de localisation d'un code à barres pour aider à
l'acquisition d'un code à barres cible donné.
Dans les systèmes vidéo de lecture et de balayage qui sont conçus pour lire une information de code à barres portée par un objet ou un article en mouvement, la caméra vidéo doit rechercher et évaluer l'information du code à barres qui-peut être orientée de manière aléatoire par rapport à la direction ou au trajet de balayage. Dans certaines applications, l'objet en mouvement est situé à distance, au-delà de la distance focale de la caméra de balayage, et le champ de balayage peut contenir une lumière de fond parasite ou de diffusion qui interfère avec
l'acquisition et la détection du code à barres.
Si une marque étrangère ou un vide apparent sont détec-
tés lors du balayage par un lecteur c o n v.e n -
t i o n n el de code à barres, le système de lecture essaie de traiter les barres et les espaces étrangers. Cette tentative se traduit par une lecture erronée ou une défaillance à lire
l'information du code à barres. Du fait que tout le champ doit.
être balayé d'une manière continue pour la détection d'un sup-
port mobile, on doit détecter un grand nombre de données qui sont extérieures à l'information concernée. Ainsi, l'ordinateur
de balayage doit recevoir un grand nombre de signaux non-
' intéressants, ce qui réduit la vitesse d'évaluation et de recon-
naissance.Dans certains cas, le niveau des parasites optiques
du fond peut être suffisant pour masquer, obscurcir, etc.complè-
tement le code à barres cible en empêchant ou retardant ainsi l'acquisition. Dans certaines applications, il est souhaitable de différencier certains porteurs de code à barres par rapport à
d'autres et de lire sélectivement l'information du code à bar-
res affichée seulement sur un support ou porteur spécifique qui est entouré par des supports multiples, qu'ils soient mobiles ou fixes. De tels supports peuvent ne pas être intéressants, ou bien ils peuvent être des éléments d'un groupe d'exclusion, dont l'information de code à barres n'est pas intéressante,
n'est pas pertinente ou a délibérément été exclue de l'opéra-
tion de traitement. Lorsque des cibles multiples en codes à barres de deux catégories ou plus sont présentées dans le champ
de balayage, un retard substantiel peut être subi dans l'acqui-
sition d'un code à barres cible désiré.
Une autre limitation à l'acquisition des cibles en code à barres portées par des objets en mouvement dans le champ de
balayage réside en ce que, à des distances dépassant par exem-
ple 1,2 m à 1,5 m, la plupart des codes à barres ne peuvent pas être lus par les caméras vidéo du commerce comportant des objectifs à distance focale fixe. En d'autres termes, pour des
cibles en code à barres qui sont présentées à une distance supé-
rieure à la distance focale de l'objectif de balayage, les élé-
ments à barres étroits ne peuvent pas être détectés car leur résolution optique est inférieure à un élément d'image (pixel) en largeur. Un retard substantiel dans l'acquisition du code à barres de la cible est observé jusqu'à l'instant o l'objet
support mobile se déplace dans la zone de balayage en étant si-
tué dans la plage focale de l'objectif de balayage.
Selon le mode de réalisation préféré de la présente invention, on réalise une identification non-ambiguë d'un code
à barres porté par un objet ou un article sur un fond à para-
sites optiques en associant un groupe d'éléments de localisa-
tion de la cible de configuration unique et de contraste impor-
tant, situés en adjacence au code à barres et disposés suivant
une configuration qui ne peut se produire que d'une manière uni-
que dans la nature. La largeur et l'espacement des éléments de
localisation sont sensiblement supérieurs à la largeur et l'es-
pacement comparables des barres des éléments du code à barres.
Les éléments de localisation ont une configuration unique et particulière en ce sens que les largeurs relatives des éléments
et leurs distances d'espacement sont dans une relation prédé-
terminée les unes par rapport aux autres.
Un système lecteur vidéo effectue des calculs en temps
réel en référence aux éléments de localisation pour détermi-
ner les emplacements des angles du code à barres concerné. Un balayage unidimensionnel par la caméra vidéo sur le champ de la cible est converti en temps réel en une séquence de barres
et d'espaces dont les largeurs sont mesurées. Lorsqu'une séquen-
ce d'un nombre correct de barres et d'espaces est trouvée de telle manière que la relation entre les largeurs des barres et des espaces correspond aux rapports connus prédéterminés des lu largeurs pour le dispositif de localisation de la cible, on
a trouvé un code à barres candidat. On tilise ensuite un au-
tre traitement impliquant une comparaison des valeurs d'image d'échelle de gris pour valider si l'élément de localisation
candidat représente effectivement un vrai élément de localisa-
tion de cible. Après la validation, les points frontières d'an-
gle d'un rectangle qui entoure le code à barres cible concerné
sont calculés et le code à barres cible ainsi encadré est ensui-
te lu.
L'invention sera mieux comprise à la lecture de la
description qui va suivre du mode de réalisation préféré, en
référence aux dessins annexés qui font partie de la-description
et dans lequels:
Fig. 1 est une vue simplifiée en perspective qui mon-
tre l'utilisation d'un dispositif de localisation d'une cible formée par un code à barres, en combinaison avec un système de balayage vidéo pour détecter la possession non-autorisée d'un véhicule tentant de traverser une zone à circulation réglementée Fig. 2 est, à plus grande échelle, une coupe d'une partie d'un pare-brise de l'automobile représentée sur la Fig. 1, cette Fig. 2 montrant la fixation sur la surface intérieure du parebrise d'une pochette de support d'une carte de crédit; Fig. 3 est une vue en élévation du pare-brise, ainsi que de la carte de crédit de l'utilisateur et de la pochette de support de cette carte portéespar le pare-brise; Fig. 4 est une vue en élévation da la carte de crédit de l'utilisateur et montre les éléments du code à barres et les éléments de localisation de la cible;
Fig. 5 est une vue en perspective arrière de la pochet-
te pour la carte de crédit dans laquelle la carte de crédit de l'utilisateur a été introduite; Fig. 6 est un schéma simplifié par blocs du système de balayage/lecture selon la présente invention;
Fig. 7 est un schéma simplifié qui illustre les dimen-
sions relatives des éléments de localisation de la cible les uns par rapport aux autres et par rapprt aux éléments du code à barres de la carte de crédit de l'utilisateur; Fig. 8 est un schéma simplifié par blocs du circuit de lecture et de balayage qui acquiert, traite et valide les données vidéo; Fig. 9 est une vue similaire à la Fig. 3 et montre un agencement de pochette support selon une variante; Fig. 10 est une vue similaire à la Fig. 3 et montre une carte de crédit d'un utilisateur placée dans la pochette support de la Fig. 9; et
Fig. 11 est une vue similaire à la Fig. 4 et montre un -
autre agencement pour une carte de crédit.
On va maintenant décrire, en référence aux dessins, un
système de lecture et de balayage d'un code à barres pour dé-
tecter la possession non-autorisée d'un véhicule automobile.
Ce système, en conjonction avec le dispositif unique de locali-
sation de la cible à code à barres, peut être adapté à une grande variété d'autres applications, notamment la sécurité, la surveillance, la manutention de matières ou d'articles, et la
commande d'accès ou d'entrée. D'autres applications peuvent vi-
ser, par exemple, la commande d'entrée dans une zone de sta-
tionnement, la commande des entrées et/ou des ascenseurs pour le personnel, la commande et la comptabilisation du personnel dans une zone à accès classé ou restreint, l'accès commandé ou la facturation automatique du trafic automobile sur les voies à péage ou les ponts, et la surveillance du personnel portant
des badges à code à barres.
En référence maintenant aux Figs. 1 à 6, un système vidéo 10 de lecture et de balayage est utilisé en combinaison avec une carte 12 à code à barres portée sur le pare-brise 5
d'une automobile 14 pour délivrer ou refuser le passage à l'au-
tomobile par une barrière 16 de point de passage. Un but du système 10 est de détecter les véhicules volés en des points à accès commandé sans interférence significative sur l'écoulement
du trafic. Le système 10 de lecture et de balayage remplit cet-
te fonction en utilisant un ordinateur numérique 18 qui numéri-
se un signal vidéo 20 engendré par une caméra de balayage 22 pour détecter et Iire l'information de code à barres dans le champ de balayage de la caméra 22. L'opération d'accès contrôlé implique la localisation et la capture de l'image des données du code à barres portées par l'automobile à l'aide de la caméra vidéo 22, la numérisation du signal vidéo 20 du code à barres, le traitement de ces données dans le calculateur numérique de données 18, la comparaison des données de code à barres avec I'information contenue dans un dossier de base de données de
consigne ou de référence pour la vérification, puis la délivran-
ce ou l'interdiction de l'accès.
La carte de crédit 12 à code à barres est placée sur la face intérieure du pare-brise 5 de telle manière que les données du code à barres soient affichées et visibles pour la caméra vidéo 22. La carte 12 est introduite dans la poche 24
d'une enveloppe 26 qui adhère à la surface intérieure du pare-
brise. L'enveloppe 26 présente une fenêtre ou une partie trans-
parente 28 à travers laquelle l'information du code à barres portée par la carte 12 est visible à travers le pare-brise S. En référence maintenant aux Figs. 3 et 4, la carte de crédit 12 comporte une bande de données 30 de code à barres et un groupe 32 d'éléments de localisation de la cible qui est situé directement au-dessus de la bande 30 de données. Comme montré sur la Fig. 4, la bande 30 de données et le groupe 32 d'éléments de localisation de la cible sont imprimés de manière renversée sur la moitié inférieure de la carte 12 de telle manière que les données du code à barres et les éléments du groupe 32 d'éléments de localisation de la cible soient visibles à travers la fenêtre 28 de l'enveloppe pour une mise en place de la carte de crédit 12 dans la poche 24 dans l'une ou l'autre
des deux positions renversées l'une par rapport à l'autre.
Une seconde bande 34 de données de code à barres est imprimée sur la face extérieure 26a de l'enveloppe 26. La bande 34 de données représente un numéro de série qui identifie de manière unique l'automobile 14 à laquelle l'enveloppe 26 est assujettie. L'information représentée par le numéro de série de l'automobile et représentée par la bande de données 34, conjointement avec les données d'identification de la carte de crédit de l'utilisateur représentées par la bande de données
, sont mémorisées dans des dispositifs de classement de don-
nées sous la forme d'une mémoire 36 à disque dur (Fig. 6).
Le dossier de données associé à chaque code à barres
unique de la bande 34 pour l'identification du véhicule compor-
te une information de titre, le numéro d'enregistrement de
l'état, le numéro d'identification du véhicule, l'année du mo-
dèle du véhicule, le nom du propriétaire, son adresse, son
numéro de téléphone, ainsi que les noms des utilisateurs auto-
risés et les numéros des permis de conduire des conducteurs.
La bande de données 30 identifie de manière unique un conduc-
teur autorisé par son nom, le numéro d'identification de l'uti-
lisateur, et le numéro du permis de conduire du conducteur. Le
numéro d'identification de l'utilisateur représenté par la ban-
de de données 30 est comparé avec la liste des utilisateurs qui
sont autorisés à se servir de l'automobile et qui sont identi-
fiés par la seconde bande de données 34. La comparaison est ef-
fectuée par l'ordinateur 18 en référence aux données stockées
dans la mémoire 36 à disque dur ou dans une mémoire éloignée.
Dans l'exemple considéré, la mémoire 36 à disque dur présen-
te une capacité de 40 mégabits et la possibilité de contenir jusqu'à 100. 000 données.
L'ordinateur 18 est un ordinateur d'application géné-
rale à hautes performances présentant les caractéristiques générales suivantes: fréquence d'horloge pour le traitement MHz, fréquence d'horloge Entrée/Sortie (vitesse de bus) 60 MHz, mémoire sans état d'attente, mémoire RAM de 1 mégabit
(vitesse d'accès 100 ns), et la mémoire 36 à disque dur.
La capacité de la mémoire 36 à disque dur dépend de la taille de la base de données nécessitée par l'utilisateur. La base de données contient des dossiers qui sont localisés en effectuant une recherche dans la base de données du disque en utilisant comme clés les codes à barres 30 et 34. La taille
des dossiers et leur nombre nécessaire pour l'application con-
sidérée détermioentla dimension de la base de données. En d'au-
tres termes, la taille du dossier (bits) multipliée par le nom-
bre de dossiers nécessaire donne la dimension de la base de données. La capacité globale de la mémoire à disque est égale à la somme de celle qui est nécessaire pour la base de données et de la capacité nécessaire pour le système en fonctionnement, le logiciel pour l'application et le traitement de la base de
données.
Le signal vidéode données 20 est d'abord traité par
une unité 38 d'interface vidéo et de numérisation vidéo. L'uni-
té 38 comporte une mémoire RAM vidéo pouvant contenir une ma-
trice vidéo de 512 X 512 éléments à 8 bits.
Une unité interface 40 de communication série comman-
de le cheminement des signaux de commande 42 délivrés par
l'ordinateur 18 vers un dispositif 44 de pilotage en panorami-
que (rotation) et en basculement.
26 4 2 5 4 9.-
La caméra vidéo 22 présente une résolution élevée et elle peut balayer et détecter au moins 400 lignes de données vidéo par image. Son signal vidéo analogique de sortie 20 est
de préférence du type standard donné par l'Association améri-
caine des Industries Electroniques (E.I.A). De préférence,
la caméra 22 est équipée d'une lentille 46 à diaphragme auto-
matique, avec une commande motorisée de zoom et de distance
focale. Les signaux 48 de commande de zoom et de distance fo-
cale sont engendrés par l'ordinateur 18 et ils constituent une partie du signal de commande 42. Les signaux de commande
de zoom et de distance focale sont nécessaires pour la recher-
che et le balayage par l'intermédiaire du logiciel. Les pro-
priétés de distance focale déterminent les distances et les
niveaux de lumière auxquels le système peut efficacement iden-
tifier et lire le groupe 32 d'éléments de localisation de la
cible et les groupes 30 et 34 de données en code à barres.
La caméra 22 est montée sur le dispositif de pilotage
44 pour la commande en panoramique et en basculement. Ce dis-
positif 44 permet un mouvement précis de la caméra autour de
l'axe vertical Z (panoramique) et par rapport à la ligne ho-
rizontale R de vue (basculement) en supposant que ces axes Z et R passent par le centre de la caméra. Un tel mouvement permet la recherche et le balayage du groupe 32 d'éléments de localisation de la cible et des groupes 30 et 34 de données en codes à barres. L'unité d'interface 40 délivre des signaux de commande suivant un protocole dans lequel une série de bits de commande sont émis et reçus entre l'ordinateur 18 et
le dispositif 44 de pilotage en panoramique et en basculement.
Le dispositif de pilotage 44 interprète les bits de commande et il engendre des signaux de commande de moteurs, de même que les signaux 48 de commande de zoom et de distance focale
pour un mouvement précis de la caméra et une commande préci-
se de son objectif.
L'éclairement minimum nécessaire pour l'acquisition
de la cible et la lecture du code à barres dépend de la qua-
lité de la caméra et de son objectif. Par exemple, la caméra 22 nécessite un niveau de lumière sur la cible de 3 lux, pour
un objectif de 1,4 mm équipé d'un filtre infrarouge. L'éclaire-
ment est fourni par une source L. Une unité 50 du type à cellule photoélectrique détecte la présence de l'automobile 14 lorsque celle-ci approche de la zone précédant une barrière d'accès 16. Lorsque l'automobile 14 pénètre dans la région de surveillance de la caméra 22, l'unité 50 détecte la présence de l'automobile et engendre un
signal de commande 51 qui fait démarrer le processus de valida-
tion.
L'unité 38 d'interface et de numérisation vidéo numé-
rise le signal vidéo 20 puis le teste pour détecter l'éventuelle présence d'un groupe 32 d'éléments de localisation vidéo. Lors
de la détection de ce groupe 32, les signaux 42 et 48 de comman-
de panoramique / basculement et zoom / distance focale sont délivrés par l'unité d'interface 40 pour amener la caméra 22 à régler son zoom et sa distance focale sur la carte de crédit 12.
Un dispositif 52 de traitement de données lit les don-
nées numérisées d'identification de l'utilisateur sur la bande , ainsi que les données d'identification du véhicule sur la bande 34, puis il exécute une recherche des données classées
dans la mémoire 36 à disque dur pour confirmer ou nier l'exis-
tence d'une concordance entre la combinaison particulière des données de la carte de crédit de l'utilisateur et les données d'identification du véhicule. S'il y a concordance, un signal
54 d'autorisation d'accès est engendré, ce qui provoque l'ou-
verture de la barrière 16. Dans le cas contraire, un signal 56 de refus d'accès est engendré, ce qui informe l'opérateur de l'installation que l'automobile 14 nécessite une évaluation personnelle. Les groupes 30 et 34 de données en codes à barres et le groupe 32 d'éléments de localisation de la cible doivent
être visibles et situés en face de l'objectif 46 de la caméra.
26425 2
Le groupe 32 d'éléments de localisation de la cible contient une configuration unique de contour qui peut être reconnue à l'aide d'un algorithme de reconnaissance de configuration stocké dans la mémoire 36 à disque dur. Cette configuration de contour présente un rapport spécifique d'épaisseur longueur/ largeur/ligne, ce qui permet la reconnaissance du groupe
d'éléments de localisation de la cible dans la plage de bala-
yage de la caméra 22.
Le logiciel de reconnaissance de configuration amène le dispositif de traitement 52 à analyser une image numérisée qui est mémorisée dans la mémoire 36 à disque dur. Après que
l'image unique de contour du groupe 32 d'éléments de localisa-
tion de la cible a été acquise, le dispositif de traitement 52 calcule la distance entre la caméra 22 et la carte de crédit 12 en comparant la taille de l'image acquise avec la taille de la configuration de contour de référence dans la mémoire,
et en relation avec une table de détermination des distances.
Le logiciel de fonctionnement dirige alors la caméra 22 de manière que le code à barres 30 de la carte de crédit
12 soit situé au centre de l'image numérisée suivante. Des si-
gnaux de commande appropriés sont engendrés pour amener l'ob-
jectif 46 à zoomer et à régler sa distance focale sur la car-
te de crédit 12 pour obtenir un agrandissement maximal des co-
des à barres 30,34 dans l'image numérisée. Les codes à barres 30, 34 sont ensuite renumérisés et les données renumérisées
des codes à barres sont traduites en une information numérique.-
Le groupe (TLG) 32 d'éléments de localisation de la
cible présente des dimensions fixes pour une application don-
née. Cela permet un calcul précis de l'emplacement du groupe
32 dans un espace à trois dimensions.
Lorsque l'objectif 46 de la caméra vidéo est établi sur un grand angle, on peut obtenir un réglage sur l'infini, ce qui permet la localisation et la mise à la taille initiales du groupe 32. Cette détection initiale présente une résolution grossière. Les coordonnées du groupe 32 sont calculées à partir des éléments d'image de l'image capturée. La caméra 22 est ensuite commandée en panoramique et en basculement par l'ordinateur 18 de manière à centrer le groupe 32 dans l'image capturée. A ce point, l'ordinateur 18 zoome et focalise la
caméra 22 pour effectuer un agrandissement optique de 2.
L'image vidéo est ensuite recapturée après cet agrandissement.
Cela double la précision des éléments d'image par rapport à l'image et permet une mesure plus précise du groupe 32. A
l'aide de cette mesure plus précise, la distance effective en-
tre l'objectif et le groupe 32 est calculée.
Cette distance calculée est utilisée dans un index d'une table de focalisation qui donne le réglage exact de la distance focale de la caméra. L'ordinateur établit la distance focale de l'objectif sur cette distance. Après avoir focalisé l'objectif sur la distance exacte, l'ordinateur règle le zoom
de l'objectif sur un agrandissement télescopique maximal. Ce-
la agrandit le groupe 32 dans l'image capturée à la dimension
maximale, avec pour résultat une résolution maximale du grou-
pe 32 et de son code à barres associé. II est ainsi possible d'interpréter automatiquement un code à barres, ce qui n'était précédemment pas possible en raison de la distance et de la résolution. Le nombre qui est dérivé du groupe 34 de données en code à barres pour l'identification du véhicule est utilisé comme élément d'identification d'enregistrement dans la base
de données stockée dans'la mémoire 36 à disque dur. Cet enre-
gistrement est ensuite lu dans la mémoire. L'enregistrement lu est balayé pour déterminer si le code à barres 30 de la carte
de crédit de l'utilisateur est contenu dans l'enregistrement.
Dans l'affirmative, le signal 54 d'autorisation d'accès est acheminé à travers un dispositif numérique 58 de commande Entrée/Sortie.
Les opérations suivantes sont exécutées par le sys-
tème de balayage 10 lors d'une opération typique: 1. Mise sous tension,
2. Exécution du panoramique, du basculement, de la fo-
calisation et du réglage du zoom dans certaines limites. Vérification que la zone d'accès est libre
et que la barrière est fermée. -
3. Excitation du dispositif de numérisation.
4. Capture de l'image, grand angle et réglage sur
l'infini.
5. Localisation de la cible de calibrage.
6. Panoramique, basculement, zoom et focalisation sur la cible. Mise à zéro des compteurs de localisation
de l'origine à trois dimensions.
7. Panoramique, basculement, zoom et focalisation sur
une position d'attente pour un véhicule.
8. Lorsque le véhicule est-détecté, exécution de l'algo-
rithme de localisation.
9. L'emplacement et la distance reviennent de l'algo-
rithme en vue d'une utilisation pour le panoramique,
le basculement, la commande de zoom et de focalisa-
tion sur la carte de crédit cible.
10. L'algorithme de localisation est à nouveau mis en
oeuvre pour effectuer un ajustement final de panora-
mique, de basculement, et de commande de zoom et de focalisation.
26425 2
11. L'algorithme de lecture du code à barres est ensuite utilisé pour lire le code à barres du
véhicule et le code à barres de l'utilisateur.
12. Recherche dans la base de données des données du véhicule. 13. Après que le numéro du véhicule a été trouvé, le code à barres de l'utilisateur est comparé à la liste des utilisateurs autorisés contenue
dans le dossier des données de véhicules.
14. Après validation, la barrière est ouverte.
15. La zone d'accès est surveillée quant à la sortie
du véhicule, puis la barrière est fermée.
16. La caméra est ramenée à une position d'attente et
le système se met dans l'état de la phase 7.
L'efficacité du système 10 de balayage et de lecture est améliorée par le groupe 32 d'éléments de localisation de la cible qui est affiché à proximité immédiate soit du code à
barres 30 portant les données de la carte de crédit de l'utili-
sateur, soit de la bande 34 portant les données en code à barres d'identification du véhicule. Le groupe 32 d'éléments de localisation de la cible, le groupe 30 de données en code à barres de la carte de crédit de l'utilisateur et le groupe 34
de données d'identification du véhicule doivent apparaître si-
multanément dans le champ de la caméra 22 et sous une lumière
suffisante pour la résolution des segments du code à barres.
L'espacement et la taille relative des éléments
du groupe 32 d'éléments de localisation de la cible sont sé-
lectionnés pour donner une configuration qui n'est pas sus-
ceptible de se produire dans la nature. Les éléments alternés noir/blanc ont des largeurs et des hauteurs qui sont liées mais qui sont différentes, ce qui permet une reconnaissance
rapide et une durée minimale de traitement. De plus, les élé-
ments de localisation de la cible du groupe 32 sont gros par
rapport aux codes à barres associés pour permettre l'acquisi-
* tion de la carte de crédit à des distances plus importantes
et pour repérer des supports mobiles de codes à barres.
En référence maintenant aux Figs. 3 et 7, le groupe 32 d'éléments de localisation de la cible comporte quatre éléments
, 62, 64 et 66 très contrastants. Le but du groupe 32 d'élé-
ments de localisation de la cible est d'aider le système vidéo à localiser dans les trois dimensions et à acquérir les
codes à barres des bandes 30 et 34.
Le groupe 32 est imprimé au-dessus du code à barres 30 de la carte de crédit, quoiqu'il pourrait être placé suivant une autre disposition ou orientation, par exemple au-dessous ou à côté du code 30. Lorsque le code à barres 30 se déplace dans diverses positions à l'intérieur de l'espace de vue à trois dimensions, le groupe 32 donne une perspective facilement discernable qui, autrement, serait difficile ou impossible à obtenir. Les principaux avantages offerts par le groupe 32
d'éléments de localisation résident en ce qu'il existe une con-
figuration unique, non susceptible d'apparaître ailleurs dans le champ de la caméra (il pourrait en effet exister d'autres codes à barres dans lechamp de la caméra), et en ce qu'il est constitué des éléments 60,62,64 et 66 qui sont beaucoup plus gros que les éléments du code à barres 30 de la carte de crédit. Cela rend possible la localisation du code à barres de la carte de crédit même si ses éléments sont trop petits pour être résolus comme éléments d'image (pixels) par la caméra
vidéo. Les dimensions de l'image vidéo déterminées par la camé-
ra permettent au système de zoomer et de se focaliser sur le code à barres 30 de la carte de crédit car la taille ou les dimensions effectives du groupe 32 et de ses éléments 60,62,
64 et 66 sont connues. Par conséquent, la distance et l'orien-
tation du code à barres 30 de la carte de crédit peuvent être calculées par un algorithme de logiciel La première étape dans l'acquisition de la cible
désirée réside dans la capture de l'image vidéo dans la mémoi-
re 36 de l'ordinateur 18. Par exemple, en utilisant le disposi-
tif de numérisation 38, une image est capturée sous la forme
de 256.000 pixels organisés suivant 500 lignes et 512 colonnes.
Chaque pixel est représenté par un élément à 8 bits de mémoire
donnant une échelle de gris sur une plage-de 256 tons ou nuan-
ces allant de 0 (noir) à 255 (blanc). Le contenu de la mémoire
est balayé Iigne par ligne et, lorsqu'une différence signifi-
cative de ton ou de nuance est détectée (blanc à noir), cette
région de l'image est identifiée comme étant une "région in-
téressante", ce qui signifie qu'elle justifie un examen plus
proche et plus détaillé.
A partir de cet instant, l'algorithme dépend de la configuration. Dès que la région intéressante ne concorde pas avec les spécifications de la configuration appropriée, la
région est abandonnée et le balayage se poursuit pour une au-
tre région intéressante. En d'autres termes, les dimensions
de l'élément spécifique que le système recherche doivent cor-
respondre à celles de la configuration désignée des moyens de localisation. La configuration peut être modifiée pour des
applications différentes, mais elle doit conserver des rela-
tions spécifiques pour chaque application individuelle.
Les étapes de la reconnaissance d'une configuration particulière des moyens de localisation peuvent être décrites
au mieux en utilisant un exemple. Dans ce qui suit, en réfé-
rence à la Fig. 7, on considèrera un exemple d'une configura-
tion des moyens de localisation et de son code à barres asso-
cié. Sur la Fig. 7, le groupe ou configuration 32 des moyens de localisation comporte les quatre rectangles 60,62,64 et 66 qui sont placés au-dessus du code à barres 30 de la carte de crédit, ce code étant du type standard à huit digits défini par l'Institut National américain de Normalisation (A.N.S.I) avec intercalage 2,5. L'algorithme du logiciel reconnaît si
26 4254?
cette configuration présente une dimension spécifique, mais
cette information(c'est-à-dire la dimension effective abso-
lue) n'est pas utilisée sauf si le système 10 doit calculer la distance entre l'objectif 46 de la caméra et le groupe 32 des éléments de localisation de la cible. A cet instant, le systè-
me 10 dirige l'objectif 46 de la caméra, commande automati-
quement le zoom et agrandit optiquement le code à barres 30
de la carte de crédit dans un but de lecture.
L'information nécessaire pour identifier le groupe 32 d'éléments de localisation de la cible et pour identifier son
orientation par rapport à la caméra 22 se trouve dans des re-
lations géométriques, spatiales et dimensionnelles des rec-
tangles 60,62,64 et 66 les uns par rapport aux autres. Les
essais exécutés par l'algorithme pour identifier la localisa-
tion des moyens de localisation sont les suivants: 1) Balayage de la gauche vers la droite; le premier, le deuxième et le quatrième éléments rectangulaires 60,62 et 66 ont la même hauteur H. Le troisième élément rectangulaire
64 a une hauteur d'environ 5/6 la hauteur des trois autres.
La caractéristique d'identification réside en ce que le troi-
sième élément rectangulaire 64 est verticalement plus court
(5/6 H).
2) La largeur du deuxième élément rectangulaire 62
vaut 3/4 de la largeur horizontale W du premier élément rectan-
gulaire 60 et la distance entre ceux-ci vaut la moitié de la
largeur W du premier élément rectangulaire 60.
3) Le troisième élément rectangulaire 64 a la même largeur W que le premier, et la distance entre le deuxième et le troisième éléments rectangulaires 62 et 64 est égale
à la largeur W du premier élément rectangulaire 60.
4) Le quatrième élément rectangulaire 66 a une
largeur qui vaut 3/4 de la largeur W du premier élément rectan-
gulaire 60, et la distance entre le troisième et le quatrième
264254?
éléments rectangulaires 64 et 66 est égale à la largeur W
du premier élément rectangulaire 60.
La détection de ces quatre relations donne une très
forte probabilité que le système a trouvé la cible-qu'il cher-
che. L'angle de balayage pour les essais précédents (c'est- à-dire par rapport à la verticale),est déterminé en cherchant
le bord supérieur et le bord gauche du premier élément rec-
tangulaire 60.
La nouvelle série d'essais détermine o est située
la région du code à barres 30 intéressant par rapport au grou-
pe 32 des éléments rectangulaires de localisation. Cette ré-
gion est géométriquement limitée par un parallélogramme, et plus précisément par un rectangle, et elle est identifiée par quatre points calculés A,B,C et D. Le point supérieur gauche
A et le point supérieur droit B du parallélogramme sont res-
pectivement le coin inférieur gauche du premier élément rec-
tangulaire 60 et le coin inférieur droit du quatrième élément
rectangulaire 66. Le point inférieur gauche C du parallélo-
gramme est un point qui est situé sur une ligne passant par
le coin supérieur gauche et le coin inférieur gauche du pre-
mier élément rectangulaire 60. Le point C est situé sous le coin inférieur gauche du premier élément rectangulaire 60 à une distance de 1, 125 fois la distance qui sépare le coin
supérieur gauche et le coin inférieur gauche du premier élé-
ment rectangulaire 60, c'est-à-dire 1,125 H. Le point infé-
rieur droit D du parallélogramme est déterminé de la même manière en utilisant les coins supérieur- droit et inférieur droit du quatrième élément rectangulaire 66. En général, les distances AC et BD sont chacune dans un rapport donné avec H. D'autres zones du code à barres peuvent être identifiées en utilisant le même processus, ce qui permet d'associer plusieurs codes à barres à la même configuration d'éléments de localisation de la cible et permet à ces codes
à barres d'être, entre eux, dans une relation spécifique.
Par exemple, on peut faire adhérer au pare-brise Par exemple, on peut faire adhérer au pare-brise
264254?
un groupe 32 d'éléments de localisation de la cible, le code à barres 30 de l'utilisateur étant situé directement au-dessous de ce groupe. Une pochette ou un étui est placé
sous le code à barres, ce qui permet au conducteur d'intro-
duire une carte sur laquelle est imprimé un code à barres.
Ce code à barres, qui est introduit dans la pochette, identi-
fie le conducteur. Ces deux numéros doivent apparaître dans la base de données, dans le même dossier, ce qui indique
que le véhicule est autorisé à entrer dans la zone régle-
mentée et à en sortir, et que le conducteur est autorisé
à conduire le véhicule.
Tout balayage vidéo par ligne sur le groupe 32 des éléments de localisation de la cible donne une séquence de sept barres et espaces dont les largeurs sont des fractions
d'une même valeur (1, 1/2, 3/4, 1,1,1 et 3/4).
Après que le balayage vidéo par ligne a détecté une cible candidate probable, l'unité centrale de traitement 52
lit les données suivantes: (a) adresse de mémoire pour com-
mencer le balayage de la ligne dans laquelle la cible candi-
date est détectée; (b) décalage dans la ligne de bordure de la cible candidate; (c) somme des carrés des largeurs des barres et des espaces situés dans le balayage à travers la
cible. Le logiciel nécessite que le circuit de détection loca-
lise la cible candidate pour plusieurs balayages successifs par ligne de manière à promouvoir la cible candidate au
statut de cible probable.
Après un retard suffisant pour avoir l'assurance que l'intégralité de la cible probable a été balayée et stockée dans la mémoire, le logiciel obtient de la mémoire une ligne de balayage qui passe par le centre de la cible et qui est
perpendiculaire à la direction des lignes initiales de balaya-
ge vidéo. Les mesures des largeurs de barres et d'espaces sont faites à l'aide du logiciel; si on obtient les relations correctes, la cible probable est promue au statut de cible
définitive.
264254?
Les étapes suivantes sont exécutées par le logiciel pour orienter le groupe 32 des éléments de localisation de la cible suivant une orientation et une dimension canoniques: 1. Exécution d'une recherche de bords sur la périphérie du symbole de la cible et enregistrement des coordon-
nées des points d'image des bords.
2. Estimation des emplacements des coins et des coordon-
nées des bords des séparations dans quatre ensembles,
chacun consistant en un segment de ligne droite.
3. Exécution d'une estimation par les plus petits
des équations pour chacun des quatre segments linéaires.
4. Résolution des quatre équations linéaires simultanément par paires pour obtenir l'emplacement des coins à
la précision des sous-éléments d'image.
5. Calculer une transformation linéaire qui cartographie-
ra un carré canonique au parallélogramme défini par
les quatre segments linéaires.
6. Modification de la transformation linéaire en incluant
si néce aire une rotation.
7. Considération d'un nombre prédéterminé N des barres
et des espaces les plus récents comme symbole poten-
tiel, et comparaison des largeurs relatives des barres
et des espaces avec les données stockées dans la mé-
moire pour obtenir un indicateur de qualité de concor-
dance.
8. Exécution d'essais valides sur ces symboles avec
des indicateurs de qualité suffisante de concordance.
Chaque ligne de balayage provenant de la caméra est
numérisée sous la forme d'une séquence de 512 données de ni-
veaux de gris à 8 bits. Ces données de niveaux de gris doi-
vent être mises sous forme binaire pour transformer toute la ligne de 512 pixels sous la forme d'une séquence de barres et d'espaces. Les valeurs des données de niveaux de gris sont limitées à la plage de 0-255, 0 représentant le noir et 255 représentant le blanc. Par définition, une transition intéressan te de bord est définie par une modification des valeurs du niveau de gris de plus de 10 % de toute la plage de niveaux
de gris. Pour une plage de niveaux de gris de 256, une transi-
tion intéressante de bord correspond à une variation de ni-
veau de gris de 25 ou plus d'un ensemble d'éléments d'image à
un autre. Toutes les autres transitions, notamment les transi-
tions graduelles, sont ignorées.
Le processus d'identification de la cible implique une comparaison des données vidéo de balayage avec des données connues correspondant aux caractéristiques du groupe 32 des
éléments de lcalisation de la cible à configuration unique.
Du fait que le groupe 32 d'éléments de localisation de la cible
fournit une séquence de barres et d'espaces adjacents présen-
tant des largeurs relatives spécifiques et connues, le signal
vidéo entrant 20 est mis sous forme binaire pour que les di-
vers éléments d'image se présentent sous la forme d'une séquen-
ce de barres et d'espaces. L'unité de traitement 52 "mesure" ensuite électroniquement la largeur des barres et des espaces
sous forme binaire, après quoi elle compare les largeurs rela-
tives des barres et des espaces avec les caractéristiques con-
nues de largeur des barres et des espaces des éléments de loca-
lisation 60, 62,64 et 66.
Par conséquent, le signal vidéo entrant 20 est mis sous forme binaire en temps réel pour détecter les transisitions noir à blanc et blanc à noir, par exemple dans le cas d'une cible candidate, pour identifier les transitions barre /
espace qui correspondent à celle-ci. L'étape suivante du pro-
cessus consiste à mesurer les largeurs des barres et des espa-
ces détectés, puis à faire des comparaisons appropriées de ces largeurs avec les largeurs des barres et des espaces des cibles de référence stockées dans la mémoire 36. Une "concordance"
entre ces données indique qu'une cible potentielle a été dé-
tectée. Les valeurs d'échelle de gris sont ensuite comparées pour détecter une variation d'échelle de gris qui dépasse une amplitude prédéterminée, par exemple 10 % de toute la plage. On a représenté à la Fig. 8 un schéma par-blocsd'un mode de réalisation préféré de l'invention pour effectuer la phase d'acquisition de la cible. Le signal vidéo 20 de données engendré par la caméra 22 de balayage par lignes est délivré au circuit d'interface et de numérisation vidéo. En même temps, ce signal est délivré par la ligne bus de données à la mémoire
36 à disque dur pour être stocké.
La caméra 22 comporte un circuit conventionnel de pola-
risation, de gain et d'échelle pour que le signal vidéo 20 constitue effectivement un signal binaire numérisé qui a été ajusté de manière appropriée pour une polarisation et un gain corrects, de même que pour une échelle appropriée, ces valeurs binaires correspondant à la séquence des valeurs de niveau de gris (pixels) constituant le champ de vue de la caméra. Dans des cas o le groupe 32 d'éléments de localisation de la cible constitue une partie de cette scène, la représentation des
données vidéo de la cible constitue des signaux binaires cor-
respondant aux barres et aux espaces noirsprésentés par les
éléments du groupe. A ce point, il doit être compris que la ci-
ble balayée par la caméra 22 n'est qu'une cible candidate qui n'a
pas encoore été validée comme étant une cible intéressante.
Le fonctionnement de la caméra vidéo 22, d'un circuit de détection de bords, d'un compteur 72 et d'un circuit 76
de concordance de cible, de même que la coordination des diver-
ses fonctions discutées ci-après, sont sous la supervision et
la commande de l'unité centrale de traitement 52.
Le circuit 70 de détection de bords comporte un fil-
tre 80 de dérivation dont la fonction est d'engendrer un signal 82 représentatif de la vitesse instantanée de changement des éléments réfléchissants de la scène par rapport à sa position dans le balayage. Le circuit 70 de détection de bords reçoit
également, comme signaux d'entrée, un signal d'horloge de don-
nées, un signal d'horloge de ligne et un signal d'adresse de commencement de ligne qui spécifie l'adresse dans la mémoire à laquelle est mémorisé le commencement de chaque balayage d'une
ligne provenant de la caméra 22.
Le circuit 70 de détection de bords comporte également un compteur 84 qui reçoit un signal d'horloge de données et
qui est remis à zéro par le signal d'horloge de ligne. Le comp-
teur 84 engendre par conséquent sur sa sortie un signal de déca-
lage correspondant au décalage dans une ligne des données de pixelsqui sont introduites dans le filtre de dérivation 80. Au
cas o la cible candidate est détectée par le circuit de con-
cordance 76, ce "décalage" est mémorisé dans une partie de l'uni-
té de mémoire 86 du type à accumulation (FIFO), dans le circuit 76 de concordance de cible pour une entrée subséquente dans l'unité centrale de traitement 52. Le signal de sortie 82 du filtre de dérivation 80 est couplé à trois registres séquentiels
à retard 88, 90 et 92.
Les données à la sortie des registres à retard 88 et 92 sont couplées à un soustracteur conventionnel 94. Le signal de sortie de différence 96 délivré par le soustracteur 94est appliqué sur une entrée d'un circuit logique 98 de détection de bord. Les sorties respectives des registres à retard 90 et 92
sont reliées aux entrées d'un circuit additionneur convention-
nel 100 dans lequel elles sont additionnées. La sortie de l'ad-
ditionneur 100 est reliée à l'entrée d'un circuit logique 102 de détection de signe et de seuil qui engendre un signal de
sortie 104 correspondant au signe du signal et un signal indi-
cateur 106 qui constitue un 1 binaire lorsque la valeur abso-
lue du signal d'entrée est supérieure à un niveau de seuil pré-
déterminé correspondant à une variation prédéterminée du niveau
de gris associé aux pixels vidéo.
Le circuit logique 98 de détection de bord engen-
26425 42
dre un premier signal de sortie 108 qui a une valeur binaire
1 lorsqu'une transition noir à blanc ou blanc à noir est détec-
tée, ainsi qu'un second signal de sortie de signalisation 110 qui constitue un 1 binaire si la transition est blanc à noir et un 0 binaire si la transition est noir à blanc. Par conséquent, en résumé, l'ensemble du circuit 70 de détection de bord, en réponse au signal vidéo entrant de données, engendre un signal de sortie 108 représentatif de la
présence d'une transition noir à blanc ou blanc à noir (inter-
face barre/espace) et un signal 110 représentatif du type spé-
cifique de la transition (c'est-à-dire barre à espace ou espace
à barre).
Le compteur 72 sert à mesurer effectivement les distances entre les transitions noir à blanc et blanc à noir,
ce qui, dans le cas d'une cible candidate, corresppond à la me-
sure des largeurs des barres et des espaces de cette cible. Par conséquent, le compteur 72 est remis à zéro chaque fois que le
signal de sortie 108 passe à 1, ce qui indique qu'une transi-
tion s'est produite, la durée du signal à la sortie du compteur
72 étant ainsi représentative de la distance entre les transi-
tions, c'est-à-dire de la largeur de la barre ou de l'espace, selon le cas, qui a été détecté en dernier lieu. Le compteur peut être de toute configuration connue dans la technique et, dans le mode de réalisation préféré de l'invention, il fait
appel à des dispositifs logiques programmables en ligne.
Comme discuté précédemment, la fonction du circuit 76 de concordance de cible consiste à comparer l'information de
signal apparaissant dans'le signal vidéo de données 20 (repré-
sentant une cible candidate) avec l'information mémorisée re-
présentative des caractéristiques uniques du groupe 32 de réfé-
rence des éléments de localisation de la cible pour déterminer
s'il y a une concordance. Plus précisément, le circuit de con-
cordance 76 compare les données (ou rapports) séquentielles de
largeurs barres/espaces apparaissant sur la sortie 74 du comp-
teur 72 avec les données (ou rapports) séquentielles de lar-
geurs barres/espaces du groupe 32 de la cible. Par conséquent, le circuit 76 de concordance de cible comporte un filtre de corrélation 112 qui reçoit en entrée un signal binaire 114 provenant de l'unité centrale de traitement 52 et représentatif des largeurs barre/espace de la cible candidate, ce signal constituant ainsi la configuration de référence d'une telle
cible. Comme indiqué précédemment, la configuration de référen-
ce (ou rapports des largeurs) pour le groupe de localisation représenté sur la Fig. 7 est constituée par les valeurs (1,
1/2, 3/4, 1,1,1 et 3/4).
Du fait que les transitions noir à blanc et blanc à noir des données vidéo se produisent à des intervalles de
temps irréguliers, le signal d'horloge délivré aux divers cons-
tituants du circuit 76 de concordance de cible est nécessaire-
ment irrégulier. Par conséquent, ces signaux d'horloge sont fournis par un généraeur d'horloge 115 en réponse au signal 108 d'indication de transition et en réponse au signal 110
indiquant le type de transition.
Un générateur 116 de signal de concordance est re-
lié à la sortie du filtre de corrélation 112 et sa fonction est d'engendrer un signal approprié sur sa sortie 118, par exemple un signal logique 1 lorsque les caractéristiques de largeur barre/espace du courant de données sur le signal de données 74 correspondent aux données de largeur barre/espace de la configuration de référence intrduite dans le filtre de
corrélatin 112.
Le circuit 76 de concordance de cible comporte éga-
lement une mémire à accumulation (FIFO) 86 qui est en communi-
cation de données avec l'unité centrale de traitement 52 par l'intermédiaire d'une ligne de données 120, et également en communication de données avec des moyens de commande 124 par
l'intermédiaire d'une.ligne de données 122. Les moyens de com-
mande 124 ont pour fonction, en réponse à un signal de con-
26425t&2
cordance provenant du générateur 116 de signal de concordan-
ce, d'engendrer un signal d'interruption qui est acheminé vers l'unité centrale de traitement 52, et de commander la mémoire à accumulation 86 pour qu'elle mémorise l'information correspondante comme une conséquence de cette concordance. Une telle information intéressante, qui est ensuite lue par l'unité centrale de traitement 52, contient les informations de décalage existant alors à la sortie du compteur 84 et
l'adresse du début ou commencement de ligne.
Du fait que la cible candidate, et par conséquent l'image du groupe 32 de localisation de la cible et des codes
à barres 30 et 34, sont dans la plupart des cas orientées.
de manière aléatoire par rapport à la caméra 22, l'acquisition
et la validation sont facilitées par une transformation élec-
tronique initiale de l'image vue. L'unité centrale de traite-
ment 52 utilisant le logiciel qui comporte des algorithmes
* localise les points d'angle A,B,C et D et calcule une trans-
formation affine à une vue standardisée. Plus particulièrement, la ligne horizontale de balayage est reconnue par le circuit
76 d'identification possible par définition du rapport appro-
prié des largeurs des barres et des espaces de la cible de référence, l'élément d'image représentant l'intersection de la ligne de balayage avec la ligne frontière la plus à droite de la cible étant également identifié par le réseau. Après qu'un signal d'interruption a été délivré à l'unité centrale
de traitement 52, comme indiqué précédemment, cette unité cen-
trale lit dans la mémoire à accumulation 86 l'adresse de l'élément d'image et la largeur de la cible détectée par la
ligne de balayage vidéo.
L'unité centrale de traitement 52 lit ensuite dans la mémoire les niveaux de gris de cette portion de l'image de la
cible représentée par l'intersection de la cible et de la li-
gne de balayage. Le seuil de transformation binaire est basé sur la valeur détectée du niveau de gris. La frontière du groupe 32 de localisation de la cible est ensuite parcourue 26425i2 en utilisant un algorithme approprié suiveur de bord, tel que l'algorithme dit Code de Direction Freeman, et un dossier de toute les coordonnées des bords et des éléments d'image
de frontière est enregistré dans la mémoire.
Ensuite, en utilisant un algorithme approprié de détection de coins, les emplacements approximatifs des quatre coins A, B, C et D, qui définissent l'encadrement du code à
barres 30 de la carte de crédit de l'utilisateur, sont détec-
tés. Avec cette information, les éléments d'image de frontiè-
re du code à barres 30 peuvent être représentés sous la forme de quatre ensembles définis de manière unique, chaque ensemble
correspondant respectivement à quatre segments de ligne droi-
te définissant la frontière du groupe de données 30 du code à barres. On utilise ensuite des techniques numériques standard
d'algèbre linéaire pour calculer les équations des approxima-
tions suivant la méthode des plus petits carrés de ces seg-
ments linéaires.
Ensuite, on utilise un algorithme numérique stan-
dard pour résoudre les équations linéaires de manière à cal-
culer les coordonnées effectives des coins A,B,C et D du code
à barres de la cible. On utilise ensuite des techniques stan-
dard d'algèbre linéaire pour déterminer la transformation af-
fine qui cartographie le parallélogramme ou rectangle frontiè-
re suivant un symbole carré d'une taille prédéterminée. En utilisant cette cartographie, les niveaux de gris des éléments
du groupe 32 de localisation de la cible sont lus dans la mé-
moire. L'image complète est ensuite électroniquement tournée,
mise à la taille et configurée selon les besoins.
En référence maintenant aux Figs. 9,10 et 11, on
a représenté, en variante, un agencement de moyens de localisa-
tion de la cible et d'une carte de crédit. Dans cet agencement, le groupe 32 de localisation de la cible et le code à barres 34 d'identification du véhicule sont imprimés sur la face de l'enveloppe support 26 et ils sont toujours visibles sur le véhicule 14 à travers le pare-brise. La carte de crédit 12
26425 2
de l'utilisateur, par contre, porte seulement le groupe ou
bande de données 30 du code à barres d'identification de l'uti-
lisateur. Le groupe de données 30 du code à barres de l'utili-
sateur est imprimé de manière renversée sur la moitié inférieu-
re de la carte de crédit 12, de sorte que ce groupe.30 est
visible à travers la fenêtre 28 pour les deux positions possi-
bles de la carte de crédit dans la poche 24.
Bien entendu, l'invention n'est pas limitée aux modes de réalisation, non plus qu'aux modes d'application, qui ont été décrits; on pourrait au contraire concevoir diverses variantes sans sortir pour autant de son cadre. C'est ainsi,
par exemple, que l'invention pouvait être appliquée à un appa-
reil pour détecter la possession d'un objet quelconque de
propriété, mobile ou portable.
26425 i2

Claims (12)

REVENDICATIONS
1. Système de balayage et de lecture (10) pour lire automatiquement des éléments de données (30) en code à barres affichés sur un support (12), caractérisé par le fait qu'il comporte:
des moyens (32) de localisation de cible à confi-
guration unique comprenant un groupe d'éléments de localisation (60,62,64, 66) présentant des caractéristiques prédéterminées et connues et disposés sur ledit support, en association avec lesdits éléments de données (30), ledit groupe d'éléments de localisation de la cible comprenant un ensemble de rectangles espacés disposés en série sur un fond très contrastant, lesdits rectangles, lorsqu'ils sont coupés par une ligne passant par le centre dudit groupe d'éléments de localisation de la cible} définissant une séquence de barres et d'espaces contrastants présentant des largeurs prédéterminées le long de ladite ligne centrale; et
des moyens (18,22) sensibles aux rapports de lar-
geurs respectifs desdits éléments de localisation et desdits espaces pour détecter initialement la présence dudit groupe (32) d'éléments de localisation de la cible, puis pour lire lesdits éléments de données (30) en code à barres adjacents
audit groupe d'éléments de localisation.
2. Système selon la revendicatin 1, caractérisé par le fait qu'il comporte des moyens électroniques (70,76) pour déterminer la séquence de rapports de largeurs des barres et des espaces adjacents dudit groupe détecté d'éléments de
localisation de la cible et pour comparer ladite séquence dé-
terminée avec une séquence prédéterminée de rapports de lar-
geurs des barres et des espaces adjacents d'un groupe de ré-
férence d'éléments de localisation de la cible.
3. Système selon l'une des revendications 1 et 2,
caractérisé par le fait que la largeur et l'espacement desdits 26425i2 éléments32) de localisation de la cible sont sensiblement
supérieurs à la largeur et l'espacement des barres correspon-
dants desdits éléments de données (30) du code à barres.
4. Système selon l'une des*revendications 1 à 3,
caractérisé par le fait que ledit groupe (32) d'éléments de
localisation de la cible comporte un premier (60), un deuxiè-
me (62) et un troisième (64) éléments de localisation, les-
dits premier, deuxième et troisième éléments de localisation étant espacés l'un par rapport à l'autre suivant une ligne
droite, les distances d'espacement entre le premier et le deu-
xième éléments de localisation et entre le deuxième et le troi-
sième éléments de localisation étant inégales, et la hauteur d'un élément de localisation (64) étant inégale à la hauteur
des autres éléments de localisation (60,62).
5. Système selon l'une des revendications 1 à 3,
caractérisé par le fait que ledit groupe (32) d'éléments de localisation de la cible comporte un premier (60), un deuxième
(62), un troisième (64) et un quatrième (66) éléments de loca-
lisation espacés l'un par rapport à Vl'autre suivant une ligne droite, et par le fait que lesdits éléments de localisation, lorsqu'ils sont coupés par ladite ligne droite, définissent
une séquence de barres et d'espaces contrastants dont les lar-
geurs sont des fractions d'une même valeur, par exemple
1, 1/2, 3/4, 1,1,1, 3/4.
6. Système selon la revendication 5, caractérisé par le fait que l'un (64) desdits éléments rectangulaires de localisation présente une hauteur qui est inégale à la hauteur
des autres éléments de localisation.
7. Système selon l'une des revendications 1 à 6,
caractérisé par le fait qu'il comporte des moyens (18,22) pour effectuer un calcul en temps réel de manière à déterminer des
points(A, B, C, D) de localisation des coins d'un parallélo-
gramme ou rectangle de frontière à l'intérieur duquel sont
26425 42
affichés lesdits éléments de données (30) du code à barres, lesdits points calculés étant déterminés en référence auxdits
éléments (32) de localisation de la cible.
8. Système selon la revendication 7, caractérisé par le fait que ledit parallélogramme de frontière comporte des points (A, B, C, D) de coins de frontière et par le fait que ledit groupe (32) d'éléments de localisation de la cible comporte un premier (60), un deuxième (62), un troisième (64) et un quatrième (66) éléments de localisation espacés l'un par rapport à l'autre suivant une ligne droite, le point supérieur gauche (A) et le point supérieur droit (B) du parallélogramme
de frontière étant constitués respectivement par le coin in-
férieur gauche du premier élément (60) de localisation et par le coin inférieur droit du quatrième élément de localisation (66), le point inférieur gauche (C) du parallélogramme de frontière étant un point situé sur une ligne passant par les coins supérieur gauche et inférieur gauche du premier élément
de localisation (60), le point (C) du parallélogramme de fron-
tière étant situé au-dessous du coin inférieur gauche du pre-
mier élément de localisatioon (60) à une distance en rela-
tion a v e c la distance séparant les coins supérieur gauche et inférieur gauche du premier élément de localisation (60), le point inférieur droit (D) du parallélogramme de frontière étant situé sur une ligne passant par les coins supérieur droit
et inférieur droit du quatrième élément rectangulaire de loca-
lisation (66) et étant espacé dudit point de frontière (C) d'une distance qui est en relation avec la distance entre les coins supérieur droit et inférieur droit du quatrième élément
de localisatin (66).
9. Système selon l'une des revendications 1 à 7,
caractérisé par le fait qu'il comporte des moyens électroniques
(18,22) pour déterminer les points d'angle (A,B,C,D) d'un paral-
lélogramme ou d'un rectangle de frontière à l'intérieur duquel
lesdits éléments de données (30) du code à barres sont affi-
chés, lesdits points d'angle de la frontière étant calculés
en référence auxdits éléments (32) de localisation de la ci-
ble, et lesdits moyens de détection étant agencés pour lire lesdits éléments de données (30) du code à barres situés dans ledit parallélogramme de frontière seulement en réponse à la détermination de l'identité entre la séquence de rapports de largeurs de barres et d'espaces adjacents desdits éléments (32) de localisation de la cible appartenant audit groupe détecté et une séquence connue de rapports de largeurs de barres et d'espaces adjacents d'un groupe de référence d'éléments de
localisation de la cible.
10. Appareil (10) pour détecter la possession non-
autorisée d'un objet (14) de propriété mobile ou portable, caractérisé par le fait qu'il comporte: des moyens vidéo (22) de balayage et.de lecture pour lire une information d'un code à barres (30);
des moyens récepteurs (26) agencés pour être assujet-
tis audit objet (14) et pour recevoir et afficher une carte de crédit (12) ; un premier groupe (34) d'éléments de données en code
à barres disposés sur lesdits moyens récepteurs (26), ledit pre-
mier groupe d'éléments de données en code à barres identifiant
de manière unique ledit objet de propriété (14) auquel les-
dits moyens récepteurs doivent être assujettis, ledit premier groupe (34) d'éléments de données en code à barres pouvant être lu par lesdits moyens vidéo (26) de balayage et de lecture; une carte de crédit (12) agencée pour être placée
dans ou sur lesdits moyens récepteurs (26) et comportant un se-
cond groupe d'éléments de données (30) en code à barres affiché sur ladite carte de crédit (12), ce second groupe d'éléments de données (30) étant affiché en association avec ledit premier groupe (34) d'éléments de données en code à barres et portant une informatioon de crédit qui identifie de manière unique une
personne autorisée à posséder ou commander ledit objet de proprié-
26425 Z
té (14) auquel lesdits moyens récepteurs (26) sont assujettis; et des moyens de commande (18) couplés auxdits moyens vidéo (22) de balayage et de lecture et comportant des moyens à mémoire (36) contenant un ensemble de dossiers de données correspondant audit premier groupe (34) d'éléments de données en code à barres et audit second groupe d'éléments de données (30) en code à barres, ces moyens de commande comportant des moyens sensibles seulement à une correspondance prédéterminée
entre lesdites données de crédit et lesdites données de pro-
priété pour engendrer un signal confirmant ou niant l'existen-
ce de ladite correspondance.
11. Appareil selon la revendication 10, caractérisé par
le fait qu'il comporte des moyens (32) de localisation de ci-
ble présentant une configuration unique et comportant un groupe
d'éléments de localisation (60,62,64,66) ayant des caractéris-
tiques prédéterminées et connues et disposés sur ladite carte de crédit (12) en adjacence immédiate audit premier groupe (34) d'éléments de données en code à barres, ledit groupe de localisatioon de la cible comportant un ensemble de rectangles
disposés sur un fond très contrastant, ces rectangles, lors-
qu'ils sont coupés par une ligne passant par le centre dudit groupe de localisation (32), définissant une séquence de barres
et d'espaces contrastants qui présentent des largeurs prédé-
terminées sur ladite ligne; et
lesdits moyens de commande (18) comportant des mo-
yens (70,76) sensibles aux rapports respectifs de largeurs desdits éléments de localisation (60,62,64,66) et des espaces
entre ceux-ci pour détecter la présence dudit groupe de locali-
sation de la cible, puis pour lire le premier groupe (34) d'éléments de données en code à barres associé audit groupe de
localisation de la cible.
12. Appareil selon la revendication 10, caractérisé par le fait qu'il comporte des moyens (32) de localisation de
26425 42
la cible présentant une configuration unique et comportant un groupe d'éléments de localisation (60,62,64,66) ayant des caractéristiques prédéterminées et connues et disposés sur lesdits moyens récepteurs (26) en adjacence immédiate audit second groupe (30) d'éléments de données en code à barres, ledit groupe d'éléments de localisation de la cible comportant
un ensemble de rectangles disposés sur un fond très contras-
tant, ces rectangles, lorsqu'ils sont coupés par une ligne passant par le centre dudit groupe d'éléments de localisation de la cible, définissant une séquence de barres et d'espaces contrastants qui présentent des largeurs prédéterminées sur ladite ligne; et, lesdits moyens de commande (18) comportant des moyens (70,76) sensibles aux rapports de largeurs respectifs desdits éléments de localisation (60,62,64,66) et des espaces entre ceux-ci pour déterminer la présence dudit groupe d'éléments de localisation de la cible, puis pour lire le second groupe (30) d'éléments de données en code à barres associé audit
groupe d'éléments de localisation de la cible.
FR9000984A 1989-01-30 1990-01-29 Systeme video de balayage et de lecture pour codes a barres Withdrawn FR2642542A1 (fr)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
US07/302,012 US4958064A (en) 1989-01-30 1989-01-30 Bar code locator for video scanner/reader system

Publications (1)

Publication Number Publication Date
FR2642542A1 true FR2642542A1 (fr) 1990-08-03

Family

ID=23165877

Family Applications (1)

Application Number Title Priority Date Filing Date
FR9000984A Withdrawn FR2642542A1 (fr) 1989-01-30 1990-01-29 Systeme video de balayage et de lecture pour codes a barres

Country Status (4)

Country Link
US (1) US4958064A (fr)
JP (1) JPH02282881A (fr)
FR (1) FR2642542A1 (fr)
GB (1) GB2227589A (fr)

Families Citing this family (141)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5793032A (en) * 1991-11-04 1998-08-11 Symbol Technologies, Inc. Portable optical scanning and pointing systems
US5051567A (en) * 1989-06-13 1991-09-24 Rjs, Inc. Bar code reader to read different bar code formats
JP2881826B2 (ja) * 1989-07-24 1999-04-12 東ソー株式会社 自動分析装置
US5198649A (en) * 1989-07-31 1993-03-30 Spectra-Physics, Inc. Bar code scanner and method of scanning bar codes labels with or without an Add-On code
AU636184B2 (en) * 1989-12-15 1993-04-22 Kazuo Takahashi Method for determining sequence of arrival and racing time of runners at finish line by use of bar codes
DE3942009C2 (de) * 1989-12-20 1994-03-03 Deutsche Aerospace System zur Kontrolle und Überwachung der Verteilung von Gütern
KR930002383B1 (ko) * 1989-12-29 1993-03-29 주식회사 일진 차량 검색 시스템
US5155343A (en) * 1990-03-28 1992-10-13 Chandler Donald G Omnidirectional bar code reader with method and apparatus for detecting and scanning a bar code symbol
DE69126231T2 (de) * 1990-03-28 1997-09-11 Omniplanar Inc Leser für Strichkodierungen
GB2244581B (en) * 1990-06-02 1994-08-31 Solvit Scient Engineers Limite Specification of an automatic system to read barcode signs from or on a moving vehicle
US5241166A (en) * 1990-07-02 1993-08-31 Chandler Donald G Low resolution target acquisition
US5124537A (en) * 1990-10-29 1992-06-23 Omniplanar, Inc. Omnidirectional bar code reader using virtual scan of video raster scan memory
US5153418A (en) * 1990-10-30 1992-10-06 Omniplanar, Inc. Multiple resolution machine readable symbols
US5223701A (en) * 1990-10-30 1993-06-29 Ommiplanar Inc. System method and apparatus using multiple resolution machine readable symbols
US5506394A (en) * 1990-11-15 1996-04-09 Gap Technologies, Inc. Light beam scanning pen, scan module for the device and method of utilization
US6390370B1 (en) 1990-11-15 2002-05-21 Symbol Technologies, Inc. Light beam scanning pen, scan module for the device and method of utilization
US5371347A (en) * 1991-10-15 1994-12-06 Gap Technologies, Incorporated Electro-optical scanning system with gyrating scan head
US5296690A (en) * 1991-03-28 1994-03-22 Omniplanar, Inc. System for locating and determining the orientation of bar codes in a two-dimensional image
US5262623A (en) * 1991-09-04 1993-11-16 Omniplanar, Inc. Method and apparatus for distinguishing a preferred bar code or the like
NZ240172A (en) * 1991-10-09 1996-05-28 Kiwisoft Programs Ltd Computerised detection and identification of multiple labels in a field of view
US5365048A (en) * 1992-02-20 1994-11-15 Olympus Optical Co., Ltd. Bar code symbol reading apparatus with double-reading preventing function
ATE203844T1 (de) * 1992-03-20 2001-08-15 Commw Scient Ind Res Org Gegenstands-überwachungsystem
US5276315A (en) * 1992-05-14 1994-01-04 United Parcel Service Of America, Inc. Method and apparatus for processing low resolution images of degraded bar code symbols
US5487115A (en) * 1992-05-14 1996-01-23 United Parcel Service Method and apparatus for determining the fine angular orientation of bar code symbols in two-dimensional CCD images
US5748804A (en) * 1992-05-14 1998-05-05 United Parcel Service Of America, Inc. Method and apparatus for processing images with symbols with dense edges
US5438636A (en) * 1992-05-14 1995-08-01 United Parcel Service Of America, Inc. Apparatus for simultaneously convolving multiple digital binary images using a single convolver with a binary mask to determine pixel densities
US5308960A (en) * 1992-05-26 1994-05-03 United Parcel Service Of America, Inc. Combined camera system
DK0571892T3 (da) * 1992-05-26 2000-01-10 United Parcel Service Inc Flerkodekamerasystem
DE69325854T2 (de) * 1992-05-26 1999-12-23 United Parcel Service Inc Verfahren und System zur Zielbilderkennung
US5327171A (en) * 1992-05-26 1994-07-05 United Parcel Service Of America, Inc. Camera system optics
US5311000A (en) * 1992-07-31 1994-05-10 Spectra-Physics Scanning Systems, Inc. Bar code scanner and method of scanning
US5343028A (en) * 1992-08-10 1994-08-30 United Parcel Service Of America, Inc. Method and apparatus for detecting and decoding bar code symbols using two-dimensional digital pixel images
US5329105A (en) * 1992-08-10 1994-07-12 United Parcel Service Of America, Inc. Method and apparatus for determining the width of elements of bar code symbols
US5418862A (en) * 1992-08-10 1995-05-23 United Parcel Service Of America Method and apparatus for detecting artifact corners in two-dimensional images
JP3191999B2 (ja) * 1992-09-10 2001-07-23 オリンパス光学工業株式会社 バーコードシンボル読取装置
GB2273596B (en) * 1992-12-16 1997-01-22 Thor Engineering Limited Vehicle authorisation system
US5384451A (en) * 1993-01-29 1995-01-24 United Parcel Service Of America, Inc. Method and apparatus for decoding bar code symbols using composite signals
US5412197A (en) * 1993-01-29 1995-05-02 United Parcel Service Of America, Inc. Method and apparatus for decoding bar code symbols using gradient signals
US5352878A (en) * 1993-01-29 1994-10-04 United Parcel Service Of America, Inc. Method and apparatus for decoding bar code symbols using independent bar and space analysis
US5404003A (en) * 1993-02-01 1995-04-04 United Parcel Service Of America, Inc. Method and apparatus for decoding bar code symbols using byte-based searching
EP0682795A1 (fr) * 1993-02-02 1995-11-22 Label Vision Systems, Inc. Procede et appareil de decodage de donnees de code a barres a partir d'un signal video et leur application
DE4310580A1 (de) * 1993-03-31 1994-10-06 Siemens Ag Automatisches Gebührenerfassungssystem
US5613216A (en) * 1993-10-27 1997-03-18 Galler; Bernard A. Self-contained vehicle proximity triggered resettable timer and mass transit rider information system
US5414624A (en) * 1993-11-08 1995-05-09 Avid Systems Corporation Automated vehicle parking system
US5468945A (en) * 1994-02-25 1995-11-21 Intermec Corporation Method and apparatus for locating and decoding a postnet forwarding bar code in a field of postnet bar codes
JP3407818B2 (ja) * 1994-03-04 2003-05-19 富士通株式会社 バーコード読取装置及びバーコード読取システム
JPH07249075A (ja) * 1994-03-10 1995-09-26 Fujitsu Ltd 顧客管理用端末装置,顧客管理方法および顧客管理用媒体
US5726435A (en) * 1994-03-14 1998-03-10 Nippondenso Co., Ltd. Optically readable two-dimensional code and method and apparatus using the same
US5434403A (en) * 1994-03-23 1995-07-18 At&T Bell Laboratories Method and apparatus for reading bar codes with a television camera
US5412196A (en) * 1994-04-01 1995-05-02 United Parcel Service Of America, Inc. Method and apparatus for decoding bar code images using multi-order feature vectors
US5438188A (en) * 1994-04-01 1995-08-01 United Parcel Service Of America, Inc. Method and apparatus for decoding bar code images using information from previous scan lines
JP3552171B2 (ja) * 1994-06-21 2004-08-11 富士通株式会社 料金自動精算システム並びに同システム用無線通信機能付き記憶媒体,同システム用周波数変換装置,同システム用書込装置,同システム用決済装置,同システム用入金装置および同システム用照会装置
US5587575A (en) * 1994-08-11 1996-12-24 Spescom (Proprietary) Limited Identification of vehicles including code comparison
FI102018B (fi) * 1995-02-28 1998-09-30 Payway Oy Pysäköintimaksujärjestelmä, tarkastuslaite ja identifiointiväline
WO1996042064A1 (fr) * 1995-06-08 1996-12-27 Psc Inc. Lecteur adaptatif de codes optiques utilisant des informations relatives au mouvement et a l'emplacement d'objets
US6446865B1 (en) * 1995-09-21 2002-09-10 Temtec, Inc. Reflective badge security identification system
US5737710A (en) 1995-11-07 1998-04-07 Amtech Corporation Automated vehicle parking system for a plurality of remote parking facilities
US5638302A (en) * 1995-12-01 1997-06-10 Gerber; Eliot S. System and method for preventing auto thefts from parking areas
AUPN903296A0 (en) * 1996-03-29 1996-04-26 Commonwealth Scientific And Industrial Research Organisation An aircraft detection system
US5974158A (en) * 1996-03-29 1999-10-26 The Commonwealth Of Australia Commonwealth Scientific And Industrial Research Organization Aircraft detection system
US6945457B1 (en) * 1996-05-10 2005-09-20 Transaction Holdings Ltd. L.L.C. Automated transaction machine
MY119088A (en) 1996-11-26 2005-03-31 Sony Corp Information input method, information input sheet, and information input apparatus
MY118364A (en) * 1996-11-26 2004-10-30 Sony Corp Information input method and apparatus using a target pattern and an access indication pattern
US6366696B1 (en) 1996-12-20 2002-04-02 Ncr Corporation Visual bar code recognition method
SE510864C2 (sv) * 1997-01-10 1999-06-28 Modul System Sweden Ab Parkeringskontrollenhet
US6758391B1 (en) 1997-11-18 2004-07-06 The Code Corporation Internet access of goods and services using graphical codes
US6609656B1 (en) * 1998-03-27 2003-08-26 Micron Technology, Inc. Method and system for identifying lost or stolen devices
GB9811586D0 (en) * 1998-05-30 1998-07-29 Stevenson Neil J A vehicle entry/exit control system
US6964374B1 (en) * 1998-10-02 2005-11-15 Lucent Technologies Inc. Retrieval and manipulation of electronically stored information via pointers embedded in the associated printed material
EP1181671A1 (fr) * 1999-05-14 2002-02-27 Siemens Aktiengesellschaft Authentification dans des dispositifs de surveillance
US6688525B1 (en) * 1999-09-22 2004-02-10 Eastman Kodak Company Apparatus and method for reading a coded pattern
KR20000030630A (ko) * 2000-03-09 2000-06-05 이종호 바코드 인식을 통한 자동 검문, 검색 시스템
ATE431954T1 (de) 2000-03-27 2009-06-15 Pdm Co Ltd Fahrzeugbezogenes dienstleistungssystem und verfahren
IL169559A (en) * 2000-03-27 2011-05-31 Pdm Co Ltd System and method for insurance charges for vehicles
US6817539B2 (en) * 2000-06-30 2004-11-16 Silverbrook Research Pty Ltd Generating landscape and portrait oriented tags
US6832728B2 (en) * 2001-03-26 2004-12-21 Pips Technology, Inc. Remote indicia reading system
US7072974B2 (en) 2001-03-27 2006-07-04 The Code Corporation Extensible application interface using machine-readable graphical codes
US20020143814A1 (en) * 2001-03-27 2002-10-03 The Code Corporation Systems and methods for automatic insertion of machine-readable graphical codes into printable documents
US7185824B2 (en) * 2001-04-13 2007-03-06 The Code Corporation System and method for associating pre-printed machine-readable graphical codes with electronically-accessible data
AU2002256206A1 (en) * 2001-04-13 2002-10-28 The Code Coproration System and method for encoding and decoding data and references to data in machine-readable graphical codes
US6978038B2 (en) * 2001-04-13 2005-12-20 The Code Corporation Systems and methods for pixel gain compensation in machine-readable graphical codes
US6937747B2 (en) 2001-09-24 2005-08-30 Hewlett Packard Development Company, L.P. System and method for capturing non-audible information for processing
US6898314B2 (en) * 2001-12-26 2005-05-24 Lockheed Martin Corporation Grayscale image connected components segmentation
US20030163800A1 (en) * 2002-02-27 2003-08-28 Weiyang Zhou System and method for generating graphical codes containing a plurality of data fields
US20030163396A1 (en) * 2002-02-27 2003-08-28 John Blankevoort Systems and methods for tracking products as they move through a supply chain
AU2003230169A1 (en) * 2002-05-07 2003-11-11 Amit Stekel Automatic certification, identification and tracking of remote objects in relative motion
US7107009B2 (en) * 2002-06-26 2006-09-12 Nokia Corporation Method, system and computer program product for personalizing the functionality of a personal communication device
US20040010446A1 (en) * 2002-07-08 2004-01-15 Marko Vanska Mobile customer relationship management
US7097099B2 (en) * 2002-07-29 2006-08-29 The Code Corporation Data collection device with integrated data translation
US7070091B2 (en) * 2002-07-29 2006-07-04 The Code Corporation Systems and methods for interfacing object identifier readers to multiple types of applications
US7621453B2 (en) * 2002-07-29 2009-11-24 The Code Corporation System and method for controlling the distribution of data translation components to portable data collection devices
US7392933B2 (en) * 2002-07-29 2008-07-01 The Code Corporation Systems and methods for interfacing multiple types of object identifiers and object identifier readers to multiple types of applications
WO2004019442A2 (fr) * 2002-08-20 2004-03-04 Optinetix (Israel) Ltd. Procede et appareil destines a transferer des donnees dans une partie visible de signal video
US6938110B2 (en) * 2002-09-23 2005-08-30 Asix Electronics Corp. Virtual processor through USB
US7274909B2 (en) * 2002-10-31 2007-09-25 Nokia Corporation Method and system for selecting data items for service requests
US7072672B1 (en) * 2002-11-01 2006-07-04 Nokia Corporation Disposable mini-applications
US20040093274A1 (en) * 2002-11-08 2004-05-13 Marko Vanska Method and apparatus for making daily shopping easier
US20040189801A1 (en) * 2003-03-28 2004-09-30 Chao-Hung Chang Active video surveillance system and active video surveillance method therefore
US7478754B2 (en) * 2003-08-25 2009-01-20 Symbol Technologies, Inc. Axial chromatic aberration auto-focusing system and method
US7108178B1 (en) * 2003-10-06 2006-09-19 Young Ill Choi Method of stopping a stolen car without a high-speed chase, utilizing a bar code
KR100566166B1 (ko) * 2003-10-08 2006-03-30 주식회사 팬택앤큐리텔 이동 통신 단말기를 이용한 잠금 장치
US7407107B2 (en) * 2003-12-08 2008-08-05 Nokia Corporation Apparatus, system, method and computer program product for creating shortcuts to functions in a personal communication device
US20050173524A1 (en) * 2004-02-09 2005-08-11 Schrader Jeffrey L. Vehicle information system
US20050279828A1 (en) * 2004-06-04 2005-12-22 Bsi2000, Inc. Optical motor-vehicle card
US7304585B2 (en) * 2004-07-02 2007-12-04 Nokia Corporation Initiation of actions with compressed action language representations
US7293711B2 (en) * 2004-08-30 2007-11-13 Symbol Technologies, Inc. Combination barcode imaging/decoding and real-time video capture system
US7204417B2 (en) * 2004-11-03 2007-04-17 The Code Corporation Graphical code reader that is configured for efficient decoder management
US20060099991A1 (en) * 2004-11-10 2006-05-11 Intel Corporation Method and apparatus for detecting and protecting a credential card
US20070069028A1 (en) * 2004-12-10 2007-03-29 Yaron Nemet System to improve reading performance and accuracy of single or two dimensional data codes in a large field of view
US7568628B2 (en) 2005-03-11 2009-08-04 Hand Held Products, Inc. Bar code reading device with global electronic shutter control
US7455232B2 (en) * 2005-03-31 2008-11-25 Symbol Technologies, Inc. Systems and methods for dataform decoding
US7770799B2 (en) 2005-06-03 2010-08-10 Hand Held Products, Inc. Optical reader having reduced specular reflection read failures
RU2280573C1 (ru) * 2005-07-12 2006-07-27 Валерий Николаевич Парницкий Устройство идентификации транспортного средства
US8340904B2 (en) * 2006-01-08 2012-12-25 Bo-In Lin Transmission of wireless messages of current vehicle location and estimated arrival time to requestors
JP4670658B2 (ja) * 2006-01-25 2011-04-13 富士ゼロックス株式会社 画像処理装置、画像処理方法及びプログラム
EP1936571A1 (fr) * 2006-12-15 2008-06-25 SkiData AG Procédé et dispositif destinés à la détection d'une autorisation destinée à l'utilisation d'une zone de circulation
US8549619B2 (en) * 2007-01-22 2013-10-01 Dell Products L.P. Removable hard disk with embedded security card
ATE497679T1 (de) * 2007-02-19 2011-02-15 Axis Ab Verfahren zur korrektur von hardware- fehlausrichtungen bei einer kamera
US7913922B1 (en) * 2007-03-15 2011-03-29 Ncr Corporation Matching bar code colors to painted pixel filters
EP1981263B1 (fr) 2007-04-13 2019-04-03 Axis AB Prise en charge de la rotation panoramique continue dans une caméra à panoramique/inclinaison
US8218822B2 (en) * 2007-05-14 2012-07-10 Pips Technology, Inc. Apparatus and method for recognizing the state of origin of a vehicle license plate
US8366004B2 (en) 2008-02-22 2013-02-05 Qualcomm Incorporated Barcode detection based on morphological operations
US8596541B2 (en) 2008-02-22 2013-12-03 Qualcomm Incorporated Image capture device with integrated barcode scanning
US7920049B2 (en) * 2008-06-03 2011-04-05 The Boeing Company Registered 3-D optical thinfilm for remote identification
US8947204B1 (en) 2008-06-03 2015-02-03 The Boeing Company Optical interrogation and registration system
JP5195322B2 (ja) * 2008-11-10 2013-05-08 沖電気工業株式会社 不正監視方法、及び、不正監視機能付き現金自動取引装置
DE102010005025A1 (de) * 2010-01-20 2011-07-21 Dr. Ing. h.c. F. Porsche Aktiengesellschaft, 70435 Haltevorrichtung für einen Transponder
US9280768B2 (en) * 2010-03-17 2016-03-08 Verifone, Inc. Payment systems and methodologies
US8833661B2 (en) * 2011-09-15 2014-09-16 Dell Products L.P. Multidimensional barcodes for information handling system manufacture, assembly and service
US10402781B2 (en) 2011-09-15 2019-09-03 Dell Products L.P. Multidimensional barcodes for information handling system service information
US8746548B2 (en) 2011-09-15 2014-06-10 Dell Products L.P. Dynamic multidimensional barcodes for information handling system service information
WO2013126675A2 (fr) * 2012-02-24 2013-08-29 Identive Group, Inc. Procédé et système de fourniture des services d'identité, d'authentification et d'accès
DE102012012566B3 (de) 2012-06-23 2013-12-05 Audi Ag Verbundscheibe für einen Kraftwagen und Kraftwagen mit einer solchen Verbundscheibe.
US8827149B1 (en) 2013-03-14 2014-09-09 Dell Products L.P. Automated information handling system component compatibility
US9633498B2 (en) * 2013-03-21 2017-04-25 Unisys Corporation Systems and methods for an automated entry system
US9224058B2 (en) * 2013-04-05 2015-12-29 Xerox Corporation Data augmentation method and system for improved automatic license plate recognition
DE102015006148A1 (de) * 2015-05-12 2016-11-17 Mekra Lang Gmbh & Co. Kg Konfigurierbare Anzeigeeinrichtung für Sichtbereiche eines Fahrzeugs
CN106355658A (zh) * 2016-08-23 2017-01-25 安徽工程大学机电学院 一种用于高速公路的智能收费系统
CN109920004B (zh) * 2017-12-12 2023-12-19 广东虚拟现实科技有限公司 图像处理方法、装置、标定物组合、终端设备及标定系统
CN110057397A (zh) * 2019-03-12 2019-07-26 西安艾润物联网技术服务有限责任公司 管理方法、设备及系统
US10650210B1 (en) 2019-03-18 2020-05-12 Haier Us Appliance Solutions, Inc. Method for authenticating a filter cartridge for a refrigerator appliance

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4044227A (en) * 1975-08-07 1977-08-23 The Upjohn Company Bar code reader
US4448503A (en) * 1981-04-21 1984-05-15 Information Retrieval Systems Corp. Automatic high speed microfilm searching system
US4603390A (en) * 1984-03-05 1986-07-29 Soft Plus Corp. Computerized parking system
US4652733A (en) * 1984-10-15 1987-03-24 At&T Company Technique for cataloging pictorial and/or written database information on video tape or disk
US4782221A (en) * 1985-04-01 1988-11-01 Cauzin Systems, Incorporated Printed data strip including bit-encoded information and scanner control
US4728784A (en) * 1987-01-30 1988-03-01 Federal Express Corporation Apparatus and method of encoding and decoding barcodes
US4889490A (en) * 1988-02-11 1989-12-26 Jenkinson Jeffrey A Dental mask

Also Published As

Publication number Publication date
US4958064A (en) 1990-09-18
GB2227589A (en) 1990-08-01
GB9001817D0 (en) 1990-03-28
JPH02282881A (ja) 1990-11-20

Similar Documents

Publication Publication Date Title
FR2642542A1 (fr) Systeme video de balayage et de lecture pour codes a barres
EP3469550B1 (fr) Méthode et systèmes pour détecter le couvercle d'un écran
US10127647B2 (en) Methods and systems for detecting cracks in electronic devices
KR101992042B1 (ko) 피검사체 촬상 장치, 피검사체 촬상 방법, 표면 검사 장치 및 표면 검사 방법
US5915032A (en) Method and apparatus for machine reading of retroreflective vehicle identification articles
US7248754B2 (en) Apparatus and method for determining whether machine readable information on an item matches the item
CN102982607B (zh) 用于鉴别仿造票据的移动通信设备和方法
US20100007930A1 (en) Authentication Scanner
JP4714749B2 (ja) 偏光データを用いるリアルタイム画像検出
WO2011076127A1 (fr) Dispositif permettant d'enregistrer et de gérer des livres d'après une vision artificielle et une technique d'identification par radiofréquences
JP2023528391A (ja) 3dカメラを有するバーコードリーダ
US20100039818A1 (en) Numismatic storage container to prevent counterfeiting of coinage
JP2012138077A (ja) 車両識別装置
WO2015032187A1 (fr) Méthode et dispositif de traitement de billet de banque
WO2017062162A1 (fr) Reconnaissance d'iris
WO2010012905A2 (fr) Dispositif interactif et procédé d'utilisation
AU2021202205B2 (en) Using barcodes to determine item dimensions
JPH0534281A (ja) メロンの外観評価装置
US20090295912A1 (en) Coin edge imaging device
EP3742330A1 (fr) Détection automatique de dommages pour voitures
KR20070044607A (ko) 휴대용 단말기로 영상 입력되는 신호를 이용한 차량 번호판 인식 시스템 및 그 인식 방법
CN112816472B (zh) 一种硬币鉴定仪和硬币鉴定方法
FR2785698A1 (fr) Procede et apppareil pour le reperage et l'identification automatique de produits en rayon
FR2582831A1 (fr) Procede d'identification d'une empreinte digitale, dispositif pour la mise en oeuvre de ce procede et utilisation de ce procede
JP2003196699A (ja) 硬貨識別方法および硬貨識別装置

Legal Events

Date Code Title Description
ST Notification of lapse