ITMO20110031A1 - Metodo di acquisizione di immagini - Google Patents

Metodo di acquisizione di immagini Download PDF

Info

Publication number
ITMO20110031A1
ITMO20110031A1 IT000031A ITMO20110031A ITMO20110031A1 IT MO20110031 A1 ITMO20110031 A1 IT MO20110031A1 IT 000031 A IT000031 A IT 000031A IT MO20110031 A ITMO20110031 A IT MO20110031A IT MO20110031 A1 ITMO20110031 A1 IT MO20110031A1
Authority
IT
Italy
Prior art keywords
linear
sensor
acquisition
image
signal
Prior art date
Application number
IT000031A
Other languages
English (en)
Inventor
Claudio Saporetti
Original Assignee
Datalogic Automation Srl
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Datalogic Automation Srl filed Critical Datalogic Automation Srl
Priority to ITMO2011A000031A priority Critical patent/IT1403978B1/it
Priority to CN201280008935.3A priority patent/CN103502121B/zh
Priority to PCT/IB2012/050599 priority patent/WO2012110925A1/en
Priority to US13/983,619 priority patent/US9247218B2/en
Priority to EP12708936.5A priority patent/EP2675737B1/en
Publication of ITMO20110031A1 publication Critical patent/ITMO20110031A1/it
Application granted granted Critical
Publication of IT1403978B1 publication Critical patent/IT1403978B1/it

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/183Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a single remote source
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06KGRAPHICAL DATA READING; PRESENTATION OF DATA; RECORD CARRIERS; HANDLING RECORD CARRIERS
    • G06K7/00Methods or arrangements for sensing record carriers, e.g. for reading patterns
    • G06K7/10Methods or arrangements for sensing record carriers, e.g. for reading patterns by electromagnetic radiation, e.g. optical sensing; by corpuscular radiation
    • G06K7/10544Methods or arrangements for sensing record carriers, e.g. for reading patterns by electromagnetic radiation, e.g. optical sensing; by corpuscular radiation by scanning of the records by radiation in the optical part of the electromagnetic spectrum
    • G06K7/10712Fixed beam scanning
    • G06K7/10722Photodetector array or CCD scanning
    • G06K7/10752Exposure time control
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06KGRAPHICAL DATA READING; PRESENTATION OF DATA; RECORD CARRIERS; HANDLING RECORD CARRIERS
    • G06K7/00Methods or arrangements for sensing record carriers, e.g. for reading patterns
    • G06K7/10Methods or arrangements for sensing record carriers, e.g. for reading patterns by electromagnetic radiation, e.g. optical sensing; by corpuscular radiation
    • G06K7/10544Methods or arrangements for sensing record carriers, e.g. for reading patterns by electromagnetic radiation, e.g. optical sensing; by corpuscular radiation by scanning of the records by radiation in the optical part of the electromagnetic spectrum
    • G06K7/10821Methods or arrangements for sensing record carriers, e.g. for reading patterns by electromagnetic radiation, e.g. optical sensing; by corpuscular radiation by scanning of the records by radiation in the optical part of the electromagnetic spectrum further details of bar or optical code scanning devices
    • G06K7/10861Methods or arrangements for sensing record carriers, e.g. for reading patterns by electromagnetic radiation, e.g. optical sensing; by corpuscular radiation by scanning of the records by radiation in the optical part of the electromagnetic spectrum further details of bar or optical code scanning devices sensing of data fields affixed to objects or articles, e.g. coded labels

Description

Descrizione
Metodo di acquisizione di immagini L’invenzione concerne un metodo di acquisizione di immagini attuato da un sistema di acquisizione di immagini provvisto di apparecchiature ottiche di acquisizione di immagini del tipo a camera digitale, in particolare apparecchiature ottiche fisse.
Nella presente descrizione e nelle successive rivendicazioni con l’espressione “apparecchiatura ottica di acquisizione di immagini†si intende un’apparecchiatura in grado di acquisire immagini di un oggetto e in particolare informazioni ottiche associate ad un oggetto posto su un piano di supporto, ad esempio dati identificativi dell’oggetto, quale, ad esempio, un codice ottico associato all’oggetto.
Con l’espressione “informazioni ottiche†si intende qualunque rappresentazione grafica che costituisca un’informazione codificata o non codificata. Un esempio particolare di informazione ottica à ̈ costituito dai codici ottici lineari o bidimensionali, in cui l’informazione à ̈ codificata tramite opportune combinazioni di elementi di forma prefissata, ad esempio quadrati, rettangoli o esagoni, di colore scuro (normalmente nero) separati da elementi chiari (spazi, normalmente bianchi), quali i codici a barre, i codici stacked e i codici bidimensionali in genere, i codici a colori, ecc. Il termine “informazioni ottiche†comprende inoltre, più in generale, anche altre forme grafiche, che includono caratteri stampati o manoscritti (lettere, numeri, ecc.) e forme particolari (cosiddetti “pattern†), quali ad esempio timbri, loghi, firme, impronte digitali ecc. Il termine “informazioni ottiche†comprende anche rappresentazioni grafiche rilevabili, non solo nel campo della luce visibile, ma anche in tutta la gamma di lunghezze d’onda compresa tra l’infrarosso e l’ultravioletto.
E’ noto dallo stato della tecnica utilizzare, nei sistemi di acquisizione di immagini, delle camere digitali lineari comprendenti array monodimensionali (lineari) di fotosensori, in particolare del tipo a CCD o C-MOS, per acquisire le immagini di pacchi, o oggetti in generale, che transitano su un nastro trasportatore, o su altri sistemi di movimentazione e trasporto, e leggere tramite dette camere digitali lineari le informazioni ottiche stampate o apposte su essi. Nel seguito, dette camere digitali lineari saranno più brevemente indicate come camere lineari.
Con l’espressione “apparecchiatura ottica fissa di acquisizione di immagini†si intende un’apparecchiatura ottica di acquisizione di immagini che à ̈ utilizzata senza azionamento umano (cosiddetto “unattended scanner†). Il rilevamento degli oggetti tipicamente comprende la lettura di un codice ottico e/o di caratteri.
I sistemi di acquisizione di immagini noti dallo stato della tecnica comprendono tipicamente almeno una camera lineare e un sistema di illuminazione a lampade o a stato solido. Nella maggior parte dei casi, poi, sono presenti uno o più specchi di rinvio. Questi componenti possono essere alloggiati in un contenitore comune o in contenitori distinti.
La camera lineare ha la funzione di raccogliere l’immagine dalla quale à ̈ necessario estrarre le informazioni per l’identificazione di un oggetto. Questa immagine può essere l’immagine dell’oggetto nel suo complesso o un codice ottico -come sopra definito- in essa contenuto. L’acquisizione dell’immagine avviene tramite un sistema ottico appropriato ed una opto-elettronica ed elettronica dedicata, in cui esiste un sensore ottico costituito da un CCD o C-MOS di tipo lineare comprendente un array di elementi fotosensibili (detti anche pixels).
L’immagine à ̈ acquisita tramite la memorizzazione di successive scansioni, ognuna delle quali rappresenta una sottilissima “linea†dell’immagine complessiva. Il movimento del piano di supporto, o dell’oggetto, in corrispondenza della postazione fissa di lettura, consente l’acquisizione di linee successive di immagine e, quindi, l’acquisizione dell’immagine completa.
Il sistema di illuminazione consente di illuminare con gli opportuni livelli di luce ed angoli di illuminazione la zona di acquisizione.
Lo specchio di rinvio, o gli specchi di rinvio, consente di ottimizzare l’installazione dell’apparecchiatura di acquisizione di immagini dal punto di vista dell’occupazione di spazio rispetto al dispositivo di trasporto degli oggetti ed indirizzare quindi il campo di vista della camera lineare (più sotto definito), ed eventualmente anche il fascio di luce emesso dal sistema di illuminazione, nell’area desiderata.
Come già detto, la camera lineare acquisisce l’immagine dell’oggetto riga per riga e la trasmette ad un decoder, che può essere separato dalla camera lineare, o integrato in essa e che ricostruisce l’immagine acquisita dalla camera lineare mettendo assieme tutte le righe, e poi la elabora per estrarre (decodificare) le informazioni dei codici ottici e/o altre informazioni ottiche, o per inviarla o renderla disponibile a un ulteriore apparato di elaborazione. L’algoritmo di decodifica opera un’analisi bidimensionale delle immagini acquisite per cui può essere correttamente letto un codice, o una sequenza di caratteri, che abbia una qualsiasi orientazione. Per questo motivo, i sistemi di camere lineari aventi sensori lineari sono considerati sistemi di acquisizione e lettura omnidirezionale.
L’acquisizione delle immagini à ̈ controllata da un microprocessore, che, tipicamente, à ̈ contenuto nella camera lineare, ma può anche essere esterno e collegato ad essa. Il microprocessore riceve informazioni da sensori esterni, quali, ad esempio, sensori di altezza degli oggetti, sensori di presenza degli oggetti, sensori di distanza, sensori di velocità, e sfrutta queste informazioni per regolare i parametri di funzionamento della camera lineare, quali ad esempio, sensibilità, posizione di un sistema autofocus, frequenza di scansione, ecc.
Per potere acquisire immagini e leggere informazioni ottiche in un ampio intervallo di distanze camera lineare-oggetto, come à ̈ tipico per applicazioni industriali (ad esempio di identificazione e di smistamento pacchi), à ̈ usuale dotare la camera lineare di un sistema autofocus in cui il sistema ottico di ricezione (o una sua parte), o il sensore, si muove per modificare i parametri di focalizzazione della camera lineare e consentire la lettura di informazioni ottiche su oggetti di diverse forme e dimensioni. Solitamente il sistema autofocus della camera lineare “insegue†la forma degli oggetti sulla base delle informazioni sull’altezza fornite dai sensori di altezza o di distanza, quali, ad esempio, barriere di fotocellule.
L’espressione “profondità di campo†à ̈ qui usata per indicare l’intervallo di distanze camera lineare-oggetto, in un intorno della distanza di perfetta messa a fuoco di volta in volta impostata dal sistema di autofocus, nel quale l’oggetto à ̈ sufficientemente a fuoco per consentire la lettura delle informazioni ottiche.
Come sopra accennato, la camera lineare ha bisogno di alcune informazioni essenziali per una corretta impostazione dei suoi parametri di funzionamento, al fine di acquisire le informazioni ottiche associate agli oggetti in movimento. In particolare, la camera lineare deve conoscere la velocità degli oggetti. Solitamente, se, ad esempio, il dispositivo di trasporto à ̈ un nastro trasportatore o un trasportatore a piattelli, ad esso à ̈ associato un sensore di velocità, che può essere, ad esempio, un encoder ottico che genera un’onda quadra la cui frequenza à ̈ proporzionale alla velocità del nastro. L’encoder di fatto à ̈ un sensore dell’avanzamento del nastro, da cui per derivazione si ottiene la velocità di movimento del nastro e quindi degli oggetti.
La velocità del nastro trasportatore à ̈ anche impiegata per individuare la posizione degli oggetti sul nastro trasportatore.
Determinare la posizione di ciascun oggetto sul nastro trasportatore à ̈ necessario per evitare di assegnare un codice di un oggetto ad un altro oggetto, ciò al fine di consentire una corretta tracciabilità degli oggetti.
Inoltre, determinare la posizione di ciascun oggetto sul nastro trasportatore à ̈ necessario per mettere a fuoco ciascuna camera lineare nel punto giusto, in particolare quando si deve leggere un codice dislocato su una faccia frontale degli oggetti.
Per un corretto ed efficiente funzionamento del sistema di autofocus, la camera lineare deve conoscere, inoltre, l’altezza degli oggetti o, se à ̈ una camera lineare preposta alla lettura di codici su una faccia laterale degli oggetti, deve conoscere la posizione laterale degli oggetti, cioà ̈ la distanza degli oggetti dai bordi del piano di supporto. Sono quindi previsti sensori di altezza e di distanza, quali ad esempio barriere di fotocellule e sensori a laser che misurano il tempo di volo del fascio laser emesso, collocati a monte della o delle camere lineari.
La camera lineare deve soprattutto sapere quando deve iniziare l’acquisizione della sequenza di righe, o linee, che compongono l’immagine (cosiddetto “frame†) e per quanto tempo deve durare l’acquisizione. In sistemi con più camere lineari à ̈ inoltre necessario che ogni oggetto abbia un’univoca identificazione per tutte le camere lineari. Per questo motivo tutte le camere lineari del sistema condividono una stessa sorgente di “frame trigger†per l’avvio dell’acquisizione della sequenza di righe.
Questa sorgente à ̈ tipicamente un sensore di presenza (ad esempio una fotocellula) che rileva la presenza di un oggetto su una linea orizzontale perpendicolare alla direzione del nastro trasportatore e genera il segnale di “frame trigger†. In alternativa, come dispositivo di “frame trigger†può essere previsto il sensore di altezza. Il segnale di “frame trigger†viene generato quando l’altezza misurata supera una certa soglia predefinita.
L’inizio e la fine dell’acquisizione del “frame†sono determinati a partire da un segnale di inizio/fine generato dal dispositivo di “frame trigger†. L’acquisizione però non inizia non appena il dispositivo di “frame trigger†rileva un oggetto, ma inizia con un ritardo predeterminato per ogni camera lineare del sistema, ritardo che dipende dalla distanza tra il dispositivo di “frame trigger†e la linea di vista della camera lineare sul piano del nastro, dall’angolo di vista della camera lineare, dalla velocità degli oggetti, dalla loro altezza misurata e/o dalla loro distanza misurata rispetto ai bordi del piano di supporto e/o dal loro ingombro lungo la direzione del nastro trasportatore.
Tutti i sensori sopra descritti possono essere connessi fisicamente alla/e camera lineare/e oppure ad un dispositivo di controllo che elabora le informazioni e le “distribuisce†alla/e camera lineare/e.
Il dispositivo di controllo gestisce tutti i sensori e può gestire anche i dispositivi di illuminazione.
Le informazioni date dai sensori sono distribuite alle camere lineari e ciascuna, sulla base di queste informazioni e del posizionamento della camera lineare stessa, adatta i propri parametri di acquisizione.
In particolare ogni camera lineare, in base alle informazioni sulla velocità degli oggetti regola la propria frequenza di acquisizione (o di scansione, cioà ̈ il numero di linee acquisite in ogni secondo).
Un metodo di acquisizione di immagini impiegato nei sistemi di acquisizione dello stato della tecnica prevede di calcolare la posizione dell’oggetto sul nastro trasportatore determinando la velocità media del nastro trasportatore in un prestabilito intervallo. Poiché lo spazio S percorso da un oggetto in un periodo T dell’encoder à ̈ costante, si può misurare la velocità media Vm semplicemente dividendo lo spazio percorso in un numero n prestabilito di periodi T dell’encoder per la durata totale di detti periodi cioà ̈ Vm=nS/(T1+T2+…Tn). Un primo calcolo della velocità media viene effettuato nell’intervallo che intercorre tra il “frame trigger†e l’inizio dell’acquisizione delle immagini. Successivamente, dopo l’inizio dell’acquisizione delle immagini, il valore della velocità media viene ricalcolato per ogni periodo di encoder, in modo da adattare i parametri di acquisizione dell’immagine ad eventuali variazioni di detta velocità media. Questo metodo di acquisizione di immagini prevede, inoltre, di regolare la frequenza di scansione di ciascuna camera lineare in base alla velocità media del nastro trasportatore, calcolata come sopra specificato. Tale metodo di acquisizione di immagini à ̈ impiegato, in particolare, nel caso in cui l’encoder a disposizione sul nastro trasportatore abbia una risoluzione piuttosto scarsa.
Un difetto di tale metodo di acquisizione di immagini à ̈ che la velocità di avanzamento dell’oggetto sul nastro trasportatore, vale a dire la velocità del nastro trasportatore, rilevata in base al periodo dell’encoder, come sopra descritto, non à ̈ detto che rispecchi la reale velocità del nastro trasportatore nel momento in cui inizia l’acquisizione delle immagini.
In altre parole, la velocità calcolata per stabilire la frequenza di scansione della camera lineare nell’acquisizione di una linea di immagine, non rappresenta la velocità istantanea del nastro trasportatore nel momento in cui viene regolata la frequenza di scansione, ma una velocità media calcolata in un intervallo di tempo precedente il momento dell’acquisizione di detta linea di immagine.
Di conseguenza, nel regolare la frequenza di scansione, viene assunto che la velocità del nastro rimanga costante anche per un lasso di tempo successivo al periodo in cui viene rilevata, vale a dire quando inizia la scansione della linea di immagine.
Uno scostamento del valore calcolato della velocità del nastro trasportatore, impiegato per stabilire la frequenza di scansione, rispetto al valore reale della velocità al momento dell’acquisizione di una riga di immagine, determina un errato calcolo dei parametri di acquisizione della camera lineare e una acquisizione distorta della riga di immagine, che può portare, se ciò si ripete per un numero elevato di righe dell’immagine da acquisire, ad un’immagine di qualità scadente che non può essere decodificata correttamente.
In particolare, le relazioni tra i parametri della camera lineare e le condizioni della linea del nastro trasportatore sono riportate di seguito: il periodo di acquisizione, e, quindi, la frequenza di acquisizione, dipende dalla velocità degli oggetti e può dipendere anche dalla loro altezza; e la sensibilità e la posizione del fuoco della camera lineare dipendono dalla distanza o altezza degli oggetti (oggetti alti sono solitamente più illuminati).
Ciò comporta, come già detto, che, se i parametri della camera lineare non sono correttamente adattati alla velocità istantanea del nastro trasportatore, vi à ̈ il rischio di acquisire immagini distorte dei codici oppure di non acquisirle affatto.
Inoltre, uno scostamento della velocità del nastro trasportatore rispetto a quella reale determina un errato calcolo della posizione dell’oggetto sul nastro trasportatore, comportando il rischio di assegnare un codice di un oggetto ad un altro oggetto, quando i dati relativi alle immagini sono trasmessi ad un host e, al fine della tracciabilità, si stabilisce quale/i codice/i à ̈/sono applicato/i ad un determinato oggetto.
Tale difetto risulta particolarmente accentuato nel caso di repentine accelerazioni/decelerazioni che si verifichino nel lasso di tempo in cui si assume che la velocità del nastro rimanga quella calcolata nell’ultimo periodo dell’intervallo di tempo di acquisizione della velocità del nastro.
Il suddetto metodo di acquisizione di immagini risulta, perciò, piuttosto approssimativo ed adatto solo a nastri trasportatori che si muovano sempre con velocità sostanzialmente costante, inoltre, in questo metodo non à ̈ prevista la possibilità di arresto temporaneo del nastro trasportatore. In quest’ultimo caso, infatti, nell’intorno del punto di arresto le immagini rilevate sarebbero sicuramente distorte, a causa del fatto che la velocità del nastro tende a variare molto rapidamente, sia in fase di decelerazione prima dell’arresto, sia in fase di ripartenza dopo l’arresto, e non à ̈ quindi possibile calcolare correttamente la frequenza di scansione della camera lineare nelle suddette fasi.
Uno scopo dell’invenzione à ̈ superare i difetti dei metodi di acquisizione di immagini di tipo noto.
Un altro scopo dell’invenzione à ̈ fornire un metodo di acquisizione di immagini che, una volta implementato, consenta di acquisire immagini corrette in qualsiasi condizione operativa di un piano di supporto su cui transita un oggetto avente una “informazione ottica†da acquisire. Un ulteriore scopo dell’invenzione à ̈ fornire un metodo di acquisizione di immagini che, una volta implementato, consenta di settare i parametri di una camera lineare che deve acquisire immagini dell’oggetto in modo il più conforme possibile alle condizioni reali dell’avanzamento del piano di supporto.
Secondo l’invenzione à ̈ previsto un metodo di acquisizione di immagini come definito nella rivendicazione 1.
Grazie all’invenzione, à ̈ possibile ottenere un metodo di acquisizione di immagini, che consente di regolare i parametri della camera lineare in funzione delle condizioni effettive del piano di supporto e anche indipendentemente dalla velocità di esso.
Inoltre, il metodo secondo l’invenzione consente di evitare che i fotosensori della camera lineare si saturino, ciò impedendo una corretta acquisizione dei codici da rilevare. L’invenzione potrà essere meglio compresa ed attuata con riferimento agli allegati disegni che ne illustrano una forma esemplificativa e non limitativa di attuazione, in cui Figura 1 à ̈ uno schema di un sistema di acquisizione di immagini che impiega un metodo di acquisizione di immagini secondo l’invenzione;
Figura 2 à ̈ un diagramma che illustra una temporizzazione delle fasi del metodo di acquisizione di immagini secondo l’invenzione.
Con riferimento alla Figura 1 Ã ̈ mostrato schematicamente un sistema di acquisizione di immagini, comprendente almeno una camera digitale 1, posta al di sopra di un piano di trasporto, ad esempio un nastro trasportatore 2, sul quale transitano oggetti 3.
Tali oggetti 3 avanzano lungo una direzione di avanzamento A indicata in Figura 1 con una freccia.
In Figura 1 à ̈ mostrato un solo oggetto 3 nella forma di un corpo scatolare, tuttavia sul nastro trasportatore 2 avanza una pluralità di oggetti 3 in successione lungo la direzione di avanzamento A, i quali possono presentare una qualsivoglia forma.
La camera digitale 1 Ã ̈ preferibilmente del tipo lineare, vale a dire comprendente array monodimensionali di fotosensori, in particolare del tipo CCD o C-MOS.
La camera lineare 1 à ̈ disposta per leggere codici di identificazione, ad esempio un codice a barre, impresso o applicato su una faccia dell’oggetto 3, ad esempio su una faccia superiore 4a e/o su una faccia frontale 4b, e/o su una faccia laterale 4c.
La camera lineare 1 à ̈ associata ad un dispositivo di illuminazione 5, ad esempio un dispositivo di illuminazione a LED o a stato solido o a lampade in genere, che illuminano la zona (generalmente un piano) dell’oggetto 3 nella quale la camera lineare 1 deve effettuare la lettura.
Quando non à ̈ noto su quale faccia 4a, o 4b, o facce laterali 4c, degli oggetti 3 à ̈ posto il codice o quando uno o più codici sono presenti su più facce degli oggetti 3, à ̈ necessario prevedere un sistema multilato, o a stazioni di lettura multiple, con più camere lineari 1, a ciascuna delle quali à ̈ associato un corrispondente dispositivo di illuminazione 5.
Il dispositivo di illuminazione 5 può generare impulsi di luce per illuminare l’oggetto 3.
La camera lineare 1 può leggere i codici posti sulla faccia 4a, o 4b, o facce laterali 4c dell’oggetto 3 sia direttamente, sia tramite uno specchio o un sistema di specchi, che viene utilizzato quando non sia possibile, o conveniente disporre la camera lineare per una lettura diretta.
La camera lineare 1 à ̈ provvista di un sistema autofocus, grazie al quale mette a fuoco sostanzialmente una linea alla volta della zona di lettura sulla faccia 4a, o 4b, dell’oggetto 3. La linea di perfetta messa a fuoco à ̈ detta linea di vista e rappresenta la proiezione del sensore della camera lineare 1 attraverso il sistema ottico di ricezione della camera lineare, alla distanza di perfetta messa a fuoco. L’insieme delle linee di vista (o linee di lettura) alle varie distanze consentite dal sistema di autofocus forma il campo di lettura, detto anche campo di vista, della camera lineare 1.
Il campo di lettura giace su un piano detto piano di vista V. Fra il piano di vista V e un piano P perpendicolare al piano del nastro trasportatore 2 à ̈ definito un angolo α detto angolo di lettura, o angolo di vista.
Per un corretto ed efficiente funzionamento del sistema autofocus, la camera lineare 1 deve conoscere l’altezza degli oggetti 3. Un valore di riferimento dell’altezza degli oggetti può essere impostato nella camera lineare 1 se l’altezza degli oggetti può variare, rispetto a detto valore di riferimento, entro i limiti della profondità di campo della camera lineare 1. E’ tuttavia più frequente che sia previsto, lungo il nastro trasportatore 2, a monte della camera lineare 1, nella direzione di avanzamento A degli oggetti 3, un sensore di altezza 6, ad esempio una barriera di fotocellule, o un sensore laser, che rileva l’altezza dell’oggetto 3 in arrivo. Il sensore di altezza 6 individua quando l’oggetto 3 entra all’interno del proprio campo di lettura e quando esce dal proprio campo di lettura. Il sensore di altezza 6 svolge quindi anche la funzione di sensore di presenza, cioà ̈, oltre a rilevare l’altezza dell’oggetto 3, ne rileva anche la presenza in una posizione predeterminata lungo il nastro trasportatore 2 e l’ingombro nella direzione di avanzamento del nastro trasportatore 2. Tuttavia, in aggiunta al sensore di altezza 6, per aumentare la precisione di rilevazione della presenza di un oggetto 3 à ̈ possibile prevedere un sensore di presenza 7, ad esempio disposto a monte del sensore di altezza 6.
Il sensore di altezza 6 e l’eventuale sensore di presenza 7 possono essere connessi fisicamente alla camera lineare 1 oppure ad un dispositivo di controllo, non mostrato, che elabora le informazioni e le “distribuisce†alla camera lineare 1.
Ancora, al nastro trasportatore 2 à ̈ associato un sensore di avanzamento 8, ad esempio un encoder, per rilevare la posizione degli oggetti 3, in movimento lungo il nastro trasportatore 2. Ad esempio, il sensore di avanzamento 8 può essere atto a generare un impulso elettrico ad ogni predeterminato spostamento del nastro trasportatore 2, e, di conseguenza dell’oggetto 3, tale spostamento rappresentando la risoluzione del sensore di avanzamento 8. Anche il sensore di avanzamento 8 può essere fisicamente connesso alla camera lineare 1, o al dispositivo di controllo.
Quando un oggetto 3 si avvicina al campo di lettura della camera lineare 1 viene generato un segnale di “trigger event†da una sorgente di “trigger event†, che, ad esempio, può essere il sensore di altezza 6, oppure il sensore di presenza 7, che rilevano la presenza di un oggetto 3 in una posizione prestabilita lungo il nastro trasportatore 2. In alternativa, il segnale di “trigger event†può essere generato da un dispositivo di controllo, quale, ad esempio, un PLC (Programmable Logic Controller, controllore logico programmabile) associato al nastro trasportatore 2. Il PLC può anche trasmettere alla camera lineare 1 il segnale di avanzamento generato da un sensore di avanzamento collegato al PLC.
Il segnale di “trigger event†abilita la camera lineare 1 ad utilizzare il conteggio del numero di impulsi emessi dal sensore di avanzamento 8 dopo il segnale di “trigger event†per determinare la posizione dell’oggetto 3 sul nastro trasportatore 2. Quando la camera lineare 1, o il dispositivo di controllo, rilevano che l’oggetto 3 ha percorso una distanza D tra la sorgente di “trigger event†e l’intersezione del piano di vista V della camera lineare 1 con il piano del nastro trasportatore 2, inizia l’acquisizione delle immagini da parte della camera lineare 1, detta distanza D essendo computata in base al numero di impulsi emessi dal sensore di avanzamento 8 dopo il segnale di “trigger event†.
Secondo una prima modalità di acquisizione di immagine secondo la presente invenzione, la frequenza di acquisizione dell’immagine della camera lineare 1 viene regolata in funzione della velocità di avanzamento dell’oggetto 3 sul nastro trasportatore 2, detta velocità essendo calcolata in funzione del periodo T del segnale emesso dal sensore di avanzamento 8, mentre almeno un altro parametro di acquisizione dell’immagine quale la sensibilità ed eventualmente la posizione di fuoco della camera lineare 1 viene regolato in funzione della posizione dell’oggetto 3 sul nastro trasportatore 2, detta posizione essendo calcolata dalla camera lineare 1, o dal dispositivo di controllo, contando gli impulsi del segnale del sensore di avanzamento 8, emessi dopo il segnale di “trigger event†. La sensibilità della camera lineare 1 viene regolata utilizzando un otturatore elettronico. In altre parole, il tempo di apertura dell’otturatore elettronico viene regolato in funzione della posizione dell’oggetto 3 sul nastro trasportatore 2, determinata in base al conteggio degli impulsi emessi dal sensore di avanzamento 8 dopo il segnale di “trigger event†.
Se il nastro trasportatore 2 si arresta, il che viene rilevato dalla camera lineare 1, o dal dispositivo di controllo, perché il conteggio degli impulsi emessi dal sensore di avanzamento 8 si arresta, l’acquisizione dell’immagine viene sospesa, mantenendo chiuso l’otturatore elettronico e spegnendo il dispositivo di illuminazione 5 associato alla telecamera 1, fino a che il conteggio degli impulsi emessi dal sensore di avanzamento 8 non riprende, il che indica che il nastro trasportatore 2 si à ̈ rimesso in movimento.
Questa prima modalità di acquisizione dell’immagine consente di calcolare la posizione dell’oggetto 3 sul nastro trasportatore 2 con maggior precisione rispetto ai metodi noti dallo stato della tecnica e in maniera indipendente dal calcolo della velocità del nastro trasportatore.
Tale prima modalità di acquisizione di immagini à ̈ vantaggiosamente utilizzabile nel caso in cui il sensore di avanzamento 8 abbia una risoluzione media, ad esempio inferiore o uguale a 5 mm (il che significa che l’encoder emette un impulso ogni 5 mm di avanzamento del nastro trasportatore).
Secondo una ulteriore modalità di acquisizione dell’immagine secondo la presente invenzione, utilizzabile nel caso in cui la risoluzione del sensore di avanzamento 8 sia elevata, ad esempio pari a circa 0,1-0,2 mm, la frequenza di acquisizione dell’immagine viene sincronizzata con gli impulsi emessi dal sensore di avanzamento 8, in altre parole gli impulsi emessi dal sensore di avanzamento 8 fungono da segnale di sincronizzazione per l’acquisizione delle linee di immagine da parte della camera lineare 1, in modo che la frequenza di acquisizione della camera lineare 1 sia proporzionale alla frequenza del segnale emesso dal sensore di avanzamento 8. Ad esempio, la frequenza di acquisizione può essere uguale alla frequenza del segnale emesso dal sensore di avanzamento 8, in modo che l’acquisizione di ciascuna linea di immagine sia comandata da un impulso del segnale del sensore di avanzamento 8, oppure la frequenza di acquisizione dell’immagine può essere uguale ad un sottomultiplo della frequenza del segnale del sensore di avanzamento 8, in modo che l’acquisizione di ciascuna linea di immagine avvenga ogni n impulsi di detto segnale. Una frequenza di acquisizione dell’immagine pari a un sottomultiplo della frequenza del segnale del sensore di avanzamento 8 può essere prevista nel caso di sensori di avanzamento aventi una risoluzione molto elevata, ad esempio inferiore a 0,1 mm. Gli altri parametri di acquisizione della camera lineare 1, cioà ̈ la posizione del fuoco della camera lineare 1 e la sensibilità di acquisizione dell’immagine sono stati precedentemente regolati, mentre l’oggetto 3 avanzava della detta distanza D. In particolare, la posizione di fuoco della camera lineare 1, in presenza del sistema autofocus, à ̈ stabilita in base alla forma dell’oggetto 3 misurata dal sensore di altezza 6, in quanto deve adattarsi il più possibile alla forma dell’oggetto 3 e la sensibilità della camera lineare 1 dipende dalla distanza o altezza dell’oggetto 3 (oggetti alti sono solitamente più illuminati).
La frequenza di scansione della camera lineare 1, come già detto, dipende dalla frequenza degli impulsi del sensore di avanzamento 8. Infatti, a partire dall’istante in cui l’oggetto 3 raggiunge la posizione di inizio dell’acquisizione dell’immagine, dopo aver percorso detta distanza D, la camera lineare 1 accende il proprio dispositivo di illuminazione 5 e inizia ad acquisire linee di immagine con una frequenza di acquisizione proporzionale alla frequenza del segnale del sensore di avanzamento 8.
Dal momento che la frequenza di acquisizione delle immagini non à ̈ calcolata in base alla velocità di avanzamento dell’oggetto 1, ma à ̈ sincronizzata con il segnale del sensore di avanzamento 8, variazioni di velocità, anche brusche, non influenzano l’acquisizione dell’immagine, in quanto la camera lineare 1 risulta sempre sincronizzata con la posizione reale dell’oggetto sul nastro trasportatore 2. In questa ulteriore modalità di acquisizione di immagini, à ̈ necessario che il sensore di avanzamento 8 abbia una risoluzione più elevata rispetto a quella necessaria alla camera lineare 1, per la particolare applicazione per la quale essa viene utilizzata.
Nel caso in cui sia presente una pluralità di camere lineari 1, una di queste camere lineari 1 assume il ruolo di dispositivo master, ricevendo il segnale di sincronizzazione dal sensore di avanzamento 8 e distribuendolo alle altre camere lineari 1.
Allo stesso modo, la camera lineare master riceve le informazioni relative al sensore di altezza 6 e al sensore di presenza 7.
Il sistema di acquisizione di immagini comprende, inoltre, un sistema di invio del segnale di sincronizzazione del sensore di avanzamento 8, in particolare una linea fisica 9 di trasmissione dati dedicata solamente alla distribuzione del suddetto segnale. La linea fisica 9 Ã ̈ mostrata schematicamente in Figura 1 con linea tratteggiata.
Grazie alla linea fisica dedicata il segnale di sincronizzazione giunge alla camera lineare 1 senza significativi ritardi né alterazioni.
L’aver reso indipendente la frequenza di acquisizione delle immagini dalla velocità del nastro trasportatore 2 e, quindi, dell’oggetto 3, regolandola solo in base agli impulsi emessi dal sensore di avanzamento 8 rende molto più efficiente il sistema di acquisizione delle immagini, consentendo di ottenere immagini non distorte, in qualsiasi situazione.
L’acquisizione delle immagini guidata dagli impulsi del sensore di avanzamento 8 consente, inoltre, di evitare le distorsioni dell’immagine che possono verificarsi nel caso di arresto temporaneo del nastro trasportatore 2.
Infatti, svincolando la frequenza di acquisizione dalla velocità di avanzamento di un oggetto 3 lungo il nastro trasportatore 2 à ̈ possibile evitare distorsioni dell’immagine acquisita nel caso di arresto del nastro trasportatore 2, a differenza di quanto si verifica regolando la frequenza di acquisizione in base alla velocità di avanzamento dell’oggetto 3 calcolata in base al periodo del segnale del sensore di avanzamento 8.
Infatti, in quest’ultimo caso, quando la velocità del nastro trasportatore 2 si abbassa sotto una certa soglia, vale a dire poco prima di un arresto e subito dopo una ripartenza del nastro trasportatore 2, la misura della velocità del nastro trasportatore 2 à ̈ molto poco precisa, a causa del fatto che il periodo del sensore di avanzamento 8 tende all’infinito al tendere a zero della velocità del nastro trasportatore 2. Inoltre, al riavvio del nastro trasportatore 2, il calcolo della velocità può essere effettuato solo dopo che il sensore di avanzamento 8 ha emesso almeno due impulsi. Vi à ̈ quindi un intervallo di tempo, più o meno breve dipendentemente dalla sensibilità del sensore di avanzamento 8, durante il quale la camera lineare 1, o il dispositivo di controllo, non sono in grado di rilevare che il nastro trasportatore 2 si à ̈ rimesso in movimento, per cui il calcolo della velocità nella fase di riavvio del nastro à ̈ affetto da un errore rilevante, che influenza negativamente la corretta acquisizione dell’immagine, perché fa sì che la frequenza di scansione della camera lineare 1 in questa fase, calcolata in base alla velocità del nastro trasportatore 2, sia sensibilmente diversa da quella ottimale, vale a dire quella adattata alla velocità effettiva del nastro trasportatore 2 nel momento dell’acquisizione, ciò comportando che le immagini dell’oggetto 3 acquisite in prossimità del punto di arresto possano risultare anche fortemente distorte.
Sincronizzando, invece, la frequenza di acquisizione delle immagini con gli impulsi del sensore di avanzamento 8, si evita il suddetto inconveniente in quanto l’acquisizione non dipende da un calcolo della velocità del nastro. Inoltre, in caso di arresto dell’oggetto 3, l’acquisizione dell’immagine riprende non appena il sensore di avanzamento 8 emette il primo impulso dopo il riavvio del nastro trasportatore 2, quindi con un ritardo minimo rispetto all’istante di riavvio del nastro trasportatore 2.
Anche in questa ulteriore modalità di acquisizione può essere vantaggiosamente utilizzato un otturatore elettronico della camera lineare 1, sincronizzando anche l’otturatore elettronico con gli impulsi emessi dal sensore di avanzamento 8, in modo che dopo ogni acquisizione di una linea dell’immagine l’otturatore elettronico si chiuda, impedendo una successiva acquisizione, fino a quando la camera lineare 1 non riceve dal sensore di avanzamento 8 un nuovo impulso che comanda l’acquisizione di una nuova linea di immagine.
In questo modo à ̈ garantito che non venga acquisita più di una volta la stessa linea dell’immagine dell’oggetto 3, nel caso che l’oggetto 3 si fermi.
Ciò consente di evitare che insorgano fenomeni di saturazione dei fotosensori che compongono la camera lineare 1.
In entrambe le modalità di acquisizione dell’immagine secondo la presente invenzione, l’intervallo di acquisizione delle immagini dell’oggetto 3, cioà ̈ la durata dell’intervallo di tempo durante il quale la camera lineare 1 deve acquisire l’immagine dell’oggetto 3, à ̈ determinato dal sensore di altezza 6 che rileva, da un lato, l’altezza dell’oggetto 3, informazione necessaria per acquisire un codice posto sulla faccia frontale 4b e, dall’altro, l’ingombro dell’oggetto 3 nella direzione di avanzamento del nastro trasportatore 2, informazione necessaria per acquisire un codice posto sulla faccia superiore 4a dell’oggetto 3. In caso siano presenti una o più camere lineari dedicate all’acquisizione di immagini dalle facce laterali 4c dell’oggetto 3, la durata dell’intervallo di tempo durante il quale tale camera lineare deve acquisire l’immagine dell’oggetto 3, à ̈ determinata da uno o più sensori di distanza che misurano da un lato la posizione dell’oggetto 3 sul nastro trasportatore 2, tramite ad esempio la misura della distanza dell’oggetto 3 dai bordi del nastro trasportatore 2, e dall’altro l’ingombro dell’oggetto 3 nella direzione di avanzamento del nastro trasportatore 2.
Tornando al caso particolare di Figura 1, in base alle informazioni relative all’altezza e/o all’ingombro dell’oggetto 3 determinate prima dell’inizio dell’acquisizione dal sensore di altezza 6, à ̈ quindi possibile stabilire quando interrompere l’acquisizione delle immagini, determinando la fine acquisizione della camera lineare 1.
Infatti, una volta nota la forma dell’oggetto 3, la camera lineare 1 interrompe l’acquisizione dopo che dall’inizio dell’acquisizione à ̈ intercorso un determinato numero di impulsi del sensore di avanzamento 8, proporzionali ad un avanzamento dell’oggetto 3 lungo il nastro trasportatore 2 sufficiente a consentire alla camera lineare 1 di acquisire un’immagine completa della faccia 4a, o 4b, o 4c.
In generale, dipendentemente dalla disposizione di camere lineari 1 preposte alla acquisizione di immagini da una o più facce dell’oggetto 3, la fine dell’acquisizione delle immagini à ̈ determinata, per ogni camera lineare 1, da un segnale di fine acquisizione che dipende dall’altezza, o dall’ingombro dell’oggetto 3 rilevate dal sensore di altezza 6, oppure dalla posizione dell’oggetto sul nastro trasportatore 2, o dall’ingombro dell’oggetto 3 rilevate da uno o più sensori di distanza.
In entrambe le modalità di acquisizione dell’immagine secondo la presente invenzione, la successione delle fasi di “trigger event†, inizio acquisizione e termine acquisizione à ̈ mostrata in Figura 2.
Le immagini acquisite da ciascuna camera lineare 1, sotto forma di una serie di linee di immagine, vengono inviate ad un rispettivo decoder associato a ciascuna camera lineare 1, che ricostruisce l’immagine acquisita dalla camera lineare 1 mettendo assieme tutte le righe dell’immagine ed elaborandola per estrarre le informazioni dei codici ottici e/o altre informazioni.
I decoder possono comunicare tra loro usando ad esempio un protocollo TCP/IP su Ethernet, oppure un bus di campo. Uno dei decoder funge da master e raccoglie i dati dai vari decoder e li trasmette all’host. In alternativa, i dati elaborati da ciascun decoder possono essere inviati, ad esempio attraverso un hub, ad un sistema di elaborazione dati, ad esempio un personal computer, per la memorizzazione ed eventuali ulteriori elaborazioni.
I dati acquisiti da ciascuna camera lineare 1 e inviati a ciascun decoder vengono inviati all’host quando l’oggetto 3 ha percorso una distanza prestabilita dalla sorgente del segnale di “trigger event†, raggiungendo una cosiddetta posizione di trasmissione dati, indicata, a puro titolo esemplificativo, con la linea T in Figura 1.
Il fatto che la trasmissione dei dati acquisiti dalla camera lineare 1 avvenga solo quando un oggetto 3 raggiunge la posizione di trasmissione dati consente di attribuire i codici rilevati ad un determinato oggetto 3, al fine di consentire una tracciabilità dell’oggetto 3, senza il rischio che i codici rilevati da un oggetto 3 vengano attribuiti ad un altro oggetto 3.
In alternativa, i dati acquisiti da ciascuna camera lineare 1 sono inviati all’host non appena disponibili, associandoli al valore del segnale generato dal sensore di avanzamento 8. La modalità di acquisizione di immagine può essere preimpostata sulla camera lineare 1, o sul dispositivo di controllo, in base alla risoluzione nota del sensore di avanzamento 8 associato al nastro trasportatore 2.
In alternativa, la camera lineare 1, o il dispositivo di controllo possono essere configurati in modo da riconoscere automaticamente quale risoluzione ha il sensore di avanzamento 8 associato al nastro trasportatore 2 e implementare una modalità di acquisizione di immagine differente nel caso in cui si tratti di sensore di avanzamento a bassa risoluzione, nel qual caso viene implementato il metodo di acquisizione di immagini noto dallo stato della tecnica, di sensore di avanzamento a media risoluzione, nel qual caso viene implementata la prima modalità di acquisizione di immagini secondo la presente invenzione, o di sensore di avanzamento ad alta risoluzione, nel qual caso viene implementata l’ulteriore modalità di acquisizione di immagini secondo la presente invenzione.
In alternativa, la risoluzione del sensore di avanzamento, anziché essere rilevata automaticamente dalla camera lineare 1, può essere impostata manualmente da un operatore sulla camera lineare 1.
L’invenzione consente vantaggiosamente una grande versatilità e adattabilità a diverse condizioni operative, date cioà ̈ dalla diversa risoluzione dell’encoder.

Claims (12)

  1. RIVENDICAZIONI 1. Metodo di acquisizione di immagini di un oggetto (3) in transito su una superficie di supporto (2) mobile, comprendente le seguenti fasi: - predisporre almeno una apparecchiatura ottica di acquisizione di immagini comprendente una rispettiva camera lineare (1) associata ad un dispositivo di illuminazione (5); - rilevare un segnale di presenza di detto oggetto (3) in una posizione prestabilita su detta superficie di supporto (2) mobile, e segnali indicativi di almeno una dimensione e/o della posizione di detto oggetto (3) su detta superficie di supporto mobile (2), detti segnali essendo generati da almeno un sensore (6; 7) disposto a monte di detta camera lineare (1) nella direzione di avanzamento (A) di detta superficie di supporto (2) mobile; - rilevare un segnale di “trigger event†, generato sulla base di detto segnale di presenza, detta camera lineare (1) iniziando ad acquisire un’immagine di detto oggetto (3) in base a detto segnale di “trigger event†; - iniziare ad acquisire un’immagine di detto oggetto (3) tramite detta camera lineare (1), quando detto oggetto (3) ha percorso una distanza prestabilita (D) da detta posizione prestabilita, detta distanza (D) dipendendo da detta almeno una dimensione di detto oggetto (3) e/o dalla posizione di detto oggetto (3) su detta superficie di supporto mobile (2), detta distanza (D) essendo calcolata tramite un sensore di avanzamento (8) associato a detta superficie di supporto (2) mobile, detto sensore di avanzamento (8) essendo atto a generare un segnale comprendente un impulso elettrico ad ogni spostamento prestabilito di detta superficie di supporto (2) mobile, detto sensore di avanzamento (8) essendo operativamente connesso a detta telecamera lineare (1), o ad un dispositivo di controllo che comanda detta telecamera lineare (1), caratterizzato dal fatto che comprende inoltre: - impostare una modalità di acquisizione di immagine di detta camera lineare (1) in base ad una risoluzione di detto sensore di avanzamento (8).
  2. 2. Metodo, secondo la rivendicazione 1, in cui detto impostare comprende selezionare detta modalità di acquisizione tra una pluralità di diverse modalità di acquisizione.
  3. 3. Metodo secondo la rivendicazione 1, oppure 2, in cui detta risoluzione à ̈ rilevata automaticamente da detta camera lineare (1), o da detto dispositivo di controllo.
  4. 4. Metodo secondo la rivendicazione 1, oppure 2, in cui detta risoluzione à ̈ impostata da un operatore in detta camera lineare (1), o in detto dispositivo di controllo.
  5. 5. Metodo secondo una delle rivendicazioni da 1 a 4, in cui detto impostare comprende: - regolare una frequenza di acquisizione di immagine di detta camera lineare (1) in base al periodo del segnale generato da detto sensore di avanzamento (8); - regolare almeno un ulteriore parametro di acquisizione di detta camera lineare (1) in funzione di una posizione di detto oggetto (3) su detta superficie di supporto mobile (2), detta posizione essendo calcolata contando il numero di impulsi emessi da detto sensore di avanzamento (8) dopo che à ̈ stato emesso detto segnale di “trigger event†.
  6. 6. Metodo secondo una delle rivendicazioni da 1 a 4, in cui detto regolare comprende: - sincronizzare una frequenza di acquisizione di immagine di detta camera lineare (1) con gli impulsi emessi da detto sensore di avanzamento (8), in modo che venga acquisita una linea di immagine per ogni singolo impulso emesso da detto sensore di avanzamento (8), o per ogni multiplo prestabilito di detto singolo impulso; - regolare almeno un ulteriore parametro di detta camera lineare (1) in funzione di una posizione di detto oggetto (3) su detta superficie di supporto mobile (2), detta posizione essendo calcolata contando il numero di impulsi emessi da detto sensore di avanzamento (8) dopo che à ̈ stato emesso detto segnale di “trigger event†.
  7. 7. Metodo la rivendicazione 5, in cui detto sensore di avanzamento (8) ha una risoluzione dell’ordine di alcuni millimetri.
  8. 8. Metodo secondo la rivendicazione 6, in cui detto sensore di avanzamento (8) ha una risoluzione di circa 0,1-0,2 mm.
  9. 9. Metodo secondo una delle rivendicazioni da 5 a 8, in cui detto ulteriore parametro di acquisizione comprende una sensibilità di acquisizione e/o una posizione di fuoco della camera lineare (1).
  10. 10. Metodo secondo una delle rivendicazioni precedenti, comprendente inoltre dotare detta camera lineare (1) di un otturatore elettronico, detto otturatore elettronico essendo azionato nell’intervallo di tempo che intercorre tra l’acquisizione di una linea di immagine e l’acquisizione successiva, in modo da evitare che detta camera lineare (1) continui ad acquisire in detto intervallo di tempo.
  11. 11. Metodo secondo una delle rivendicazioni precedenti, comprendente inoltre collegare detto sensore di avanzamento (8) con detta camera lineare (1), o con detto dispositivo di controllo, tramite una linea dedicata (9) di trasmissione dati.
  12. 12. Metodo secondo una delle rivendicazioni precedenti, in cui detta almeno una dimensione comprende un ingombro di detto oggetto (3) nella direzione di avanzamento (A) di detto piano di supporto (2) mobile e/o un’altezza di detto oggetto (3).
ITMO2011A000031A 2011-02-15 2011-02-15 Metodo di acquisizione di immagini IT1403978B1 (it)

Priority Applications (5)

Application Number Priority Date Filing Date Title
ITMO2011A000031A IT1403978B1 (it) 2011-02-15 2011-02-15 Metodo di acquisizione di immagini
CN201280008935.3A CN103502121B (zh) 2011-02-15 2012-02-10 一种用于图像采集的方法
PCT/IB2012/050599 WO2012110925A1 (en) 2011-02-15 2012-02-10 A method for image acquisition
US13/983,619 US9247218B2 (en) 2011-02-15 2012-02-10 Method for image acquisition
EP12708936.5A EP2675737B1 (en) 2011-02-15 2012-02-10 A method for image acquisition

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
ITMO2011A000031A IT1403978B1 (it) 2011-02-15 2011-02-15 Metodo di acquisizione di immagini

Publications (2)

Publication Number Publication Date
ITMO20110031A1 true ITMO20110031A1 (it) 2012-08-16
IT1403978B1 IT1403978B1 (it) 2013-11-08

Family

ID=43976231

Family Applications (1)

Application Number Title Priority Date Filing Date
ITMO2011A000031A IT1403978B1 (it) 2011-02-15 2011-02-15 Metodo di acquisizione di immagini

Country Status (5)

Country Link
US (1) US9247218B2 (it)
EP (1) EP2675737B1 (it)
CN (1) CN103502121B (it)
IT (1) IT1403978B1 (it)
WO (1) WO2012110925A1 (it)

Families Citing this family (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2763105B1 (en) * 2013-01-31 2018-08-22 Neopost Technologies Image acquisition system for processing and tracking mail pieces
JP6260132B2 (ja) * 2013-07-31 2018-01-17 シンフォニアテクノロジー株式会社 パーツフィーダ用速度検出装置及びパーツフィーダ
US9854226B2 (en) * 2014-12-22 2017-12-26 Google Inc. Illuminator for camera system having three dimensional time-of-flight capture with movable mirror element
EP3203264A1 (en) * 2016-02-04 2017-08-09 Mettler-Toledo GmbH Method of imaging an object for tracking and documentation in transportation and storage
CN105956657A (zh) * 2016-04-27 2016-09-21 梧州市自动化技术研究开发院 用于对运动物体进行计数的具有易识别功能的系统
CN105956656B (zh) * 2016-04-27 2018-06-15 梧州市自动化技术研究开发院 一种用于对运动物体进行计数的设备
CN106934379B (zh) * 2017-03-17 2021-10-08 京东方科技集团股份有限公司 一种指纹识别装置及指纹识别方法、触控显示装置
ES2784029T3 (es) * 2018-03-01 2020-09-21 Sick Ag Lector de códigos optoelectrónico y método para leer códigos
CN109640044B (zh) * 2018-12-19 2020-07-14 上海百涛电子系统工程有限公司 一种视频监控系统
JP7267841B2 (ja) * 2019-05-30 2023-05-02 キヤノン株式会社 システムの制御方法、及びシステム
DE102019128814B4 (de) * 2019-10-25 2021-05-20 Sick Ag Kamera zur Erfassung eines Objektstroms und Verfahren zur Bestimmung der Höhe von Objekten
US11227173B2 (en) * 2020-02-18 2022-01-18 Datalogic IP Tech, S.r.l. Virtual-frame preprocessing for optical scanning
CN112276908A (zh) * 2020-10-23 2021-01-29 北京配天技术有限公司 工业机器人设备及其工件位置获取方法、系统和装置
CN114751206A (zh) * 2022-04-24 2022-07-15 广东天太机器人有限公司 一种全角度的识别系统
CN115359055B (zh) * 2022-10-19 2023-02-07 煤炭科学技术研究院有限公司 运输机皮带边缘检测方法、装置、电子设备和存储介质
CN116233614B (zh) * 2023-04-24 2023-07-18 钛玛科(北京)工业科技有限公司 一种工业相机采集的处理方法

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20030142211A1 (en) * 2001-05-16 2003-07-31 Peter Stamm Device for picture recording
WO2008078129A1 (en) * 2006-12-27 2008-07-03 Datalogic Automation S.R.L. A system for image acquisition
US20090095600A1 (en) * 2007-10-10 2009-04-16 Sick Ag Apparatus and method for the recording of images of objects moved on a conveyor device

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20030142211A1 (en) * 2001-05-16 2003-07-31 Peter Stamm Device for picture recording
WO2008078129A1 (en) * 2006-12-27 2008-07-03 Datalogic Automation S.R.L. A system for image acquisition
US20090095600A1 (en) * 2007-10-10 2009-04-16 Sick Ag Apparatus and method for the recording of images of objects moved on a conveyor device

Also Published As

Publication number Publication date
US20130307977A1 (en) 2013-11-21
WO2012110925A1 (en) 2012-08-23
US9247218B2 (en) 2016-01-26
CN103502121A (zh) 2014-01-08
IT1403978B1 (it) 2013-11-08
EP2675737B1 (en) 2018-07-18
EP2675737A1 (en) 2013-12-25
CN103502121B (zh) 2016-10-19

Similar Documents

Publication Publication Date Title
ITMO20110031A1 (it) Metodo di acquisizione di immagini
KR102463647B1 (ko) 엘리베이터용 위치-결정 시스템
JP5183197B2 (ja) 分配システムにおける測定装置および方法
US9325888B2 (en) Method and light pattern for measuring the height or the height profile of an object
EP2485010B1 (en) Method for measuring a rail profile by optical triangulation and corresponding measuring system
WO2019207588A3 (en) Properties measurement device
EP2700903A1 (en) Tire surface shape measuring device and tire surface shape measuring method
KR20100037914A (ko) 잉크 드롭 체적 측정장치 및 방법
EP2778623A3 (en) Position detection apparatus, lens apparatus, image pickup system, and machine tool apparatus
ITMI20110307A1 (it) Metodo per l'identificazione ottica di oggetti in movimento
JP6976975B2 (ja) 細長い要素から構成されるグループの移送及び検査ユニット
TW201534953A (zh) 距離測定裝置
US20190246000A1 (en) Apparatus and method for processing three dimensional image
US7489425B2 (en) Method for controlling an operating process of a printing machine
EP3217191B1 (en) Distance measuring apparatus and method for measuring a distance
US20100199475A1 (en) System and method for utilizing a linear sensor
HRP20220072T1 (hr) Sustav za ispis i postupak za ispis trodimenzionalne optičke strukture, koji osigurava kontrolu kvalitete ispisane optičke strukture u stvarnom vremenu
JP2012215546A (ja) 化粧材の塗装色検出方法
JP2016138761A (ja) 光切断法による三次元測定方法および三次元測定器
WO2014073590A1 (ja) 3次元計測装置および3次元計測方法
US11486780B2 (en) Method and apparatus for detecting the angular position of a cap with respect to a bottle
EP3349600B1 (en) Stereoscopic system and method for quality inspection of cigarettes in cigarette packer machines
JP4399715B2 (ja) 検査方法及び検査装置
WO2023026452A1 (ja) 3次元データ取得装置
JPS63108204A (ja) 寸法測定方法