ITRM20090220A1 - Sistema a luce strutturata codificata per determinare forme tridimensionali di oggetti e relativo metodo - Google Patents

Sistema a luce strutturata codificata per determinare forme tridimensionali di oggetti e relativo metodo Download PDF

Info

Publication number
ITRM20090220A1
ITRM20090220A1 IT000220A ITRM20090220A ITRM20090220A1 IT RM20090220 A1 ITRM20090220 A1 IT RM20090220A1 IT 000220 A IT000220 A IT 000220A IT RM20090220 A ITRM20090220 A IT RM20090220A IT RM20090220 A1 ITRM20090220 A1 IT RM20090220A1
Authority
IT
Italy
Prior art keywords
light
phase
images
given
kgc
Prior art date
Application number
IT000220A
Other languages
English (en)
Inventor
Gennaro Strazzullo
Original Assignee
Fox Bit S R L
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fox Bit S R L filed Critical Fox Bit S R L
Priority to IT000220A priority Critical patent/ITRM20090220A1/it
Publication of ITRM20090220A1 publication Critical patent/ITRM20090220A1/it

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • G01B11/25Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object
    • G01B11/2518Projection by scanning of the object
    • G01B11/2527Projection by scanning of the object with phase change by in-plane movement of the patern
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • G01B11/25Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object
    • G01B11/2536Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object using several gratings with variable grating pitch, projected on the object with the same angle of incidence

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Image Processing (AREA)

Description

DESCRIZIONE
del brevetto per invenzione industriale dal titolo:
“SISTEMA A LUCE STRUTTURATA CODIFICATA PER DETERMINARE FORME TRIDIMENSIONALI DI OGGETTI E RELATIVO METODO”
La presente invenzione è relativa ad un sistema a luce strutturata codificata per determinare forme, ovvero profili, tridimensionali di oggetti e ad un corrispondente metodo.
Com’è noto, ad oggi in molte applicazioni industriali, soprattutto nell’ambito della Reverse Engineering, è divenuto di fondamentale importanza poter disporre di sistemi in grado di determinare e riprodurre con elevata accuratezza, ripetibilità e velocità forme tridimensionali di oggetti reali, anche complessi.
Tali sistemi sono comunemente chiamati anche sistemi di digitalizzazione o ricostruzione 3D.
Ad esempio, i sistemi di digitalizzazione 3D possono essere sfruttati per:
• nel settore dell’ingegneria industriale, il controllo di qualità dei prodotti e l’analisi di prodotti della concorrenza mediante la determinazione e la riproduzione delle rispettive forme tridimensionali;
• riprodurre oggetti reali in ambienti di realtà virtuale e/o aumentata; e,
• nel campo dei beni culturali, il restauro e/o la ricostruzione di opere d’arte sulla base di relative riproduzioni digitali.
In generale, i sistemi per determinare forme tridimensionali possono essere divisi tra sistemi a contatto e sistemi cosiddetti “no contact” o “contactless”, ovvero senza contatto. Com’è facilmente intuibile, al fine di determinare, ovvero misurare, il profilo tridimensionale di un oggetto, i primi necessitano di venire a contatto con l’oggetto, mentre i secondi non necessitano di un contatto con l’oggetto.
Un esempio di sistema a contatto è rappresentato dalle macchine a misurazione di coordinate (“Coordinate Measurement Machines” – CMM) che sono costituite da tastatori meccanici accoppiati a sistemi cartesiani di posizionamento.
Nella categoria dei sistemi no contact rientrano, tra gli altri, i sistemi ottici attivi.
Generalmente, i sistemi ottici attivi, al fine di misurare e riprodurre il profilo tridimensionale di un oggetto, illuminano l’oggetto con un’opportuna radiazione luminosa, acquisiscono immagini dell’oggetto illuminato da tale opportuna radiazione luminosa e ricostruiscono la geometria dell’oggetto per mezzo di un processo di triangolazione.
In particolare, il recupero della profondità dell’oggetto è basata su un’opportuna illuminazione dell’oggetto ottenuta mediante una sorgente luminosa posizionata ed orientata diversamente rispetto al dispositivo tramite il quale vengono catturate le immagini dell’oggetto illuminato.
Tra i sistemi ottici attivi rientrano i sistemi a scansione laser ed i sistemi a luce strutturata codificata.
Generalmente, i sistemi a scansione laser comprendono: • un laser configurato per illuminare un oggetto di cui si vuole misurare il profilo tridimensionale con un piano di luce laser che si muove da un lato all’altro dell’oggetto;
• almeno una fotocamera configurata per catturare immagini dell’oggetto illuminato; e
• mezzi elettronici di elaborazione, ad esempio un computer opportunamente programmato, configurati per acquisire dalla fotocamera le immagini dell’oggetto illuminato e per elaborare tali immagini al fine di misurare e ricostruire, mediante un processo di triangolazione, il profilo tridimensionale dell’oggetto.
Invece, i sistemi a luce strutturata codificata generalmente comprendono:
• un proiettore configurato per proiettare pattern di luce su un oggetto di cui si vuole misurare il profilo tridimensionale;
• almeno una fotocamera digitale, o una videocamera digitale, configurata per catturare immagini dell’oggetto illuminato; e
• mezzi elettronici di elaborazione, ad esempio un computer opportunamente programmato, configurati per acquisire dalla fotocamera le immagini dell’oggetto illuminato e per elaborare tali immagini al fine di misurare e ricostruire il profilo tridimensionale dell’oggetto.
In particolare, la proiezione sull’oggetto dei pattern di luce permette di codificare i punti delle immagini dell’oggetto illuminato mediante l’utilizzo di livelli di grigio o colore, oppure mediante opportune sequenze temporali dei pattern di luce. La codifica introdotta mediante i pattern di luce semplifica la ricerca delle corrispondenze tra i punti della coppia proiettorefotocamera, fondamentale per poter ricostruire la posizione tridimensionale dei punti della superficie dell’oggetto.
In dettaglio, come descritto in J. Salvi, J. Pagès, J.
Battle, “Pattern codification strategies in structured light systems”, Pattern Recognition, 37(4), pp. 827-849, 2004, documento qui incorporato per riferimento, nei sistemi a luce strutturata codificata si fa in modo che ad ogni pixel del proiettore sia associato un codice. Quindi, poiché l’oggetto da digitalizzare è investito dai pattern di luce del proiettore, il codice si “trasferisce” all’oggetto stesso e quindi ai pixel delle immagini acquisite.
Nella quasi totalità dei sistemi a luce strutturata codificata ogni codice non viene assegnato ad un singolo pixel del proiettore, bensì a strisce rettilinee di pixel del proiettore che, una volta proiettate sull’oggetto, appaiono deformate se osservate da un diverso punto di vista, risultando curve e talvolta discontinue. Tale deformazione è direttamente legata al profilo superficiale dell’oggetto che, in questo modo, risulta ricostruibile per mezzo di opportune procedure di calcolo.
I sistemi a luce strutturata codificata sono basati principalmente su due tecniche note: la tecnica basata sui codici Gray e la tecnica a spostamento di fase (“Phase Shifting”).
La tecnica basata sui codici Gray utilizza una codifica temporale dei pattern di luce proiettati sull’oggetto sottoposto a digitalizzazione 3D. La parola codice per un dato pixel è costituita dalla sequenza temporale di valori di illuminazione per quel pixel attraverso i pattern di luce proiettati.
Nella tecnica a spostamento di fase, invece, vengono acquisite in successione più immagini dell’oggetto sottoposto a digitalizzazione 3D, ciascuna immagine essendo associata ad un pattern di luce a frange ad intensità luminosa sinusoidale caratterizzato da una fase spostata di una certa quantità rispetto alla fase del pattern di luce precedentemente proiettato. Per effetto della natura sinusoidale delle funzioni d’onda utilizzate in queste tecniche, la demodulazione a più passi dei pattern di luce a frange consente di ottenere una distribuzione di fase che risulta arrotolata su se stessa in un intervallo di ripetizione pari a 2π. Il processo di srotolamento della fase (“phase unwrapping”) dovrebbe consentire di recuperare il valore della fase assoluta, che risulta essere direttamente legata alle variazioni di altezza/profondità dell’oggetto indagato.
La Richiedente ha, però, notato che la tecnica basata sui codici Gray permette di realizzare misure grossolane e poco accurate, ovvero non offre buone prestazioni sotto il profilo metrologico.
Inoltre, la Richiedente ha altresì notato che la tecnica a spostamento di fase è una tecnica di estrazione delle informazioni profilometriche essenzialmente “analogica”, adeguata al caso di acquisizioni molto accurate di superfici non eccessivamente profonde e prive di discontinuità, ancora piuttosto lenta e non eccessivamente robusta per via del ricorso a sofisticati algoritmi di srotolamento della fase.
In particolare, la Richiedente ha notato che in alcune circostanze operative, ad esempio quando l’oggetto da digitalizzare presenta un profilo tridimensionale con discontinuità molto pronunciate, le procedure di srotolamento della fase risultano anch’esse poco accurate con un conseguente degrado dei dati di fase calcolati, degrado che può anche compromettere anche gravemente la fedeltà di ricostruzione del profilo tridimensionale dell’oggetto.
Scopo della presente invenzione, quindi, è quello di fornire un metodo ed un sistema di determinazione di forme tridimensionali di oggetti che siano in grado di alleviare i suddetti svantaggi.
Il suddetto scopo è raggiunto dalla presente invenzione in quanto essa è relativa ad un metodo ed un sistema di determinazione di forme tridimensionali di oggetti a luce strutturata codificata, secondo quanto definito nelle rivendicazioni allegate.
Per una migliore comprensione della presente invenzione, alcune forme preferite di realizzazione, fornite a puro titolo di esempio esplicativo e non limitativo, verranno ora illustrate con riferimento ai disegni annessi (non tutti in scala), in cui:
- la Figura 1 mostra schematicamente una configurazione geometrica di esempio di un sistema ottico attivo di digitalizzazione 3D;
- la Figura 2 mostra schematicamente una configurazione ottica di un componente del sistema ottico attivo di digitalizzazione 3D mostrato nella figura 1;
- la Figura 3 mostra un diagramma di flusso di un metodo implementato da un componente di un sistema ottico attivo di digitalizzazione 3D realizzato secondo la presente invenzione;
- la Figura 4 mostra, a sinistra, un oggetto da digitalizzare e, a destra, una prima immagine dell’oggetto ottenuta mediante una prima tecnica di illuminazione dell’oggetto secondo la presente invenzione;
- la Figura 5 mostra schematicamente un andamento spazio-temporale di esempio di pattern di luce utilizzati per illuminare un oggetto da digitalizzare secondo una seconda tecnica di illuminazione dell’oggetto secondo la presente invenzione;
- la Figura 6 mostra schematicamente un principio di funzionamento di una tecnica basata su codici Gray secondo la presente invenzione;
- la Figura 7 mostra seconde immagini dell’oggetto mostrato nella Figura 4 ottenute mediante la seconda tecnica di illuminazione dell’oggetto secondo la presente invenzione;
- la Figura 8 mostra un ingrandimento di una regione di una delle immagini mostrate nella Figura 7;
- la Figura 9 mostra, a sinistra, una delle immagini mostrate nella Figura 7 e, a destra, una corrispondente immagine ottenuta secondo la presente invenzione;
- la Figura 10 mostra, in alto a sinistra, una delle immagini mostrate nella Figura 7, in alto a destra, una corrispondente immagine ottenuta mediante una terza tecnica di illuminazione dell’oggetto mostrato nella Figura 4 secondo la presente invenzione, ed, in basso, un’immagine ottenuta, secondo la presente invenzione, sulla base dalle due immagini in alto;
- la Figura 11 mostra quattro grafici che rappresentano due esempi di un’operazione di binarizzazione di valori di intensità di pixel di immagini secondo la presente invenzione;
- la Figura 12 mostra un esempio grafico di una maschera di selezione di pixel ottenuta secondo la presente invenzione;
- la Figura 13 mostra schematicamente un esempio di una decodifica Gray implementata secondo la presente invenzione;
- la Figura 14 mostra un esempio grafico di una distribuzione spaziale di codici Gray estratti secondo la presente invenzione;
- la Figura 15 mostra una distribuzione spaziale di una fase relativa di esempio calcolata secondo la presente invenzione;
- la Figura 16 mostra una relazione che intercorre tra un periodo spaziale di una funzione sinusoidale sfruttata dalla presente invenzione per comporre primi pattern di luce ed un’estensione spaziale di codici Gray sfruttati dalla presente invenzione;
- la Figura 17 mostra un esempio di una distribuzione spaziale di una fase relativa calcolata secondo la presente invenzione e di una distribuzione spaziale di valori assunti da un particolare bit di codici Gray sfruttati dalla presente invenzione;
- la Figura 18 mostra un risultato di un’operazione di ri-allineamento secondo la presente invenzione delle due distribuzioni spaziali mostrate nella Figura 17;
- la Figura 19 mostra un esempio di una distribuzione spaziale di una fase assoluta calcolata sulla base delle due distribuzioni spaziali mostrate nella Figura 17;
- la Figura 20 mostra un esempio di una distribuzione spaziale di una fase assoluta calcolata sulla base delle due distribuzioni spaziali ri-allineate mostrate nella Figura 18;
- la Figura 21 mostra un esempio grafico di una distribuzione spaziale di una fase assoluta calcolata secondo la presente invenzione; e
- la Figura 22 mostra un grafico tridimensionale dei valori della distribuzione spaziale della fase assoluta mostrata nella Figura 21.
La seguente descrizione viene fornita per permettere ad un tecnico del settore di realizzare ed usare l’invenzione. Varie modifiche alle forme di realizzazione presentate saranno immediatamente evidenti a persone esperte ed i generici principi qui divulgati potrebbero essere applicati ad altre forme realizzative ed applicazioni senza, però, per questo uscire dall’ambito di tutela della presente invenzione.
Quindi, la presente invenzione non deve essere intesa come limitata alle sole forme realizzative descritte e mostrate, ma le deve essere accordato il più ampio ambito di tutela coerentemente con i principi e le caratteristiche qui presentate e definite nelle annesse rivendicazioni.
La presente invenzione nasce da un’intuizione avuta dalla Richiedente che ha notato che la tecnica basata sui codici Gray, seppur poco accurata, risulta molto robusta ed affidabile, mentre la tecnica a spostamento di fase, seppur poco robusta, permette di realizzare misure accurate e, quindi, offre buone prestazioni sotto il profilo metrologico.
Pertanto, sulla base di tale intuizione, la Richiedente ha condotto uno studio molto approfondito volto ad indagare la possibilità di sviluppare un innovativo sistema di digitalizzazione 3D a luce strutturata codificata in grado di offrire i vantaggi di entrambe le suddette tecniche senza presentare i rispettivi svantaggi, ovvero un sistema di digitalizzazione 3D a luce strutturata codificata che presenti sia la robustezza e l’affidabilità proprie di una tecnica “digitale” come quella basata sui codici Gray, sia l’elevata risoluzione ed accuratezza proprie di una tecnica “analogica” come quella a spostamento di fase.
Da tale studio approfondito nasce l’invenzione descritta di seguito.
Secondo la presente invenzione informazioni ottenute sia mediante una codifica numerica, preferibilmente di tipo Gray, sia mediante uno spostamento di fase vengono opportunamente combinate al fine di calcolare una distribuzione spaziale di una fase assoluta, ovvero non arrotolata nell’intervallo ]−π ,π ], cioè non compresa nell’intervallo ]−π ,π ], evitando l’impiego di algoritmi di srotolamento di fase.
In particolare, secondo la presente invenzione, i codici Gray vengono usati per codificare un multiplo intero del periodo angolare 2π, mentre mediante una tecnica a spostamento di fase viene calcolata una fase arrotolata che rappresenta un contributo residuo della fase assoluta.
Quindi, in termini matematici, la fase assoluta φ viene calcolata secondo la seguente equazione:
<dove k GC è l’intero derivante dalla codifica Gray, mentre>ψ è il contributo residuo di fase dato dalla fasearrotolata.
Per una migliore comprensione della presente invenzione di seguito viene descritto in dettaglio il principio di misura su cui sono basate le tecniche di profilometria, ovvero di digitalizzazione 3D, basate su proiezioni di pattern di luce a frange.
In particolare, la profilometria tramite proiezione di pattern di luce a frange, come già detto precedentemente, è basata su un’opportuna illuminazione dell’oggetto da digitalizzare.
Il concetto di base è molto semplice: un sistema, o pattern, di luce a frange viene proiettato sull’oggetto, se l’osservatore non è in asse con la direzione di proiezione, percepisce una deformazione del pattern originale. Tale deformazione è direttamente legata al profilo superficiale dell’oggetto.
Nei sistemi di digitalizzazione 3D che fanno uso di luce strutturata, tipicamente emessa da una sorgente di luce non coerente, si proiettano pattern di luce a frange sulla superficie dell’oggetto da misurare. Successivamente, tali pattern vengono acquisiti, tramite una fotocamera ad alta definizione, lungo una direzione diversa da quella di proiezione. Le immagini, così catturate, vengono memorizzate e successivamente utilizzate per recuperare l’informazione di profondità. Ovviamente, il recupero delle informazioni 3D avviene a valle del processo di acquisizione e per mezzo di opportune procedure di calcolo.
Sistemi di questo genere sono caratterizzati dalla capacità di acquisire le coordinate spaziali dell’intero campo inquadrato in una singola acquisizione (misura a campo intero).
Al fine di comprendere il principio di misura su cui sono basate le tecniche di profilometria basate su proiezioni di pattern di luce a frange si consideri un sistema di digitalizzazione 3D comprendente:
• un’unità di proiezione che proietta su di un oggetto da digitalizzare pattern di luce a frange sinusoidali; ed
• una fotocamera che cattura, lungo una direzione diversa da quella di proiezione, immagini dell’oggetto su cui sono proiettati i pattern di luce a frange sinusoidali.
In particolare, a tal riguardo, in figura 1 viene mostrata una configurazione geometrica di esempio del sistema di digitalizzazione 3D preso in considerazione, mentre in figura 2 viene mostrata una corrispondente configurazione ottica dell’unità di proiezione di detto sistema di digitalizzazione 3D.
Con riferimento alla figura 2, prendendo in considerazione un piano ξη ortogonale alla direzione di proiezione e situato ad una distanza Lpdalla lente di proiezione dell’unità di proiezione lungo tale direzione di proiezione, la distanza dξsu detto piano ξη tra due massimi di due frange adiacenti risulta essere:
dove p è il periodo spaziale imposto dall’unità di proiezione e mpè il fattore d’ingrandimento dell’unità di proiezione che dipende dall’ottica di proiezione e dalla distanza Lpdell’unità di proiezione dal piano ξη.
Con riferimento alla figura 1, si consideri ora il sistema di frange che viene proiettato dall’unità di proiezione su un piano di riferimento xy posto ad una distanza Lkdalla lente della fotocamera lungo un asse z ortogonale al piano di riferimento xy. Si consideri, inoltre, che il sistema di frange forma un angolo ϑ1(x ) rispetto all’asse z.
A questo punto, assumendo che Lp>> xcosϑ0, dove ϑ0rappresenta l’angolo medio di proiezione, la frequenza spaziale locale lungo l’asse x del pattern di luce proiettato può essere espressa come:
Pertanto, quando un pattern di luce a frange è proiettato sul piano di riferimento xy, l’intensità delle frange è data da:
Quando le frange, rappresentate dall’equazione (4), sono proiettate sulla superficie di un oggetto da digitalizzare che ha una forma arbitraria, dette frange vengono deformate.
Sempre con riferimento alla figura 1, senza perdere di generalità, si ipotizza che il massimo di una particolare frangia sia virtualmente posizionato sul piano di riferimento xy in un punto P2. Sulla superficie dell’oggetto tale massimo è posizionato in un punto P1, mentre tale massimo viene visto dalla fotocamera come posizionato sul piano di riferimento xy in un punto P3.
Pertanto, mediante semplici considerazioni geometriche si ricava che lo spostamento P2P3è dato da:
dove z(x,y) rappresenta la distanza lungo l’asse z della superficie dell’oggetto dal piano di riferimento xy e ϑ2rappresenta l’angolo di vista.
Se la lente di proiezione dell’unità di proiezione e la lente della fotocamera sono poste ad uguale distanza dal piano di riferimento xy, ovvero se Lk− Lpcos ϑ0= 0, lo spostamento u(x,y) può essere espresso come:
Pertanto, il cambiamento di fase dell’equazione (4) può essere legato alla distanza geometrica u(x,y) tramite la seguente equazione:
Osservando l’equazione (7) si nota che la variazione di fase φprofilo(x ,y ) dipende dalla distanza della superficie dell’oggetto z(x,y) dal piano di riferimento xy e che la sensibilità del metodo aumenta all’aumentare dell’angolo medio di proiezione ϑ0, mentre è inversamente proporzionale alla distanza dξ.
In queste condizioni, l’intensità del pattern di luce a frange sulla superficie dell’oggetto sarà:
Nell’ipotesi che il pattern di luce a frange venga osservato dalla fotocamera nella direzione dell’asse z con un ingrandimento mc<1, si ottiene:
dove r(x,y) è la riflettività della superficie su cui è proiettato il pattern di luce a frange.
Più sinteticamente, se il pattern di luce a frange è proiettato sulla superficie di un oggetto di forma arbitraria la cui superficie può essere espressa con z(x,y), detto pattern di luce a frange verrà deformato rispetto a quello che si otterrebbe illuminando il piano di riferimento xy.
In altre parole, il profilo della superficie dell’oggetto illuminato introduce una modulazione di fase legata alla morfologia dell’oggetto.
Pertanto, l’intensità del pattern di luce a frange sulla superficie dell’oggetto, così come visto dalla fotocamera a fattore di ingrandimento unitario, risulta essere:
dove
• è la frequenza del pattern di luce a
frange sul piano di riferimento xy;
• è la modulazione di fase
introdotta dall’illuminazione divergente;
• φprofilo (x ,y ) è la modulazione di fase causata dalla superficie dell’oggetto; e
• ψ (x,y )=φdiv (x,y ) φ profilo (x ,y ).
Pertanto, una volta ricavata la distribuzione spaziale<di fase assoluta rappresentativa della modulazione di fase>φprofilo(<x , y>)<introdotta dalla superficie dell’oggetto, è>possibile ricavare le variazioni di altezza/profondità dell’oggetto attraverso il legame espresso attraverso l’equazione (7).
Quindi, dopo aver definito il principio di misura su cui è basato il sistema di digitalizzazione 3D secondo la presente invenzione, di seguito viene descritto in dettaglio detto sistema facendo riferimento alla configurazione geometrica mostrata in figura 1.
In particolare, il sistema di digitalizzazione 3D secondo la presente invenzione è configurato per determinare una forma tridimensionale di un oggetto localizzato in una prima posizione in un piano di sistema, preferibilmente il piano zx in figura 1, definito da una prima direzione, preferibilmente la direzione z in figura 1, e da una seconda direzione, preferibilmente la direzione x in figura 1, perpendicolari tra loro.
Inoltre, il sistema di digitalizzazione 3D secondo la presente invenzione comprende:
• un’unità di proiezione, ad esempio un proiettore o un video-proiettore ad alta risoluzione basato su tecnologia “Digital Light Processing” (DLP), configurata per illuminare l’oggetto proiettando pattern di luce lungo una data direzione di proiezione, l’unità di proiezione essendo localizzata in una seconda posizione nel piano di sistema zx;
• un’unità di cattura di immagini, ad esempio una fotocamera o una videocamera digitale ad alta risoluzione, configurata per catturare immagini dell’oggetto lungo la prima direzione z, l’unità di cattura di immagini essendo localizzata in una terza posizione nel piano di sistema zx; ed
• un’unità di controllo ed elaborazione, ad esempio un computer o una workstation, accoppiata all’unità di proiezione ed all’unità di cattura di immagini.
In particolare, l’unità di controllo ed elaborazione è configurata per:
• controllare l’unità di proiezione in modo che proietti in successione primi pattern di luce ad intensità luminosa spazialmente periodica lungo una terza direzione in un ipotetico piano di proiezione definito dalla terza direzione e da una quarta direzione, preferibilmente la direzione y in figura 1, perpendicolari tra loro, detto piano ipotetico di proiezione essendo ortogonale alla data direzione di proiezione e trasversale alla seconda direzione x, i primi pattern di luce, lungo la terza direzione, avendo uno stesso periodo spaziale TPSed essendo spazialmente sfasati tra loro, i primi pattern di luce essendo preferibilmente pattern di luce a frange sinusoidali in cui le frange sono trasversali alla terza direzione;
• controllare l’unità di proiezione in modo che proietti una sequenza temporale di secondi pattern di luce, detta sequenza temporale veicolando codici identificativi, preferibilmente codici Gray, ed essendo tale da associare ad una posizione lungo la terza direzione nell’ipotetico piano di proiezione un rispettivo codice identificativo veicolato che è indicativo di un corrispondente numero intero di periodi spaziali compiuti dall’intensità luminosa di un dato primo pattern di luce in detta posizione rispetto ad una predefinita posizione di riferimento lungo la terza direzione nell’ipotetico piano di proiezione;
• controllare l’unità di cattura di immagini in modo che catturi, per ogni primo pattern di luce proiettato, una corrispondente prima immagine dell’oggetto illuminato e, per ogni secondo pattern di luce proiettato, una corrispondente seconda immagine dell’oggetto illuminato;
• acquisire dall’unità di cattura di immagini le prime e le seconde immagini;
• calcolare, sulla base delle prime immagini, sfasamenti ψ dei primi pattern di luce risultanti nelle prime immagini a causa della forma tridimensionale dell’oggetto;
• elaborare le seconde immagini per estrarre i codici identificativi veicolati;
• calcolare valori di una fase assoluta φ sulla base degli sfasamenti calcolati ψ e dei codici identificativi estratti kGC; e
• determinare, ovvero misurare, la forma tridimensionale, ovvero il profilo tridimensionale, dell’oggetto sulla base dei valori della fase assoluta φ calcolati.
In particolare, i valori della fase assoluta φ sono calcolati mediante l’equazione (1).
Per poter descrivere con maggior dettaglio la presente invenzione, in figura 3 viene mostrato un diagramma di flusso di un metodo 30 implementato dall’unità di controllo ed elaborazione per misurare il profilo tridimensionale dell’oggetto.
In particolare, il metodo 30 comprende, innanzitutto, due processi completamente indipendenti, ovvero:
• un processo per il raffinamento della fase comprendente un’acquisizione delle prime immagini (blocco 31) ed un calcolo di primi contributi di fase (blocco 32), il processo per il raffinamento della fase essendo basato su una tecnica a spostamento di fase; ed
• un processo per il calcolo del contributo di fase grossolano comprendente un’acquisizione delle seconde immagini (blocco 33) ed un calcolo di secondi contributi di fase (blocco 34), il processo per il calcolo del contributo di fase grossolano essendo basato sui codici Gray.
Inoltre, il metodo 30 comprende anche un calcolo della fase assoluta (blocco 35) sulla base dell’equazione (1) ed una determinazione del profilo tridimensionale dell’oggetto (blocco 36) sulla base della fase assoluta calcolata.
Di seguito viene descritta con maggior dettaglio la tecnica a spostamento di fase su cui è basato il processo per il raffinamento della fase.
In particolare, la distribuzione di fase residua, cioè il primo contributo di fase arrotolato ψ che appare al secondo membro dell’equazione (1), è ottenuta con la tecnica a spostamento di fase. Questa tecnica richiede l’acquisizione di una molteplicità di prime immagini illuminando l’oggetto sotto esame con una sequenza di pattern di luce a frange sinusoidali, ovvero i primi pattern di luce, opportunamente sfasati spazialmente l’uno dall’altro di una certa quantità.
Preferibilmente, bisogna disporre di almeno tre prime immagini dell’oggetto in esame e, nel caso più generale in cui siano N le prime immagini acquisite, si parlerà di spostamento di fase ad N passi.
A tal riguardo, in figura 4 viene mostrato, a sinistra un oggetto, in particolare una testa in marmo, e, a destra, un prima immagine di esempio dell’oggetto illuminato da un corrispondente primo pattern proiettato.
A questo punto, si prenda in considerazione un pattern di luce a frange sinusoidali proiettato su un oggetto di forma arbitraria. Il pattern di luce a frange è poi spazialmente sfasato lungo la terza direzione nell’ipotetico piano di proiezione di un angolo δiper N volte, dove δiè l’angolo del quale viene spazialmente sfasato l’i-esimo pattern rispetto a quello iniziale, ed N indica il numero di prime immagini che si intende acquisire, preferibilmente, come già detto, almeno tre.
In generale, l’i-esima prima immagine acquisita si può esprimere come:
dove f è la frequenza del pattern di luce a frange su un piano immagine xy definito dalla quarta direzione y e dalla seconda direzione x che sono tra loro perpendicolari,<r(x,y) è la riflettività della superficie dell’oggetto,>φdiv (x , y ) è la modulazione di fase introdottadall’illuminazione divergente, e φprofilo (x ,y ) è la modulazione di fase causata dalla superficie dell’oggetto.
L’equazione (11) può essere riscritta come:
Per semplicità si ponga:
Quindi, si può riscrivere l’equazione (12) come:
Si può ora utilizzare il metodo dei minimi quadrati:
L’errore è minimizzato differenziando rispetto alle tre incognite a0(x, y ), a1(x, y ), a2(x, y ) ed uguagliando a zero le tre equazioni così ottenute. La risoluzione simultanea di queste tre equazioni produce il risultato ai minimi quadrati, che si traduce nella seguente equazione matriciale:
dove
La matrice A ( δi) è funzione solo degli sfasamenti spaziali δidei primi pattern di luce, mentre B (x,y, δi) è composto dalla somma pesata delle intensità delle prime immagini acquisite.
Una volta determinati a0(x, y ), a1(x, y ), a2(x, y ), la fase può essere ricavata dalle equazioni (15) e (16):
I valori di sfasamento spaziale δinon devono necessariamente essere uniformemente spaziati e possono essere distribuiti in un intervallo anche maggiore di 2π.
Si consideri, tuttavia, la scelta di N sfasamenti uniformemente spaziati tra 0 e 2π, cioè:
In questo caso, tutti i termini della matrice A ( δi) che non si trovano sulla diagonale sono nulli, e ciò conduce ad una soluzione più semplice, ovvero:
A questo punto, invece, si vuole descrivere con maggior dettaglio anche il processo per il calcolo del contributo di fase grossolano basato sui codici Gray.
In particolare, secondo la presente invenzione viene utilizzato il metodo a codifica Gray che, rispetto ad altre soluzioni attualmente in fase di studio e di utilizzo, richiede un numero maggiore di pattern di luce proiettati e, quindi, un tempo di acquisizione maggiore, ma risulta decisamente più affidabile e robusto e, ad ogni modo, si rivela comunque più rapido di un sistema basato su sorgente laser.
Infatti, in pratica, una sequenza di n pattern di luce con la tecnica basata sui codici Gray corrisponde a 2<n>acquisizioni con la metodologia del piano laser.
La caratterizzazione della scena, con la codifica Gray, avviene attraverso la proiezione di una particolare sequenza temporale di pattern di luce sull’oggetto da scansionare, ovvero i secondi pattern di luce. Ogni secondo pattern di luce nella sequenza temporale presenta spazialmente strisce bianche e nere alternate ed opportunamente disposte, la cui larghezza è pari alla metà di quella nel secondo pattern di luce precedente, vale a dire che il periodo nel tempo va progressivamente dimezzandosi.
In particolare, a tal riguardo, in Figura 5 è mostrata schematicamente e a titolo di esempio una struttura di una sequenza temporale di secondi pattern di luce usati in una codifica Gray a 5 bit.
In base al numero n di secondi pattern di luce proiettati si possono differenziare 2<n>bande larghe la metà del semiperiodo spaziale più piccolo. Ad ognuna di esse è associato un codice binario a n bit, il cui bit i-esimo vale uno o zero a seconda che nel secondo pattern i-esimo la relativa striscia risulti bianca o nera.
Chiaramente è inutile adoperare un codice binario con un numero di bit n superiore a quello minimo necessario per poter distinguere un numero di strisce pari al numero di pixel del proiettore nella direzione ortogonale alle strisce, ovvero la terza direzione.
In altri termini, se la risoluzione del proiettore consente di proiettare un certo numero di strisce, è inutile usare un codice in grado di distinguerne un numero maggiore.
In particolare, dal punto di vista concettuale, per ottenere le coordinate di un punto nello spazio basta intersecare il raggio ottico relativo all’immagine del punto stesso nella fotocamera con il piano di luce del proiettore che passa per il punto. Il punto nello spazio è dato quindi dall’intersezione di un raggio ottico (che nella fotocamera si traduce in un punto) e da un piano di luce (che nel proiettore risulta una retta). E’ possibile, quindi, ricostruire tridimensionalmente un oggetto a partire da questa corrispondenza punto-retta.
In figura 6 viene mostrato schematicamente il principio di funzionamento della tecnica basata sui codici Gray.
In particolare, come mostrato nella figura 6, dal momento che le superfici dell’oggetto sottoposto a scansione sono investite da questa sequenza di strisce bianche e nere, anche ogni pixel dell’immagine dell’oggetto presenterà una certa sequenza di illuminazione, e da quest’ultima si può ricavare un codice. A questo punto, si è in grado di stabilire per ogni punto dell’immagine dell’oggetto quale sia la striscia corrispondente nel proiettore.
A tal riguardo, in figura 7 viene mostrata una sequenza di seconde immagini di esempio ciascuna illuminata da un rispettivo secondo pattern di luce proiettato.
In definitiva, a partire dalle n seconde immagini dell’oggetto in esame, investito dagli n secondi pattern di luce sopra menzionati, è possibile, mediante un processo di decodifica, associare ad ogni pixel del piano immagine xy della fotocamera un codice binario a n bit.
Tuttavia, mentre il codice dei pixel del proiettore è perfettamente noto, per i pixel della fotocamera si possono presentare notevoli ambiguità.
Infatti, il colore e la riflettività non uniforme dell’oggetto in esame, la diversa inclinazione e la mutua illuminazione delle sue superfici, la non netta separazione tra le zone illuminate e quelle non illuminate, i possibili problemi di scarso contrasto e di saturazione delle seconde immagini, la risoluzione differente e limitata della fotocamera e del proiettore e la conseguente pixelizzazione fanno sì che nella realtà i punti della seconda immagine acquisita dalla fotocamera siano di tutta una gamma di livelli di grigio intermedi tra il bianco e il nero, rendendo così i codici non individuabili in maniera così semplice come avviene per il proiettore.
A tal riguardo, in figura 8 viene mostrato un esempio di zona di transizione dal bianco al nero in una seconda immagine acquisita.
È necessario, dunque, a monte dell’operazione di decodifica per la determinazione dei codici, avviare un’operazione di binarizzazione delle seconde immagini acquisite. Questa operazione è indispensabile per poter assegnare a ciascun pixel un valore pari ad uno o a zero, a seconda che il corrispondente livello di grigio superi o meno un valore di soglia opportunamente fissato. In altre parole, la binarizzazione trasforma un’immagine a più livelli di grigio in un’immagine a due soli livelli, ovvero, in bianco e nero.
A tal riguardo, in figura 9 è mostrato un esempio di binarizzazione di una seconda immagine.
In particolare, nella figura 9 a sinistra viene mostrata una seconda immagine acquisita a più livelli di grigio, mentre a destra viene mostrata la stessa seconda immagine binarizzata.
Preferibilmente, allo scopo di migliorare la binarizzazione nelle zone di transizione, in cui non è evidente la netta discontinuità tra i toni di grigio, ma si manifesta un gradiente che si estende limitatamente a qualche pixel, in aggiunta agli n secondi pattern di luce (pattern positivi), si proiettano n terzi pattern di luce ottenuti dai secondi pattern di luce invertendone l’intensità luminosa dei pixel (pattern negativi), come proposto in S. Barone, A. Curcio, A. Razionale, “A structured light stereo system for reverse engineering applications”, IV Seminario Italo-Spagnolo, Reverse Engineering Techniques and Applications, Vol. 1 , pp. 65– 74, 2003, articolo che viene qui incorporato per riferimento.
In questo modo, ad ogni seconda immagine positiva corrisponde una seconda immagine negativa nella quale i livelli di grigio sono invertiti.
Le immagini ottenute per differenza tra le seconde immagini positive e negative presentano una più ampia dinamica e quindi una migliore definizione ed un maggiore contrasto; infatti, intensificando il gradiente nel passaggio chiaro/scuro, risulta maggiormente distinguibile il confine tra una fascia illuminata ed una banda oscura.
A tal riguardo, in figura 10 viene mostrato un confronto tra una seconda immagine positiva (in alto a sinistra), la corrispondete seconda immagine negativa (in alto a destra) e la seconda immagine “differenza” ottenuta dalla differenza delle due precedenti.
Un’ulteriore miglioria dell’operazione di binarizzazione si può ottenere utilizzando un valore di soglia dinamico anziché costante come proposto in G. Wiora, “Optische 3D-Messtechnik: präzise gestaltvermessung mit einemerweiterten streifenprojektionsverfahren”, PhD Thesis, Ruprechts-Karls Universität Heidelberg, 2001, tesi che viene qui incorporata per riferimento.
Quindi, convenientemente, il valore di soglia è variabile spazialmente nel piano immagine xy, mentre è costante nel tempo, ovvero, varia tra pixel appartenenti alla seconda immagine acquisita, mentre, una volta fissata la collocazione del pixel nel piano immagine xy, non cambia nel passaggio tra le differenti seconde immagini acquisite in sequenza.
Come valore numerico della soglia si può, quindi, utilizzare la media aritmetica delle intensità riferite alle suddette n seconde immagini “differenza”, cioè:
dove la presenza delle coordinate x e y mette in rilievo la variabilità della soglia μ (x,y ) in senso bidimensionale.
A tal riguardo, in figura 11 viene mostrato:
• in alto a sinistra un primo grafico rappresentante i valori di intensità di alcuni pixel in una seconda immagine differenza insieme ai corrispondenti valori di soglia calcolati per la binarizzazione;
• in basso a sinistra un secondo grafico rappresentante i valori di intensità binarizzati dei pixel del primo grafico;
• in alto a destra un terzo grafico rappresentante i valori di intensità di alcuni pixel in un’altra seconda immagine differenza insieme ai corrispondenti valori di soglia calcolati per la binarizzazione; e
• in basso a destra un quarto grafico rappresentante i valori di intensità binarizzati dei pixel del terzo grafico.
Inoltre, con la finalità di sottoporre al processo di decodifica unicamente le parti d’interesse ed eliminare eventuali zone d’ombra, andranno binarizzati soltanto i punti discreti del piano immagine xy la cui deviazione standard risulti maggiore di un valore di soglia minimo, costante per tutte le seconde immagini e dedotto in maniera sperimentale.
In particolare, la deviazione standard σ (x,y ) viene calcolata mediante la seguente equazione:
L’intera operazione di binarizzazione è sintetizzata nella seguente espressione:
<b>i (<x, y>)<=>
dove bi(x ,y ) rappresenta il valore binarizzato d’intensità del pixel nella generica posizione (x,y) nella i-esima seconda immagine differenza.
Al termine dell’operazione di binarizzazione, l’evoluzione temporale di un singolo pixel appartenente al piano immagine xy è tracciabile attraverso un vettore binario di n elementi, ottenuto per discretizzazione a due livelli delle n intensità luminose che lo stesso pixel ha assunto nelle n seconde immagini acquisite.
Sulla base di quanto esposto, i pixel che non sono di interesse o che risultano non validi, sono caratterizzati da un vettore nullo, in cui cioè tutti gli elementi sono uguali a zero.
Tutto ciò consente di generare, in maniera molto semplice, una maschera di selezione dei pixel validi M(x,y) molto utile ai fini della ricostruzione tridimensionale:
dove il simbolo di sommatoria è da intendersi nel senso dell’algebra booleana.
A tal riguardo, in figura 12 è mostrato un esempio grafico di maschera di selezione dei pixel validi M(x,y) espressa analiticamente dall’espressione (28).
In particolare, in figura 12 le aree bianche rappresentano i pixel appartenenti alla maschera di selezione dei pixel validi, ovvero i pixel validi, mentre le aree nere rappresentano i pixel non validi.
Infine, per quanto riguarda la tecnica basata sui codici Gray, viene applicato un algoritmo di decodifica.
In particolare, tale algoritmo di decodifica prevede di ricavare il codice associato al generico pixel in posizione (x,y) applicando il seguente algoritmo ricorsivo:
con
dove bi(x ,y ) è dato dall’espressione (27).
Un esempio di decodifica Gray a 5 bit è mostrato in figura 13.
In particolare, lo schema illustrato in figura 13 mette in evidenza come due codici Gray adiacenti differiscano di un solo bit. Pertanto, una errata classificazione di un singolo bit comporterà un errore pari al passo di codifica. Utilizzando, invece, una codifica binaria semplice, una analoga anomalia comporterebbe, nel peggiore dei casi, un errore di decodifica pari alla metà dell’intervallo di codifica.
Inoltre, in figura 14 è mostrato un esempio grafico di una distribuzione spaziale di codici Gray estratti mediante il processo per il calcolo del contributo di fase grossolano basato sui codici Gray finora descritto.
In particolare, nella figura 14 è importante notare l’andamento crescente dei codici estratti da sinistra verso destra.
A questo punto, infine, si vuole descrivere con maggior dettaglio anche il calcolo della fase assoluta (blocco 35 in figura 3).
In particolare, finora è stato descritto come, partendo dall’acquisizione di due diverse sequenze di immagini inerenti all’oggetto da digitalizzare, ovvero le prime e le seconde immagini, si riescano a determinare le distribuzioni spaziali di codici numerici e di fasi residue che, prese singolarmente, non consentono di ricavare le informazioni profilometriche cercate, ma debbono essere opportunamente combinate.
Infatti, estendendo l’equazione (1), valida per un punto generico, a tutto il dominio di interesse definito attraverso la maschera di selezione dei pixel validi M(x,y) descritta dall’espressione (28), è possibile ottenere la distribuzione spaziale della fase assoluta φ (x,y ) che è direttamente legata alle variazioni di altezza/profondità dell’oggetto indagato, ovvero:
dove kGC(x ,y ) e ψ (x,y ) rappresentano le distribuzioni spaziali, rispettivamente, dei codici Gray estratti e delle fasi residue calcolate.
<Più specificamente, si utilizzano i codici Gray k>GC<(x ,y ) per risolvere l’indeterminazione della fase residua>ψ (x, y ) che si presenta arrotolata nell’intervallo ]−π ,π ].
A tal riguardo in figura 15 viene mostrata un esempio di distribuzione spaziale della fase relativa ψ (x,y ) per alcuni pixel.
Come si può notare nella figura 15 e come precedentemente detto, la fase relativa ψ (x,y ) si presenta arrotolata nell’intervallo ]−π ,π ] .
In ogni caso, combinare in maniera coerente le suddette distribuzioni comporta la sincronizzazione delle transizioni di codice con i salti di discontinuità che interessano la fase arrotolata.
L’ipotesi preliminare, da verificare a monte dello stadio di sincronizzazione, è che entrambi i set di pattern di proiezione, ovvero i primi ed i secondi pattern di luce, soddisfino una condizione di perfetto allineamento reciproco nell’ipotetico piano di proiezione.
Scendendo più nel dettaglio della tecnica di sincronizzazione secondo la presente invenzione, la funzione d’onda sinusoidale impiegata per comporre i primi pattern di luce deve, lungo la predefinita direzione nell’ipotetico piano di proiezione, sia esibire un periodo spaziale pari ad un multiplo intero dell’estensione spaziale di una parola codice, sia risultare in fase con i codici stessi.
Inoltre, l’estensione spaziale delle parole codice risulta essere la metà del semiperiodo dell’onda quadra correlata al bit meno significativo del codice Gray in uso, a cui corrisponde, tra l’altro, il secondo pattern di proiezione proiettato per ultimo ed avente le strisce più fitte.
A tal riguardo, in figura 16 viene mostrata la relazione tra il periodo spaziale dell’onda sinusoidale usata per comporre i primi pattern di luce e l’estensione spaziale dei codici numerici.
La condizione di sincronizzazione si può allora sintetizzare analiticamente come segue:
dove TPSè il periodo spaziale associato alle sinusoidi dei primi pattern di luce lungo la predefinita direzione nell’ipotetico piano di proiezione, AGCè l’estensione spaziale associata al passo della codifica Gray lungo la predefinita direzione nell’ipotetico piano di proiezione, ed m è il fattore moltiplicativo che indica il numero di parole codice contenute in un periodo spaziale TPSlungo la predefinita direzione nell’ipotetico piano di proiezione.
Introdotto il multiplo m, l’equazione (31), che conduce alla distribuzione di fase assoluta, va riscritta nel seguente modo:
dove con la notazione ⋅⋅ ⋅ si intende rappresentare la parte intera dell’argomento.
I possibili problemi di scarso contrasto e di saturazione delle prime e delle seconde immagini, la risoluzione differente e limitata della fotocamera e del proiettore, e la conseguente pixelizzazione, rendono tuttavia la condizione di sincronizzazione (32) insufficiente a garantire il perfetto allineamento di tutte le transizioni. Pertanto, prima di procedere alla determinazione della fase assoluta, si è pensato di operare un ulteriore “aggiustamento” dei confini che delimitano le transizioni di codice secondo le linee di demarcazione che identificano i salti della fase arrotolata.
Eventuali disallineamenti sono da imputare ad un’erronea valutazione, in fase di decodifica, del bit meno significativo del codice Gray. In altre parole, alcune delle transizioni che interessano il bit meno significativo LSB dei codici Gray estratti non sono sincronizzate con le rispettive transizioni della fase arrotolata come mostrato in figura 17.
In particolare, obbligando un numero pari di parole codice ad occupare un periodo di variazione della fase, ovvero, limitando il fattore moltiplicativo m ad un multiplo di due, la transizione LSB da zero ad uno si verifica sempre in corrispondenza del passaggio di fase da π a -π.
Di conseguenza, è possibile effettuare un “riallineamento” tra codici estratti e fase arrotolata semplicemente correggendo l’ultimo bit in funzione del segno della fase arrotolata.
In ultima analisi, per ogni pixel valido appartenente al dominio di interesse, il bit meno significativo LSB del codice Gray estratto è posto a zero se la mappa di fase arrotolata valutata nelle medesime coordinate è positiva, ad uno altrimenti, cioè:
A tal riguardo, in figura 18 è riportato il risultato della correzione del bit meno significativo LSB rispetto all’esempio mostrato nella figura 17.
Inoltre, in figura 19 ed in figura 20 viene mostrato l’andamento spaziale della fase assoluta per alcuni pixel, rispettivamente, in assenza ed in presenza dell’azione correttiva per il bit meno significativo LSB.
In particolare, osservando le figure 19 e 20 si evince come i picchi dell’andamento spaziale della fase assoluta presenti nella figura 19 e causati dal disallineamento delle transizioni sopraindicate, vengano compensati mediante il criterio proposto e, quindi, non siano presenti nella figura 20.
Infine, in figura 21 ed in figura 22 viene mostrato, rispettivamente, in toni di grigio e tridimensionalmente, un esempio di distribuzione spaziale di fase assoluta ottenuta applicando l’intero procedimento riassunto dall’equazione (33).
Infine, sulla base della distribuzione di fase assoluta ottenuta dal calcolo della fase assoluta (blocco 35 in figura 3) precedentemente descritto, si effettua, quindi, la determinazione del profilo tridimensionale dell’oggetto (blocco 36 in figura 3), ovvero la localizzazione nello spazio tridimensionale xyz dei punti della superficie dell’oggetto.
In particolare, la determinazione del profilo tridimensionale dell’oggetto (blocco 36 in figura 3) sulla base della distribuzione di fase assoluta può essere convenientemente effettuata sia mediante tecniche note sia mediante eventuali opportune tecniche non ancora pubbliche.
Dalla precedente descrizione si possono immediatamente comprendere i vantaggi.
In particolare, è importante notare come il sistema di digitalizzazione 3D a luce strutturata codificata secondo la presente invenzione offra ottime prestazioni in termini sia di robustezza ed affidabilità, sia di accuratezza e risoluzione delle misure grazie all’innovativa combinazione precedentemente descritta di una tecnica “digitale” basata sui codici Gray e di una tecnica “analogica” a spostamento di fase.
Inoltre, il sistema oggetto della presente invenzione offre ottime prestazioni anche per ciò che concerne l’ampliamento del volume di misura, la velocità di scansione, la versatilità e la semplicità d’uso.
In particolare, secondo la presente invenzione, si ottiene un’elevata velocità di scansione mediante l’uso di misure a campo intero che permettono di ridurre i tempi di acquisizione e di elaborazione.
Infine, risulta chiaro che varie modifiche possono essere apportate alla presente invenzione, tutte rientranti nell’ambito di tutela dell’invenzione definito nelle rivendicazioni annesse.

Claims (15)

  1. RIVENDICAZIONI 1. Metodo di determinazione di una forma tridimensionale di un oggetto comprendente: una fase di illuminazione dell’oggetto che comprende proiettare in successione primi pattern di luce ad intensità luminosa spazialmente periodica lungo una predefinita direzione in un ipotetico piano di proiezione ortogonale ad una data direzione di proiezione dei primi pattern di luce, i primi pattern di luce, lungo la predefinita direzione nell’ipotetico piano di proiezione, avendo uno stesso periodo spaziale (TPS) ed essendo spazialmente sfasati tra loro; la fase di illuminazione dell’oggetto comprendendo inoltre proiettare una sequenza temporale di secondi pattern di luce, detta sequenza temporale veicolando codici identificativi (kGC) ed essendo tale da associare ad una posizione lungo la predefinita direzione nell’ipotetico piano di proiezione un rispettivo codice identificativo veicolato (kGC) che è indicativo di un corrispondente numero intero di periodi spaziali compiuti dall’intensità luminosa di un dato primo pattern di luce in detta posizione rispetto ad una predefinita posizione di riferimento lungo la predefinita direzione nell’ipotetico piano di proiezione; una fase di acquisizione di immagini dell’oggetto illuminato che comprende acquisire, per ogni primo pattern di luce proiettato, una corrispondente prima immagine dell’oggetto illuminato e, per ogni secondo pattern di luce proiettato, una corrispondente seconda immagine dell’oggetto illuminato; una prima fase di calcolo (blocco 32) che comprende calcolare, sulla base delle prime immagini, sfasamenti (ψ) dei primi pattern di luce risultanti nelle prime immagini a causa della forma tridimensionale dell’oggetto; una fase di elaborazione (blocco 34) che comprende elaborare le seconde immagini per estrarre i codici identificativi veicolati (kGC); una seconda fase di calcolo (blocco 35) che comprende calcolare valori di una fase assoluta (φ) sulla base degli sfasamenti calcolati (ψ) e dei codici identificativi estratti (kGC); ed una fase di determinazione (blocco 36) che comprende determinare la forma tridimensionale dell’oggetto sulla base dei valori della fase assoluta (φ) calcolati.
  2. 2. Il metodo della rivendicazione 1, in cui proiettare in successione primi pattern di luce comprende proiettare, inizialmente, il dato primo pattern di luce e, successivamente, una pluralità di successivi primi pattern di luce ciascuno spazialmente sfasato, lungo la predefinita direzione nell’ipotetico piano di proiezione, di un dato valore (δi) rispetto al primo pattern di luce precedente.
  3. 3. Il metodo della rivendicazione 2, in cui i primi pattern di luce sono pattern di luce a frange in cui le frange sono, nell’ipotetico piano di proiezione, trasversali alla predefinita direzione.
  4. 4. Il metodo secondo la rivendicazione 2 o 3, in cui l’intensità luminosa dei primi pattern di luce, lungo la predefinita direzione nell’ipotetico piano di proiezione, varia spazialmente secondo una data funzione sinusoidale.
  5. 5. Il metodo secondo una qualsiasi rivendicazione precedente, in cui detta sequenza temporale è tale da associare ogni codice identificativo veicolato (kGC) ad una corrispondente porzione dell’ipotetico piano di proiezione, le porzioni dell’ipotetico piano di proiezione essendo trasversali alla predefinita direzione ed avendo una stessa data estensione spaziale (AGC) lungo la predefinita direzione, il dato periodo spaziale (TPS) dei primi pattern di luce essendo un multiplo intero della data estensione spaziale (AGC), per ogni porzione dell’ipotetico piano di proiezione il corrispondente codice identificativo associato (kGC) essendo indicativo di un corrispondente numero intero di periodi spaziali compiuti dall’intensità luminosa del dato primo pattern di luce in corrispondenza di detta porzione dell’ipotetico piano di proiezione rispetto alla predefinita posizione di riferimento lungo la predefinita direzione nell’ipotetico piano di proiezione.
  6. 6. Il metodo secondo una qualsiasi rivendicazione precedente, in cui i codici identificativi veicolati (kGC) sono codici binari ed in cui i secondi pattern di luce sono pattern di luce ad intensità luminosa bilivello, ogni secondo pattern di luce proiettato veicolando un corrispondente bit dei codici identificativi veicolati (kGC).
  7. 7. Il metodo secondo la rivendicazione 6, in cui i codici identificativi veicolati (kGC) sono codici Gray.
  8. 8. Il metodo secondo la rivendicazione 6 o 7, in cui elaborare le seconde immagini comprende ottenere sulla base delle seconde immagini, per ogni seconda immagine, una corrispondente terza immagine ad intensità luminosa bilivello; la fase di elaborazione (blocco 34) comprendendo inoltre elaborare le terze immagini per estrarre da queste i codici identificativi veicolati (kGC).
  9. 9. Il metodo secondo la rivendicazione 8, in cui la fase di illuminazione dell’oggetto comprende inoltre proiettare, per ogni secondo pattern di luce proiettato, un corrispondente terzo pattern di luce ad intensità luminosa bilivello invertita rispetto all’intensità luminosa bilivello nel secondo pattern; la fase di acquisizione di immagini dell’oggetto illuminato comprendendo inoltre acquisire, per ogni terzo pattern di luce proiettato, una corrispondente quarta immagine dell’oggetto illuminato; le terze immagini essendo ottenute anche sulla base delle quarte immagini.
  10. 10. Il metodo secondo la rivendicazione 8 o 9, in cui le prime, le seconde e le terze immagini definiscono un piano immagine (xy) trasversale all’ipotetico piano di proiezione; i codici identificativi estratti (kGC) e gli sfasamenti calcolati (ψ) essendo associati a rispettive posizioni ((x,y)) nel piano immagine (xy); la seconda fase di calcolo (blocco 35) comprendendo inoltre correggere, per una data posizione ((x,y)) nel piano immagine (xy), un ultimo bit (LSB) di un dato codice identificativo estratto (kGC(x,y)) associato a detta data posizione ((x,y)) se detto ultimo bit (LSB) non soddisfa una condizione di sincronizzazione rispetto ad un dato sfasamento calcolato (ψ(x,y)) associato a detta data posizione ((x,y)), detta condizione di sincronizzazione essendo tale da garantire che il numero intero di periodi spaziali di cui è indicativo il dato codice identificativo estratto (kGC(x,y)) sia coerente con detto dato sfasamento calcolato (ψ(x,y)).
  11. 11. Il metodo secondo la rivendicazione 10, in cui detta condizione di sincronizzazione è:
    in cui LSB(x,y) indica detto ultimo bit del dato codice identificativo estratto (kGC(x,y)) e ψ(x,y) indica detto dato sfasamento calcolato.
  12. 12. Sistema di determinazione di una forma tridimensionale di un oggetto configurato per implementare il metodo secondo una qualsiasi rivendicazione precedente.
  13. 13. Il sistema della rivendicazione 12, in cui l’oggetto è localizzato in una prima posizione in un dato piano di sistema (zx) ortogonale al piano immagine (xy), il sistema comprendendo: un’unità di proiezione localizzata in una seconda posizione nel piano di sistema (zx) e configurata per implementare la fase di illuminazione dell’oggetto; un’unità di cattura di immagini localizzata in una terza posizione nel piano di sistema (zx) e configurata per catturare immagini dell’oggetto; ed un’unità di controllo ed elaborazione accoppiata all’unità di proiezione ed all’unità di cattura di immagini e configurata per: - controllare l’unità di proiezione in modo che realizzi la fase di illuminazione dell’oggetto; - controllare l’unità di cattura di immagini in modo che catturi le prime e le seconde immagini; - acquisire dall’unità di cattura di immagini le prime e le seconde immagini; - implementare la prima fase di calcolo (blocco 32); - implementare la fase di elaborazione (blocco 34); - implementare la seconda fase di calcolo (blocco 35); ed - implementare la fase di determinazione (blocco 36).
  14. 14. Elaboratore elettronico configurato per realizzare l’unità di controllo ed elaborazione del sistema secondo la rivendicazione 13.
  15. 15. Programma informatico caricabile in una memoria di un elaboratore elettronico e configurato per, quando eseguito da detto elaboratore elettronico, fare in modo che detto elaboratore elettronico realizzi l’unità di controllo ed elaborazione del sistema secondo la rivendicazione 13.
IT000220A 2009-05-06 2009-05-06 Sistema a luce strutturata codificata per determinare forme tridimensionali di oggetti e relativo metodo ITRM20090220A1 (it)

Priority Applications (1)

Application Number Priority Date Filing Date Title
IT000220A ITRM20090220A1 (it) 2009-05-06 2009-05-06 Sistema a luce strutturata codificata per determinare forme tridimensionali di oggetti e relativo metodo

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
IT000220A ITRM20090220A1 (it) 2009-05-06 2009-05-06 Sistema a luce strutturata codificata per determinare forme tridimensionali di oggetti e relativo metodo

Publications (1)

Publication Number Publication Date
ITRM20090220A1 true ITRM20090220A1 (it) 2010-11-07

Family

ID=41794681

Family Applications (1)

Application Number Title Priority Date Filing Date
IT000220A ITRM20090220A1 (it) 2009-05-06 2009-05-06 Sistema a luce strutturata codificata per determinare forme tridimensionali di oggetti e relativo metodo

Country Status (1)

Country Link
IT (1) ITRM20090220A1 (it)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE19515949A1 (de) * 1995-05-02 1996-11-14 Continental Ag Verfahren und Vorrichtung zur flächenhaften Vermessung und Erfassung des Profilabriebs eines Fahrzeugreifens
DE19720160A1 (de) * 1996-05-06 1998-02-26 Fraunhofer Ges Forschung Verfahren zum Bestimmen von dreidimensionalen Oberflächen

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE19515949A1 (de) * 1995-05-02 1996-11-14 Continental Ag Verfahren und Vorrichtung zur flächenhaften Vermessung und Erfassung des Profilabriebs eines Fahrzeugreifens
DE19720160A1 (de) * 1996-05-06 1998-02-26 Fraunhofer Ges Forschung Verfahren zum Bestimmen von dreidimensionalen Oberflächen

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
CHEN XIAOBOA, XI JUN TONG, JIANG TAOA, JIN YE: "Research and development of an accurate 3D shape measurement system based on fringe projection: Model analysis and performance evaluation", PRECISION ENGINEERING, vol. 32, no. 3, July 2008 (2008-07-01), pages 215 - 221, XP002572922, DOI: 10.1016/j.precisioneng.2007.08.008 *
DIRK BERGMANN: "New approach for automatic surface reconstruction with coded light", PROC. SPIE, vol. 2572, 1995, pages 2 - 8, XP002572924, DOI: 10.1117/12.216931 *
GEORG WIORA: "High-resolution measurement of phase-shift amplitude and numeric object phase calculation", PROC. SPIE, vol. 4117, 6 May 2003 (2003-05-06), pages 289 - 299, XP002572923, DOI: 10.1117/12.404832 *
GIOVANNA SANSONI ET AL: "A three-dimensional imaging system for industrial applications with improved flexibility and robustness", JOURNAL OF OPTICS. A, PURE AND APPLIED OPTICS, INSTITUTE OF PHYSICS PUBLISHING, BRISTOL, GB, vol. 1, no. 1, 1 January 1999 (1999-01-01), pages 83 - 93, XP020081171, ISSN: 1464-4258 *

Similar Documents

Publication Publication Date Title
Lin et al. Three-dimensional shape measurement technique for shiny surfaces by adaptive pixel-wise projection intensity adjustment
Pages et al. Optimised De Bruijn patterns for one-shot shape acquisition
Xu et al. Rapid 3D surface profile measurement of industrial parts using two-level structured light patterns
US20140078490A1 (en) Information processing apparatus and method for measuring a target object
CN101806587B (zh) 一种采用绝对相位测量的光学三维测量方法
WO2012125706A2 (en) Real-time 3d shape measurement system
WO2012032341A1 (en) Method and apparatus of measuring the shape of an object
Huang et al. A new reconstruction method based on fringe projection of three-dimensional measuring system
Zhu et al. Stable 3D measurement method for high dynamic range surfaces based on fringe projection profilometry
Liu et al. Background and amplitude encoded fringe patterns for 3D surface-shape measurement
Lv et al. An improved phase-coding method for absolute phase retrieval based on the path-following algorithm
Zhang Digital multiple wavelength phase shifting algorithm
Deng et al. High-speed and high-accuracy fringe projection profilometry without phase unwrapping
Cai et al. An improved gray-level coding method for absolute phase measurement based on half-period correction
Wang et al. A 3D shape measurement method based on novel segmented quantization phase coding
Lu et al. High-efficiency dynamic three-dimensional shape measurement based on misaligned Gray-code light
CN107421467B (zh) 结构光三维测量方法及系统
KR101001894B1 (ko) 컬러 투사 모아레 기법을 이용한 3차원 형상 측정 장치 및 방법
Chen et al. Phase measuring profilometry based on binary grating projection for fringe order self-extraction
Xu et al. Realtime 3D profile measurement by using the composite pattern based on the binary stripe pattern
Duan et al. Quasi-periodic phase coding for long-depth-range 3-D measurements of moving objects
ITRM20090220A1 (it) Sistema a luce strutturata codificata per determinare forme tridimensionali di oggetti e relativo metodo
Boukamcha et al. Robust technique for 3D shape reconstruction
KR20190103833A (ko) 실시간 3차원 데이터 측정 방법
JP6590489B2 (ja) 情報処理装置および方法