ITRM20090219A1 - Sistema per caratterizzare antenne e/o diffusori - Google Patents

Sistema per caratterizzare antenne e/o diffusori Download PDF

Info

Publication number
ITRM20090219A1
ITRM20090219A1 IT000219A ITRM20090219A ITRM20090219A1 IT RM20090219 A1 ITRM20090219 A1 IT RM20090219A1 IT 000219 A IT000219 A IT 000219A IT RM20090219 A ITRM20090219 A IT RM20090219A IT RM20090219 A1 ITRM20090219 A1 IT RM20090219A1
Authority
IT
Italy
Prior art keywords
under test
object under
phase
light
geometry
Prior art date
Application number
IT000219A
Other languages
English (en)
Inventor
Amedeo Capozzoli
Claudio Curcio
Elia Giuseppe D
Angelo Liseno
Gennaro Strazzullo
Pietro Vinetti
Original Assignee
Fox Bit S R L
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fox Bit S R L filed Critical Fox Bit S R L
Priority to IT000219A priority Critical patent/ITRM20090219A1/it
Publication of ITRM20090219A1 publication Critical patent/ITRM20090219A1/it

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • G01B11/25Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object

Description

DESCRIZIONE
del Brevetto per Invenzione Industriale dal titolo:
“SISTEMA PER CARATTERIZZARE ANTENNE E/O DIFFUSORI”
La presente invenzione è relativa ad un sistema per caratterizzare antenne e/o diffusori.
In particolare, la presente invenzione trova vantaggiosa applicazione nella caratterizzazione “nearfield” di antenne, nella caratterizzazione “near-field” di diffusori, nella caratterizzazione “far-field” di antenne, nelle misure di Radar Cross Section (RCS) di diffusori, nella caratterizzazione di antenne o diffusori tramite CATR/PWS (“Compact Antenna Test Range”/”Plane Wave Synthesizer”) e nelle misure volumetriche relative a sistemi d’antenna e/o diffusori.
In dettaglio, con caratterizzazione near-field di un’antenna si intende la determinazione dei suoi parametri radiativi a partire da misure effettuate su un dominio di scansione non contenuto nella zona di Fraunhofer dell’antenna e tramite opportune elaborazioni dei dati di campo raccolti, così come descritto ad esempio nello standard IEEE 149-1979 (R2008), in G.E. Evans, “Antenna Measurement Techniques”, Artech House, Boston-London, 1990, ed in A.W. Rudge, K. Milne, A.D. Olver, P. Knight, “The Handbook of Antenna Design 2<nd>Ed.”, IEE Electromagnetic Wave Series, Norwich, England, 1986, documenti qui incorporati per riferimento.
In particolare, un sistema di caratterizzazione nearfield di antenne è costituito dall’antenna da caratterizzare, da un’antenna che può fungere da sonda o da illuminatore e da un sistema di movimentazione, o sistema di scansione, della sonda/illuminatore e/o dell’antenna, come ad esempio descritto in A. Capozzoli, C. Curcio, G. D’Elia, “The indoor antenna range at the University of Naples Federico II: characterization and antenna testing”, Atti della Fondazione Ronchi, vol. LXII, n. 2, pp. 163-188, Mar.-Apr. 2007, documento qui incorporato per riferimento.
A tal proposito in figura 1 viene mostrato schematicamente un sistema di caratterizzazione near-field di antenne di esempio in cui con AUT (“Antenna Under Test”) è indicata l’antenna da caratterizzare e con Probe l’antenna che può fungere da sonda o da illuminatore.
In particolare, il sistema di scansione ha nominalmente il compito di muovere il Probe su superfici che racchiudano l’AUT. Nei casi standard e qualora siano acquisiti sia il modulo sia la fase del campo radiato, una sola superficie viene considerata come ad esempio descritto in A.D. Yaghjian, “An overview of near-field far-field antenna measurements”, IEEE Trans. Antennas Prop., vol. AP-34, n. 1, pp. 30-45, Jan. 1986., documento qui incorporato per riferimento.
Anche se, in principio, la geometria della superficie considerata può essere molto generale, tipicamente (scansioni standard) si considera una porzione di piano, una porzione di superficie cilindrica, una porzione di superficie sferica, per ognuna delle quali si ottiene, quindi, una geometria di scansione, rispettivamente, planare, cilindrica o sferica.
A tal riguardo, in figura 2 è mostrato un esempio di geometria di scansione planare per acquisizioni in modulo e fase in cui S1rappresenta la superficie planare di scansione, mentre in figura 3 è mostrato un esempio di geometria di scansione planare per acquisizioni in solo modulo, in cui S1ed S2rappresentano le superfici planari di scansione.
Nel caso di superfici cilindriche e sferiche, il movimento nominale è un movimento “apparente”, in genere ottenuto dalla composizione di movimenti dell’AUT e del Probe.
Nel caso di scansioni non standard, la geometria di scansione nonché il sistema di movimentazione divengono più complessi, come ad esempio descritto in S.F. Gregson, C.G. Parini, J. McCormick, “Proposal for a novel near-field antenna measurement technique employing a conic frustum geometry”, Proc. of the IEEE Loughborough Antennas Prop. Conf., Loughborough, UK, Mar. 17-18, 2008, pp. 105-108, ed in P. Vinetti, “A non-invasive, near-field and very nearfield phaseless antenna characterization system”, Ph.D. Thesis, Università di Napoli Federico II, Nov. 2008, documenti qui incorporati per riferimento.
In tali sistemi, l’AUT solitamente trasmette ed il Probe misura il campo da essa radiato sul dominio di scansione. Nel seguito si farà riferimento a questo caso. Per il caso opposto, ossia il caso in cui l’AUT riceve ed il Probe trasmette, si può ragionare in maniera totalmente analoga.
Introdotto un primo sistema di riferimento RL detto “di laboratorio”, un secondo sistema di riferimento RA solidale con l’AUT ed uno terzo sistema di riferimento RP solidale con il Probe, se non sono noti con accuratezza sufficiente la posizione e l’orientamento di RA ed RP in RL durante tutta la misura, il calcolo dei parametri ricercati dell’AUT diviene inaffidabile, come descritto ad esempio in L.A. Muth, “Displacement errors in antenna near-field measurements and their effect on the far-field”, IEEE Trans. Antennas Prop., vol. AP36, n. 5, pp. 581-591, May 1988, in E.B. Joy, “Near-field range qualification methodology”, IEEE Trans. Antennas Prop., vol. 36, n. 6, pp. 836-844, Jun. 1988, in A.C. Newell, “Error analysis techniques for planar near-field measurements”, IEEE Trans. Antennas Prop., vol. AP36, n. 6, pp. 754-768, Jun. 1988, ed in A.D. Yaghjian, “Planar near-field measurement techniques on high performance arrays. Part 1: Error analysis for nonscanning beam patterns”, Final Report, Jul. 1973 - Jul.
1974, National Bureau of Standards, Boulder, CO. Electromagnetics Div., Jul. 1975, documenti qui incorporati per riferimento.
Pertanto, risulta essenziale, per una corretta caratterizzazione dell’AUT, avere a disposizione la geometria dell’AUT e le informazioni relative a RP ed RA in RL (posizione dell’origine ed orientamento).
Inoltre, per una corretta ricostruzione dei parametri dell’AUT, il campo radiato deve essere acquisito in punti di campionamento opportunamente scelti, nel seguito chiamati punti di osservazione, come descritto ad esempio in O.M. Bucci, G. D’Elia, “Advanced sampling techniques in electromagnetics”, Review of Radio Sci. 1993-1996, London, U.K.: Oxford University Press, 1996, pp. 177-204, ed in O.M. Bucci, C. Gennarelli, C. Savarese, “Representation of electromagnetic fields over arbitrary surfaces by a finite and nonredundant number of samples”, IEEE Trans. Antennas Prop., vol. 46, n. 3, pp. 351-359, Mar. 1998, documenti qui incorporati per riferimento.
Nel caso planare con campionamento standard, la scelta del passo di campionamento è indipendente dai parametri geometrici dell’AUT e dalla posizione ed orientamento di RA ed RP. Nel caso cilindrico con campionamento standard, la scelta suddetta dipende dai parametri geometrici dell’antenna AUT e dalla posizione ed orientamento di RA in RL. Analogamente nel caso sferico con campionamento standard.
Pertanto, nel caso di campionamento standard risulta essenziale, per una corretta caratterizzazione, avere a disposizione informazioni di RP in RL (corretto posizionamento del Probe) e di parametri geometrici dell’AUT e della posizione e dell’orientamento di RA in RL.
Nei casi di campionamento non standard, la definizione della posizione dei punti di osservazione richiede informazioni aggiuntive rispetto al caso di campionamento standard sulla geometria dell’AUT, sulla posizione ed orientamento di RA in RL e sulla posizione ed orientamento di RP in RL durante la scansione.
Alle geometrie di scansione standard si aggiungono i casi in cui il Probe viene mosso su superfici/volumi di acquisizione dalle geometrie non standard. Anche in questo caso la corretta definizione dei punti di osservazione richiede la conoscenza di informazioni sulla geometria dell’AUT, sulla posizione ed orientamento di RA in RL e sulla posizione ed orientamento di RP in RL durante la scansione.
Con caratterizzazione near-field di un diffusore si intende, invece, la determinazione della sua posizione, geometria e dei suoi parametri elettromagnetici a partire da un’illuminazione realizzata con un insieme di opportuni campi incidenti, da misure dei corrispondenti campi diffusi effettuate su un dominio di scansione non contenuto nella zona di Fraunhofer del diffusore e tramite opportune elaborazioni dei dati di campo raccolti, come ad esempio descritto in Bellizzi, A. Capozzoli, G. D’Elia, “A new method to evaluate the minimum volume including radiating/scattering systems by means of supporting cones”, Proc. of the 5th Int. Conf. on Inverse Probl.: Theory and Practice, Cambridge, U.K., Jul. 11-15, 2005, pp. B04-1, B04-7, in O.M. Bucci, A. Capozzoli, C. Curcio, G. D’Elia, “The experimental validation of a technique to find the convex hull of scattering systems from field data”, Proc. of the Antennas Prop. Soc. Int. Symp., Columbus, OH, Jun.
22-27 2003, pp. 539-542, in O.M. Bucci, A. Capozzoli, G. D’Elia, P. Vinetti, “A new technique finding the convex hull of a scattering system: performance analysis and application to inhomogeneous backgrounds”, Proc. of the URSI EMTS Int. Symp., Pisa, Italy, May 23-27, 2004, pp.
909-911, in A. Capozzoli, G. D’Elia, P. Vinetti, “Convex hull detection of a scattering system in an inhomogeneous background”, Proc. of the 1st Europ. Conf. on Antennas Prop., Nice, France, Nov. 6-10, 2006, in J.C. Bolomey, C. Pichot, “Microwave tomography: from theory to practical imaging systems”, Int. J. Imaging Syst., vol. 2, n. 2, pp.
144-156, 1990, ed in R.E. Kleinman, P. van den Berg, “A modified gradient method for two-dimensional problems in tomography”, J. Comput. Appl. Math., vol. 42, n. 1, pp. 17-35, Sept. 1992, documenti qui incorporati per riferimento.
Nella sua forma più semplice, un sistema di caratterizzazione near-field di diffusori è costituito da un diffusore da caratterizzare OUT (“Object under Test”), da un’antenna che funge da illuminatore ATx, da un’antenna che misura il campo nel dominio di scansione ARx e da un sistema di movimentazione in grado di muovere nominalmente ATx e ARx.
Si consideri, a questo punto, un primo sistema di riferimento RL detto “di laboratorio”, un secondo sistema di riferimento RO solidale con l’OUT, un terzo sistema di riferimento RTx solidale con ATx ed un quarto sistema di riferimento RRx solidale con ARx.
Nel caso in cui si utilizzi una tecnica di caratterizzazione che sfrutti la conoscenza della posizione, della geometria e dell’orientamento dell’OUT e si voglia determinare, dalle misure del campo diffuso, i soli parametri elettromagnetici dell’OUT, se non sono noti con accuratezza sufficiente la geometria dell’OUT e la posizione e l’orientamento di RO, RTx ed RRx in RL durante tutta la misura, il calcolo dei parametri ricercati dell’OUT diviene inaffidabile soprattutto nel caso in cui ricostruzioni quantitative siano di interesse.
Pertanto, risulta essenziale, per una corretta caratterizzazione, avere a disposizione le informazioni di posizione ed orientamento di RTx ed RRx in RL e della geometria dell’OUT, e della posizione e orientamento di RO in RL durante l’intero processo di misura.
Invece, nel caso in cui si utilizzi una tecnica di caratterizzazione che non sfrutti la conoscenza (totale o parziale) della posizione, dell’orientamento e della geometria dell’OUT e si voglia determinare, dalle misure del campo diffuso, posizione, geometria e parametri elettromagnetici dell’OUT, se non sono noti con accuratezza sufficiente la posizione e l’orientamento di RTx ed RRx in RL durante tutta la misura, il calcolo dei parametri ricercati dell’OUT, ovvero posizione, geometria, orientamento e parametri elettromagnetici, diviene inaffidabile, soprattutto nel caso in cui ricostruzioni quantitative siano di interesse.
Pertanto, risulta essenziale, per una corretta caratterizzazione, avere a disposizione le informazioni di posizione ed orientamento di RTx ed RRx in RL durante l’intero processo di misura.
Inoltre, per una corretta ricostruzione dei parametri elettromagnetici dell’OUT ed eventualmente della sua posizione e geometria, il diffusore deve essere illuminato, tramite ATx, da opportune posizioni/direzioni di illuminazione (a seconda che quest’ultima sia eseguita da un’ATx posta nella zona vicina o lontana del diffusore), mentre il campo radiato deve essere acquisito in punti di osservazione opportunamente scelti, come ad esempio descritto in J. Detlefsen, “The resolution limits of the imaging of conducting bodies using multistatic scattering”, IEEE Trans. Antennas Prop., vol. AP-28, n. 3, pp. 377-380, May 1980, ed in R.J. Burkholder, I.J. Gupta, J.T. Johnson, “Comparison of monostatic and bistatic radar images”, Antennas Prop. Mag., vol. 45, n. 3, pp. 41-50, Jun. 2003, documenti qui incorporati per riferimento.
Nel caso delle illuminazioni/osservazioni tipicamente eseguite, la scelta suddetta è indipendente dalla geometria dell’OUT, dalla posizione e dall’orientamento di RO, RTx ed RRx in RL.
Nel caso di illuminazione/osservazione non standard, la definizione delle direzioni/posizioni di illuminazione e dei punti di osservazione può richiedere informazioni aggiuntive rispetto al caso di illuminazione/osservazione standard sulla geometria dell’OUT, sulla posizione ed orientamento di RO , RTx ed RRx in RL durante tutta la scansione.
Qualora si abbiano a disposizione informazioni sulla posizione, geometria e orientamento in RL di una macroregione all’interno della quale è contenuto l’OUT assieme alle informazioni sulla posizione ed orientamento di RTx ed RRx in RL, ancora una volta queste informazioni possono essere utilizzate per definire le direzioni/posizioni di illuminazione/osservazione.
Quanto detto si estende in modo del tutto analogo al caso in cui il sistema di caratterizzazione in cui siano presenti più di una ATx e/o più di una ARx.
Inoltre, come ad esempio descritto in G.F. Masters, “Evaluating near-field range multipath”, Proc. of the 14th AMTA Symp., Columbus, OH, Oct. 19-23, 1992, in O.M. Bucci, A. Capozzoli, C. Curcio, G. D’Elia, S. Musto, “A filtering strategy of the environmental noise on near-field data and its application to near-field far-field transformation techniques”, in Proc. of the 3rd ESA Workshop on Millimetre Wave Tech. and Appl., Espoo, Finland, 2003, pp. 609-614, ed in O.M. Bucci, G. D’Elia, M.D. Migliore, “A general and effective clutter filtering strategy in near-field antenna measurements”, IEE Proc.-Microw. Antennas Prop., vol. 151, n. 3, pp. 227-235, Jun. 2004, documenti qui incorporati per riferimento, sia nella caratterizzazione near-field di antenne AUT che di diffusori OUT, le informazioni sul supporto dell’OUT, se accessibile, o dell’AUT, ossia sulla loro posizione, orientamento e geometria, possono essere utilizzate da un opportuno algoritmo di elaborazione, di seguito chiamato algoritmo di filtraggio dei dati di campo, raccolti per migliorare:
1. il rapporto segnale–clutter (“Signal to Clutter Ratio” - SCR), ossia il rapporto tra l’intensità del contributo ai dati di campo raccolti dovuto all’AUT o OUT (il segnale utile) e l’intensità del contributo ai dati di campo dovuto alle riflessioni ambientali;
2. il rapporto segnale–rumore (“Signal to Noise Ratio” - SNR), ossia il rapporto tra l’intensità del contributo ai dati di campo raccolti dovuto all’AUT o OUT (il segnale utile) e l’intensità del contributo ai dati di campo dovuto al rumore di misura prodotto dalla catena di misura e dalla strumentazione impiegata;
3. l’errore di troncamento, ossia l’errore di caratterizzazione dovuto alle limitazioni imposte al dominio di misura.
Pertanto, risulta essenziale, allo scopo di avere caratterizzazioni con adeguata accuratezza, avere a disposizione le informazioni di RA/RO, di RP/RTx-RAx e della geometria dell’AUT/OUT in RL.
Con caratterizzazione far-field di un’antenna si intende la determinazione dei suoi parametri radiativi a partire da misure effettuate su un dominio di scansione contenuto nella zona di Fraunhofer dell’antenna, come definito, ad esempio, nello standard IEEE 149-1979 (R2008) precedentemente citato.
Un sistema di caratterizzazione far-field di antenne è costituito dall’antenna da caratterizzare AUT, da un’antenna che può fungere da sonda o da illuminatore Probe e da un sistema di movimentazione, o sistema di scansione, dell’AUT e/o del Probe.
Per semplicità di descrizione, nel seguito ci si riferisce al caso standard in cui il Probe opera in trasmissione e viene mantenuto fermo, mentre l’antenna AUT opera in ricezione e viene movimentata, essendo gli altri casi analoghi.
Il sistema di caratterizzazione deve garantire il corretto posizionamento ed orientamento sia del Probe che dell’AUT e, nel caso dell’AUT, il posizionamento e l’orientamento devono essere assicurati per l’intera durata della scansione al fine di garantire che le direzioni di illuminazione dell’AUT siano quelle desiderate.
Inoltre, il sistema di scansione ha il compito di assegnare adeguate direzioni di illuminazione in dipendenza delle caratteristiche geometriche dell’AUT allo scopo di ridurre i tempi di misura e gli effetti di clutter e rumore.
Come fatto per la caratterizzazione near-field, anche nel caso far-field si introduce un primo sistema di riferimento RL detto “di laboratorio”, un secondo sistema di riferimento RA solidale con l’AUT ed un terzo sistema di riferimento RP solidale con il Probe.
Affinché sia possibile effettuare con adeguata accuratezza la caratterizzazione dell’AUT in far-field è necessario che la posizione e l’orientamento di RA ed RP in RL corrispondano, durante tutta la scansione, a quelle desiderate. Inoltre, informazioni sulla geometria dell’AUT e sulla posizione ed orientamento di RA in RL sono necessarie per poter definire al meglio le direzioni di illuminazione.
Pertanto, risulta essenziale acquisire informazioni sulla geometria dell’AUT e sul sistema di scansione per poter agire sui posizionatori sia del Probe che dell’AUT in modo da soddisfare le condizioni suddette conoscendo, con adeguata precisione, posizione ed orientamento di RA ed RP in RL.
A questo punto si passa a descrivere le misure di Radar Cross Section (RCS).
In particolare, la misura della Radar Cross Section, o sezione radar, di un diffusore OUT richiede la misura del campo lontano diffuso dall’OUT (ovvero in zona di Fraunhofer dell’OUT) qualora sia illuminato da un’onda elettromagnetica che sia localmente piana nella regione dell’OUT, come descritto in E.F. Knott, M.T. Tuley, J.F. Schaeffer, “Radar cross section”, 2nd edition, New York, SciTech Publishing, 2003, documento qui incorporato per riferimento.
A tal proposito in figura 4 viene mostrato schematicamente un sistema di misura RCS di esempio.
In particolare, in figura 4 viene mostrato un sistema di caratterizzazione della RCS di un OUT, costituito dal diffusore OUT da caratterizzare, dall’illuminatore ATx che genera l’onda localmente piana su esso incidente, da un’antenna che funge da sonda ARx posta nella zona di Fraunhofer del campo diffuso dall’OUT e da un sistema di movimentazione.
La caratterizzazione può essere di tipo monostatico o bistatico a seconda che ATx ed ARx coincidano o meno. Nel primo caso è necessario disporre di opportuna circuiteria per separare il segnale trasmesso da quello ricevuto.
Il sistema di scansione deve garantire che l’OUT venga illuminato da direzioni pre-definite e che il campo diffuso venga osservato anch’esso in direzioni pre-definite.
Inoltre, il sistema di scansione ha il compito di definire tali direzioni di illuminazione/osservazione in dipendenza delle caratteristiche geometriche dell’OUT allo scopo di ridurre i tempi di misura e gli effetti di clutter e rumore. In particolare,
1. nel caso di misure monostatiche, coincidendo direzioni di osservazione e di illuminazione, il sistema di movimentazione deve generare un movimento apparente operando sull’OUT, e tenendo ferma l’ATx/ARx, oppure un movimento reale mantenendo fermo l’OUT e movimentando l’ATx/ARx, garantendo, in entrambi i casi, il corretto posizionamento ed orientamento di ATx/ARx ed OUT per assicurare la corretta illuminazione/osservazione;
2. nel caso di misure bistatiche il sistema di movimentazione deve movimentare due delle tre componenti OUT, ATx, ARx generando un movimento apparente solo nel caso in cui sia movimentato l’OUT, garantendo, in ogni caso, il corretto posizionamento ed orientamento di ATx/ARx ed OUT per assicurare la corretta illuminazione/osservazione.
Come fatto precedentemente, si introduce, a questo punto, un primo sistema di riferimento RL detto “di laboratorio”, un secondo sistema di riferimento RO solidale con l’OUT, un terzo sistema di riferimento RTx solidale con ATx ed un quarto sistema di riferimento RRx solidale con ARx.
Affinché sia possibile effettuare con adeguata accuratezza la caratterizzazione della RCS dell’OUT è necessario che la posizione e l’orientamento di RO, RTx ed RRx in RL corrispondano, durante tutta la scansione, a quelle desiderate. Inoltre, informazioni sulla geometria dell’OUT e sulla posizione ed orientamento di RO, RTx ed RRx in RL sono necessarie per poter definire al meglio le direzioni di illuminazione/osservazione. Pertanto, risulta essenziale acquisire informazioni sul sistema di scansione per poter agire sui posizionatori di ATx, ARx ed OUT in modo da soddisfare le condizioni suddette conoscendo con adeguata precisione la geometria dell’OUT e la posizione ed orientamento di RO, RTx ed RRx.
Con caratterizzazione tramite CATR/PWS di un’antenna si intende la determinazione dei suoi parametri radiativi a partire da misure effettuate utilizzando un collimatore/sintetizzatore capace di generare/ricevere un’onda piana (prodotta in zona quieta) in una regione posta nella sua zona vicina, come descritto, ad esempio, in W. Menzel, B. Huder, “Compact range for millimetre-wave frequencies using a dielectric lens”, Electronics Letters, vol. 20, n. 19, pp. 768-769, Sept. 1984, in A.D. Olver, “Compact antenna test ranges”, Proc. of the 7th Int. Conf. on Antennas Prop. (ICAP), York, UK, Apr. 15-18, 1991, pp.
99-108, in C.C. Courtney, D.E. Voss, R. Haupt, L. LeDuc, “The theory and architecture of a plane-wave generator”, Proc. of the 24th AMTA Symp., Cleveland, Ohio, Nov. 3-8, 2002, pp. 353-358, in A. Capozzoli, G. D’Elia, “On the plane wave synthesis in the near-field zone”, Proc. of the Int. Conf. on Antenna Tech., Ahmedabad, India, Feb. 23-24, 2005, pp. 273-277, in T. Koskinen, J. Ala-Laurinaho, J. Säily, A. Lönnqvist, J. Häkli, J. Mallat, J. Tuovinen, A.V. Räisänen, “Experimental study on a hologram-based compact antenna test range at 650 GHz”, IEEE Trans. Antennas Prop., vol. 53, n. 9, pp. 2999-3006, Sept. 2005, in A. Capozzoli, C. Curcio, G. D’Elia, A. De Simone, A. Liseno, “An optimized approach to plane wave synthesis”, Proc. of the Antenna Measurement Technique Association Symp., Boston, MA, Nov. 16-21, 2008, ed in A. Capozzoli, C. Curcio, G. D’Elia, A. Liseno, P. Vinetti, “A novel approach to the design of generalized plane-wave synthesizers”, Proc. of the 3rd Europ. Conf. on Antennas Prop., Berlin, Germany, Mar. 23-27, 2009, documenti qui incorporati per riferimento.
Le problematiche sono analoghe a quelle già descritte per la caratterizzazione di un’antenna in far-field o per le misure di RCS di diffusori.
Infine, per misure volumetriche si intendono scansioni in cui il campo viene acquisito all’interno di volumi dello spazio. Esse possono essere di interesse ad esempio nel caso in cui si voglia valutare l’entità del campo all’interno di un volume posto nella zona vicina del radiatore a fini di compatibilità elettromagnetica o a fini di stima dell’accoppiamento con strutture circonvicine, come descritto, ad esempio, in O.M. Bucci, A. Capozzoli, G. D’Elia, “Power pattern synthesis of reconfigurable conformal arrays with near-field constraints”, IEEE Trans. Antennas Prop., vol. 52, n. 1, pp. 132-141, Jan. 2004, documento qui incorporato per riferimento.
Ancora una volta, per una corretta valutazione del campo, risulta necessario avere a disposizione un sistema che fornisca informazioni su posizione, orientamento e geometria del sistema sotto test SUT (“System Under Test”) e informazioni su posizione ed orientamento del Probe in un opportuno sistema di riferimento di laboratorio RL.
Gli effetti degli errori di posizionamento sull’accuratezza nella ricostruzione dei parametri di antenne, ovvero guadagno, larghezza di fascio, livello dei lobi laterali, cross-polarizzazione, direzione di puntamento del fascio e solido di radiazione, sono stati analizzati in letteratura, sia nel caso di scansioni farfield che nel caso di scansioni near-fied, grazie ad approcci analitici nel caso di sistemi planari, ad esempio nei documenti precedentemente citati A.C. Newell, “Error analysis techniques for planar near-field measurements”, e L.A. Muth, “Displacement errors in antenna near-field measurements and their effect on the far-field”, oppure grazie ad approcci numerico/sperimentali nel caso di sistemi sferici, come ad esempio in A.C. Newell, H. Hindman, “Quantifying the effect of position errors in spherical near-field measurements”, Proc. of the 20<th>Antenna Measur. Tech. Assoc. Annual Meeting and Symp., Montreal, Canada, Oct. 25-29, 1998, pp. 145-149, documento qui incorporato per riferimento.
Tali studi sono stati utilizzati per definire le principali sorgenti d’errore in sistemi di caratterizzazione di antenne, ad esempio il National Institute of Standards and Technology (NIST) ne ha identificati 18, nel formulare metodologie di valutazione della qualità di ambienti di misura e dunque delle relative incertezze sui parametri ricostruiti, e nel fornire le specifiche necessarie da soddisfare, in termini di posizionamento/orientamento, durante un procedimento di caratterizzazione.
Le specifiche in termini di incertezze sul posizionamento da soddisfare sono tipicamente dell’ordine di λ/100, come descritto, ad esempio, in D.S. Foosche, “Application of error correction technologies to near-field antenna measurement systems”, Proc. of the Aerospace Appl. Conf., New York, NY, Feb. 3-10, 1996, pp. 141-149, documento qui incorporato per riferimento.
Com’è noto, negli ultimi anni in letteratura sono state proposte differenti metodologie di allineamento/posizionamento per la caratterizzazione di antenne/diffusori.
In particolare, tali metodologie fino ad oggi proposte possono essere raggruppate nel seguente modo: metodologie di allineamento/posizionamento mediante livelle, teodoliti e specchi a 2 vie, metodologie di allineamento/posizionamento mediante misure elettromagnetiche e metodologie di allineamento/posizionamento mediante dispositivi ottici.
In particolare, le metodologie di allineamento/posizionamento mediante livelle, teodoliti e specchi a 2 vie, come descritto, ad esempio, in C.J. Brochu, J.W. Moffat, G.A. Morin, “Optical alignment of the spherical antenna measurement system”, Report no. 1316, Defence Research Establishment Ottawa, Ottawa, Nov. 1997, ed in O. Silvestre, “A fully integrated alignment process”, Proc. of the 1<st>ESA Space Syst. Design, Verif. & AIT Worshop, Noodwijk, The Netherlands, Jun. 13-14, 2002, documenti qui incorporati per riferimento, sono basate su una tecnologia e su procedure di autocollimazione ormai assestate e messe a punto a partire dalla fine degli anni ’70.
In dettaglio, le livelle ottiche vengono utilizzate per garantire che le direzioni di eventuali binari per la movimentazione trasversale di Probe e/o AUT/OUT siano orizzontali, ossia ortogonali alla direzione della forza di gravità, e che gli assi di rotazione di eventuali tavole rotanti siano verticali, ossia paralleli alla direzione della forza di gravità.
Le relative procedure di allineamento vengono impiegate tipicamente una tantum, spesso durante la realizzazione e l’installazione dei test range, successivamente per certificare la qualità del sistema di misura o, successivamente e periodicamente, per garantire la qualità delle caratterizzazioni nel tempo.
I teodoliti e gli specchi, che possono essere connessi magneticamente al dispositivo da testare o ad eventuali posizionatori, sono utilizzati per effettuare misure di precisione di angoli e dunque per garantire l’allineamento orizzontale degli assi dei dispositivi di posizionamento. Tipicamente, tali procedure di allineamento sono iterative in quanto richiedono all’operatore di valutare angoli e distanze per la correzione manuale delle orientazioni e delle posizioni del sistema di scansione.
Tuttavia, nei sistemi di caratterizzazione di antenne AUT e/o di diffusori OUT basati su metodologie di allineamento/posizionamento mediante livelle, teodoliti e specchi a 2 vie, la capacità di determinare e correggere errori nel posizionamento/allineamento dei dispositivi AUT/OUT e Probe è limitata da:
1. la necessità, da parte dell’operatore, di apprezzare correttamente le misure degli angoli effettuate con i teodoliti;
2. l’impossibilità di monitorare con continuità lo stato di allineamento/posizionamento del sistema di scansione durante l’intera durata delle misure;
3. la ridotta possibilità di installare specchietti riflettenti, anche a causa di eventuali indisponibilità di superfici dell’antenna stabili e facilmente accessibili, specialmente per antenne o test range di grandi dimensioni come descritto, ad esempio, in M. Hagenbeek, A.R. Boomstra, “Antenna alignment in a near-field test facility”, Proc. of the 25<th>Antenna Measur. Tech. Assoc., Irvine, CA, Oct. 19-24, 2003, documento qui incorporato per riferimento;
4. il lungo tempo complessivamente richiesto per le procedure d’allineamento.
L’ultimo aspetto non deve essere trascurato in quanto i lunghi tempi necessari alla preparazione dei test sperimentali incidono in modo significativo sui costi di esercizio.
Inoltre, le metodologie di allineamento/posizionamento mediante livelle, teodoliti e specchi a 2 vie non sono in grado di fornire al sistema di caratterizzazione le informazioni geometriche sull’AUT/OUT necessarie per rendere possibile e semplice la definizione dei punti/direzioni di osservazione/illuminazione e gli effetti di filtraggio desiderati e descritti precedentemente.
Per quanto riguarda, invece, l’allineamento/posizionamento basato su misure elettromagnetiche, come descritto nel documento precedentemente citato A.C. Newell, H. Hindman, “Quantifying the effect of position errors in spherical near-field measurements”, ed in G. Trueba, G. Junkin, “Numerical beam alignment procedure for planar near-field phase retrieval”, Electronics Letters, vol. 31, n. 14, pp.
1116-1117, Jul. 1995, documento qui incorporato per riferimento, le tecniche di allineamento/posizionamento mediante misure elettromagnetiche sono state sviluppate per i casi in cui non sia possibile posizionare specchi sull’AUT, oppure quando non siano disponibili strumenti ottici per l’allineamento, oppure in quei casi in cui la caratterizzazione venga fatta in near-field da dati di solo modulo e le due superfici di scansione richieste siano reciprocamente disallineate, come descritto in A. Capozzoli, C. Curcio, G. D’Elia, A. Liseno, “Millimeterwave phaseless antenna characterization”, IEEE Trans. Instr. Measur., vol. 57, n. 7, pp. 1330-1337, Jul. 2008, ed in A. Capozzoli, C. Curcio, G. D’Elia, A. Liseno, “Phaseless antenna characterization by effective aperture field and data representations”, IEEE Trans. Antennas Prop., vol. 57, n. 1, pp. 215-230, Jan. 2009, documenti qui incorporati per riferimento.
In particolare, per caratterizzazioni in modulo e fase, l’allineamento mediante misure elettromagnetiche è basato sul confronto di misure in near-field attese identiche oppure con differenze predicibili. Ad esempio, in un sistema di scansione sferico, offset angolari possono essere identificati attraverso tagli su piani principali di modulo e fase del campo vicino (near-field).
Invece, nel caso di acquisizioni in solo modulo, le informazioni sul disallineamento possono essere ricostruite a partire dai “centri” di gravità delle misure di solo modulo acquisite sulle due superfici di scansione e da informazioni a priori relative all’AUT/OUT da caratterizzare.
Tuttavia, nei sistemi di caratterizzazione di antenne AUT e/o di diffusori OUT basati su metodologie di allineamento/posizionamento mediante misure elettromagnetiche, la capacità di determinare e correggere errori nel posizionamento/allineamento dei dispositivi AUT/OUT e Probe è limitata da:
1. la frequenza di lavoro;
2. la disponibilità a priori di informazioni relative all’OUT/AUT e ai dispositivi utilizzati per la caratterizzazione;
3. gli inevitabili errori di misura;
4. la necessità, da parte dell’operatore, di interpretare correttamente le misure;
5. il tempo complessivamente richiesto per le misure e l’allineamento, specialmente nel caso di acquisizioni in solo modulo per le quali l’informazione sull’allineamento delle superfici di acquisizione è disponibile solo dopo la scansione di un’intera superficie.
Inoltre, le metodologie di allineamento/posizionamento mediante misure elettromagnetiche non sono in grado di fornire al sistema di caratterizzazione le informazioni geometriche sull’AUT/OUT necessarie per ottenere gli effetti di filtraggio desiderati e descritti precedentemente.
Infine, per quanto concerne l’allineamento/posizionamento mediante dispositivi ottici, recentemente sono stati sviluppati sistemi di allineamento/posizionamento basati su interferometri laser, come descritto, ad esempio, in G. Hindman, “Position correction on large near-field scanners using an optical tracking system”, Proc. of the Antenna Measur. Tech. Ass. Conf., Oct. 3-7, 1994, pp. 1-7, in J.A. Fordham, J. Proctor, D. Kremer, “Precision positioner alignment techniques for spherical near field antenna measurements using laser alignment tools”, Proc. of the 22<nd>Antenna Measur. Tech. Assoc., Philadelphia, PA, Oct. 19-24, 2000, e nella domanda di brevetto statunitense US5838430, documenti qui incorporati per riferimento.
Rispetto alle metodologie di allineamento/posizionamento precedentemente descritte, i sistemi basati su interferometri laser consentono di valutare e correggere errori di posizionamento/allineamento, potenzialmente anche in modalità real-time, garantendo accuratezze dell’ordine del micrometro.
Tuttavia, nei sistemi di caratterizzazione di antenne AUT e/o di diffusori OUT comprendenti sistemi di allineamento/posizionamento basati su interferometri laser, la capacità di determinare e correggere errori nel posizionamento/allineamento dei dispositivi AUT/OUT e Probe è limitata da:
1. la stabilità della sorgente ottica;
2. i lunghi tempi necessari per le acquisizioni;
3. l’intervento non trascurabile dell’operatore, sia nella fase di utilizzo che nell’uso delle informazioni raccolte per definire i punti/direzioni di osservazione/illuminazione, da cui necessariamente deriva una possibilità non remota di errori.
Inoltre, sebbene i sistemi di allineamento/posizionamento basati su interferometri laser siano tra i più avanzati attualmente disponibili, anch’essi, comunque, non sono in grado di fornire al sistema di caratterizzazione le informazioni geometriche sull’AUT/OUT necessarie per ottenere, ad esempio, gli effetti di filtraggio desiderati e precedentemente descritti.
Pertanto, scopo della presente invenzione è quello di fornire un sistema di caratterizzazione di antenne e/o diffusori che sia in grado di alleviare i suddetti svantaggi.
Il suddetto scopo è raggiunto dalla presente invenzione in quanto essa è relativa ad un sistema di determinazione di caratteristiche di radiazione/diffusione elettromagnetica di un oggetto sotto test, secondo quanto definito nelle rivendicazioni allegate.
Per una migliore comprensione della presente invenzione, alcune forme preferite di realizzazione, fornite a puro titolo di esempio esplicativo e non limitativo, verranno ora illustrate con riferimento ai disegni annessi (non tutti in scala), in cui:
- la Figura 1 mostra schematicamente un sistema di caratterizzazione near-field di antenne di esempio;
- la Figura 2 mostra un primo esempio di geometria di scansione planare;
- la Figura 3 mostra un secondo esempio di geometria di scansione planare;
- la Figura 4 mostra schematicamente un sistema di misure RCS di diffusori di esempio;
- la Figura 5 mostra schematicamente una configurazione geometrica di esempio di un sistema ottico attivo di digitalizzazione 3D;
- la Figura 6 mostra schematicamente una configurazione ottica di un componente del sistema ottico attivo di digitalizzazione 3D mostrato nella Figura 5; - la Figura 7 mostra un diagramma di flusso di un metodo implementato da un componente di un sistema ottico attivo di digitalizzazione 3D realizzato secondo la presente invenzione;
- la Figura 8 mostra, a sinistra, un oggetto da digitalizzare e, a destra, una prima immagine dell’oggetto ottenuta mediante una prima tecnica di illuminazione dell’oggetto secondo la presente invenzione;
- la Figura 9 mostra schematicamente un andamento spazio-temporale di esempio di pattern di luce utilizzati per illuminare un oggetto da digitalizzare secondo una seconda tecnica di illuminazione dell’oggetto secondo la presente invenzione;
- la Figura 10 mostra schematicamente un principio di funzionamento di una tecnica basata su codici Gray secondo la presente invenzione;
- la Figura 11 mostra seconde immagini dell’oggetto mostrato nella Figura 8 ottenute mediante la seconda tecnica di illuminazione dell’oggetto secondo la presente invenzione;
- la Figura 12 mostra un ingrandimento di una regione di una delle immagini mostrate nella Figura 11;
- la Figura 13 mostra, a sinistra, una delle immagini mostrate nella Figura 11 e, a destra, una corrispondente immagine ottenuta secondo la presente invenzione;
- la Figura 14 mostra, in alto a sinistra, una delle immagini mostrate nella Figura 11, in alto a destra, una corrispondente immagine ottenuta mediante una terza tecnica di illuminazione dell’oggetto mostrato nella Figura 8 secondo la presente invenzione, ed, in basso, un’immagine ottenuta, secondo la presente invenzione, sulla base dalle due immagini in alto;
- la Figura 15 mostra quattro grafici che rappresentano due esempi di un’operazione di binarizzazione di valori di intensità di pixel di immagini secondo la presente invenzione;
- la Figura 16 mostra un esempio grafico di una maschera di selezione di pixel ottenuta secondo la presente invenzione;
- la Figura 17 mostra schematicamente un esempio di una decodifica Gray implementata secondo la presente invenzione;
- la Figura 18 mostra un esempio grafico di una distribuzione spaziale di codici Gray estratti secondo la presente invenzione;
- la Figura 19 mostra una distribuzione spaziale di una fase relativa di esempio calcolata secondo la presente invenzione;
- la Figura 20 mostra una relazione che intercorre tra un periodo spaziale di una funzione sinusoidale sfruttata dalla presente invenzione per comporre primi pattern di luce ed un’estensione spaziale di codici Gray sfruttati dalla presente invenzione;
- la Figura 21 mostra un esempio di una distribuzione spaziale di una fase relativa calcolata secondo la presente invenzione e di una distribuzione spaziale di valori assunti da un particolare bit di codici Gray sfruttati dalla presente invenzione;
- la Figura 22 mostra un risultato di un’operazione di ri-allineamento secondo la presente invenzione delle due distribuzioni spaziali mostrate nella Figura 21;
- la Figura 23 mostra un esempio di una distribuzione spaziale di una fase assoluta calcolata sulla base delle due distribuzioni spaziali mostrate nella Figura 21;
- la Figura 24 mostra un esempio di una distribuzione spaziale di una fase assoluta calcolata sulla base delle due distribuzioni spaziali ri-allineate mostrate nella Figura 22;
- la Figura 25 mostra un esempio grafico di una distribuzione spaziale di una fase assoluta calcolata secondo la presente invenzione; e
- la Figura 26 mostra un grafico tridimensionale dei valori della distribuzione spaziale della fase assoluta mostrata nella Figura 25.
La seguente descrizione viene fornita per permettere ad un tecnico del settore di realizzare ed usare l’invenzione. Varie modifiche alle forme di realizzazione presentate saranno immediatamente evidenti a persone esperte ed i generici principi qui divulgati potrebbero essere applicati ad altre forme realizzative ed applicazioni senza, però, per questo uscire dall’ambito di tutela della presente invenzione.
Quindi, la presente invenzione non deve essere intesa come limitata alle sole forme realizzative descritte e mostrate, ma le deve essere accordato il più ampio ambito di tutela coerentemente con i principi e le caratteristiche qui presentate e definite nelle annesse rivendicazioni.
Secondo la presente invenzione viene realizzato un sistema di determinazione di caratteristiche di radiazione/diffusione elettromagnetica di un oggetto sotto test.
In particolare, l’oggetto sotto test può essere un’antenna, un diffusore, o un sistema radiativo.
In dettaglio, se l’oggetto sotto test è un’antenna, il sistema di determinazione di caratteristiche di radiazione/diffusione elettromagnetica di un oggetto sotto test è configurato per:
• determinare caratteristiche di radiazione dell’antenna in un dato dominio di scansione non contenuto nella zona di Fraunhofer dell’antenna, di seguito dette misure near-field dell’antenna; o
• determinare caratteristiche radiative dell’antenna a partire da dati misurati in un dato dominio di scansione contenuto nella zona di Fraunhofer dell’antenna, di seguito dette misure far-field dell’antenna; o
• determinare, tramite CATR/PWS (“Compact Antenna Test Range”/”Plane Wave Synthesizer”), caratteristiche di radiazione dell’antenna a partire da dati raccolti in zona quieta, di seguito dette misure CATR/PWS dell’antenna .
Invece, se l’oggetto sotto test è un diffusore, il sistema di determinazione di caratteristiche di radiazione/diffusione elettromagnetica di un oggetto sotto test è configurato per:
• determinare caratteristiche di diffusione del diffusore a partire da dati misurati in un dato dominio di scansione non contenuto nella zona di Fraunhofer del diffusore, di seguito dette misure near-field del diffusore; o
• determinare una sezione radar (RCS) del diffusore a partire da dati misurati in un dato dominio di scansione contenuto nella zona di Fraunhofer del diffusore, di seguito dette misure far-field del diffusore; o
• determinare, tramite CATR/PWS (“Compact Antenna Test Range”/”Plane Wave Synthesizer”), caratteristiche di diffusione del diffusore a partire da dati in zona quieta di seguito dette misure CATR/PWS del diffusore.
Infine, se l’oggetto sotto test è un sistema radiativo/diffusivo, il sistema di determinazione di caratteristiche di radiazione/diffusione elettromagnetica di un oggetto sotto test è configurato per:
• misurare un campo elettromagnetico radiato/diffuso dal sistema all’interno di un dato volume contenuto in un dato dominio di scansione non contenuto nella zona di Fraunhofer del sistema radiativo.
Inoltre, il sistema di determinazione di caratteristiche di radiazione/diffusione elettromagnetica di un oggetto sotto test secondo la presente invenzione comprende, come elemento di novità rispetto alla tecnica nota, un sistema di determinazione di forme tridimensionali di oggetti, anche detto di digitalizzazione 3D, a luce strutturata codificata configurato per determinare una geometria, una posizione ed un orientamento, rispetto ad un predefinito sistema di riferimento, dell’oggetto sotto test.
In particolare, se l’oggetto sotto test è un’antenna, il sistema di digitalizzazione 3D a luce strutturata codificata è configurato per determinare anche una geometria, una posizione ed un orientamento, rispetto al predefinito sistema di riferimento, di un’antenna di sistema usata, dal sistema di determinazione di caratteristiche di radiazione/diffusione elettromagnetica di un oggetto sotto test, come illuminatore o come sonda al fine di determinare le caratteristiche di radiazione dell’antenna.
Invece, se l’oggetto sotto test è un diffusore, il sistema di digitalizzazione 3D a luce strutturata codificata è configurato per determinare anche una geometria, una posizione ed un orientamento, rispetto al predefinito sistema di riferimento, di un illuminatore e di un ricevitore usati, dal sistema di determinazione di caratteristiche di radiazione/diffusione elettromagnetica di un oggetto sotto test, per determinare le caratteristiche di diffusione del diffusore.
In dettaglio, il sistema di digitalizzazione 3D a luce strutturata codificata è configurato per generare, attraverso un’opportuna procedura di elaborazione descritta di seguito, un insieme di punti rappresentativo della superficie dell’oggetto sotto test e, preferibilmente, anche dell’antenna di sistema o dell’illuminatore e del ricevitore.
In questo modo, a partire dai dati sulla geometria, posizione ed orientamento suddetti forniti dal sistema di digitalizzazione 3D a luce strutturata codificata, è possibile determinare i punti/direzioni di osservazione e le direzioni di illuminazione.
Inoltre, a partire dai dati di geometria, posizione ed orientamento suddetti, il sistema di digitalizzazione 3D a luce strutturata codificata fornisce anche le informazioni necessarie all’elaborazione efficiente dei dati misurati, ad esempio, per filtrare i contributi indesiderati.
Peraltro, preferibilmente, il sistema di determinazione di caratteristiche di radiazione/diffusione elettromagnetica di un oggetto sotto test comprende anche un sistema automatico di movimentazione configurato per realizzare, sulla base di dati forniti dal sistema di digitalizzazione 3D a luce strutturata codificata, un posizionamento dell’oggetto sotto test e, preferibilmente, anche dell’antenna di sistema o dell’illuminatore e del ricevitore in modo da realizzare l’allineamento automatico delle parti coinvolte e movimentate attraverso opportuni attuatori, allineamento che ènecessario per una corretta esecuzione delle misure di interesse.
Andando più nel dettaglio dell’invenzione, il sistema di digitalizzazione 3D a luce strutturata codificata è configurato per:
• acquisire coordinate di punti che definiscono dettagliatamente la geometria e la posizione dell’oggetto sotto test, ovvero l’antenna o il diffusore, nel predefinito sistema di riferimento, chiamato anche sistema di riferimento di laboratorio; ed
• acquisire coordinate di punti che definiscono dettagliatamente una geometria ed una posizione del dato dominio di scansione, ovvero dell’antenna di sistema o dell’illuminatore e del ricevitore, nel sistema di riferimento di laboratorio.
Quindi, sulla base delle informazioni fornite dal sistema di digitalizzazione 3D a luce strutturata codificata sulla geometria e la posizione dell’oggetto sotto test e sulla geometria e la posizione del dato dominio di scansione nel sistema di riferimento di laboratorio, il sistema di determinazione di caratteristiche di radiazione/diffusione elettromagnetica di un oggetto sotto test determina quei parametri necessari ad un utente per regolare manualmente un sistema di posizionamento manuale dell’oggetto sotto test, oppure, preferibilmente, comanda il sistema automatico di movimentazione in modo che quest’ultimo movimenti l’oggetto sotto test fino a portarlo in una posizione desiderata nel sistema di riferimento di laboratorio.
Inoltre, di nuovo sulla base delle informazioni fornite dal sistema di digitalizzazione 3D a luce strutturata codificata sulla geometria e la posizione dell’oggetto sotto test e sulla geometria e la posizione del dato dominio di scansione nel sistema di riferimento di laboratorio, il sistema di determinazione di caratteristiche di radiazione/diffusione elettromagnetica di un oggetto sotto test determina:
• nel caso di misure near-field dell’antenna, posizioni di osservazione di un campo elettromagnetico radiato/ricevuto dall’antenna;
• nel caso di misure far-field dell’antenna, direzioni di illuminazione/osservazione di un campo elettromagnetico radiato/ricevuto dall’antenna;
• nel caso di misure CATR/PWS dell’antenna, direzioni di illuminazione/osservazione di un campo elettromagnetico radiato/ricevuto dall’antenna;
• nel caso di misure near-field o far-field del diffusore, posizioni/direzioni di illuminazione e posizioni/direzioni di osservazione di un campo diffuso dal diffusore; e
• nel caso di misure CATR/PWS del diffusore, direzioni di illuminazione/osservazione di un campo diffuso dal diffusore.
Inoltre, di nuovo sulla base delle informazioni fornite dal sistema di digitalizzazione 3D a luce strutturata codificata sulla geometria e la posizione dell’oggetto sotto test e sulla geometria e la posizione del dato dominio di scansione nel sistema di riferimento di laboratorio, il sistema di determinazione di caratteristiche di radiazione/diffusione elettromagnetica di un oggetto sotto test è in grado di utilizzare un algoritmo di elaborazione dei dati di campo per migliorare il rapporto segnale-clutter SCR, il rapporto segnale-rumore SNR e per ridurre l’effetto dell’errore di troncamento.
Peraltro, preferibilmente, il sistema automatico di movimentazione è configurato anche per movimentare il sistema di acquisizione di dati di campo e/o illuminazione, ovvero l’antenna di sistema o l’illuminatore ed il ricevitore.
In tal caso, il sistema di determinazione di caratteristiche di radiazione/diffusione elettromagnetica di un oggetto sotto test comanda il sistema automatico di movimentazione dell’oggetto sotto test e del sistema di acquisizione di dati di campo e/o illuminazione allo scopo di realizzare una scansione completamente automatica.
Convenientemente, il sistema di determinazione di caratteristiche di radiazione/diffusione elettromagnetica di un oggetto sotto test comprende:
• il sistema di digitalizzazione 3D a luce strutturata codificata;
• un sistema di elaborazione;
• il sistema di acquisizione di dati di campo e/o illuminazione; e
• il sistema di posizionamento manuale dell’oggetto sotto test e del sistema di acquisizione di dati di campo e/o illuminazione per l’allineamento manuale, o, preferibilmente, il sistema automatico di movimentazione dell’oggetto sotto test e del sistema di acquisizione di dati di campo e/o illuminazione per l’allineamento automatico.
Di seguito viene descritto in dettaglio il sistema di digitalizzazione 3D a luce strutturata codificata secondo la presente invenzione.
In particolare, il sistema di digitalizzazione 3D a luce strutturata codificata, di seguito detto anche sistema di determinazione di una forma tridimensionale di un oggetto, ovvero l’oggetto sotto test e, preferibilmente, l’antenna di sistema o l’illuminatore ed il ricevitore, combina opportunamente informazioni ottenute sia mediante una codifica numerica, preferibilmente di tipo Gray, sia mediante uno spostamento di fase al fine di calcolare una distribuzione spaziale di una fase assoluta, ovvero non arrotolata nell’intervallo ]−pi ,pi ], cioè non compresa nell’intervallo ]−pi ,pi ], evitando l’impiego di algoritmi di srotolamento di fase.
In particolare, i codici Gray vengono usati per codificare un multiplo intero del periodo angolare 2㰀, mentre mediante una tecnica a spostamento di fase viene calcolata una fase arrotolata che rappresenta un contributo residuo della fase assoluta.
Quindi, in termini matematici, la fase assoluta φ viene calcolata secondo la seguente equazione:
dove kGCè l’intero derivante dalla codifica Gray, mentre ψ è il contributo residuo di fase dato dalla fase arrotolata.
Per una migliore comprensione della presente invenzione di seguito viene descritto in dettaglio il principio di misura su cui sono basate le tecniche di profilometria, ovvero di digitalizzazione 3D, basate su proiezioni di pattern di luce a frange.
In particolare, la profilometria tramite proiezione di pattern di luce a frange è basata su un’opportuna illuminazione dell’oggetto da digitalizzare.
Il concetto di base è molto semplice: un sistema, o pattern, di luce a frange viene proiettato sull’oggetto, se l’osservatore non è in asse con la direzione di proiezione, percepisce una deformazione del pattern originale. Tale deformazione è direttamente legata al profilo superficiale dell’oggetto.
Nei sistemi di digitalizzazione 3D che fanno uso di luce strutturata, tipicamente emessa da una sorgente di luce non coerente, si proiettano pattern di luce a frange sulla superficie dell’oggetto da misurare. Successivamente, tali pattern vengono acquisiti, tramite una fotocamera ad alta definizione, lungo una direzione diversa da quella di proiezione. Le immagini, così catturate, vengono memorizzate e successivamente utilizzate per recuperare l’informazione di profondità. Ovviamente, il recupero delle informazioni 3D avviene a valle del processo di acquisizione e per mezzo di opportune procedure di calcolo.
Sistemi di questo genere sono caratterizzati dalla capacità di acquisire le coordinate spaziali dell’intero campo inquadrato in una singola acquisizione (misura a campo intero).
Al fine di comprendere il principio di misura su cui sono basate le tecniche di profilometria basate su proiezioni di pattern di luce a frange si consideri, ad esempio, un sistema di digitalizzazione 3D comprendente:
• un’unità di proiezione che proietta su di un oggetto da digitalizzare pattern di luce a frange sinusoidali; ed
• una fotocamera che cattura, lungo una direzione diversa da quella di proiezione, immagini dell’oggetto su cui sono proiettati i pattern di luce a frange sinusoidali.
Ovviamente, più proiettori e più fotocamere potrebbero essere d’utilità.
In particolare, a tal riguardo, in figura 5 viene mostrata una configurazione geometrica di esempio del sistema di digitalizzazione 3D preso in considerazione, mentre in figura 6 viene mostrata una corrispondente configurazione ottica dell’unità di proiezione di detto sistema di digitalizzazione 3D.
Con riferimento alla figura 6, prendendo in considerazione un piano ξη ortogonale alla direzione di proiezione e situato ad una distanza Lpdalla lente di proiezione dell’unità di proiezione lungo tale direzione di proiezione, la distanza dξsu detto piano ξη tra due massimi di due frange adiacenti risulta essere:
dove p è il periodo spaziale imposto dall’unità di proiezione e mpè il fattore d’ingrandimento dell’unità di proiezione che dipende dall’ottica di proiezione e dalla distanza Lpdell’unità di proiezione dal piano ξη .
Con riferimento alla figura 5, si consideri ora il sistema di frange che viene proiettato dall’unità di proiezione su un piano di riferimento xy posto ad una distanza Lkdalla lente della fotocamera lungo un asse z ortogonale al piano di riferimento xy. Si consideri, inoltre, che il sistema di frange forma un angolo ϑ1 (x ) rispetto all’asse z.
A questo punto, assumendo che Lp>> xcosϑ0, dove ϑ0rappresenta l’angolo medio di proiezione, la frequenza spaziale locale lungo l’asse x del pattern di luce proiettato può essere espressa come:
Pertanto, quando un pattern di luce a frange è proiettato sul piano di riferimento xy, l’intensità delle frange è data da:
Quando le frange, rappresentate dall’equazione (4), sono proiettate sulla superficie di un oggetto da digitalizzare che ha una forma arbitraria, dette frange vengono deformate.
Sempre con riferimento alla figura 5, senza perdere di generalità, si ipotizza che il massimo di una particolare frangia sia virtualmente posizionato sul piano di riferimento xy in un punto P2. Sulla superficie dell’oggetto tale massimo è posizionato in un punto P1, mentre tale massimo viene visto dalla fotocamera come posizionato sul piano di riferimento xy in un punto P3.
Pertanto, mediante semplici considerazioni geometriche si ricava che lo spostamento P2P3è dato da:
dove z(x,y) rappresenta la distanza lungo l’asse z della superficie dell’oggetto dal piano di riferimento xy e ϑ 2 rappresenta l’angolo di vista.
Se la lente di proiezione dell’unità di proiezione e la lente della fotocamera sono poste ad uguale distanza dal piano di riferimento xy, ovvero se Lk− Lpcos ϑ0= 0, lo spostamento u(x,y) può essere espresso come:
Pertanto, il cambiamento di fase dell’equazione (4) può essere legato alla distanza geometrica u(x,y) tramite la seguente equazione:
Osservando l’equazione (7) si nota che la variazione di fase φprofilo(x ,y ) dipende dalla distanza della superficie dell’oggetto z(x,y) dal piano di riferimento xy e che la sensibilità del metodo aumenta all’aumentare dell’angolo medio di proiezione ϑ 0, mentre è inversamente proporzionale alla distanza dξ.
In queste condizioni, l’intensità del pattern di luce a frange sulla superficie dell’oggetto sarà:
Nell’ipotesi che il pattern di luce a frange venga osservato dalla fotocamera nella direzione dell’asse z con un ingrandimento mc<1, si ottiene:
dove r(x,y) è la riflettività della superficie su cui è proiettato il pattern di luce a frange.
Più sinteticamente, se il pattern di luce a frange è proiettato sulla superficie di un oggetto di forma arbitraria la cui superficie può essere espressa con z(x,y), detto pattern di luce a frange verrà deformato rispetto a quello che si otterrebbe illuminando il piano di riferimento xy.
In altre parole, il profilo della superficie dell’oggetto illuminato introduce una modulazione di fase legata alla morfologia dell’oggetto.
Pertanto, l’intensità del pattern di luce a frange sulla superficie dell’oggetto, così come visto dalla fotocamera a fattore di ingrandimento unitario, risulta essere:
dove
cos ϑ0
• fref= è la frequenza del pattern di luce a d ξ
frange sul piano di riferimento xy;
è la modulazione di fase
introdotta dall’illuminazione divergente;
• φprofilo(x ,y ) è la modulazione di fase causata dalla superficie dell’oggetto; e
• ψ (x,y )=φdiv(x,y ) φprofilo(x ,y ).
Pertanto, una volta ricavata la distribuzione spaziale di fase assoluta rappresentativa della modulazione di fase φprofilo(x ,y ) introdotta dalla superficie dell’oggetto, è possibile ricavare le variazioni di altezza/profondità dell’oggetto attraverso il legame espresso attraverso l’equazione (7).
Quindi, dopo aver definito il principio di misura su cui è basato il sistema di digitalizzazione 3D a luce strutturata codificata, di seguito viene descritto in dettaglio detto sistema facendo riferimento alla configurazione geometrica mostrata in figura 5.
In particolare, il sistema di digitalizzazione 3D a luce codificata strutturata è configurato per determinare una forma tridimensionale di un oggetto localizzato in una prima posizione in un piano di sistema, preferibilmente il piano zx in figura 5, definito da una prima direzione, preferibilmente la direzione z in figura 5, e da una seconda direzione, preferibilmente la direzione x in figura 5, perpendicolari tra loro.
Inoltre, il sistema di digitalizzazione 3D secondo la presente invenzione comprende:
• un’unità di proiezione, ad esempio un proiettore o un video-proiettore ad alta risoluzione basato su tecnologia “Digital Light Processing” (DLP), configurata per illuminare l’oggetto proiettando pattern di luce lungo una data direzione di proiezione, l’unità di proiezione essendo localizzata in una seconda posizione nel piano di sistema zx;
• un’unità di cattura di immagini, ad esempio una fotocamera o una videocamera digitale ad alta risoluzione, configurata per catturare immagini dell’oggetto lungo la prima direzione z, l’unità di cattura di immagini essendo localizzata in una terza posizione nel piano di sistema zx; ed
• un’unità di controllo ed elaborazione, ad esempio un computer o una workstation, accoppiata all’unità di proiezione ed all’unità di cattura di immagini.
In particolare, l’unità di controllo ed elaborazione è configurata per:
• controllare l’unità di proiezione in modo che proietti in successione primi pattern di luce ad intensità luminosa spazialmente periodica lungo una terza direzione in un ipotetico piano di proiezione definito dalla terza direzione e da una quarta direzione, preferibilmente la direzione y in figura 5, perpendicolari tra loro, detto ipotetico piano di proiezione essendo ortogonale alla data direzione di proiezione e trasversale alla seconda direzione x, i primi pattern di luce, lungo la terza direzione, avendo uno stesso periodo spaziale TPSed essendo spazialmente sfasati tra loro, i primi pattern di luce essendo preferibilmente pattern di luce a frange sinusoidali in cui le frange sono trasversali alla terza direzione;
• controllare l’unità di proiezione in modo che proietti una sequenza temporale di secondi pattern di luce, detta sequenza temporale veicolando codici identificativi, preferibilmente codici Gray, ed essendo tale da associare ad una posizione lungo la terza direzione nell’ipotetico piano di proiezione un rispettivo codice identificativo veicolato che è indicativo di un corrispondente numero intero di periodi spaziali compiuti dall’intensità luminosa di un dato primo pattern di luce in detta posizione rispetto ad una predefinita posizione di riferimento lungo la terza direzione nell’ipotetico piano di proiezione;
• controllare l’unità di cattura di immagini in modo che catturi, per ogni primo pattern di luce proiettato, una corrispondente prima immagine dell’oggetto illuminato e, per ogni secondo pattern di luce proiettato, una corrispondente seconda immagine dell’oggetto illuminato;
• acquisire dall’unità di cattura di immagini le prime e le seconde immagini;
• calcolare, sulla base delle prime immagini, sfasamenti 㲀 dei primi pattern di luce risultanti nelle prime immagini a causa della forma tridimensionale dell’oggetto;
• elaborare le seconde immagini per estrarre i codici identificativi veicolati;
• calcolare valori di una fase assoluta φ sulla base degli sfasamenti calcolati 㲀 e dei codici identificativi estratti kGC; e
• determinare, ovvero misurare, la forma tridimensionale, ovvero il profilo tridimensionale, dell’oggetto sulla base dei valori della fase assoluta φ calcolati.
In particolare, i valori della fase assoluta φ sono calcolati mediante l’equazione (1).
Per poter descrivere con maggior dettaglio il sistema di digitalizzazione 3D a luce strutturata codificata secondo la presente invenzione, in figura 7 viene mostrato un diagramma di flusso di un metodo 70 implementato dall’unità di controllo ed elaborazione per misurare il profilo tridimensionale dell’oggetto.
In particolare, il metodo 70 comprende, innanzitutto, due processi completamente indipendenti, ovvero:
• un processo per il raffinamento della fase comprendente un’acquisizione delle prime immagini (blocco 71) ed un calcolo di primi contributi di fase (blocco 72), il processo per il raffinamento della fase essendo basato su una tecnica a spostamento di fase; ed
• un processo per il calcolo del contributo di fase grossolano comprendente un’acquisizione delle seconde immagini (blocco 73) ed un calcolo di secondi contributi di fase (blocco 74), il processo per il calcolo del contributo di fase grossolano essendo basato sui codici Gray.
Inoltre, il metodo 70 comprende anche un calcolo della fase assoluta (blocco 75) sulla base dell’equazione (1) ed una determinazione del profilo tridimensionale dell’oggetto (blocco 76) sulla base della fase assoluta calcolata.
Di seguito viene descritta con maggior dettaglio la tecnica a spostamento di fase su cui è basato il processo per il raffinamento della fase.
In particolare, la distribuzione di fase residua, cioè il primo contributo di fase arrotolato 㲀 che appare al secondo membro dell’equazione (1), è ottenuta con la tecnica a spostamento di fase. Questa tecnica richiede l’acquisizione di una molteplicità di prime immagini illuminando l’oggetto sotto esame con una sequenza di pattern di luce a frange sinusoidali, ovvero i primi pattern di luce, opportunamente sfasati spazialmente l’uno dall’altro di una certa quantità.
Preferibilmente, bisogna disporre di almeno tre prime immagini dell’oggetto in esame e, nel caso più generale in cui siano N le prime immagini acquisite, si parlerà di spostamento di fase ad N passi.
A tal riguardo, in figura 8 viene mostrato, a sinistra un oggetto, in particolare una testa in marmo, e, a destra, un prima immagine di esempio dell’oggetto illuminato da un corrispondente primo pattern proiettato.
A questo punto, si prenda in considerazione un pattern di luce a frange proiettato su un oggetto di forma arbitraria. Il pattern di luce a frange è poi spazialmente sfasato di un angolo δiper N volte, dove δiè l’angolo del quale viene spazialmente sfasato l’i-esimo pattern rispetto a quello iniziale, ed N indica il numero di prime immagini che si intende acquisire, preferibilmente, come già detto, almeno tre.
In generale, l’i-esima prima immagine acquisita si può esprimere come:
dove f è la frequenza del pattern di luce a frange su un piano immagine xy definito dalla quarta direzione y e dalla seconda direzione x che sono tra loro perpendicolari, r(x,y) è la riflettività della superficie dell’oggetto, φdiv(x ,y ) è la modulazione di fase introdotta dall’illuminazione divergente, e φprofilo(x ,y ) è la modulazione di fase causata dalla superficie dell’oggetto.
L’equazione (11) può essere riscritta come:
Per semplicità si ponga:
Quindi, si può riscrivere l’equazione (12) come:
Si può ora utilizzare il metodo dei minimi quadrati:
L’errore è minimizzato differenziando rispetto alle tre incognite a0(x, y ), a1(x, y ), a2(x, y ) ed uguagliando a zero le tre equazioni così ottenute. La risoluzione simultanea di queste tre equazioni produce il risultato ai minimi quadrati, che si traduce nella seguente equazione matriciale:
dove
La matrice A ( δi) è funzione solo degli sfasamenti spaziali δidei primi pattern di luce, mentre B (x,y, δi) è composto dalla somma pesata delle intensità delle prime immagini acquisite.
Una volta determinati a0(x, y ), a1(x, y ), a2(x, y ), la fase può essere ricavata dalle equazioni (15) e (16):
I valori di sfasamento spaziale δinon devono necessariamente essere uniformemente spaziati e possono essere distribuiti in un intervallo anche maggiore di 2㰀.
Si consideri, tuttavia, la scelta di N sfasamenti uniformemente spaziati tra 0 e 2㰀, cioè:
In questo caso, tutti i termini della matrice A ( δi) che non si trovano sulla diagonale sono nulli, e ciò conduce ad una soluzione più semplice, ovvero:
A questo punto, invece, si vuole descrivere con maggior dettaglio anche il processo per il calcolo del contributo di fase grossolano basato sui codici Gray.
In particolare, secondo la presente invenzione viene utilizzato il metodo a codifica Gray che, rispetto ad altre soluzioni attualmente in fase di studio e di utilizzo, richiede un numero maggiore di pattern di luce proiettati e, quindi, un tempo di acquisizione maggiore, ma risulta decisamente più affidabile e robusto e, ad ogni modo, si rivela comunque più rapido di un sistema basato su sorgente laser.
Infatti, in pratica, una sequenza di n pattern di luce con la tecnica basata sui codici Gray corrisponde a 2<n>acquisizioni con la metodologia del piano laser.
La caratterizzazione della scena, con la codifica Gray, avviene attraverso la proiezione di una particolare sequenza temporale di pattern di luce sull’oggetto da scansionare, ovvero i secondi pattern di luce. Ogni secondo pattern luce nella sequenza temporale presenta spazialmente strisce bianche e nere alternate ed opportunamente disposte, la cui larghezza è pari alla metà di quella nel secondo pattern di luce precedente, vale a dire che il periodo nel tempo va progressivamente dimezzandosi.
In particolare, a tal riguardo, in Figura 9 è mostrata schematicamente e a titolo di esempio una struttura di una sequenza temporale di secondi pattern di luce usati in una codifica Gray a 5 bit.
In base al numero n di secondi pattern di luce proiettati si possono differenziare 2<n>bande larghe la metà del semiperiodo spaziale più piccolo. Ad ognuna di esse è associato un codice binario a n bit, il cui bit i-esimo vale uno o zero a seconda che nel secondo pattern i-esimo la relativa striscia risulti bianca o nera.
Chiaramente è inutile adoperare un codice binario con un numero di bit n superiore a quello minimo necessario per poter distinguere un numero di strisce pari al numero di pixel del proiettore nella direzione ortogonale alle strisce, ovvero la terza direzione.
In altri termini, se la risoluzione del proiettore consente di proiettare un certo numero di strisce, è inutile usare un codice in grado di distinguerne un numero maggiore.
In particolare, dal punto di vista concettuale, per ottenere le coordinate di un punto nello spazio basta intersecare il raggio ottico relativo all’immagine del punto stesso nella fotocamera con il piano di luce del proiettore che passa per il punto. Il punto nello spazio è dato quindi dall’intersezione di un raggio ottico (che nella fotocamera si traduce in un punto) e da un piano di luce (che nel proiettore risulta una retta). E’ possibile, quindi, ricostruire tridimensionalmente un oggetto a partire da questa corrispondenza punto-retta.
In figura 10 viene mostrato schematicamente il principio di funzionamento della tecnica basata sui codici Gray.
In particolare, come mostrato nella figura 10, dal momento che le superfici dell’oggetto sottoposto a scansione sono investite da questa sequenza di strisce bianche e nere, anche ogni pixel dell’immagine dell’oggetto presenterà una certa sequenza di illuminazione, e da quest’ultima si può ricavare un codice. A questo punto, si è in grado di stabilire per ogni punto dell’immagine dell’oggetto quale sia la striscia corrispondente nel proiettore.
A tal riguardo, in figura 11 viene mostrata una sequenza di seconde immagini di esempio ciascuna illuminata da un rispettivo secondo pattern di luce proiettato.
In definitiva, a partire dalle n seconde immagini dell’oggetto in esame, investito dagli n secondi pattern di luce sopra menzionati, è possibile, mediante un processo di decodifica, associare ad ogni pixel del piano immagine xy della fotocamera un codice binario a n bit.
Tuttavia, mentre il codice dei pixel del proiettore è perfettamente noto, per i pixel della fotocamera si possono presentare notevoli ambiguità.
Infatti, il colore e la riflettività non uniforme dell’oggetto in esame, la diversa inclinazione e la mutua illuminazione delle sue superfici, la non netta separazione tra le zone illuminate e quelle non illuminate, i possibili problemi di scarso contrasto e di saturazione delle seconde immagini, la risoluzione differente e limitata della fotocamera e del proiettore e la conseguente pixelizzazione fanno sì che nella realtà i punti della seconda immagine acquisita dalla fotocamera siano di tutta una gamma di livelli di grigio intermedi tra il bianco e il nero, rendendo così i codici non individuabili in maniera così semplice come avviene per il proiettore.
A tal riguardo, in figura 12 viene mostrato un esempio di zona di transizione dal bianco al nero in una seconda immagine acquisita.
È necessario, dunque, a monte dell’operazione di decodifica per la determinazione dei codici, avviare un’operazione di binarizzazione delle seconde immagini acquisite. Questa operazione è indispensabile per poter assegnare a ciascun pixel un valore pari ad uno o a zero, a seconda che il corrispondente livello di grigio superi o meno un valore di soglia opportunamente fissato. In altre parole, la binarizzazione trasforma un’immagine a più livelli di grigio in un’immagine a due soli livelli, ovvero, in bianco e nero.
A tal riguardo, in figura 13 è mostrato un esempio di binarizzazione di una seconda immagine.
In particolare, nella figura 13 a sinistra viene mostrata una seconda immagine acquisita a più livelli di grigio, mentre a destra viene mostrata la stessa seconda immagine binarizzata.
Preferibilmente, allo scopo di migliorare la binarizzazione nelle zone di transizione, in cui non è evidente la netta discontinuità tra i toni di grigio, ma si manifesta un gradiente che si estende limitatamente a qualche pixel, in aggiunta agli n secondi pattern di luce (pattern positivi), si proiettano n terzi pattern di luce ottenuti dai secondi pattern di luce invertendone l’intensità luminosa dei pixel (pattern negativi), come proposto in S. Barone, A. Curcio, A. Razionale, “A structured light stereo system for reverse engineering applications”, IV Seminario Italo-Spagnolo, Reverse Engineering Techniques and Applications, Vol. 1 , pp. 65– 74, 2003, articolo che viene qui incorporato per riferimento.
In questo modo, ad ogni seconda immagine positiva corrisponde una seconda immagine negativa nella quale i livelli di grigio sono invertiti.
Le immagini ottenute per differenza tra le seconde immagini positive e negative presentano una più ampia dinamica e quindi una migliore definizione ed un maggiore contrasto; infatti, intensificando il gradiente nel passaggio chiaro/scuro, risulta maggiormente distinguibile il confine tra una fascia illuminata ed una banda oscura.
A tal riguardo, in figura 14 viene mostrato un confronto tra una seconda immagine positiva (in alto a sinistra), la corrispondete seconda immagine negativa (in alto a destra) e la seconda immagine “differenza” ottenuta dalla differenza delle due precedenti.
Un’ulteriore miglioria dell’operazione di binarizzazione si può ottenere utilizzando un valore di soglia dinamico anziché costante come proposto in G. Wiora, “Optische 3D-Messtechnik: präzise gestaltvermessung mit einemerweiterten streifenprojektionsverfahren”, PhD Thesis, Ruprechts-Karls Universität Heidelberg, 2001, tesi che viene qui incorporata per riferimento.
Quindi, convenientemente, il valore di soglia è variabile spazialmente nel piano immagine xy, mentre è costante nel tempo, ovvero, varia tra pixel appartenenti alla seconda immagine acquisita, mentre, una volta fissata la collocazione del pixel nel piano immagine xy, non cambia nel passaggio tra le differenti seconde immagini acquisite in sequenza.
Come valore numerico della soglia si può, quindi, utilizzare la media aritmetica delle intensità riferite alle suddette n seconde immagini “differenza”, cioè:
dove la presenza delle coordinate x e y mette in rilievo la variabilità della soglia µ (x,y ) in senso bidimensionale.
A tal riguardo, in figura 15 viene mostrato:
• in alto a sinistra un primo grafico rappresentante i valori di intensità di alcuni pixel in una seconda immagine differenza insieme ai corrispondenti valori di soglia calcolati per la binarizzazione;
• in basso a sinistra un secondo grafico rappresentante i valori di intensità binarizzati dei pixel del primo grafico;
• in alto a destra un terzo grafico rappresentante i valori di intensità di alcuni pixel in un’altra seconda immagine differenza insieme ai corrispondenti valori di soglia calcolati per la binarizzazione; e
• in basso a destra un quarto grafico rappresentante i valori di intensità binarizzati dei pixel del terzo grafico.
Inoltre, con la finalità di sottoporre al processo di decodifica unicamente le parti d’interesse ed eliminare eventuali zone d’ombra, andranno binarizzati soltanto i punti discreti del piano immagine xy la cui deviazione standard risulti maggiore di un valore di soglia minimo, costante per tutte le seconde immagini e dedotto in maniera sperimentale.
In particolare, la deviazione standard σ (x,y ) viene calcolata mediante la seguente equazione:
L’intera operazione di binarizzazione è sintetizzata nella seguente espressione:
dove bi(x ,y ) rappresenta il valore binarizzato d’intensità del pixel nella generica posizione (x,y) nella i-esima seconda immagine differenza.
Al termine dell’operazione di binarizzazione, l’evoluzione temporale di un singolo pixel appartenente al piano immagine xy è tracciabile attraverso un vettore binario di n elementi, ottenuto per discretizzazione a due livelli delle n intensità luminose che lo stesso pixel ha assunto nelle n seconde immagini acquisite.
Sulla base di quanto esposto, i pixel che non sono di interesse o che risultano non validi, sono caratterizzati da un vettore nullo, in cui cioè tutti gli elementi sono uguali a zero.
Tutto ciò consente di generare, in maniera molto semplice, una maschera di selezione dei pixel validi M(x,y) molto utile ai fini della ricostruzione tridimensionale:
dove il simbolo di sommatoria è da intendersi nel senso dell’algebra booleana.
A tal riguardo, in figura 16 è mostrato un esempio grafico di maschera di selezione dei pixel validi M(x,y) espressa analiticamente dall’espressione (28).
In particolare, in figura 16 le aree bianche rappresentano i pixel appartenenti alla maschera di selezione dei pixel validi, ovvero i pixel validi, mentre le aree nere rappresentano i pixel non validi.
Infine, per quanto riguarda la tecnica basata sui codici Gray, viene applicato un algoritmo di decodifica.
In particolare, tale algoritmo di decodifica prevede di ricavare il codice associato al generico pixel in posizione (x,y) applicando il seguente algoritmo ricorsivo:
con
dove bi(x ,y ) è dato dall’espressione (27).
Un esempio di decodifica Gray a 5 bit è mostrato in figura 17.
In particolare, lo schema illustrato in figura 17 mette in evidenza come due codici Gray adiacenti differiscano di un solo bit. Pertanto, una errata classificazione di un singolo bit comporterà un errore pari al passo di codifica. Utilizzando, invece, una codifica binaria semplice, una analoga anomalia comporterebbe, nel peggiore dei casi, un errore di decodifica pari alla metà dell’intervallo di codifica.
Inoltre, in figura 18 è mostrato un esempio grafico di una distribuzione spaziale di codici Gray estratti mediante il processo per il calcolo del contributo di fase grossolano basato sui codici Gray finora descritto.
In particolare, nella figura 18 è importante notare l’andamento crescente dei codici estratti da sinistra verso destra.
A questo punto, infine, si vuole descrivere con maggior dettaglio anche il calcolo della fase assoluta (blocco 75 in figura 7).
In particolare, finora è stato descritto come, partendo dall’acquisizione di due diverse sequenze di immagini inerenti all’oggetto da digitalizzare, ovvero le prime e le seconde immagini, si riescano a determinare le distribuzioni spaziali di codici numerici e di fasi residue che, prese singolarmente, non consentono di ricavare le informazioni profilometriche cercate, ma debbono essere opportunamente combinate.
Infatti, estendendo l’equazione (1), valida per un punto generico, a tutto il dominio di interesse definito attraverso la maschera di selezione dei pixel validi M(x,y) descritta dall’espressione (28), è possibile ottenere la distribuzione spaziale della fase assoluta φ (x,y ) che è direttamente legata alle variazioni di altezza/profondità dell’oggetto indagato, ovvero:
dove kGC(x ,y ) e ψ (x,y ) rappresentano le distribuzioni spaziali, rispettivamente, dei codici Gray estratti e delle fasi residue calcolate.
Più specificamente, si utilizzano i codici Gray kGC(x ,y ) per risolvere l’indeterminazione della fase residua ψ (x,y ) che si presenta arrotolata nell’intervallo ]−pi ,pi ].
A tal riguardo in figura 19 viene mostrata un esempio di distribuzione spaziale della fase relativa ψ (x,y ) per alcuni pixel.
Come si può notare nella figura 19 e come precedentemente detto, la fase relativa ψ (x,y ) si presenta arrotolata nell’intervallo ]−pi ,pi ] .
In ogni caso, combinare in maniera coerente le suddette distribuzioni comporta la sincronizzazione delle transizioni di codice con i salti di discontinuità che interessano la fase arrotolata.
L’ipotesi preliminare, da verificare a monte dello stadio di sincronizzazione, è che entrambi i set di pattern di proiezione, ovvero i primi ed i secondi pattern di luce, soddisfino una condizione di perfetto allineamento reciproco nell’ipotetico piano di proiezione.
Scendendo più nel dettaglio della tecnica di sincronizzazione secondo la presente invenzione, la funzione d’onda sinusoidale impiegata per comporre i primi pattern di luce deve, lungo la predefinita direzione nell’ipotetico piano di proiezione, sia esibire un periodo spaziale pari ad un multiplo intero dell’estensione spaziale di una parola codice, sia risultare in fase con i codici stessi.
Inoltre, l’estensione spaziale delle parole codice risulta essere la metà del semiperiodo dell’onda quadra correlata al bit meno significativo del codice Gray in uso, a cui corrisponde, tra l’altro, il secondo pattern di proiezione proiettato per ultimo ed avente le strisce più fitte.
A tal riguardo, in figura 20 viene mostrata la relazione tra il periodo spaziale dell’onda sinusoidale usata per comporre i primi pattern di luce e l’estensione spaziale dei codici numerici.
La condizione di sincronizzazione si può allora sintetizzare analiticamente come segue:
dove TPSè il periodo spaziale associato alle sinusoidi dei primi pattern di luce lungo la predefinita direzione nell’ipotetico piano di proiezione, AGCè l’estensione spaziale associata al passo della codifica Gray lungo la predefinita direzione nell’ipotetico piano di proiezione, ed m è il fattore moltiplicativo che indica il numero di parole codice contenute in un periodo spaziale TPSlungo la predefinita direzione nell’ipotetico piano di proiezione.
Introdotto il multiplo m, l’equazione (31), che conduce alla distribuzione di fase assoluta, va riscritta nel seguente modo:
dove con la notazione ⋅⋅ ⋅ si è inteso rappresentare la parte intera dell’argomento.
I possibili problemi di scarso contrasto e di saturazione delle prime e delle seconde immagini, la risoluzione differente e limitata della fotocamera e del proiettore, e la conseguente pixelizzazione, rendono tuttavia la condizione di sincronizzazione (32) insufficiente a garantire il perfetto allineamento di tutte le transizioni. Pertanto, prima di procedere alla determinazione della fase assoluta, si è pensato di operare un ulteriore “aggiustamento” dei confini che delimitano le transizioni di codice secondo le linee di demarcazione che identificano i salti della fase arrotolata.
Eventuali disallineamenti sono da imputare ad un’erronea valutazione, in fase di decodifica, del bit meno significativo del codice Gray. In altre parole, alcune delle transizioni che interessano il bit meno significativo LSB dei codici Gray estratti non sono sincronizzate con le rispettive transizioni di fase come mostrato in figura 21.
In particolare, obbligando un numero pari di parole codice ad occupare un periodo di variazione della fase, ovvero, limitando il fattore moltiplicativo m ad un multiplo di due, la transizione LSB da zero ad uno si verifica sempre in corrispondenza del passaggio di fase da 㰀 a -㰀.
Di conseguenza, è possibile effettuare un “riallineamento” tra codici estratti e fase arrotolata semplicemente correggendo l’ultimo bit in funzione del segno della fase arrotolata.
In ultima analisi, per ogni pixel valido appartenente al dominio di interesse, il bit meno significativo LSB del codice Gray estratto è posto a zero se la mappa di fase arrotolata valutata nelle medesime coordinate è positiva, ad uno altrimenti, cioè:
A tal riguardo, in figura 22 è riportato il risultato della correzione del bit meno significativo LSB rispetto all’esempio mostrato nella figura 21.
Inoltre, in figura 23 ed in figura 24 viene mostrato l’andamento spaziale della fase assoluta per alcuni pixel, rispettivamente, in assenza ed in presenza dell’azione correttiva per il bit meno significativo LSB.
In particolare, osservando le figure 23 e 24 si evince come i picchi dell’andamento spaziale della fase assoluta presenti nella figura 23 e causati dal disallineamento delle transizioni sopraindicate, vengano compensati mediante il criterio proposto e, quindi, non siano presenti nella figura 24.
Infine, in figura 25 ed in figura 26 viene mostrato, rispettivamente, in toni di grigio e tridimensionalmente, un esempio di distribuzione spaziale di fase assoluta ottenuta applicando l’intero procedimento riassunto dall’equazione (33).
Quindi, sulla base della distribuzione di fase assoluta ottenuta dal calcolo della fase assoluta (blocco 75 in figura 7) precedentemente descritto, si effettua la determinazione del profilo tridimensionale dell’oggetto (blocco 76 in figura 7), ovvero una localizzazione nel predefinito sistema di riferimento xyz, ovvero nel sistema di riferimento di laboratorio xyz, dei punti della superficie dell’oggetto sotto test, determinando così la geometria, la posizione e l’orientamento, rispetto al predefinito sistema di riferimento xyz, dell’oggetto sotto test.
Peraltro, la determinazione del profilo tridimensionale dell’oggetto (blocco 76 in figura 7) sulla base della distribuzione di fase assoluta può essere convenientemente effettuata sia mediante tecniche note sia mediante eventuali opportune tecniche non ancora pubbliche.
Inoltre, preferibilmente, il sistema di digitalizzazione 3D a luce strutturata codificata, mediante il procedimento descritto precedentemente, determina anche la geometria, la posizione e l’orientamento, rispetto al predefinito sistema di riferimento xyz, del dominio di scansione, ovvero dell’antenna di sistema o dell’illuminatore e del ricevitore.
Pertanto, riassumendo, partendo dalle immagini acquisite, ovvero le prime e le seconde immagini, il sistema di digitalizzazione 3D a luce strutturata codificata fornisce in uscita una nuvola di punti discreti localizzati nel predefinito sistema di riferimento xyz, ovvero nel sistema di riferimento di laboratorio xyz, detta nuvola di punti discreti rappresentando la geometria, la posizione e l’orientamento, rispetto al predefinito sistema di riferimento xyz, dell’oggetto sotto test.
Inoltre, preferibilmente, il sistema di digitalizzazione 3D a luce strutturata codificata fornisce in uscita anche:
• una seconda nuvola di punti discreti localizzati nel predefinito sistema di riferimento xyz, detta seconda nuvola di punti discreti rappresentando la geometria, la posizione e l’orientamento, rispetto al predefinito sistema di riferimento xyz, dell’antenna di sistema; oppure
• una terza ed una quarta nuvola di punti discreti localizzati nel predefinito sistema di riferimento xyz, detta terza e detta quarta nuvola di punti discreti rappresentando la rispettiva geometria, la rispettiva posizione e il rispettivo orientamento, rispetto al predefinito sistema di riferimento xyz, dell’illuminatore e del ricevitore.
Naturalmente, le nuvole di punti determinate dal sistema di digitalizzazione 3D a luce strutturata codificata sono anche visualizzabili su un display digitale del sistema di determinazione di caratteristiche di radiazione/diffusione elettromagnetica di un oggetto sotto test.
Per quanto concerne la verifica delle caratteristiche metrologiche da conseguire, con particolare riferimento all’incertezza delle misure, è comune l’utilizzo di oggetti campione (piani, sfere, ecc..), le cui caratteristiche superficiali e dimensioni fondamentali siano attestate.
Per il sistema di digitalizzazione 3D a luce strutturata codificata secondo la presente invenzione si è rinunciato all’uso di oggetti certificati perché avrebbe costituito una limitazione in quanto, da un lato, non avrebbe permesso di ottenere una stima puntuale dell’incertezza ma soltanto il confronto di alcuni parametri dimensionali globali (lunghezze, angoli, etc.), dall’altro, non avrebbe garantito la necessaria accuratezza, per effetto dell’interpolazione delle nuvole di punti fornite dal sistema di digitalizzazione 3D a luce strutturata codificata, al fine di approssimare la superficie dell’oggetto ed estrarne i parametri di interesse per il confronto.
Pertanto, per il sistema di digitalizzazione 3D a luce strutturata codificata secondo la presente invenzione si è scelto di svincolarsi dalla realizzazione di oggetti di forma canonica e di utilizzare per la verifica oggetti di forma arbitraria, che sono stati sottoposti a procedimento di misura sia dal sistema di digitalizzazione 3D a luce strutturata codificata, sia da una macchina di misurazione a coordinate (CMM) dotata di certificazione della sua incertezza. La nuvola di punti fornita dalla CMM va a costituire l’insieme di valori veri convenzionali disponibili per il confronto con la nuvola di punti misurata con il sistema di digitalizzazione 3D a luce strutturata codificata. Tale metodologia di confronto è stata pubblicata in A. Pietrosanto, C. Liguori, R. Anchini, G. Strazzullo, “Metrological verification of 3D scanners: a preliminary approach”, Proceedings of SPIE, Vol. 6491, Congresso IS&T/SPIE, Electronic Imaging 2007, Videometrics IX, documento qui incorporato per riferimento.
Lo scopo di un sistema di digitalizzazione 3D è quello di ottenere un modello tri-dimensionale dell’oggetto reale sottoposto alla scansione. È chiaro che, per ottenere una rappresentazione fedele, è necessario acquisire una quantità di informazioni sufficiente a descrivere completamente la superficie dell’oggetto stesso.
Si intuisce facilmente, inoltre, che una sola operazione di misura non basta per ottenere una descrizione completa dell’oggetto reale. Infatti, i sensori ottici sono posizionati in un punto ben preciso rispetto all’oggetto reale e riescono a misurare solo la porzione di superficie visibile da quel punto. Ciò vuol dire che ogni misurazione restituisce una vista dell’oggetto (si parla di range view o range image), e per una ricostruzione 3D completa è necessario acquisire molteplici viste, ognuna delle quali è ottenuta inquadrando l’oggetto stesso da un diverso punto di vista. Inoltre, per garantire una completa copertura della superficie da scansionare, è necessario che le range views siano parzialmente sovrapposte tra loro, in modo da scongiurare la possibilità di lasciare zone della superficie stessa non osservate.
È chiaro allora che le range views, così come sono ottenute nella fase di acquisizione, non sono utilizzabili per la ricostruzione tridimensionale della superficie dell’oggetto. Infatti, la k-esima range view può essere vista come un insieme di punti che rappresentano, nello spazio tri-dimensionale, la superficie inquadrata dal proprio punto di vista. Ciò vuol dire che ogni terna rappresenta l’i-esimo punto sulla superficie dell’oggetto reale, espresso nel sistema di riferimento solidale con la k-esima range view.
Quindi, un punto (xo,yo,zo), presente sia nella k-esima che nella n-esima range view, avrà coordinate diverse nelle due range views, in particolare nella k-esima e in quella n-esima.
Allo scopo di usufruire delle range views per ricostruire la superficie dell’oggetto sotto esame, è necessario, dunque, “allinearle“ tra di loro, in modo che siano espresse rispetto ad un unico sistema di riferimento, ovvero il sistema di riferimento di laboratorio.
La registrazione, o allineamento, si preoccupa proprio di determinare la trasformazione geometrica che porta le singole range view in un unico sistema di riferimento.
Il modo di operare della registrazione è molto semplice.
In generale, si considerano due viste che contengono porzioni comuni della superficie dell’oggetto, si fissa, quindi, una come riferimento e si “muove” l’altra rispetto alla prima fino a far “combaciare” i punti comuni tra le due viste.
Nell’ambito dei sistemi di digitalizzazione 3D, la registrazione costituisce una fase di particolare interesse. La sua importanza è legata principalmente a due aspetti tra di essi correlati: il primo è che alla fase di registrazione compete un costo sia in termini di tempi di esecuzione che in termini computazionali (elevato utilizzo delle risorse computazionali dell’unità di controllo ed elaborazione) maggiore rispetto a tutte le altre fasi di elaborazione eseguite dal sistema di digitalizzazione 3D; il secondo è che le performances delle fasi successive, nonché la qualità del modello tri-dimensionale finale generato, dipendono fortemente dal livello qualitativo con cui si ottiene la registrazione delle range views.
In letteratura sono citati molti metodi utili per risolvere i problemi di allineamento tra range views, ma soltanto uno è quello più quotato, e cioè quello basato sull’algoritmo ICP descritto in P.J. Besl and N.D. McKay, “A method for registration of 3-D shapes”, IEEE Transactions on Pattern Analysis and Machine Intelligence, Vol. 14 , No. 2, pp. 239–256, February 1992, documento qui incorporato per riferimento.
L’algoritmo ICP (acronimo di Iterative Closest Point) permette di allineare due insiemi tra loro.
In particolare, considerato P un insieme di dati da allineare ed X un insieme modello rispetto cui bisogna allineare P, l’obiettivo dell’ICP è determinare una matrice di roto-traslazione ( R | t ) che allinea “il meglio possibile”, secondo un criterio di minima distanza quadratica, l’insieme P sul modello X. La matrice di rototraslazione ( R | t ) è composta da una matrice R di rotazione 3x3 ed un vettore t di traslazione 1x3.
L’algoritmo ICP procede iterativamente. Inizialmente è richiesta una matrice di roto-traslazione di base ( R0| t0) che porta P “abbastanza vicino” a X. Successivamente si calcola, per ogni pidi P, il corrispondente valore xiin X che è il più vicino a pi, detto, appunto, closest point.
Una volta individuate tutte le coppie (xi, pi) di possibili match, si va a determinare la matrice ( R | t ) che minimizza la seguente funzione di costo:
dove N=dim(X)=dim(P).
Una volta determinata la matrice ( R1| t1) che minimizza E(.) si applicano a tutti i punti dell’insieme P la roto-traslazione ( R1| t1). A questo punto si riapplica la E(.) all’insieme P1ottenuto applicando la trasformazione ( R1| t1) a P. Così facendo si determina la nuova soluzione ( R2| t2) e si applica a P1la nuova trasformazione determinata, ricavando P2,e così via. Il procedimento è quindi iterativo e al generico passo k viene calcolata la matrice di roto-traslazione ( Rk| tk).
L’algoritmo ICP termina quando tra due trasformazioni successive l’insieme di dati P non ha subìto uno “spostamento considerevole” rispetto ad X (si parla di convergenza dell’algoritmo).
Tra i vantaggi dell’algoritmo ICP va citato che l’algoritmo ICP:
• è indipendente dalla rappresentazione della forma 3D;
• non richiede alcuna estrazione di features locali dell’oggetto scansionato;
• non richiede una pre-elaborazione delle nuvole di punti, sempre che la percentuale di punti outliers tenda a zero.
Tra gli svantaggi dell’algoritmo ICP va citato che l’algoritmo ICP:
• converge sempre verso un minimo locale; la convergenza globale può essere raggiunta in presenza di una elevata percentuale di sovrapposizione tra le due nuvole da registrare;
• ha un tempo di calcolo che cresce notevolmente in presenza di nuvole di punti di elevata cardinalità;
• è vulnerabile in presenza di una consistente percentuale di punti outliers.
La maggior parte delle tecniche di registrazione di nuvole di punti presenti in letteratura si basa sulla formulazione classica dell’algoritmo ICP fornita nel documento precedentemente citato P.J. Besl and N.D. McKay, “A method for registration of 3-D shapes”.
Ogni tecnica proposta presenta una o più varianti all’algoritmo classico, tese a migliorarne le prestazioni in relazione:
• al trattamento dei punti outliers;
• all’elevato costo computazionale, in presenza di nuvole di punti molto dense.
Il primo problema associato all’algoritmo ICP riguarda il trattamento dei punti outliers. Infatti, l’algoritmo non prevede un metodo esplicito per individuare e scartare quei punti che appartengono ad una nuvola ma che non hanno un punto effettivamente corrispondente sull’altra. Tali punti, detti appunto outliers, producono false coppie di closest points (si parla di “falsi match”), e, quindi, sono responsabili della qualità del risultato raggiunto dall’algoritmo.
Per quanto riguarda l’elevato costo computazionale, invece, questo dipende, principalmente, dalla procedura di ricerca dei closest points. Infatti, per ogni punto pidi P bisogna individuare il punto xipiù vicino sulla nuvola X.
Indicando rispettivamente con Nped Nxil numero di punti degli insiemi P ed X, la ricerca dei closest points, e quindi l’algoritmo ICP in generale, prevede una complessità O(Np⋅Nx). Questa complessità si paga in termini di elevati tempi di elaborazione, soprattutto in presenza di nuvole di punti da registrare molto dense.
Alcune varianti all’algoritmo ICP classico per il trattamento dei punti outliers sono note in letteratura, tra cui la tecnica basata sulle distanze di soglia descritta in Z. Zhang, “Iterative Point Matching for Registration of Free-Form Curves”, INRIA Sophia Antipolis, Research report N°1658, 1992, documento qui incorporato per riferimento.
Un’altra variante, detta a multi risoluzione, è descritta in T. Jost, “Fast Geometric Matching for Shape Registration”, PhD Thesis, Faculté des sciences de Université de Neuchatel, 2002, documento qui incorporato per riferimento.
Tale variante garantisce una drastica riduzione del tempo di calcolo necessario a registrare due nuvole di punti, se paragonato all’implementazione dello schema classico dell’algoritmo ICP.
L’algoritmo di allineamento automatico, sviluppato nel contesto dell’invenzione in oggetto, introduce alcune importanti varianti all’algoritmo ICP classico finalizzate, da un lato, al trattamento dei punti outliers e, dall’altro, alla riduzione del tempo di calcolo necessario a registrare due nuvole di punti.
L’algoritmo secondo la presente invenzione è in grado di tener traccia delle roto-traslazioni necessarie a riportare ogni nuvola di punti nel sistema di riferimento comune, ovvero il sistema di riferimento di laboratorio, e non richiede alcun target di riferimento da apporre sull’oggetto da digitalizzare.
Dalla precedente descrizione si possono immediatamente comprendere i vantaggi della presente invenzione.
In particolare, è importante notare come il sistema di determinazione di caratteristiche di radiazione/diffusione elettromagnetica di un oggetto sotto test secondo la presente invenzione sia in grado di garantire un’efficiente, accurata e veloce caratterizzazione dei parametri di radiazione/diffusione dell’oggetto sotto test grazie all’uso del sistema di digitalizzazione 3D a luce strutturata codificata descritto precedentemente.
In particolare, il sistema di digitalizzazione 3D a luce strutturata codificata offre ottime prestazioni in termini sia di robustezza ed affidabilità, sia di accuratezza e risoluzione delle misure grazie all’innovativa combinazione precedentemente descritta di una tecnica “digitale” basata sui codici Gray e di una tecnica “analogica” a spostamento di fase.
Inoltre, il sistema di digitalizzazione 3D a luce strutturata codificata offre ottime prestazioni anche per ciò che concerne l’ampliamento del volume di misura, la velocità di scansione, la versatilità e la semplicità d’uso.
In particolare, secondo la presente invenzione, si ottiene un’elevata velocità di scansione mediante l’uso di misure a campo intero che permettono di ridurre i tempi di acquisizione e di elaborazione.
Un ulteriore vantaggio del sistema di determinazione di caratteristiche di radiazione/diffusione elettromagnetica di un oggetto sotto test secondo la presente invenzione deriva dal fatto che, sulla base delle informazioni fornite dal sistema di digitalizzazione 3D a luce strutturata codificata sulla geometria e la posizione dell’oggetto sotto test e sulla geometria e la posizione del dato dominio di scansione nel sistema di riferimento di laboratorio, il sistema di determinazione di caratteristiche di radiazione/diffusione elettromagnetica di un oggetto sotto test è in grado di utilizzare un algoritmo di elaborazione dei dati di campo per migliorare il rapporto segnale-clutter SCR, il rapporto segnale-rumore SNR e per ridurre l’effetto dell’errore di troncamento.
Inoltre, in base alle informazioni fornite dal sistema di digitalizzazione 3D a luce strutturata codificata sulla geometria e la posizione dell’oggetto sotto test e sulla geometria e la posizione del dato dominio di scansione nel sistema di riferimento di laboratorio, il sistema di determinazione di caratteristiche di radiazione/diffusione elettromagnetica di un oggetto sotto test consente l’allineamento manuale o automatico delle parti coinvolte e movimentate attraverso opportuni attuatori.
Infine, risulta chiaro che varie modifiche possono essere apportate alla presente invenzione, tutte rientranti nell’ambito di tutela dell’invenzione definito nelle rivendicazioni annesse.

Claims (15)

  1. RIVENDICAZIONI 1. Sistema di determinazione di caratteristiche di radiazione/diffusione elettromagnetica di un oggetto sotto test configurato per determinare una caratteristica di radiazione/diffusione elettromagnetica dell’oggetto sotto test sulla base di una geometria, una posizione ed un orientamento dell’oggetto sotto test rispetto ad un predefinito sistema di riferimento (xyz); il sistema di determinazione di caratteristiche di radiazione/diffusione elettromagnetica di un oggetto sotto test essendo caratterizzato dal fatto di comprendere un sistema di digitalizzazione 3D a luce strutturata codificata configurato per determinare la geometria, la posizione e l’orientamento dell’oggetto sotto test rispetto al predefinito sistema di riferimento (xyz).
  2. 2. Il sistema della rivendicazione 1, in cui il sistema di digitalizzazione 3D a luce strutturata codificata è configurato per realizzare: • una fase di illuminazione dell’oggetto sotto test che comprende proiettare in successione primi pattern di luce ad intensità luminosa spazialmente periodica lungo una predefinita direzione in un ipotetico piano di proiezione ortogonale ad una data direzione di proiezione dei primi pattern di luce, i primi pattern di luce, lungo la predefinita direzione nell’ipotetico piano di proiezione, avendo uno stesso periodo spaziale (TPS) ed essendo spazialmente sfasati tra loro; la fase di illuminazione dell’oggetto comprendendo inoltre proiettare una sequenza temporale di secondi pattern di luce, detta sequenza temporale veicolando codici identificativi (kGC) ed essendo tale da associare ad una posizione lungo la predefinita direzione nell’ipotetico piano di proiezione un rispettivo codice identificativo veicolato (kGC) che è indicativo di un corrispondente numero intero di periodi spaziali compiuti dall’intensità luminosa di un dato primo pattern di luce in detta posizione rispetto ad una predefinita posizione di riferimento lungo la predefinita direzione nell’ipotetico piano di proiezione; • una fase di acquisizione di immagini dell’oggetto sotto test illuminato che comprende acquisire, per ogni primo pattern di luce proiettato, una corrispondente prima immagine dell’oggetto sotto test illuminato e, per ogni secondo pattern di luce proiettato, una corrispondente seconda immagine dell’oggetto sotto test illuminato; • una prima fase di calcolo (blocco 72) che comprende calcolare, sulla base delle prime immagini, sfasamenti (㲀) dei primi pattern di luce risultanti nelle prime immagini a causa di una forma tridimensionale dell’oggetto sotto test; • una fase di elaborazione (blocco 74) che comprende elaborare le seconde immagini per estrarre i codici identificativi veicolati (kGC); • una seconda fase di calcolo (blocco 75) che comprende calcolare valori di una fase assoluta (φ) sulla base degli sfasamenti calcolati (㲀) e dei codici identificativi estratti (kGC); ed • una fase di determinazione (blocco 76) che comprende determinare la geometria, la posizione e l’orientamento dell’oggetto sotto test, rispetto al predefinito sistema di riferimento (xyz), sulla base dei valori della fase assoluta (φ) calcolati.
  3. 3. Il sistema della rivendicazione 2, in cui proiettare in successione primi pattern di luce comprende proiettare, inizialmente, il dato primo pattern di luce e, successivamente, una pluralità di successivi primi pattern di luce ciascuno spazialmente sfasato, lungo la predefinita direzione nell’ipotetico piano di proiezione, di un dato valore (㭀i) rispetto al primo pattern di luce precedente.
  4. 4. Il sistema secondo la rivendicazione 2 o 3, in cui i primi pattern di luce sono pattern di luce a frange in cui le frange sono, nell’ipotetico piano di proiezione, trasversali alla predefinita direzione, in cui i codici identificativi veicolati (kGC) sono codici Gray binari, ed in cui i secondi pattern di luce sono pattern di luce ad intensità luminosa bilivello, ogni secondo pattern di luce proiettato veicolando un corrispondente bit dei codici identificativi veicolati (kGC); elaborare le seconde immagini comprendendo ottenere sulla base delle seconde immagini, per ogni seconda immagine, una corrispondente terza immagine ad intensità luminosa bilivello; la fase di elaborazione (blocco 74) comprendendo inoltre elaborare le terze immagini per estrarre da queste i codici identificativi veicolati (kGC).
  5. 5. Il sistema della rivendicazione 4, in cui le prime, le seconde e le terze immagini definiscono un piano immagine (xy) trasversale all’ipotetico piano di proiezione; i codici identificativi estratti (kGC) e gli sfasamenti calcolati (㲀) essendo associati a rispettive posizioni ((x,y)) nel piano immagine (xy); la seconda fase di calcolo (blocco 75) comprendendo inoltre correggere, per una data posizione ((x,y)) nel piano immagine (xy), un ultimo bit (LSB) di un dato codice identificativo estratto (kGC(x,y)) associato a detta data posizione ((x,y)) se detto ultimo bit (LSB) non soddisfa una condizione di sincronizzazione rispetto ad un dato sfasamento calcolato (㲀(x,y)) associato a detta data posizione ((x,y)), detta condizione di sincronizzazione essendo tale da garantire che il numero intero di periodi spaziali di cui è indicativo il dato codice identificativo estratto (kGC(x,y)) sia coerente con detto dato sfasamento calcolato (㲀(x,y)).
  6. 6. Il sistema secondo una qualsiasi rivendicazione 2-5, in cui il sistema di digitalizzazione 3D a luce strutturata codificata comprende: • un’unità di proiezione configurata per implementare la fase di illuminazione dell’oggetto sotto test; • un’unità di cattura di immagini configurata per catturare immagini dell’oggetto sotto test; ed • un’unità di controllo ed elaborazione accoppiata all’unità di proiezione ed all’unità di cattura di immagini e configurata per: - controllare l’unità di proiezione in modo che realizzi la fase di illuminazione dell’oggetto sotto test; - controllare l’unità di cattura di immagini in modo che catturi le prime e le seconde immagini; - acquisire dall’unità di cattura di immagini le prime e le seconde immagini; - implementare la prima fase di calcolo (blocco 72); - implementare la fase di elaborazione (blocco 74); - implementare la seconda fase di calcolo (blocco 75); ed - implementare la fase di determinazione (blocco 76).
  7. 7. Il sistema secondo una qualsiasi rivendicazione precedente, configurato inoltre per determinare, sulla base della geometria, della posizione e dell’orientamento dell’oggetto sotto test rispetto al predefinito sistema di riferimento (xyz), una specifica posizione nel predefinito sistema di riferimento (xyz), detta specifica posizione essendo tale per cui, se l’oggetto sotto test è posizionato in detta specifica posizione, è possibile determinare detta caratteristica di radiazione/diffusione elettromagnetica; il sistema di determinazione di caratteristiche di radiazione/diffusione elettromagnetica di un oggetto sotto test comprendendo inoltre un sistema automatico di movimentazione configurato per movimentare l’oggetto sotto test per posizionarlo in detta specifica posizione determinata.
  8. 8. Il sistema secondo una qualsiasi rivendicazione precedente, in cui l’oggetto sotto test è un’antenna configurata per radiare/ricevere un campo elettromagnetico, il sistema di determinazione di caratteristiche di radiazione/diffusione elettromagnetica di un oggetto sotto test comprendendo inoltre, all’interno di un dato dominio di scansione, un’unità di ricezione/radiazione configurata per ricevere/radiare detto campo elettromagnetico, il sistema di determinazione di caratteristiche di radiazione/diffusione elettromagnetica di un oggetto sotto test essendo configurato per determinare la caratteristica di radiazione/diffusione elettromagnetica dell’antenna anche sulla base di detto campo elettromagnetico.
  9. 9. Il sistema della rivendicazione 8, in cui il sistema di digitalizzazione 3D a luce strutturata codificata è inoltre configurato per determinare una geometria, una posizione ed un orientamento dell’unità di ricezione/radiazione rispetto al predefinito sistema di riferimento (xyz).
  10. 10. Il sistema secondo le rivendicazioni 7 e 9, configurato inoltre per determinare, sulla base della geometria, della posizione e dell’orientamento dell’unità di ricezione/radiazione rispetto al predefinito sistema di riferimento (xyz), una seconda specifica posizione nel predefinito sistema di riferimento (xyz), detta seconda specifica posizione essendo tale per cui, se l’unità di ricezione/radiazione è posizionata in detta seconda specifica posizione, è possibile determinare detta caratteristica di radiazione/diffusione elettromagnetica; il sistema automatico di movimentazione essendo inoltre configurato per movimentare anche l’unità di ricezione/radiazione per posizionarla in detta seconda specifica posizione determinata.
  11. 11. Il sistema secondo una qualsiasi rivendicazione 1-7, comprendente inoltre un’unità di radiazione configurata per radiare un campo elettromagnetico che investa l’oggetto sotto test, il sistema di determinazione di caratteristiche di radiazione/diffusione elettromagnetica di un oggetto sotto test comprendendo inoltre, all’interno di un dato dominio di scansione, un’unità di ricezione configurata per ricevere un campo elettromagnetico diffuso dall’oggetto sotto test quando viene investito dal campo elettromagnetico radiato dall’unità di radiazione, il sistema di determinazione di caratteristiche di radiazione/diffusione elettromagnetica di un oggetto sotto test essendo configurato per determinare la caratteristica di radiazione/diffusione elettromagnetica dell’oggetto sotto test anche sulla base di detto campo elettromagnetico ricevuto dall’unità di ricezione.
  12. 12. Il sistema della rivendicazione 11, in cui il sistema di digitalizzazione 3D a luce strutturata codificata è configurato per determinare anche una geometria, una posizione ed un orientamento dell’unità di radiazione rispetto al predefinito sistema di riferimento (xyz), ed una geometria, una posizione ed un orientamento dell’unità di ricezione rispetto al predefinito sistema di riferimento (xyz).
  13. 13. Il sistema secondo le rivendicazioni 7 e 12, configurato inoltre per determinare, sulla base della geometria, della posizione e dell’orientamento dell’unità di radiazione rispetto al predefinito sistema di riferimento (xyz), e sulla base della geometria, della posizione e dell’orientamento dell’unità di ricezione rispetto al predefinito sistema di riferimento (xyz), una terza specifica posizione ed una quarta specifica posizione nel predefinito sistema di riferimento (xyz), detta terza specifica posizione e detta quarta specifica posizione essendo tali per cui, se l’unità di radiazione e l’unità di ricezione sono posizionate, rispettivamente, in detta terza specifica posizione ed in detta quarta specifica posizione, è possibile determinare detta caratteristica di radiazione/diffusione elettromagnetica; il sistema automatico di movimentazione essendo inoltre configurato per movimentare anche l’unità di radiazione e l’unità di ricezione per posizionarle, rispettivamente, in detta terza specifica posizione ed in detta quarta specifica posizione.
  14. 14. Il sistema secondo una qualsiasi rivendicazione 8-13, in cui detto dato dominio di scansione è contenuto nella zona di Fraunhofer dell’oggetto sotto test.
  15. 15. Il sistema secondo una qualsiasi rivendicazione 8-13, in cui detto dato dominio di scansione non è contenuto nella zona di Fraunhofer dell’oggetto sotto test.
IT000219A 2009-05-06 2009-05-06 Sistema per caratterizzare antenne e/o diffusori ITRM20090219A1 (it)

Priority Applications (1)

Application Number Priority Date Filing Date Title
IT000219A ITRM20090219A1 (it) 2009-05-06 2009-05-06 Sistema per caratterizzare antenne e/o diffusori

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
IT000219A ITRM20090219A1 (it) 2009-05-06 2009-05-06 Sistema per caratterizzare antenne e/o diffusori

Publications (1)

Publication Number Publication Date
ITRM20090219A1 true ITRM20090219A1 (it) 2010-11-07

Family

ID=41258445

Family Applications (1)

Application Number Title Priority Date Filing Date
IT000219A ITRM20090219A1 (it) 2009-05-06 2009-05-06 Sistema per caratterizzare antenne e/o diffusori

Country Status (1)

Country Link
IT (1) ITRM20090219A1 (it)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4294544A (en) * 1979-08-03 1981-10-13 Altschuler Bruce R Topographic comparator
WO2008062407A2 (en) * 2006-11-21 2008-05-29 Mantisvision Ltd. 3d geometric modeling and 3d video content creation
US20080205748A1 (en) * 2007-02-28 2008-08-28 Sungkyunkwan University Structural light based depth imaging method and system using signal separation coding, and error correction thereof

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4294544A (en) * 1979-08-03 1981-10-13 Altschuler Bruce R Topographic comparator
WO2008062407A2 (en) * 2006-11-21 2008-05-29 Mantisvision Ltd. 3d geometric modeling and 3d video content creation
US20080205748A1 (en) * 2007-02-28 2008-08-28 Sungkyunkwan University Structural light based depth imaging method and system using signal separation coding, and error correction thereof

Similar Documents

Publication Publication Date Title
Feng et al. High dynamic range 3D measurements with fringe projection profilometry: a review
CN103673925B (zh) 用于测量对象物体的信息处理装置及方法
US10013767B2 (en) Method for measuring the interior three-dimensional movement, stress and strain of an object
CN110692084B (zh) 用于导出场景的拓扑信息的装置和机器可读存储介质
Cantwell et al. Low-frequency observations of the giant radio galaxy NGC 6251
Guidi Metrological characterization of 3D imaging devices
KR20230164248A (ko) 대치 채널을 갖는 3-차원 센서
JP2013178174A (ja) 複数の格子を用いた三次元形状計測装置
JP2018179665A (ja) 検査方法及び検査装置
Yu et al. Simplification of high order polynomial calibration model for fringe projection profilometry
Zhu et al. Calibration of line-structured light vision sensors based on simultaneous polarization imaging
EP3582183B1 (en) Deflectometric techniques
ITRM20090219A1 (it) Sistema per caratterizzare antenne e/o diffusori
KR101555027B1 (ko) 3차원 형상 측정 장치 및 방법
ITTO20130025U1 (it) Sistema per caratterizzare antenne e/o diffusori
Huang et al. Defocusing rectified multi-frequency patterns for high-precision 3D measurement
Liu et al. Investigation of phase pattern modulation for digital fringe projection profilometry
US11336883B2 (en) Method and system for three-dimensional surface measurement with a mobile device
Petković et al. Multiprojector multicamera structured light surface scanner
JP2017006468A (ja) 放射線撮像装置および微分方向推定方法
Egorov et al. Efficiency Evaluation of Noise Based Camera Measurements Algorithms
Guo et al. A 3D reconstruction algorithm based on spatial geometry constraint assisted phase structured light combined with camera parameters
Pribanic et al. Scene Adaptive Structured Light 3D Imaging.
Feng et al. 3D shape measurement method for multi-reflective scenes based on accurate pixel-by-pixel phase-error adjustment strategy
Pei et al. Accuracy measurement of object's 3D topography based on phase shifting profilometry