IT201800004673A1 - Procedimento e sistema per la rilevazione di difetti in uno pneumatico - Google Patents

Procedimento e sistema per la rilevazione di difetti in uno pneumatico Download PDF

Info

Publication number
IT201800004673A1
IT201800004673A1 IT102018000004673A IT201800004673A IT201800004673A1 IT 201800004673 A1 IT201800004673 A1 IT 201800004673A1 IT 102018000004673 A IT102018000004673 A IT 102018000004673A IT 201800004673 A IT201800004673 A IT 201800004673A IT 201800004673 A1 IT201800004673 A1 IT 201800004673A1
Authority
IT
Italy
Prior art keywords
image
images
tire
pixels
reference image
Prior art date
Application number
IT102018000004673A
Other languages
English (en)
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed filed Critical
Priority to IT102018000004673A priority Critical patent/IT201800004673A1/it
Priority to EP19169152.6A priority patent/EP3556576B1/en
Publication of IT201800004673A1 publication Critical patent/IT201800004673A1/it

Links

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60CVEHICLE TYRES; TYRE INFLATION; TYRE CHANGING; CONNECTING VALVES TO INFLATABLE ELASTIC BODIES IN GENERAL; DEVICES OR ARRANGEMENTS RELATED TO TYRES
    • B60C11/00Tyre tread bands; Tread patterns; Anti-skid inserts
    • B60C11/24Wear-indicating arrangements
    • B60C11/246Tread wear monitoring systems
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0004Industrial image inspection
    • G06T7/001Industrial image inspection using an image reference approach
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30108Industrial image inspection
    • G06T2207/30164Workpiece; Machine component

Landscapes

  • Engineering & Computer Science (AREA)
  • Mechanical Engineering (AREA)
  • Quality & Reliability (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Investigating Materials By The Use Of Optical Means Adapted For Particular Applications (AREA)
  • Tires In General (AREA)
  • Tyre Moulding (AREA)

Description

PROCEDIMENTO E SISTEMA PER LA RILEVAZIONE DI DIFETTI
IN UNO PNEUMATICO
DESCRIZIONE
Campo tecnico dell’invenzione
La presente invenzione si riferisce in generale al settore delle tecniche di analisi digitale, nei campi dell’image acquisition, dell’image processing e della computer vision. La presente invenzione si riferisce, più in particolare, ad un metodo e ad un apparato per rilevare la presenza di difetti sulla superficie di uno pneumatico.
Background
Il campo di applicazione della presente invenzione è costituito dai test endurance (o durability), ai quali vengono sottoposti gli pneumatici in fase di sviluppo. Si tratta di una tipologia di test che si svolgono su macchinari di prova: lo pneumatico viene montato su un asse e premuto per mezzo di una pressa su un tamburo cilindrico, o drum; quest’ultimo viene messo in rotazione da un motore elettrico, e fa a sua volta ruotare, per attrito, lo pneumatico, al quale vengono così imposti determinati valori di carico e di velocità di rotazione.
Nelle prove endurance, si applicano carichi elevati, dipendenti dalle dimensioni e dalla costruzione dello pneumatico, e una velocità medio-alta, oltre ad una data temperatura ambiente: la procedura di interesse prevede che tutti questi parametri siano mantenuti costanti durante l’intera durata della prova.
L’obiettivo dei test è la valutazione della resistenza meccanica a fatica dello pneumatico, e in particolare dei fianchi e dei talloni, che sono gli elementi più sollecitati nella fattispecie, e che danno luogo a diversi meccanismi di rottura. Le tipologie di failure che più frequentemente si riscontrano in tali test sono i crack, che costituiscono il principale oggetto di studio del presente progetto, e i bulge. I primi consistono in separazioni o fratture di materiale che hanno luogo all’interno della massa della gomma, e si propagano fino a manifestarsi sulla superficie sotto forma di intagli o crepe. I secondi consistono invece in rigonfiamenti della superficie di varia natura: nei test osservati sono stati dovuti usualmente alla formazione di bolle d’aria sotto la superficie del fianco, per effetto del distacco di quest’ultimo dalla carcassa all’interno.
Più rigorosamente, si può distinguere tra sidewall crack e bead crack in base alla posizione in cui si generano, e analogamente, tra sidewall bulge, bead bulge e innerliner bulge (questi ultimi non visibili esternamente).
I “crack” sono separazioni o fratture di materiale che hanno luogo all’interno della massa della gomma di uno pneumatico, e si propagano fino a manifestarsi sulla sua superficie sotto forma di intagli o crepe.
Tipicamente, si conducono dei test sugli pneumatici per identificare fenomeni di failure, in particolare dei suddetti crack, nei quali un aspetto significativo ai fini di una corretta valutazione della loro formazione e propagazione risiede nella tempestiva identificazione di questi ultimi.
Infatti, identificare il crack ad uno stadio precoce, ovvero quanto prima a partire dal momento in cui diventa visibile, equivale a poter studiare la rottura in un momento prossimo a quello della formazione.
Ad oggi, sono note molteplici metodologie volte all’identificazione dei suddetti crack, basate ad esempio sull’analisi delle wavelet, delle vibrazioni o anche del suono generati da uno pneumatico sottoposto a test.
Tuttavia, tali metodologie permettono di ottenere informazioni imprecise rispetto ai suddetti fenomeni, in quanto basate spesso su calcoli sperimentali e formule empiriche.
Attualmente, una tra le più diffuse tecniche per l’individuazione di failure su di uno pneumatico sottoposto a test, risulta essere l’ispezione visiva, che viene condotta da un operatore a intervalli di tempo regolari.
Questa operazione tuttavia implica l’attuazione di procedure di sicurezza, per la quale prima dell’ispezione vi deve tassativamente essere un periodo di fermo macchina utilizzata per supportare lo pneumatico durante il test, abbastanza lungo da consentire il raffreddamento di quest’ultimo.
Di conseguenza, per evitare tempi di svolgimento del test eccessivamente lunghi, l’ispezione visiva non può essere effettuata troppo frequentemente, e questo abbassa drasticamente la probabilità di osservare un crack allo stadio precoce. Ancora, ispezionare da vicino un oggetto in pressione ed eventualmente danneggiato è un’operazione potenzialmente pericolosa, in termini di sicurezza di un operatore addetto a tali attività.
La necessità di studiare approfonditamente il meccanismo di formazione e propagazione dei crack deriva dall’esigenza di migliorare specifiche prestazioni dello pneumatico, che attualmente porta alla ricerca di nuove costruzioni e mescole, e di una riduzione complessiva di peso. Il comportamento degli pneumatici di nuova concezione viene valutato anche attraverso l’impiego di modelli FEM, che richiedono dati precisi per simulare la propagazione delle crack con accuratezza, rispetto alle modalità effettive. Diventa allora fondamentale individuare a uno stadio più precoce possibile l’insorgere di un intaglio.
Sommario dell’invenzione
Lo scopo della presente invenzione è quindi quello di introdurre un innovativo metodo di ispezione da remoto dello pneumatico, che rendesse visibile tempestivamente la formazione di una failure, durante lo svolgimento del test.
L’idea per conseguire tale obiettivo è stata quella di implementare e mettere a punto un sistema di visione, in grado di permettere l’osservazione dei fianchi con elevata risoluzione e qualità dell’immagine.
Scopo della presente invenzione è dunque quello di superare le problematiche sopra esposte, e ciò è ottenuto attraverso un procedimento per la rilevazione in tempo reale di difetti nella superficie di uno pneumatico come definito dalla rivendicazione 1.
Oggetto della presente invenzione è altresì un apparato di rilevazione, come definito nella rivendicazione n.15.
Ancora ulteriore oggetto della presente invenzione è un programma per elaboratore atto ad implementare le procedure di acquisizione ed elaborazione delle immagini necessarie secondo il procedimento dell’invenzione, come definito nella rivendicazione n.16.
Ulteriori caratteristiche della presente invenzione sono definite nelle corrispondenti rivendicazioni dipendenti.
Un obiettivo è l’introduzione e la configurazione di un sistema di visione in grado di acquisire e analizzare immagini dei fianchi di uno pneumatico in rotolamento, durante lo svolgimento di test.
La peculiarità del sistema è quella di impiegare una fotocamera a scansione lineare, e nella fattispecie la messa a punto è stata limitata a una particolare tipologia di test a velocità di rotazione dello pneumatico costante.
L’attività, attraverso lo svolgimento di molteplici prove a bordo macchina, è stata orientata in primo luogo a maturare esperienza nel settaggio e nell’impostazione del sistema, in termini sia di posizionamento delle fotocamere e di regolazione dell’ottica, sia di scelta dei componenti hardware necessari all’acquisizione delle immagini e di regolazione dei relativi parametri di funzionamento. Successivamente all’individuazione di una configurazione stabile, e parallelamente al miglioramento di quest’ultima, l’interesse è stato volto anche alla problematica di sviluppare un software in grado di individuare, analizzando le immagini acquisite dal sistema, l’insorgere di una failure, in particolare di intagli o crack, sui fianchi dello pneumatico, in modo completamente automatico e durante lo svolgimento del test. Pertanto, da una prospettiva tecnico/scientifica di sviluppo di competenze, la tesi rientra in un contesto generale di tecniche di analisi digitale, proprie dei campi dell’Image Acquisition, dell’Image Processing, e della Computer Vision.
Dal punto di vista industriale, essa si lega agli ambiti dei controlli qualità e delle misurazioni sul prodotto, nei quali sta divenendo frequente l’implementazione di sistemi di visione basati su fotocamere matriciali e lineari, in grado di svolgere in modo automatico tali operazioni.
Nello specifico, l’invenzione rientra nell’ottica del monitoraggio dei test e dell’accrescimento del knowledge, in quanto costituisce uno dei primi approcci all’apprendimento e all’esperienza su tecniche approfondite di image processing, con l’obiettivo di introdurre un sistema di visione di utilizzo effettivo ed adattabile a più tipologie di test.
La presente invenzione, superando i problemi della tecnica nota, comporta numerosi ed evidenti vantaggi.
La principale peculiarità del progetto è l’impiego, per catturare le immagini, di una o due fotocamere lineari ad alta frequenza di scansione, posizionate in prossimità dei fianchi dello pneumatico, al posto di una comune fotocamera con sensore a matrice. Inoltre, anche l’algoritmo per la ricerca di oggetti sull’immagine differisce da quelli più comuni, perché l’immagine di un fianco di uno pneumatico presenta una complessa varietà di forme, oggetti e trame, ed è quindi difficoltoso determinare quali oggetti sono effettivamente dei crack. La strategia è quella di acquisire un’immagine-campione a intervalli di tempo regolari, e confrontarla, in termini di intensità dei pixel e di funzioni complesse basate su più invarianti, con la prima immagine ripresa all’avvio del test. Questo significa che la ricerca di oggetti non è svolta considerando solo la singola immagine-campione, ma analizzando le differenze rispetto a un’immagine di riferimento. Una regione viene considerata sospetta quando, tra un’immagine e l’altra, presenta variazioni significative nell’intensità dei pixel e nel numero di invarianti.
Per invarianti si intendono delle caratteristiche distintive dell’immagini, ossia dei punti notevoli che possono essere individuati su di essa, che solitamente vengono sfruttati nei problemi di object recognition oppure di image matching, per unire in modo coerente due o più immagini diverse di un oggetto o una scena.
La presente invenzione è relativa ad un metodo per rilevare in tempo reale difetti nella superficie di uno pneumatico. Tale metodo prevede di mettere il pneumatico in rotazione attorno al proprio asse ad una velocità predeterminata ed eseguire una scansione della sua superficie tramite acquisizione di immagini lineari, in sequenza ad una frequenza predefinita, da una fotocamera digitale lineare, per ottenere una sequenza di immagini complessive di detta superficie.
Si seleziona, poi, un’immagine di riferimento tra dette immagini complessive e si pre-processa ciascuna di dette immagini complessive, per normalizzarle in dimensione e/o luminosità e/o contrasto.
Successivamente si memorizza ciascuna immagine complessiva ottenuta, insieme a corrispondenti informazioni temporali che ne identificano l’istante di generazione, e si confronta ciascuna immagine complessiva, temporalmente successiva a detta immagine di riferimento, con detta immagine di riferimento, per rilevare la formazione di un difetto.
Si segnala infine la rilevazione della formazione di un difetto insieme all’istante di generazione della corrispondente immagine complessiva.
Il procedimento secondo la presente invenzione permette ad un operatore, dunque, di condurre l’ispezione di uno pneumatico in sicurezza e in minor tempo, perché possono osservare in tempo reale e da remoto lo stato di esso, senza dover interrompere il test con lunghe pause e senza doversi recare a bordo macchina per l’ispezione.
Inoltre, la rapidità e la flessibilità con cui è possibile eseguire l’ispezione permettono anche di controllare molto più frequentemente lo pneumatico, e al tempo stesso permettono una migliore programmazione delle attività quotidiane degli operatori. Risulta possibile anche decidere, con differenti tolleranze, il momento in cui arrestare la prova, per procedere eventualmente con ulteriori studi o test non distruttivi sullo pneumatico.
Ancora, tale soluzione conferisce anche vantaggi in termini tecnico-economici. Infatti, lo svolgimento di test privi di interruzioni da un lato impedisce che lo pneumatico abbia delle fasi di riposo, che comportano un certo raffreddamento e quindi un certo recupero a livello termico e meccanico, rendendo i risultati del test più rigorosi e affidabili.
In aggiunta, il tempo del test necessario all’identificazione del crack, risulta nettamente più breve rispetto alle tecniche note, ottenendo risultati più tempestivi e una maggiore disponibilità della macchina atta supportare il macchinario.
Ulteriori vantaggi, caratteristiche e modalità di impiego della presente invenzione, risulteranno evidenti dalla seguente descrizione dettagliata di sue forme di realizzazione preferite, presentate a scopo esemplificativo e non limitativo.
Breve descrizione delle figure
Verrà fatto riferimento alle figure dei disegni allegati, in cui:
• La figura 1 illustra un esempio di immagini raw;
• La figura 2 illustra un esempio di ricerca della posizione approssimata del bordo del cerchio;
• La figura 3 illustra un esempio di ricerca della posizione esatta del bordo del cerchio;
• La figura 4 illustra un esempio di immagine prima (a sinistra) e dopo (a destra) l’operazione di ritaglio;
• La figura 5 illustra un esempio di immagine prima (a sinistra) e dopo (seconda da sinistra) l’operazione di ritaglio di un giro di ruota;
• La figura 5A mostra un esempio di passo di ritaglio ed allineamento;
• La figura 6 illustra uno schema rappresentativo del funzionamento dell’interpolazione nearest-neighbor (a sinistra), bilineare (al centro), e bicubica (a destra);
• La figura 7 illustra un esempio di immagine affetta da aliasing (a sinistra) e la stessa immagine ottenuta con anti-aliasing (a destra);
• La Figura 8 mostra un esempio di immagine allungata e portata ad avere la stessa risoluzione lungo le due dimensioni;
• La figura 9 mostra un esempio di una funzione adottata per il calcolo dell’aumento di luminosità da assegnare a ciascun pixel;
• La figura 10 mostra un esempio di schiarimento di immagine;
• La figura 11 illustra un esempio di un dettaglio che mostra la suddivisione di un‘immagine in celle quadrate;
• La figura 12 illustra un grafico rappresentante i dati risultati per diversi parametri di qualità, applicati a mille esecuzioni dell’algoritmo;
• La figura 13 illustra un grafico rappresentante i dati risultati per diverse soglie di differenza minima del numero di corner, applicati a mille esecuzioni dell’algoritmo;
• Le figure da 14 a 16 mostrano il risultato della caratterizzazione delle immagini in termini di campo del vettore di spostamento;
• La figura 17 è un digramma di flusso esemplificativo di tale caratterizzazione;
• Le figure da 18 a 20 illustrano esempi di immagini di isolamento di un crack a differenti stadi di propagazione;
• La figura 21 illustra un esempio di andamenti della media cumulativa e della media aritmetica per righe;
• La figura 22 mostra un esempio di grafico corrispondente a una riga di pixel; • La figura 23 mostra un esempio dell’andamento della correlazione incrociata, nel caso dei due segnali mostrati in Figura 22;
• La figura 24 mostra un esempio di isolamento di cinque coppie di marker, sia sull’immagine di riferimento (sopra) che sull’immagine corrente;
• La figura 25 mostra per il parametro di solidità un esempio di regione associata a un crack e rappresentazione del poligono convesso;
• La figura 26 mostra per i parametri di eccentricità e rapporto tra gli assi un esempio di rappresentazione dell’ellisse equivalente;
• La figura 27 mostra per il parametro di estensione un esempio di rappresentazione della bounding box;
• La figura 28 mostra un esempio di grafici delle intensità medie delle righe di pixel, relativamente all’immagine di riferimento e all’immagine corrente, prima della correzione della luminosità;
• La figura 29 mostra un esempio di un dettaglio parziale di una mappa delle differenze di intensità;
• La figura 30 mostra un andamento della solidità in funzione dell’area, relativo a un singolo test;
• La figura 31 mostra un andamento della rotondità in funzione dell’area, relativo a un singolo test;
• La figura 32 mostra un andamento della solidità in funzione dell’area, calcolato su tutti i dati disponibili;
• La figura 33 mostra un andamento della solidità in funzione dell’area, calcolato su tutti i dati disponibili;
• La figura 34 mostra una mappa delle differenze di intensità in seguito alla selezione geometrica;
• La figura 35 mostra un esempio di funzionamento del metodo basato sulla cross-correlazione 2-D;
• La figura 36 mostra un esempio di funzionamento del metodo basato sul matching degli Harris-corner;
• La figura 37 mostra un confronto che mostra gli effetti dei due metodi rispettivamente di figura 35 e figura 36 nel trattamento del medesimo oggetti;
• La figura 38 mostra un crack reale individuato a test in corso;
• La figura 39 mostra esempi di falsi positivi causati da trucioli di gomma depositatisi sul fianco di uno pneumatico; e
• La figura 40 è uno schema esemplificativo e semplificato di un apparato secondo la presente invenzione.
Descrizione dettagliata di forme di realizzazione dell’invenzione
Di seguito verranno descritte alcune forme di realizzazione della presente invenzione, facendo riferimento alle figure suindicate.
L’idea alla base della presente invenzione è quella di presentare un metodo per il rilevamento automatico dei crack, provvisto di un sistema dotato di un programma di gestione personalizzato in funzione dei requisiti che si vogliono ottenere.
Secondo una forma di realizzazione preferita dell’invenzione, tale software è stato sviluppato in modo da portare il sistema ad avere le seguenti proprietà:
1. esso riceve in continuo le immagini di entrambi i fianchi dello pneumatico dalle fotocamere e le mostra costantemente su un display, con un effetto di slow-motion; questo consente di svolgere l’ispezione dello pneumatico da remoto, evitando che l’operatore debba recarsi a bordo macchina per l’ispezione visiva, che viene quindi eliminata assieme a tutti i rischi di sicurezza ad essa relativi; va inoltre sottolineato che l’ispezione remota avviene con lo pneumatico in rotolamento alla velocità di prova, cioè senza necessità di fermo macchina né di riduzioni di velocità, con i benefici di una minore durata del test, una maggiore disponibilità della macchina, e una migliore pianificazione delle attività degli operatori;
2. il sistema è inoltre in grado di acquisire, memorizzandole sull’hard disk del computer, delle immagini-campione da entrambi i fianchi, ad intervalli di tempo regolari, che in particolare vengono impostati nell’ordine di pochi minuti; questo intervallo di tempo costituisce di fatto la n uova frequenza di ispezione dello pneumatico, che quindi non sarà più di alcune ore come nel caso dell’ispezione visiva; chiaramente non è però plausibile avere degli operatori che controllino ogni nuova immagine appena ripresa, ed è quindi per questo moti vo che nasce l’esigenza di un software in grado di controllare ogni singola immagine e individuare con accuratezza la formazione di una failure;
3. le immagini-campione salvate in memoria vengono elaborate per ottenere un database di immagini tutte coerenti tra loro, ossia aventi tutte le stesse dimensioni in lunghezza e in altezza, e gli stessi punti di inizio e fine; questa fase sarà d’ora in poi indicata come elaborazione o pre processing dell’immagine, perché costituisce un passaggio preliminare alla ricerca di failure;
4. dopo averla elaborata, il software analizza ciascuna immagine-campione con lo scopo di individuare allo stato più precoce possibile l’insorgere di un crack nell’area del fianco, e mentre il test è in svolgimento, ossia senza che questo debba essere interrotto; questa fase sarà in seguito indicata come analisi o detection; 5. nel caso in cui venga rilevato un elemento sospetto, il software può inviare una e-mail di allarme ai soggetti interessati, in modo che possano essere intraprese tempestivamente delle azioni opportune, oppure, se collegato con l’apparecchiatura di controllo del macchinario, potrebbe arrestare direttamente il test.
In termini generali quindi, la presente invenzione prevede di mettere il pneumatico in rotazione attorno al proprio asse ad una velocità predeterminata ed eseguire una scansione della sua superficie tramite acquisizione di immagini lineari, in sequenza ad una frequenza predefinita, da una fotocamera digitale lineare, per ottenere una sequenza di immagini complessive di detta superficie.
Tali immagini vengono quindi elaborate, in particolare:
si seleziona, poi, un’immagine di riferimento tra dette immagini complessive e si pre-processa ciascuna di dette immagini complessive, per normalizzarle in dimensione e/o luminosità e/o contrasto.
Successivamente si memorizza ciascuna immagine complessiva ottenuta, insieme a corrispondenti informazioni temporali che ne identificano l’istante di generazione, e si confronta ciascuna immagine complessiva, temporalmente successiva a detta immagine di riferimento, con detta immagine di riferimento, per rilevare la formazione di un difetto.
Si segnala, infine, la rilevazione della formazione di un difetto insieme all’istante di generazione della corrispondente immagine complessiva
La fotocamera utilizzata, come già indicato è una fotocamera il cui sensore è composto da una singola linea di pixel, anziché da una matrice: questo la rende in grado di raggiungere frequenze di scansione molto elevate, in quanto l’intelligenza interna della camera e l’annessa rete di comunicazione gestiscono una mole di dati molto minore, poiché viene ricevuta da una linea di qualche migliaio di pixel, invece che da una matrice di alcuni milioni di elementi. Le singole linee acquisite vengono poi accostate l’una dopo l’altra, componendo quindi l’immagine finale.
Perciò, possono essere posizionate in prossimità del fianco, disponendo il sensore lungo la direzione radiale della ruota, ottenendo una buona risoluzione e luminosità dell’immagine, e al tempo stesso forniscono un’unica immagine del fianco ripresa in modo continuo, al posto di una serie immagini discontinue da processare e unire tra di esse.
Le prestazioni della fotocamera sono da selezionare in base al tipo di acquisizione da effettuare, le dimensioni dello pneumatico da esaminare, la velocità di rotazione predefinita, ad esempio 60 km/h.
Naturalmente potranno essere previste lenti e/o obiettivi e/o dispositivi di illuminazione per migliorare la ripresa.
Banche nella presente descrizione si faccia riferimento all’esame della superficie del fianco dello pneumatico, e più precisamente ad un apparato in grado di esaminare contemporaneamente i due fianchi, tramite due fotocamere disposte simmetricamente rispetto allo pneumatico, è evidentemente da intendersi che lo stesso procedimento potrà vantaggiosamente essere utilizzato anche per esaminare altre porzioni di superficie dello pneumatico, come ad esempio il battistrada, mettendo in atto i necessari adattamenti dell’apparato e posizionando opportunamente la/le fotocamere.
Acquisizione dell’immagine
Per l’implementazione del software di gestione è stato scelto l’ambiente di programmazione MATLAB, in quanto esso offre dei toolbox specifici per l’acquisizione e l’elaborazione di immagini, oltre a possibilità di interfaccia con numerosi protocolli e dispositivi. Il primo approccio, basato sull’utilizzo di una fotocamera Gigabit Ethernet, è stato quello di produrre un codice integrato per gestire l’acquisizione, l’elaborazione e l’analisi delle immagini.
Questo modo di procedere non ha però avuto successo, perché, soprattutto per acquisizioni prolungate come quelle necessarie per le prove in questione (della durata di alcuni giorni), l’acquisizione delle immagini non risultava del tutto stabile né, di conseguenza, affidabile. Ciò è probabilmente da imputare al fatto che l’applicazione è piuttosto esigente in termini di prestazioni per via dell’acquisizione in continuo, per cui è plausibile che il protocollo Gigabit Ethernet risultasse al limite, entrando in crisi a causa dell’ampiezza di banda limitata o della dimensione e gestione del buffer.
Pertanto, l’approccio definitivo è stato quello di impiegare una fotocamera funzionante con il protocollo Camera Link, in configurazione base.
La visualizzazione delle immagini in continuo sul display, e il salvataggio di immagini-campione a intervalli di tempo regolari, vengono eseguiti per mezzo di una versione personalizzata del software proprietario normalmente fornito assieme alla fotocamera. Le fasi di pre-processing e analisi dell’immagine (requisiti tre, quattro e cinque del l’elenco riportato nella Sezione 3.1), invece, restano competenza del codice sviluppato nell’ambito dell’attività di tesi, sempre implementato in ambiente MATLAB.
L’idea di base per il riconoscimento delle failure consiste nel confrontare le immagini-campione, acquisite e memorizzate a intervalli regolari di pochi minuti, con una immagine di riferimento, che può essere definita in diversi modi.
Il primo metodo adottato è stato quello di considerare come immagine di riferimento la prima immagine memorizzata subito dopo l’inizio del test: ciascuna delle immagini successive verrà quindi messa a confronto con questa, per osservare l’eventuale presenza di differenze, che con ogni probabilità possono essere dovute alla formazione di una failure.
Per contro, è intuitivo dedurre immediatamente le principali difficoltà riscontrate nella messa a punto del software: innanzitutto, idealmente le due immagini a confronto dovrebbero essere del tutto identiche, ad eccezione ovviamente della differenza da osserva dovuta alla failure.
Ciò non si verifica mai, perché, a prescindere da tutte le variabili che entrano in gioco all’atto dello scatto dell’immagine, le intensità luminose registrate da un dato pixel del sensore non saranno mai esattamente le stesse da un’immagine all’altra: in altre parole, se si osserva nel tempo il valore di intensità registrato da un dato pixel, di per sé esso già manifesta delle lievi oscillazioni, anche con macchina e pneumatico fermi e fotocamera fissa, ossia al di fuori delle condizioni di prova.
A tutto questo si aggiunge una lunga serie di fattori, che va a inficiare la ripetibilità delle intensità registrate dai pixel del sensore: l’illuminatore, anche se nominalmente emette una luce costante, potrebbe presentare anch’esso delle lievi oscillazioni nell’intensità della radiazione emessa, impercettibili all’occhio umano, anche in funzione del fatto che rimane in funzionamento per periodi molto lunghi e perciò subisce delle variazioni di temperatura durante il funzionamento; per quanto riguarda lo pneumatico, ciascuna sua sezione radiale subisce periodicamente lo schiacciamento contro il tamburo su cui esso è in rotolamento, per cui ciascuna sezione viene deformata per poi tornare alla forma originaria, e quindi per effetto di questi continui movimenti il profilo del fianco può mostrarsi alla fotocamera con lievi differenze di forma da un giro all’altro; proprio per effetto della sollecitazione periodica a cui è sottoposto, il fianco viene portato a subire il fenomeno meccanico della fatica, per cui la sua struttura nel corso del test può presentare graduali cedimenti e conseguenti variazioni di forma del profilo, riflettendo quindi la luce verso la fotocamera con inclinazioni diverse; la stessa fotocamera, essendo montata sul macchinario, può essere soggetta a vibrazioni durante il test, anche se impercettibili sull’immagine; a seconda del tipo di sostegno su cui essa è montata, quest’ultimo proprio per effetto delle continue vibrazioni può subire dei lievi spostamenti, anch’essi non evidenti dall’ immagine; infine, in generale anche la luce ambientale può variare.
A questo elenco di fattori, che inducono una variabilità nei valori di intensità dei pixel semplicemente a partire dalle modalità e dalle condizioni della ripresa, bisogna poi aggiungere quel li dovuti al fatto di dover elaborare ciascuna immagine eseguendo una serie di operazioni, che portano a modifiche nei valori di intensità dei pixel e a generare parti dell’immagine per interpolazione tra di essi: ciò significa che l’immagine viene in part e alterata artificialmente, introducendo ulteriori cause di variabilità dei valori dei pixel da un’immagine all’altra.
Le elaborazioni in questione (che saranno descritte dettagliatamente nel seguito) sono quelle necessarie a ottenere delle immagini quanto più simili possibile tra loro, per poterle confrontare tra loro in modo affidabile: per i motivi appena citati si cerca di limitarne al minimo indispensabile l’impiego, ma come risulterà intuitivo dalla loro descrizione non è possibile prescinderne completamente.
Infine, un’ulteriore scostamento dal funzionamento ideale dell’algoritmo riguarda l’aspetto dell’osservazione delle differenze tra l’immagine di riferimento e l’immagine-campione (che d’ora in poi potrà trovarsi indicata anche con il nome di “immagine corrente”, trattandosi di fatto dell’immagine più recente scattata durante il test e quindi rappresentativa dello stato attuale dello pneumatico).
Infatti, la formazione di una failure non è l’unica differenza che si può individuare nel confronto tra le due immagini, in quanto l’aspetto dello pneumatico durante lo svolgimento del test può subire delle trasformazioni: per effetto sia del rotolamento sul tamburo, sia dello sfregamento del tallone sul cerchio, durante la prima fase del test possono depositarsi progressivamente sul fianco dei piccoli trucioli di gomma sparsi; allo stesso modo, ai lati del battistrada può formarsi un deposito di materiale gommoso; eventuali gocce di olio provenienti dalle parti meccaniche possono andare a finire sul fi anco e formare piccole colature per effetto della forza centrifuga; può depositarsi della polvere sul fianco; altre alterazioni dell’aspetto della superficie del fianco possono avvenire quando lo pneumatico viene toccato per condurre un’ispezione visiva.
Va detto che questi eventi si verificano abbastanza raramente, ad eccezione però del deposito di trucioli sul fianco e di materiale ai lati del battistrada, che avviene invece con frequenza e costituisce una delle principali cause di falsi positivi generati dalla fase di analisi dell’immagine, assieme ai pin vents. Questi ultimi sono dei piccoli perni di gomma distribuiti sul fianco, che si formano durante lo stampaggio dello pneumatico: questo infatti si espande nello stampo occupandolo completamente, e per tanto nello stampo vengono previsti dei piccoli fori per lo sfiato dell’aria precedentemente contenuta nello stampo; quando lo pneumatico viene forzato per gonfiaggio contro le pareti dello stampo, piccole quantità di gomma penetrano nei fori, formando i pin.
Durante il test, per effetto combinato della forza centrifuga e dell’azione dell’aria, i pin tendono a muoversi casualmente e quindi possono apparire in posizioni differenti da un’immagine all’altra, dando luogo a dei falsi positivi. Le fasi di elaborazione e analisi dell’immagine comprendono, tra le altre, specifiche operazioni che vengono eseguite per sopperire ai fattori di disturbo individuati, in particolare a quelli più incisivi.
Elaborazione dell’immagine
Il software di acquisizione restituisce delle immagini che presentano una serie di caratteristiche: innanzitutto, esse sono disposte secondo un’orientazione verticale; solitamente, oltre all’intero fianco, mostrano anche un certo margine scuro esternamente al battistrada e, dal lato opposto, il bordo del cerchio su cui è montato lo pneumatico, che sono porzioni inutili ai fini della successiva analisi ma che è opportuno includere per avere la certezza di riprendere l’intero fianco.
Nel caso di due telecamere (utilizzate per riprendere contemporaneamente i due fianchi) esse vengono preferibilmente posizionate in corrispondenza della medesima sezione radiale, e frontalmente l’una all’altra su lati opposti, una delle due immagini risulta composta nel senso corretto, ossia nel senso che rende leggibili le scritte, mentre quella del lato opposto risulta invertita, cioè con le scritte al contrario: questo effetto viene corretto impostando il flip dell’immagine nel programma di acquisizione (in alternativa si potrebbe montare la fotocamera sottosopra).
A parte questo aspetto però, il fatto che le fotocamere si trovino l’una di fronte all’altra fa sì che il bordo del cerchio si trovi sul lato sinistro nelle immagini provenienti da un fianco, e sul lato destro in quelle provenienti dall’altro. Infine, va ricordato che il sistema di visione è privo di encoder, per cui la ripresa delle immagini è regolata esclusivamente dalla temporizzazione: questo significa che trascorso l’intervallo di tempo impostato, l’acquisizione dell’immagine successiva inizia indipendentemente dalla posizione angolare in cui si trova lo pneumatico, e pertanto il punto iniziale e quello finale dell’immagine saranno casuali, anziché essere sempre gli stessi. Di conseguenza, le immagini presenteranno un disallineamento, uno shift, l’una rispetto alle altre, e viceversa (Figura 1).
Tutto ciò porta a comprendere che le immagini raw, cioè le immagini così come vengono fornite dal software di acquisizione, sono decisamente diverse tra di esse e pertanto non possono essere confrontate. Lo scopo principale della fase di preprocessing è quello di portare tutte le immagini che vengono salvate in memoria ad essere confrontabili, e questo equivale a essere in grado di gestire tutti gli aspetti elencati precedentemente.
In seguito all’elaborazione, le immagini: dovranno avere orientazione orizzontale e preferibilmente leggibile, ossia è opportuno che le immagini finali non risultino sottosopra; dovranno contenere solo la porzione utile di immagine, cioè quella che mostra effettivamente lo stato dello pneumatico, rimuovendo le zone corrispondenti al margine oltre il battistrada e il cerchio; dovranno avere le stesse dimensioni in lunghezza e in altezza, e presentare gli stessi punti di inizio e fine; inoltre, si desidera che tali punti corrispondano entrambi alla medesima sezione radiale dello pneumatico, ossia si vuole che l’immagine contenga esattamente un giro di ruota. L’elaborazione viene quindi condotta in modo da mantenere solo la parte essenziale dell’immagine raw, in cui è effettivamente contenuta l’informazione necessaria: questo ne riduce al minimo la dimensione, intesa come volume di memorizzazione, per cui anche a livello computazionale la quantità di dati da processare risulterà minore.
Quando si procede ad estrapolare l’immagine di un singolo giro di ruota, pur individuando con esattezza la posizione angolare che ne costituisce l’inizio e la fine, le varie immagini hanno una lunghezza leggermente diversa l’una dall’altra: questo è dovuto al fatto che il tamburo rotante del macchinario di prova utilizzato non riesce ad assicurare con precisione una velocità di rotazione davvero costante, per cui quest’ultima è soggetta a lievi oscillazioni nel tempo che portano a far corrispondere a una rivoluzione un numero di linee sempre diverso.
Anche se all’osservazione al display l’effetto non è percettibile, è necessario che ciascuna immagine-campione venga leggermente stirata o compressa per essere portata alla stessa lunghezza dell’immagine di riferimento, in modo da poter essere messe a confronto.
In seguito a queste operazioni di correzione delle dimensioni dell’immagine, va poi applicata una regolazione della luminosità dei pixel, rispetto all’immagine di riferimento, preferibilmente una correzione della luminosità, per sopperire alle già descritte variazioni di intensità luminosa, in particolare per quanto riguarda le deformazioni che il profilo subisce progressivamente durante il test, che portano a leggere modifiche del profilo della superficie illuminata: di conseguenza, le direzioni in cui i raggi luminosi si riflettono e arrivano sul sensore sono diverse da quelle iniziali.
Con riferimento alla figura 1 è illustrato un esempio di immagini raw. A sinistra e al centro, due immagini riprese sullo stesso fianco in momenti diversi, che mostrano il disallineamento in termini di posizione angolare. A sinistra e a destra, due immagini da fianchi opposti, che mostrano la diversa posizione del cerchio.
Tenendo presente che, durante la successiva fase di analisi dell’immagine, si passa attraverso la ricerca degli Harris corner, può esser e opportuno approfittare della correzione della luminosità per indurre contestualmente anche un lieve incremento di contrasto, applicando correzioni di diversa entità tra zone chiare e scure: poiché i corner vengono individuati in punti caratterizzati da elevati gradienti di intensità dei pixel, questo può risultare utile affinché venga associato un maggior numero di corner a un crack, e perciò quest’ultimo abbia una maggiore probabilità di essere individuato.
Va sottolineato che la correzione della luminosità avviene solamente rispetto ai valori medi dell’intera immagine, o al più delle singole righe: può chiaramente avvenire pixel per pixel, innanzitutto perché operare a un tale livello di dettaglio avrebbe un costo computazionale non giustificato dai benefici.
In secondo luogo, non è una soluzione praticabile, perché priva di senso: come anticipato l’idea di base è quella di effettuare un confronto tra due immagini riprese a istanti differenti, per cui non ha senso attribuire a ogni pixel dell’immagine corrente il valore che aveva su quella di riferimento, perché in tal caso un eventuale confronto non porterebbe ad alcun esito, avendo portato artificialmente tutti i pixel agli stessi valori; inoltre, una correzione del genere andrebbe applicata solo ai pixel estranei alle failure, perché altrimenti queste ultime scomparirebbero dall’immagine, ma per fare questo bisognerebbe conoscere dove queste si trovano, il che invece è proprio l’incognita del problema.
Ciò che invece ha senso è che, dovendo eseguire una comparativa, questa sia condotta in modo tale che in uno stesso punto si abbia mediamente la stessa luminosità in entrambe le immagini a confronto: in altre parole, idealmente i pixel dovrebbero presentare delle variazioni di intensità consistente solo per effetto della comparsa di un oggetto (come la formazione di una failure), e non perché per motivi esterni cambiano, seppure lievemente, le condizioni di illuminazione.
A questo punto, in seguito a tutte le operazioni elencate, l’immagine di riferimento e l’immagine corrente risultano quasi esattamente uguali ad eccezione, teoricamente, della presenza di failure. Nel caso in cui sia di interesse anche una stima quantitativa delle dimensioni delle failure, si rende però necessario prevedere una ulteriore trasformazione dell’immagine, che consiste nell’applicarvi uno stiramento che la porti ad avere una risoluzione quadrata e quindi realistica, cioè ad avere la stessa risoluzione, in termini di pixel/mm, nella direzione orizzontale e in quella verticale.
Si tratta di un’operazione indispensabile per stimare correttamente la lunghezza e l’apertura di un crack, che in caso contrario risulterebbe distorto, andando a inficiare un’eventuale classificazione e raccolta dati riguardanti l’evoluzione dei crack.
Si descriveranno di seguito nel dettaglio le strategie attraverso le quali si possono compiere le varie operazioni sull’immagine, attenendosi per il momento ai metodi di base impiegati nella prima versione del software di crack detection messo a punto nell’ambito della tesi. Successivamente saranno introdotte, a parte, anche le rispettive varianti o alternative.
Primo possibile metodo per la rotazione
Come anticipato, la rotazione dell’immagine può essere necessaria quando essa viene acquisita con un’orientazione verticale, mentre è preferibile che sia orizzontale per una migliore comprensibilità e visibilità nell’osservazione al display, per facilitare l’ispezione da remoto.
Si tratta della prima operazione che viene eseguita, non appena il software preleva l’immagine raw depositata in memoria dal programma di acquisizione.
L’indizio più evidente da sfruttare affinché il programma ruoti l’immagine è costituito dall’avere che, nella fattispecie, la lunghezza dell’immagine sarà sempre maggiore della sua altezza, anche nel caso in cui si utilizzino tutti i 2048 pixel del sensore per la ripresa. La soluzione potrebbe quindi sembrare immediata, in quanto sembra sufficiente applicare una rotazione di 90° gradi all’immagine, trasponendo quindi la matrice che la compone.
Il problema però si complica ricordando che dai due fianchi dello pneumatico provengono immagini nelle quali il cerchio può trovarsi su un lato dell’immagine oppure sul l’altro: è chiaro che prevedere un intervento manuale per decidere da che parte ruotare l’immagine non è una soluzione pratica, e allo stesso modo ha poco senso differenziare il codice del programma a seconda del fianco trattato. Per assicurare il funzionamento per mezzo di un solo codice, è perciò necessario che esso sia in grado di capire autonomamente da che parte si trova il bordo del cerchio, e di conseguenza decidere se applicare la suddetta rotazione di 90° in senso orario oppure anti orario, evitando in definitiva che l’immagine risulti sottosopra.
Un primo metodo assume di suddividere l’immagine in sottili porzioni circonferenziali, caratterizzate da un’altezza radiale prestabilita (ad esempio cento pixel), e di contare il numero di Harris corner contenuti in ciascuna di queste porzioni (Figura 2). Poiché il cerchio è una superficie riflettente, genera la presenza di un elevato numero di corner, e quindi ci si aspetta che la striscia che lo contiene sia quella che presenta la somma più alta. Questa caratteristica individua la posizione approssimata del bordo del cerchio ed è perciò sufficiente per stabilire su quale lato dell’immagine esso si trova, e in conclusione per decidere in quale senso ruotar e l’immagine.
A questo punto, risulta perciò fissata l’orientazione dell’immagine, e assume senso identificare la direzione tangenziale dello pneumatico con quella orizzontale dell’immagine, e analogamente la direzione radiale con quella verticale. La procedura sinora descritta deve essere necessariamente applicata alla prima immagine acquisita durante il test, cioè a quella che diventerà l’immagine di riferimento.
Per quanto riguarda le immagini-campione successive, che chiaramente saranno restituite dall’acquisizione sempre con la medesima orientazione della prima, si può scegliere di ripetere comunque la procedura, oppure, per snellire l’elaborazione del programma (la ricerca degli Harris corner sull’intera immagine comporta un processo computazionale consistente), si può semplicemente immagazzinare il dato sull’angolo di rotazione determinato per la prima immagine e richiamarlo per tutte le successive, evitando di doverlo calcolare nuovamente.
Un esempio di ricerca della posizione approssimata del bordo del cerchio è illustrato in figura 2. Le piccole croci verdi rappresentano gli Harris corner. Per una migliore visibilità, viene riportata solo una porzione dell’immagine, mentre il grafico fa riferimento all’intera immagine.
Dunque, il metodo secondo la presente invenzione, può prevedere che il pre-processamento comprende un passo di rotazione e/o ribaltamento di dette immagini complessive, preferibilmente, per isolare esattamente la superficie di detto pneumatico.
Primo possibile metodo per il ritaglio
La procedura descritta precedentemente individua la posizione approssimata del bordo del cerchio. Questa informazione è utile da sfruttare per ricercare contestualmente anche la linea del cerchio (o rim line), cioè la sua posizione esatta, che è invece necessaria per ritagliare in modo corretto l’immagine, rimuovendo le regioni superflue.
In questo caso, la caratteristica idonea ad essere sfruttata per tale ricerca è la linea tangenziale più scura contenuta nella porzione che individua la posizione approssimata del cerchio: tale linea scura è infatti ricorrente in tutte le immagini, perché è dovuta al punto in cui il tallone dello pneumatico entra all’interno del cerchio; i profili dei due elementi a contatto sono tali da formare una cuspide che non si riesce ad illuminare in tutta la sua profondità, e pertanto si forma una zona d’ombra che risulta in una linea scura sull’immagine.
Scegliendo un’altezza radiale sufficientemente piccola per la suddivisione dell’immagine in porzioni sottili, si riduce al minimo il rischio di selezionare una linea non corretta, perché si considera un intorno più piccolo di tale linea, che per quanto detto sarà quasi sicuramente più luminoso.
Per trovare la linea del cerchio, risulta allora sufficiente individuare, nella porzione di immagine precedentemente assunta come posizione approssimata del bordo del cerchio, la linea orizzontale caratterizzata dalla somma delle intensità dei pixel (o equivalentemente dalla loro media, essendo tutte le linee composte dallo stesso numero di pixel), più bassa (Figura 3).
La Figura 3 mostra un esempio di ricerca della posizione esatta del bordo del cerchio. Per una migliore visibilità, viene riportata solo una porzione dell’immagine, mentre il grafico fa riferimento all’intera immagine. Questo all’atto pratico elimina il margine scuro presente nell’immagine.
Nota tale linea, si rimuove la parte di immagine al di sotto di essa, eliminando così la zona che riprende il cerchio. Per quanto riguarda la ricerca della linea del battistrada (o tread line), il problema è di risoluzione molto più semplice, perché nella specifica applicazione la zona del battistrada non è interessante ai fini dell’analisi dell’immagine, e quindi non è importante ritagliare l’immagine con la stessa accuratezza necessaria per la linea del cerchio.
In particolare, si vuole conservare solo la porzione di immagine che può considerarsi visibile, cioè sufficientemente luminosa, per cui ci si limita a rimuovere la parte di immagine al di sopra di quella linea orizzontale caratterizzata da un’intensità media dei pixel superiore a un dato valore di soglia prestabilito:
L’effetto complessivo delle due rimozioni descritte si può osservare in Figura 4: a tal proposito va sottolineato che le immagini sono riportate con orientazione verticale affinché appaiano più dettagliate all’osservazione, ma internamente all’algoritmo sono ormai considerate in orizzontale, già a partire dal termine dell’operazione di rotazione.
In tale figura è possibile osservare la rimozione del cerchio (sulla sinistra dell’immagine) e del margine scuro sul lato opposto.
Anche in questo caso, lo svolgimento della procedura è strettamente necessario solo per l’immagine di riferimento, le cui coordinate delle linee del cerchio e del battistrada possono essere memorizzate e richiamate per trattare le immagini successive. Questo riduce la quantità di calcoli che dovrà svolgere l’elaboratore, ma nonostante ciò è raccomandabile ripetere la procedura per ogni singola immagine del test: infatti, impiegare gli stessi dati ricavati dall’immagine di riferimento può portare a lievi errori nel ritaglio in corrispondenza del battistrada, perché in alcune prove si verifica che i fianchi dello pneumatico possono subire leggeri cedimenti per fatica, oppure possono esserci perdite di pressione, per cui è possibile che la linea del battistrada tenda progressivamente ad abbassarsi, anche se non sempre avviene.
In ogni caso, per mantenere ridotti tempi di calcolo si può valutare di ripetere solo la ricerca meno onerosa tra le due, cioè quella della linea del battistrada, poiché il cerchio è un elemento indeformabile ed è quindi ragionevole aspettarsi che la corrispondente linea non si sposti.
Primo possibile metodo per l’allineamento
L’operazione di allineamento completa quella di ritaglio, in quanto rimuove parti di immagine rispetto ai due lati che ancora non sono stati interessati da alcuna modifica, eseguendo due tagli lungo la direzione verticale (quindi lungo i lati corti).
In particolare, questi tagli devono essere fatti in corrispondenza della medesima posizione angolare, in modo da estrapolare esattamente un singolo giro di ruota e allo stesso tempo allineare le immagini tra di esse, attribuendo gli stessi punti di inizio e fine a tutte.
Si tratta dell’operazione che sostituisce la funzione di un encoder, ed è in assoluto la più difficile e delicata dell’intera fase di pre-processing, perché deve essere necessariamente svolta su ogni singola immagine acquisita, e perciò serve un metodo che garantisca un’elevatissima ripetibilità affinché funzioni correttamente su una quantità così grande di immagini (solitamente per un test endurance ne vengono scattate almeno seicento, per via della lunga durata e dei ridotti intervalli di campionamento).
La prima strategia adottata per ottenere l’allineamento prevede di individuare la linea verticale caratterizzata dalla più elevata deviazione standard delle intensità dei pixel lungo l’intera immagine. Quest’ultima corrisponde alla radice quadrata della varianza, e per una popolazione di N valori, è data dall’Equazione 3.1 (che talvolta può trovarsi normalizzata rispetto ad N invece che ad N-1):
dove è il valore medio degli N dati:
La deviazione standard esprime la dispersione di una serie di dati, cioè la sua variabilità: allora, individuare la linea di pixel avente la più elevata deviazione standard equivale a considerare la linea con la maggiore variabilità dei valori, il che la rende interpretabile, sotto un certo punto di vista, come la più caratterizzata e distintiva dell’intera immagine.
Date le modalità con cui vengono effettuate le riprese, tale linea coincide con una precisa posizione angolare, e viene quindi assunta come punto di riferimento: comparandola poi con tutte le altre che formano l’immagine, si individua tra queste quella che vi risulta più simile, e che quindi si può ragionevolmente ritenere scattata alla stessa posizione angolare, ma alla distanza di una circonferenza, cioè un giro di ruota prima oppure dopo.
La linea di riferimento deve essere la stessa per tutte le immagini, al fine di conseguirne l’allineamento: questo significa che la sua ricerca deve essere eseguita solo per la prima immagine del test; viceversa, se fosse ripetuta anche su ciascuna delle successive, per via della variabilità dei valori registrati dai pixel, è possibile che venga selezionata una linea diversa.
Per questo motivo, è opportuno memorizzare la linea di riferimento individuata per la prima immagine e impiegarla per trovare le due linee ad essa più simili tra tutte quelle che compongono le immagini successive. In alternativa, si può individuare solamente quella più simile e assumerla come nuovo riferimento per la ricerca della seconda.
In ogni caso, si può facilmente dedurre che la sezione radiale corrispondente alla linea di riferimento deve necessariamente comparire due volte nella stessa immagine, in modo che essa possa costituire sia il punto iniziale che quello finale dell’immagine, estrapolando così esattamente una rivoluzione completa dello pneumatico.
La linea di riferimento viene stabilita automaticamente dal programma, perciò non è noto prima del test a quale posizione angolare essa corrisponde: di conseguenza, tutte le posizioni angolari, cioè l’intera circonferenza, devono comparire due volte in un’immagine, che in altre parole significa dover riprendere necessariamente due giri di ruota per volta.
Anche se questo implica un consistente aumento dell’occupazione di memoria e della quantità di calcoli da effettuare, è l’unico modo per ottenere un’immagine continua di un giro di ruota, ossia composta da un flusso di linee continuo.
Viceversa, se si scegliesse di acquisire un singolo giro per volta, si potrebbe comunque ottenere un allineamento dell’immagine, individuando la linea di riferimento e invertendo l’ordine delle due porzioni che essa determina alla sua sinistra e alla sua destra.
In altre parole, si dovrebbe portare la parte di immagine che va dalla prima linea a quella di riferimento dopo la parte che da questa va fino all’ultima. Con questo modo di procedere si avrebbero però due controindicazioni: innanzitutto, per effetto di micromovimenti della fotocamera o delle parti meccaniche della macchina di prova, alla giunzione potrebbe presentarsi un piccolo scalino di qualche pixel lungo la direzione radiale, ottenendo un’immagine discontinua, anche se non in modo evidente a livello visivo; inoltre, per effetto di lievi oscillazioni della velocità di rotazione del tamburo del macchinario, nel momento in cui si ha un rallentamento il numero di linee consecutive da acquisire, se impostato esattamente per un giro di ruota alla velocità nominale, l’immagine potrebbe risultare incompleta, in difetto di qualche millimetro rispetto alla circonferenza; il caso opposto sarebbe invece rimedi abile, in quanto darebbe luogo alla duplicazione di una sottile porzione circonferenziale del fianco, che potrebbe essere evitata con una ricerca delle linee ripetute in modo analogo a quanto descritto precedentemente.
La comparazione tra le linee avviene per mezzo del coefficiente di correlazione lineare, o di Pearson, che per una popolazione di N osservazioni congiunte è espresso dall’Equazione 3.3:
dove σxσ y è la covarianza delle due serie di valori, che è un parametro indicativo della dipendenza tra di esse.
Si assume che le linee che presentano il valore massimo del coefficiente di correlazione rispetto alla linea di riferimento siano corrispondenti alla stessa posizione angolare di quest’ultima: una delle due linee così individuate contrassegna quindi il punto iniziale del giro di ruota, e l’altra quello finale, e in conclusione l’immagine raw viene tagliata in corrispondenza di tali punti.
La Figura 5 propone un esempio di estrapolazione di un giro di ruota, e mostra l’efficacia dell’allineamento mettendo a confronto varie immagini dello stesso fianco acquisite in momenti differenti: si può osservare come, dopo queste operazioni, tutte le immagini sembrino del tutto identiche all’osservazione.
I principali limiti di questo metodo consistono nel fatto che nell’immagine possono esistere comunque linee tra loro simili ma corrispondenti a sezioni radiali estranee le une dalle altre, e dalle quali perciò scaturisce un accoppiamento errato: talvolta è dovuto al fatto che la linea di riferimento appartiene a un elemento del fianco, come un marker o una scritta stampigliata, che presenta una certa estensione in direzione tangenziale, e in tal caso l’errore consiste in uno scostamento di un numero ridotto di pixel, risultando trascurabile entro certi limiti; altre volte invece l’errore deriva da elementi già di per sé simili che, per effetto di lievi trasformazioni progressive come quella del cedimento del fianco dello pneumatico, unite a una certa variabilità dei valori registrati dal sensore (come già descritto precedentemente), tendono ad aumentare la loro somiglianza reciproca, portando il programma a selezionare posizioni angolari diverse.
Quest’ultimo aspetto rende il metodo caratterizzato sì da una ripetibilità molto elevata, ma non totale, ottenendo in rari casi un risultato sbagliato. Di conseguenza, tra quelle che si svolgono nella fase di elaborazione dell’immagine, l’operazione di allineamento ed estrapolazione di un giro di ruota è stata quella su cui si è maggiormente concentrato l’impegno alla ricerca di metodi alternativi, che riducessero ulteriormente il margine di errore residuo, ma ciascuno di questi presenta inevitabilmente un tasso di difettosità, seppur minimo.
Con riferimento alla figura 5A, secondo la presente invenzione è previsto un passo in cui si intende isolare, sia per l’immagine di riferimento Ir che per ogni immagine complessiva Ia, la matrice di pixel che presenta la massima varianza dei valori di scala di grigi in direzione y, indicati rispettivamente con mIr e mIa nella figura 5A.
Si può osservare che, caratterizzando le matrici di pixel in direzione y tramite la varianza dei valori di scala di grigi, allora dette matrici di pixel diventano invarianti nel tempo, cioè su una sequenza di immagini.
Pertanto, è possibile migliorare la corrispondenza spaziale tra Ir e Ia spostando Ia in direzione x della differenza Δ = xmIa - xmIr.
Migliorare la corrispondenza spaziale tra Ir e Ia, a sua volta, riduce il tasso di rilevamento dei falsi errori.
Inoltre, l’elaborazione ora descritta fornisce la possibilità di ottenere come immagini consecutive, vale a dire immagini scattate a intervalli di tempo diversi e consecutivi, tutte immagini che partono sempre dalla stessa linea mIr, senza alcun utilizzo di hardware esterno e/o segnale di riferimento per attivare le telecamere.
In altre parole, quando l’elaborazione ora descritta viene applicata a un set di immagini casuali, scattate a intervalli di tempo diversi e consecutivi, mediante una fotocamera digitale non attivata da alcun hardware esterno e/o segnale di riferimento, è comunque possibile estrarre, dal dataset di immagini casuali, un sottoinsieme di dati coerenti e omogenei contenenti immagini, scattate a intervalli di tempo diversi e consecutivi, partendo sempre dalla stessa linea mIr.
Ciò rende possibile evitare l'installazione di hardware esterno e/o fornire segnali di riferimento per l'attivazione delle telecamere e si traduce in notevole semplificazione e risparmio economico.
Primo possibile metodo per il ridimensionamento
Lo scopo dell’operazione di ridimensionamento è quello di portare tutte le immagini-campione acquisite nell’arco di un test ad avere la stessa lunghezza e la stessa altezza dell’immagine di riferimento.
Il metodo secondo la presente invenzione prevede infatti nella fase di pre processamento, un ridimensionamento di ciascuna immagine complessiva per normalizzarne le dimensioni.
Infatti, le immagini che si ottengono in seguito all’operazione di allineamento possono presentare lunghezze leggermente diverse, a causa di lievi oscillazioni della velocità di rotazione del tamburo della macchina di prova utilizzata: essendo fissata la frequenza di scansione delle linee a cui la fotocamera lavora, a un rallentamento corrisponde una maggiore lunghezza del singolo giro di ruota, in termini di numero di linee, e l’immagine risulta leggermente stirata; viceversa, a una velocità superiore corrisponde un’immagine compressa.
Di conseguenza, può risultare necessario allungare o accorciare l’immagine. Oltre che per compensare queste lievi variazioni di velocità, la stessa operazione di ridimensionamento viene sfruttata anche nel caso in cui sia necessario portare l’immagine a una risoluzione quadrata, cioè tale per cui la risoluzione nella direzione orizzontale e in quella verticale siano pari.
Si tratta di un passaggio indispensabile qualora si vogliano stimare quantitativamente le dimensioni delle failure, e che apre anche alla possibilità di condurre test caratterizzati da variazioni di velocità.
Le immagini in figura 6 assumono il caso in cui si raddoppia la dimensione dell’immagine, sia in larghezza che in altezza. Si può osservare che l’interpolazione nearest-neighbor, per l’assegnazione del valore al pixel interpolato, prende inconsiderazione un solo pixel preesistente; il metodo bilineare ne considera invece quattro, e quello bicubico sedici.
Generalmente, trasformare l’immagine portandola a proporzioni quadrate comporta sempre un suo deciso stiramento rispetto alla lunghezza di partenza, e quindi anche un consistente incremento della memoria occupata e del tempo necessario al calcolo per via del numero notevolmente maggiore di pixel.
Per evitare di incappare in questi svantaggi, il software è stato strutturato in modo che le due compensazioni descritte siano svolte separatamente, mantenendo così la possibilità di scegliere se passare alle proporzioni quadrate oppure no, in base alle esigenze.
Nel caso in cui si esegua un ingrandimento, l’immagine finale sarà ovviamente caratterizzata da un numero di pixel maggiore di quello iniziale: questo significa che i pixel di partenza verranno distanziati, introducendo tra di essi nuovi pixel che prima non esistevano, e ai quali bisogna quindi assegnare un valore coerente con quelli già noti. Questo avviene per interpolazione, e i metodi più diffusi sono principalmente tre (Figura 6). Il primo è il nearest-neighbor, che tradotto letteralmente significa “vicino più prossimo”: infatti, questo metodo assegna semplicemente al nuovo pixel intermedio il valore del pixel preesistente ad esso più vicino. L ’interpolazione bilineare, assegna invece al nuovo pixel il valore medio dei pixel adiacenti. Infine, vi è il metodo dell’interpolazione bicubica, che attribuisce al nuovo pixel il valore medio, pesato rispetto alle distanze, dei pixel contenuti in un suo intorno (detto kernel) di una certa dimensione.
Il metodo nearest-neighbor, data la sua semplicità, è più rapido degli altri due, ma è anche il meno accurato, e può facilmente dare luogo ad artefatti nelle immagini, come l’aliasing, che consiste in una netta frastagliatura e scalinatura dei bordi degli oggetti. Un’interpolazione mediata tende invece a formare artefatti come le sfocature e gli aloni sui bordi.
Il metodo che fornisce la migliore interpolazione e la migliore qualità dell’immagine finale è quello dell’interpolazione bicubica, che per questo motivo è stato selezionato per essere effettivamente utilizzato nel ridimensionamento dell’immagine.
Il primo adattamento da effettuare è quello che riguarda l’altezza dell’immagine: infatti, uno stiramento di quest’ultima si può ottenere o aumentandone la lunghezza, tenendo fissa l’altezza, o viceversa tenendo fissa la lunghezza e diminuendo l’altezza.
La seconda soluzione porta però a una parziale perdita di informazione, perché alcune delle righe orizzontali di pixel acquisite vengono eliminate, e perciò appare più logico ricorrere all’aumento di lunghezza. Di conseguenza, è l’altezza che va corretta per prima, perché diventa la dimensione di riferimento rispetto alla quale la lunghezza dovrà aumentare in proporzione.
Nel caso in cui la linea del battistrada e quella del cerchio siano calcolate solo per l’immagine di riferimento e poi si impieghino sempre tali medesime linee per tutte le immagini successive, non si ha la necessità di applicare un ridimensionamento, perché risulteranno tutte tagliate in corrispondenza delle stesse ordinate e perciò della stessa altezza.
Viceversa, nel caso in cui almeno una tra linea del battistrada e linea del cerchio sia ricalcolata per ogni singola immagine, l’altezza va sempre corretta per essere identica a quella dell’immagine di riferimento.
A questo punto, si può passare alla correzione del la lunghezza dell’immagine. l fattore di cui bisogna allungare l’immagine per ottenere la stessa risoluzione sia in direzione radiale che circonferenziale, esso viene calcolato a partire dalle dimensioni nominali dello pneumatico.
La figura 7 mostra, a sinistra, un esempio di immagine affetta da aliasing; a destra, stessa immagine ottenuta con anti-aliasing, che sfrutta l’interpolazione per ammorbidire i bordi degli elementi dell’immagine. Va però sottolineato che, pur risultando in un miglioramento estetico, si tratta in realtà di una riduzione delle informazioni contenute nell’immagine.
La prima grandezza da calcolare è l’altezza hsw del fianco:
dove wtread è la larghezza del battistrada, mentre per rapporto di aspetto si intende il rapporto tra l’altezza del fianco e la larghezza del battistrada.
La seconda grandezza necessaria è la lunghezza della circonferenza di riferimento, che può essere assunta nel modo che si ritiene più opportuno.
Teoricamente, per calcolarla andrebbe considerato il raggio di rotolamento, cioè quello a contatto con il tamburo rotante del macchinario, perché è ad esso che effettivamente si applica la velocità lineare nominale che caratterizza il test, e che quindi corrisponde la risoluzione circonferenziale nominale.
Il raggio di rotolamento non è però noto con esattezza, per cui in alternativa si può considerare la lunghezza della circonferenza esterna dello pneumatico oppure di quella media, espressa dall’Equazione 3.5:
dove drim è il diametro del cerchio in pollici, mentre 25.4 è il fattore di conversione da pollici a millimetri.
In ogni caso, una volta assunta e determinata la lunghezza della circonferenza a cui si fa riferimento, si può procedere al calcolo della nuova lunghezza, in termini di numero di pixel, che dovrà caratterizzare l’immagine dopo la trasformazione, per ottenere una proporzione quadrata.
Tale lunghezza in pixel si ottiene attraverso una semplice proporzione rispetto al valore iniziale lpx:
La Figura 8 mostra un esempio di immagine allungata e portata ad avere la stessa risoluzione lungo le due dimensioni. Non si riporta invece un esempio dell’adattamento che compensa la differenza in lunghezza dovuta alle oscillazioni di velocità del macchinario, né quella in altezza, perché si tratta di modifiche dell’entità di pochi pixel, di fatto impossibile da cogliere a meno di non avere modo di contare i pixel.
Primo possibile metodo per la correzione della luminosità
La luminosità delle immagini acquisite durante i test, in alcuni casi, può leggermente variare per effetto di piccoli movimenti della fotocamera o dell’illuminatore, che possono innescarsi sotto la continua azione delle vibrazioni. In particolare, solitamente in tali casi si può osservare un progressivo scurirsi dell’immagine, in quanto ci si allontana dal posizionamento iniziale che chiaramente viene accuratamente scelto per essere il migliore possibile.
Poiché nella successiva fase di analisi si va alla ricerca di failure mettendo a confronto ciascuna immagine-campione con l’immagine di riferimento, che all’atto pratico si traduce nell’ effettuare una sottrazione tra di esse per individuare i pixel caratterizzati da elevate differenze rispetto al valore iniziale, assume allora importanza che entrambe abbiano una luminosità simile, almeno mediamente; in caso contrario, sarebbe invece privo di senso tentare un confronto.
Per chiarire il concetto, si pensi di effettuare una sottrazione tra un’immagine molto luminosa e una molto scura, che riprendano la stessa identica scena: tutti i pixel risulterebbero caratterizzati da un’elevata differenza, non a causa di variazioni nella scena (come ad esempio la comparsa di un oggetto), ma per via del diverso livello di luminosità; inoltre, anche un’eventuale variazione nella scena potrebbe risultare mascherata o comunque difficilmente rilevabile all’interno di un campo di differenze così vasto e incisivo.
Diventa allora necessario cercare di annullare questo effetto, rendendo le immagini confrontabili senza che la misura delle differenze tra i pixel sia inficiata dal gap di luminosità. Lo scopo dell’operazione descritta nella presente Sezione è perciò quello di portare tutte le immagini ad essere caratterizzate da pari luminosità media intendendo per quest’ultima il valore medio delle intensità di tutti i pixel che compongono ciascuna immagine.
Allo stesso tempo, si vuole ottenere anche un lieve aumento di contrasto tra lo sfondo, che è di colore grigio e quindi rientra nel range dei toni medi, e le aree più scure, corrispondenti soprattutto alle ombre ma che potenzialmente sono anche le maggiori indiziate per trovare un’eventuale presenza di crack, in quanto tale tipo di failure sull’immagine si manifesta solitamente come una macchia più scura di forma allungata (una descrizione più dettagliata viene fornita nella seguente sezione “Analisi dell’immagine”).
Questo perché, dato che nella successiva fase di analisi i crack vengono ricercati attraverso una mappatura degli Harris corner, un aumento di contrasto determina un aumento della repentinità dei gradienti di intensità luminosa lungo i bordi degli oggetti, e ciò rende più probabile l’individuazione dei corner.
L’idea più semplice per portare l’immagine-campione alla stessa luminosità media dell’immagine di riferimento consiste nel sommare a ciascun pixel la differenza che sussiste tra i due valori medi di intensità.
È chiaro però che in questo modo ciascun pixel varia del la stessa quantità di cui variano gli altri, e perciò non si aggiunge alcun contrasto. Si può allora pensare di differenziare gli incrementi (o decrementi) che caratterizzano ciascun pixel in funzione del proprio valore di intensità: preferibilmente pertanto, il passo di pre processamento prevede una regolazione del contrasto dei pixel, rispetto all’immagine di riferimento, attraverso l’utilizzo di una funzione che va costruita appositamente, e deve essere tale per cui dopo la trasformazione si ottenga lo stesso valore medio di luminosità dell’immagine di riferimento.
La Figura 9 mostra il grafico della funzione adottata, costituita da una parabola: in ascissa sono disposti i valori che un pixel può assumere in un’immagine monocromatica (in scala di grigi) a 8 bit, per cui si considera l’intervallo da 0 a 255; le ordinate esprimono il valore di un coefficiente di incremento, che diventerà un fattore moltiplicativo per tutti i pixel che inizialmente presenta il valore di ascissa ad esso corrispondente.
Si consideri il seguente esempio: si assuma di avere un pixel, in una del le immagini successive alla prima, di intensità pari a 80; entrando sul grafico con questo valore in ascissa, si legge sulle ordinate un coefficiente pari a 1.034; questo significa che, dopo la trasformazione, tutti i pixel inizialmente caratterizzati da un’intensità pari a 80 assumeranno il seguente valore (da arrotondare in quanto i pixel non possono avere valori non interi):
80⋅1.034=82.72 ≈ 83
Si evince allora che ai pixel di intensità 80 sarà assegnato un incremento di tre unità. Analogamente, a quelli di intensità 40 corrisponderà un incremento di uno:
40⋅1.021=40.84 ≈ 41
Si può allora dedurre che l’incremento attribuito ai pixel diventa così dipendente dal loro valore iniziale di intensità. La funzione mostrata nel grafico è simmetrica rispetto al valore centrale 128 dell’intervallo di valore che i pixel possono assumere, e per quanto detto si può concludere che: per ascisse comprese nell’intervallo 0 ÷ 128, l’incremento attribuito sarà tanto maggiore quanto più elevato è il valore iniziale dell’intensità del pixel; nell’intervallo 128 ÷ 255, vale l’esatto contrario.
Di conseguenza, ai toni medi, corrispondenti di fatto ai grigi che compongono lo sfondo dell’immagine e quindi presenti in fortissima maggioranza, spettano gli incrementi maggiori, e perciò diventano i principali responsabili del pareggiamento del valore medio di luminosità tra l’immagine così corretta e quella di riferimento; ai toni scuri sono invece attribuiti aumenti di entità minore, e di conseguenza risulta incrementato il contrasto tra questi e i toni medi, che equivale a dire tra le regioni scure, e lo sfondo.
Per quanto riguarda la costruzione della funzione, come anticipato, si utilizza l’equazione di una parabola, perché se si assume di voler mantenere invariati i valori estremi dell’intervallo, 0 e 255 (rispettivamente pixel neri e bianchi), è l’ipotesi più semplice da cui partire. Considerare una retta orizzontale, significa ricondursi al caso in cui si applica lo stesso incremento a tutti i pixel, senza ottenere alcun aumento di contrasto; l’utilizzo di una retta o più rette oblique per approssimare la parabola implicherebbe invece di dover scegliere arbitrariamente la pendenza oppure l’intercetta; si avrebbe il vantaggio di ottenere un aumento di contrasto anche tra toni medi e chiari, ma l’aumento di luminosità risulterebbe imputato in modo consistente anche a questi ultimi, con il rischio di eccedere nello schiarire alcune zone; inoltre, gli aumenti dei valori dei pixel sarebbero ottenuti secondo una proporzione lineare, mentre può risultare utile differenziare tale proporzione tra le diverse fasce di toni.
In sintesi, come primo approccio appare più conveniente assumere i valori estremi dell’intervallo come dei punti di riferimento da mantenere fissati, in quanto i pixel non possono assumere valori inferiori o superiori a tali estremi, e definire una singola funzione continua per l’intero intervallo 0 ÷ 255.
Sia a livello matematico che di scrittura del codice, la scelta più semplice consiste allora in una parabola, che in particolare sia simmetrica in tale intervallo e con asse parallelo all’asse delle ordinate, per cui risulta definita dall’Equazione 3.7:
y=ax <2>+bx c <(3.7)>
La sua costruzione si realizza avvalendosi del metodo per la determinazione della parabola passante per tre punti, che prevede di sostituire le coppie di coordinate che individuano tali punti nell’equazione generale, formando così un sistema di tre equazioni nelle tre incognite a, b, c, dalla cui risoluzione si ricavano i coefficienti della parabola, che risulta quindi completamente definita.
È utile ricordare che il coefficiente a è rappresentativo della concavità della parabola, è positivo in caso di concavità verso l’alto e la parabola risulta tanto più stretta quanto maggiore è il suo valore assoluto; il coefficiente b è rappresentativo della pendenza con cui la parabola interseca l’asse delle ordinate; il coefficiente c rappresenta l’ordinata corrispondente per x = 0, cioè il punto in cui essa interseca l’asse delle ordinate.
Il primo caso da considerare è quello in cui l’immagine è più scura di quella di riferimento, e si ha quindi bisogno di aumentare le intensità dei pixel per renderla più luminosa.
Nella fattispecie, per definire i tre punti si presuppone che i pixel con valori 0 e 255, cioè quelli bianchi e quelli neri, debbano rimanere tali, per cui non va applicata alcuna modifica del loro valore: ciò significa che ad essi dovrà corrispondere un fattore moltiplicativo unitario, e questo definisce due dei tre punti necessari.
Per quanto riguarda il terzo, va ricordato che l’obiettivo primario è portare l’immagine sottoposta a correzione di luminosità ad avere lo stesso valore medio di intensità dell’immagine di riferimento: di conseguenza, il terzo punto non si può agevolmente stabilire a priori.
Volendo però costruire, per semplicità, una funzione simmetrica rispetto al valore centrale 128, allora quest’ultimo si può fissare come ascissa del terzo punto, perché imporre la simmetria alla funzione, noti i due punti estremi, equivale a stabilire che il vertice della parabola dovrà trovarsi in corrispondenza di tale ascissa. Riassumendo, per quanto detto le coordinate note dei tre punti sono, finora:
P1 ≡(0,1 )
P2 ≡(255,1 ) (3.8) P3 ≡(128, y 3 )
Il valore di y3 va scelto in modo tale che l’intensità media dell’immagine dopo la correzione sia circa pari all’intensità media dell’immagine di riferimento. Per determinarlo si procede allora iterativamente, imponendo come valore di primo tentativo y3 = 1: si calcolano i coefficienti della parabola (che nel primo tentativo è in realtà una retta orizzontale che lascia immutata l’immagine), e applicando i valori della funzione così ottenuta ai vari pixel, secondo le modalità spiegate in precedenza, si ottiene l’immagine c on luminosità modificata, della quale infine si può calcolare l’intensità media; se quest’ultima risulta inferiore a quella di riferimento, si procede con una nuova iterazione, aumentando il valore che si assegna a y3 e sollevando in tal modo verso l’alto il vertice della parabola; le iterazioni vanno arrestate non appena l’intensità media dell’immagine modificata diventa maggiore quella dell’immagine di riferimento.
In definitiva, si può affermare che, nel caso in cui vi sia necessità di schiarire l’immagine, si aumenta la luminosità dei toni medi in misura maggiore rispetto ai toni bassi, privilegiando un lieve incremento di contrasto tra lo sfondo e gli oggetti scuri a discapito di una lieve riduzione di quello tra sfondo e oggetti chiari, perché ai primi si attribuisce una maggiore probabilità di corrispondenza con un crack.
La Figura 10 mostra un esempio in cui l’immagine viene resa più chiara, ed essendo difficile cogliere la differenza di luminosità, le immagini sono corredate dai rispettivi istogrammi, che in seguito alla correzione evidenziano lo spostamento dei toni medi verso quelli più alti, oltre ad una migliore sovrapposizione degli andamenti ed una migliore corrispondenza dei picchi.
Nel caso in cui l’immagine debba invece essere scurita, per poter ottenere gli stessi effetti si considera una parabola della stessa forma del caso precedente, quindi con concavità verso il basso e simmetrica, e con asse verticale situato all’ascissa 128.
L’unica differenza è che in questo caso i fattori moltiplicativi dovranno risultare inferiori all’unità, in modo da abbattere i valori dei pixel. Dovendo abbattere i toni scuri in misura maggiore di quelli medi, in questo caso vengono a mancare i punti di riferimento da mantenere invariati.
Allora, quello che si fa è scambiare fittiziamente i ruoli delle due immagini a confronto, ipotizzando di dover schiarire quella di riferimento per portarla alla stessa intensità media dell’immagine campione, e svolgere la medesima procedura iterativa descritta nel caso di aumento di luminosità dell’immagine, arrivando a definire i coefficienti della parabola, che a questo punto individua temporaneamente dei fattori moltiplicativi comunque maggiori dell’unità: questo passaggio volge perciò a definir e la forma della parabola, che è quella ottimale per compensare la differenza di luminosità tra le due immagini, indipendentemente da quale sia la più scura e quale la più luminosa.
Successivamente, mantenendone invariata la forma, la si fa traslare verso il basso, in modo che si porti nell’intervallo delle ordinate inferiori all’unità: anche questo abbassamento si svolge iterativamente, sottraendo progressivamente una quantità crescente dalle ordinate dei tre punti per i quali si fa passare la parabola; il processo va arrestato non appena l’intensità media dell’immagine modificata risulta inferiore a quella dell’immagine di riferimento.
In analogia con il caso precedente, per scurire l’immagine si riduce la luminosità dei toni scuri in misura maggiore rispetto a quelli medi, ottenendo un lieve incremento di contrasto tra di essi a discapito di una diminuzione di quello tra toni medi e toni alti. Questo sempre nell’ottica di privilegiare la ricerca di oggetti scuri.
Analisi dell’immagine
Lo sviluppo del software e del rispettivo metodo di analisi dell’immagine rappresenta la parte maggiormente innovativa, oltre a costituirne la principale sfida e l’obiettivo ultimo vero e proprio: l’intero lavoro sin qui descritto è stato finalizzato a ideare e perfezionare un metodo in grado di riconoscere automaticamente la presenza di difetti, nella fattispecie di fratture, preferibilmente sul fianco dello pneumatico.
Perciò, preliminarmente alla descrizione delle logiche di base implementate nella prima versione del programma, appare opportuno discutere anche il processo che ha portato all’approvazione di tali funzionamenti.
L’idea di base è quella di confrontare un’immagine di riferimento del fianco dello pneumatico con ciascuna delle immagini-campione riprese successivamente a intervalli di tempo regolari.
Il primo approccio è stato quello di considerare come immagine di riferimento la prima acquisita all’avvio del test, assumendo così come pietra di paragone lo stato “vergine” dello pneumatico. La comparazione di ciascuna coppia di immagini non può avvenire attraverso il confronto di ogni singolo pixel, perché si tratterebbe di una procedura estremamente inefficiente, per via dell’elevato ammontare di dati da trattare, e anche inaccurata, perché le immagini inevitabilmente non posso essere precise al punto da far corrispondere sempre lo stesso pixel alla stessa posizione: data la risoluzione in gioco, per cui un pixel corrisponde a qualche decimo di millimetro, è impensabile che un pixel riprenda sempre la stessa posizione angolare della ruota con tale precisione, o che la velocità di rotazione sia talmente stabile da assicurare tale risultato.
Allora, l’approccio è stato quello di definire una firma digitale dell’immagine: con questo termine, nel settore dell’elettronica e delle comunicazioni, si intende uno schema matematico avente la funzione di assicurare l’autenticità di un documento in formato elettronico; in altre parole, si tratta di una caratteristica che rende possibile identificare un documento e certificare che non sia stato alterato.
Data questa definizione, diventa quindi evidente come, nel caso di un’immagine, i suoi punti invarianti presentino piene potenzialità per costituirne la firma digitale. In definitiva quindi, piuttosto che i singoli pixel, si mettono a confronto le rispettive firme digitali delle due immagini, alla ricerca di invarianti presenti sull’immagine attuale ma non su quella di riferimento: questo perché un crack si manifesta come un oggetto scuro cuneiforme sull’immagine, e in aggiunta assume un perimetro frastagliato in seguito a propagazione, per cui ci si aspetta che la sua formazione dia luogo a nuovi invarianti precedentemente non presenti.
Valutazione del metodo di riconoscimento
La prima fase di sviluppo del metodo di riconoscimento ha avuto avvio in concomitanza con l’allestimento del sistema di visione, e di conseguenza non godeva della disponibilità di immagini reali in cui fossero presenti delle fratture sul fianco degli pneumatici. D’altra parte vi era però la necessità di individuare un metodo e di testarne il funzionamento su un elevato numero di prove, in modo da poter raccogliere dei risultati in forma statistica da cui poter trarre delle valutazioni sul suo funzionamento e sulla sua efficacia.
Questo ha suggerito l’idea di selezionare una coppia di immagini (ottenute dalle acquisizioni di prova con il sistema di visione) dello stesso pneumatico scattate in momenti diversi, e di applicare artificialmente un falso crack alla seconda.
Quest’ultimo è stato definito estraendo manualmente da una foto digitale esistente la matrice delle intensità dei pixel corrispondenti a un crack vero, e scalandola alla lunghezza che ci si è posti come target minimo da individuare. Essa viene memorizzata in un file, e un’apposita routine la applica sull’immagine, sovrapponendola in una posizione casuale e con angolazione casuale, perché entrambe queste proprietà possono influire sul numero di corner generati dal crack fittizio.
Se si pensa al dispendio di risorse e di tempo che implica lo svolgimento di un vero test di fatica, è chiaro come tale modo di procedere permetta anche di svolgere un gran numero di prove sul metodo di detection, senza la necessità di condurre test reali sugli pneumatici.
La casualità della posizione e dell’orientazione del finto intaglio permettono inoltre di valutare il corretto funzionamento e l’efficacia del metodo, perché un numero molto elevato di prove assicura che esso venga posizionato in tutte le zone del fianco, da quelle con uno sfondo piatto e uniforme a quelle più complesse. In sintesi, l’impiego del falso crack ha reso possibile eseguire molte prove sul codice, esplorandone l’affidabilità: questo ha permesso di testare la strategia di detection e metterla a punto gradualmente.
Selezione dell’algoritmo di riconoscimento delle feature
Data la grande varietà di algoritmi per la feature detection e l’object detection, ai fini dello sviluppo del metodo, è stato necessario uno studio preliminare e lo svolgimento di alcune prove, per selezionare il più appropriato alla specifica applicazione.
La scelta ha riguardato principalmente il rilevatore di feature invarianti SIFT e il rilevatore di Harris-corner. In base a quanto si può apprendere in letteratura, il primo risulta essere più robusto del concorrente, il che significa che è in grado di assicurare maggiore ripetibilità nel riconoscimento degli invarianti.
Per contro però, nelle prove condotte utilizzando il crack fittizio, l’algoritmo SIFT ha mostrato, di individuare sul crack un numero di punti caratteristici minore rispetto all’algoritmo di Harris, a parità di impostazioni dei parametri (ad esempio la soglia di qualità) ottimizzate per ciascuno.
Si tratta di una prestazione fondamentale, in quanto ai fini di una migliore detection è importante ottenere un significativo numero di corner.
Per questa ragione, e grazie al fatto che nella fattispecie non si ha necessità di invarianza a rotazioni, scala e altre trasformazioni affini, la scelta è ricaduta sull’ algoritmo di Harris: questo significa che la firma digitale dell’immagine sarà la distribuzione degli Harris corner su di essa rilevabili.
Ulteriori vantaggi di tale scelta consistono in un’implementazione più semplice e tempi di esecuzione più brevi: quest’ultimo, anche se non indispensabile, è un aspetto comunque importante, perché tanto minore è il tempo di esecuzione, tanto maggiore può essere la frequenza di campionamento delle immagini, che all’atto pratico equivale a ridurre il tempo e il chilometraggio che intercorrono tra un’ispezione e l’altra dello pneumatico sottoposto a test.
Calibrazione dei parametri
Il metodo di Harris definisce una soglia di qualità dei corner, per discriminare tra quelli da validare e quelli da discriminare. Tale parametro va impostato al valore più opportuno affinché si ottenga un buon rilevamento nell’applicazione.
Per contestualizzar e il ruolo del parametro di qualità, è utile un breve richiamo, ricordando che il metodo di Harris prevede il calcolo della seguente matrice:
dove le funzioni I sono le derivate dell’immagine, ossia i gradienti di intensità dei pixel, mentre w è la funzione “finestra”, che è una matrice di coefficienti di filtraggio. Successivamente, si calcola la seguente metrica per la caratterizzazione dei corner:
dove k è un fattore di sensibilità, definito nell’intervallo 0 ≤ k ≤ 0.25; solitamente si impiegano valore compresi in k = 0.04 ÷ 0.06, e di default è pari a 0.04.
La soglia di qualità esprime una frazione del massimo valore della metrica R nell’immagine, e rappresenta la minima qualità accettabile affinché i corner non vengano rigettati. Generalmente minore è la soglia di qualità, maggiore è il numero di corner restituiti, ma a fronte anche di una maggiore frequenza di falsi positivi.
Altri due proprietà da impostare sono la dimensione del filtro Gaussiano e la regione di interesse. In funzione di tutti questi parametri, l’algoritmo può restituire risultati decisamente differenti pur trattando la medesima immagine.
Pertanto, è stata eseguita una serie di prove allo scopo di ottimizzare le prestazioni dell’algoritmo: questo significa, sempre con riferimento al crack fittizio, ricercare l’insieme di parametri che assicurano il miglior riconoscimento del difetto; ovviamente tali valori saranno gli stessi per entrambe le immagini a confronto.
La stabilità e la ripetibilità del numero di corner sono le caratteristiche più importanti per un corretto funzionamento del metodo di rilevamento.
Quindi, vantaggiosamente, può essere previsto un ulteriore passo di confrontare il numero di punti caratteristici e distintivi (corners) della porzione di immagine contenente l'area corrispondente ad un potenziale difetto con il numero di punti caratteristici e distintivi della corrispondente porzione dell'immagine di riferimento, scartando eventuali rilevazioni per cui il confronto tra i due detti numeri di punti riporta uno scarto inferiore ad una soglia di validazione predefinita.
La calibrazione dei parametri è dipendente dalle modalità con cui si effettua la ricerca e la corrispondenza delle caratteristiche di Harris: per ottenere un maggior numero di corner e che siano nel contempo anche di elevata qualità, è risultato conveniente compiere l’estrazione delle feature su piccole porzioni, raggruppandoli di volta in volta fino ad analizzare le immagini per intero.
A tal proposito, il metodo secondo la presente invenzione prevede preferibilmente un passo di ritagliare l’immagine complessiva in porzioni di dimensioni predefinite, ovvero le due immagini a confronto vengono allora suddivise virtualmente in porzioni radiali di larghezza fissata, e l’algoritmo viene eseguito indipendentemente su ciascuna parte: questo equivale a impostare una regione di interesse avente l’altezza pari a quella dell’immagine e una larghezza personalizzabile (ad esempio, mille pixel).
Per quanto riguarda la dimensione del filtro, è stato mantenuto il valore di default. Sotto queste condizioni, i corner vengono dunque mappati sull’intera immagine. La loro corrispondenza tra le due immagini viene ricercata con un conteggio a livello locale: esse vengono suddivise virtualmente in piccole celle quadrate, ciascuna delle quali conterrà un certo numero di corner (Figura 11).
Teoricamente, se il metodo garantisce una buona ripetibilità, tale quantità non varia: allora, quando una cella presenta, oltre a una differenza di intensità dei pixel superiore a un certo valore (risultante dalla sottrazione di celle corrispondenti), anche una differenza nel numero di corner maggiore di una soglia prestabilita, viene considerata come una regione sospetta, perché la variazione riscontrata potrebbe essere stata causata da un’alterazione occorsa nel corrispondente punto sul fianco dello pneumatico, come ad esempio la formazione di un crack.
Nella fase di sviluppo del codice la dimensione del lato delle celle quadrate è stata fissata in cento pixel, perché idonea a contenere interamente la lunghezza del crack fittizio. L’indagine sulla soglia di qualità è stata condotta mantenendo il crack fittizio con posizione e angolazione fissate sull’immagine, al fine di valutarne l’idoneità a generare corner di per sé, non tenendo ancora in considerazione la sua interazione con lo sfondo.
In tali condizioni, è stato riscontrato che la soglia di qualità non influenza il numero di corner che l’algoritmo individua: questo è dovuto al fatto che il falso intaglio è applicato artificialmente sull’immagine, e conseguentemente lungo i suoi bordi presenta degli angoli netti.
I risultati sono raccolti nella Tabella 1 di seguito riportata.
Si può osservare che, indipendentemente dalla soglia di qualità, il numero di corner trovati sul finto crack è sempre pari a sette. Allora, quando il crack, vero o falso che sia, può trovarsi in una posizione casuale, bisogna tenere conto dell’eventualità che esso venga a trovarsi sul bordo di una cella, e pertanto risulti contenuto in due celle adiacenti, invece che in una.
Ciò significa che l’ammontare di sette corner corrispondente al crack fittizio, nella peggiore delle ipotesi, potrà risultare ripartito in tre corner in una cella, e quattro in quella adiacente: questo ha suggerito di assumere pari a tre la differenza minima di corner necessaria a considerare come sospetta di potenziale failure una regione dell’immagine.
A valle di questa assunzione, è stato selezionato 0.15 come valore ottimale per il parametro di qualità dei corner nel caso di celle di cento pixel di lato, perché assicura un ridotto numero di regioni sulle quali investigare ulteriormente.
Valori più elevati possono rivelarsi rischiosi, perché potrebbero ridurre eccessivamente il numero di corner individuati sui crack reali. Entrambe le scelte fatte per le soglie di qualità e di differenza nel numero di feature trovate puntano a minimizzare i falsi positivi e i falsi negativi, cioè le segnalazioni di zone non affette da failure e le mancate segnalazioni di failure invece presenti.
Una volta individuata la migliore combinazione di parametri, è necessario valutare se il medesimo crack può generare lo stesso numero di corner qualora si trovi posizionato su sfondi sempre diversi. Intuitivamente, tale numero non potrà essere sempre lo stesso, ma è importante assicurarsi che il metodo individui in tutti i casi una quantità di corner sufficiente.
Tabella 1
Valutazione di sensibilità e robustezza
L’analisi sulla sensibilità del metodo consiste nel valutare l’effetto, sul risultato finale, di tutte quelle variazioni non relative alle failure, come ad esempio le variazioni di luminosità, di velocità, o le vibrazioni. Le manipolazioni sulle immagini descritte precedentemente mirano a neutralizzare nella maggior misura possibile tali variazioni, pur ricordando che non possono essere annullate completamente, al fine di rendere le condizioni in cui si effettua il conteggio dei corner quanto più coerenti e ripetibili.
Per quanto riguarda le problematiche dei falsi positivi e negativi, va sottolineato che sul fianco di uno pneumatico sono stampigliati numerosi elementi, trame e forme geometriche; inoltre, nell’ambito dei test indoor, è frequente che gli pneumatici vengano contrassegnati scrivendovi dei riferimenti interni.
Tutte queste aree risultano critiche ai fini del conteggio, perché generano un numero molto elevato di corner e per di più in maniera instabile. Questo significa che per le celle che includono tali zone vi è un ampio margine entro cui si può avere una differenza di corner superiore alla soglia impostata: in parole povere, senza l’intervento di un’alterazione, ben difficilmente un’area che di solito presenta due corner può arrivare a fornirne cinque, ossia tre in più, che è la differenza minima impostata e che in questo caso equivale a una maggiorazione del 150%; viceversa, è molto più probabile che un’area che normalmente dà luogo a trenta corner, possa fornirne anche trentatré, perché in questo caso si tratta solamente di un 10% in più.
Questa considerazione da sola suggerisce di fare riferimento a un incremento percentuale, invece che assoluto, e nel contempo anche di orientare l’attenzione su metodi che possano eliminare in maniere alternative le zone critiche: si tratta di problematiche di dettaglio che verranno discusse più approfonditamente in seguito.
Nel contesto della valutazione della sensibilità, l’aspetto interessante è semplicemente quello di comprendere che il numero di corner individuato nelle aree critiche è altamente variabile, ed è la principale causa del verificarsi di falsi positivi, perché questo fa sì che tra le due immagini (o più precisamente celle) a confronto, si riscontri una differenza di corner superiore alla soglia minima impostata, anche in assenza di alterazioni e quindi di failure.
Le medesime zone del fianco possono essere fonte anche di falsi negativi: questo accade quando un crack si genera proprio in tali punti, perché la variazione nel numero di corner indotta dalla presenza del crack può essere compensata e quindi mascherata dall’alta variabilità intrinseca legata allo sfondo.
Questa compensazione può essere tale per cui la variazione complessiva nel numero di corner risulta inferiore alla soglia minima impostata, e quindi la cella corrispondente non viene segnalata come sospetta.
Un altro tipo di falso negativo, dipendente dalla posizione del crack ma non dal numero di corner legati allo sfondo, si verifica quando il crack non genera abbastanza corner, ossia ne fornisce una quantità inferiore alla soglia minima impostata. Questo può accadere, per esempio, quando esso non ha ancora un’estensione sufficiente, o quando presenta un contorno morbido: il primo può causare troppi pochi gradienti di intensità tra pixel, il secondo può formarne di troppo deboli.
Infine, una terza tipologia di falso negativo si verifica quando il crack sorge in una zona in ombra e quindi molto scura: tipicamente, si tratta della fascia tra il cerchio e il tallone. Anche questa condizione può dare luogo a gradienti troppo deboli o in numero insufficiente, ma non è dovuto a una carenza della strategia di riconoscimento, quanto piuttosto alla difficoltà di illuminare la suddetta zona: è perciò necessario curare meticolosamente il posizionamento della fotocamera e dell’illuminatore, per ottenere sufficiente visibilità anche nelle parti più nascoste. Il metodo di riconoscimento dei crack deve quindi essere validato contro tutte queste problematiche, che equivale a dover confermare l’accuratezza delle soglie di qualità e di differenza nel numero di corner.
A tale scopo, stavolta si rendono casualmente variabili la posizione e l’orientazione del crack fittizio. La prima validazione effettuata è stata quella del parametro di qualità, eseguendo l’algoritmo mille volte per ciascun valore compreso tra 0.10 e 0.20. La valutazione è stata ristretta a tale range perché rappresenta un intorno del valore ottimale precedentemente individuato con il crack mantenuto fermo; per validare il risultato prece dente non ha perciò significato allontanarsi eccessivamente da esso.
I risultati sono riassunti nella Tabella 2 e rappresentati graficamente in Figura 12: si osserva che i valori nell’intervallo 0.13 ÷ 0.15 sono accettabili; al di sotto di tale range, la ricerca dei corner presenta alcune instabilità, come quella per 0.11, che risulta completamente estraneo all’andamento definito dagli altri valori; al di sopra di tale range, in aggiunta alle instabilità, si osserva anche un accentuarsi della crescenza dei falsi negativi e della decrescenza dei rilevamenti corretti.
Tabella 2
In modo del tutto analogo, per la validazione della soglia di minima differenza per il numero di corner sono stati eseguiti mille test con posizione e orientazione casuali del crack fittizio, per valori della soglia compresi tra 2 e 6.
Non sono stati considerati valori più bassi, perché assumere 0 equivarrebbe a non porre nessun filtro all’accettazione delle regioni sospette, mentre 1 è un valore ancora oggettivamente troppo basso, da cui scaturirebbero troppi falsi positivi; per quanto riguarda il limite superiore invece, come si vedrà, già il valore 6 porta a risultati decisamente insoddisfacenti, per cui non avrebbe avuto senso ampliare il range verso l’alto.
Il procedimento prevede quindi un passo di validazione per scartare eventuali false rilevazioni.
I risultati sono riassunti nella successiva Tabella 3 e rappresentati graficamente in Figura 13: si può osservare che i valori di soglia accettabili sono 3 e 4; al di sotto di questi, si riscontrano un numero troppo elevato di falsi positivi; viceversa, al di sopra, si nota un deciso incremento nel numero di falsi negativi.
In definitiva, relativamente all’impiego del crack fittizio, le soglie precedentemente determinate risultano convalidate anche rispetto alla variabilità della posizione e dell’angolazione dell’intaglio, e quindi indipendentemente dallo sfondo su cui viene a trovarsi.
Perciò, per ridurre al minimo i riconoscimenti errati e quelli mancati, restano confermati i valori 0.15 per il parametro di qualità, e 3 per l’incremento minimo di corner in una cella quadrata di lato pari a cento pixel.
Teoricamente, l’unica regione che dovrebbe essere individuata è quella in cui si trova il crack fittizio, perciò un numero maggiore di regioni manifesta dei falsi positivi. Inoltre, la somma di tutti i casi dovrebbe essere pari al numero di test, cioè mille; alcune volte però il sistema può restituire simultaneamente un falso positivo e un falso negativo, perciò la somma può risultare maggiore di mille, perché significa che un singolo dato contribuisce in due categorie.
Dopo aver elaborato le immagini applicando secondo quanto finora descritto, secondo la presente invenzione è anche possibile caratterizzare ciascun pixel pIa(xi, yj), appartenente a ciascuna immagine complessiva Ia, tramite almeno due informazioni:
- la grandezza del vettore di spostamento di ciascun pixel pIa(xi, yj), appartenente a Ia, rispetto al pixel omologo pIr(xm, yn), appartenente all’immegine di riferimento Ir, avente le stesse caratteristiche in termini di, ma non limitato a: • valore di scala di grigi;
• gradiente del valore di scala di grigio calcolato secondo due direzioni perpendicolari, cioè direzioni x e y;
- la direzione angolare dello spostamento del vettore sopra indicato, rispetto ad una direzione preferita, ad es. la direzione x.
Quando tutti i pixel pIa(xi, yj) appartenenti a Ia sono caratterizzati come descritto sopra, si ottiene un campo vettoriale di spostamento, in cui tutti i pixel pIa(xi, yj) appartenenti a Ia sono associate informazioni relative al loro spostamento (in grandezza e direzione) rispetto al loro pixel omologo pIr(xm, yn), appartenente a Ir, che ha le stesse caratteristiche in termini di, ma non limitato a:
• valore di scala di grigi;
• gradiente del valore di scala di grigio calcolato secondo due direzioni perpendicolari, cioè direzioni x e y.
Per chiarezza, si fornisce un esempio della elaborazione descritta sopra.
Con riferimento alla figura 14, viene mostrata una immagine di riferimento Ir, cioè un'immagine senza difetti di una parete laterale di un pneumatico.
La successiva figura 15 mostra una immagine complessiva Ia, cioè un'immagine reale della stessa parete laterale dello stesso pneumatico presa in un diverso intervallo di tempo, sotto l'effetto di input ambientali esterni e/o statici/dinamici diversi dalla forza di gravità e/o dalla pressione atmosferica che agisce sulle superfici del pneumatico stesso; che quindi si trova in una condizione deformata. Il pneumatico mostra un difetto nella parte in basso a sinistra del fianco.
La successiva figura 16 mostra, evidenziato da un puntinato bianco, il campo del vettore di spostamento calcolato su ciascun pixel pIa(xi, yj) appartenente a Ia, rispetto al loro pixel omologo pIr(xm, yn) appartenente a Ir e avente la stessa caratteristica di pIa(xi, yj) come descritto sopra.
Le regioni evidenziate tramite un puntinato bianco sono quindi associate ai dati di spostamento (in grandezza e direzione) dei rispettivi pixel pIa(xi, yj), confrontati con i loro pixel omologhi pIr(xm, yn), appartenenti a Ir e aventi le stesse caratteristiche di pIa(xi, yj) come descritto sopra.
Si può osservare che sia:
- impostando a zero il campo del vettore di spostamento calcolato su Ia;
- che sovrapponendo detto campo del vettore di spostamento su Ir;
le differenze nelle condizioni deformate in cui l'oggetto di interesse si viene a trovare, vengono annullate.
In altre parole, è possibile impostare le stesse condizioni deformate dell'oggetto di interesse, rappresentato in un'immagine digitale 2D scattata ad intervalli di tempo diversi, tramite:
- calcolo del campo del vettore di spostamento di Ia rispetto a Ir;
- impostazione del campo del vettore di spostamento calcolato allo stesso valore su Ir e/o Ia;
anche se l'oggetto di interesse mostra un comportamento meccanico/strutturale flessibile/isteretico ed è sotto l'effetto di input ambientali esterni e/o statici/dinamici che causano condizioni deformate casuali e non prevedibili nel tempo.
In altre parole, è possibile migliorare la corrispondenza spaziale tra Ir e Ia eseguendo la suddetta manipolazione sul campo del vettore di spostamento su Ir e/o Ia come descritto sopra.
Si può inoltre osservare che quando le metodologie di cui sopra sono eseguite prima di una metodologia di sottrazione di sfondo convenzionale, o prima della di un confronto perfezionato come descritta nella presente descrizione, la corrispondenza spaziale tra Ir e Ia è migliorata e questa circostanza, a sua volta, riduce la falsa percentuale di rilevamento dei difetti.
Si può inoltre osservare che i migliori risultati si ottengono se la suddetta metodologia, come descritta sopra, viene iterata poche volte, cioè:
- il campo del vettore di spostamento viene calcolato alcune volte come risultato del confronto, tra Ir e Ia(t1), Ia(t2), ..., Ia(tn), dove t1, t2, ..., tn sono istanti consecutivi;
- ogni volta, il campo del vettore di spostamento calcolato sopra è impostato allo stesso valore su Ir e/o Ia;
- ogni volta viene eseguita una sottrazione di sfondo o, secondo l’invenzione, una fase di comparazione migliorata tra Ir e Ia(t1), Ia(t2), ..., Ia(tn), dove t1, t2, ... , tn sono istanti di tempo consecutivi, dopo aver impostato il campo del vettore di spostamento calcolato sopra allo stesso valore su Ir e/o Ia(t1), Ia(t2), ..., Ia(tn); - l'area proposta come potenziale difetto al passo sopra descritto, va sottoposto ad intersezione topologica, cioè va verificato se l'area proposta come potenziale difetto calcolato all’istante tn, contiene o è maggiore dell'area proposta come difetto potenziale calcolato all'istante tn-1.
Per chiarezza, si riporta in figura 17 un diagramma di flusso della metodologia come sopra descritto.
Conclusioni sulla fase di sviluppo del software
La serie di prove eseguite con l’utilizzo del falso intaglio ha dimostrato la fattibilità del metodo. Impiegando i parametri approvati nella Sezione 3.4.4, il metodo raggiunge una percentuale di successo prossima al 95% nel riconoscimento del crack fittizio, che viene trovato quasi in tutte le posizioni ad eccezione di alcune in prossimità del cerchio.
Il falso crack genera almeno quattro corner in ciascuna posizione testata, quantità che permette una buona selezione tra riconoscimenti corretti ed errati; inoltre, viene restituito al più un falso positivo. Tutto ciò dimostra che il metodo, potenzialmente, è idoneo allo scopo e ha una bassa percentuale di rilevamenti mancati o sbagliati: la versione di prova del programma, così come descritta finora, è stata quindi approvata, divenendo così la prima versione effettivamente utilizzata su interi database di immagini provenienti dal monitoraggio di veri test, non appena terminato l’allestimento del sistema di visione.
Questo significa che il metodo passava quindi dalla situazione di raffrontarsi con la ricerca del crack fittizio a quella di operare nelle effettive condizioni di impiego: le principali differenze sono quelle di avere uno sfondo di volta in volta leggermente diverso, seppur reso quanto più ripetibile possibile tramite il pre processing delle immagini, e soprattutto di dover individuare crack reali formatisi nel corso di veri test.
Le prime prove in tale contesto hanno mostrato un certo aumento dei falsi positivi, dovuto all’allargarsi del panorama di situazioni che possono dare luogo a un incremento del numero di corner di una cella maggiore della soglia prestabilita. La prima a manifestarsi, in quanto subito evidente, è che le immagini acquisite dai veri test sono sensibilmente più luminose di quelle utilizzate come sfondo del falso crack, grazie al progressivo miglioramento del sistema di visione: questo aspetto riduceva i corner individuati nelle aree critiche con impresse delle geometrie, e la loro variabilità; sulle immagini più recenti invece, questo effetto è più rilevante.
È utile evidenziare che non si tratta della differenza di luminosità riscontrabile nell’arco di un test, che l’algoritmo può correggere, ma bensì di due differenti test le cui immagini sono riprese con condizioni di luce diverse.
Di seguito sono riportati nella Tabella 3 i risultati per diverse soglie di differenza minima del numero di corner, applicati a mille esecuzioni dell’algoritmo.
Tabella 3
Teoricamente, l’unica regione che dovrebbe essere individuata è quella in cui si trova il crack fittizio, perciò un numero maggiore di regioni manifesta dei falsi positivi. Inoltre, la somma di tutti i casi dovrebbe essere pari al numero di test, cioè mille; alcune volte però il sistema può restituire simultaneamente un falso positivo e un falso negativo, perciò la somma può risultare maggior e di mille, perché significa che un singolo dato contribuisce in due categorie.
In ogni caso, le prime prove hanno anche mostrato un funzionamento comunque opportuno dell’algoritmo, che si è confermato ancora in grado di riconoscere gli intagli, presentando però ripetibilità e precisione inferiori. Questo è dovuto al fatto che un crack vero ha caratteristiche nettamente diverse da quello fittizio utilizzato. I crack reali, a parità di lunghezza, solitamente generano un numero di corner inferiore a quello falso, perché quest’ultimo ha una forma più sottile e appuntita, ma soprattutto ha un perimetro con angoli molto più netti; i veri intagli invece presentano bordi più morbidi e graduali in termini di variazione di intensità. Di conseguenza, una soglia troppo elevata per la differenza di corner può causare più facilmente un falso negativo, per cui è stato avviato lo studio del comportamento ottenibile con una soglia più bassa e pari a due, che però rende il metodo meno selettivo nei confronti dei falsi positivi.
Le Figure da 18 a 20 mostrano visivamente le varie considerazioni appena esposte: confrontando la Figura 18 con le altre due, si può osservare che l’immagine che fa da sfondo al crack fittizio è decisamente più scura; inoltre, le Figure 19 e 20 dimostrano la capacità del programma di individuare anche crack reali, e che l’utilizzo di una soglia più bassa, in alcuni casi, permette di rilevare anche intagli molto corti, e quindi in un momento molto prossimo a quello della formazione.
La Tabella 4 mostra le informazioni, riguardanti il crack, che il programma permette di portare a conoscenza, e in particolare elenca quelle relative alla frattura mostrata in Figura 20, che costituisce uno dei risultati migliori individuati utilizzando la prima versione del programma, a ulteriore conferma del potenziale del metodo.
Tabella 4
Questa serie di nuove problematiche riscontrate nel trattare con vere fratture del materiale ha chiaramente spinto a una rivisitazione del programma, seppur già prevista ordinariamente per un naturale miglioramento del metodo, al fine di apportare nuove soluzioni per adattarlo al contesto operativo effettivo.
Seconda possibile versione del software
La prima versione del programma ha evidenziato una serie di punti di avanzamento sui quali intervenire per adattare e migliorare le prestazioni del metodo in termini di riconoscimento dei crack reali. Le modifiche su tali punti, affiancate all’introduzione di nuove procedure di elaborazione dell’immagine per migliorare i tempi di esecuzione o perfezionarne i risultati, hanno portato alla realizzazione di una seconda versione del programma.
In particolare, sono stati ideati una serie di metodi alternativi per lo svolgimento delle singole operazioni, di seguito presentati.
Al software nel suo complesso è stata attribuita una struttura modulare, che permette di selezionare il metodo da utilizzare per eseguire ciascuna delle operazioni singole, le quali diventano quindi intercambiabili.
Dato che effettuare una stessa operazione con metodi diversi può portare comunque a risultati differenti ed eventualmente a una certa variabilità: ad esempio, utilizzare strategie diverse per la correzione della luminosità comporta sicuramente valori delle intensità dei singoli pixel variabili dall’una all’altra, seppur in modo impercettibile all’osservazione.
La struttura modulare e l’intercambiabilità delle operazioni aprono quindi alla possibilità di sperimentare diverse combinazioni di procedure e individuare la più efficace in generale, e anche di poter ricorrere a una combinazione diversa per casi particolari con difficoltà specifiche.
Secondo possibile metodo di rotazione
La rotazione applicata attraverso il conteggio dei corner presenti sull’intera immagine ha mostrato un’elevata affidabilità, ma per contro comporta un elevato carico computazionale. Per ridurlo, è stato introdotto un metodo basato sulla media cumulativa: quest’ultima viene calcolata partendo dalla media della riga centrale dell’immagine, e aggiornandone iterativamente il valore riga per riga procedendo sia verso l’alto che verso il basso, il quale viene perciò calcolato progressivamente su due righe, poi tre, quattro e così via fino agli estremi dell’immagine.
Questa particolare procedura è stata adottata perché si è osservato che, rappresentando sia l’andamento della media cumulativa che della media aritmetica calcolata per righe, e filtrandoli opportunamente per ridurne il rumore, si può sempre individuare un punto notevole in prossimità del bordo del cerchio. Pertanto, questo può essere interpretato come un punto caratteristico per capire da quale parte dell’immagine si trova il cerchio e perciò per ruotare opportunamente l’immagine.
Se invece la media cumulativa fosse calcolata procedendo da un estremo verso l’altro, tale punto non si rivelerebbe. Più dettagliatamente, la Figura 21 mostra che il bordo del cerchio dà luogo ai punti di minimo maggiormente pronunciati di entrambi gli andamenti, e al gradiente di intensità più brusco per quanto riguarda la media aritmetica per righe.
Si inizia individuando tutti i punti di minimo dell’andamento della media cumulativa, e si seleziona quello di interesse, cercando quale tra di essi è associato alla massima differenza della media aritmetica, valutandone il salto che si presenta in un certo intorno di ciascun punto di minimo.
Una volta trovato il punto di minimo corretto, questo individua la coordinata approssimata del bordo del cerchio: a partire da tale coordinata, ci si muove sul grafico della media aritmetica nel verso decrescente, fino a trovarne il primo punto di minimo, che viene assunto a posizione esatta del cerchio.
Nota quest’ultima, si procede a ruotare e ritagliare le immagini con le stesse modalità descritte precedentemente, e continuano perciò a valere le relative considerazioni. Anche questo metodo ha mostrato buona precisione nel ritaglio ed elevata affidabilità, e il suo impiego riduce il tempo di esecuzione dell’operazione di rotazione da 10.3 a 0.6 secondi, ma questo dipende anche dal calcolatore utilizzato, per cui più propriamente si può parlare di una riduzione nell’ordine del 90%.
Secondo possibile metodo per l’allineamento
Come già spiegato precedentemente, il primo metodo per l’allineamento delle immagini permette di ottenere una affidabilità molto elevata ma non totale: di conseguenza, si è andati alla ricerca di metodi alternativi per migliorare ulteriormente il risultato; l’operazione di allineamento è infatti di cruciale importanza ai fini della successiva analisi, perché quando si effettua la sottrazione tra le due immagini a confronto per valutare le differenze di intensità, se non sono correttamente allineate, viene restituito un gran numero di falsi positivi.
Per effetto delle variazioni che possono intervenire sul fianco durante un test, i fallimenti del metodo si riscontrano in pratica solamente nelle immagini successive alla prima: perciò, si è pensato di mantenere il primo metodo per trattare l’immagine di riferimento, e di individuare una nuova strategia per quelle acquisite in seguito. Il secondo metodo ideato si basa sulla considerazione che una qualsiasi riga circonferenziale di pixel del l’immagine costituisce di fatto la discretizzazione del segnale luminoso registrato dal corrispondente pixel del sensore, per cui può essere assimilata a un segnale discreto nel tempo.
Poiché si riprendono in ciascuna immagine due giri di ruota, questo segnale ha un andamento ciclico che si ripete due volte. Il problema si può allora interpretare come un problema di allineamento tra due segnali (Figura 22): una volta estrapolato un singolo di ruota dall’immagine di riferimento, se ne può estrarre il segnale di una data riga di pixel (ad esempio quella di mezzo), e cercare il migliore allineamento con il segnale della stessa riga proveniente dall’immagine corrente, traslando progressivamente l’uno rispetto all’altro.
Nella Figura 22 la linea nera rappresenta il segnale di riferimento ed è più breve perché già ridotta a un solo giro di ruota, mentre la linea blu rappresenta il segnale dell’immagine corrente, che comprende due giri di ruota. Si può osservare che l’andamento blu si ripete effettivamente due volte, e che quello nero, se traslato di una certa quantità, può sovrapporsi quasi perfettamente all’altro.
Per trovare tale allineamento si può fare ricorso alla correlazione incrociata, che in teoria dei segnali esprime una misura di quanto due segnali sono simili, in funzione dello spostamento temporale tra di essi. Per una coppia di segnali x e y continui oppure discreti, rispettivamente, la correlazione incrociata si calcola per mezzo delle Equazioni 11, dove x* è il complesso coniugato di x:
Il valore di spostamento per cui si riscontra il massimo valore della correlazione incrociata è quello di cui bisogna traslare un segnale rispetto all’altro per realizzare l’allineamento (Figura 23).
In seguito, è sufficiente ritagliare il segnale dell’immagine corrente in corrispondenza degli estremi di quello di riferimento, per estrapolare anche da essa un singolo giro di ruota, con gli stessi punti di inizio e fine dell’immagine.
Questo secondo metodo va a processare solamente delle singole righe di pixel, anziché l’intera matrice che costituisce l’immagine, e quindi è più rapido del primo; per contro però, fallisce più frequentemente, per cui il suo utilizzo è stato sospeso, in attesa di interventi migliorativi o di impieghi diversi, ad esempio in combinazione con gli altri metodi, o come soluzione alternativa in caso di errato allineamento da parte di questi ultimi.
Terzo possibile metodo per l’allineamento
I primi due metodi ottengono l’allineamento a prescindere dagli elementi presenti sul fianco dello pneumatico: è però molto frequente che esso sia contrassegnato con dei marker bianchi per tracciabilità interna; in aggiunta, l’esperienza pratica nell’acquisire e nel trattare le immagini ha evidenziato l’utilità di apporre un indicatore del verso di rotazione, operazione ormai affermatasi come abitudinaria. Tutto ciò fa sì che entrambi i fianchi dello pneumatico presentino sempre dei segni distintivi, per cui può essere conveniente tentare di sfruttare anche questa caratteristica ai fini dell’allineamento.
Il terzo metodo punta ad individuare uno stesso marker ripetuto due volte sull’immagine (perché quest’ultima contiene due giri di ruota), cioè una coppia di contrassegni identici, e utilizzarli come punto iniziale e finale dell’immagine.
In figura 23 si può osservare il picco che rappresenta il miglior allineamento. I tratti discendenti in modo obliquo sono dovuti alla differente lunghezza dei due segnali, e individuano quegli spostamenti per i quali essi non sono completamente sovrapposti, mentre in figura 24 si può osservare una sequenza di cinque corner che si ripete per due volte, e che da un’immagine all’altra tale sequenza risulta traslata di una certa quantità.
Per quanto riguarda il trattamento dell’immagine di riferimento, si inizia isolando i maggiori marker presenti, attraverso una conversione in bianco e nero dell’immagine: in particolare, si tiene conto dei dieci marker di area maggiore, che idealmente costituiscono cinque coppie (Figura 24); non sempre questo è vero, se vi sono marker diversi con aree simili può capitare che uno dei due “gemelli” rimanga escluso dalla selezione, e quindi si ha a disposizione una coppia in meno. A questo punto, a ciascuna delle dieci aree individuate vengono attribuite cinque caratteristiche geometriche e una di posizione, che dal punto di vista teorico non variano da un’immagine all’altra.
Il primo indice geometrico è la solidità, che si calcola come il rapporto tra l’area (in pixel) della regione individuata e l’area del proprio poligono convesso (Figura 25).
Il secondo è la rotondità, che esprime una misura di quanto la regione approssima un cerchio, e si calcola secondo la formula riportata nell’Equazione 3.12, dove A e p sono rispettivamente l’area e il perimetro della regione considerata:
Ad ogni regione risultante dall’immagine si può inoltre associare un’ellisse equivalente, della quale si possono calcolare il rapporto tra la lunghezza dell’asse minore e quella dell’asse maggiore (o viceversa), e l’eccentricità, che è il rapporto tra la distanza tra i fuochi e la lunghezza dell’asse maggiore (Figura 26).
Infine, ciascuna regione si può caratterizzare attraverso la sua estensione, data dal rapporto tra l’area della regione e l’area del minimo rettangolo in cui può essere contenuta, detto bounding box (Figura 27).
Il passo di validazione può quindi comprendere un passo di confronto tra:
- un valore di estensione superficiale espressa in pixel<2 >di ciascuna area identificata come potenziale difetto; e
- un valore di superficie di soglia espresso in pixel<2 >predeterminato, scartando le aree identificate come potenziale difetto, per cui detto valore di estensione superficiale risulti inferiore a detto valore di superficie di soglia.
Per quanto riguarda invece la caratteristica relativa alla posizione della regione, per effetto della ripetibilità del ritaglio delle immagini si può affermare che il rapporto tra la coordinata verticale del centroide della regione e l’altezza dell’immagine avrà sempre lo stesso valore, a meno di leggeri spostamenti di qualche pixel: per cui viene considerato come una sesta caratteristica invariante di ciascuna regione.
Poiché tutte le sei proprietà si esprimono con rapporti che possono assumere valori compresi tra zero e uno, è possibile considerare i sei valori calcolati come se fossero le coordinate di un vettore in uno spazio a sei dimensioni. Questo rende possibile calcolare il prodotto scalare tra due vettori in tale spazio:
la norma di un vettore:
e l’angolo compreso tra due vettori, derivante dalla definizione del prodotto scalare:
Allora, per trovare i marker che costituiscono una coppia, si possono calcolare gli angoli compresi tra i rispettivi vettori di tutti i possibili accoppiamenti: si ottiene una matrice avente numero di righe e colonne pari al numero di marker selezionati, e il valore minimo in essa presente individua le due regioni più simili tra loro. Questo significa che il contrassegno corrispondente è quello che si presenta più simile a sé stesso, ed è quindi indiziato di una migliore ripetibilità rispetto agli altri: per questo motivo viene promosso a marker di riferimento, e il vettore ad esso associato viene immagazzinato per essere richiamato durante l’elaborazione delle immagini successive alla prima.
In particolare, tale vettore viene utilizzato per ripetere la ricerca delle due regioni che con esso formano gli angoli più piccoli: nota la coppia dei marker, si procede a ritagliare l’immagine in corrispondenza delle linee verticali che individuano un loro estremo o il centroide, estraendo in questo modo un singolo giro di ruota dall’immagine avente sempre lo stesso punto di inizio e fine.
Questo metodo comporta un aumento del tempo di esecuzione, che più precisamente raddoppia passando da 0.3 a 0.6 secondi: si tratta in ogni caso di un incremento inferiore al secondo, e quindi accettabile. Le prime prove hanno inoltre mostrato che il metodo presenta un’affidabilità paragonabile a quella del primo metodo descritto in precedenza.
Secondo possibile metodo per la correzione della luminosità
Il primo metodo per la correzione della luminosità porta a buoni risultati in termini di intensità media dell’immagine: per contro però, il processo iterativo implica tempi di esecuzione lunghi, e inoltre possono rimanere delle variazioni locali, che in questo caso equivale a dire lungo la direzione radiale; come spiegato infatti, a pixel di intensità diverse vengono apportate correzioni diverse cercando di soddisfare la condizione sulla luminosità media, e questo significa che per alcuni toni la variazione di luminosità può risultare compensata in modo opportuno, e per altri meno.
Per ovviare a questi inconvenienti, è stata ideata specificamente una seconda strategia di diverso comportamento, ed è importante sottolineare che essa non può funzionare autonomamente ma necessita di una fase preliminare in cui si vanno ad allungare o accorciare, in direzione radiale, delle fasce orizzontali dell’immagine.
Come visto per il primo metodo, la prima immagine del test rimane invariata, e viene sfruttata come riferimento per elaborare le successive rendendole quanto più possibile simili ad essa. Si inizia ricavando il grafico, opportunamente filtrato, delle intensità medie dell’immagine calcolate lungo le righe orizzontali (Figura 28), sia per l’immagine di riferimento che per quella corrente; su di essi vengono poi individuati i rispettivi punti di massimo e di minimo aventi una prominenza superiore a una certa soglia, in modo da selezionare i picchi più significativi tra tutti quelli presenti ; infatti, è ragionevole ritenere che tali picchi siano i più ripetibili nelle varie immagini, perché data la loro prominenza hanno una più elevata probabilità di corrispondere a righe maggiormente caratterizzate rispetto alle altre.
Nella Figura 28 gli indicatori blu individuano i punti di massimo e di minimo considerati: si può osservare che non sono esattamente allineati da un’immagine all’altra.
Per effetto delle deformazioni del fianco dello pneumatico che possono intervenire nell’arco di un test, questi punti notevoli tendono a disallinearsi e a risultare, sull’immagine corrente, leggermente traslati rispetto agli omologhi trovati sull’immagine di riferimento. Data la loro peculiarità, vengono allora interpretati come delimitatori, e sfruttati per allungare o accorciare, lungo la direzione verticale, le parti di immagine comprese tra di essi: in altre parole, in ogni immaginicampione, ciascuno di questi “nodi” viene riportato alla stessa coordinata verticale y a cui si trova il proprio omologo sull’immagine di riferimento.
A questo punto, in linea teorica, tra le due immagini a confronto si ha un perfetto allineamento in direzione radiale, e si può intervenire sulla luminosità, semplicemente aumentando il valore di intensità di tutti i pixel di una riga di una quantità pari alla differenza di intensità media che tale riga presenta tra le due immagini: ciò significa che le due linee mostrate in Figura 28 diventano esattamente coincidenti e sovrapposte l’una all’altra.
In questo modo per entrambe le immagini risultano uguali sia le intensità medie di ciascuna riga, sia l’intensità media dell’intera immagine. Questo metodo riduce il tempo di esecuzione da 5 a 0.2 secondi, e permette di ottenere anche una resa visiva migliore rispetto al primo; presenta però anche dei punti deboli, in quanto introduce una maggiore artificiosità nei valori dei pixel, e soffre inoltre di lievi mancanze di precisione nell’allineamento verticale, seppur in modo non invasivo per quanto riguarda l’integrità dell’immagine.
Questa non completa accuratezza può verificarsi ad esempio quando vengono trovati due nodi troppo vicini tra loro che interferiscono tra loro a vicenda, oppure quando i nodi individuano una riga che non è caratterizzata da una qualche peculiarità, come auspicato, ma è semplicemente più luminosa per via di riflessi particolarmente intensi dovuti all’inclinazione della superficie del fianco in quel punto; se il fianco si deforma, il riflesso si sposta in un altro punto della superficie in modo indipendente e perciò diverso da quello in cui si spostano invece i punti della superficie stessa, per cui si perde la corrispondenza tra coordinata verticale sull’immagine e coordinata radiale sul fianco.
Secondo possibile metodo di analisi dell’immagine
La revisione del metodo di riconoscimento degli intagli è stata orientata, oltre che a perseguire in generale una migliore efficienza nei processi e a introdurre la struttura modulare, alla riduzione del numero di falsi positivi e di falsi negativi. In merito a quest’ultima, va sottolineato che la principale difficoltà risiede nel fatto che un intervento mirato a rendere più stringente la selezione nei confronti dei falsi positivi, quasi inevitabilmente, rende il programma più rigido anche nei confronti del le regioni che effettivamente presentano dei crack, e perciò tende a far aumentare i falsi negativi: in altre parole, si tratta di esigenze contrapposte, e migliorare in un senso corrisponde quasi sicuramente a peggiorare nell’altro.
Per questo motivo il software procede con una logica graduale, utilizzando di volta in volta i vari parametri a cui si può fare riferimento per individuare un crack: l’intensità dei pixel, la forma geometrica, e i gradienti di intensità, cioè i bordi e i corner. Poiché il suo sviluppo è iniziato in un momento in cui erano stati già acquisiti un certo numero di database di immagini, la nuova versione presenta l’importante novità di sfruttare dei veri dati pregressi per il miglioramento delle prestazioni del programma, contrariamente a quanto accadeva in precedenza.
Il primo intervento, rispetto alla versione iniziale, è stato quello di migliorare l’approccio con cui si indagano le regioni caratterizzate da una differenza di intensità dei pixel tra l’immagine di riferimento e quella corrente. Le immagini vengono convertite in formato binario per mezzo di una soglia restituita da un’apposita funzione, costruita sulla base dei dati ottenuti da precedenti test. In particolare, per ciascun test a disposizione si va ad osservare il valore di soglia che rende distinguibile nel modo migliore il crack rispetto allo sfondo, e lo si associa con il valore di intensità media dell’immagine: la funzione da utilizzare nel processo si ottiene interpolando tali dati.
All’atto della conversione, per ciascuna riga dell’immagine si calcola l’intensità media e in funzione di questa il valore di soglia corrispondente: la trasformazione sfrutta quindi una soglia diversa e appositamente tarata per ogni singola riga, in funzione della luminosità che essa presenta; ciò equivale a dire che la soglia viene adattata localmente al tono della specifica zona, in quanto per uno sfondo più scuro serve una soglia più bassa per evidenziare un crack, e viceversa.
La conversione è tale da portare i toni scuri al valore 0, e quelli chiari al valore 1, che rispettivamente equivalgono al nero e al bianco: questo significa che l’immagine convertita apparirà visivamente come uno sfondo bianco con delle regioni nere sparse. Poiché le funzioni in seguito utilizzate prevedono un input tale per cui si vada alla ricerca di regioni bianche, le immagini binarie vengono invertite.
A questo punto, si genera una matrice che rappresenta una mappa dei punti caratterizzati da una differenza di luminosità consistente: essa viene calcolata attribuendo il valore 1 a quei pixel che risultano bianchi sull’immagine corrente e neri su quella di riferimento (più precisamente, sulle rispettive conversioni in formato binario), e il valore 0 a tutti gli altri; questo equivale a ricercare quei punti che sulla prima immagine del test sono di tono chiaro, e sul campione successivamente acquisito sono invece di tono scuro, trattandosi di una variazione che potenzialmente potrebbe essere stata indotta dalla formazione di un intaglio.
Un esempio di matrice risultante da questo processo viene mostrato in Figura 29: seppur con molta difficoltà, a causa della forte contrazione dell’immagine, si può distinguere una grande quantità di piccole regioni bianche, e questo nonostante il metodo di conversione sia stato concepito per ridurre al minimo, sin dalla prima selezione, il loro numero; la mappa inoltre può presentare anche del rumore più o meno incisivo, sotto forma di pixel bianchi sparsi. Per questi motivi, in seguito all’ottenimento della mappa delle differenze di intensità, è necessario attuare un’ulteriore selezione delle regioni risultanti in base alla loro forma, sfruttando i parametri geometrici già descritti: solidità, rotondità, eccentricità, rapporto tra gli assi, estensione.
Ci si concentrerà in particolare sui primi due, perché lo studio dei database preesistenti ha mostrato che sono quelli caratterizzati da andamenti meglio definiti e ripetibili. Considerando un singolo database di immagini relative a un test, per ciascuna di esse il valore dei parametri geometrici del crack è stato messo in relazione alla sua area, ottenendo i grafici nelle Figure 30 e 31, riguardanti rispettivamente la solidità e la rotondità: si può osservare che, a meno di eventuali e sporadici outliers che vengono rimossi, le varie coppie di dati si dispongono lungo un andamento ben definito, del quale si può ottenere un’interpolazione sufficientemente affidabile.
Ripetendo questo tipo di studio per ciascuna immagine di ogni database a disposizione, e raccogliendo tutti i dati in un unico prospetto, si ottengono i grafici nelle Figure 32 e 33, dai quali si osserva che al propagarsi del crack, e quindi al crescere della propria area, i parametri geometrici assumono valori ripetibili, nonostante siano calcolati da crack diversi.
Solidità e rotondità sono i parametri che meglio rispettano questa caratteristica, perché presentano i coefficienti di determinazione R<2 >più elevati, ossia danno luogo alle funzioni interpolanti che meglio approssimano i dati pregressi: di conseguenza, si possono ritenere riferimenti abbastanza affidabili per caratterizzare e riconoscere un crack, e sono quindi stati scelti per selezionare le regioni dell’immagine in base alla loro forma. In particolare, il parametro della rotondità è stato approcciato per primo, perché i rispettivi dati risultano meno sparsi e complessivamente, lungo tutto l’intervallo delle ascisse, ha un coefficiente di determinazione più elevato: bisogna però sottolineare che per intagli più piccoli la solidità mostra un comportamento migliore in termini di accettazione del crack, ossia genera un numero significativamente minore di falsi negativi, mentre hanno prestazioni equivalenti per quanto riguarda l’abbattimento dei falsi positivi; nei confronti di intagli più grandi la situazione si inverte e diventa leggermente a favore della rotondità.
Per effettuare la selezione, innanzitutto si esegue una semplice eliminazione delle regioni di area inferiore a una certa soglia, sia perché troppo piccole per essere riconosciute con certezza come crack, sia perché in questo modo si quasi completamente il rumore derivante dall’operazione precedente. A seguire, si utilizza la funzione interpolante calcolata sulla base di tutti i dati disponibili (grafico in Figura 33, in questo caso): rispetto ad essa, si definisce per ogni valore di area in ascissa un intervallo di tolleranza del parametro geometrico, sia verso l’alto che verso il basso; l’ampiezza dell’intervallo si può impostare arbitrariamente sotto forma di multiplo della deviazione standard dei dati su cui è calcolata la funzione.
Se una regione, caratterizzata da una certa area, presenta un valore di rotondità al di fuori di tale range di tolleranza, viene rigettata, perché non segue l’andamento atteso e quindi si assume che abbia una bassa probabilità di rivelarsi un crack e che si tratti, invece, di un potenziale falso positivo; viceversa, se il parametro ricade all’interno del range, la regione viene mantenuta e sottoposta alle successive strategie di analisi.
Questa fase di selezione geometrica abbatte ulteriormente il numero delle regioni nelle quali indagare (Figura 34): sia per la rotondità che per la solidità, tale riduzione è nell’ordine dell’80%, che si traduce poi in 40% in meno di falsi positivi alla fine dell’intera fase di detection.
Nella figura 34 si può notare come le regioni bianche siano ora decisamente meno numerose e non sia più presente il rumore. Vengono inoltre visualizzate le bounding box corrispondenti alle regioni residue: solamente quella in basso a destra rappresenta un crack.
Solo in seguito a tale operazione, vengono nuovamente definite le celle discusse prima. A differenza della prima versione del software, invece di suddividere l’immagine secondo un reticolo a maglie quadrate e valutare la variazione del numero di corner in ciascuna di esse, stavolta si definiscono delle bounding box attorno alle regioni rimaste, delimitando delle celle aventi il centro coincidente con il centroide della regione, che risultano quindi non più ordinate ma sparse sull’immagine: all’interno di esse si svolgerà poi allo stesso modo il successivo confronto in termini di numero di corner.
Prima di procedere con la ricerca dei corner si introduce però un ulteriore vincolo per le regioni, avente lo scopo di eliminare un’altra fonte di falsi positivi, che è il disallineamento di uno stesso oggetto da un’immagine all’altra. Infatti, molto frequentemente la selezione geometrica viene superata anche da regioni che in realtà non sono sede di variazioni della superficie del fianco. Tali zone, teoricamente, non dovrebbero dare luogo ad alcuna regione sulla mappa delle differenze di intensità, e invece questo può lo stesso accadere a causa di lievi oscillazioni della velocità di rotazione dello pneumatico, di parti mobili presenti sul fianco, oppure di imperfezioni del pre-processing, tali per cui uno stesso elemento appare in posizione leggermente traslata nelle due immagini a confronto.
Diventa quindi necessario cercare l’allineamento degli elementi corrispondenti alle regioni residue, e per farlo si impiegano due metodi diversi, in modo che l’uno riesca a compensare eventuali casi in cui l’altro non raggiunga lo scopo.
Il primo preleva la cella di interesse dall’immagine di riferimento, e la sua omologa dall’immagine corrente, e svolge su di esse la correlazione incrociata bidimensionale: questo significa che una delle due viene considerata mobile e, ipoteticamente, fatta scorrere sull’altra sia in direzione verticale che orizzontale, sperimentando tutte le possibili sovrapposizioni tra le due, a partire dalla configurazione in cui il pixel in basso a destra dell’una si sovrappone a quello in alto a sinistra dell’altra, per finire alla configurazione opposta. Si tratta dello stesso concetto descritto per l’allineamento dell’immagine nella Sezione 3.5.2, ma svolto in 2D e ricercando delle traslazioni in entrambe le direzioni lungo il piano dell’immagine.
Il secondo metodo individua invece all’interno delle due celle i cinque (se disponibili) Harris-corner caratterizzati dai valori più elevati del parametro di qualità, e ne effettua il matching, ossia abbina ciascun corner di una cella al suo omologo nell’altra cella. La coppia di corner che fornisce la corrispondenza migliore viene presa in considerazione per allineare le celle, facendo in modo che le posizioni dei corner, nel sistema di riferimento dell’immagine complessiva, diventino coincidenti. Dopo aver effettuato l’allineamento delle celle, vengono nuovamente ricalcolate le regioni al loro interno, ripetendo a livello locale tutti i passaggi precedenti, quindi conversioni in bianco e nero in base alle differenze di intensità e selezione geometrica. Infine, vengono rigettate tutte quelle regioni per le quali risulta una riduzione di area superiore al 40%, perché significa che in entrambe le celle è presente un elemento che grazie all’operazione di allineamento è stato portato a sovrapporsi in modo significativo con sé stesso. In altre parole, significa che l’elemento trovato sull’immagine corrente era già presente su quella di riferimento, per cui la sua segnalazione costituiva solamente un falso positivo. Viceversa, una regione che si mantiene sostanzialmente invariata può essere indicativa di una alterazione intervenuta in quel punto del fianco dello pneumatico, e quindi della possibile formazione di un intaglio.
Le Figure da 35 a 37 mostrano alcuni esempi di falsi positivi rimossi dall’operazione di allineamento.
In particolare la Figura 35 mostra un esempio di funzionamento del metodo basato sulla cross-correlazione 2D, la Figura 36 un esempio di funzionamento del metodo basato sul matching degli Harris-corner, mentre la Figura 37 mostra un confronto che mostra gli effetti dei due metodi nel trattamento del medesimo oggetto.
In quest’ultima, la sequenza in alto si riferisce all’applicazione del metodo basato sulla cross-correlazione 2D, la sequenza in basso all’applicazione del metodo basato sul matching degli Harris-corner. Si può osservare che l’allineamento, visibile nelle due immagini centrali, risulta essere leggermente diverso tra i due, ma ciononostante, a valle della ripetizione delle selezioni precedenti, entrambi ottengono lo scopo di eliminare il falso positivo (colonna a destra).
Il riposizionamento delle celle esaurisce il pro cesso di abbattimento e rimozione dei falsi positivi preliminare al confronto in termini di numero di corner in esse compresi, il quale viene dunque eseguito a valle di quanto finora descritto, sulle sole regioni che hanno superato la selezione.
Rispetto al metodo descritto prima, i principi fondamentali secondo i quali si effettua il confronto rimangono gli stessi: si genera una mappa degli Harris corner considerando come regione di interesse per la ricerca una porzione per volta dell’immagine; si mantiene inoltre la caratteristica di contare i corner presenti all’interno di una stessa cella sia sull’immagine di riferimento, sia su quella corrente, e di stabilire che a un incremento di corner maggiore di una certa soglia corrisponde la presenza di un crack.
In merito a quest’ultimo aspetto è stato comunque introdotto un importante miglioramento. Nella versione iniziale del software, nel conteggio venivano presi in considerazione tutti i corner individuati entro i bordi della cella: in questo modo può però accadere che vengano coinvolte delle feature generate dallo sfondo, le quali possono comunque variare da un’immagine all’altra falsando così il computo della differenza. Allora, nella seconda versione, si fa in modo di considerare solo i corner correlati con un eventuale intaglio, rigettando tutti quelli che si trovano a una distanza dalla regione bianca maggiore di una certa soglia.
In questa maniera si rende il calcolo più rigoroso e meno soggetto ad errori dovuti a fattori estranei alla formazione di una failure.
Risultati
La Tabella 5 riassume i risultati che la versione più aggiornata del software permette di raggiungere, ricavati dalla sua applicazione in offline ai data base di immagini esistenti al termine dello sviluppo della seconda revisione, che hanno così avuto il ruolo di case studies per la valutazione del programma.
Più precisamente, quest’ultimo è stato provato su un totale di sessanta test, a ciascuno dei quali corrispondono mediamente circa seicento immagini, e i dati della Tabella 5 sono dei valori medi calcolati sulla base della loro quantità totale.
Tabella 5
Per quanto riguarda il rilevamento degli intagli, si può osservare che la selezione geometrica è causa del mancato riconoscimento quasi nel 24% delle volte. Va però ricordato che la selezione geometrica viene preceduta da una rimozione delle aree più piccole, e perciò può capitare nelle prime immagini successive alla sua formazione che un crack abbia un’area minore rispetto alla soglia prestabilita, e di conseguenza può essere trascurato fino a quando non si è propagato a sufficienza. Pertanto, è comprensibile che rendere meno stringenti i parametri di soglia per l’area, e allo stesso modo anche per la rotondità, può abbassare la percentuale di errore, a fronte però di un abbattimento meno consistente dei falsi positivi.
A proposito di questi ultimi, va detto che il numero iniziale è estremamente elevato perché include anche i singoli pixel che formano il rumore presente sull’immagine subito dopo l’operazione di conversione in bianco e nero. Tale quantità diventa molto più ordinaria proprio grazie alla selezione geometrica, anche se rimangono comunque molte aree residue: si ricordi infatti che l’evoluzione della tecnica di ripresa e il passaggio da coppie di immagini di prova a interi database ha comportato una maggiore varietà di situazioni da affrontare e di conseguenza anche un certo aumento delle regioni sospette.
La successiva operazione di allineamento locale provoca un’ulteriore perdita di circa il 7% dei crack, ma il contributo di fallimenti maggiore proviene dal conteggio dei corner, che riduce la percentuale di riconoscimento di un ulteriore 27%, circa. Si tratta allo stesso tempo anche della causa meno gestibile, perché legata principalmente alle ormai note variabilità dei valori dei pixel e di conseguenza dei gradienti che essi formano.
In definitiva, rispetto al totale di tutte le immagini acquisite, il programma raggiunge una percentuale media di riconoscimento dei crack del 43%, e ciascuna immagine restituisce in media quattro falsi positivi. Queste medie complessive evidenziano dei chiari margini di miglioramento, tuttavia l’analisi dei dati ricavati da ciascun singolo test mostra che difficilmente le prestazioni si attestano su tali valori, ma piuttosto risultano o migliori, o peggiori.
Il programma risulta molto efficiente in alcuni test, raggiungendo percentuali di riconoscimento elevate assieme a una quantità molto contenuta di falsi positivi, mentre in altri la situazione si inverte. Questo è dovuto soprattutto a come il crack appare sull’immagine (posizione, luminosità e complessità geometrica della porzione di sfondo, e così via), e in minor parte alla diversità delle condizioni di ripresa.
Un riconoscimento nullo è stato riscontrato solo in cinque test su sessanta, che equivale a dire che nel 91,67% dei test il crack viene individuato almeno in una immagine.
Un esiguo numero di casi di studio sono stati condotti anche in modalità online, ossia lanciando il programma in parallelo all’acquisizione e analizzando così le immagini in tempo reale durante lo svolgimento del test sullo pneumatico. Tra questi, in due casi il crack è stato individuato a uno stadio di propagazione accettabile e in seguito al manifestarsi di un numero abbastanza ridotto di falsi allarmi.
Uno in particolare costituisce un risultato di assoluto rilievo (Figura 38): si tratta di un intaglio che a fine prova si era propagato fino alla lunghezza di 57 pixel sull’immagine, che nel caso specifico, effettuando la misurazione dal vero, equivalevano a 9.5 mm.
In particolare, in questa figura, a sinistra è mostrata la lunghezza effettiva al termine della prova; al centro, la regione individuata dal programma nell’ultima immagine acquisita durante la prova; a destra, il primo riconoscimento del crack da parte del programma.
Il programma ha riconosciuto questo crack per la prima volta alla dimensione di 31 pixel, pari a una lunghezza di 5.2 mm: dall’inizio del test fino al momento della detection ha segnalato solo due falsi positivi, e successivamente il crack è stato individuato con buona ripetibilità e continuità. Quindi, nei confronti di questo particolare test, il comportamento del software si è rivelato molto vicino a quello ideale.
I risultati descritti finora dimostrano le potenzialità del metodo di crack detection implementato, anche per quanto riguarda l’applicazione alla ricerca di failure nelle reali condizioni operative.
Paradossalmente, ulteriori conferme della sua validità si possono dedurre anche ragionando su i falsi positivi ancora riscontrabili (Figura 39). A parte il caso della formazione di deposito di gomma ai lati del battistrada che non essendo una zona di interesse può essere evitato semplicemente ritagliando l’immagine più in basso, la tipologia di falso positivo che si manifesta più frequentemente in assoluto è quella dei trucioli di gomma che vanno a finire sulla superficie del fianco. Questi sono a tutti gli effetti delle alterazioni che avvengono sullo pneumatico, e sotto questo punto di vista è persino corretto che siano segnalate dal software: ovviamente per il raggiungimento dell’obiettivo finale bisogna riuscire a distinguere tra le variazioni costituite da una frattura di materiale, e quelle costituite da altro, ma le piccolissime dimensioni di questi trucioli dimostrano che il programma è in grado di individuare delle alterazioni anche minime sul fianco.
Conclusioni
È stato possibile definire uno standard sia per i componenti hardware da adottare per garantire che il sistema di visione abbia prestazioni adeguate, che per la tecnica di ripresa e le impostazioni di acquisizione, affinché si ottenga una qualità ottimale dell’immagine.
La messa a punto di una configurazione funzionante ha permesso di rendere operativo a pieno regime il sistema, che quindi è stato installato su un macchinario di prova dotato di due stazioni, avviandone così l’effettivo impiego per il monitoraggio dei test endurance.
L’utilizzo nelle reali condizioni operati ve ha dimostrato l’adeguatezza del sistema come strumento di assistenza all’ispezione: ora gli operatori possono condurre l’ispezione in sicurezza e in minor tempo, perché possono osservare da remoto, su un display, lo stato del fianco dello pneumatico in tempo reale, senza dover interrompere il test con lunghe pause e senza doversi recare a bordo macchina per l’ispezione.
Questo rappresenta un deciso miglioramento della sicurezza, perché ispezionare da vicino un oggetto in pressione ed eventualmente danneggiato è un’operazione potenzialmente pericolosa.
Inoltre, la rapidità e la flessibilità con cui adesso è possibile eseguire l’ispezione permettono anche di controllare molto più frequentemente il campione sottoposto al test, e al tempo stesso una migliore programmazione delle attività quotidiane degli operatori. Si può anche decidere con una tolleranza più ampia il momento in cui arrestare la prova, per procedere eventualmente con ulteriori studi o test non distruttivi sullo pneumatico.
Infine, vanno sottolineati anche i vantaggi tecnici ed economici che il sistema realizza: infatti, lo svolgimento di test privi di interruzioni da un lato impedisce che lo pneumatico abbia delle fasi di riposo, che comportano un certo raffreddamento e quindi un certo recupero a livello termico e meccanico, per cui il test diventa più rigoroso sotto questo punto di vista; dall’altro, fanno sì che la durata di un test, in termini di tempo, sia più breve e si abbiano quindi dei risultati più tempestivi e una maggiore disponibilità della macchina.
Il sistema di visione è stato inoltre dotato di uno specifico software per il riconoscimento automatico della formazione di un crack. Il programma è in grado di individuare alterazioni molto piccole sulla superficie del fianco, tra cui anche delle fratture di materiale di recente formazione.
La fase di pre-processing, avente lo scopo di applicare delle trasformazioni alle immagini acquisite tali da portarle ad essere ripetibili e perciò confrontabili tra loro, raggiunge una percentuale di successo molto elevata. La fase di detection delle failure ha invece dimostrato di poter riconoscere dei crack anche a uno stadio di propagazione molto precoce, ma non ha ancora raggiunto una totale ripetibilità.
Gli sviluppi futuri nel breve termine vanno quindi orientati al perfezionamento del processo di ricerca degli intagli, perseguendo diverse strade: innanzitutto, una revisione dei parametri di funzionamento che caratterizzano ciascuno dei vari metodi presentati può apportare un miglioramento nella percentuale di successo; fermo restando però che ciascun intervento su di essi sposta il compromesso tra due esigenze contrastanti, che sono la riduzione dei falsi negativi e dei falsi positivi, è plausibile che un incremento davvero consistente si possa ottenere solo con l’introduzione di nuovi criteri o metodi di selezione delle regioni, che permettano di discriminare in modo molto più netto tra un vero crack e un falso positivo di qualsiasi altro genere.
Questo potrebbe aggirare o almeno attenuare il vincolo di compromesso tra i due suddetti aspetti in conflitto tra loro, poiché abbattere la ricorrenza dei falsi positivi permette di impostare dei parametri meno stringenti nei metodi già implementati aumentando il numero di riconoscimenti corretti.
Il primo intervento da tenere in considerazione è quello sull’operazione che determina il maggior contributo in termini di fallimenti, e cioè il conteggio degli Harris-corner: come spiegato in precedenza, questi, nella fase di sviluppo del software, si sono rivelati uno strumento idoneo allo scopo di trovare i crack nelle immagini di prova, e come tali si sono confermati anche nei confronti di un buon numero di database ottenuti da test reali.
Questi ultimi presentano però una varietà di situazioni da affrontare e di aspetti da considerare notevolmente superiore alle coppie di immagini di prova sulle quali veniva apposto un intaglio fittizio, per cui può capitare che in alcuni casi gli Harriscorner mostrino dei limiti, pur ricordando che oltre il 90% delle volte il crack viene comunque individuato almeno una volta nell’arco di un intero test.
Si può allora ipotizzare di mantenere il metodo del conteggio ma sperimentando altri algoritmi di feature detection, al fine di trovare delle tipologie di invarianti, o anche loro combinazioni, più robuste. In seguito al perfezionamento della fase di detection, e quindi nell’ottica di sviluppi a più lungo termine, è lecito immaginare che, con opportuni adattamenti e aggiornamenti al passo con l’introduzione di tecnologie dalle prestazioni superiori, l’impiego del sistema di visione e del relativo software potrebbe essere esteso a un panorama di applicazioni molto ampio, in quanto si può pensare all’utilizzo su diverse parti dello pneumatico, oppure alla ricerca di ulteriori tipologie di failure, o ancora al monitoraggio di diverse modalità di prova degli pneumatici, caratterizzate ad esempio da velocità di rotazione variabile.
La presente invenzione è stata fin qui descritta con riferimento a sue forme di realizzazione preferite. È da intendersi che ciascuna delle soluzioni tecniche implementate nelle forme di realizzazione preferite qui descritte a titolo esemplificativo, potranno vantaggiosamente essere combinate diversamente tra loro, per dar forma ad altre forme di realizzazione, che afferiscono al medesimo nucleo inventivo e tutte comunque rientranti nell’ambito di protezione delle rivendicazioni qui di seguito riportate.

Claims (16)

  1. RIVENDICAZIONI 1. Procedimento per la rilevazione in tempo reale di difetti nella superficie di uno pneumatico comprendente i passi di: - mettere il pneumatico in rotazione attorno al proprio asse ad una velocità predeterminata; - eseguire una scansione della superficie dello pneumatico tramite acquisizione di immagini lineari, in sequenza ad una frequenza predefinita, da una fotocamera digitale lineare, per ottenere una sequenza di immagini complessive di detta superficie; - selezionare una immagine di riferimento tra dette immagini complessive; - pre-processare ciascuna di dette immagini complessive, per normalizzarle in dimensione e/o luminosità e/o contrasto; - memorizzare ciascuna immagine complessiva ottenuta, insieme a corrispondenti informazioni temporali che ne identificano l’istante di generazione; - confrontare ciascuna immagine complessiva temporalmente successiva a detta immagine di riferimento con detta immagine di riferimento, per rilevare la formazione di un difetto; e - segnalare la rilevazione della formazione di un difetto insieme all’istante di generazione della corrispondente immagine complessiva, in cui detto passo di confrontare ciascuna immagine complessiva comprende un passo di ritaglio di detta immagine complessiva in porzioni di dimensioni predefinite ed un passo di allineamento di detta immagine complessiva rispetto a detta immagine di riferimento.
  2. 2. Procedimento secondo la rivendicazione 1, in cui detto passo di pre-processare comprende un passo di rotazione e/o ribaltamento di dette immagini complessive.
  3. 3. Procedimento secondo la rivendicazione 1 o 2, in cui detto passo di pre-processare comprende un passo di ritaglio di dette immagini complessive, per isolare esattamente la superficie di detto pneumatico.
  4. 4. Procedimento secondo una delle rivendicazioni precedenti, in cui detto passo di pre-processare comprende un passo di ridimensionamento di ciascuna immagine complessiva per normalizzarne le dimensioni.
  5. 5. Procedimento secondo una delle rivendicazioni precedenti, in cui detto passo di pre-processare comprende un passo di regolazione della luminosità dei pixel, rispetto all’immagine di riferimento.
  6. 6. Procedimento secondo una delle rivendicazioni precedenti, in cui detto passo di pre-processare comprende un passo di regolazione del contrasto dei pixel, rispetto all’immagine di riferimento.
  7. 7. Procedimento secondo una delle rivendicazioni precedenti, in cui detto passo di confrontare comprende, per ciascuna di dette porzioni, un passo di convertire il valore di ciascun pixel in un valore binario in funzione di un confronto con una soglia predefinita, detta soglia essendo funzione del valore medio dei pixel nella corrispondente porzione dell’immagine di riferimento, evidenziando aree corrispondenti a potenziali difetti.
  8. 8. Procedimento secondo una delle rivendicazioni precedenti, comprendente ulteriormente un passo di validazione per scartare eventuali false rilevazioni.
  9. 9. Procedimento secondo la rivendicazione 7 e 8, in cu detto passo di validazione comprende un passo di confronto tra: - un valore di estensione superficiale espressa in pixel<2 >di ciascuna area identificata come potenziale difetto; e - un valore di superficie di soglia espresso in pixel<2 >predeterminato, scartando le aree identificate come potenziale difetto, per cui detto valore di estensione superficiale risulti inferiore a detto valore di superficie di soglia.
  10. 10. Procedimento secondo la rivendicazione 7 e la rivendicazione 8 o 9, in cui detto passo di validazione comprende un passo di misurare, per ciascuna area corrispondente ad un potenziale difetto, i parametri di solidità e/o di rotondità.
  11. 11. Procedimento secondo la rivendicazione 10, in cui detto passo di validazione comprende un passo di confrontare detti parametri di solidità e/o di rotondità misurati con un modello statistico predeterminato, scartando eventuali rilevazioni per cui il confronto riporta uno scarto superiore ad una soglia di validazione predefinita.
  12. 12. Procedimento secondo una delle rivendicazioni da 7 a 11, comprendente ulteriormente un passo di allineamento della porzione di immagine contenente l’area corrispondente ad un potenziale difetto con la corrispondente porzione dell’immagine di riferimento, ottenendo una porzione allineata.
  13. 13. Procedimento secondo una delle rivendicazioni da 7 a 12, comprendente ulteriormente un passo di confrontare il numero di punti caratteristici e distintivi della porzione di immagine contenente l'area corrispondente ad un potenziale difetto con il numero di punti caratteristici e distintivi della corrispondente porzione dell'immagine di riferimento, scartando eventuali rilevazioni per cui il confronto tra i due detti numeri di punti riporta uno scarto inferiore ad una soglia di validazione predefinita.
  14. 14. Procedimento secondo la rivendicazione 12 o 13, in cui detto passo di confrontare comprende inoltre un passo di convertire il valore di ciascun pixel di detta porzione allineata in un valore binario in funzione di un confronto con una soglia predefinita, detta soglia essendo funzione del valore medio dei pixel nella corrispondente porzione dell’immagine di riferimento, evidenziando aree corrispondenti a difetti.
  15. 15. Apparato per la rilevazione in tempo reale di difetti nella superficie di uno pneumatico comprendente: - mezzi per mettere il pneumatico in rotazione attorno al proprio asse ad una velocità predeterminata; - mezzi per eseguire una scansione della superficie dello pneumatico tramite acquisizione di immagini lineari, in sequenza ad una frequenza predefinita, da una fotocamera digitale lineare, per ottenere una sequenza di immagini complessive di detta superficie; - mezzi per elaborare dette immagini lineari, configurati per implementare un procedimento secondo una qualsiasi delle rivendicazioni da 1 a 14.
  16. 16. Programma per elaboratore elettronico, comprendente codice atto ad implementare, quando in esecuzione su un elaboratore, un’elaborazione di immagini secondo il procedimento di una delle rivendicazioni da 1 a 14.
IT102018000004673A 2018-04-18 2018-04-18 Procedimento e sistema per la rilevazione di difetti in uno pneumatico IT201800004673A1 (it)

Priority Applications (2)

Application Number Priority Date Filing Date Title
IT102018000004673A IT201800004673A1 (it) 2018-04-18 2018-04-18 Procedimento e sistema per la rilevazione di difetti in uno pneumatico
EP19169152.6A EP3556576B1 (en) 2018-04-18 2019-04-15 Process and system for the detection of defects in a tyre

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
IT102018000004673A IT201800004673A1 (it) 2018-04-18 2018-04-18 Procedimento e sistema per la rilevazione di difetti in uno pneumatico

Publications (1)

Publication Number Publication Date
IT201800004673A1 true IT201800004673A1 (it) 2019-10-18

Family

ID=62952233

Family Applications (1)

Application Number Title Priority Date Filing Date
IT102018000004673A IT201800004673A1 (it) 2018-04-18 2018-04-18 Procedimento e sistema per la rilevazione di difetti in uno pneumatico

Country Status (2)

Country Link
EP (1) EP3556576B1 (it)
IT (1) IT201800004673A1 (it)

Families Citing this family (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
IT202100025085A1 (it) * 2021-09-30 2023-03-30 Brembo Spa Metodo per identificare e caratterizzare, mediante intelligenza artificiale, difetti superficiali su un oggetto e cricche su dischi freno sottoposti a test di fatica
CN113899746B (zh) * 2021-09-30 2024-05-17 江苏纹动测控科技有限公司 一种基于dic的钢结构疲劳裂纹扩展形态测量方法
CN114332089B (zh) * 2022-03-15 2022-06-10 武汉市鑫山河塑业有限公司 基于图像处理的塑料护套生产质量控制方法、装置及系统
CN114659449B (zh) * 2022-03-21 2023-08-04 江苏奔腾橡胶制品有限公司 一种轮胎磨损程度检测装置及检测方法
CN114972356B (zh) * 2022-08-03 2023-08-25 海门市腾飞橡塑厂 塑料制品表面缺陷检测识别方法及系统
IT202200025935A1 (it) * 2022-12-19 2024-06-19 Brembo Spa Metodo e sistema di rilevazione in tempo reale, mediante impiego di intelligenza artificiale (IA), di anomalie di un oggetto sottoposto a test di durata
CN116071347B (zh) * 2023-03-01 2023-07-28 山西戴德测控技术股份有限公司 一种磨损度确定方法、装置、系统及存储介质
CN116091505B (zh) * 2023-04-11 2023-06-30 青岛芯康半导体科技有限公司 一种蓝宝石衬底自动缺陷检测分类的方法和系统
CN116310424B (zh) * 2023-05-17 2023-08-18 青岛创新奇智科技集团股份有限公司 基于图像识别的设备质量评估方法、装置、终端和介质
CN116703930B (zh) * 2023-08-09 2023-10-31 湖北三环三立汽车后视镜有限公司 一种汽车后视镜模具成型检测方法
CN116823808B (zh) * 2023-08-23 2023-11-17 青岛豪迈电缆集团有限公司 基于机器视觉的电缆绞线智能检测方法
CN117853484B (zh) * 2024-03-05 2024-05-28 湖南建工交建宏特科技有限公司 一种基于视觉的桥梁损伤智能监测方法及系统
CN118898594B (zh) * 2024-07-19 2025-01-24 北京霍里思特科技有限公司 一种轮胎表面质量判断方法、电子设备及可读存储介质
CN118762024B (zh) * 2024-09-09 2024-12-13 南通皓科新材料技术有限公司 一种密封胶老化开裂识别方法
CN119064358B (zh) * 2024-11-01 2025-03-21 中数智科(杭州)科技有限公司 一种轨道列车的管路表面鼓包检测方法及系统
CN119693352B (zh) * 2025-02-21 2025-07-15 长春慧程科技有限公司 一种基于视觉检测的汽车零部件的缺陷检测方法及系统
CN120220215B (zh) * 2025-05-27 2025-07-25 北京众世通科技有限公司 一种基于隐私保护的人脸识别交互方法及系统
CN120451161B (zh) * 2025-07-10 2025-09-12 广东南方洁灵科技实业有限公司 一种基于机器视觉的牙膏管质量检测方法及系统

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5874670A (en) * 1996-04-22 1999-02-23 Bridgestone Corporation Method of estimating irregular wear of tires by recording an amount of wear of painted portions of the tire as image information at multiple regular time intervals
DE102012024545A1 (de) * 2012-12-17 2014-06-18 API - Automotive Process Institute GmbH Verfahren zur Analyse einer Lauffläche eines Reifens und zur Typenidentifikation eines Reifens
US20160221404A1 (en) * 2015-01-29 2016-08-04 Dain Co., Ltd. Method and apparatus for measuring tire tread abrasion
WO2017060739A1 (en) * 2015-10-09 2017-04-13 Wheelright Limited Tyre condition analysis

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5874670A (en) * 1996-04-22 1999-02-23 Bridgestone Corporation Method of estimating irregular wear of tires by recording an amount of wear of painted portions of the tire as image information at multiple regular time intervals
DE102012024545A1 (de) * 2012-12-17 2014-06-18 API - Automotive Process Institute GmbH Verfahren zur Analyse einer Lauffläche eines Reifens und zur Typenidentifikation eines Reifens
US20160221404A1 (en) * 2015-01-29 2016-08-04 Dain Co., Ltd. Method and apparatus for measuring tire tread abrasion
WO2017060739A1 (en) * 2015-10-09 2017-04-13 Wheelright Limited Tyre condition analysis

Also Published As

Publication number Publication date
EP3556576A1 (en) 2019-10-23
EP3556576B1 (en) 2022-06-08

Similar Documents

Publication Publication Date Title
IT201800004673A1 (it) Procedimento e sistema per la rilevazione di difetti in uno pneumatico
CN103038601B (zh) 轮胎形状检查方法以及轮胎形状检查装置
TWI557650B (zh) 用於識別材料中之缺陷之系統及方法
CN111047655B (zh) 基于卷积神经网络的高清摄像机布料疵点检测方法
CN101256157B (zh) 表面缺陷检测方法和装置
CN111712769B (zh) 用于设定照明条件的方法、装置、系统以及存储介质
CN107064170B (zh) 一种检测手机外壳轮廓度缺陷方法
US20200402221A1 (en) Inspection system, image discrimination system, discrimination system, discriminator generation system, and learning data generation device
CN116758491B (zh) 应用于3d打印的打印监控图像分析方法及系统
CN107123111B (zh) 一种用于手机屏幕缺陷检测的深度残差网络构造方法
EP2789970A1 (en) Tire shape inspection method and tire shape inspection device
CN107239742B (zh) 一种仪表指针刻度值计算方法
CN106920219A (zh) 物品缺陷检测方法、图像处理系统与计算机可读记录介质
CN110018172B (zh) 产品检测系统及方法
US20170350794A1 (en) Method and apparatus for detecting defects on tyres in a tyre production process
CN110959114A (zh) 缺陷检查方法及缺陷检查装置
CN103649989A (zh) 轮胎外表面的数字图像的分析和伪测量点的处理
CN115239663A (zh) 隐形眼镜瑕疵检测方法及系统、电子设备、存储介质
CN114280075A (zh) 一种管类零件表面缺陷在线视觉检测系统及检测方法
CN115452845B (zh) 一种基于机器视觉的led屏幕表面损伤检测方法
CN106093051A (zh) 基于机器视觉的纸卷切面毛刺检测方法及装置
JP7058170B2 (ja) タイヤ金型サイドプレートの検査方法
CN119130912A (zh) 基于深度图的带钢表面缺陷检测方法及系统
CN114548250A (zh) 一种基于数据分析的手机外观检测方法及装置
CN116740053B (zh) 一种锻造加工智能生产线的管理系统