IT202100009845A1 - Metodo e relativo sistema per rilevare oggetti nel campo visivo di un dispositivo di rilevamento ottico - Google Patents

Metodo e relativo sistema per rilevare oggetti nel campo visivo di un dispositivo di rilevamento ottico Download PDF

Info

Publication number
IT202100009845A1
IT202100009845A1 IT102021000009845A IT202100009845A IT202100009845A1 IT 202100009845 A1 IT202100009845 A1 IT 202100009845A1 IT 102021000009845 A IT102021000009845 A IT 102021000009845A IT 202100009845 A IT202100009845 A IT 202100009845A IT 202100009845 A1 IT202100009845 A1 IT 202100009845A1
Authority
IT
Italy
Prior art keywords
frames
frame
stacked
translation
values
Prior art date
Application number
IT102021000009845A
Other languages
English (en)
Inventor
Antonio Montanaro
Mario Edoardo Bertaina
Toshikazu Ebisuzaki
Original Assignee
Univ Degli Studi Di Torino
Riken
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Univ Degli Studi Di Torino, Riken filed Critical Univ Degli Studi Di Torino
Priority to IT102021000009845A priority Critical patent/IT202100009845A1/it
Priority to US18/556,159 priority patent/US20240185438A1/en
Priority to PCT/IB2022/053571 priority patent/WO2022224111A1/en
Priority to EP22717675.7A priority patent/EP4327297A1/en
Publication of IT202100009845A1 publication Critical patent/IT202100009845A1/it

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • G06T7/248Analysis of motion using feature-based methods, e.g. the tracking of corners or segments involving reference images or patches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/62Extraction of image or video features relating to a temporal dimension, e.g. time-based feature extraction; Pattern tracking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30241Trajectory
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/07Target detection

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Evolutionary Computation (AREA)
  • Databases & Information Systems (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Computing Systems (AREA)
  • Image Analysis (AREA)
  • Fuel Cell (AREA)
  • Investigating Or Analysing Materials By Optical Means (AREA)

Description

DESCRIZIONE
del brevetto per Invenzione Industriale dal titolo: ?METODO E RELATIVO SISTEMA PER RILEVARE OGGETTI NEL CAMPO VISIVO DI UN DISPOSITIVO DI RILEVAMENTO OTTICO?
CAMPO TECNICO
L'invenzione ? relativa a un metodo e a un relativo sistema per rilevare oggetti nel campo visivo (FoV, Field of View) di un dispositivo di rilevamento ottico, come ad esempio un telescopio o una telecamera (ad esempio, una telecamera CCD, Charge-Coupled Device, dispositivo ad accoppiamento di carica); in particolare, la presente invenzione ? relativa a un metodo e a un relativo sistema per rilevare oggetti nello spazio, in particolare detriti spaziali e altre entit? spaziali fisiche, come ad esempio asteroidi, meteore e simili, che si muovono nel FoV di un telescopio o una telecamera CCD.
In particolare e senza alcuna perdita di generalit?, la presente invenzione ? relativa al rilevamento di qualsiasi sorgente puntiforme che si muove linearmente nel campo visivo di un telescopio, ad esempio un telescopio Mini-EUSO (Multiwavelength Imaging New Instrument for the Extreme Universe Space Observatory, nuovo strumento di formazione di immagini a lunghezza d'onda multipla per l'osservatorio spaziale dell'universo estremoy, o ?atmosfera UV" nel programma spaziale russo) o una telecamera, ad esempio una telecamera CCD (dispositivo ad accoppiamento di carica); si assume inoltre nel seguito che la traiettoria degli oggetti nello spazio non sia necessariamente nota a priori.
TECNICA ANTERIORE
Negli ultimi sessant'anni, da quando l'uomo ha iniziato esplorare lo spazio, sono state lanciate diverse migliaia di satelliti e missili; ad oggi, vi erano circa 18000 oggetti in orbita, di cui approssimativamente 1100 ancora in funzionamento, mentre i rimanenti possono essere classificati come detriti spaziali. In particolare, i detriti spaziali comprendono principalmente satelliti abbandonati, parti di razzi e veicoli spaziali, non pi? in uso, e che rimangono in orbita attorno alla Terra. Questi oggetti viaggiano a velocit? elevate, tipicamente nell'ordine di 7-9 km al secondo vicino all'orbita terrestre bassa; data la loro velocit? e la loro posizione rispetto ad altri satelliti e missili operativi, i detriti spaziali possono entrare in collisione con veicoli spaziali, come ad esempio l'ISS, o altri veicoli spaziali con equipaggio umano o senza equipaggio umano, danneggiandoli e producendo da ultimo a loro volta nuovi detriti, popolando cos? l'orbita terrestre bassa con ancora pi? detriti spaziali.
Inoltre, la grande maggioranza di questi detriti spaziali non ? catalogata e, anche se lo fosse, i dati di tracciamento ottenuti attraverso dispositivi di tracciamento (come ad esempio rilevatori, ad esempio dispositivi di rilevamento ottico, come ad esempio telescopi e/o telecamere) correlati a questi detriti spaziali solitamente non sono abbastanza precisi da conoscere la loro posizione, in termini sia di tempo sia di spazio.
In aggiunta, la maggior parte dei detriti spaziali ha dimensioni nell'ordine di pochi centimetri quando osservati con dispositivi come ad esempio telescopi e non emettono luce propria, rendendone difficile il rilevamento. Quindi, i detriti spaziali devono essere illuminati o rilevati in determinati momenti per essere certi di acquisire un segnale di luce.
Inoltre, come osservato dalle Richiedenti, dato un segnale di luce indicativo di un oggetto nello spazio che si muove nella superficie focale di un dispositivo di rilevamento ottico, che acquisisce fotogrammi della porzione osservata, se tale segnale di luce ha un rapporto segnalerumore (SNR, Signal-to-Noise Ratio) minore di, ad esempio, tre (in particolare nel caso del Mini-EUSO), tale segnale di luce potrebbe non essere visibile e rilevabile in un singolo fotogramma in quanto potrebbe essere assorbito da fluttuazioni di fondo; tipicamente, queste fluttuazioni di fondo seguono un comportamento poissoniano e sono indicate come rumore di fondo o segnale di fondo.
Nella tecnica nota, sono forniti sistemi e metodi per tracciare detriti spaziali.
Per identificare detriti spaziali e altri oggetti nello spazio, sono note tecniche di impilamento (?stacking?). In particolare, i metodi di impilamento si basano sulla traslazione dei fotogrammi acquisiti da un dispositivo di rilevamento ottico e sull'aggiunta, uno sull'altro, di ciascun fotogramma spostato; i metodi di impilamento sono eseguiti a partire da singoli fotogrammi in cui l'oggetto nello spazio (rappresentato come segnale luminoso) ? mostrato, secondo il movimento del segnale osservato, ad esempio in termini di velocit?, direzione angolare, ecc. In altre parole, considerando i movimenti possibili di un oggetto, i metodi di impilamento consentono di generare fotogrammi aggiuntivi (in particolare, spostando i fotogrammi acquisiti dal dispositivo di rilevamento ottico secondo un certo insieme di parametri) e aggiungerli sopra un fotogramma in cui un oggetto viene rilevato inizialmente, ottenendo in questo modo una combinazione di fotogrammi impilati che consente di ottenere un segnale luminoso pi? chiaro associato all'oggetto che deve essere osservato e identificato, aumentando in questo modo l'SNR. Dato che i detriti spaziali non emettono luce, per garantire un corretto rilevamento, i detriti spaziali devono comparire chiaramente in tutti i fotogrammi; in questo modo, l'SNR viene aumentato, ossia il segnale (qui un segnale luminoso) correlato ai detriti spaziali ha una grandezza maggiore rispetto al rumore di fondo, ossia il rumore causato dal segnale di fondo. Per far ci?, il rilevamento pu? avvenire in momenti diversi del giorno, ad esempio all'alba o al tramonto quando l'alta atmosfera ? gi? illuminata dalla luce solare e la Terra ? gi? in ombra.
? noto inoltre che, nel documento "Comparison Between Four Detection Algorithms For GEO Objects" di Yanagisawa et al., sono state presentate quattro strategie diverse, che si basano sui principi di applicazione dei metodi di impilamento, per rilevare detriti spaziali per mezzo di un dispositivo di rilevamento ottico, come ad esempio una telecamera CCD, posizionato sulla Terra:
1. metodo di impilamento basato su PC, in cui numerose immagini CCD sono usate per rilevare oggetti fiochi (qui detriti spaziali) sotto la grandezza limitativa di una singola immagine CCD acquisita. In particolare, sottoimmagini sono ritagliate a partire dalle numerose immagini CCD acquisite dalla telecamera CCD in modo da adattarsi al movimento degli oggetti. Al termine, viene creata un'immagine media di tutte le sotto-immagini. L'inconveniente principale del metodo di impilamento basato su PC ? la quantit? considerevole di tempo per rilevare oggetti, anche quelli tenui;
2. metodo di impilamento basato su FPGA (Field Programmable Gate Array, matrice di porte programmabili a campo), in cui un algoritmo installato in una scheda FPGA ? configurato per funzionare in modo simile al precedente metodo di impilamento basato su PC, distinguendosi da quest'ultimo soltanto in termini di hardware usato (che pu? essere vantaggiosamente usato all'interno del dispositivo di rilevamento ottico), con il vantaggio che il metodo di impilamento basato su FPGA riduce il tempo di analisi di circa un millesimo rispetto al metodo di impilamento basato su PC. Tuttavia, il metodo di impilamento basato su FPGA ha una quantit? limitata di funzioni e il suo costo computazionale aumenta con la complessit? di operazioni che devono essere implementate; inoltre, anche se le operazioni possono essere eseguite in parallelo per avere una migliore efficienza, l'implementazione di corrispondenti codici sorgente ? pi? complessa rispetto al metodo di impilamento basato su PC;
3. tecnica di identificazione di linea, che emerge da un algoritmo di flusso ottico (come descritto ad esempio in ?A debris image tracking using optical flow algorithm? di Fujita et al.), che ? configurato per tracciare eventi luminosi (ossia segnali luminosi nel FoV di un dispositivo di rilevamento ottico) e funziona in modo simile al metodo di impilamento basato su PC e al metodo di impilamento basato su FPGA, in cui vengono analizzati vari fotogrammi CCD e viene rilevata qualsiasi serie di oggetti disposti in linea retta dal primo fotogramma all'ultimo fotogramma. Mentre il metodo di identificazione di linea analizza i dati pi? rapidamente rispetto al metodo di impilamento basato su PC e al metodo di impilamento basato su FPGA, il metodo di identificazione di linea non rileva oggetti tenui; e
4. algoritmo multi-passaggio multi-periodo, che funziona in modo simile ai metodi precedenti e in cui, invece dell'immagine media generata dai metodi precedenti, viene generata l'immagine media di tutte le sotto-immagini. L'algoritmo multi-passaggio multi-periodo ha la stessa velocit? di analisi della tecnica di identificazione di linea ma capacit? di rilevamento migliori in termini di oscurit?, ossia ? in grado di rilevare oggetti tenui su sfondi scuri.
Ai fini del tracciamento di detriti spaziali e, pi? in generale, oggetti nel FoV di un dispositivo di rilevamento ottico con un movimento lineare e luminosit? costante, tipicamente viene usata la strategia basata sulla tecnica di identificazione di linea. Ci? nonostante, le capacit? di rilevamento della tecnica di identificazione di linea hanno prestazioni inferiori rispetto al metodo di impilamento basato su PC e al metodo di impilamento basato su FPGA.
Inoltre, come evidenziato anche sopra, la prima e la seconda strategia, ossia il metodo di impilamento basato su PC e il metodo di impilamento basato su FPGA, consentono di individuare detriti spaziali pi? tenui (ossia, detriti spaziali che non sono chiaramente visibili dai singoli fotogrammi CCD soltanto, il che significa che il segnale luminoso associato ? meno visibile rispetto al rumore di fondo) con l'inconveniente del tempo computazionale investito per individuare tali detriti spaziali, che ? maggiore per il metodo di impilamento basato su PC rispetto a quello per il metodo di impilamento basato su FPGA.
Per risolvere il problema del tempo computazionale in uno qualsiasi dei metodi noti citati precedentemente, si pu? assumere di conoscere la traiettoria di oggetto a priori; tuttavia, tale assunto non ? realistico, dato che la traiettoria di un detrito spaziale o qualsiasi ulteriore oggetto nello spazio, come ad esempio asteroidi, non ? sempre nota o non pu? essere sempre predetta o assunta. Pertanto, dato che conoscere la traiettoria a priori ? un assunto che non rappresenta situazioni reali, i summenzionati metodi di impilamento sono configurati per produrre vari fotogrammi combinati o impilati dai fotogrammi acquisiti secondo un qualsiasi parametro di movimento (come ad esempio velocit? e direzione angolare) dei detriti spaziali, rappresentati come segnale di luce.
Inoltre, per selezionare le combinazioni corrette di fotogrammi parametri generati dal metodo di impilamento, sono stati usati algoritmi decisionali (come ad esempio un miglioramento di SBR, Signal-over-Background Ratio), che si basano sull'applicazione di una soglia al valore dei segnali di luce; tuttavia, tali algoritmi possono portare a interruzioni di soglia (ossia segnali di luce debole possono essere considerati come parte di un segnale di fondo, dato che la loro intensit? ? minore della soglia preimpostata) con tempo computazionale elevato e perdita di efficienza dovuti alle interruzioni di soglia.
DESCRIZIONE DELL'INVENZIONE
L'obiettivo dell'invenzione ? fornire un metodo e un sistema che consentano di rilevare oggetti nel FoV di un dispositivo di rilevamento ottico, in particolare oggetti nello spazio, pi? in particolare detriti spaziali, per riconoscere la presenza di tali oggetti nello spazio e quindi per impedire eventuali danni a qualsiasi satellite o missile operativo nello spazio.
In particolare, la presente invenzione mira a fornire un metodo e un relativo sistema con abilit? computazionali buone e rapide, che possa essere usato senza assumere necessariamente che la traiettoria dell'oggetto nello spazio sia nota a priori e, in generale, che consenta di risolvere i problemi della tecnica anteriore.
Secondo l'invenzione, vengono forniti un metodo e un relativo sistema per rilevare oggetti nel FoV di un dispositivo di rilevamento ottico, come secondo le rivendicazioni allegate.
BREVE DESCRIZIONE DEI DISEGNI
L'invenzione verr? ora descritta con riferimento ai disegni allegati, che mostrano una relativa forma di realizzazione non limitativa, in cui:
- la figura 1 mostra uno schema di un sistema per rilevare oggetti nello spazio secondo una forma di realizzazione della presente invenzione;
- la figura 2 mostra uno schema di un dispositivo di rilevamento del sistema secondo la figura 1;
- la figura 3 mostra un diagramma a blocchi del metodo per rilevare oggetti nello spazio secondo una forma di realizzazione della presente invenzione;
- la figura 4A mostra un esempio di fotogrammi acquisiti secondo una fase del metodo della figura 3 e un fotogramma di sfondo; e
- le figure 4B-4C mostrano esempi di fotogrammi impilati secondo una fase del metodo della figura 3 e un fotogramma di sfondo.
Forme di realizzazione preferite dell'invenzione
La presente invenzione sar? ora descritta in dettaglio con riferimento alle figure allegate per consentire a un esperto di realizzarla e usarla. Varie modifiche alle forme di realizzazione descritte saranno immediatamente evidenti all'esperto e i principi generici descritti possono essere applicati ad altre forme di realizzazione e applicazioni senza allontanarsi in questo modo dall'ambito di protezione della presente invenzione, come definito nelle rivendicazioni allegate. Pertanto, la presente invenzione non dovrebbe essere considerata limitata alle forme di realizzazione descritte e illustrate nella presente, ma ad essa dovrebbe essere accordato l'ambito di protezione pi? ampio coerente con le caratteristiche descritte e rivendicate.
Salvo definito diversamente, tutti i termini tecnici e scientifici usati nella presente hanno lo stesso significato usato comunemente da persone di comune esperienza nel campo correlato alla presente invenzione. In caso di conflitto, questa descrizione, incluse le definizioni fornite, sar? vincolante. Inoltre, gli esempi sono forniti soltanto a scopo illustrativo e pertanto non devono essere considerati come limitativi.
In particolare, i diagrammi a blocchi inclusi nelle figure allegate e descritti nel seguito non sono intesi come una rappresentazione delle caratteristiche strutturali, o di limitazioni costruttive, ma devono essere interpretati come una rappresentazione di caratteristiche funzionali, ossia propriet? intrinseche dei dispositivi e definite dagli effetti ottenuti o limitazioni funzionali e che ? possibile implementare in modi diversi, pertanto per proteggere la funzionalit? delle stesse (possibilit? di funzionamento).
Per facilitare la comprensione delle forme di realizzazione descritte qui di seguito, sar? fatto riferimento ad alcune forme di realizzazione specifiche e sar? usato un linguaggio specifico per descriverle. La terminologia usata nella presente ha lo scopo di descrivere soltanto forme di realizzazioni particolari, e con essa non si intende limitare l'ambito di protezione della presente invenzione.
Per semplicit?, nel seguito verranno considerati soltanto detriti spaziali; si evidenzia tuttavia che, come anticipato anche sopra, tale semplificazione non ? intesa essere limitativa ma piuttosto a consentire una comprensione migliore della presente invenzione. Quindi, con il presente sistema e attraverso il presente metodo ? possibile rilevare altre entit? nello spazio, come ad esempio asteroidi o meteore.
La figura 1 mostra schematicamente un sistema 1 secondo una forma di realizzazione della presente invenzione e comprendente:
- un dispositivo di rilevamento ottico 2, indicato di seguito anche come dispositivo 2, per acquisire segnali di luce e generare insieme di fotogrammi F dai segnali di luce correlati a una porzione dello spazio osservato in cui ? possibile individuare un oggetto; e
- un modulo di elaborazione 3, accoppiato al dispositivo 2 e configurato per ricevere gli insiemi di fotogrammi F acquisiti dal dispositivo 2 ed elaborarli per determinare se un oggetto ? presente e si sta muovendo nella porzione osservata dal dispositivo 2.
Il dispositivo 2 ? ad esempio un telescopio, ad esempio il Mini-EUSO; in dettaglio, allo scopo di trovare detriti spaziali in movimento nell'orbita terrestre bassa, quest'ultimo ? installato sulla finestra trasparente agli UV rivolta verso il nadir nel modulo Zvezda russo dell'ISS ed ? configurato per funzionare nell'intervallo degli UV (ossia tra 290 nm e 430 nm) con un campo visivo quadrato di approssimativamente 44? e una risoluzione a terra di approssimativamente 6 km.
In ulteriori forme di realizzazione della presente invenzione, il dispositivo 2 pu? essere un altro tipo di dispositivo di rilevamento, ad esempio una telecamera CCD o un ulteriore telescopio sulla Terra; la principale differenza tra i diversi tipi di dispositivi di rilevamento ottico consiste nella periodicit? con cui gli insiemi di fotogrammi F vengono acquisiti. Nel seguito, per una migliore comprensione della presente invenzione, si assume, senza alcuna perdita di generalit?, che il dispositivo di rilevamento ottico 2 sia un telescopio, in particolare il Mini-EUSO.
Come anticipato anche sopra, dato che i detriti spaziali non emettono luce propria ma la riflettono soltanto, il dispositivo 2 ? configurato per rilevare la luce riflessa dai detriti spaziali illuminati da una sorgente di luce, ad esempio una sorgente di luce esterna come ad esempio un laser o altre sorgenti di luce come ad esempio il sole o la luna, sfruttando in questo modo l'effetto albedo e rilevando i detriti spaziali ad esempio in forma di tracce che attraversano il FoV del dispositivo 2 (ossia fotogrammi F sequenziali che mostrano i detriti spaziali che attraversano il FoV del dispositivo 2, ciascun fotogramma F mostrando i detriti spaziali in una posizione in un istante di tempo diverso). Quando il dispositivo 2 ? il telescopio Mini-EUSO e considerando il sole come sorgente di luce, i detriti spaziali potrebbero essere tracciati all'alba o al tramonto (ossia quando la Terra ? ancora in ombra mentre l'alta atmosfera ? gi? illuminata dal sole) o con l'ISS ruotata di 90? o 180?, con il sole che splende da dietro per evitare la luce solare diretta; il secondo caso si verifica se, ad esempio, il dispositivo 2 non ? schermato adeguatamente come nel primo caso.
Inoltre, per acquisire molteplici fotogrammi F e quindi rilevare il movimento dell'oggetto, il dispositivo 2 ? configurato per acquisire fotogrammi F periodicamente; ad esempio, qualora il dispositivo 2 sia il telescopio Mini-EUSO, l'acquisizione dei fotogrammi F avviene ogni due settimane per almeno tre anni (quest'ultima essendo l'aspettativa di vita del Mini-EUSO a partire dalla sua installazione sull'ISS). In generale, il dispositivo 2 ? configurato per acquisire fotogrammi F correlati a una porzione dello spazio osservato continuamente secondo una periodicit? t (ossia una frequenza per acquisire fotogrammi in intervalli di tempo T, quando il dispositivo 2 ? in uso); in altre parole, il dispositivo 2 funziona da registratore per la porzione osservata di spazio, in cui i fotogrammi F rappresentano la situazione spaziale e di tempo dello spazio osservato. Si noti che il dispositivo 2 acquisisce fotogrammi F in modo indipendente dal fatto che un oggetto, come ad esempio un detrito spaziale, attraversi o non attraversi il FoV dello stesso dispositivo 2.
Come mostrato nella figura 2, il dispositivo di rilevamento 2 comprende:
- un sistema ottico 4 che include una pluralit? di lenti (nel caso del telescopio Mini-EUSO, due lenti, ad esempio di tipo di Fresnel, con un diametro di 25 cm) e configurato per mettere a fuoco segnali di luce indicativi di oggetti che devono essere rilevati, ad esempio detriti spaziali;
- un rilevatore di superficie focale 5, ad esempio un modulo di rilevatore fotonico (PDM, Photon Detector Module), o un mosaico di quest'ultimo, comprendente una pluralit? di fotomoltiplicatori, come ad esempio tubi fotomoltiplicatori multianodo (MAPMT, MultiAnode Photomultiplier) (nel caso del Mini-EUSO, trentasei), aventi una superficie focale (non mostrata), accoppiati al sistema ottico 4 e configurati per:
? ricevere i segnali luminosi messi a fuoco, in cui i fotoni di questi ultimi interferiscono con il rilevatore di superficie focale 5;
? amplificare i segnali luminosi messi a fuoco ricevuti; e
? convertire i segnali luminosi messi a fuoco ricevuti in corrispondenti segnali elettrici;
- una pluralit? di ASIC 6 accoppiati al rilevatore di superficie focale 5 e configurati per ricevere ed elaborare i segnali elettrici ricevuti dal rilevatore di superficie focale 5 per digitalizzarli e ottenere i corrispondenti fotogrammi (in particolare, nel caso del telescopio Mini-EUSO, la pluralit? di ASIC 6 ? configurata per gestire le letture, ossia i segnali elettrici, in fotogrammi temporali di, ad esempio, 2,5 ?s e con una distinzione di singolo fotone di, ad esempio, 5 ns); e
- una FPGA 7 accoppiata alla pluralit? di ASIC 6 e configurata per implementare un innesco multilivello correlato a transitori di luce e per consentire la misurazione dei transitori di luce innescati, ossia per impostare le soglie per registrare ciascun insieme di fotogrammi F negli intervalli di tempo T e, quindi, per ricevere il corrispondente numero di segnali luminosi ricevuti dal dispositivo 2 (ad esempio, nel caso del Mini-EUSO, la FPGA 7 ? configurata per consentire la misurazione di transitori UV per, ad esempio, 128 fotogrammi in scale temporali sia di 2,5 ?s sia di 320 ?s).
Inoltre, il dispositivo 2 comprende un'unit? di memorizzazione interna (non mostrata) configurata per memorizzare i fotogrammi acquisiti.
Si noti che, quando il dispositivo 2 ? il telescopio Mini-EUSO, tale dispositivo 2 ? in grado di una modalit? di acquisizione non innescata in cui, con fotogrammi di 40 ms, ossia fotogrammi acquisiti con una periodicit? t (indicata anche, nel caso del Mini-EUSO, come un'unit? di tempo uguale a 40 ms, quest'ultima definita anche come unit? di tempo di gate (nel seguito abbreviata in GTU (Gate Time Unit)), il dispositivo 2 acquisisce continuamente insiemi di fotogrammi F; tale modalit? ? usata in particolare per rilevare detriti spaziali in una porzione di spazio osservato. In altre parole, secondo un insieme di unit? di tempo, ad esempio definito dall'utente attraverso la FPGA 7, il dispositivo 2 ? in grado di eseguire un'acquisizione continua di insiemi di fotogrammi F.
Dopo aver acquisito un insieme di fotogrammi F, secondo un aspetto della presente invenzione, il dispositivo 2 ? configurato per elaborare l'insieme di fotogrammi F secondo una procedura di impilamento, descritta in ulteriore dettaglio nei seguenti paragrafi, per generare un corrispondente insieme di fotogrammi impilati; secondo un ulteriore aspetto della presente invenzione, la procedura di impilamento ? eseguita dal modulo di elaborazione 3.
Facendo nuovamente riferimento alla figura 1, una volta che il dispositivo 2 ha acquisito l'insieme di fotogrammi F e generato il corrispondente insieme di fotogrammi impilati, il dispositivo 2 trasmette ciascun insieme di fotogrammi impilati al modulo di elaborazione 3 che li elabora per generare output correlati alla presenza di detriti spaziali sulla porzione osservata di spazio secondo le fasi di metodo spiegate ulteriormente nel seguito. In particolare, a questo scopo, il sistema 1, in particolare il modulo di elaborazione 3, usa un algoritmo di rete neurale convoluzionale (CNN, Convolutional Neural Network).
Secondo un'altra forma di realizzazione della presente invenzione, non descritta nella presente, il dispositivo 2 non esegue la procedura di impilamento; piuttosto, il modulo di elaborazione 3 ? configurato sia per eseguire la procedura di impilamento sia per eseguire l'algoritmo di CNN come secondo le fasi di metodo descritte di seguito.
Secondo un aspetto della presente invenzione, il modulo di elaborazione 3 ? un computer fuori bordo, ad esempio un computer ubicato sulla Terra e che riceve i fotogrammi impilati dal dispositivo 2 attraverso una connessione telemetrica, che ? specifica per le comunicazioni satellitari. Secondo un ulteriore aspetto della presente invenzione, il modulo di elaborazione 3 ? un computer di bordo, ossia un computer ubicato ad esempio sull'ISS. Secondo ancora un ulteriore aspetto della presente invenzione, il modulo di elaborazione 3 corrisponde alla FPGA 7 del dispositivo 2; quindi, la procedura di impilamento e l'uso dell'algoritmo di CNN sono eseguiti sul dispositivo 2.
Per una migliore comprensione della presente invenzione, nel seguito si assumer? che il dispositivo 2 e il modulo di elaborazione 3 siano entit? separate e, pi? in particolare, che il modulo di elaborazione 3 sia un computer di bordo; tuttavia, questa semplificazione non ? limitativa, dato che, a meno che non venga specificato diversamente, i principi di funzionamento descritti nella presente sono gli stessi per qualsiasi forma di realizzazione descritta qui di seguito.
Con riferimento alle figure 3 e 4A-4C, viene descritto qui di seguito un metodo secondo una forma di realizzazione della presente invenzione. In particolare, il presente metodo si basa su un algoritmo di innesco (?trigger?) multilivello, che a sua volta si basa su una procedura di impilamento combinata con una CNN, di seguito indicato come stack-CNN; in particolare, il metodo stack-CNN pu? essere applicato a qualsiasi sorgente simile a punto che si muove linearmente nel FoV del dispositivo 2 del sistema 1.
Secondo una forma di realizzazione della presente invenzione, la procedura di impilamento del presente metodo ? eseguita dalla pluralit? di ASIC 6 del dispositivo 2 e l'algoritmo di CNN ? eseguito dal modulo di elaborazione 3 in tempo reale, ossia il dispositivo 2, mentre acquisisce ciascun fotogramma di un insieme di fotogrammi F secondo i livelli di innesco implementati dalla FPGA 7, li elabora e li trasmette al modulo di elaborazione 3, continuando al contempo ad acquisire ulteriori fotogrammi dello stesso insieme di fotogrammi F o ancora altri fotogrammi di ulteriori insiemi di fotogrammi F che devono essere elaborati successivamente. In altre parole, il sistema 1 funziona in modo dinamico, per cui l'acquisizione e l'elaborazione possono essere eseguite quasi simultaneamente; nel seguito, per semplicit? e per una migliore comprensione dell'invenzione, si assume che il sistema 1 acquisisca l'insieme di fotogrammi F e li elabori secondo le fasi di metodo descritte di seguito.
Secondo un?altra forma di realizzazione della presente invenzione, l'algoritmo di CNN ? eseguito sul modulo di elaborazione 3 non in linea (?offline?), ossia dopo aver acquisito ed elaborato insiemi di fotogrammi F per mezzo del dispositivo 2 (ossia dopo aver raggiunto un numero massimo di fotogrammi F che possono essere acquisiti ed elaborati dal dispositivo 2 secondo la procedura di impilamento). Si noti che il numero massimo di fotogrammi pu? essere predeterminato da un utente regolando adeguatamente i livelli di innesco che devono essere implementati dalla FPGA 7; inoltre, il dispositivo 2 pu? interrompere l'acquisizione di fotogrammi F automaticamente secondo il numero massimo predeterminato dall'utente di fotogrammi F che possono essere acquisiti dal dispositivo 2.
Nel seguito, per consentire una migliore comprensione dell'invenzione, verr? descritta una singola iterazione del presente metodo, ossia un singolo insieme di fotogrammi F viene acquisito ed elaborato dal sistema 1 secondo le fasi di metodo descritte di seguito.
La figura 3 mostra un diagramma di flusso del metodo per rilevare oggetti nel FoV del dispositivo 2 come secondo la presente invenzione.
Inizialmente, fase 10, il dispositivo 2 acquisisce e memorizza un insieme di fotogrammi F di una porzione osservata dello spazio osservato, ossia la porzione coperta dal FoV del dispositivo 2 stesso. Nel seguito e senza alcuna limitazione per l'ambito di protezione della presente invenzione, si assume che i fotogrammi F siano in successione tra loro, e che siano acquisiti nell'intervallo di tempo T, che ? un multiplo della periodicit? t ed ? determinato secondo i livelli di innesco preimpostati dalla FPGA 7. Nel caso del Mini-EUSO, l'intervallo di tempo T ? un multiplo della GTU. Secondo un aspetto della presente invenzione, i fotogrammi F sono sequenziali, ossia l'intervallo di tempo tra ogni fotogramma F ? uguale alla periodicit? t; secondo un ulteriore aspetto della presente invenzione, i fotogrammi F non sono sequenziali, ossia l'intervallo di tempo tra ciascun fotogramma F varia secondo multipli della periodicit? t. Per una migliore comprensione dell'invenzione, di seguito si assume che i fotogrammi F dell'insieme di fotogrammi F siano sequenziali tra loro.
Per rilevare detriti spaziali (e, pi? in generale, oggetti che attraversano il FoV del dispositivo 2), si assume che il movimento di detriti spaziali sia descritto da quantit? correlate alla loro traiettoria e alla loro velocit?, i cui valori sono assunti secondo osservazioni precedenti (ossia, dato che alcuni detriti spaziali sono stati osservati e catalogati, sono state catalogate anche le quantit? che descrivono il loro movimento nell'orbita terrestre bassa e i loro valori). In altre parole, considerando che i detriti spaziali potrebbero attraversare o non attraversare il FoV del dispositivo 2, si assume che, se vengono rilevati dal sistema 1 detriti spaziali che orbitano attorno alla Terra sull'orbita terrestre bassa, il movimento di detti detriti spaziali ? descritto da insiemi di quantit? correlate alla loro traiettoria e alla loro velocit?. Si noti che questo assunto ? valido anche per detriti spaziali che non sono stati catalogati e che si muovono nell'orbita terrestre bassa. Secondo un ulteriore aspetto della presente invenzione, l'algoritmo stack-CNN descritto nella presente ? adatto anche per rilevare oggetti che si muovono in orbite terrestri pi? alte.
In particolare, qui, si assume che i detriti spaziali si muovano a velocit? e lungo una direzione angolare ?, quest'ultima essendo una direzione che poggia su un piano (ad esempio, un piano parallelo a un piano XY di un sistema di riferimento cartesiano XYZ, sostanzialmente parallelo al piano che descrive il FoV del dispositivo 2) misurato come angolo tra, ad esempio, l'asse X e la proiezione della posizione nel piano XY dei detriti spaziali considerati. Si noti che la velocit? e la direzione angolare ? associate al movimento dei detriti spaziali, in particolare nell'orbita terrestre bassa, non sono valori puntuali, ossia i valori della velocit? e della direzione angolare ? sono intervalli di valori possibili, come specificato anche nei paragrafi seguenti. In particolare, tali valori per la velocit? e la direzione angolare ? sono determinati secondo il movimento relativo dei detriti spaziali rispetto al dispositivo 2 e indicano quindi la traiettoria e la velocit? dei detriti spaziali.
Per consentire una comprensione migliore della presente invenzione e considerando le caratteristiche intrinseche del dispositivo 2 (ossia, data la natura del dispositivo 2), ? possibile rilevare la velocit? dei detriti spaziali sul piano del FoV del dispositivo 2 (ossia, il piano XY del sistema di riferimento cartesiano XYZ). Pertanto, si assume che i detriti spaziali abbiano soltanto una velocit? orizzontale, ossia, date le caratteristiche del dispositivo 2, vengono considerate soltanto le proiezioni della velocit?
sul piano XY (ossia le componenti X e Y della velocit?
sul piano del FoV del dispositivo 2), e il fatto che essi iniziano a muoversi da una posizione definita dalle coordinate cartesiane (x0, y0, h) in cui x0, y0 sono le coordinate X e Y dell'origine del sistema di riferimento cartesiano XYZ e h ? l'altezza (misurata in km lungo l'asse Z) di detriti spaziali osservati dal dispositivo 2. Quindi, se l'altezza h ? nulla, i detriti spaziali sono posizionati a terra, ossia sulla Terra.
Ad altezza h, la dimensione lp di un pixel di ciascun fotogramma F acquisito dal dispositivo 2 ? calcolata conoscendo l'altitudine a del dispositivo 2 (ad esempio, 400 km per il Mini-EUSO) e la dimensione lg di un pixel di ciascun fotogramma F quando misurata a terra (ad esempio 6 km), nonch? l'angolo di apertura ? di un pixel, quest'ultimo essendo correlato al FoV del dispositivo 2 e di conseguenza al FoV dei pixel di ciascun fotogramma F acquisito dal dispositivo 2. Pertanto, la dimensione di un pixel lp di ciascun fotogramma F acquisito dal dispositivo 2 ? definita come segue (Equazione (1)):
(1)
Si noti che il FoV del dispositivo 2, che ? noto dal foglio di dati del dispositivo 2, ? definito come la somma del FoV di ciascun pixel che forma un fotogramma F acquisito dal dispositivo 2.
In particolare, l'insieme di fotogrammi F acquisiti dal dispositivo 2 comprende n+1 fotogrammi F che sono acquisiti nell'intervallo di tempo T, ossia da un primo istante di tempo T0, che ? l'istante di tempo in cui ? acquisito il primo fotogramma dell'insieme di fotogrammi F, fino a un secondo istante di tempo Tn, che ? l'istante di tempo in cui l'ultimo fotogramma ? acquisito dal dispositivo 2. In particolare, gli istanti di tempo nell'intervallo di tempo T, ossia dal primo istante di tempo T0 al secondo istante di tempo Tn (estremi inclusi) dipendono dalla periodicit? t (nel caso del Mini-EUSO, dalla GTU); quindi, secondo un aspetto della presente invenzione, il primo istante di tempo T0 ? uguale ai valori della periodicit? t (ossia, nel caso del Mini-EUSO, una GTU, ossia 40 ms), e il secondo istante di tempo Tn ? uguale ai valori della periodicit? t moltiplicati per n (nel caso del Mini-EUSO, n per GTU).
In altre parole, il dispositivo 2 ? configurato per acquisire l'insieme di fotogrammi F nell'intervallo di tempo T, delimitato da istanti di tempo T0 e Tn, secondo la periodicit? t.
Quindi, detto insieme di fotogrammi F ? memorizzato nel dispositivo 2, ad esempio in un'unit? di memorizzazione interna (non mostrata).
Per una migliore comprensione dell'invenzione, si assume che gli istanti di tempo T0, Tn siano rispettivamente l'istante di tempo in cui i detriti spaziali vengono rilevati per la prima e l'ultima volta; quindi, l'intervallo di tempo T ? il fotogramma di tempo in cui i detriti spaziali sono rilevati dal dispositivo 2. Ancora una volta, questa semplificazione non ? limitativa per l'ambito di protezione della presente invenzione, ma viene fatta invece per consentire una migliore comprensione della presente invenzione stessa.
Inoltre, si noti che il dispositivo 2 acquisisce l'insieme di fotogrammi F come immagini bidimensionali che si estendono su un piano parallelo, ad esempio, al piano XY del sistema di riferimento cartesiano e, quindi, al piano che rappresenta il FoV del dispositivo 2.
Successivamente, viene ottenuta una mappa I(Ti), che ? una mappa NMXMM (dove NM e MM sono indici naturali che vanno da 1 a NM,max e MM,max, questi ultimi essendo i valori massimi per le dimensioni della mappa I(Ti) definiti dalle caratteristiche del dispositivo 2) nell'istante di tempo Ti (dove i ? un indice compreso tra 0 e n) che ? compreso tra istanti di tempo T0, Tn e quindi ? un multiplo della periodicit?, ossia uguale al valore della periodicit? t e dell'indice i; si noti che, nel caso del Mini-EUSO, la mappa I(Ti) ? una mappa 48X48, ossia NM e MM sono uguali. Secondo un ulteriore aspetto della presente invenzione, la dimensione della mappa I(Ti) pu? essere adattata di conseguenza, ossia se la dimensione del corrispondente fotogramma Fi ? enorme (ossia 1000X1000), lo stesso fotogramma Fi pu? essere tagliato a una dimensione desiderata, che quindi determina la dimensione della corrispondente mappa I(Ti), cosicch? il metodo descritto nella presente pu? essere eseguito in un modo pi? rapido ed efficiente. Per una migliore comprensione della presente invenzione, si assume che la mappa I(Ti) sia una mappa NMXMM.
In particolare, la mappa I(Ti) rappresenta, in forma matriciale, il fotogramma Fi, che ? uno dei fotogrammi F dell'insieme di fotogrammi acquisiti dal dispositivo 2. Inoltre, viene fornita anche una differenza di tempo ?t che ? una differenza di tempo tra istanti di tempo adiacenti (qui quindi uguale alla periodicit? t e, nel caso del Mini-EUSO, definita come differenza di tempo tra due GTU). Da ultimo, il dispositivo 2 ? configurato per generare n+1 mappe I([T0-Tn]) (indicate anche come I(T) nel seguito) che rappresentano ciascuna un corrispondente fotogramma F dell'insieme di fotogrammi F acquisiti nell'intervallo di tempo T. Esempi di fotogrammi F acquisiti dell'insieme di fotogrammi F sono mostrati nella figura 4A (in cui la presenza dei detriti spaziali ? indicata da un cerchio).
Ad esempio, l'insieme di fotogrammi F comprende quaranta fotogrammi F; pertanto, il numero di mappe I(T) ? uguale a quaranta. L'insieme di fotogrammi F ? memorizzato, ad esempio, nell'unit? di memorizzazione interna del dispositivo 2.
In generale, l'insieme di fotogrammi F comprende un corrispondente primo fotogramma F0, che ? il fotogramma acquisito nel primo istante di tempo T0, e un corrispondente ulteriore insieme di fotogrammi FB (B essendo un indice naturale compreso tra 1 e n) che sono acquisiti in rispettivi istanti di tempo TB e successivi, in particolare sequenziali, tra loro e che descrivono la progressione nel tempo del movimento dei detriti spaziali osservati dal dispositivo 2.
Nel seguito, nella fase 20, un sottoinsieme di fotogrammi Fsel selezionati dall'insieme di fotogrammi F ? selezionato per la successiva procedura di impilamento. In particolare, il sottoinsieme di fotogrammi Fsel comprende NF (un indice naturale che va da 1 a n-1) fotogrammi F; ad esempio, nella presente descrizione e senza alcuna sua limitazione, il sottoinsieme di fotogrammi Fsel comprende dodici fotogrammi F. Per una migliore comprensione della presente invenzione, si assume che il sottoinsieme di fotogrammi Fsel comprenda i primi dodici fotogrammi F acquisiti dal dispositivo 2 (ossia, fotogrammi F acquisiti nell'intervallo di tempo delimitato da istanti di tempo T0 e T11); quindi, il sottoinsieme di fotogrammi Fsel comprende il primo fotogramma F0 e un certo numero, qui undici, di ulteriori fotogrammi FB (ossia, i fotogrammi F1-F11), di seguito indicati come ulteriore sottoinsieme di fotogrammi Fsel', associati alle corrispondenti matrici I(T0)-I(T11) e ai corrispondenti istanti di tempo T0-T11.
La procedura di impilamento secondo la presente invenzione e descritta con riferimento alla fase 30 della figura 3 comprende:
- una fase di traslazione; e
- una fase di aggiunta.
In particolare, la procedura di impilamento ? iterativa, il che significa che le fasi di traslazione e di aggiunta sono ripetute per i fotogrammi Fsel selezionati elaborati nella procedura di impilamento. Come anticipato sopra, inoltre, di seguito sar? descritta una singola iterazione.
Secondo la fase di traslazione, i pixel di ciascun fotogramma Fsel del sottoinsieme di fotogrammi Fsel, ad esempio il fotogramma F1 rappresentato dalla mappa I(T1) acquisita nell'istante di tempo T1, sono spostati secondo un corrispondente insieme di una prima distanza di traslazione dx lungo l'asse X e di una seconda distanza di traslazione dy lungo l'asse Y, per ottenere un corrispondente fotogramma spostato Fsh1.
In particolare, ciascun insieme di distanze di traslazione dx, dy ? determinato in funzione dei valori delle quantit? che descrivono il movimento dei detriti spaziali nel FoV del dispositivo; in particolare, ogni insieme delle distanze di traslazione dx, dy ? determinato in funzione di un rispettivo insieme di parametri di traslazione.
In dettaglio, secondo un aspetto della presente invenzione, ciascun insieme di parametri di traslazione comprende corrispondenti valori per velocit? e direzione angolare ?, che si assume siano secondo i valori per velocit? e direzione angolare assunti dai detriti spaziali catalogati. In particolare, la direzione angolare ? ? definita come l?angolo che caratterizza la direzione del movimento dei detriti spaziali nel piano in cui questi ultimi si muovono, ossia un piano parallelo al piano XY.
Quindi, ciascun insieme di distanze di traslazione dx, dy ? determinato secondo combinazioni, qui coppie, di valori dei parametri di traslazione, qui velocit? e direzione angolare ?. Quindi, per una pluralit? di parametri di traslazione ?, viene ottenuta una corrispondente pluralit? di distanze di traslazione dx, dy.
Nel seguito, per rappresentare il movimento dei detriti spaziali, i valori della velocit? sono compresi tra 5 e 11 km/s e la traslazione ? eseguita considerando fasi di 2 km/s (per un totale di quattro valori possibili per la velocit? inoltre, i valori della direzione angolare ? sono compresi tra 0? e 360? e la traslazione ? eseguita considerando fasi di 15? (per un totale di ventiquattro valori possibili per la direzione angolare ?).
Quindi, ciascun insieme di distanze di traslazione dx, dy ? determinato come secondo le Equazioni (2) e (3) di seguito:
in cui M ? un indice naturale che va da 0 a Mmax, quest'ultimo essendo il numero massimo di valori che ? possibile assumere dalla velocit? N ? un indice naturale che va da 0 a Nmax, quest'ultimo essendo il numero massimo di valori che ? possibile assumere dalla direzione angolare ?; e Q ? un indice naturale che va da 0 Qmax, quest'ultimo essendo il numero massimo di valori possibili per le distanze di traslazione dxQ, dyQ. In particolare, i valori di Q sono dati come il prodotto tra N e M; quindi, Qmax ? il prodotto tra Nmax e Mmax.
In altre parole, date combinazioni, in particolari coppie, di valori dei parametri di traslazione e ?N, ? possibile trovare corrispondenti insiemi di valori delle distanze di traslazione dxQ, dyQ. In questo caso, le combinazioni/coppie possibili di valori dei parametri di traslazione e ?N sono uguali a novantasei e, quindi, il numero di insiemi di distanze di traslazione dxQ, dyQ ? novantasei.
Quindi, secondo la presente invenzione, la procedura di traslazione sposta i pixel di ciascun fotogramma Fsel in una direzione che ? opposta alla direzione del movimento dei detriti spaziali. In questo modo, come spiegato anche un ulteriore dettaglio nei seguenti paragrafi, per un corrispondente insieme di distanze di traslazione dxQ, dyQ (e quindi un corrispondente insieme di parametri di traslazione e ?N), viene generato un corrispondente primo insieme di fotogrammi spostati Fsh, generati dal corrispondente sottoinsieme di fotogrammi Fsel e alle corrispondenti mappe I(T)sh. Si noti che la fase di traslazione tiene conto inoltre della differenza tra gli istanti di tempo del primo fotogramma F0 e l'ulteriore fotogramma Fsel' considerato; infatti, dato che l'obiettivo ? rendere l'obiettivo maggiormente visibile, ciascun ulteriore fotogramma Fsel' ? spostato all'indietro, ossia per tornare approssimativamente nella posizione dell'oggetto del primo fotogramma F0, per un corrispondente insieme di distanze di traslazione dxQ, dyQ (e quindi un corrispondente insieme di parametri di traslazione e ?N) e considerando quanto tempo ? trascorso. Di conseguenza, durante la traslazione, deve essere tenuta in considerazione la cardinalit? dell'istante di tempo in cui ? acquisito ciascun ulteriore fotogramma Fsel'. Pertanto, maggiore ? la differenza, quanto pi? i pixel di ciascun ulteriore fotogramma Fsel' devono essere spostati all'indietro per essere sovrapposti efficacemente nella fase di impilamento sul primo fotogramma F0, come descritto in ulteriore dettaglio nel seguito.
Quindi, ad esempio, il fotogramma F1 del sottoinsieme di fotogrammi Fsel genera, quando spostato secondo un primo insieme di valori di velocit? e direzione angolare ?1 e secondo una differenza di tempo T0-T1 che ? uguale al valore della periodicit? t (ossia, per il Mini-EUSO, 40 ms) dato che ? posizionato subito dopo il primo fotogramma F0 (ossia la cardinalit? della sua posizione ? uguale a uno), un corrispondente fotogramma spostato Fsh1. Ad esempio, i valori di velocit? e direzione angolare ?1 sono rispettivamente uguali a 5 km/s e 0?, che sono i primi valori possibili per i parametri di traslazione e ?N nel presente caso.
Si noti inoltre che la fase di traslazione ? applicata considerando che ciascun pixel di ciascun fotogramma Fsel ? spostato a partire dal suo centro.
Con riferimento alla fase di aggiunta, se la prima e/o la seconda distanza di traslazione dxQ, dyQ sono minori di
ciascuna mappa I(T)sh, che ? una matrice correlata a un
corrispondente fotogramma spostato Fsh, non viene fatta scorrere; d'altra parte, ciascuna mappa I(T)sh viene fatta scorrere di uno o due pixel aventi la dimensione lp a seconda che la prima e/o la seconda distanza di traslazione dxQ, dyQ siano maggiori di o di Questa procedura consente di evitare di perdere pixel durante la traslazione di ciascun fotogramma Fsel; infatti, durante la traslazione di pixel, ? possibile perdere una parte del corrispondente fotogramma Fsel (ovvero, righe di pixel che finirebbero nella direzione opposta a quella in cui ? eseguita la fase di traslazione, ossia nella direzione del movimento dei detriti spaziali) compromettendo in questo modo l'affidabilit? della procedura di impilamento. Per evitare questo inconveniente, verificando se i valori delle distanze di traslazione dxQ, dyQ soddisfano i requisiti summenzionati, pu? essere necessario eseguire uno scorrimento. Si noti che con questa procedura i pixel che vengono fatti scorrere secondo questa procedura sono pixel di sfondo, che non hanno variazioni significative uno dall'altro. Quindi, l'effetto che pu? derivare da questa procedura ? trascurabile.
Pertanto, ad esempio, la mappa I(T1)sh correlata al fotogramma spostato Fsh1 viene (eventualmente) fatta scorrere.
Di seguito, un insieme di fotogrammi impilati Fs viene ottenuto come descritto in dettaglio nel seguito.
In particolare, dopo aver fatto scorrere ogni mappa I(T)sh che deve essere fatta scorrere, viene ottenuto un jesimo fotogramma impilato Fsj (in cui j ? un indice naturale che va da 0 a Qmax) dell'insieme di fotogrammi impilati Fs secondo l'Equazione (4):
In altre parole, il j-esimo fotogramma impilato Fsj ? dato come somma del primo fotogramma F0, che ? il primo fotogramma selezionato, e n fotogrammi spostati Fshn, ossia i fotogrammi spostati ottenuti dagli ulteriori fotogrammi Fsel' considerando una corrispondente j-esima combinazione di parametri di traslazione ?N (che generano in questo modo distanze di traslazione dxj, dyj) nonch? le rispettive differenze di istanti di tempo. Quindi, per ogni insieme di valori dei parametri di traslazione ?N (e, quindi, per ciascun insieme di valori delle distanze di traslazione dxQ, dyQ), viene generato un corrispondente fotogramma impilato Fs; quindi, dati tutti gli insiemi possibili di valori dei parametri di traslazione ?N, si ottiene un corrispondente primo insieme di fotogrammi impilati Fs.
Ad esempio, il fotogramma impilato Fs1 ? dato come somma tra il primo fotogramma F0 e un corrispondente insieme di fotogrammi spostati Fsh1-Fsh11 ottenuti considerando distanze di traslazione dx1, dy1.
Si noti che, come mostrato chiaramente nell'Equazione (4), il primo fotogramma F0 non ? spostato; questo ? dovuto al fatto che il primo fotogramma F0 ? il fotogramma in cui vengono mostrati detriti spaziali per la prima volta e viene usato come riferimento per la procedura di impilamento. Quindi, ciascun corrispondente insieme di fotogrammi spostati Fsh ? impilato sul primo fotogramma F0 in modo tale che i detriti spaziali, mostrati per la prima volta nel fotogramma F0 e passanti nel FoV del dispositivo 2, siano pi? visibili. In altre parole, il principio alla base della procedura di impilamento ? traslare pixel di ciascun ulteriore fotogramma Fsel' secondo insiemi preimpostati di valori dei parametri di traslazione e ?N (e, pertanto, del corrispondente insieme di valori delle distanze di traslazione dxQ, dyQ) e aggiungere il corrispondente insieme di fotogrammi spostati Fsh al primo fotogramma F0 in modo da ottenere, per ciascun insieme di valori dei parametri di traslazione e ?N, un corrispondente fotogramma impilato Fs rendendo in questo modo pi? visibili i detriti spaziali (ossia tramite traslazione all'indietro e, quindi, ritorno nella posizione acquisita nel fotogramma F0, il segnale luminoso che rappresenta i detriti spaziali ? migliorato); questo ? evidente inoltre dall'Equazione (4) per il fatto che le distanze di traslazione dxQ, dyQ sono moltiplicate dalla cardinalit? dell'operazione di somma, ossia dato che i fotogrammi mostrano una progressione nel tempo del movimento dei detriti spaziali, la traslazione deve tenere in considerazione questa progressione e, pertanto, correggere le distanze di traslazione dxQ, dyQ di una costante, qui la cardinalit? di ciascun ulteriore fotogramma Fsel', per consentire una sovrapposizione sostanziale dei pixel che mostrano i detriti spaziali (ossia pixel luminosi) di ciascun fotogramma spostato Fsh con il primo fotogramma F0.
Si noti inoltre che ciascun fotogramma impilato Fsj ? ottenuto impostando alcuni valori, ossia selezionando una combinazione specifica di valori; pertanto, la procedura di impilamento deve essere ripetuta per qualsiasi ulteriore combinazione di valori dei parametri di traslazione e ?N. Da ultimo, viene ottenuto un primo insieme di fotogrammi impilati Fs considerando tutte le combinazioni possibili dei parametri di traslazione e ?N (ossia, la moltiplicazione tra Nmax e Mmax, qui uguale a novantasei). Quindi, il primo insieme di fotogrammi impilati Fs comprende novantasei fotogrammi impilati, uno per ciascuna combinazione dei parametri di traslazione e ?N.
La procedura di impilamento ha il vantaggio che l'SNR del primo insieme di fotogrammi impilati Fs ? maggiore dell'SNR del sottoinsieme di fotogrammi Fsel (e, pi? in generale, dell'insieme di fotogrammi F); in particolare, la procedura di impilamento consente di incrementare l'SNR del segnale di luce associato a detriti spaziali di dato che il rumore di fondo ha un comportamento poissoniano e le sue fluttuazioni sono nell'ordine di mentre il segnale luminoso dei detriti spaziali segue un andamento dell?ordine di n ed ? sostanzialmente coerente.
Al termine della procedura di impilamento, il dispositivo 2 trasmette il primo insieme di fotogrammi impilati Fs, elaborati dal modulo di elaborazione 3. Si noti che il primo insieme di fotogrammi impilati Fs ? memorizzato ad esempio nell'unit? di memorizzazione interna del dispositivo 2 e/o del modulo di elaborazione 3, insieme ai valori di velocit? e direzione angolare ? associati ad essi.
Secondo la fase 40 del presente metodo, il primo insieme di fotogrammi impilati Fs ? elaborato dal modulo di elaborazione 3, in particolare per mezzo di un algoritmo di CNN che ? configurato per classificare ciascun fotogramma impilato Fs per determinare se un oggetto ? visibile, ossia sta attraversando il FoV del dispositivo 2 e quindi se un fotogramma impilato Fs mostra un'immagine dell'oggetto.
Secondo un aspetto della presente invenzione, l'algoritmo di CNN usato nel presente metodo ? un algoritmo shallow-CNN (come quello, ad esempio, descritto in "Gradient-based learning applied to document recognition" di Y. Lecun, L. Bottou, Y. Bengio e P. Haffner, https://nyuscholars.nyu.edu/en/publications/gradient-basedlearning-applied-to-document-recognition), che, secondo l'esperienza e i test delle Richiedenti, ? particolarmente adatto per sistemi per telescopi con FPGA, dato che gli algoritmi di CNN superficiale funzionano con pochi parametri, apprendendo in questo modo caratteristiche da fotogrammi impilati, che consentono facilmente all'utente di implementare CNN superficiali usando soltanto le FPGA ed evitando cos? la necessit? di strutture pi? profonde. Secondo la presente invenzione, l'algoritmo shallow-CNN usato qui usa 16.825 parametri (che caratterizzano la rete neurale e vengono usati durante la ricerca e la regolazione fine del modello della rete neurale) ed ? diviso in layer, ciascuno dei quali viene coinvolto con un numero limitato di parametri.
L'algoritmo shallow-CNN della presente invenzione ? configurato per applicare un modello M, trovato in una fase di addestramento precedente descritta per completezza nel seguito, al primo insieme di fotogrammi impilati Fs e per classificare, secondo una pluralit? di classi, ciascun fotogramma impilato Fs; in particolare, l'algoritmo shallow-CNN ? qui configurato per classificare ciascun fotogramma impilato Fs secondo una prima e una seconda classe C1, C2, in cui la prima classe C1 ? uguale a 1 e la seconda classe C2 ? uguale a 0. Quindi, la CNN superficiale implementa una classificazione binaria in cui la prima classe C1 ? associata a un primo sottoinsieme di fotogrammi impilati Fs, indicati di seguito come fotogrammi impilati idonei Fs,g, in cui l'oggetto ? visibile nel FoV del dispositivo 2 (ossia, pixel luminosi nei fotogrammi impilati Fs, che indicano la presenza dell'oggetto nel FoV del dispositivo 2, sono visibili rispetto allo sfondo, quest'ultimo essendo privo di pixel luminosi) e la seconda classe C2 ? associata a un secondo sottoinsieme di fotogrammi impilati Fs, di seguito indicati come fotogrammi impilati non idonei Fs,b, in cui l'oggetto non ? visibile nel FoV del dispositivo 2 (ossia, non sono visibili pixel luminosi in un fotogramma impilato Fs, il che significa che l'oggetto ? assente nel FoV del dispositivo 2), ossia viene mostrato soltanto rumore di fondo. In altre parole, la prima e la seconda classe C1, C2 sono valori correlati rispettivamente alla presenza e all'assenza di oggetti nel FoV del dispositivo 2. Si noti che il termine pixel luminosi fa riferimento a pixel aventi un'intensit? ottica che ? maggiore rispetto a quella dello sfondo; in altre parole, i pixel aventi un'intensit? ottica uguale a o maggiore di una soglia (ad esempio nel caso del Mini-EUSO, il 3% dell'SBR) sono considerati luminosi. Quindi, l'algoritmo shallow-CNN ? progettato per determinare se in ciascun fotogramma impilato Fs ? presente un'immagine (ossia, un cluster di pixel luminosi) di un oggetto nel FoV del dispositivo 2.
Si noti che, come ? noto a un esperto nella tecnica, la classificazione da parte dell'algoritmo shallow-CNN ? eseguita dopo una fase iniziale, in cui l'algoritmo shallow-CNN ? addestrato, convalidato e testato per determinare il modello che consente di eseguire detta classificazione nel modo migliore e pi? efficiente, in particolare in termini di tempo computazionale. Detta fase iniziale sar? discussa brevemente nel seguito per consentire una migliore comprensione delle fasi successive della presente invenzione.
Nella fase iniziale, l'algoritmo shallow-CNN ? configurato per considerare un insieme predeterminato di fotogrammi che devono essere appresi nella fase di addestramento per usare pochi "max pooling" per evitare perdite di informazioni e pochi filtri per forme di base nei fotogrammi.
In ulteriore dettaglio, come in qualsiasi algoritmo di CNN, la fase iniziale comprende tre sottofasi:
- la fase di addestramento, in cui l'algoritmo shallow-CNN ? addestrato per generare un modello M a partire da un insieme di dati di addestramento dtrain, che solitamente comprende una percentuale di un insieme di dati iniziali din, quest'ultimo comprendendo un numero considerevole di fotogrammi che devono essere analizzati (ad esempio, approssimativamente 6000 fotogrammi) che coprono statisticamente lo spazio di fase, ossia lo spazio di tutte le combinazioni possibili di fotogrammi; in altre parole, la fase di addestramento consente di regolare i parametri dell'algoritmo shallow-CNN secondo le necessit? dell'utente e i dati di input (qui, una percentuale dell'insieme di dati iniziali din);
- fase di convalida, in cui un insieme di dati di convalida dval, che comprende la percentuale rimanente dell'insieme di dati iniziali din non usata per la fase di addestramento, ? usato per convalidare le prestazioni del modello M, verificando cos? che i parametri impostati nella fase di addestramento siano adatti anche per l'insieme di dati di convalida dval, e trovando eventuali adattamenti eccessivi o perdite di generalizzazione; e
- fase di test, in cui un insieme di dati di test dtest, che include fotogrammi sconosciuti (ossia fotogrammi che non facevano parte dell'insieme di dati iniziali din e pertanto non sono noti all?algoritmo shallow-CNN, di seguito indicati come fotogrammi di test Ftest) e viene usato per determinare la precisione e l'errore dell'algoritmo shallow-CNN.
Le fasi summenzionate vengono applicate in particolare per la shallow-CNN descritta qui di seguito.
Nella fase di addestramento, secondo un aspetto della presente invenzione, viene fornito un insieme di fotogrammi di addestramento Ftrain (in questo caso, ottanta) e comprende:
- fotogrammi che riportano il movimento di detriti spaziali, di seguito indicati come FSD, che ? stato simulato attraverso un software, ad esempio ESAF (ossia EUSO Simulation and Analysis Framework, https://pos.sissa.it/358/252/, che ? un simulatore per detriti spaziali per il Mini-EUSO), aventi raggio di detriti spaziali di 1 cm, una posizione di pixel (in coordinate X e Y) dei detriti spaziali uguale a ([12-34], [12-34]) (ossia, considerando un quadrato di pixel, in cui si assume che i detriti spaziali si muovano, a partire dal pixel [12,12] fino al pixel [34,34], contando i pixel da [0,0] in una direzione dall'angolo in alto a sinistra del fotogramma), un intervallo di velocit? tra 5 e 12 km/s, un intervallo di direzione angolare da 0? a 360? e un'altezza di 370 km; e - fotogrammi correlati al rumore di fondo, di seguito indicati come Fbackground sono stati impostati a un count pix-1(t)<-1 >(che ? un count pix<-1>(t)<-1 >di fotoni normalizzati, ossia un tipo di conteggio che viene calcolato in media su una scala di tempo lunga, ad esempio 40 ms per Mini-EUSO, su un singolo pixel e normalizzato su una scala di tempo breve, ad esempio 2,5 ?s nel caso del Mini-EUSO), ossia un valore tipico per le misure di fondo su oceani (scelto cio? per via della luminescenza notturna UV e l'assenza della luce lunare, ossia ? simile al cielo notturno) quando il dispositivo 2 ? il Mini-EUSO.
Si noti che anche l'insieme di fotogrammi di addestramento Ftrain viene sottoposto a una procedura di impilamento come secondo le fasi di metodo descritte sopra; in particolare, tutti i fotogrammi FSD, Fbackground sono stati spostati con una direzione angolare ?N che va da 0? a 360? con una fase di 15? e con una velocit? |????????| che va da 5 a 12 km/s con una fase di 2 km/s, ottenendo cos? quattro combinazioni di velocit? e ventiquattro combinazioni di direzione, ossia novantasei combinazione di valori dei parametri di traslazione e ?N in totale. Si noti che l'insieme di fotogrammi impilati di addestramento Ftrain,s rappresenta l'insieme di dati iniziali din che deve essere immesso come input nell'algoritmo shallow-CNN.
Prima di immettere gli insiemi di fotogrammi impilati di addestramento Ftrain,s nell'algoritmo shallow-CNN, l'insieme di fotogrammi impilati di addestramento Ftrain,s ? trasformato in valori di scala di grigi, ossia ciascun fotogramma impilato di addestramento Ftrain,s ? trasformato in modo da avere valori di pixel la tra 0 e 1, usando la formula nell'Equazione (5):
(5)
in cui PV ? il valore di pixel, mV ? il valore minimo registrato in un pixel di ciascun fotogramma impilato di addestramento Ftrain,s e MV ? il valore massimo registrato in un pixel di ciascun fotogramma impilato di addestramento Ftrain,s. Dopo aver adattato l'insieme di fotogrammi impilati di addestramento Ftrain,s secondo la trasformazione in valori di scala di grigi, una percentuale elevata, ad esempio il 97%, dell'insieme di dati iniziali din, ossia l'insieme di dati di addestramento dtrain, ?, come indicato sopra, usata per la fase di addestramento, in modo da determinare un modello M; in particolare, qui l'insieme di dati di addestramento dtrain comprende dati correlati all'insieme di fotogrammi impilati di addestramento Ftrain,s che sono stati trasformati secondo la trasformazione in valori di scala di grigi, che ammonta a circa 500, di cui met? ? costituita da un primo sottoinsieme di fotogrammi impilati di addestramento Ftrain,s che sono considerati idonei (indicati come Ftrain,s,g), ossia i fotogrammi Ftrain,s,g mostrano pixel luminosi in relazione al movimento dei detriti spaziali, e un secondo sottoinsieme di fotogrammi impilati di addestramento Ftrain,s che sono considerati non idonei (indicati come Ftrain,s,b), ossia non mostrano pixel luminosi e sono fotogrammi che mostrano soltanto lo sfondo.
Si noti che il modello M ? determinato immettendo l'insieme di dati di addestramento dtrain nonch? l'insieme di valori dei parametri di traslazione e ?N usati per la fase di traslazione nella procedura di impilamento e le informazioni correlate alla natura degli insiemi di fotogrammi impilati di addestramento Ftrain,s (ossia se sono fotogrammi impilati di addestramento idonei Ftrain,s,g o fotogrammi impilati di addestramento non idonei Ftrain,s,b) che viene indicata anche come marcatura. In altre parole, il modello M ? determinato sapendo a priori se ciascun fotogramma impilato di addestramento Ftrain,s ? idoneo o non idoneo, per cui l'algoritmo shallow-CNN pu? regolare i suoi parametri e determinare il modello M. In questo modo, il modello M ? regolato in modo da classificare ogni fotogramma impilato di addestramento Ftrain,s secondo la prima o una seconda classe C1, C2, associata rispettivamente a fotogrammi impilati di addestramento idonei Ftrain,s,g e fotogrammi impilati di addestramento non idonei Ftrain,s,b.
Secondo un aspetto della presente invenzione, ? stato usato software noto allo scopo di trovare e convalidare il modello M.
La percentuale rimanente, ad esempio 3%, dell'insieme di dati iniziali din ? usata per la fase di convalida, ossia insieme di dati di convalida dval, dove il modello M appena trovato viene usato per elaborare l'insieme di dati di convalida dval, valutando in questo modo l'efficienza del modello M su una porzione non marcata, pi? piccola, dell'insieme di dati iniziali din e, da ultimo, il modello M stesso viene aggiornato se i parametri impostati precedentemente del modello M non raggiungono buone prestazioni. Si noti che l'insieme di dati di convalida dval comprende un insieme di fotogrammi impilati di addestramento Ftrain,s che non ? stato usato per la fase di addestramento precedente e, durante la fase di convalida, non ? marcato.
Si noti che le Richiedenti, nel contesto della ricerca del miglior algoritmo di CNN ai fini della presente invenzione, hanno modificato l'SBR dell'insieme di fotogrammi di addestramento Ftrain (in particolare, di fotogrammi FSD) per identificare l'algoritmo di CNN in grado di condurre ai risultati migliori, specialmente quando ? applicato a un insieme di dati sconosciuti (come ad esempio, l'insieme di dati di convalida dval); dopo vari tentativi, l'algoritmo shallow-CNN ? risultato essere il tipo migliore di algoritmo di CNN da usare ai fini della presente invenzione. Questo consente di applicare il presente algoritmo di CNN a pila anche qualora oggetti pi? deboli si muovano attraverso il FoV del dispositivo 2.
Considerando adesso la fase di test, l'algoritmo shallow-CNN viene testato sull'insieme di dati di test dtest, che ? un nuovo insieme di dati non marcati comprendente un insieme di fotogrammi di test impilati Ftest,s, ottenuti attraverso la procedura di impilamento descritta sopra dall'insieme di fotogrammi di test Ftest che non erano stati usati precedentemente per nessuna delle fasi di addestramento e convalida; in particolare, l'insieme di fotogrammi di test Ftest comprende, ad esempio, trenta fotogrammi rappresentativi del movimento dei detriti spaziali (ad esempio, fotogrammi di test FSD,test ottenuti attraverso una simulazione analogamente ai fotogrammi FSD) e trenta fotogrammi di sfondo di test Fbackground,test, avendo in questo modo un totale di sessanta fotogrammi da impilare e classificare. Si noti che l'insieme di fotogrammi di test impilati Ftest,s ? stato sottoposto alla stessa trasformazione in valori di scala di grigi descritta dall'Equazione (5) prima di essere immesso nell'algoritmo shallow-CNN ed elaborato usando il modello M.
Dopo aver elaborato l'insieme di dati di test dtest e aver fornito i risultati (ossia, la risposta binaria generata dal modello M), la fase di convalida fornisce inoltre una fase di determinazione di un tasso di veri positivi (TPR, True Positive Rate) e un tasso di falsi positivi (FPR, False Positive Rate), calcolati entrambi per tutti i fotogrammi di test impilati Ftest,s. In particolare, in alcuni esperimenti, le Richiedenti hanno scoperto che il presente algoritmo shallow-CNN ? ottimizzato rispetto ai segnali dell'ordine di un SBR approssimativamente del 3% (ossia, con un tasso di eventi fasulli trascurabile al termine dell'intera procedura).
Al termine della fase iniziale, il modello M dell?algoritmo shallow-CNN ? stato trovato, addestrato, convalidato e testato in termini di precisione e capacit? di classificare adeguatamente qualsiasi dato di input.
Pertanto, di nuovo con riferimento alla figura 3, nella fase 40, viene eseguita una prima fase di livello di innesco. In particolare, il modello M dell'algoritmo shallow-CNN ? applicato al primo insieme di fotogrammi impilati Fs, che sono stati trasformati precedentemente in valori di scala di grigi come secondo l'Equazione (5), per classificarli secondo le classi C1, C2, distinguendo in questo modo un primo e un secondo sottoinsieme di fotogrammi impilati Fs, di seguito indicati come un primo insieme di fotogrammi impilati idonei Fs,g e un primo insieme di fotogrammi impilati non idonei Fs,b rispettivamente. Pertanto, la prima fase di livello di innesco genera primi risultati, che comprendono il primo insieme di fotogrammi impilati idonei Fs,g, con i parametri di traslazione associati e ?N, ossia i fotogrammi del primo insieme di fotogrammi impilati Fs appartenenti alla prima classe C1, e il primo insieme di fotogrammi impilati non idonei Fs,b con i parametri di traslazione associati e ?N, ossia i fotogrammi del primo insieme di fotogrammi impilati Fs appartenenti alla seconda classe C2. In altre parole, i primi risultati comprendono i valori associati alle classi C1, C2 e ai fotogrammi impilati Fs, ossia un insieme di valori tra 0 (associato al primo insieme di fotogrammi impilati non idonei Fs,b) e 1 (associato al primo insieme di fotogrammi impilati idonei Fs,g). In altre parole, il primo insieme di fotogrammi impilati idonei Fs,g comprende i fotogrammi impilati Fs in cui sono visibili immagini dell'oggetto, ossia pixel luminosi sono visibili in relazione allo sfondo; quindi, il modello M ? configurato per trovare, in ciascun fotogramma impilato Fs, le immagini dell'oggetto (ossia i pixel luminosi).
Per impedire che il primo insieme di fotogrammi impilati non idonei Fs,b sia memorizzato nel modulo di elaborazione 3, quest'ultimo ? configurato per implementare una fase di verifica (fase 50), in cui viene verificato se i primi risultati sono maggiori di 0,5; questo modo, il primo insieme di fotogrammi impilati idonei Fs,g ? memorizzato con i corrispondenti insiemi di parametri di traslazione e ?N associati al suo interno, mentre il primo insieme di fotogrammi impilati non idonei Ftrain,s,b con i corrispondenti insiemi di parametri di traslazione e ?N associati al suo interno ? scartato, dato che la fase di verifica seleziona soltanto i valori uguali a 1 tra i primi risultati dato che sono gli unici risultati che soddisfano la condizione della fase 50.
Quindi, dopo la fase di verifica, nella fase 60, il modulo di elaborazione 3 memorizza il primo insieme di fotogrammi impilati idonei Ftrain,s,g e i corrispondenti insiemi di valori per velocit? e direzione angolare ?N, indicati come velocit? e direzione angolare ?g nel seguito.
Dati gli insiemi di valori di velocit? e direzione angolare ?g, il presente metodo implementa inoltre un?ulteriore procedura di impilamento e una seconda fase di livello di innesco con l'algoritmo shallow-CNN, riducendo ulteriormente in questo modo la possibilit? di falsi positivi a uno all'ora al massimo; questo ? particolarmente importante per applicazioni spaziali, dato che, ad esempio, dispositivi come laser CAN (Coherent Amplifying Network, rete di amplificazione coerente), che sono nuovi laser in fibra ad alta efficienza, possono essere usati per distruggere detriti spaziali, individuati attraverso il presente metodo, su una rotta di collisione con satelliti operativi, rendendo in questo modo fondamentale sapere esattamente dove saranno i detriti spaziali. Infatti, come osservato dalle Richiedenti negli esperimenti che hanno portato alla definizione del presente metodo, i falsi positivi (ossia fotogrammi impilati non idonei Fs,b determinati come appartenenti alla prima classe C1) mediante il modello M possiedono pixel pi? luminosi che fuorviano l'algoritmo shallow-CNN nella classificazione; questo significa inoltre che la procedura di impilamento genera un insieme di fotogrammi impilati Fs che sono sovrapposizioni di fluttuazioni positive nello spazio di tutte le combinazioni possibili tra ciascun fotogramma Fsel e qualsiasi combinazione dei parametri di traslazione e ?N. Quindi, il metodo secondo la presente invenzione sfrutta la differenza tra detriti spaziali, che hanno un movimento coerente per un tempo elevato, e il rumore di fondo implementando le fasi di metodo 70-100 della figura 3.
Si noti che, per ridurre il tempo computazionale e avere un'architettura leggera, l'algoritmo shallow-CNN e il metodo M usati di seguito sono gli stessi usati per la prima fase di livello di innesco.
In particolare, nella fase 70, l'insieme di fotogrammi F memorizzati nella fase 10 del presente metodo viene sottoposto totalmente alla procedura di impilamento come descritta nei paragrafi precedenti (in particolare con riferimento alla fase 30); qui, gli insiemi di valori dei parametri di traslazione e ?N sono quelli che sono stati memorizzati nel modulo di elaborazione 3 nella fase 60, ossia insiemi di valori di velocit? e direzione angolare ?g che sono associati al primo insieme di fotogrammi impilati idonei Fs,g. Qui, ad esempio, il numero di combinazioni tra i parametri di traslazione e ?g ? ad esempio nove (ossia tre valori possibili per la velocit? e tre valori possibili per la direzione angolare ?g), generando cos? corrispondenti combinazioni (e, quindi, insiemi di valori) di distanze di traslazione dxA, dyA, A essendo un indice naturale che va da 0 a Amax, quest'ultimo essendo il numero massimo di valori che ? possibile assumere dalle distanze di traslazione dxA, dyA (qui nove); in altre parole, per ciascuna combinazione/ciascun insieme di valori dei parametri di traslazione di velocit? e direzione angolare ?g, la procedura di impilamento genera un corrispondente secondo insieme di fotogrammi impilati Fs,n spostando ciascun fotogramma F secondo qualsiasi combinazione possibile di valori dei parametri di traslazione e ?g generando in questo modo secondi insiemi di fotogrammi spostati Fsh,n per ciascuna combinazione di valori dei parametri di traslazione
e ?g. Ciascun fotogramma spostato Fsh,n ? quindi impilato
sul primo fotogramma F0 come secondo la procedura descritta con riferimento alla fase 30 e all'Equazione (5). Quindi, il secondo insieme di fotogrammi impilati Fs,n (esempi dei quali sono analoghi a quelli mostrati nella figura 4A) comprende un numero di fotogrammi Fs,n che ? uguale al numero di insiemi di valori dei parametri di traslazione e ?g, ossia nove. In altre parole, in questo modo, ? possibile usare la stessa procedura descritta sopra ma per un intervallo di unit? di tempo, ossia la periodicit? t o, nel caso del Mini-EUSO, GTU, che ? maggiore di quello usato nella fase 30 del presente metodo.
Seguendo la procedura di impilamento, nella fase 80, il secondo insieme di fotogrammi impilati Fs,n ? immesso nell?algoritmo shallow-CNN per la classificazione, implementando in questo modo la seconda fase del livello di innesco; si noti che, prima di classificare il secondo insieme di fotogrammi impilati Fs,n, questi ultimi sono trasformati in valori di scala di grigi allo stesso modo descritto sopra con riferimento all'Equazione (5). Si noti inoltre che il modello M applicato nella prima fase del livello di innesco ? uguale a quello applicato nella seconda fase di livello di innesco, ossia al secondo insieme di fotogrammi impilati Fs,n, trovando in questo modo un primo sottoinsieme del secondo insieme di fotogrammi impilati Fs,n appartenente alla prima classe C1 (ossia un secondo insieme di fotogrammi impilati idonei Fs,n,g che ? analogo al primo insieme di fotogrammi impilati idonei Fs,g mostrato nella figura 4B) e un secondo sottoinsieme del secondo insieme di fotogrammi impilati Fs,n appartenente alla seconda classe C2 (ossia, un secondo insieme di fotogrammi impilati non idonei Fs,n,b, che ? analogo al primo insieme di fotogrammi impilati non idonei Fs,b mostrato nella figura 4C).
In questo modo, il presente metodo consente di eseguire una procedura di regolazione fine sull'intero insieme di insieme acquisito e memorizzato di fotogrammi F dopo la prima fase di livello di innesco, quest'ultima essendo usata per trovare le migliori combinazioni di valori per i parametri di traslazione e ?g (ossia, gli insiemi di valori dei parametri di traslazione e ?N associati al primo insieme di fotogrammi impilati idonei Fs,g) e, quindi, evitare di usare un numero elevato di combinazioni di parametri di traslazione, migliorando cos? le combinazioni ottimizzate tra ciascun fotogramma F e gli insiemi di valori di parametri di traslazione e ?g incrementando il contrasto tra un punto indicativo di detriti spaziali e il rumore di fondo.
Al termine della seconda fase del livello di innesco, il modello M dell?algoritmo shallow-CNN genera secondi risultati, che comprendono il secondo insieme di fotogrammi impilati idonei Fs,n,g, con i corrispondenti insiemi di valori di parametri di traslazione e ?g, ossia il sottoinsieme del secondo insieme di fotogrammi impilati Fs,n appartenente alla prima classe C1, e il secondo insieme di fotogrammi impilati non idonei Fs,n,b con le combinazioni associate di valori dei parametri di traslazione e ?g, ossia il sottoinsieme del secondo insieme di fotogrammi impilati Fs,n appartenente alla seconda classe C2. Quindi, ancora una volta, il modello M determina se, in un fotogramma impilato Fs,n, ? o non ? presente un'immagine dell'oggetto.
Inoltre, i secondi risultati generati nella fase precedente sono ulteriormente verificati dal modulo di elaborazione 3 in modo simile a quanto eseguito nella fase 50; in particolare, il modulo di elaborazione 3 verifica se i secondi risultati sono superiori a 0,5 (fase 90). In questo modo, il sottoinsieme del secondo insieme di fotogrammi impilati Fs,n associato alla prima classe C1 (ossia, il secondo insieme di fotogrammi impilati idonei Fs,n,g) ? memorizzato insieme agli insiemi associati di valori di parametri di traslazione e ?g, mentre il sottoinsieme del secondo insieme di fotogrammi impilati Fs,n associato alla seconda classe C2 (ossia il secondo insieme di fotogrammi impilati non idonei Fs,n,b) ? scartato insieme alle combinazioni associate di valori di parametri di traslazione e ?g (fase 100).
Secondo la presente invenzione, il metodo implementa inoltre una fase di verifica finale allo scopo di verificare ulteriormente che il secondo insieme di fotogrammi impilati idonei Fs,n,g e il primo insieme di fotogrammi impilati idonei Fs,g mostrino realmente i detriti spaziali che passano sul FoV del dispositivo 2, ossia soddisfino un requisito relativamente alla posizione e all'intensit? ottica dell'immagine dell'oggetto trovato sia nel primo sia nel secondo insieme di fotogrammi impilati idonei Fs,g e Fs,n,g. In particolare, secondo la fase 110, ciascun fotogramma del primo e del secondo insieme di fotogrammi impilati idonei Fs,g e Fs,n,g memorizzati nelle fasi 60 e 100, ossia ciascun fotogramma del primo e del secondo insieme di fotogrammi impilati Fs e Fs,n appartenenti alla prima classe C1 e quindi risultati idonei nella prima e nella seconda fase di livello di innesco del presente metodo rispettivamente, ? sovrapposto per verificare che un massimo di sovrapposizione (ossia l'intensit? massima associata ai segnali di luce in ciascun fotogramma del primo e del secondo insieme di fotogrammi impilati idonei Fs,g e Fs,n,g) ? presente in entrambi i fotogrammi di entrambi gli insiemi di fotogrammi impilati idonei Fs,g e Fs,n,g nella stessa posizione fornita a un intorno di al massimo due pixel, ossia se i segnali di luce mostrati come pixel luminosi (ossia l'immagine dell'oggetto, dato che le fasi di impilamento hanno consentito di farli risaltare rispetto allo sfondo), associati ai detriti spaziali, mostrati in ciascun fotogramma del primo e del secondo insieme di fotogrammi impilati idonei Fs,g, Fs,n,g sono mostrati approssimativamente nella stessa posizione e corrispondono ai pixel pi? luminosi in ciascun fotogramma impilato idoneo Fs,g, Fs,n,g. Ad esempio, considerando che i fotogrammi impilati idonei Fs,g, Fs,n,g sono entrambi trasformati in valori di scala di grigi, la fase di verifica 110 verifica se i pixel aventi intensit? massima, associati a uno, sono mostrati approssimativamente nella stessa posizione in ogni fotogramma impilato idoneo Fs,g, Fs,n,g. In altre parole, secondo un aspetto del presente metodo, la fase di verifica nel blocco 110 consente di verificare se l'intensit? massima dei pixel in ciascun fotogramma del primo e del secondo insieme di fotogrammi impilati idonei Fs,g, Fs,n,g ? nella stessa posizione (determinata, ad esempio, come coordinate X e Y) dato un qualsiasi intervallo di confidenza (ad esempio, la condizione correlata alla posizione, che ? valutata considerando un intorno di al massimo due pixel) e, pertanto, pu? essere considerata rappresentativa delle immagini dell'oggetto mostrato nei fotogrammi del primo e del secondo insieme di fotogrammi impilati idonei Fs,g e Fs,n,g; quindi, nella fase 110, un requisito correlato alla posizione dell'immagine dell'oggetto e, pi? in dettaglio, dell'intensit? massima ? soddisfatto per tutti i fotogrammi impilati idonei Fs,g, Fs,n,g. Si noti che, dato che i fotogrammi impilati idonei Fs,g, Fs,n,g sono stati trasformati in valori di scala di grigi, l?intensit? dei pixel ? valutata su fotogrammi impilati idonei Fs,g, Fs,n,g normalizzati. Inoltre, secondo un ulteriore aspetto della presente invenzione, si noti anche che i fotogrammi impilati Fs,g, Fs,n,g hanno le stesse dimensioni, ossia le rispettive mappe I(t)s,g e I(t)s,n,g hanno la stessa dimensione, e quindi possono essere confrontati facilmente tra loro.
Quindi, la fase di verifica 110 mira a verificare se, nel primo e nel secondo fotogramma impilato idoneo Fs,g, Fs,n,g, un'intensit? massima dei pixel viene rilevata nella stessa posizione in tutti i fotogrammi impilati idonei Fs,g, Fs,n,g, dato un intervallo di confidenza; in caso affermativo, viene quindi determinato che il dispositivo 2 rileva un oggetto che si muove in modo coerente nel suo FoV, ossia l'insieme di fotogrammi F mostra effettivamente il movimento dell'oggetto nel FoV del dispositivo 2.
In questo modo, il modulo di elaborazione 3 verifica inoltre che ciascun fotogramma del primo e del secondo insieme di fotogrammi impilati idonei Fs,g e Fs,n,g abbia pixel luminosi (ossia, pixel che mostrano il segnale di luce dei detriti spaziali e aventi un'intensit?) che sono posizionati in una certa area di ciascun fotogramma impilato idoneo Fs,g e Fs,n,g, verificando in questo modo che qualsiasi intensit? massima nei fotogrammi impilati idonei Fs,g, Fs,n,g sia nella stessa posizione, indicando cos? la presenza di un oggetto dato che, se detti requisiti sono validi, questo significa che ciascun fotogramma F mostra l'oggetto in una posizione diversa secondo un movimento coerente.
Se il requisito della fase di verifica nel blocco 110 ? soddisfatto, ossia le posizioni e le intensit? ottiche delle immagini degli oggetti in ciascun fotogramma impilato idoneo Fs,g, Fs,n,g sono uguali e quindi il requisito ? soddisfatto per ciascun fotogramma impilato idoneo Fs,g, Fs,n,g, dato un qualsiasi intervallo di confidenza, allora l'oggetto viene considerato trovato (blocco 120). Di conseguenza, secondo una forma di realizzazione della presente invenzione, il modulo di elaborazione 3 ? configurato inoltre per notificare l'utente di detriti spaziali trovati. Ad esempio, il modulo di elaborazione 3 pu? essere configurato per inviare la notifica non solo all'utente a scopo di informazione ma anche ad altri dispositivi elettronici, come ad esempio computer, tablet, smartphone, ecc., per innescare ulteriori azioni da parte di questi ultimi. Ad esempio, il modulo di elaborazione 3 ? configurato per inviare le notifiche ai computer che controllano la posizione e l'attivazione di un laser CAN per eliminare qualsiasi detrito spaziale in rotta di collisione con un satellite.
Il metodo e il sistema correlato descritti sopra hanno numerosi vantaggi.
In particolare, il presente metodo non ha il vincolo di conoscere la traiettoria dell'oggetto che passa sul FoV del dispositivo 2, dato che l'algoritmo shallow-CNN del presente metodo ? in grado di trovare autonomamente i fotogrammi impilati idonei tra vari fotogrammi acquisiti che sono stati sottoposti alla procedura di impilamento descritta sopra. Secondo la presente invenzione, il tempo computazionale ? ridotto grazie alla struttura a doppio livello di innesco del presente metodo, in cui:
- nel primo livello di innesco, l'algoritmo di CNN a pila, in particolare l'algoritmo shallow-CNN, trova il primo insieme di fotogrammi impilati idonei Fs,g e il corrispondente insieme di valori dei parametri di traslazione e ?N da un pool limitato, ossia il sottoinsieme di fotogrammi Fsel (riducendo in questo modo il tempo computazionale necessario per ottenere i primi risultati) e a prescindere dal fatto che il segnale di luce correlato all'oggetto si sovrapponga perfettamente (dato un intervallo di confidenza di pixel in cui si suppone che sia l'oggetto) in ciascun fotogramma Fsel; e
- nel secondo livello di innesco, l'algoritmo di CNN a pila, in particolare la corrispondente procedura di impilamento, esegue una regolazione fine attorno alla combinazione selezionata di valori dei parametri di traslazione e ?g sull'intero insieme di fotogrammi F acquisiti dal dispositivo 2, per trovare gli oggetti e mettere in corrispondenza il loro movimento reale.
Inoltre, quando il dispositivo 2 ? il telescopio Mini-EUSO, il presente metodo ? sostanzialmente pi? performante dei metodi standard, come ad esempio quelli usati al momento per il Mini-EUSO. Questo ? dovuto al fatto che, mentre il presente metodo cerca un oggetto nello spazio che si muove per almeno cinque fotogrammi F consecutivi nel rilevatore 5 di superficie focale del dispositivo 2, con le tecniche di soglia convenzionali i segnali di luce deboli potrebbero non essere rilevati; questo non avviene con il presente metodo grazie all'algoritmo di CNN a pila e alle doppie fasi di livello di innesco, consentendo in questo modo di trovare ancora pi? oggetti nello spazio che potrebbero non essere stati ancora catalogati.
Inoltre, il presente metodo consente di migliorare i risultati delle prestazioni ottenute attraverso la procedura di impilamento aggiungendo l'algoritmo shallow-CNN, specialmente in termini di tempo computazionale e SNR. Infatti, l'algoritmo shallow-CNN, avendo un numero limitato di parametri caratterizzanti, non richiede una grande quantit? di tempo per eseguire la prima e la seconda fase di livello di innesco, diversamente da altre reti neurali pi? complesse e pi? profonde. Inoltre, la leggerezza dell'architettura dell?algoritmo shallow-CNN ? adatta per la sua implementazione in una FPGA come ad esempio la FPGA 7 del dispositivo 2 quando la FPGA 7 funziona come modulo di elaborazione 3.
Inoltre, a quanto riscontrato dalle Richiedenti, il presente metodo pu? rilevare oggetti in una condizione di SBR (e, quindi, SNR) che ? approssimativamente tre volte minore rispetto ai metodi pi? convenzionali, essendo in questo modo maggiormente efficiente.
Inoltre, il metodo stack-CNN descritto nella presente consente di ridurre il tasso di inneschi fasulli, ossia il numero di falsi positivi viene ridotto significativamente grazie a fasi di verifica nei blocchi 50, 90 e 110. Questo meccanismo aiuta ad evitare falsi positivi provenienti dalla sovrapposizione di fluttuazioni positive e al contrario migliora il rilevamento della sorgente simile a punto se questa resta nel campo visivo per molti fotogrammi.
Infine, ? chiaro che ? possibile apportare modifiche e varianti al metodo e al sistema correlato descritti e illustrati qui senza allontanarsi dall'ambito di protezione della presente invenzione, come definito nelle rivendicazioni allegate.
Ad esempio, il presente metodo pu? essere applicato per sorgenti simili a punto con traiettorie note. Inoltre, il presente sistema pu? comprendere pi? di un dispositivo 2 coprendo in questo modo molteplici porzioni dello spazio osservabile. In aggiunta, l'algoritmo di CNN a pila descritto nella presente ? valido anche nel caso di sorgenti non simili a punto, ossia sorgenti estese; in particolare, possono essere necessarie ulteriori modifiche a seconda del tipo di sorgente estesa (ad esempio, se la sorgente copre un'area ridotta di pixel in un fotogramma F, ? possibile eseguire un'operazione di calcolo della media per ridurre l'area occupata a un pixel, trattando in questo modo la sorgente estesa come una sorgente simile a punto).
Inoltre, il presente sistema 1 pu? essere utilizzato non in linea, essendo in questo modo una tecnica potente e autonoma di analisi dei dati; inoltre, potrebbero essere esplorate nuove applicazioni per cercare altre sorgenti che si muovono non solo linearmente ma pi? in generale con traiettorie note diverse, come ad esempio asteroidi o meteore o persino velivoli che si muovono nel FoV del dispositivo 2.
Il presente metodo pu? essere implementato inoltre in sistemi diversi, come ad esempio le FPGA, essendo in questo modo un sistema di innesco autonomo da montare a bordo di un ulteriore telescopio. Il vantaggio di questa implementazione consente di ridurre il tempo computazionale rendendo il sistema nel suo complesso pi? rapido di quelli noti nella tecnica anteriore.
Inoltre, l'algoritmo di CNN potrebbe essere diverso dall?algoritmo shallow-CNN descritto nella presente, ad esempio un algoritmo di macchina a vettori di supporto (SVM, Support Vector Machine).
Inoltre, ad esempio in caso di sorgenti che si muovono in modo non lineare, il numero di parametri di traslazione pu? essere aumentato per rappresentare meglio tale traiettoria.

Claims (10)

  1. RIVENDICAZIONI 1. Metodo implementato da un computer per rilevare oggetti nel campo visivo di un dispositivo di rilevamento ottico (2) comprendente: - acquisire (10), attraverso il dispositivo di rilevamento ottico (2), una pluralit? di fotogrammi (F) successivi di una porzione di uno spazio osservato in un intervallo di tempo (T), in cui ciascun fotogramma (F) ? acquisito in un corrispondente istante di tempo (Tk) dell'intervallo di tempo (T); - selezionare (20) un sottoinsieme di fotogrammi (Fsel) dalla pluralit? di fotogrammi (F); - per ciascun insieme di valori di parametri di traslazione ?N) di una pluralit? di insiemi di valori di parametri di traslazione ?N) che sono indicativi di corrispondenti movimenti predeterminati di un oggetto rispetto al dispositivo di rilevamento ottico (2), determinare (30) un corrispondente primo fotogramma impilato (Fs, Fs,g, Fs,b) sulla base del sottoinsieme di fotogrammi (Fsel) e in funzione dell'insieme di valori dei parametri di traslazione ?N); - per ciascun primo fotogramma impilato (Fs, Fs,g, Fs,b), determinare (40, 50, 60) se il primo fotogramma impilato (Fs, Fs,g, Fs,b) appartiene a una prima o a una seconda classe (C1, C2), in cui la prima e la seconda classe sono rispettivamente indicative della presenza o dell'assenza di un'immagine di un oggetto nel primo fotogramma impilato (Fs, Fs,g, Fs,b); e - selezionare, tra detti insiemi di valori di parametri di traslazione ?g), ciascun insieme di valori di parametri di traslazione che ? associato a un corrispondente primo fotogramma impilato (Fs, Fs,g) classificato come appartenente alla prima classe (C1), il metodo comprendendo inoltre, per ciascun insieme selezionato di valori di parametri di traslazione ?g): - determinare (70) un corrispondente secondo fotogramma impilato (Fs,n, Fs,n,g, Fs,n,b) sulla base dell'insieme di fotogrammi (F) e in funzione dell'insieme selezionato di valori di parametri di traslazione ?g); - per ciascun secondo fotogramma impilato (Fs,n, Fs,n,g, Fs,n,b), determinare (80, 90, 100) se il secondo fotogramma impilato (Fs,n, Fs,n,g, Fs,n,b) appartiene a una terza o a una quarta classe (C1, C2) in cui la terza e la quarta classe sono rispettivamente indicative della presenza o dell'assenza di un'immagine di un oggetto nel secondo fotogramma impilato (Fs,n, Fs,n,g, Fs,n,b); - determinare (110) se il primo fotogramma impilato (Fs, Fs,g) classificato come appartenente alla prima classe (C1) e il secondo fotogramma impilato (Fs,n, Fs,n,g, Fs,n,b) classificato come appartenente alla terza classe (C1) soddisfano un requisito; e - se detto requisito ? soddisfatto, indicare (120) la presenza di un oggetto.
  2. 2. Metodo implementato da un computer per rilevare oggetti nel campo visivo del dispositivo di rilevamento ottico (2) secondo la rivendicazione 1, in cui ciascuno di detti movimenti predeterminati ha una corrispondente traiettoria e una corrispondente velocit?, e in cui ciascuno di detti insiemi di valori dei parametri di traslazione
    ?N) comprende valori che indicano la traiettoria e la velocit? del corrispondente movimento.
  3. 3. Metodo implementato da un computer per rilevare oggetti nel campo visivo del dispositivo di rilevamento ottico (2) secondo la rivendicazione 2, in cui detti valori che indicano la traiettoria comprendono valori di direzione angolare ?N).
  4. 4. Metodo implementato da un computer per rilevare oggetti nel campo visivo del dispositivo di rilevamento ottico (2) secondo una qualsiasi rivendicazione precedente, in cui il sottoinsieme di fotogrammi (Fsel) comprende un rispettivo primo fotogramma (F0) e un rispettivo insieme di fotogrammi aggiuntivi (Fsel'), e in cui la fase di determinare (30) il corrispondente primo fotogramma impilato (Fs, Fs,g, Fs,b) sulla base del sottoinsieme di fotogrammi (Fsel) e in funzione di ciascun insieme di valori dei parametri di traslazione ?N) comprende, per ciascun insieme di valori dei parametri di traslazione ?N): - determinare (30) un corrispondente primo insieme di valori di distanze di traslazione (dx, dy) in funzione dell'insieme di valori dei parametri di traslazione
    ?N); - traslare (30) i pixel di ciascun fotogramma aggiuntivo (Fsel') in funzione del primo insieme di valori delle distanze di traslazione (dx, dy) e di una differenza di tempo tra l'istante di tempo del primo fotogramma (F0) del sottoinsieme di fotogrammi (Fsel) e l'istante di tempo del fotogramma aggiuntivo (Fsel'), per ottenere un corrispondente primo insieme di fotogrammi spostati (Fsh); e - impilare (30) detto corrispondente primo insieme di fotogrammi spostati (Fsh) con il primo fotogramma (F0) del sottoinsieme di fotogrammi (Fsel) per ottenere il primo fotogramma impilato.
  5. 5. Metodo implementato da un computer per rilevare oggetti nel campo visivo del dispositivo di rilevamento ottico (2) secondo la rivendicazione 4, in cui l'insieme di fotogrammi (F) comprende un rispettivo primo fotogramma (F0) e un insieme di fotogrammi aggiuntivi (FB) e in cui, per ciascun insieme selezionato di valori di parametri di traslazione ?g), la fase di determinare (70) il corrispondente secondo fotogramma impilato (Fs,n, Fs,n,g, Fs,n,b) sulla base dell'insieme di fotogrammi (F) e in funzione dell'insieme selezionato di valori di parametri di traslazione ?g) comprende, per ciascun insieme selezionato di valori di parametri di traslazione ?g): - determinare (70) un corrispondente secondo insieme di valori di distanze di traslazione (dx, dy) in funzione dell'insieme selezionato di valori di parametri di traslazione ?g); - traslare (70) i pixel di ciascun fotogramma aggiuntivo (FB) in funzione del secondo insieme di valori delle distanze di traslazione (dx, dy) e di una differenza di tempo tra l'istante di tempo del primo fotogramma (F0) dell'insieme di fotogrammi (F) e l'istante di tempo del fotogramma aggiuntivo (FB), per ottenere un corrispondente secondo insieme di fotogrammi spostati (Fsh); e - impilare (70) detto corrispondente secondo insieme di fotogrammi spostati (Fsh) con il primo fotogramma (F0) dell'insieme di fotogrammi (F) per ottenere il corrispondente secondo fotogramma impilato (Fs,n, Fs,n,g, Fs,n,b).
  6. 6. Metodo implementato da un computer per rilevare oggetti nel campo visivo del dispositivo di rilevamento ottico (2) secondo una qualsiasi delle rivendicazioni precedenti, in cui la fase di determinare (110) se il primo fotogramma impilato (Fs, Fs,g) classificato come appartenente alla prima classe (C1) e il secondo fotogramma impilato (Fs,n, Fs,n,g, Fs,n,b) classificato come appartenente alla terza classe (C1) soddisfano un requisito comprende: verificare se le intensit? massime del primo fotogramma impilato (Fs, Fs,g) e del secondo fotogramma impilato (Fs, Fs,g, Fs,b) classificati come appartenenti, rispettivamente, alla prima e alla terza classe (C1) sono posizionate in posizioni che rientrano in un intervallo di confidenza; se dette intensit? massime sono posizionate in posizioni che rientrano in un intervallo di confidenza, identificare dette intensit? massime come intensit? che formano corrispondenti immagini dell'oggetto; e determinare che i pixel dei fotogrammi impilati (Fs, Fs,g) del corrispondente primo insieme di fotogrammi impilati (Fs, Fs,g, Fs,b) classificato come appartenente alla prima classe (C1) e i pixel di fotogrammi impilati (Fs,n, Fs,n,g, Fs,n,b) del corrispondente secondo insieme di fotogrammi impilati (Fs,n, Fs,n,g, Fs,n,b) rappresentano l'immagine dell'oggetto.
  7. 7. Metodo implementato da un computer per rilevare oggetti nel campo visivo del dispositivo di rilevamento ottico (2) secondo la rivendicazione 6, in cui la fase di verificare se le intensit? massime del primo fotogramma impilato (Fs, Fs,g) e del secondo fotogramma impilato (Fs, Fs,g, Fs,b) classificati come appartenenti, rispettivamente, alla prima e alla terza classe (C1) sono posizionate in posizioni che rientrano in un intervallo di confidenza comprende sovrapporre (110) il primo fotogramma impilato (Fs, Fs,g) classificato come appartenente alla prima classe (C1) con il secondo fotogramma impilato (Fs,n, Fs,n,g, Fs,n,b).
  8. 8. Sistema per rilevare oggetti nel campo visivo di un dispositivo di rilevamento ottico (2) configurato per eseguire il metodo secondo una qualsiasi delle rivendicazioni 1-7.
  9. 9. Software caricabile in un sistema (1) per rilevare oggetti nel campo visivo di un dispositivo di rilevamento ottico (2) e, quando eseguito, configurato per consentire al sistema di implementare il metodo secondo una qualsiasi delle rivendicazioni 1-7.
  10. 10. Supporto leggibile da un computer su cui ? memorizzato il software secondo la rivendicazione 9.
IT102021000009845A 2021-04-19 2021-04-19 Metodo e relativo sistema per rilevare oggetti nel campo visivo di un dispositivo di rilevamento ottico IT202100009845A1 (it)

Priority Applications (4)

Application Number Priority Date Filing Date Title
IT102021000009845A IT202100009845A1 (it) 2021-04-19 2021-04-19 Metodo e relativo sistema per rilevare oggetti nel campo visivo di un dispositivo di rilevamento ottico
US18/556,159 US20240185438A1 (en) 2021-04-19 2022-04-15 Method and System Thereof for Detecting Objects in the Field of View of an Optical Detection Device
PCT/IB2022/053571 WO2022224111A1 (en) 2021-04-19 2022-04-15 Method and system thereof for detecting objects in the field of view of an optical detection device
EP22717675.7A EP4327297A1 (en) 2021-04-19 2022-04-15 Method and system thereof for detecting objects in the field of view of an optical detection device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
IT102021000009845A IT202100009845A1 (it) 2021-04-19 2021-04-19 Metodo e relativo sistema per rilevare oggetti nel campo visivo di un dispositivo di rilevamento ottico

Publications (1)

Publication Number Publication Date
IT202100009845A1 true IT202100009845A1 (it) 2022-10-19

Family

ID=76601638

Family Applications (1)

Application Number Title Priority Date Filing Date
IT102021000009845A IT202100009845A1 (it) 2021-04-19 2021-04-19 Metodo e relativo sistema per rilevare oggetti nel campo visivo di un dispositivo di rilevamento ottico

Country Status (4)

Country Link
US (1) US20240185438A1 (it)
EP (1) EP4327297A1 (it)
IT (1) IT202100009845A1 (it)
WO (1) WO2022224111A1 (it)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11748897B1 (en) * 2022-06-24 2023-09-05 Trans Astronautica Corporation Optimized matched filter tracking of space objects

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20200082156A1 (en) * 2018-09-07 2020-03-12 Apple Inc. Efficient face detection and tracking
WO2020197508A1 (en) * 2019-03-28 2020-10-01 Agency For Science, Technology And Research Method and system for visual based inspection of rotating objects

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20200082156A1 (en) * 2018-09-07 2020-03-12 Apple Inc. Efficient face detection and tracking
WO2020197508A1 (en) * 2019-03-28 2020-10-01 Agency For Science, Technology And Research Method and system for visual based inspection of rotating objects

Also Published As

Publication number Publication date
US20240185438A1 (en) 2024-06-06
EP4327297A1 (en) 2024-02-28
WO2022224111A1 (en) 2022-10-27

Similar Documents

Publication Publication Date Title
EP3195042B1 (en) Linear mode computational sensing ladar
Peng et al. Photon-efficient 3d imaging with a non-local neural network
CN102592335A (zh) 确定由红外成像系统获得的红外图像中的总人数
CN114283137A (zh) 基于多尺度特征图推理网络的光伏组件热斑缺陷检测方法
CN108009469A (zh) 一种基于结构递归神经网络的海上油气平台检测方法
CN112580407A (zh) 一种基于轻量化神经网络模型的空间目标部件识别方法
Sher et al. Low intensity LiDAR using compressed sensing and a photon number resolving detector
Kang et al. High-resolution depth imaging with a small-scale SPAD array based on the temporal-spatial filter and intensity image guidance
CN110569387B (zh) 基于深度哈希算法的雷达-图像跨模态检索方法
IT202100009845A1 (it) Metodo e relativo sistema per rilevare oggetti nel campo visivo di un dispositivo di rilevamento ottico
US11609332B2 (en) Method and apparatus for generating image using LiDAR
CN111898427A (zh) 一种基于特征融合深度神经网络的多光谱行人检测方法
Xu et al. Multiple geometry atmospheric correction for image spectroscopy using deep learning
Özer et al. An approach based on deep learning methods to detect the condition of solar panels in solar power plants
CN101509775B (zh) 一种多孔阵列式太阳敏感器的图像快速识别方法及装置
Miyamoto et al. Object detection in satellite imagery using 2-Step convolutional neural networks
Choi et al. Deep‐learning‐based nuclear power plant fault detection using remote light‐emitting diode array data transmission
CN116580324A (zh) 一种基于YOLOv5的无人机对地目标检测方法
Naufal et al. YOLO-based multi-scale ground control point detection in UAV surveying
RU2506536C2 (ru) Способ субпиксельного контроля и слежения за перемещением удаленного объекта
RU2480780C1 (ru) Способ обнаружения точечных тепловых объектов на маскирующем атмосферном фоне
Ying et al. Image registration based fault localization in panoramas of mountain-mounted PV plants
Li et al. SolarDetector: Automatic Solar PV Array Identification using Big Satellite Imagery Data
RU2634374C2 (ru) Способ оптического обнаружения слабоконтрастных динамических объектов на сложном атмосферном фоне
CN111753786A (zh) 一种基于全尺度特征融合和轻量级生成式对抗网络的行人重识别方法