IT202000017104A1 - Sistema e metodo per la geolocalizzazione di un oggetto in acqua - Google Patents

Sistema e metodo per la geolocalizzazione di un oggetto in acqua Download PDF

Info

Publication number
IT202000017104A1
IT202000017104A1 IT102020000017104A IT202000017104A IT202000017104A1 IT 202000017104 A1 IT202000017104 A1 IT 202000017104A1 IT 102020000017104 A IT102020000017104 A IT 102020000017104A IT 202000017104 A IT202000017104 A IT 202000017104A IT 202000017104 A1 IT202000017104 A1 IT 202000017104A1
Authority
IT
Italy
Prior art keywords
camera
depth
light beam
water
respect
Prior art date
Application number
IT102020000017104A
Other languages
English (en)
Inventor
Andrea Saiani
Emanuele Rocco
Nadir Pagno
Isacco Gobbi
Donato D'acunto
Original Assignee
Witted S R L
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Witted S R L filed Critical Witted S R L
Priority to IT102020000017104A priority Critical patent/IT202000017104A1/it
Priority to PCT/EP2021/069497 priority patent/WO2022013237A1/en
Priority to EP21745302.6A priority patent/EP4182719A1/en
Priority to AU2021307545A priority patent/AU2021307545A1/en
Priority to US18/015,924 priority patent/US20230260148A1/en
Publication of IT202000017104A1 publication Critical patent/IT202000017104A1/it

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S5/00Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations
    • G01S5/16Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations using electromagnetic waves other than radio waves
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/20Image enhancement or restoration using local operators
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/277Analysis of motion involving stochastic approaches, e.g. using Kalman filters
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/10Image acquisition
    • G06V10/12Details of acquisition arrangements; Constructional details thereof
    • G06V10/14Optical characteristics of the device performing the acquisition or on the illumination arrangements
    • G06V10/141Control of illumination
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/761Proximity, similarity or dissimilarity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/05Underwater scenes
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S5/00Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations
    • G01S5/16Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations using electromagnetic waves other than radio waves
    • G01S5/163Determination of attitude
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20036Morphological image processing

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Evolutionary Computation (AREA)
  • Software Systems (AREA)
  • Computing Systems (AREA)
  • Databases & Information Systems (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Artificial Intelligence (AREA)
  • Electromagnetism (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Magnetic Resonance Imaging Apparatus (AREA)
  • Separation Of Suspended Particles By Flocculating Agents (AREA)

Description

Sistema e metodo per la geolocalizzazione di un oggetto in acqua
DESCRIZIONE
Campo tecnico
La presente invenzione riguarda un sistema e un metodo per la geolocalizzazione di un oggetto in acqua.
Background tecnologico
La presente invenzione viene utilizzata in particolare, anche se non esclusivamente, nel settore tecnico relativo al rilevamento e alla localizzazione di un oggetto, come un drone, in un ambiente sottomarino.
La localizzazione sottomarina ? stata ampiamente studiata e molte soluzioni sono disponibili oggi , per lo pi? sulla base del canale di comunicazione acustica e rete di sensori wireless sottomarina (UWSN, Underwater Wireless Sensors Network). Le tecniche principali sono le seguenti:
? Ultra Short Baseline (USBL), dove un subacqueo acustico transponder risponde acusticamente ai segnali acustici di un ricetrasmettitore montato sullo scafo di una nave di superficie. Questo ha un insieme di trasduttori per triangolare il transponder subacqueo utilizzando segnale run time e misurare lo sfasamento di tutti gli array. L?array di trasduttori USBL ? costituito da un unico dispositivo.
? Short Baseline (SBL): come l'USBL, esso richiede un insieme di trasduttori per triangolare un transponder subacqueo. Tale matrice ? collegata con un'unit? centrale di calcolo , ma , nel caso SBL, ? costituita invece di distinte cablate moduli, che potrebbero essere cos? posizionati su diversi lati del la carena del vaso superficie per ottenere grandi trasduttore spaziatura. Questo aumento d basale permette cos? di un miglioramento di posizionamento precisioni del transponder subacqueo .
? Long Baseline System (LBL) : A differenza di USBL e SBL, in LBL un transponder subacqueo determina le sue posizioni da una rete di boe transponder acustiche, che sono montate sul fondo del mare in luoghi noti.
Tuttavia, queste tecniche generalmente implicano una complessa architettura di rete o trasduttore , motivo per cui i sistemi che implementano tali tecniche sono relativamente costosi, difficili da integrare con micro robot subacquei o con dispositivi portatili, potrebbero richiedere complesse procedure di calibrazione e quindi personale esperto per gestirle . Inoltre, se sono basati sull'acustica, hanno la massima larghezza di banda limitata dalla velocit? del suono nell'acqua.
Dichiarazione di invenzione
Scopo della presente invenzione ? di fornire un sistema e un metodo per la geolocalizzazione di un oggetto in acqua che siano strutturalmente e funzionalmente progettati per superare almeno uno degli inconvenienti della tecnica nota identificata. Questo scopo ? raggiunto da un sistema e un metodo per la geolocalizzazione di un oggetto in acqua ottenuto secondo le rispettive rivendicazioni indipendenti allegate a questa descrizione.
Le caratteristiche preferite dell'invenzione sono definite nelle rivendicazioni dipendenti. Secondo un primo aspetto dell'invenzione, il sistema di geolocalizzazione di un oggetto in acqua comprende un primo dispositivo destinato ad essere immerso o a galleggiare nell'acqua.
Preferibilmente, il primo dispositivo ? un drone subacqueo, anche chiamato come veicolo sottomarino azionato da remoto (ROV).
In alternativa, il primo dispositivo pu? essere almeno uno di una barca, un apparato riparato, o destinato ad essere riparato, alla barca (in particolare allo scafo della barca), un dispositivo indossabile per un uomo rana, un dispositivo galleggiante (ad esempio una boa ) e un dispositivo ancorato a un fondale marino.
Il primo dispositivo comprende una sorgente luminosa atta ad emettere un raggio di luce. Preferibilmente, la sorgente luminosa ? disposta su una superficie superiore del primo dispositivo.
La sorgente luminosa pu? essere un dispositivo a LED. In alternativa, la sorgente luminosa ? un dispositivo LASER .
Preferibilmente, il raggio di luce ? una luce visibile, pi? preferibilmente con una lunghezza d' onda di 450?485 nm, 500?565 nm. In alternativa, il raggio di luce ? una luce bianca . Il sistema di geolocalizzazione comprende inoltre un secondo dispositivo destinato ad essere immerso o a galleggiare nell'acqua.
Preferibilmente, il secondo dispositivo ? un drone subacqueo, anche chiamato come veicolo subacqueo azionato da remoto (ROV).
In alternativa, il secondo dispositivo pu? essere almeno uno di una barca, un apparecchio riparato, o destinato ad essere riparato, alla barca (in particolare allo scafo della barca), un dispositivo indossabile per un uomo rana, un dispositivo galleggiante (ad esempio una boa ) e un dispositivo ancorato a un fondale marino.
Il secondo dispositivo comprende una fotocamera per scattare 2D immagini ed un dispositivo di misura atto a fornire un orientamento della fotocamera rispetto ad un sistema di riferimento principale definito da tre assi ortogonali X, Y, Z .
Preferibilmente, la fotocamera ? disposta su una superficie inferiore del secondo dispositivo.
Un 2D immagine ? un bidimensionale immagine sul piano immagine della fotocamera . Preferibilmente, il sistema di riferimento principale ? un sistema di coordinate cartesiane avente l'origine degli assi ortogonali X, Y, Z in un punto predeterminato della Terra.
Il sistema di riferimento principale viene utilizzato per specificare la posizione relativa alla Terra di un oggetto, in cui gli assi X e Y definiscono un piano orizzontale per la posizione orizzontale dell'oggetto e l'asse Z rappresenta la sua posizione verticale, in particolare la profondit?.
L'asse Z si estende lungo la direzione della gravit? passando attraverso un punto predeterminato, ovvero la direzione verticale, e il piano orizzontale ? perpendicolare alla direzione verticale.
La fotocamera ha una cornice di riferimento della fotocamera definita da tre assi ortogonali X c , Y c , Z c , in cui Zc si estende lungo l'asse ottico della fotocamera.
Preferibilmente, l'orientamento della fotocamera rispetto a un sistema di riferimento principale ? definito da un insieme di tre angoli: beccheggio, rollio e imbardata, dove il beccheggio e il rollio sono preferibilmente dati da unit? di misura inerziali di una fotocamera confrontando l'asse verticale di gravit? con la fotocamera direzione di visione, e imbardata ? preferibilmente data da un sensore magnetico della fotocamera e considerando il beccheggio e il rollio rispetto all'asse verticale di gravit?.
In altre parole, il beccheggio ? una rotazione della videocamera attorno all'asse X c , il rollio ? una rotazione della videocamera attorno all'asse Y c e l'imbardata ? una rotazione della videocamera attorno all'asse Z c .
Preferibilmente, la fotocamera comprende sensori inerziali e magnetici per misurare la rotazione della fotocamera attorno agli assi X c , Y c , Z c per fornire angoli di beccheggio, rollio e imbardata.
In alternativa, l'orientamento della fotocamera ? dato da un insieme di quaternioni di orientamento, q 1 q 2 q 3 q 4 , dato dall'operazione congiunta della bussola magnetica della fotocamera e dell'unit? di misurazione inerziale.
Il sistema di geolocalizzazione comprende inoltre un'unit? di elaborazione operativamente collegata almeno alla fotocamera.
Preferibilmente, il secondo dispositivo comprende l'unit? di elaborazione o l'unit? di elaborazione ? compresa in un ulteriore dispositivo (in particolare l'ulteriore dispositivo ? un dispositivo remoto ) operativamente collegato ad almeno il secondo dispositivo , preferibilmente al primo dispositivo e al secondo dispositivo.
L' unit? di elaborazione pu? comprendere un microcontrollore e/o un microprocessore. Secondo un altro aspetto dell'invenzione, l'unit? di elaborazione ? configurata per determinare una distanza verticale tra il primo dispositivo e il secondo dispositivo in base alla profondit? nell'acqua di entrambi i dispositivi.
La distanza verticale corrisponde alla distanza lungo la direzione verticale tra il primo dispositivo e il secondo dispositivo.
Preferibilmente, la profondit? del primo dispositivo ? uguale a zero se il primo dispositivo galleggia sull'acqua.
Preferibilmente, la profondit? del secondo dispositivo ? uguale a zero se il secondo dispositivo galleggia sull'acqua.
Preferibilmente, la profondit? del primo dispositivo nell'acqua ? memorizzata come dati in una memoria dati o ? misurata da un misuratore di profondit? compreso nel primo dispositivo.
Preferibilmente, l'unit? di elaborazione ? operativamente collegata alla memoria dati e\o al misuratore di profondit? del primo dispositivo.
Preferibilmente, la profondit? del secondo dispositivo nell'acqua ? memorizzata come dato in una memoria dati o ? misurata da un misuratore di profondit? compreso nel secondo dispositivo.
Preferibilmente, l'unit? di elaborazione ? operativamente collegata alla memorizzazione dei dati e\o al misuratore di profondit? del secondo dispositivo.
In alternativa, l'unit? di elaborazione comprende la memoria dati.
Secondo un aspetto dell'invenzione, l'unit? di elaborazione ? configurata per acquisire un'immagine 2D del primo dispositivo , in particolare del raggio di luce emesso dalla sorgente di luce, attraverso la fotocamera.
Per acquisire l'immagine 2D del primo dispositivo, il primo dispositivo e / o il secondo dispositivo (in particolare la fotocamera) sono / ? disposto in modo che il primo dispositivo (in particolare la fonte luminosa) ? all'interno del campo di vista la fotocamera.
Secondo un aspetto dell'invenzione, l'unit? di elaborazione ? configurata per calcolare la posizione in pixel p = ( p u , p v ) nell'immagine 2D del raggio di luce emesso dalla sorgente luminosa del primo dispositivo .
La posizione in pixel p di fascio di luce, o pi? in generale, di un oggetto dell'immagine 2D ? la posizione espressa in pixel di quell'oggetto relativa a due assi ortogonali u, v che si estendono lungo le due direzioni del piano immagine della fotocamera e aventi l'originale preferibilmente in un angolo, pi? preferibilmente nell'angolo in alto a sinistra, del piano dell'immagine.
Assi u, v definiscono il sistema di riferimento di immagine del piano dell'immagine.
In particolare, il sistema di riferimento di immagine ? definito da due assi ortogonali u, v che si estendono lungo le due direzioni del piano dell'immagine e hanno origine preferibilmente nell'angolo in alto a sinistra del piano dell'immagine.
Il calcolo della posizione in pixel del raggio di luce pu? essere eseguito mediante una qualsiasi delle tecniche note di rilevazione di oggetti di visione artificiale o altre tecniche di intelligenza artificiale.
Preferibilmente, il calcolo della posizione in pixel del raggio di luce comprende un rilevamento del raggio di luce .
Prima di descrivere un esempio di rilevamento del fascio di luce , le seguenti definizioni sono fatte:
? Dilatazione: ? un operatore morfologico attraverso il quale il valore di uscita assegnato al pixel analizzato ? il valore massimo preso dall'insieme di pixel nel file. Questo operatore morfologico viene applicato a un'immagine binaria, quindi il pixel ? 1 se uno qualsiasi dei pixel nelle vicinanze ? 1. Questo operatore rende le macchie, che sono macchie di colore uniforme di forma tondeggiante , pi? visibili e riempie eventuali buchi . Il raggio di luce d? origine a chiazze luminose nell'immagine della fotocamera ,
? Erosione: ? un operatore morfologico opposto a Dilatazione, quindi il valore minimo dell'insieme dei pixel di vicinato ? assegnato a ciascun pixel di output. In un'immagine binaria pixel uscita assume valore 0 se qualsiasi pixel quartiere ? 0. Questo operatore rende macchie pi? piccole e lisciate rimuovendo eventuali casualmente piccole macchie isolate,
? Elemento strutturale: ? una matrice che definiscono s la dimensione delle macchie e quindi della zona. La sua matrice viene in genere scelta con le stesse dimensioni e forma delle chiazze desiderate. Preferibilmente, la forma della matrice ? un cerchio o un'ellisse.
Secondo una forma di realizzazione dell'invenzione, il rilevamento del raggio di luce comprende le seguenti fasi dell'algoritmo :
? Convertire l'immagine 2D a scala di grigi,
? Applicare una sfocatura gaussiana, preferibilmente con kernel 5x5 ,
? Convertire l?immagine in scala dei grigi i a immagine binaria ,
? Realizzare erosione e dilazione attraverso un elemento di struttura ellittica con dimensioni controllate dalla distanza verticale tra il primo dispositivo e il secondo dispositivo,
? Estrazione di sole macchie pi? grandi di una dimensione specifica ,
? Contouring della zona luminosa ,
? Estrarre centro della zona e , preferibilmente, disegnare un cerchio l? .
Un esempio di dimensione dell'elemento strutturante basato sulla distanza verticale tra il primo dispositivo e il secondo dispositivo ? riassunto nella tabella seguente.
Preferibilmente, l'intensit? luminosa del fascio di luce ? controllata in funzione sul la distanza verticale tra il primo dispositivo e il secondo dispositivo. Questo permette di ottenere una corretta dimensione della macchia di luce.
Secondo un aspetto dell'invenzione, l'unit? di elaborazione ? configurata per calcolare una posizione del primo dispositivo rispetto al sistema di riferimento principale in base alla posizione dei pixel del raggio di luce, l'orientamento della fotocamera, una posizione del secondo dispositivo relativo al sistema di riferimento principale e alla distanza verticale.
In particolare, la posizione del primo dispositivo rispetto al sistema di riferimento principale ? la posizione del fascio di luce emessa dalla sorgente luminosa rispetto al sistema di riferimento principale.
Secondo una forma di realizzazione dell'invenzione, la posizione del secondo dispositivo rispetto al sistema di riferimento principale ( X, Y, Z ) ? un'informazione data da uno di un sensore di posizione assoluto come GPS o simile, come un sistema di posizionamento a cinematica in tempo reale (RTK) RTK-GPS , ed una memoria dati.
Preferibilmente, il secondo dispositivo comprende un sensore GPS, o pi? in generale un n sensore di posizione assoluta , per misurare la posizione del secondo dispositivo rispetto al telaio principale riferimento .
In particolare, la posizione del secondo dispositivo rispetto al sistema di riferimento principale ? la posizione della fotocamera rispetto al sistema di riferimento principale. Preferibilmente, il calcolo della posizione del primo dispositivo rispetto al riferimento principale si basa su un modello di fotocamera a foro stenopeico, che ? ben noto nel campo della visione computerizzata.
In particolare, al fine di calcolare la posizione del primo dispositivo rispetto al sistema di riferimento principale, una matrice intrinseca della fotocamera pu? essere applicata alla posizione di pixel calcolata p = ( p u , p v ) del raggio di luce , preferibilmente seguita da un'operazione di correzione della distorsione .
La matrice intrinseca della fotocamera ? definita dai parametri della fotocamera come:
con fx e fy , le lunghezze focali espresse in unit? di pixel.
Va notato che fx , fy sono il componente xey della lunghezza focale (preferibilmente espresso in pixel), dove gli assi x, y sono proiezioni degli assi Xc e Yc sul piano dell'immagine e definiscono un sistema di coordinate del piano dell'immagine .
Inoltre, cx e cy sono le coordinate del centro ottico nel sistema di coordinate, entrambe espresse in pixel, e s ? il coefficiente di inclinazione definito come s = fxtan (?). ? ? l'angolo tra gli assi x e y della fotocamera, quindi il / i coefficiente / i di inclinazione ? diverso da zero quando gli assi dell'immagine non sono perpendicolari.
Secondo una forma di realizzazione dell'invenzione,
Una posizione regolata p' = ( p' u , p ' v ) del fascio di luce si ottiene quindi seguente equazione:
L'operazione di correzione della distorsione pu? essere applicata alla posizione regolata p' per ottenere una posizione non distorta pu = ( pu u , pu v ) del raggio di luce.
Questa operazione ? utile per correggere la distorsione possibile introdotto dall'hardware fotocamera.
Nell'ottica geometrica, tali distorsioni comprendono distorsione negativa (o puntaspilli), distorsione positiva (o a barilotto) o distorsione tangenziale. Negativi e positivi distorsioni, ovvero distorsioni radiali , si verifica quando i raggi vanno pi? sui bordi del rispetto lente con il centro ottico della fotocamera, mentre la tangente distorsione si verifica quando il piano ottico e il piano dell'obiettivo della fotocamera non sono paralleli .
In una particolare forma di realizzazione dell'invenzione, la distorsione radiale pu? essere corretta usando il seguente modello:
dove sono i coefficienti di distorsione radiale dell'obiettivo.
Per quanto riguarda la distorsione tangenziale, pu? essere corretta utilizzando il seguente modello:
dove sono i coefficienti di distorsione tangenziale dell'obiettivo.
Secondo una forma di realizzazione dell'invenzione,
Secondo un aspetto dell'invenzione, i coefficienti di distorsione radiale dell'obiettivo e distorsione tangenziale dell'obiettivo nonch? la matrice intrinseca della fotocamera possono essere ottenuti mediante un processo di calibrazione geometrica della fotocamera, che ? noto nel campo della visione al computer.
La posizione non distorta pu = ( pu u , pu v ) del raggio di luce si ottiene quindi risolvendo le seguenti equazioni:
Secondo una forma di realizzazione dell'invenzione, per calcolare la posizione del primo dispositivo rispetto al telaio di riferimento principale , il vettore non ruotato pu? essere ottenuto mediante la seguente equazione:
dove R ? una matrice di rotazione che rappresenta l'orientamento della fotocamera rispetto a un sistema di riferimento principale. La matrice di rotazione R potrebbe essere data da successive rotazioni di Eulero dati gli angoli di Eulero ( beccheggio, rollio e imbardata ) misurati dai sensori inerziali, e preferibilmente nel loro presunto ordine, o direttamente stimati dai sensori inerziali forniti dai quaternioni. In una forma di realizzazione particolare, R pu? essere data dalla seguente matrice :
dove qui C [] sta per la funzione cos [], S [] per la funzione sin
le cui rotazioni sono state eseguite in questo ordine.
In una particolare forma di realizzazione in cui la fotocamera guarda in basso e non vi sono oscillazioni d'onda lungo gli assi X o Y e roll preferibilmente costante nulla )
In una forma di realizzazione d pu? essere rinormalizzato, preferibilmente in mm , per ottenere secondo l' equazione :
In una forma di realizzazione dell'invenzione dove Z L ? la distanza (minima) tra il piano della fotocamera e il piano della luce . Preferibilmente, il piano luminoso ? il piano parallelo al piano della fotocamera e passa attraverso il punto nello spazio definito dalla sorgente luminosa. In una forma di realizzazione dell'invenzione , Z L pu? essere data dal
Con Sec la funzione secante e la distanza verticale ra il primo dispositivo e il secondo dispositivo in base alla profondit? nell'acqua di entrambi i dispositivi . ? preferibilmente data dalla differenza tra la profondit? del primo dispositivo e la profondit? del secondo dispositivo (in particolare la profondit? della sorgente luminosa e la profondit? della fotocamera ) , con entrambi profondit? preferibilmente essere valori negativi se entrambi i dispositivi sono sommersi .
Preferibilmente, la distanza verticale Z L ? in millimetri e, di conseguenza, la posizione
del raggio di luce ? in millimetri.
Alternativamente pu? essere ottenuto risolvendo la seguente equazione in
Dove ancora la distanza verticale tra il primo dispositivo e il secondo dispositivo in base alla profondit? nell'acqua di entrambi i dispositivi. ? ? preferibilmente dato dalla differenza tra la profondit? del primo dispositivo e la profondit? del secondo dispositivo (in particolare la profondit? della sorgente di luce e la profondit? della fotocamera), con entrambe le profondit? preferibilmente valori negativi se entrambi i dispositivi sono immersi.
In una particolare forma di realizzazione in cui la fotocamera guarda in basso e non vi sono oscillazioni d'onda lungo gli assi X o Y , ovvero pitch= ? e roll preferibilmente ? costante nulla :
Secondo un aspetto dell'invenzione, la posizione P = (P X , P Y , P Z ) del primo dispositivo rispetto al telaio principale di riferimento (X, Y, Z) pu? quindi essere ottenuta con l' equazione di traslazione :
dove ? un vettore di traduzione che rappresenta la posizione del secondo dispositivo (in particolare della fotocamera) rispetto al sistema di riferimento principale (X, Y, Z) .
Il vettore di traduzione t potrebbe essere dato da un sensore di posizione assoluto o da un sistema di posizionamento cinematico (RTK) in tempo reale, oppure potrebbe essere ottenuto da un archivio di dati.
Preferibilmente, Pz pu? essere sostituito con la profondit? del primo dispositivo (in particolare la sorgente luminosa ) , poich? pu? essere misurato direttamente con un errore molto piccolo.
Poich? la distanza verticale ? tra il primo dispositivo e il secondo dispositivo , e la distanza tra la fotocamera ed il piano di luce sono preferibilmente in millimetri , la posizione P del primo dispositivo ? in millimetri troppo .
In alternativa o in aggiunta, l'unit? di elaborazione ? configurata per calcolare una posizione del secondo dispositivo rispetto al sistema di riferimento principale in base alla posizione in pixel del raggio di luce, l'orientamento della fotocamera, una posizione del primo dispositivo rispetto al sistema di riferimento principale e distanza verticale.
In questo caso, la posizione del primo dispositivo rispetto al sistema di riferimento principale ( X, Y, Z ) ? un'informazione data da uno di un sensore di posizione assoluto come GPS o simile, un sistema di posizionamento cinematico in tempo reale (RTK) come RTK-GPS e una memorizzazione dei dati.
Preferibilmente, il primo dispositivo comprende un sensore GPS, o pi? in generale un sensore di posizione assoluta, per misurare la posizione del primo dispositivo rispetto al sistema di riferimento principale.
La posizione del secondo dispositivo rispetto al sistema di riferimento principale ( X, Y, Z ) pu? essere calcolata mediante la procedura sopra menzionata in cui il vettore di traslazione rappresenta ora la posizione del primo dispositivo rispetto al sistema di riferimento principale (X, Y, Z).
Queste caratteristiche consentono di calcolare la posizione del primo dispositivo e/o del secondo dispositivo utilizzando una fotocamera e un fascio di luce anzich? tecniche di localizzazione note, ottenendo cos? un sistema semplice, in termini di complessit? architettonica, per la geolocalizzazione di un oggetto nell'acqua.
Contrariamente ai dispositivi acustici, basati su luce , il sistema ha il ritardo di propagazione tra bersaglio e il rivelatore che ? trascurabile se confrontato a tempi di calcolo . La velocit? di rilevamento dei cambiamenti di posizione della luce ? molto rapida e limitata solo dall'FPS (Sistema per Second) della fotocamera e dalla velocit? delle unit? di elaborazione .
Il sistema potrebbe avere larghezza di banda facilmente superare centinaia Hz , mentre le versioni di fascia alta con la macchina fotografica ad alta velocit? e unit? di calcolo potrebbe superare il kHz. Il rapido tasso di acquisizione consente anche di ridurre l'errore di posizionamento statistico migliorando l'efficacia dei filtri a valle o degli algoritmi di stima dello stato.
L'errore di posizionamento s inoltre sono limitati soltanto dalla risoluzione fotocamera , sensibilit? , figura fascio luminoso condizioni e acqua. Nel risistema di riferimento della videocamera, finch? la sorgente luminosa non ? rilevabile dalla videocamera , ? possibile raggiungere facilmente le incertezze a livello di cm e inferiore . Inoltre, in acque poco profonde o vicino al fondale marino o alla superficie, la misurazione della posizione non ? influenzata e limitata dalle riflessioni del segnale come nel posizionamento acustico . Se la linea di vista ? stabilito , potrebbe benissimo funzionare in grotte. Contrariamente a UWSN , il sistema consente la localizzazione della sorgente luminosa con una sola fotocamera. La semplicit? del sistema permette cos? la sua miniaturizzazione e distribuzione su micro robot subacquei, o sommozzatori dispositivi portatili. Esso consente anche di costi molto ridotti di localizzazione e l'adozione di larghezza per gli utenti professionisti e non come bene .
Secondo una forma di realizzazione dell'invenzione, la posizione del secondo dispositivo o del primo dispositivo usato per calcolare la posizione del primo dispositivo o del secondo dispositivo, rispettivamente, ? memorizzata in una memoria di dati o fornita da un dispositivo di posizione. Preferibilmente, il dispositivo di posizione comprende un sensore di posizione assoluta come GPS o simile.
Secondo una forma di realizzazione dell'invenzione, la profondit? del primo dispositivo e / o del secondo dispositivo nell'acqua ? memorizzata in una memoria dati o misurata da un misuratore di profondit?.
Secondo una forma di realizzazione dell'invenzione, il dispositivo di misurazione del secondo dispositivo comprende sensori inerziali e / o un magnetometro per fornire l'orientamento della fotocamera rispetto al telaio di riferimento principale.
Secondo una forma di realizzazione dell'invenzione, il primo dispositivo comprende una prima unit? di controllo collegata alla sorgente di luce per la modulazione del raggio di luce in modo tale che il raggio di luce trasmetta dati sulla posizione e / o profondit? del primo dispositivo.
La modulazione pu? essere una modulazione ad alta intensit? , che potrebbe essere effettuata mediante la codifica on-off, la codifica con spostamento di frequenza o la modulazione di ampiezza in quadratura, tra gli altri metodi.
Il secondo dispositivo comprende un sensore ottico atto a rilevare il raggio di luce, l'unit? di elaborazione essendo collegata al sensore ottico per ottenere la posizione e / o la profondit? del primo dispositivo in base al raggio di luce rilevato dal sensore ottico .
In particolare, il sensore ottico ? un fotodiodo o un photomultiplier o altro rivelatore di fotoni , preferibilmente disposta accanto alla fotocamera. In alternativa, la fotocamera comprende il sensore ottico.
Questa funzione consente di trasmettere dati sulla posizione e / o profondit? del primo dispositivo utilizzando un raggio di luce, evitando cos? di utilizzare mezzi tecnici aggiuntivi a questo scopo.
Secondo una forma di realizzazione dell'invenzione, uno del primo dispositivo e il secondo dispositivo ha un emettitore acustico per emettere un segnale acustico che rappresenta la posizione e / o la profondit? del dispositivo rilevante e l'altro del primo dispositivo e il secondo dispositivo ha un ricevitore acustico per ricevere il segnale acustico emesso dall'emettitore acustico.
L'unit? di elaborazione ? collegata al ricevitore acustico per ottenere la posizione e / o la profondit? di quello del primo dispositivo e del secondo dispositivo in base al segnale ricevuto dal ricevitore acustico.
Per quanto riguarda la comunicazione di modulazione della luce , un collegamento coassiale potrebbe consentire la comunicazione continua del movimento della luce e dello stato di profondit? alla fotocamera anche in caso di temporanea interruzione della linea di vista. Questa informazione potrebbe essere utilizzato dalle unit? di calcolo della fotocamera e algoritmo s per stimare la posizione luce anche durante le piccole tempo intervalli quando la sorgente luminosa potrebbe non identificati a causa di vari motivi . Secondo una forma di realizzazione dell'invenzione, il primo dispositivo e il secondo dispositivo sono collegati tra loro da un cavo di comunicazione marino attraverso il quale il primo dispositivo trasmette al secondo dispositivo dati sulla sua profondit? e / o posizione e / o il secondo dispositivo trasmette al primo dispositivo dati sulla sua profondit? e / o posizione.
Il cavo marino ? particolarmente vantaggioso per i ROV collegati che potrebbero utilizzare il proprio cavo per il collegamento di comunicazione tra sorgente luminosa e fotocamera . Esso permette cos? un retrofit del sistema di localizzazione in luce subacquea veicoli filoguidati che sono gi? in distribuzione .
Preferibilmente, il cavo di comunicazione marittimo ? un cavo di collegamento .
Preferibilmente, il cavo di comunicazione marittimo ? un cavo elettrico o in fibra ottica. Secondo una forma di realizzazione dell'invenzione, almeno uno del primo dispositivo e del secondo dispositivo ha un emettitore acustico per emettere un segnale acustico che rappresenta la posizione e / o la profondit? del dispositivo in questione e / o ha un cavo di comunicazione marittimo attraverso il quale trasmette ad un altro dispositivo dati sulla sua profondit? e / o posizione.
Ad esempio, un altro dispositivo pu? essere un dispositivo disposto a terra, in barca o in boa.
Preferibilmente, l'altro dispositivo ? configurato per trasmettere la posizione delle dati ricevute e / o la profondit? del dispositivo rilevante all'altro del primo dispositivo e del secondo dispositivo.
Secondo una forma di realizzazione dell'invenzione, l'unit? di elaborazione ? configurata per predire una posizione successiva del raggio di luce nell'immagine 2D acquisita attraverso la fotocamera eseguendo un algoritmo di filtraggio ricorsivo basato su almeno una posizione corrente e posizioni precedenti del raggio di luce nell'immagine 2D.
Questa funzione consente di effettuare una stima traiettoria del raggio di luce nel corso del tempo.
Preferibilmente, l' algoritmo di filtraggio ricorsivo ? un filtro Kalman.
La previsione o f filtro di Kalman permette di effettuare il fascio di luce di monitoraggio in modo da evitare o errori di rilevamento limite del fascio luminoso, ad esempio causata da almeno uno di occlusione, illuminazione cambiamento e rapidi movimenti del fascio luminoso.
Verr? descritto di seguito il filtro Kalman secondo una forma di realizzazione dell'invenzione.
Il sistema di filtro di Kalman utilizzato per predire la posizione successiva , o stato, del fascio di luce dell'immagine 2D in , assumonoche la luce di posizione e velocit? evolve secondo la seguente :
dove
k ? il passo temporale ,
sono stati attuali e precedenti,
T ? la matrice di transizione,
? il vettore del rumore di processo (preferibilmente questo rumore di processo ? un
gaussiano a media zero) .
Si presume che non vi sia alcun input di controllo.
Il filtro Kalman ha un vettore di osservazione ? collegato con la seguente:
dove:
H ? la matrice di osservazione,
? il vettore del rumore di osservazione (preferibilmente questo rumore di
osservazione ? un gaussiano a media zero).
Lo stato e i vettori di osservazione sono definiti da:
Secondo una forma di realizzazione dell'invenzione, data la semplice modello fisico della posizione dinamica della luce, T ? indipendente da k ed ? dato dalla:
con essendo il ritardo tra lo stato
Poich? le variabili osservate sono solo i primi due termini del vettore di stato, H ? semplicemente il seguente :
In una forma di realizzazione dell'invenzione, nella fase temporale k , il filtro Kalman
consiste di due fasi : predire e aggiornare. Il primo passo ? la stima dello stato e la
matrice di covarianza che sono calcolati dal seguente:
Q ? la stima della covarianza del rumore di processo di
Per k nullo ? un vettore nullo , e si assumono essere:
Dove sono l?Incertezza di ogni componente e supponendo alcuna correlazione tra i componenti. La correzione stadio del filtro di Kalman calcolare s il guadagno di Kalman lo stato e la matrice covarianza <? >con:
rappresenta l'affidabilit? della misurazione. In questa forma di realizzazione, J ? una
matrice nulla.
? e sono rispettivamente pu u e pu v della posizione in pixel non distorta del raggio di
luce.
Secondo una forma di realizzazione dell'invenzione, il primo dispositivo e / o il secondo dispositivo hanno sia la sorgente di luce che la fotocamera disposte preferibilmente su un lato opposto alla sorgente di luce.
Secondo una forma di realizzazione dell'invenzione, il sistema comprende un terzo dispositivo destinato ad essere immerso o a galleggiare nell'acqua e almeno uno del primo dispositivo, del secondo dispositivo e del terzo dispositivo ha sia la sorgente luminosa che la fotocamera.
In questo modo, la posizione del primo dispositivo rispetto al riferimento principale pu? essere calcolata mediante la videocamera del terzo dispositivo e la posizione del terzo dispositivo rispetto al riferimento principale pu? essere calcolata mediante la videocamera del secondo dispositivo .
Questa caratteristica permette di immergere il primo dispositivo in acqua una profondit? superiore .
Secondo un aspetto dell'invenzione, il metodo per la geolocalizzazione di un oggetto in acqua comprende le seguenti fasi:
? mettere un primo dispositivo in acqua, in cui il primo dispositivo comprendente una sorgente di luce atta ad emettere un raggio di luce,
? mettere un secondo dispositivo in acqua, il secondo dispositivo comprendente una fotocamera per scattare immagini,
? emettere il raggio di luce mediante la sorgente luminosa,
? ottenere un orientamento della fotocamera rispetto a un sistema di riferimento principale definito da tre assi ortogonali (X, Y, Z),
? ottenere la profondit? del primo dispositivo e del secondo dispositivo nell'acqua, ? determinare una distanza verticale tra il primo dispositivo e il secondo dispositivo in base alla sua profondit? nell'acqua,
? acquisire un'immagine 2D del primo dispositivo attraverso la fotocamera,
? calcolare la posizione dei pixel nell'immagine 2D del raggio di luce emesso dalla sorgente luminosa del primo dispositivo, e
? ottenere una posizione del secondo dispositivo rispetto al sistema di riferimento principale e calcolare una posizione del primo dispositivo in base alla posizione in pixel del raggio di luce, all'orientamento della fotocamera, alla posizione del secondo dispositivo rispetto al sistema di riferimento principale e alla distanza verticale oppure ottenere una posizione del primo dispositivo rispetto al sistema di riferimento principale e il calcolare una posizione del secondo dispositivo in base alla posizione dei pixel del raggio di luce, l'orientamento della fotocamera, la posizione del primo dispositivo rispetto il sistema di riferimento principale e alla distanza verticale.
Secondo una forma di realizzazione dell'invenzione, la posizione del secondo dispositivo o del primo dispositivo utilizzato nel metodo di calcolo della posizione del primo dispositivo o del secondo dispositivo, rispettivamente, ? memorizzata in una memoria dati o fornita da un dispositivo di posizione e / o la profondit? del primo dispositivo e / o del secondo dispositivo nell'acqua ? memorizzata in una memoria dati o misurata da un misuratore di profondit?.
Secondo una forma di realizzazione dell'invenzione , la fase di ottenere la posizione e / o la profondit? del primo dispositivo comprende la seguente fase secondaria:
? modulare il raggio di luce emesso in modo tale che il raggio di luce trasmetta dati sulla posizione e / o profondit? del primo dispositivo,
? rilevare il raggio di luce mediante un sensore ottico,
? determinare la posizione e / o la profondit? del primo dispositivo in base al raggio di luce rilevato dal sensore ottico.
Secondo una forma di realizzazione dell'invenzione , la fase di ottenere la posizione e / o la profondit? di almeno uno del primo dispositivo e il secondo dispositivo nell'acqua comprende la seguente fase secondaria:
? emettere un segnale acustico o elettrico che rappresenta la posizione e / o la profondit? di uno tra il primo dispositivo e il secondo dispositivo,
? ricevere il segnale acustico o elettrico,
? determinare la posizione e / o la profondit? di quello tra il primo dispositivo e il secondo dispositivo in base al segnale acustico o elettrico ricevuto.
Secondo una forma di realizzazione dell'invenzione , il metodo comprende una fase di previsione di una posizione successiva del raggio di luce nell'immagine 2D acquisita attraverso la fotocamera eseguendo un filtro ricorsivo basato su almeno una posizione corrente e posizioni precedenti del fascio di luce in l'immagine 2D.
Breve descrizione dei disegni
Caratteristiche e vantaggi dell'invenzione saranno meglio apprezzati dalla seguente descrizione dettagliata delle sue forme di realizzazione preferite che sono illustrate a titolo di esempio non limitativo con riferimento alle Figure allegate, in cui:
? La figura 1 ? una vista schematica di un sistema per la geolocalizzazione di un oggetto in acqua secondo una forma di realizzazione dell'invenzione,
? La figura 2 mostra un modello di fotocamera a foro stenopeico relativo a una fotocamera che ? compresa nel sistema di figura 1,
? La figura 3 mostra una posizione calcolata relativa ad un sistema di riferimento principale di un primo dispositivo del sistema mostrato in figura 1,
? La figura 4 mostra una stima della traiettoria nel tempo di un raggio di luce del sistema mostrato nella figura 1 ,
? La figura 5 ? una vista schematica di un sistema per la geolocalizzazione di un oggetto in acqua secondo una seconda forma di realizzazione dell'invenzione, e
? La Figura 6 ? una vista schematica di un sistema per la geolocalizzazione di un oggetto in acqua secondo una terza forma di realizzazione dell'invenzione .
Descrizione delle forme di realizzazione dell'invenzione
Con riferimento alla Figura 1 , un sistema per la geolocalizzazione di un oggetto in acqua secondo la presente invenzione ? indicato nel suo insieme dal numero di riferimento 100. Il sistema comprende un primo dispositivo, in particolare un ROV, 1 immerso in acqua. Il primo dispositivo 1 ha una sorgente luminosa 2 (dispositivo LED) atta ad emettere un raggio di luce 3.
Il sistema comprende un secondo dispositivo 4 fissato ad uno scafo di barca 5.
Il secondo dispositivo 4 comprende una fotocamera 6 per acquisire immagini 2D e un dispositivo di misurazione 7 predisposto per fornire un orientamento della fotocamera 6 rispetto ad un sistema di riferimento principale definito da tre assi ortogonali X, Y, Z. Il dispositivo di misurazione 7 comprende sensori inerziali e una bussola magnetica per fornire l'orientamento della fotocamera 6 rispetto al sistema di riferimento principale.
Come mostrato in figura 2, la fotocamera 6 ha un sistema di riferimento della fotocamera definito da tre assi ortogonali X c , Y c , Z c , in cui Z c si estende lungo l'asse ottico della fotocamera 6.
L'orientamento della videocamera 6 rispetto a un sistema di riferimento principale (X, Y, Z) ? definito da una serie di tre angoli: beccheggio, rollio e imbardata, in cui il beccheggio ? un movimento della videocamera attorno all'asse X c , il rollio ? un movimento della fotocamera attorno all'asse Y c e l'imbardata ? un movimento della fotocamera attorno all'asse Z c .
Il secondo dispositivo 4 comprende inoltre un sensore GPS 8 per misurare la posizione del secondo dispositivo 4, in particolare la posizione della fotocamera 6, rispetto al sistema di riferimento principale .
Il secondo dispositivo 4 comprende un'unit? di elaborazione 9 operativamente collegata alla fotocamera 6. L' unit? di elaborazione 9 ? configurata per determinare una distanza verticale ? tra il primo dispositivo 1 e il secondo dispositivo 4 in base alla profondit? nell'acqua di entrambi i dispositivi.
La distanza ra il primo dispositivo 1 e il secondo dispositivo 4 ? la distanza tra il piano dell'immagine 10 della fotocamera 6 e il piano luminoso 11 del raggio di luce 3. La distanza verticale ? include gli offset della fotocamera 6 con la superficie dell'acqua e il luce con un misuratore di profondit? 12 del primo dispositivo 1 atto a misurare la profondit? del primo dispositivo 1 nell'acqua .
Ad esempio, la posizione della fotocamera 6 (in mm) rispetto al sistema principale di riferimento (X, Y, Z) ?
fotocamera 6 rispetto al
e la distanza
profondit? della sorgente luminosa , -650 mm e la profondit? nulla della videocamera. Il pitch ? impostato a in quanto la fotocamera 6 guarda in basso rispetto alla verticale mentre il rollio ? 0.
Inoltre, in questo esempio la fotocamera 6 ha una matrice intrinseca della fotocamera
e parametri di distorsione definiti come segue:
L'unit? di elaborazione 9 ? configurata per acquisire un'immagine 2D del raggio di luce 3 attraverso la fotocamera 6 e per calcolare la posizione in pixel p = ( p u , p v ) nell'immagine 2D del raggio di luce 3 attraverso un rilevamento del raggio di luce , in cui p u , p v sono la posizione in pixel del raggio di luce 3 lungo gli assi u, v che definiscono il sistema di riferimento dell'immagine del piano di immagine 10.
In questo esempio, t ha calcolato posizione in pixel ?:
L'unit? di elaborazione 9 ? inoltre configurata per calcolare una posizione P del primo dispositivo 1 (raggio di luce 3) rispetto al sistema di riferimento principale in base alla posizione in pixel p del raggio di luce, all'orientamento della fotocamera, alla posizione
e alla verticale distanza
In particolare, il calcolo della posizione P del primo dispositivo 1 comportano un calcolo di una posizione in pixel regolata p '= ( p'u, p'v ) mediante la seguente equazione:
e un'operazione di correzione della distorsione applicata alla posizione in pixel regolata p' per ottenere una posizione in pixel non distorta pu = ( pu u , pu v ) del raggio di luce 3. La posizione in pixel non distorta pu = ( pu u , pu v ) del raggio di luce 3 si ottiene risolvendo le seguenti equazioni:
La posizione in pixel non distorta ? quindi:
Al fine di calcolare la posizione del primo dispositivo rispetto al telaio principale riferimento, il vettore non ruotato pu? essere ottenuta con l'equazione seguente:
dove R ? una matrice di rotazione che rappresenta l'orientamento della fotocamera rispetto a un sistema di riferimento principale. La matrice di rotazione R potrebbe essere data da successive rotazioni di Eulero dati gli angoli di Eulero ( beccheggio, rollio e imbardata ) misurati dai sensori inerziali, e preferibilmente nel loro presunto ordine, o direttamente stimati dai sensori inerziali forniti dai quaternioni. In una forma di realizzazione particolare, R pu? essere data dalla seguente matrice:
dove qui C [] sta per la funzione cos [], S [] per la funzione e
le cui rotazioni sono state eseguite in questo ordine.
Nell'esempio, dato che dove ? poich? la fotocamera guarda in basso, R diventa:
e
In questo esempio ? viene rinormalizzato, preferibilmente in mm, per ottenere
secondo l'equazione:
?? =????
In questo esempio dove Z L ? la distanza (minima) tra il piano della fotocamera e il piano della luce. Preferibilmente, il piano luminoso ? il piano parallelo al piano della fotocamera e passa attraverso il punto nello spazio definito dalla sorgente luminosa. Z L ? data dal
Con Sec la funzione secante ? data dalla differenza tra la profondit? della sorgente luminosa e la profondit? della fotocamera.
In questo esempio, <? >= (?434.747,?16.9138,?650),, espresso in mm poich? <? >? in mm .
La posizione P = (P X , P Y , P Z ) del primo dispositivo rispetto al sistema di riferimento principale (X, Y, Z) pu? quindi essere ottenuta mediante l' equazione di traslazione:
dove ? un vettore di traduzione che rappresenta la posizione del secondo dispositivo rispetto al sistema di riferimento principale (X, Y, Z) che ?
Poich? (380,0,0), allora P= (P<X>,P<Y>,P<Z>) = (-54.74, -16.913, -650).
Il primo dispositivo comprende una prima unit? di controllo 13 collegata alla sorgente luminosa 2 per la modulazione del raggio di luce 3 in modo tale che il raggio di luce trasmetta dati sulla profondit? del primo dispositivo 1.
Il secondo dispositivo comprende un sensore ottico 14 (un fotodiodo) atto a rilevare il raggio di luce 3, l'unit? di elaborazione 9 essendo collegata al sensore ottico 14 per ottenere la profondit? del primo dispositivo 1 in base al raggio di luce rilevato dal sensore ottico 14.
La Figura 3 mostra la posizione calcolata del primo dispositivo 1 rispetto al sistema di riferimento principale (X, Y, Z).
La Figura 4 mostra una stima della traiettoria del raggio di luce m nel tempo mediante una forma di realizzazione del filtro Kalman secondo l'invenzione, in cui la fotocamera 6 viene spostata lungo gli assi X e Y, il primo dispositivo 1 ? fisso e l'imbardata ? allineata con la fotocamera visione.
La fotocamera 6 ha un FPS (sistema per secondo) pari a 25, quindi T ?:
Inoltre e H sono impostati come:
E J ? una matrice 4x4 nulla .
Qui di seguito, una tabella che mostra venti punti esempio, dieci all'inizio della serie e dieci alla fine , della posizione della luce non falsata osservata ok = (puu, pvu), lo stato predetto s?k e lo stato stimato sk che sono stati ottenuti dal filtro Kalman secondo i suddetti parametri .
La Figura 5 ? una vista schematica di un sistema per la geolocalizzazione di un oggetto in acqua secondo una seconda forma di realizzazione dell'invenzione. Questo sistema ? indicato nel suo insieme dal numero di riferimento 101.
Il sistema 101 differisce dal sistema 100 sopra descritto dal primo dispositivo 1 ha un emettitore acustico 1 5 per emettere un segnale acustico che rappresenta la profondit? del primo dispositivo 1.
Il secondo dispositivo 4 ha un ricevitore acustico 1 6 per ricevere il segnale acustico emesso dall'emettitore acustico 15 .
L'unit? di elaborazione 9 ? collegata al ricevitore acustico 16 per ottenere la profondit? del primo dispositivo on in base al segnale ricevuto dal ricevitore acustico 16.
La figura 6 ? una vista schematica di un sistema per la geolocalizzazione di un oggetto in acqua secondo una terza forma di realizzazione dell'invenzione. Questo sistema ? indicato nel suo insieme dal numero di riferimento 102.
Il sistema 10 2 differisce dal sistema 100 sopra descritto dal primo dispositivo 1 e il secondo dispositivo 4 sono collegati tra loro da un cavo di comunicazione marittimo 17 attraverso il quale il primo dispositivo 1 trasmette al secondo dispositivo 4 dati sulla sua profondit?.
L'invenzione risolve quindi il problema esposto, ottenendo allo stesso tempo una serie di vantaggi. In particolare, il sistema di geolocalizzazione di un oggetto in acqua secondo l'invenzione presenta una complessit? architettonica ridotta rispetto ai sistemi noti.

Claims (11)

  1. RIVENDICAZIONI 1. Sistema (100; 101; 102) per la geolocalizzazione di un oggetto in acqua, comprendente: ? un primo dispositivo (1) destinato ad essere immerso, o a galleggiare, in acqua, il primo dispositivo (1) comprendente una sorgente luminosa (2) atta ad emettere un raggio di luce (3), ? un secondo dispositivo (4) destinato ad essere immerso, o a galleggiare, in acqua, il secondo dispositivo (4) comprendente una fotocamera (6) per acquisire immagini 2D e un dispositivo di misurazione (7) predisposto per fornire un orientamento della fotocamera (6) rispetto a un sistema di riferimento principale definito da tre assi ortogonali (X,Y,Z), ? un'unit? di elaborazione (9) operativamente collegata almeno alla fotocamera (6), l'unit? di elaborazione (9) essendo configurata per: ? determinare una distanza verticale tra il primo dispositivo (1) e il secondo dispositivo (4) in base alla profondit? nell'acqua di entrambi i dispositivi, ? acquisire un'immagine 2D del primo dispositivo (1) attraverso la fotocamera (6), ? calcolare la posizione in pixel dell'immagine 2D del fascio di luce (3) emessa dalla sorgente di luce (2) del primo dispositivo (1), ? calcolare una posizione del primo dispositivo (1) rispetto al sistema di riferimento principale in base alla posizione in pixel del raggio di luce (3), all'orientamento della fotocamera (6), ad una posizione del secondo dispositivo (4) rispetto al sistema di riferimento principale e alla distanza verticale e/o per calcolare una posizione del secondo dispositivo (4) rispetto al sistema di riferimento principale in base alla posizione in pixel del raggio di luce (3), all'orientamento della fotocamera (6), ad una posizione del primo dispositivo (1) rispetto al sistema di riferimento principale e alla distanza verticale (??)?.
  2. 2. Sistema secondo la rivendicazione 1, in cui la posizione del secondo dispositivo (4) o del primo dispositivo (1) utilizzato per calcolare la posizione del primo dispositivo (1) o , rispettivamente, del secondo dispositivo (4) ? memorizzata in una memoria dati o fornita da un dispositivo di posizione e/o la profondit? del primo dispositivo (1) e/o del secondo dispositivo (4) nell'acqua sono memorizzati in una memoria dati o misurati da un misuratore di profondit? (12).
  3. 3. Sistema secondo la rivendicazione 1 o 2 , in cui il primo dispositivo (1) comprende una prima unit? di controllo (13) collegata alla sorgente di luce (2) per la modulazione del fascio di luce (3) in modo che il fascio di luce (3) trasmette dati sulla posizione e/o profondit? del primo dispositivo (1) e in cui il secondo dispositivo (4) comprende un sensore ottico (14) atto a rilevare il raggio di luce (3), l'unit? di elaborazione (9) essendo collegata al sensore ottico (14) per ottenere la posizione e/o la profondit? del primo dispositivo (1) in base al raggio di luce (3) rilevato dal sensore ottico (14).
  4. 4. Sistema secondo una qualsiasi una delle precedenti rivendicazioni, in cui uno tra il primo dispositivo (1) e il secondo dispositivo (4) ha un emettitore acustico (15) per emettere un segnale acustico che rappresenta la posizione e/o profondit? del dispositivo relativo e l'altro tra il primo dispositivo e il secondo dispositivo ha un ricevitore acustico (16) per ricevere il segnale acustico emesso dall'emettitore acustico (15), l'unit? di elaborazione (9) essendo collegata al ricevitore acustico (16) per ottenere la posizione e/o profondit? dell?uno tra il primo dispositivo (1) e il secondo dispositivo (4) in base al segnale ricevuto dal ricevitore acustico (16).
  5. 5. Sistema secondo una qualsiasi una delle rivendicazioni precedenti, in cui il primo dispositivo (1) e il secondo dispositivo (4) sono collegati tra loro da un cavo di comunicazione marino (17) attraverso il quale il primo dispositivo trasmette al secondo dispositivo dati sulla sua profondit? e/o posizione e/o il secondo dispositivo trasmette al primo dispositivo dati sulla sua profondit? e/o posizione.
  6. 6. Sistema secondo una qualsiasi delle rivendicazioni precedenti, in cui l'unit? di elaborazione ? configurata per predire una posizione successiva del fascio di luce (3) nell'immagine 2D acquisita attraverso la fotocamera (6) attraverso l'esecuzione di un algoritmo di filtraggio ricorsivo in base ad almeno una posizione corrente e posizioni precedenti del fascio di luce (3) nell?immagine 2D.
  7. 7. Metodo per la geolocalizzazione di un oggetto in acqua, comprendente: ? mettere un primo dispositivo (1) in acqua, in cui il primo dispositivo comprende una sorgente di luce (2) atta ad emettere un fascio di luce (3), ? mettere un secondo dispositivo (4) in acqua, il secondo dispositivo comprendendo una fotocamera (6) per acquisire immagini, ? emettere il raggio di luce (3) per mezzo della sorgente luminosa (2), ? ottenere un orientamento della fotocamera (6) rispetto ad un sistema di riferimento principale definito da tre assi ortogonali (X, Y, Z) , ? ottenere la profondit? del primo dispositivo (1) e del secondo dispositivo (4) nell'acqua, ? determinare una distanza verticale (??)? tra il primo dispositivo (1) e il secondo dispositivo (4) in base alla loro profondit? nell'acqua, ? acquisire un'immagine 2D del primo dispositivo (1) attraverso la fotocamera (6), ? calcolare la posizione in pixel nell'immagine 2D del raggio di luce (3) emesso dalla sorgente luminosa (2) del primo dispositivo (1), e ? ottenere una posizione del secondo dispositivo (4) rispetto al sistema di riferimento principale e calcolare una posizione del primo dispositivo (1) in base alla posizione in pixel del raggio di luce (3), all'orientamento della fotocamera (6), alla posizione del secondo dispositivo (4) rispetto al sistema di riferimento principale e alla distanza verticale oppure ottenere una posizione del primo dispositivo (1) rispetto al sistema di riferimento principale e calcolare una posizione del secondo dispositivo (4) in base alla posizione in pixel del raggio di luce (3), all'orientamento della fotocamera (6), alla posizione del primo dispositivo (1) rispetto al sistema di riferimento principale e alla distanza verticale
  8. 8. Metodo secondo la rivendicazione 7 , in cui la posizione del secondo dispositivo (4) o del primo dispositivo (1) usata per calcolare la posizione del primo dispositivo (1) o, rispettivamente, del secondo dispositivo (4) ? memorizzata in una memoria dati o fornita da un dispositivo di posizione e/o la profondit? del primo dispositivo e/o del secondo dispositivo nell'acqua ? memorizzata in una memoria dati o misurata da un misuratore di profondit? (12).
  9. 9. Metodo secondo al rivendicazione 7 o 8 , in cui la fase di ottenere la posizione e/o la profondit? del primo dispositivo (1) comprende: ? modulare il raggio di luce emesso (3) in modo tale che il raggio di luce trasmetta dati sulla posizione e/o profondit? del primo dispositivo (1), ? rilevare il raggio di luce (3) mediante un sensore ottico (14), ? determinare la posizione e/o la profondit? del primo dispositivo (1) in base al raggio di luce (3) rilevato dal sensore ottico (14).
  10. 10. Procedimento secondo una qualsiasi delle rivendicazioni da 7 a 9 , in cui la fase di ottenere la posizione e/o la profondit? in acqua di almeno uno tra il primo dispositivo (1) e il secondo dispositivo (4) comprende: ? emettere un segnale acustico o elettrico che rappresenta la posizione e/o la profondit? di uno tra il primo dispositivo (1) e il secondo dispositivo (4), ? ricevere il segnale acustico o elettrico, ? determinare la posizione e/o la profondit? dell?uno tra il primo dispositivo (1) e il secondo dispositivo (4) in base al segnale acustico o elettrico ricevuto.
  11. 11. Metodo secondo una qualsiasi delle rivendicazioni da 7 a 10, comprendente: ? predire una posizione successiva del raggio di luce (3) nell'immagine 2D acquisita attraverso la fotocamera (6) eseguendo un filtro ricorsivo basato su almeno una posizione corrente e posizioni precedenti del raggio di luce (3) nell'immagine 2D.
IT102020000017104A 2020-07-14 2020-07-14 Sistema e metodo per la geolocalizzazione di un oggetto in acqua IT202000017104A1 (it)

Priority Applications (5)

Application Number Priority Date Filing Date Title
IT102020000017104A IT202000017104A1 (it) 2020-07-14 2020-07-14 Sistema e metodo per la geolocalizzazione di un oggetto in acqua
PCT/EP2021/069497 WO2022013237A1 (en) 2020-07-14 2021-07-13 System and method for geolocation of an object in water
EP21745302.6A EP4182719A1 (en) 2020-07-14 2021-07-13 System and method for geolocation of an object in water
AU2021307545A AU2021307545A1 (en) 2020-07-14 2021-07-13 System and method for geolocation of an object in water
US18/015,924 US20230260148A1 (en) 2020-07-14 2021-07-13 System and method for geolocation of an object in water

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
IT102020000017104A IT202000017104A1 (it) 2020-07-14 2020-07-14 Sistema e metodo per la geolocalizzazione di un oggetto in acqua

Publications (1)

Publication Number Publication Date
IT202000017104A1 true IT202000017104A1 (it) 2022-01-14

Family

ID=72473924

Family Applications (1)

Application Number Title Priority Date Filing Date
IT102020000017104A IT202000017104A1 (it) 2020-07-14 2020-07-14 Sistema e metodo per la geolocalizzazione di un oggetto in acqua

Country Status (5)

Country Link
US (1) US20230260148A1 (it)
EP (1) EP4182719A1 (it)
AU (1) AU2021307545A1 (it)
IT (1) IT202000017104A1 (it)
WO (1) WO2022013237A1 (it)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
BR102018075029A2 (pt) * 2018-12-03 2020-06-16 Petróleo Brasileiro S.A. - Petrobras Sistema e método para detecção de estanqueidade do espaço anular em dutos flexíveis
CN117434570B (zh) * 2023-12-20 2024-02-27 绘见科技(深圳)有限公司 坐标的可视化测量方法、测量设备及存储介质

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012129612A1 (en) * 2011-03-31 2012-10-04 Ogburn Damian Method and system for surveying or monitoring underwater features

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012129612A1 (en) * 2011-03-31 2012-10-04 Ogburn Damian Method and system for surveying or monitoring underwater features

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
WANG YANGYANG ET AL: "Pseudo-3D Vision-Inertia Based Underwater Self-Localization for AUVs", IEEE TRANSACTIONS ON VEHICULAR TECHNOLOGY, IEEE SERVICE CENTER, PISCATAWAY, NJ, US, vol. 69, no. 7, 9 May 2020 (2020-05-09) - 9 May 2020 (2020-05-09), pages 7895 - 7907, XP011798519, ISSN: 0018-9545, [retrieved on 20200715], DOI: 10.1109/TVT.2020.2993715 *

Also Published As

Publication number Publication date
EP4182719A1 (en) 2023-05-24
AU2021307545A1 (en) 2023-03-16
WO2022013237A1 (en) 2022-01-20
US20230260148A1 (en) 2023-08-17

Similar Documents

Publication Publication Date Title
KR102231286B1 (ko) 선박 주변 모니터링 장치 및 선박 주변 모니터링 방법
JP6507437B2 (ja) 船舶補助ドッキング方法およびシステム
KR102530691B1 (ko) 접안 모니터링 장치 및 방법
KR102530847B1 (ko) 항만 및 선박 모니터링 방법 및 장치
CN109709574B (zh) 一种海底微地形激光扫描成像系统及三维地形重建方法
RU2019135377A (ru) Автоматизированное определение веса по осадке судна
IT202000017104A1 (it) Sistema e metodo per la geolocalizzazione di un oggetto in acqua
EP4089660A1 (en) Method and device for monitoring port and ship in consideration of sea level
KR102520844B1 (ko) 해수면을 고려한 항만 및 선박 모니터링 방법 및 장치
CN114488164B (zh) 水下航行器同步定位与建图方法及水下航行器
KR102535115B1 (ko) 선박 및 항만 모니터링 장치 및 방법
CN111572737B (zh) 一种基于声学和光学引导的auv捕获引导方法
CN102295061A (zh) 基于图像处理的船舶水尺自动检测方法
KR20200009852A (ko) 수중 모니터링 시스템 및 수중 모니터링을 위한 vr 영상 제공 방법
KR101772220B1 (ko) 멀티빔소나와 카메라의 상대위치 추정을 위한 캘리브레이션 방법
Caccia Laser-triangulation optical-correlation sensor for ROV slow motion estimation
Singh et al. Vision-based AUV docking to an underway dock using convolutional neural networks
Mai et al. 3D reconstruction of line features using multi-view acoustic images in underwater environment
Iscar et al. Towards distortion based underwater domed viewport camera calibration
Constantinou et al. An underwater laser vision system for relative 3-D posture estimation to mesh-like targets
Kim et al. Imaging sonar based navigation method for backtracking of AUV
Breivik et al. Robust pipeline localization for an autonomous underwater vehicle using stereo vision and echo sounder data
Ciszewski et al. Robotic system for off-shore infrastructure monitoring
JP5467548B2 (ja) 画像処理システム及び方法
Massone et al. An original 3D reconstruction method using a conical light and a camera in underwater caves