ITMI20090941A1 - Metodo di restituzione fotogrammetrica assistita da nuvola di punti e relativo apparato. - Google Patents

Metodo di restituzione fotogrammetrica assistita da nuvola di punti e relativo apparato. Download PDF

Info

Publication number
ITMI20090941A1
ITMI20090941A1 IT000941A ITMI20090941A ITMI20090941A1 IT MI20090941 A1 ITMI20090941 A1 IT MI20090941A1 IT 000941 A IT000941 A IT 000941A IT MI20090941 A ITMI20090941 A IT MI20090941A IT MI20090941 A1 ITMI20090941 A1 IT MI20090941A1
Authority
IT
Italy
Prior art keywords
point cloud
depth
point
collimation mark
points
Prior art date
Application number
IT000941A
Other languages
English (en)
Inventor
Aldo Facchin
Mario Nadalin
Original Assignee
Geosoft S R L
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Family has litigation
First worldwide family litigation filed litigation Critical https://patents.darts-ip.com/?family=41820477&utm_source=google_patent&utm_medium=platform_link&utm_campaign=public_patent_search&patent=ITMI20090941(A1) "Global patent litigation dataset” by Darts-ip is licensed under a Creative Commons Attribution 4.0 International License.
Application filed by Geosoft S R L filed Critical Geosoft S R L
Priority to ITMI2009A000941A priority Critical patent/IT1395344B1/it
Priority to EP10724014.5A priority patent/EP2435984B1/en
Priority to BRPI1007662A priority patent/BRPI1007662B1/pt
Priority to US13/266,313 priority patent/US9292922B2/en
Priority to CA2760006A priority patent/CA2760006C/en
Priority to PCT/EP2010/057226 priority patent/WO2010136479A1/en
Publication of ITMI20090941A1 publication Critical patent/ITMI20090941A1/it
Application granted granted Critical
Publication of IT1395344B1 publication Critical patent/IT1395344B1/it

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C11/00Photogrammetry or videogrammetry, e.g. stereogrammetry; Photographic surveying
    • G01C11/02Picture taking arrangements specially adapted for photogrammetry or photographic surveying, e.g. controlling overlapping of pictures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/593Depth or shape recovery from multiple images from stereo images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2219/00Indexing scheme for manipulating 3D models or images for computer graphics
    • G06T2219/028Multiple view windows (top-side-front-sagittal-orthogonal)

Description

“Metodo di restituzione fotogrammetrica assistita da nuvola di punti e relativo apparato.â€
La presente invenzione concerne un metodo di restituzione fotogrammetrica assistita da nuvola di punti ed al relativo apparato.
E’ noto nello stato della tecnica l’utilizzo della fotogrammetria ad esempio per la produzione di mappe topografiche.
Normalmente viene utilizzata in fotogrammetria l’osservazione stereoscopica di coppie di immagini. Dette immagini sono immagini digitali, cioà ̈ sia acquisite digitalmente o acquisite analogicamente e poi digitalizzate, delle quali sono note le caratteristiche di orientamento interno (cioà ̈ il punto focale, il punto principale ed i parametri di distorsione) e di orientamento esterno (ad esempio il centro di presa e gli angoli di orientamento assoluto per le prese prospettiche). Mediante l’osservazione stereoscopica delle immagini l’operatore o restitutista effettua una digitalizzazione vettoriale tridimensionale dei particolari da restituire (es. linee di ciglio strada, linee di identificazione dei fabbricati, punti quota, ecc.). Vengono in pratica estratte linee identificate mediante sequenza di punti e singoli punti le cui coordinate sono tridimensionali. Ad esempio, nel caso in cui l’oggetto sia il tetto di una casa, il restitutista secondo determinate regole estrae una linea continua che descrive l’ingombro del tetto in cui le coordinate dei vertici, le coordinate cartesiane X, Y e Z, sono determinate in funzione dell’ orientamento delle immagini.
La fotogrammetria viene impiegata non solo in ambito aereo ma anche in ambito terrestre ed industriale.
Un aspetto critico della fotogrammetria à ̈ l’accuratezza con cui viene determinata la profondità (tipicamente la coordinata Z) di un oggetto; essa dipende dal rapporto B/H (base/altezza) dove B à ̈ la distanza tra i centri di presa O’ e O†o comunemente detta base di presa e H à ̈ la distanza tra la base di presa e l’oggetto P, come visibile in figura 1. In particolare la base di presa à ̈ la distanza che separa i due centri di presa delle immagini, che sono i punti nello spazio nei quali vengono eseguite le due fotografie di una ripresa stereoscopica. L’altezza H à ̈ la distanza inedia tra la base di presa B e la superficie inquadrata; nel caso aereo H à ̈ la quota di volo relativa, cioà ̈ la differenza tra la quota di volo e la quota media del terreno in quella zona.
In vista dello stato della tecnica, scopo della presente invenzione à ̈ quello di fornire un metodo in cui la restituzione fotogrammetrica sia assistita da nuvola di punti per consentire una più completa visualizzazione dell’area.
In accordo alla presente invenzione, detto scopo viene raggiunto mediante un metodo di restituzione fotogrammetrica assistita da nuvola di punti, detto metodo comprendendo:
la visualizzazione contemporanea su uno schermo dell’ insieme di almeno un’immagine stereoscopica e di una nuvola di punti acquisita su una data area, detta immagine stereoscopica derivando da almeno una coppia di immagini fotogrammetriche acquisite su detta data area ed orientate nello stesso sistema di coordinate della nuvola di punti,
il collegamento in tempo reale della marca di collimazione dell’immagine stereoscopica con la corrispondente marca di collimazione della nuvola di punti.
In una forma di realizzazione preferibile il metodo in accordo alla presente invenzione consente anche una più precisa e rapida determinazione della profondità (coordinate Z) dei punti collimati.
Sempre in accordo alla presente invenzione à ̈ possibile fornire un apparato di restituzione fotogrammetrica assistita da nuvola di punti come definito nella rivendicazione 9.
Grazie alla presente invenzione à ̈ possibile fornire un metodo per determinare facilmente i disallineamenti fra oggetti dell’immagine stereoscopica e la nuvola di punti.
Le caratteristiche ed i vantaggi della presente invenzione risulteranno evidenti dalla seguente descrizione dettagliata di una sua forma di realizzazione pratica, illustrata a titolo di esempio non limitativo negli uniti disegni, nei quali:
la figura 1 mostra schematicamente la disposizione di mezzi di ripresa di un area per l’acquisizione delle immagini utili alla formazione dell’immagine stereoscopica; la figura 2 à ̈ uno schema a blocchi dell’apparato per la produzione di immagini stereoscopiche assistite da nuvole di punti in accordo alla presente invenzione;
le figure 3-5 mostrano immagini che si ottengono con il metodo in accordo all’invenzione.
Con riferimento alla figura 2 à ̈ mostrato uno schema a blocchi dell’apparato di restituzione fotogrammetrica assistita da nuvola di punti in accordo alla presente invenzione. L’apparato comprende mezzi informatici 3 comprendenti una memoria 31 dove à ̈ installato un software 100 ed un microprocessore 32 ed uno schermo 5; il software 100 à ̈ capace di implementare un metodo di restituzione fotogrammetrica assistita da nuvola di punti.
Il metodo comprende la visualizzazione contemporanea su uno schermo 5 dell’insieme 50 di un’immagine stereoscopica 33 e di una nuvola di punti 34 acquisita su una data area 2. L’ immagine stereoscopica deriva da almeno una coppia di immagini fotogrammetriche 11 acquisite su detta data area 2 ed orientate nello stesso sistema di coordinate della nuvola di punti. Il metodo comprende il collegamento in tempo reale della marca di collimazione deH’immagine stereoscopica 33 con la corrispondente marca di collimazione della nuvola di punti 34.
L’immagine stereoscopica deriva da almeno una coppia di immagini fotogrammetriche 11 acquisite sull’ area 2. Le immagini 11 vengono ottenute dai mezzi di ripresa 1 atti a riprendere la zona o area 2 e sono immagini digitali; le immagini 11 possono essere anche immagini analogiche che vengono rese digitali.
Il dispositivo 3 comprende una memoria 31 dove à ̈ installato ed à ̈ in esecuzione il software applicativo 100; detta memoria à ̈ in comunicazione con un microprocessore 32. I mezzi 3 possono anche elaborare le immagini 11 per ottenere un’immagine stereoscopica 33.
La nuvola di punti 34 viene ottenuta preferibilmente mediante un laser scanner 4 con tecnica di telerilevamento LiDAR, atto a puntare la stessa zona 2; la nuvola di punti 34 à ̈ un’ insieme di punti definiti in coordinate tridimensionali della zona 2. L’acquisizione delle immagini 11 e della nuvola di punti 34 può avvenire contemporaneamente o in modo che siano successive l’una all’altra
La nuvola di punti 34 Ã ̈ orientata in un determinato modo su un sistema di coordinate, ad esempio su un sistema di coordinate cartesiane X, Y e Z e le immagini 11 devono essere orientate nello stesso sistema di coordinate. Detta immagine stereoscopica 33 Ã ̈ pertanto allineata con la nuvola di punti 34.
Il software applicativo 100 consente la visualizzazione su un display 5 dell’insieme 50 dell’immagine stereoscopica 33 e della nuvola di punti 34; nella figura 3 à ̈ visibile l’insieme di un’immagine stereoscopica 33 di un paesaggio con una casa 54 abbinata alla nuvola di punti 34.
Il software applicativo 100 consente il collegamento in tempo reale della marca di collimazione S dell’immagine stereoscopica 33 con la corrispondente marca di collimazione S’ della nuvola di punti 34. La marca di collimazione à ̈ il punto indicato o puntato da un puntatore che può scorrere sull’ immagine 33 e sulla nuvola di punti 34, ad esempio un cursore. La marca di collimazione S dell’immagine stereoscopica 33 à ̈ agganciata alla marca di collimazione S’ della nuvola di punti 34 così che ogni spostamento sugli assi X, Y e Z della marca di collimazione S sull’immagine stereoscopica 33 provoca uno spostamento uguale della marca di collimazione S’ della nuvola di punti 34. SuH’immagine stereoscopica 33 e sulla nuvola di punti 34 à ̈ possibile visualizzare linee e punti creati dall’utente che descrivono la geometria degli oggetti da acquisire (ad esempio i tetti degli edifici nella figura 3) allo scopo di valutarne la precisione di acquisizione in relazione all’immagine stereoscopica ed alla nuvola di punti. Mediante la visione abbinata dell’immagine stereoscopica 33 e della nuvola di punti 34 à ̈ possibile anche verificare disallineamenti fra esse e misurare la bontà dell’acquisizione sia per l’immagine stereoscopica che per la nuvola di punti.
Il metodo in accordo all’invenzione comprende il calcolo in tempo reale della profondità o coordinata Z della marca di collimazione S dell’immagine stereoscopica 33 in base alla profondità ricavata dalla nuvola di punti 34.
In tal modo le coordinate tridimensionali della marca di collimazione S vengono subito acquisite dato che lo stesso software ricava le coordinate X e Y, cioà ̈ le coordinate planari della marca di collimazione S, dall’ immagine stereoscopica 33 mentre la profondità, o in tal caso la coordinata Z, viene acquisita automaticamente dalla nuvola di punti 34. Se, ad esempio, la marca di collimazione S à ̈ sul vertice di un tetto di un edificio 54, le coordinate planari verranno date dall’ immagine stereoscopica 33 ma la profondità Z verrà ricavata in modo automatico dalla nuvola di punti 34.
Il calcolo della profondità Z può essere effettuato mediante diversi algoritmi. Con un primo algoritmo il calcolo della profondità Z viene effettuato ricercando il punto della nuvola di punti che à ̈ più vicino alla posizione della marca di collimazione S’ entro una certa distanza scelta dall’utente.
Con un altro algoritmo, in alternativa al primo, il software 100 può restituire una profondità Z calcolata su un piano medio interpolante i punti della nuvola 34 più vicini alla posizione della marca di collimazione S’ entro una certa distanza sempre scelta di volta in volta dall’utente.
Con un terzo algoritmo, in alternativa ai precedenti algoritmi, il software 100 può restituire una profondità Z calcolata in base alla media pesata delle coordinate Z dei punti della nuvola di punti che si trovano entro una certa distanza dalla marca di collimazione S’, con peso pari all’inverso della distanza che viene sempre scelta dall’utente.
Se i punti della nuvola sono classificati in base al tipo di punto (esempio : terreno, vegetazione, opere artificiali, ecc), l’utente può selezionare quali sono le classi da considerare per la ricerca e quali sono quelle da escludere.
Per ogni algoritmo, la ricerca dei punti entro una certa distanza dalla marca di collimazione S’ può avvenire in modo bidimensionale (quando si considerano solo le coordinate planari X,Y della marca di collimazione S’ e dei punti della nuvola per calcolare la distanza) oppure in modo tridimensionale (quando si considerano le coordinate planari e la profondità, cioà ̈ le coordinate Χ,Î¥,Ζ attuali della marca di collimazione S’ e le coordinate Χ,Î¥,Ζ dei punti della nuvola per calcolare la distanza).
In ogni caso, qualora la profondità Z calcolata in questo modo fosse giudicata non corretta, l’operatore può sempre disattivare la funzione e procedere alla determinazione manuale della quota, basandosi sulla visione stereoscopica deU’immagine 33.
In condizioni normali, quindi, l’operatore non deve fare altro che muovere la marca di collimazione S sull’immagine 33 ed il software 100 restituisce in tempo reale la profondità Z della posizione della marca di collimazione S, in accordo con la nuvola di punti, sulla base dei parametri di cattura impostati (il raggio di ricerca e le eventuali classi di punti escluse) e deU’algoritmo di ricerca impostato.
Il metodo in accordo all’invenzione consente una facilità nell 'interpretazione dei dettagli dalle immagini abbinata ad un’accuratezza della profondità determinata dalla nuvola di punti.
La nuvola di punti 34 può anche essere visualizzata stereoscopicamente impostando una coppia di proiezioni prospettiche che abbiano una certa parallasse fra loro, come visibile in figura 4.
L’acquisizione con visione abbinata à ̈ molto più rapida e speditiva rispetto alla acquisizione fotogrammetria tradizionale, in cui l’operatore deve manualmente determinare la profondità del punto e percepire che la marca di collimazione à ̈ appoggiata alla superficie.
Inoltre à ̈ molto più precisa e affidabile, perché la profondità Z proviene dalla nuvola di punti e la precisione di questo dato non dipende dal rapporto fra l’altezza H e la base di presa B e dall’abilità dell’operatore nell’impostare la posizione della profondità Z del cursore.
Infine, rispetto all’impiego della sola nuvola di punti, si ha una percezione dei dettagli molto maggiore.
Avendo a disposizione la visione stereoscopica, inoltre, l’operatore percepisce comunque la forma tridimensionale dell’oggetto che sta tracciando, per cui un eventuale errore accidentale, per esempio, nella cattura della profondità Z dalla nuvola di punti può essere facilmente diagnosticato ed eliminato alla fonte.
La dimensione nello schermo dell’immagine 33 e della nuvola di punti 34 può essere variata a piacimento. Per quanto riguarda la nuvola di punti 34, l’utente ha la possibilità di modificare la parallasse e l’angolo di apertura (FOV, fìeld of view) per enfatizzare l’effetto stereoscopico o ridurlo fino a eliminarlo del tutto e ha la possibilità di selezionare le classi di punti da visualizzare (nel caso di punti che abbiano anche l’attributo di classificazione). Sia nell’immagine stereoscopica 33 che nella nuvola di punti 34 à ̈ possibile visualizzare anche le linee e i punti creati dall’utente, che descrivono la geometria degli oggetti acquisiti (nella figura 4, per esempio, i cigli delle strade), allo scopo di valutarne la precisione di acquisizione in entrambi i casi (cioà ̈ in relazione al modello stereoscopico formato dalle immagini e in relazione alla nuvola di punti). I movimenti del cursore tridimensionale che modificano la scena nell’immagine 33 provocano una corrispondente modifica nella scena della nuvola di punti 34 in modo che esse risultino agganciate dal punto di vista del particolare inquadrato.
Per meglio comprendere i particolari (es. la forma di un tetto) l’utente può rappresentare i punti della nuvola 34 a scale sfalsate (enfatizzando la profondità Z) e può ruotare la scena della nuvola di punti 34 a piacere.
Tipicamente, però, la precisione in profondità della nuvola di punti à ̈ molto più alta di quanto si possa ottenere con la coppia di immagini, a causa dei valori del rapporto B/H (sopra descritto) che si usa nelle prese fotogrammetriche.
In casi normali, quindi, à ̈ possibile persino che dislivelli nettamente apprezzabili dalla nuvola di punti 34 non siano valutabili dal modello stereoscopico formato dalle immagini. Con questa tecnica tale problema à ̈ superato.
Il fatto di non dover impostare manualmente la quota del cursore mediante l’osservazione stereoscopica del modello formato dalle immagini rende questa tecnica molto più speditiva della tecnica fotogrammetrica classica.
Le condizioni normali di ripresa (fotogrammetrica e lidar) fanno sì che questa tecnica sia anche molto più precisa nella valutazione della profondità rispetto alla tecnica fotogrammetrica classica.
D’altra parte la sola nuvola di punti non à ̈ sufficiente a descrivere correttamente certi particolari (come per esempio lo spigolo di un fabbricato) come invece agevolmente si può fare con l’immagine stereoscopica.
La visione abbinata permette comunque sempre il controllo umano dell’operatore, che può validare il risultato e/o modificarlo.
Nella figura 5 si può vedere un riepilogo di questa tecnica utilizzata per acquisire la forma del tetto del fabbricato. I due livelli di zoom deH’immagine stereoscopica 33 con il diverso angolo di rotazione della nuvola di punti 34 aiutano ad apprezzare la qualità geometrica della linea di gronda acquisita.

Claims (10)

  1. RIVENDICAZIONI 1. Metodo di restituzione fotogrammetrica assistita da nuvola di punti, detto metodo comprendendo: la visualizzazione contemporanea su uno schermo (5) dell’insieme di un’immagine stereoscopica (33) e di una nuvola di punti (34) acquisita su una data area (2), detta immagine stereoscopica derivando da almeno ima coppia di immagini fotogrammetriche (11) acquisite su detta data area (2) ed orientate nello stesso sistema di coordinate della nuvola di punti, il collegamento in tempo reale della marca di collimazione (S) dell’immagine stereoscopica con la corrispondente marca di collimazione (S’) della nuvola di punti.
  2. 2. Metodo secondo la rivendicazione 1, caratterizzato dal fatto di comprendere il calcolo in tempo reale della profondità (Z) della marca di collimazione (S) dell’immagine stereoscopica (33) in base alla profondità ricavata dalla nuvola di punti (34).
  3. 3. Metodo secondo la rivendicazione 2, caratterizzato dal fatto che detto calcolo restituisce la profondità (Z) del punto della nuvola di punti (34) che à ̈ più vicino alla marca di collimazione (S’) entro una determinata distanza.
  4. 4. Metodo secondo la rivendicazione 2, caratterizzato dal fatto che detta profondità viene calcolata su un piano medio interpolante i punti della nuvola di punti (34) più vicini alla marca di collimazione (S’) entro una determinata distanza.
  5. 5. Metodo secondo la rivendicazione 2, caratterizzato dal fatto che detta profondità viene calcolata in base alla media pesata delle profondità dei punti della nuvola di punti che si trovano entro una certa distanza dalla marca di collimazione (S’), con peso pari all’inverso della distanza.
  6. 6. Metodo secondo una qualunque delle rivendicazioni da 3 a 5, caratterizzato dal fatto che detta ricerca di almeno un punto della nuvola di punti che si trova entro una determinata distanza dalla marca di collimazione (S’) avviene in modo bidimensionale considerando solo le coordinate planari (X, Y) di detto almeno un punto.
  7. 7. Metodo secondo una qualunque delle rivendicazioni da 3 a 5, caratterizzato dal fatto che detta ricerca di almeno un punto della nuvola di punti che si trova entro una determinata distanza dalla marca di collimazione (S’) avviene in modo tridimensionale considerando le coordinate planari (X, Y) e la profondità (Z) di detto almeno un punto.
  8. 8. Metodo secondo la rivendicazione 1, caratterizzato dal fatto di comprendere la formazione di un’immagine stereoscopica della nuvola di punti mediante impostazione di una coppia di proiezioni prospettiche che abbiano ima certa parallasse fra loro.
  9. 9. Apparato per la restituzione fotogrammetrica assistita da nuvola di punti, detto apparato comprendendo mezzi informatici (3) comprendenti una memoria (31) dove à ̈ installato un software (100) ed un microprocessore (33) ed uno schermo (5), detto software essendo capace di implementare un metodo per la restituzione fotogrammetrica assistita da nuvola di punti come definito in una qualunque delle precedenti rivendicazioni.
  10. 10. Apparato secondo la rivendicazione 9, caratterizzato dal fatto che detta nuvola di punti à ̈ prodotta da un laser scanner con tecnica di telerilevamento fidar.
ITMI2009A000941A 2009-05-28 2009-05-28 Metodo di restituzione fotogrammetrica assistita da nuvola di punti e relativo apparato. IT1395344B1 (it)

Priority Applications (6)

Application Number Priority Date Filing Date Title
ITMI2009A000941A IT1395344B1 (it) 2009-05-28 2009-05-28 Metodo di restituzione fotogrammetrica assistita da nuvola di punti e relativo apparato.
EP10724014.5A EP2435984B1 (en) 2009-05-28 2010-05-26 Point cloud assisted photogrammetric rendering method and apparatus
BRPI1007662A BRPI1007662B1 (pt) 2009-05-28 2010-05-26 método e aparelho para renderização fotogramétrica assistida por nuvem de pontos
US13/266,313 US9292922B2 (en) 2009-05-28 2010-05-26 Point cloud assisted photogrammetric rendering method and apparatus
CA2760006A CA2760006C (en) 2009-05-28 2010-05-26 Point cloud assisted photogrammetric rendering method and apparatus
PCT/EP2010/057226 WO2010136479A1 (en) 2009-05-28 2010-05-26 Point cloud assisted photogrammetric rendering method and apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
ITMI2009A000941A IT1395344B1 (it) 2009-05-28 2009-05-28 Metodo di restituzione fotogrammetrica assistita da nuvola di punti e relativo apparato.

Publications (2)

Publication Number Publication Date
ITMI20090941A1 true ITMI20090941A1 (it) 2010-11-29
IT1395344B1 IT1395344B1 (it) 2012-09-14

Family

ID=41820477

Family Applications (1)

Application Number Title Priority Date Filing Date
ITMI2009A000941A IT1395344B1 (it) 2009-05-28 2009-05-28 Metodo di restituzione fotogrammetrica assistita da nuvola di punti e relativo apparato.

Country Status (6)

Country Link
US (1) US9292922B2 (it)
EP (1) EP2435984B1 (it)
BR (1) BRPI1007662B1 (it)
CA (1) CA2760006C (it)
IT (1) IT1395344B1 (it)
WO (1) WO2010136479A1 (it)

Families Citing this family (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20120150573A1 (en) * 2010-12-13 2012-06-14 Omar Soubra Real-time site monitoring design
US10157495B2 (en) * 2011-03-04 2018-12-18 General Electric Company Method and device for displaying a two-dimensional image of a viewed object simultaneously with an image depicting the three-dimensional geometry of the viewed object
US9984474B2 (en) 2011-03-04 2018-05-29 General Electric Company Method and device for measuring features on or near an object
US10586341B2 (en) * 2011-03-04 2020-03-10 General Electric Company Method and device for measuring features on or near an object
US10019812B2 (en) 2011-03-04 2018-07-10 General Electric Company Graphic overlay for measuring dimensions of features using a video inspection device
US9875574B2 (en) * 2013-12-17 2018-01-23 General Electric Company Method and device for automatically identifying the deepest point on the surface of an anomaly
FR2976681B1 (fr) * 2011-06-17 2013-07-12 Inst Nat Rech Inf Automat Systeme de colocalisation d'un ecran tactile et d'un objet virtuel et dispostif pour la manipulation d'objets virtuels mettant en oeuvre un tel systeme
US9406138B1 (en) 2013-09-17 2016-08-02 Bentley Systems, Incorporated Semi-automatic polyline extraction from point cloud
US9600928B2 (en) 2013-12-17 2017-03-21 General Electric Company Method and device for automatically identifying a point of interest on the surface of an anomaly
US9818039B2 (en) 2013-12-17 2017-11-14 General Electric Company Method and device for automatically identifying a point of interest in a depth measurement on a viewed object
US9842430B2 (en) 2013-12-17 2017-12-12 General Electric Company Method and device for automatically identifying a point of interest on a viewed object
JP6296444B2 (ja) * 2014-01-30 2018-03-20 国際航業株式会社 点群画像による図化方法、及び点群画像による図化装置
JP6446251B2 (ja) * 2014-10-13 2018-12-26 ゼネラル・エレクトリック・カンパニイ 異常の表面上の関心点を自動的に識別するための方法およびデバイス
JP6895382B2 (ja) * 2015-03-17 2021-06-30 ゼネラル・エレクトリック・カンパニイ 観視対象の3次元形状を描画する画像と同時に観視対象の2次元画像を表示するための方法および機器
US10038838B2 (en) * 2015-05-29 2018-07-31 Hover Inc. Directed image capture
JP7098271B2 (ja) * 2016-02-08 2022-07-11 ゼネラル・エレクトリック・カンパニイ 視認物体上の関心点を自動的に識別する方法
EP3440428B1 (en) 2016-04-08 2022-06-01 Orbital Insight, Inc. Remote determination of quantity stored in containers in geographical region
US10217236B2 (en) 2016-04-08 2019-02-26 Orbital Insight, Inc. Remote determination of containers in geographical region
CN107871129B (zh) * 2016-09-27 2019-05-10 北京百度网讯科技有限公司 用于处理点云数据的方法和装置
US10473766B2 (en) 2017-03-13 2019-11-12 The Charles Stark Draper Laboratory, Inc. Light detection and ranging (LiDAR) system and method
CN108734120B (zh) * 2018-05-15 2022-05-10 百度在线网络技术(北京)有限公司 标注图像的方法、装置、设备和计算机可读存储介质
US10679367B2 (en) * 2018-08-13 2020-06-09 Hand Held Products, Inc. Methods, systems, and apparatuses for computing dimensions of an object using angular estimates
US20240062382A1 (en) * 2022-08-17 2024-02-22 Baker Hughes Holdings Llc Measuring a feature near the edge of an object

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE19746639A1 (de) * 1997-10-22 1999-05-06 Gta Geoinformatik Gmbh Verfahren zur digitalen Erfassung räumlicher Objekte und Szenen für eine 3D-Bildkarte sowie 3D-Bildkarte
US20020060784A1 (en) * 2000-07-19 2002-05-23 Utah State University 3D multispectral lidar
EP1505547A2 (en) * 2003-08-05 2005-02-09 De Rerum Natura S.r.L. Engineering Method for surveying, processing and making use of data concerning the topographic conformation and the morphology of land and road network

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5886702A (en) * 1996-10-16 1999-03-23 Real-Time Geometry Corporation System and method for computer modeling of 3D objects or surfaces by mesh constructions having optimal quality characteristics and dynamic resolution capabilities
US7317456B1 (en) * 2002-12-02 2008-01-08 Ngrain (Canada) Corporation Method and apparatus for transforming point cloud data to volumetric data
US7586489B2 (en) * 2005-08-01 2009-09-08 Nvidia Corporation Method of generating surface defined by boundary of three-dimensional point cloud
US7864175B2 (en) * 2006-03-09 2011-01-04 Ambercore Software Inc Fast gridding of irregular data
JP5057734B2 (ja) * 2006-09-25 2012-10-24 株式会社トプコン 測量方法及び測量システム及び測量データ処理プログラム
US8493389B2 (en) * 2006-09-29 2013-07-23 Koninklijke Philips Electronics N.V. 3D connected shadow mouse pointer
US8139863B1 (en) * 2008-04-25 2012-03-20 Hsu Shin-Yi System for capturing, characterizing and visualizing lidar and generic image data
US8690776B2 (en) * 2009-02-17 2014-04-08 Inneroptic Technology, Inc. Systems, methods, apparatuses, and computer-readable media for image guided surgery

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE19746639A1 (de) * 1997-10-22 1999-05-06 Gta Geoinformatik Gmbh Verfahren zur digitalen Erfassung räumlicher Objekte und Szenen für eine 3D-Bildkarte sowie 3D-Bildkarte
US20020060784A1 (en) * 2000-07-19 2002-05-23 Utah State University 3D multispectral lidar
EP1505547A2 (en) * 2003-08-05 2005-02-09 De Rerum Natura S.r.L. Engineering Method for surveying, processing and making use of data concerning the topographic conformation and the morphology of land and road network

Also Published As

Publication number Publication date
BRPI1007662B1 (pt) 2020-04-14
US20120069012A1 (en) 2012-03-22
CA2760006A1 (en) 2010-12-02
EP2435984B1 (en) 2015-02-25
WO2010136479A1 (en) 2010-12-02
BRPI1007662A2 (pt) 2016-08-09
EP2435984A1 (en) 2012-04-04
CA2760006C (en) 2017-03-14
US9292922B2 (en) 2016-03-22
IT1395344B1 (it) 2012-09-14

Similar Documents

Publication Publication Date Title
ITMI20090941A1 (it) Metodo di restituzione fotogrammetrica assistita da nuvola di punti e relativo apparato.
Carvajal-Ramírez et al. Virtual reconstruction of damaged archaeological sites based on Unmanned Aerial Vehicle Photogrammetry and 3D modelling. Study case of a southeastern Iberia production area in the Bronze Age
KR102001728B1 (ko) 스테레오 카메라 드론을 활용한 무기준점 3차원 위치좌표 취득 방법 및 시스템
US8422825B1 (en) Method and system for geometry extraction, 3D visualization and analysis using arbitrary oblique imagery
US9330504B2 (en) 3D building model construction tools
KR102007567B1 (ko) 스테레오 드론 및 이를 이용하는 무기준점 토공량 산출 방법과 시스템
US8958980B2 (en) Method of generating a geodetic reference database product
US7944547B2 (en) Method and system of generating 3D images with airborne oblique/vertical imagery, GPS/IMU data, and LIDAR elevation data
JP6238101B2 (ja) 数値表層モデル作成方法、及び数値表層モデル作成装置
KR20110068469A (ko) 메타정보 없는 단일 영상에서 3차원 개체정보 추출방법
KR101105361B1 (ko) 영상데이터와 라이다데이터의 기하학적 정합방법 및 그 장치
CN108954017A (zh) 基于增强现实技术的燃气管道泄漏检测系统
US8395760B2 (en) Unified spectral and geospatial information model and the method and system generating it
RU2562368C1 (ru) Способ трёхмерного (3d) картографирования
Rönnholm et al. Registration of laser scanning point clouds and aerial images using either artificial or natural tie features
Yilmaz Close range photogrammetry in volume computing
KR101189167B1 (ko) 메타정보 없는 단일 영상에서 3차원 개체정보 추출방법
Huang et al. Integration of mobile laser scanning data with UAV imagery for very high resolution 3D city modeling
KR100874425B1 (ko) 옥외 광고물 크기 측정 시스템 및 이를 이용한 옥외광고물의 크기 측정방법
Gao et al. Visual research and determination of structural plane and free face of rock slopes
Kolecka High-resolution mapping and visualization of a climbing wall
Varga et al. Studying the accuracy of orthophotos on the example of various terrain models in study areas in Hungary
Jankauskienė et al. Surface modelling of a unique heritage object: Use of UAV combined with camera and lidar for mound inspection
Radović 3D MODELS OF OBJECTS IN PROCESS OF RECONSTRUCTION
JP2020017109A (ja) ブレイクライン抽出プログラム、ブレイクライン抽出システム