ITMI20090941A1 - Metodo di restituzione fotogrammetrica assistita da nuvola di punti e relativo apparato. - Google Patents
Metodo di restituzione fotogrammetrica assistita da nuvola di punti e relativo apparato. Download PDFInfo
- Publication number
- ITMI20090941A1 ITMI20090941A1 IT000941A ITMI20090941A ITMI20090941A1 IT MI20090941 A1 ITMI20090941 A1 IT MI20090941A1 IT 000941 A IT000941 A IT 000941A IT MI20090941 A ITMI20090941 A IT MI20090941A IT MI20090941 A1 ITMI20090941 A1 IT MI20090941A1
- Authority
- IT
- Italy
- Prior art keywords
- point cloud
- depth
- point
- collimation mark
- points
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims description 32
- 238000004364 calculation method Methods 0.000 claims description 5
- 238000009877 rendering Methods 0.000 claims description 3
- 230000015572 biosynthetic process Effects 0.000 claims description 2
- 238000010586 diagram Methods 0.000 description 2
- 238000006073 displacement reaction Methods 0.000 description 2
- 238000012800 visualization Methods 0.000 description 2
- 238000004891 communication Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000008447 perception Effects 0.000 description 1
- 230000000284 resting effect Effects 0.000 description 1
- 238000010845 search algorithm Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C11/00—Photogrammetry or videogrammetry, e.g. stereogrammetry; Photographic surveying
- G01C11/02—Picture taking arrangements specially adapted for photogrammetry or photographic surveying, e.g. controlling overlapping of pictures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/30—Determination of transform parameters for the alignment of images, i.e. image registration
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/55—Depth or shape recovery from multiple images
- G06T7/593—Depth or shape recovery from multiple images from stereo images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2219/00—Indexing scheme for manipulating 3D models or images for computer graphics
- G06T2219/028—Multiple view windows (top-side-front-sagittal-orthogonal)
Description
“Metodo di restituzione fotogrammetrica assistita da nuvola di punti e relativo apparato.â€
La presente invenzione concerne un metodo di restituzione fotogrammetrica assistita da nuvola di punti ed al relativo apparato.
E’ noto nello stato della tecnica l’utilizzo della fotogrammetria ad esempio per la produzione di mappe topografiche.
Normalmente viene utilizzata in fotogrammetria l’osservazione stereoscopica di coppie di immagini. Dette immagini sono immagini digitali, cioà ̈ sia acquisite digitalmente o acquisite analogicamente e poi digitalizzate, delle quali sono note le caratteristiche di orientamento interno (cioà ̈ il punto focale, il punto principale ed i parametri di distorsione) e di orientamento esterno (ad esempio il centro di presa e gli angoli di orientamento assoluto per le prese prospettiche). Mediante l’osservazione stereoscopica delle immagini l’operatore o restitutista effettua una digitalizzazione vettoriale tridimensionale dei particolari da restituire (es. linee di ciglio strada, linee di identificazione dei fabbricati, punti quota, ecc.). Vengono in pratica estratte linee identificate mediante sequenza di punti e singoli punti le cui coordinate sono tridimensionali. Ad esempio, nel caso in cui l’oggetto sia il tetto di una casa, il restitutista secondo determinate regole estrae una linea continua che descrive l’ingombro del tetto in cui le coordinate dei vertici, le coordinate cartesiane X, Y e Z, sono determinate in funzione dell’ orientamento delle immagini.
La fotogrammetria viene impiegata non solo in ambito aereo ma anche in ambito terrestre ed industriale.
Un aspetto critico della fotogrammetria à ̈ l’accuratezza con cui viene determinata la profondità (tipicamente la coordinata Z) di un oggetto; essa dipende dal rapporto B/H (base/altezza) dove B à ̈ la distanza tra i centri di presa O’ e O†o comunemente detta base di presa e H à ̈ la distanza tra la base di presa e l’oggetto P, come visibile in figura 1. In particolare la base di presa à ̈ la distanza che separa i due centri di presa delle immagini, che sono i punti nello spazio nei quali vengono eseguite le due fotografie di una ripresa stereoscopica. L’altezza H à ̈ la distanza inedia tra la base di presa B e la superficie inquadrata; nel caso aereo H à ̈ la quota di volo relativa, cioà ̈ la differenza tra la quota di volo e la quota media del terreno in quella zona.
In vista dello stato della tecnica, scopo della presente invenzione à ̈ quello di fornire un metodo in cui la restituzione fotogrammetrica sia assistita da nuvola di punti per consentire una più completa visualizzazione dell’area.
In accordo alla presente invenzione, detto scopo viene raggiunto mediante un metodo di restituzione fotogrammetrica assistita da nuvola di punti, detto metodo comprendendo:
la visualizzazione contemporanea su uno schermo dell’ insieme di almeno un’immagine stereoscopica e di una nuvola di punti acquisita su una data area, detta immagine stereoscopica derivando da almeno una coppia di immagini fotogrammetriche acquisite su detta data area ed orientate nello stesso sistema di coordinate della nuvola di punti,
il collegamento in tempo reale della marca di collimazione dell’immagine stereoscopica con la corrispondente marca di collimazione della nuvola di punti.
In una forma di realizzazione preferibile il metodo in accordo alla presente invenzione consente anche una più precisa e rapida determinazione della profondità (coordinate Z) dei punti collimati.
Sempre in accordo alla presente invenzione à ̈ possibile fornire un apparato di restituzione fotogrammetrica assistita da nuvola di punti come definito nella rivendicazione 9.
Grazie alla presente invenzione à ̈ possibile fornire un metodo per determinare facilmente i disallineamenti fra oggetti dell’immagine stereoscopica e la nuvola di punti.
Le caratteristiche ed i vantaggi della presente invenzione risulteranno evidenti dalla seguente descrizione dettagliata di una sua forma di realizzazione pratica, illustrata a titolo di esempio non limitativo negli uniti disegni, nei quali:
la figura 1 mostra schematicamente la disposizione di mezzi di ripresa di un area per l’acquisizione delle immagini utili alla formazione dell’immagine stereoscopica; la figura 2 à ̈ uno schema a blocchi dell’apparato per la produzione di immagini stereoscopiche assistite da nuvole di punti in accordo alla presente invenzione;
le figure 3-5 mostrano immagini che si ottengono con il metodo in accordo all’invenzione.
Con riferimento alla figura 2 à ̈ mostrato uno schema a blocchi dell’apparato di restituzione fotogrammetrica assistita da nuvola di punti in accordo alla presente invenzione. L’apparato comprende mezzi informatici 3 comprendenti una memoria 31 dove à ̈ installato un software 100 ed un microprocessore 32 ed uno schermo 5; il software 100 à ̈ capace di implementare un metodo di restituzione fotogrammetrica assistita da nuvola di punti.
Il metodo comprende la visualizzazione contemporanea su uno schermo 5 dell’insieme 50 di un’immagine stereoscopica 33 e di una nuvola di punti 34 acquisita su una data area 2. L’ immagine stereoscopica deriva da almeno una coppia di immagini fotogrammetriche 11 acquisite su detta data area 2 ed orientate nello stesso sistema di coordinate della nuvola di punti. Il metodo comprende il collegamento in tempo reale della marca di collimazione deH’immagine stereoscopica 33 con la corrispondente marca di collimazione della nuvola di punti 34.
L’immagine stereoscopica deriva da almeno una coppia di immagini fotogrammetriche 11 acquisite sull’ area 2. Le immagini 11 vengono ottenute dai mezzi di ripresa 1 atti a riprendere la zona o area 2 e sono immagini digitali; le immagini 11 possono essere anche immagini analogiche che vengono rese digitali.
Il dispositivo 3 comprende una memoria 31 dove à ̈ installato ed à ̈ in esecuzione il software applicativo 100; detta memoria à ̈ in comunicazione con un microprocessore 32. I mezzi 3 possono anche elaborare le immagini 11 per ottenere un’immagine stereoscopica 33.
La nuvola di punti 34 viene ottenuta preferibilmente mediante un laser scanner 4 con tecnica di telerilevamento LiDAR, atto a puntare la stessa zona 2; la nuvola di punti 34 à ̈ un’ insieme di punti definiti in coordinate tridimensionali della zona 2. L’acquisizione delle immagini 11 e della nuvola di punti 34 può avvenire contemporaneamente o in modo che siano successive l’una all’altra
La nuvola di punti 34 Ã ̈ orientata in un determinato modo su un sistema di coordinate, ad esempio su un sistema di coordinate cartesiane X, Y e Z e le immagini 11 devono essere orientate nello stesso sistema di coordinate. Detta immagine stereoscopica 33 Ã ̈ pertanto allineata con la nuvola di punti 34.
Il software applicativo 100 consente la visualizzazione su un display 5 dell’insieme 50 dell’immagine stereoscopica 33 e della nuvola di punti 34; nella figura 3 à ̈ visibile l’insieme di un’immagine stereoscopica 33 di un paesaggio con una casa 54 abbinata alla nuvola di punti 34.
Il software applicativo 100 consente il collegamento in tempo reale della marca di collimazione S dell’immagine stereoscopica 33 con la corrispondente marca di collimazione S’ della nuvola di punti 34. La marca di collimazione à ̈ il punto indicato o puntato da un puntatore che può scorrere sull’ immagine 33 e sulla nuvola di punti 34, ad esempio un cursore. La marca di collimazione S dell’immagine stereoscopica 33 à ̈ agganciata alla marca di collimazione S’ della nuvola di punti 34 così che ogni spostamento sugli assi X, Y e Z della marca di collimazione S sull’immagine stereoscopica 33 provoca uno spostamento uguale della marca di collimazione S’ della nuvola di punti 34. SuH’immagine stereoscopica 33 e sulla nuvola di punti 34 à ̈ possibile visualizzare linee e punti creati dall’utente che descrivono la geometria degli oggetti da acquisire (ad esempio i tetti degli edifici nella figura 3) allo scopo di valutarne la precisione di acquisizione in relazione all’immagine stereoscopica ed alla nuvola di punti. Mediante la visione abbinata dell’immagine stereoscopica 33 e della nuvola di punti 34 à ̈ possibile anche verificare disallineamenti fra esse e misurare la bontà dell’acquisizione sia per l’immagine stereoscopica che per la nuvola di punti.
Il metodo in accordo all’invenzione comprende il calcolo in tempo reale della profondità o coordinata Z della marca di collimazione S dell’immagine stereoscopica 33 in base alla profondità ricavata dalla nuvola di punti 34.
In tal modo le coordinate tridimensionali della marca di collimazione S vengono subito acquisite dato che lo stesso software ricava le coordinate X e Y, cioà ̈ le coordinate planari della marca di collimazione S, dall’ immagine stereoscopica 33 mentre la profondità , o in tal caso la coordinata Z, viene acquisita automaticamente dalla nuvola di punti 34. Se, ad esempio, la marca di collimazione S à ̈ sul vertice di un tetto di un edificio 54, le coordinate planari verranno date dall’ immagine stereoscopica 33 ma la profondità Z verrà ricavata in modo automatico dalla nuvola di punti 34.
Il calcolo della profondità Z può essere effettuato mediante diversi algoritmi. Con un primo algoritmo il calcolo della profondità Z viene effettuato ricercando il punto della nuvola di punti che à ̈ più vicino alla posizione della marca di collimazione S’ entro una certa distanza scelta dall’utente.
Con un altro algoritmo, in alternativa al primo, il software 100 può restituire una profondità Z calcolata su un piano medio interpolante i punti della nuvola 34 più vicini alla posizione della marca di collimazione S’ entro una certa distanza sempre scelta di volta in volta dall’utente.
Con un terzo algoritmo, in alternativa ai precedenti algoritmi, il software 100 può restituire una profondità Z calcolata in base alla media pesata delle coordinate Z dei punti della nuvola di punti che si trovano entro una certa distanza dalla marca di collimazione S’, con peso pari all’inverso della distanza che viene sempre scelta dall’utente.
Se i punti della nuvola sono classificati in base al tipo di punto (esempio : terreno, vegetazione, opere artificiali, ecc), l’utente può selezionare quali sono le classi da considerare per la ricerca e quali sono quelle da escludere.
Per ogni algoritmo, la ricerca dei punti entro una certa distanza dalla marca di collimazione S’ può avvenire in modo bidimensionale (quando si considerano solo le coordinate planari X,Y della marca di collimazione S’ e dei punti della nuvola per calcolare la distanza) oppure in modo tridimensionale (quando si considerano le coordinate planari e la profondità , cioà ̈ le coordinate Χ,Î¥,Ζ attuali della marca di collimazione S’ e le coordinate Χ,Î¥,Ζ dei punti della nuvola per calcolare la distanza).
In ogni caso, qualora la profondità Z calcolata in questo modo fosse giudicata non corretta, l’operatore può sempre disattivare la funzione e procedere alla determinazione manuale della quota, basandosi sulla visione stereoscopica deU’immagine 33.
In condizioni normali, quindi, l’operatore non deve fare altro che muovere la marca di collimazione S sull’immagine 33 ed il software 100 restituisce in tempo reale la profondità Z della posizione della marca di collimazione S, in accordo con la nuvola di punti, sulla base dei parametri di cattura impostati (il raggio di ricerca e le eventuali classi di punti escluse) e deU’algoritmo di ricerca impostato.
Il metodo in accordo all’invenzione consente una facilità nell 'interpretazione dei dettagli dalle immagini abbinata ad un’accuratezza della profondità determinata dalla nuvola di punti.
La nuvola di punti 34 può anche essere visualizzata stereoscopicamente impostando una coppia di proiezioni prospettiche che abbiano una certa parallasse fra loro, come visibile in figura 4.
L’acquisizione con visione abbinata à ̈ molto più rapida e speditiva rispetto alla acquisizione fotogrammetria tradizionale, in cui l’operatore deve manualmente determinare la profondità del punto e percepire che la marca di collimazione à ̈ appoggiata alla superficie.
Inoltre à ̈ molto più precisa e affidabile, perché la profondità Z proviene dalla nuvola di punti e la precisione di questo dato non dipende dal rapporto fra l’altezza H e la base di presa B e dall’abilità dell’operatore nell’impostare la posizione della profondità Z del cursore.
Infine, rispetto all’impiego della sola nuvola di punti, si ha una percezione dei dettagli molto maggiore.
Avendo a disposizione la visione stereoscopica, inoltre, l’operatore percepisce comunque la forma tridimensionale dell’oggetto che sta tracciando, per cui un eventuale errore accidentale, per esempio, nella cattura della profondità Z dalla nuvola di punti può essere facilmente diagnosticato ed eliminato alla fonte.
La dimensione nello schermo dell’immagine 33 e della nuvola di punti 34 può essere variata a piacimento. Per quanto riguarda la nuvola di punti 34, l’utente ha la possibilità di modificare la parallasse e l’angolo di apertura (FOV, fìeld of view) per enfatizzare l’effetto stereoscopico o ridurlo fino a eliminarlo del tutto e ha la possibilità di selezionare le classi di punti da visualizzare (nel caso di punti che abbiano anche l’attributo di classificazione). Sia nell’immagine stereoscopica 33 che nella nuvola di punti 34 à ̈ possibile visualizzare anche le linee e i punti creati dall’utente, che descrivono la geometria degli oggetti acquisiti (nella figura 4, per esempio, i cigli delle strade), allo scopo di valutarne la precisione di acquisizione in entrambi i casi (cioà ̈ in relazione al modello stereoscopico formato dalle immagini e in relazione alla nuvola di punti). I movimenti del cursore tridimensionale che modificano la scena nell’immagine 33 provocano una corrispondente modifica nella scena della nuvola di punti 34 in modo che esse risultino agganciate dal punto di vista del particolare inquadrato.
Per meglio comprendere i particolari (es. la forma di un tetto) l’utente può rappresentare i punti della nuvola 34 a scale sfalsate (enfatizzando la profondità Z) e può ruotare la scena della nuvola di punti 34 a piacere.
Tipicamente, però, la precisione in profondità della nuvola di punti à ̈ molto più alta di quanto si possa ottenere con la coppia di immagini, a causa dei valori del rapporto B/H (sopra descritto) che si usa nelle prese fotogrammetriche.
In casi normali, quindi, à ̈ possibile persino che dislivelli nettamente apprezzabili dalla nuvola di punti 34 non siano valutabili dal modello stereoscopico formato dalle immagini. Con questa tecnica tale problema à ̈ superato.
Il fatto di non dover impostare manualmente la quota del cursore mediante l’osservazione stereoscopica del modello formato dalle immagini rende questa tecnica molto più speditiva della tecnica fotogrammetrica classica.
Le condizioni normali di ripresa (fotogrammetrica e lidar) fanno sì che questa tecnica sia anche molto più precisa nella valutazione della profondità rispetto alla tecnica fotogrammetrica classica.
D’altra parte la sola nuvola di punti non à ̈ sufficiente a descrivere correttamente certi particolari (come per esempio lo spigolo di un fabbricato) come invece agevolmente si può fare con l’immagine stereoscopica.
La visione abbinata permette comunque sempre il controllo umano dell’operatore, che può validare il risultato e/o modificarlo.
Nella figura 5 si può vedere un riepilogo di questa tecnica utilizzata per acquisire la forma del tetto del fabbricato. I due livelli di zoom deH’immagine stereoscopica 33 con il diverso angolo di rotazione della nuvola di punti 34 aiutano ad apprezzare la qualità geometrica della linea di gronda acquisita.
Claims (10)
- RIVENDICAZIONI 1. Metodo di restituzione fotogrammetrica assistita da nuvola di punti, detto metodo comprendendo: la visualizzazione contemporanea su uno schermo (5) dell’insieme di un’immagine stereoscopica (33) e di una nuvola di punti (34) acquisita su una data area (2), detta immagine stereoscopica derivando da almeno ima coppia di immagini fotogrammetriche (11) acquisite su detta data area (2) ed orientate nello stesso sistema di coordinate della nuvola di punti, il collegamento in tempo reale della marca di collimazione (S) dell’immagine stereoscopica con la corrispondente marca di collimazione (S’) della nuvola di punti.
- 2. Metodo secondo la rivendicazione 1, caratterizzato dal fatto di comprendere il calcolo in tempo reale della profondità (Z) della marca di collimazione (S) dell’immagine stereoscopica (33) in base alla profondità ricavata dalla nuvola di punti (34).
- 3. Metodo secondo la rivendicazione 2, caratterizzato dal fatto che detto calcolo restituisce la profondità (Z) del punto della nuvola di punti (34) che à ̈ più vicino alla marca di collimazione (S’) entro una determinata distanza.
- 4. Metodo secondo la rivendicazione 2, caratterizzato dal fatto che detta profondità viene calcolata su un piano medio interpolante i punti della nuvola di punti (34) più vicini alla marca di collimazione (S’) entro una determinata distanza.
- 5. Metodo secondo la rivendicazione 2, caratterizzato dal fatto che detta profondità viene calcolata in base alla media pesata delle profondità dei punti della nuvola di punti che si trovano entro una certa distanza dalla marca di collimazione (S’), con peso pari all’inverso della distanza.
- 6. Metodo secondo una qualunque delle rivendicazioni da 3 a 5, caratterizzato dal fatto che detta ricerca di almeno un punto della nuvola di punti che si trova entro una determinata distanza dalla marca di collimazione (S’) avviene in modo bidimensionale considerando solo le coordinate planari (X, Y) di detto almeno un punto.
- 7. Metodo secondo una qualunque delle rivendicazioni da 3 a 5, caratterizzato dal fatto che detta ricerca di almeno un punto della nuvola di punti che si trova entro una determinata distanza dalla marca di collimazione (S’) avviene in modo tridimensionale considerando le coordinate planari (X, Y) e la profondità (Z) di detto almeno un punto.
- 8. Metodo secondo la rivendicazione 1, caratterizzato dal fatto di comprendere la formazione di un’immagine stereoscopica della nuvola di punti mediante impostazione di una coppia di proiezioni prospettiche che abbiano ima certa parallasse fra loro.
- 9. Apparato per la restituzione fotogrammetrica assistita da nuvola di punti, detto apparato comprendendo mezzi informatici (3) comprendenti una memoria (31) dove à ̈ installato un software (100) ed un microprocessore (33) ed uno schermo (5), detto software essendo capace di implementare un metodo per la restituzione fotogrammetrica assistita da nuvola di punti come definito in una qualunque delle precedenti rivendicazioni.
- 10. Apparato secondo la rivendicazione 9, caratterizzato dal fatto che detta nuvola di punti à ̈ prodotta da un laser scanner con tecnica di telerilevamento fidar.
Priority Applications (6)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
ITMI2009A000941A IT1395344B1 (it) | 2009-05-28 | 2009-05-28 | Metodo di restituzione fotogrammetrica assistita da nuvola di punti e relativo apparato. |
EP10724014.5A EP2435984B1 (en) | 2009-05-28 | 2010-05-26 | Point cloud assisted photogrammetric rendering method and apparatus |
BRPI1007662A BRPI1007662B1 (pt) | 2009-05-28 | 2010-05-26 | método e aparelho para renderização fotogramétrica assistida por nuvem de pontos |
US13/266,313 US9292922B2 (en) | 2009-05-28 | 2010-05-26 | Point cloud assisted photogrammetric rendering method and apparatus |
CA2760006A CA2760006C (en) | 2009-05-28 | 2010-05-26 | Point cloud assisted photogrammetric rendering method and apparatus |
PCT/EP2010/057226 WO2010136479A1 (en) | 2009-05-28 | 2010-05-26 | Point cloud assisted photogrammetric rendering method and apparatus |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
ITMI2009A000941A IT1395344B1 (it) | 2009-05-28 | 2009-05-28 | Metodo di restituzione fotogrammetrica assistita da nuvola di punti e relativo apparato. |
Publications (2)
Publication Number | Publication Date |
---|---|
ITMI20090941A1 true ITMI20090941A1 (it) | 2010-11-29 |
IT1395344B1 IT1395344B1 (it) | 2012-09-14 |
Family
ID=41820477
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
ITMI2009A000941A IT1395344B1 (it) | 2009-05-28 | 2009-05-28 | Metodo di restituzione fotogrammetrica assistita da nuvola di punti e relativo apparato. |
Country Status (6)
Country | Link |
---|---|
US (1) | US9292922B2 (it) |
EP (1) | EP2435984B1 (it) |
BR (1) | BRPI1007662B1 (it) |
CA (1) | CA2760006C (it) |
IT (1) | IT1395344B1 (it) |
WO (1) | WO2010136479A1 (it) |
Families Citing this family (23)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20120150573A1 (en) * | 2010-12-13 | 2012-06-14 | Omar Soubra | Real-time site monitoring design |
US10157495B2 (en) * | 2011-03-04 | 2018-12-18 | General Electric Company | Method and device for displaying a two-dimensional image of a viewed object simultaneously with an image depicting the three-dimensional geometry of the viewed object |
US9984474B2 (en) | 2011-03-04 | 2018-05-29 | General Electric Company | Method and device for measuring features on or near an object |
US10586341B2 (en) * | 2011-03-04 | 2020-03-10 | General Electric Company | Method and device for measuring features on or near an object |
US10019812B2 (en) | 2011-03-04 | 2018-07-10 | General Electric Company | Graphic overlay for measuring dimensions of features using a video inspection device |
US9875574B2 (en) * | 2013-12-17 | 2018-01-23 | General Electric Company | Method and device for automatically identifying the deepest point on the surface of an anomaly |
FR2976681B1 (fr) * | 2011-06-17 | 2013-07-12 | Inst Nat Rech Inf Automat | Systeme de colocalisation d'un ecran tactile et d'un objet virtuel et dispostif pour la manipulation d'objets virtuels mettant en oeuvre un tel systeme |
US9406138B1 (en) | 2013-09-17 | 2016-08-02 | Bentley Systems, Incorporated | Semi-automatic polyline extraction from point cloud |
US9600928B2 (en) | 2013-12-17 | 2017-03-21 | General Electric Company | Method and device for automatically identifying a point of interest on the surface of an anomaly |
US9818039B2 (en) | 2013-12-17 | 2017-11-14 | General Electric Company | Method and device for automatically identifying a point of interest in a depth measurement on a viewed object |
US9842430B2 (en) | 2013-12-17 | 2017-12-12 | General Electric Company | Method and device for automatically identifying a point of interest on a viewed object |
JP6296444B2 (ja) * | 2014-01-30 | 2018-03-20 | 国際航業株式会社 | 点群画像による図化方法、及び点群画像による図化装置 |
JP6446251B2 (ja) * | 2014-10-13 | 2018-12-26 | ゼネラル・エレクトリック・カンパニイ | 異常の表面上の関心点を自動的に識別するための方法およびデバイス |
JP6895382B2 (ja) * | 2015-03-17 | 2021-06-30 | ゼネラル・エレクトリック・カンパニイ | 観視対象の3次元形状を描画する画像と同時に観視対象の2次元画像を表示するための方法および機器 |
US10038838B2 (en) * | 2015-05-29 | 2018-07-31 | Hover Inc. | Directed image capture |
JP7098271B2 (ja) * | 2016-02-08 | 2022-07-11 | ゼネラル・エレクトリック・カンパニイ | 視認物体上の関心点を自動的に識別する方法 |
EP3440428B1 (en) | 2016-04-08 | 2022-06-01 | Orbital Insight, Inc. | Remote determination of quantity stored in containers in geographical region |
US10217236B2 (en) | 2016-04-08 | 2019-02-26 | Orbital Insight, Inc. | Remote determination of containers in geographical region |
CN107871129B (zh) * | 2016-09-27 | 2019-05-10 | 北京百度网讯科技有限公司 | 用于处理点云数据的方法和装置 |
US10473766B2 (en) | 2017-03-13 | 2019-11-12 | The Charles Stark Draper Laboratory, Inc. | Light detection and ranging (LiDAR) system and method |
CN108734120B (zh) * | 2018-05-15 | 2022-05-10 | 百度在线网络技术(北京)有限公司 | 标注图像的方法、装置、设备和计算机可读存储介质 |
US10679367B2 (en) * | 2018-08-13 | 2020-06-09 | Hand Held Products, Inc. | Methods, systems, and apparatuses for computing dimensions of an object using angular estimates |
US20240062382A1 (en) * | 2022-08-17 | 2024-02-22 | Baker Hughes Holdings Llc | Measuring a feature near the edge of an object |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE19746639A1 (de) * | 1997-10-22 | 1999-05-06 | Gta Geoinformatik Gmbh | Verfahren zur digitalen Erfassung räumlicher Objekte und Szenen für eine 3D-Bildkarte sowie 3D-Bildkarte |
US20020060784A1 (en) * | 2000-07-19 | 2002-05-23 | Utah State University | 3D multispectral lidar |
EP1505547A2 (en) * | 2003-08-05 | 2005-02-09 | De Rerum Natura S.r.L. Engineering | Method for surveying, processing and making use of data concerning the topographic conformation and the morphology of land and road network |
Family Cites Families (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5886702A (en) * | 1996-10-16 | 1999-03-23 | Real-Time Geometry Corporation | System and method for computer modeling of 3D objects or surfaces by mesh constructions having optimal quality characteristics and dynamic resolution capabilities |
US7317456B1 (en) * | 2002-12-02 | 2008-01-08 | Ngrain (Canada) Corporation | Method and apparatus for transforming point cloud data to volumetric data |
US7586489B2 (en) * | 2005-08-01 | 2009-09-08 | Nvidia Corporation | Method of generating surface defined by boundary of three-dimensional point cloud |
US7864175B2 (en) * | 2006-03-09 | 2011-01-04 | Ambercore Software Inc | Fast gridding of irregular data |
JP5057734B2 (ja) * | 2006-09-25 | 2012-10-24 | 株式会社トプコン | 測量方法及び測量システム及び測量データ処理プログラム |
US8493389B2 (en) * | 2006-09-29 | 2013-07-23 | Koninklijke Philips Electronics N.V. | 3D connected shadow mouse pointer |
US8139863B1 (en) * | 2008-04-25 | 2012-03-20 | Hsu Shin-Yi | System for capturing, characterizing and visualizing lidar and generic image data |
US8690776B2 (en) * | 2009-02-17 | 2014-04-08 | Inneroptic Technology, Inc. | Systems, methods, apparatuses, and computer-readable media for image guided surgery |
-
2009
- 2009-05-28 IT ITMI2009A000941A patent/IT1395344B1/it active
-
2010
- 2010-05-26 US US13/266,313 patent/US9292922B2/en active Active
- 2010-05-26 EP EP10724014.5A patent/EP2435984B1/en active Active
- 2010-05-26 CA CA2760006A patent/CA2760006C/en not_active Expired - Fee Related
- 2010-05-26 WO PCT/EP2010/057226 patent/WO2010136479A1/en active Application Filing
- 2010-05-26 BR BRPI1007662A patent/BRPI1007662B1/pt not_active IP Right Cessation
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE19746639A1 (de) * | 1997-10-22 | 1999-05-06 | Gta Geoinformatik Gmbh | Verfahren zur digitalen Erfassung räumlicher Objekte und Szenen für eine 3D-Bildkarte sowie 3D-Bildkarte |
US20020060784A1 (en) * | 2000-07-19 | 2002-05-23 | Utah State University | 3D multispectral lidar |
EP1505547A2 (en) * | 2003-08-05 | 2005-02-09 | De Rerum Natura S.r.L. Engineering | Method for surveying, processing and making use of data concerning the topographic conformation and the morphology of land and road network |
Also Published As
Publication number | Publication date |
---|---|
BRPI1007662B1 (pt) | 2020-04-14 |
US20120069012A1 (en) | 2012-03-22 |
CA2760006A1 (en) | 2010-12-02 |
EP2435984B1 (en) | 2015-02-25 |
WO2010136479A1 (en) | 2010-12-02 |
BRPI1007662A2 (pt) | 2016-08-09 |
EP2435984A1 (en) | 2012-04-04 |
CA2760006C (en) | 2017-03-14 |
US9292922B2 (en) | 2016-03-22 |
IT1395344B1 (it) | 2012-09-14 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
ITMI20090941A1 (it) | Metodo di restituzione fotogrammetrica assistita da nuvola di punti e relativo apparato. | |
Carvajal-Ramírez et al. | Virtual reconstruction of damaged archaeological sites based on Unmanned Aerial Vehicle Photogrammetry and 3D modelling. Study case of a southeastern Iberia production area in the Bronze Age | |
KR102001728B1 (ko) | 스테레오 카메라 드론을 활용한 무기준점 3차원 위치좌표 취득 방법 및 시스템 | |
US8422825B1 (en) | Method and system for geometry extraction, 3D visualization and analysis using arbitrary oblique imagery | |
US9330504B2 (en) | 3D building model construction tools | |
KR102007567B1 (ko) | 스테레오 드론 및 이를 이용하는 무기준점 토공량 산출 방법과 시스템 | |
US8958980B2 (en) | Method of generating a geodetic reference database product | |
US7944547B2 (en) | Method and system of generating 3D images with airborne oblique/vertical imagery, GPS/IMU data, and LIDAR elevation data | |
JP6238101B2 (ja) | 数値表層モデル作成方法、及び数値表層モデル作成装置 | |
KR20110068469A (ko) | 메타정보 없는 단일 영상에서 3차원 개체정보 추출방법 | |
KR101105361B1 (ko) | 영상데이터와 라이다데이터의 기하학적 정합방법 및 그 장치 | |
CN108954017A (zh) | 基于增强现实技术的燃气管道泄漏检测系统 | |
US8395760B2 (en) | Unified spectral and geospatial information model and the method and system generating it | |
RU2562368C1 (ru) | Способ трёхмерного (3d) картографирования | |
Rönnholm et al. | Registration of laser scanning point clouds and aerial images using either artificial or natural tie features | |
Yilmaz | Close range photogrammetry in volume computing | |
KR101189167B1 (ko) | 메타정보 없는 단일 영상에서 3차원 개체정보 추출방법 | |
Huang et al. | Integration of mobile laser scanning data with UAV imagery for very high resolution 3D city modeling | |
KR100874425B1 (ko) | 옥외 광고물 크기 측정 시스템 및 이를 이용한 옥외광고물의 크기 측정방법 | |
Gao et al. | Visual research and determination of structural plane and free face of rock slopes | |
Kolecka | High-resolution mapping and visualization of a climbing wall | |
Varga et al. | Studying the accuracy of orthophotos on the example of various terrain models in study areas in Hungary | |
Jankauskienė et al. | Surface modelling of a unique heritage object: Use of UAV combined with camera and lidar for mound inspection | |
Radović | 3D MODELS OF OBJECTS IN PROCESS OF RECONSTRUCTION | |
JP2020017109A (ja) | ブレイクライン抽出プログラム、ブレイクライン抽出システム |