MX2010014049A - Registro de imagenes de nivel de calle para modelos de construccion tridimensional (3d). - Google Patents

Registro de imagenes de nivel de calle para modelos de construccion tridimensional (3d).

Info

Publication number
MX2010014049A
MX2010014049A MX2010014049A MX2010014049A MX2010014049A MX 2010014049 A MX2010014049 A MX 2010014049A MX 2010014049 A MX2010014049 A MX 2010014049A MX 2010014049 A MX2010014049 A MX 2010014049A MX 2010014049 A MX2010014049 A MX 2010014049A
Authority
MX
Mexico
Prior art keywords
building
image
model
data
detail
Prior art date
Application number
MX2010014049A
Other languages
English (en)
Inventor
Gur Kimchi
Kartik Chandra Muktinutalapati
Mark David Tabb
Pete Nagy
Zhaoquiang Bi
Original Assignee
Microsoft Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Family has litigation
First worldwide family litigation filed litigation Critical https://patents.darts-ip.com/?family=41445164&utm_source=google_patent&utm_medium=platform_link&utm_campaign=public_patent_search&patent=MX2010014049(A) "Global patent litigation dataset” by Darts-ip is licensed under a Creative Commons Attribution 4.0 International License.
Application filed by Microsoft Corp filed Critical Microsoft Corp
Publication of MX2010014049A publication Critical patent/MX2010014049A/es

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • G06T17/05Geographic models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • G06T7/33Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/75Determining position or orientation of objects or cameras using feature-based methods involving models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/20Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10032Satellite or aerial image; Remote sensing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30181Earth observation
    • G06T2207/30184Infrastructure
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30244Camera pose

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Software Systems (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computer Graphics (AREA)
  • Geometry (AREA)
  • Architecture (AREA)
  • Computer Hardware Design (AREA)
  • General Engineering & Computer Science (AREA)
  • Remote Sensing (AREA)
  • Image Processing (AREA)
  • Instructional Devices (AREA)
  • Image Analysis (AREA)
  • Processing Or Creating Images (AREA)

Abstract

Un punto de información de origen para datos de imagen puede registrarse de forma inexacta contra una ubicación geográfica absoluta. Un procedimiento para alinear datos de imagen y de modelo altamente exactos ajusta un punto de origen de los datos de imagen al hacer coincidir elementos en la imagen con elementos correspondientes del modelo. En una imagen de nivel de calle, pueden extraerse los horizontes de edificios y los horizontes correspondientes del modelo de edificio pueden colocarse sobre el horizonte basado en imagen. Al ajustar el punto de origen de la imagen, pueden alinearse los horizontes respectivos. El borde del edificio y la información de profundidad de fachada pueden coincidir similarmente al ajustar el punto de imagen de origen de la imagen. El punto de origen ajustado de la imagen puede utilizarse para entonces colocar automáticamente imágenes en los modelos para una corrida larga de imágenes.

Description

G1STR0 PE IMAGENES DE NIVEL DE CALLE PARA M CONSTRUCCION TRIDI ENSIONAL Í3D) ANTECEDENTES En muchos casos, la ubicación precisa de un vehí terminarse al utilizar una combinación de un receptor posicionamiento global (GPS) y una unidad de medid U). Las imágenes tomadas de un vehículo utilizando icación pueden registrarse para una ubicación úti didas de colocación proporcionadas por el GPS y la IM Sin embargo, las distorsiones de señal en cañon erancias mecánicas, desgaste, etc. pueden hacer que l portada de uno o más sensores de imagen sea dife icación real del sensor en una forma impredecible.
Un ejemplo de tal falta de coincidencia se ilustra BREVE DESCRIPCION PE LA INVENCION Un sistema y un método utilizan una combinación d caneo de alta resolución para alinear las imágenes le a modelos de edificio 3D al ajustar esquemáticame origen de los datos de imagen hasta que ocurre incidencia entre la imagen y el modelo de edificio. Ai sté de origen (por ejemplo, una ubicación de cámar po de imágenes que pueden alinearse de forma s ede proporcionarse exactitud adicional cuando se elige ra lados opuestos de una calle, proporcionando mayo datos para el procedimiento de alineación.
Las imágenes están alineadas con modelos 3D de e eden generarse al utilizar otra técnica, tal como ran reo (LIDAR). Las imágenes de nivel de calle (es decir 9 metros sobre el suelo) pueden complementarse p ubicación calculada y el costo recalculado. El costo i rresponde a la mejor coincidencia entre las car traídas y las características modeladas entonces se S ede almacenarse la ubicación de cámara correspo cedimiento puede incorporar imágenes a lo largo de imágenes que incluyen imágenes desde lados op mplo, ambos lados de una calle. A medida que se icación de fuente, el costo global más bajo para ágenes consideradas representa la posición absoluta r ra la cámara. La Figura 2 ilustra la alineación de i delo 3D 56 como un resultado de esta técnica.
BREVE DESCRIPCION PE LOS DIBUJOS La Figura 1 es una ilustración de la técnica previa d información de ubicación de origen incorrecta en al ntificación ele horizonte en otro punto en una corrida d La Figura 6 es una ilustración de identificación de a imagen de nivel de calle; La Figura 7 es un diagrama de bloques que ilustr icación de origen que utiliza datos de horizonte; La Figura 8 es una ilustración de horizonte que coín agen de nivel de calle; La Figura 9 es un diagrama de bloques que ilustra DAR y la identificación de borde de edificio; y La Figura 10 es un cuadro de flujo de un método igen de imagen para registro de imagen.
DESCRIPCION DETALLADA Aunque el siguiente texto establece una descripci numerosas modalidades diferentes, se debe ente Se debe entender que, a menos que, a menos que defina expresamente en esta patente al utilizar la or utiliza aquí, el término ' ' se define aquí para una oración similar, no hay intención de limitar el sig e término, ya sea expresamente o por implicación, má no o significado ordinario, y tal término no debe i ra estar limitado en alcance basándose en cualquier cha en cualquier sección de esta patente (diferente al reivindicaciones). Al grado que cualquier término me reivindicaciones al final esta patente se denomi tente en una forma consistente con un significado indi hace para la búsqueda de claridad únicamente para n lector, y se pretende que tal término de reivindi itado, por implicación o de otra forma, a ese ividual. Finalmente, a menos que se defina un e vindicación al mencionar la palabra "significa" y una fu nología actual, y consideraciones económicas, cuand r los conceptos y principios aquí descritos será fácil generar tales instrucciones de software y programas perimentación mínima. Por lo tanto, en el interés de nimización de cualquier riesgo de obscurecer los nceptos de acuerdo con la presente invención, l icional de tal software e ICs, si hay alguna, se li encial con respecto a los principios y concept dalidades preferidas.
Con referencia a la Figura 3, un sistema ilust plementar el método y aparato reclamado incluye un di mputo de propósito general en la forma de una compu s componentes mostrados en el perfil punteado técni n parte de la computadora 110, pero se utilizan para dalidad ilustrativa de la Figura 3. Los compone mputadora 110 pueden incluir, pero no están limit tema de alta velocidad 123 entre el procesad moria/interfase de gráficos 121 y ta interfase l/ nductor común de lado frontal 124 entre la memoria/i ficos 121 y la memoria de sistema 130, y un conducto cesamiento de gráficos avanzado (AGP) 125 moria/interfase de gráficos 121 y el procesador de gr conductor común de sistema 123 puede ser cualquier 0S de estructuras de conductor común que incluyen, a mplo, y no de limitación, tales arquitecturas qu nductor común de Arquitectura de Estándar de Indu nductor común de Arquitectura de Microcanal (MCA) ISA mejorado (EISA). A medida que las arquitecturas olucionan, pueden utilizarse otras arquitecturas de mún y grupos de chips pero frecuentemente de for rrniten este patrón. Por ejemplo, las compañías tal c ID soportan la Arquitectura de Central de Intel mputadora incluyen tanto medios volátiles como n ovibles y no removibles implementados en cualquie nología para almacenamiento de información trucciones legibles por computadora, estructuras dulos de programa u otros datos. Los medios de alma r computadora incluyen, pero no se limitan a, RAM, RO moria flash u otra tecnología de memoria, CD-ROM, di ital (DVD) u otro almacenamiento de disco óptico gnéticos, cinta magnética, almacenamiento de disco os dispositivos de almacenamiento magnético, o cu dio que puede utilizarse para almacenar la informació e puede accederse por la computadora 110.
La memoria de sistema 130 incluye medios almacen mputadora en la forma de memoria volátil y/o no volá moria de sólo lectura (ROM) 131 y memoria de acce AM) 132. La ROM de sistema 131 puede contener datos La interfase de l/O 122 puede acoplar el conducto tema 123 con un número de otros conductores comunes 8 que acoplan una variedad de dispositivos internos y computadora 110. Un conductor común de interfase p rie (SPI) 126 puede conectarse a una memoria de trada/salida básico (BIOS) 133 que contiene las ruti e ayudan a transferir información entre elementos d mputadora 110, tal como durante el arranque.
Puede utilizarse un súper chip de entrada/salid ectarse a un número de periféricos de 'legado', tal xible 152, teclado/ratón 162, e impresora 196, como e per chip de l/O 160 puede estar conectado a la inter 2 con un conductor común 127, tal como un conducto enta de terminal baja (LPC), en algunas modalida dalidades del súper chip de l/O 160 están a ponibles en el mercado comercial. imo que es una interfase paralela compatible con teriores. En otras modalidades, el conductor común 12 conductor común de unión de tecnología avanzada ( ma de un conductor común de ATA en serie (SATA) o A ? T A ) .
La computadora 110 también puede incluir otros s elemento por computadora removibles/no látiles/no volátiles. A manera de ejemplo únicamente, stra una unidad de disco duro 140 que lee de o escrib gnéticos no removibles, no volátiles.
Los medios removibles, tal como una memoria d mún en serie universal (USB) 153, firewire (IEEE 139 CD/DVD 156 puede conectarse al conductor común ectamente o a través de una interfase 150. Los acenamiento 154 pueden acoplarse a través de la int ros medios de almacenamiento por computadora re mputadora 110. En la Figura 3, por ejemplo, la unid ro 140 se ilustra cómo almacenando el sistema ope gramas de aplicación 145, otros módulos de progr tos de programa 147. Se debe notar que estos c eden ser iguales o diferentes al sistema operativo 134, aplicación 135, otros módulos de programa 136, grama 137. El sistema operativo 144, programas de 5, otros módulos de programa 146, y datos de progra les proporciona números diferentes para ilustrar nimo, son copias diferentes. Un usuario puede ingresar información en la computadora 20 a través de un di trada tal como un ratón/teclado 162 u otra comb positivo de entrada. Otros dispositivos de entrada (no eden incluir un micrófono, palanca de mandos, alm gos, antena parabólica, escáner, o similares. Est positivos de entrada frecuentemente están con erfase de red (NIC) 170. La computadora remota 180 a computadora personal, un servidor, un enrutador, una dispositivo par u otro nodo de red común, y típicame chos o todos los elementos descritos anteriormente co computadora 110. La conexión lógica entre el NI mputadora remota 180 ilustrado en la Figura 3 puede de área local (LAN), una red de área ancha (WAN) ro también puede incluir otras redes. Tales ambientes e múnmente ubicados en oficinas, redes de computadora empresa, intranets, e Internet. La computadora remota resentar un servidor de web que soporta secciones n la computadora 110.
En algunas modalidades, la interfase de red puede dem (no ilustrado) cuando una conexión de banda an ponible o no se utiliza. Se apreciará que la conex strada es ilustrativa y pueden utilizarse otros m luyen edificios con exactitudes en el orden de 10 c nque tal modelo geográfico proporciona un recurso v a experiencia natural en una escena se puede requ regue un color y datos de textura a los modelo ografías de nivel de calle pueden proporcionar seado, pero, como se muestra en la Figura 1, cuand ográficos no están alineados apropiadamente con el ede resultar una confusión ininteligible. Los datos sados en calle pueden colocar la ubicación de fuente d ográficos con respecto al objeto de la fotografía (por ificio) dentro de un centímetro, pero la ubicación de la pecto a coordenadas geográficas, como se utiliza po pueden estar fuera por tanto como un metro o más. yectan datos de fotografía en un modelo 3D de un ntos de metros de altura, esta inexactitud de ubicació ede resultar fácilmente en la falta de coincidencia de la ervención.
La Figura 4 es un diagrama de bloques ntificación de horizonte en un punto en una corrida de calle 402 y en edificios representativos 404, 406, estran representando un ambiente de calle típico. U stra una trayectoria de corrida utilizada al captura agen a lo largo de la ruta 410. Las imágenes pueden ca ervalos periódicos a lo largo de la ruta. Una primera ub resentativa, cerca del inicio de la ruta 410, muestra resentativos 416, 418, y 420 de los edificios desde la la primera ubicación 412.
Una modalidad utiliza un algoritmo de detección d sado en un algoritmo de trayectoria óptimo conocido en I algoritmo depende de bordes, magnitud y dirección d í como bordes de clasificación de cielo e información svanecimiento. Por ejemplo, una combinación de borde modelo 3D.
La ilustración de las primeras y las segundas ubicac 4, respectivamente, ya que los cubos ilustran que l acta de la fuente de la imagen en ese punto en la rut timado en espacio tridimensional que puede ser má ciso, depende de la naturaleza del ambiente para r S y exactitud de IMU.
La Figura 1 es un diagrama de bloques ntificacion de horizonte en otro punto en una corrida como la corrida de imagen mostrada en la Figur teriormente, se muestra una calle 502 y edificios 504, a ruta 510 muestra la progresión de corrida de image la calle, con imágenes tomadas en intervalos a lo larg Ó, que incluye la primera ubicación 512 representativ cio y una segunda ubicación 514 representativa, cerca ruta 510. En algunas modalidades, pueden utili calle original.
La Figura 6 es una imagen de nivel de calle 602 rios edificios y su horizonte asociado. El horizonte de muestra con la línea blanca. La línea negra 606 re rizonte proyectado del modelo 3D sí la cámara realmen su ubicación reportada.
La Figura 7 muestra un edificio representativo rde de horizonte detectado 704. Un rango sobre el alizarse una fuente de imagen se representa por el c bo 706 puede centrarse en ta ubicación de la cáma istra por el equipo de GPS e IMU.
Como se ilustra en la Figura 7, los horizontes sados en datos de modelo 3D pueden compararse con tectado de la imagen. Por ejemplo, la primera proy ede localizarse desde una esquina izquierda superi 6, una segunda proyección 710 puede hacerse den ma falsa del horizonte. La ubicación de proyección a coincidencia más cercana entre horizontes de yectados puede seleccionarse y almacenarse, en este yección 710 representa la mejor coincidencia. Debid tos de IMU son extremadamente precisos a lo largo d una ruta dada, realizar la operación de ubicación al u sde la ruta dada puede utilizarse para reorientar la ru un cálculo.
La Figura 8 ilustra una imagen de nivel de calle 802 a pluralidad de horizontes proyectados 804 que erentes ubicaciones de cámara para generar los yectados 804.
La Figura 9 ilustra el uso de datos de LIDAR de ni ra complementar datos de horizonte para coincidencia edificio 902 puede capturarse en datos de image icación de cámara 904. Datos de borde 906 y 908, y El cálculo de la profundidad de LIDAR, para un s rrida, puede obtener primero modelos 3D de uno o m rcanos. Para cada edificio, las fachadas de edificio entadas al segmento de corrida y tienen una gran ár eden considerarse. Las posiciones de inicio y de rdes de cada sistema de fachada (en sistemas de c ales) se calculan basándose en el modelo de edific entos activadores de inicio y alto o que corresponden a las proyecciones de los bordes de fachada en el s rrida se calculan. Basándose en esta información la fachada del segmento de corrida puede obtenerse.
Los eventos activadores de inicio y alto se pasan a detección de profundidad de LIDAR. Las profundida nos dominantes encontrados se pasan de nuevo. minante que está más cerca de la fachada de int ntido de centro) se selecciona y se calcula la disparida tener modelos de edificio 3D para edificios en la cer gmento de corrida dado. Para cada edificio, los bor cularse al utilizar el modelo de geometría de edificio e coordenada local. Las posiciones de inicio y de alto d eventos activadores que corresponden al edificio se c Estos eventos activadores de inicio y de alto ju idad de LIDAR (de costado izquierdo o derecho) ividualmente a un módulo de detección de borde mbién, puede proporcionarse el lado del edificio de la fundidad de LIDAR. El módulo de detección de bord tecta el plano dominante alrededor del borde del cuentra el borde dependiendo del lado del edificio.
Los centros de los bordes detectados de LIDAR se p reso a las imágenes de observación de esquina milarmente, los puntos (que utilizan la misma altu mara, corresponden a la posición de esquina de ed eán los segmentos de corrida se consideran como cost borde de LIDAR. o figura de mérito, (en píxeles).
La Figura 10 ilustra un método 1000 para determin desplazamiento para una ubicación de fuente de datos el bloque 1002 puede cargarse un primer valor de des la ubicación de fuente. En el bloque 1004, una figur ra desplazamiento de horizonte entre un horizonte ext a imagen de fuente y un perfil calculado desde un rrespondiente. Puede utilizarse un número de imágene ra la figura de horizonte de cálculo de figura de mérit splazamiento de imagen de fuente que se prueba.
En el bloque 1006, puede calcularse una figura de borde de LIDAR y los datos de fachada al comparar l AR y datos de modelo 3D.
En el bloque 1008, las figuras de horizonte y de rito pueden calcularse. En una modalidad, simpl cución mínima actual puede seguir la ramificación 'no', robar valores de desplazamiento, la ejecución puede c bloque 1002.
Si se toma la ramificación 'sí' desde el bloque 1 que 1012, puede almacenarse el nuevo valor bajo pa mérito, así como el valor de desplazamiento que re evo valor bajo. Si se necesitan probar más splazamiento, la ejecución puede continuar en el bloqu Cuando se probaron todos los valores de desplaz lor de desplazamiento asociado con la figura de mérit ede utilizarse para corregir datos de corrida.
La capacidad de utilizar imágenes reales para f ificios modelados presta un nuevo nivel de reali ágenes 3D y las aplicaciones de geo localización. El nicas descritas anteriormente permite la automatizacio ría una tarea de división en etapas de coincidencia d scribe toda modalidad posible de la invención ya que e dalidad posible sería impráctico, sino es que imposi plementarse numerosas modalidades alternativas, nología actual o tecnología desarrollada después de sentación de esta patente, que aún caerá dentro del reivindicaciones que definen la invención.
De esa forma, pueden hacerse muchas modifi naciones en las técnicas y estructuras descritas e ilus apartarse del espíritu y alcance de la presente inv nsiguiente, se debe entender que los métodos de ap scritos son únicamente ilustrativos y no limitantes en el invención.

Claims (1)

  1. REIVINDICACIONES 1.- Un método para corregir datos de po mprende: asignar una ubicación de fuente a una imagen; determinar un detalle de edificio (504) de un edific imagen ; extraer un modelo de edificio (504) que correspond edificio (504) de un escaneo tridimensional; proyectar un detalle de modelo del modelo de edifi detalle de edificio (504) de la imagen; ajustar la ubicación de fuente hasta que el detalle 4) y el detalle de modelo coincidan dentro de un valor registrar una ubicación de fuente ajustada que star la ubicación de fuente, hasta que el detalle de e l detalle de modelo coinciden dentro del valor de límite terminar el detalle de edificio (504) en la imagen compr evaluar bordes y magnitud de gradiente; evaluar píxeles en una línea asociada con un svanecimiento; y estimar el detalle de edificio (504) desde el modelo 4). 5. - El método de acuerdo con la reivindicación 1, mprende seleccionar una pluralidad de imágenes que c dificios (404) de un segmento de corrida y de lados o gmento de corrida. 6. - El método de acuerdo con la reivindicación 5, mprende combinar datos de profundidad de edificio (5 horizonte (416) de edificio (504) cuando existe la 0) del detalle de modelo. 7. - El método de acuerdo con la reivindicación 1 erminar el detalle de edificio (504) comprende det rde (912) de edificio (504) de Ll DAR. 11. - El método de acuerdo con la reivindicación 1 star la ubicación de fuente comprende: ajustar una ubicación de fuente de punto de inici go tridimensional de punto de inicio al utilizar una pl ágenes para proyectar una pluralidad de detalles de mo ralidad correspondiente de detalles de edificio (504) agen. 12. - Un método para alinear datos de imagen a un ificio (504) que comprende: capturar información de edificio (504) de nivel de cal asignar una ubicación de fuente a la información 4) de nivel de calle (402); determinar un horizonte (516) de edificio (504), bor ificio (504), y una profundidad de fachada (910) de e la información de edificio (504) de nivel de calle (402); splazamiento a la ubicación de fuente; y alinear los datos de imagen al modelo de edi lizando la ubicación de fuente modificada por el splazamiento. 13. - El método de acuerdo con la reivindicación 2 l icar la función de figura de mérito comprende rizonte (516) de nivel de calle (402) y un horizonte (51 reos. 14. - El método de acuerdo con la reivindicación 1 licar la función de figura de mérito comprende a hada de nivel de calle (402) y una fachada de datos aé 15. - El método de acuerdo con la reivindicación 1 licar la función de figura de mérito comprende analiz 2) de edificio (504) de nivel de calle (402) y un bor ificio (504) de datos aéreos. 16. - Un medio de almacenamiento legible por c extraer un modelo de edificio (504) de datos rresponden a una ubicación asociada con la informació 4) de nivel de calle (402); aplicar una función de figura de mérito a rrespondientes de la información de edificio (504) de ni 2) y el modelo de edificio (504) basándose en los dato determinar un factor de desplazamiento basado en una salida de la función de figura de mérito; modificar la ubicación de fuente al aplicar el splazamiento a la ubicación de fuente; y alinear los datos de imagen de escena de calle (402 edificio (504) al utilizar la ubicación de fuente identifi tor de desplazamiento. 17,- El medio de almacenamiento legible por com uerdo con la reivindicación 16, en donde aplicar la ura de mérito comprende comparar el horizonte (516) uerdo con la reivindicación 16, en donde capturar la edificio (504) de nivel de calle (402) comprende captur o de una fotografía bidimensional y datos de r imensional (LIDAR). 20.- El medio de almacenamiento legible por com uerdo con la reivindicación 16, en donde aplicar una ura de mérito a elementos correspondientes de la inf ificio (504) de nivel de calle (402) y el modelo de ed sado en datos aéreos comprende aplicar una función d rito a elementos correspondientes de la información 4) de nivel de calle (402) y el modelo de edificio (504) los datos aéreos para una pluralidad de ubicaciones a a escena de calle (402) y combinar linealmente las pectivas de mérito para cada una de la pluralidad de u
MX2010014049A 2008-06-25 2009-05-20 Registro de imagenes de nivel de calle para modelos de construccion tridimensional (3d). MX2010014049A (es)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US12/145,515 US8284190B2 (en) 2008-06-25 2008-06-25 Registration of street-level imagery to 3D building models
PCT/US2009/044673 WO2009158083A2 (en) 2008-06-25 2009-05-20 Registration of street-level imagery to 3d building models

Publications (1)

Publication Number Publication Date
MX2010014049A true MX2010014049A (es) 2011-02-22

Family

ID=41445164

Family Applications (1)

Application Number Title Priority Date Filing Date
MX2010014049A MX2010014049A (es) 2008-06-25 2009-05-20 Registro de imagenes de nivel de calle para modelos de construccion tridimensional (3d).

Country Status (13)

Country Link
US (1) US8284190B2 (es)
EP (1) EP2289051B1 (es)
JP (1) JP5450619B2 (es)
KR (1) KR101629042B1 (es)
CN (1) CN102084398B (es)
AU (1) AU2009262925B2 (es)
BR (1) BRPI0913210A2 (es)
CA (1) CA2723875C (es)
MX (1) MX2010014049A (es)
MY (1) MY166106A (es)
RU (1) RU2010153345A (es)
WO (1) WO2009158083A2 (es)
ZA (1) ZA201007844B (es)

Families Citing this family (54)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20100061593A1 (en) * 2008-09-05 2010-03-11 Macdonald Willard S Extrapolation system for solar access determination
JP4560128B1 (ja) * 2009-08-13 2010-10-13 株式会社パスコ 地図画像統合データベース生成システム及び地図画像統合データベース生成プログラム
US20150278878A1 (en) * 2009-09-10 2015-10-01 Google Inc. System and method of displaying advertisements
EP2529357A4 (en) * 2010-01-26 2017-05-17 Saab AB A three dimensional model method based on combination of ground based images and images taken from above
US20110261187A1 (en) * 2010-02-01 2011-10-27 Peng Wang Extracting and Mapping Three Dimensional Features from Geo-Referenced Images
US8786845B2 (en) 2010-04-08 2014-07-22 Navteq B.V. System and method of generating and using open sky data
US9053562B1 (en) 2010-06-24 2015-06-09 Gregory S. Rabin Two dimensional to three dimensional moving image converter
US20120105581A1 (en) * 2010-10-29 2012-05-03 Sony Corporation 2d to 3d image and video conversion using gps and dsm
US8855911B2 (en) 2010-12-09 2014-10-07 Honeywell International Inc. Systems and methods for navigation using cross correlation on evidence grids
AU2011362799B2 (en) * 2011-03-18 2016-02-25 Apple Inc. 3D streets
US9746988B2 (en) * 2011-05-23 2017-08-29 The Boeing Company Multi-sensor surveillance system with a common operating picture
US9639757B2 (en) * 2011-09-23 2017-05-02 Corelogic Solutions, Llc Building footprint extraction apparatus, method and computer program product
US8818722B2 (en) 2011-11-22 2014-08-26 Honeywell International Inc. Rapid lidar image correlation for ground navigation
WO2013086137A1 (en) 2011-12-06 2013-06-13 1-800 Contacts, Inc. Systems and methods for obtaining a pupillary distance measurement using a mobile computing device
EP2639781A1 (en) * 2012-03-14 2013-09-18 Honda Motor Co., Ltd. Vehicle with improved traffic-object position detection
US20130314401A1 (en) 2012-05-23 2013-11-28 1-800 Contacts, Inc. Systems and methods for generating a 3-d model of a user for a virtual try-on product
US9483853B2 (en) 2012-05-23 2016-11-01 Glasses.Com Inc. Systems and methods to display rendered images
US9286715B2 (en) 2012-05-23 2016-03-15 Glasses.Com Inc. Systems and methods for adjusting a virtual try-on
US9157743B2 (en) 2012-07-18 2015-10-13 Honeywell International Inc. Systems and methods for correlating reduced evidence grids
US9183354B2 (en) * 2012-08-15 2015-11-10 Musc Foundation For Research Development Systems and methods for image guided surgery
WO2014112911A1 (en) 2013-01-21 2014-07-24 Saab Ab Method and arrangement for developing a three dimensional model of an environment
US9992021B1 (en) 2013-03-14 2018-06-05 GoTenna, Inc. System and method for private and point-to-point communication between computing devices
WO2014205757A1 (en) * 2013-06-28 2014-12-31 Google Inc. Systems and methods for generating accurate sensor corrections based on video input
CA2820305A1 (en) 2013-07-04 2015-01-04 University Of New Brunswick Systems and methods for generating and displaying stereoscopic image pairs of geographical areas
US11721066B2 (en) 2013-07-23 2023-08-08 Hover Inc. 3D building model materials auto-populator
AU2013222016A1 (en) * 2013-08-30 2015-03-19 Canon Kabushiki Kaisha Method, system and apparatus for determining a property of an image
WO2015061735A1 (en) 2013-10-25 2015-04-30 Hover Inc. Estimating dimensions of geo-referenced ground-level imagery using orthogonal imagery
US9424672B2 (en) 2013-11-07 2016-08-23 Here Global B.V. Method and apparatus for processing and aligning data point clouds
EP3066644A1 (en) * 2013-11-08 2016-09-14 Google, Inc. Image based location determination
US9704291B2 (en) 2013-11-08 2017-07-11 Here Global B.V. Structure model creation from a three dimensional surface
US10412594B2 (en) 2014-07-31 2019-09-10 At&T Intellectual Property I, L.P. Network planning tool support for 3D data
WO2016107989A1 (en) * 2014-12-31 2016-07-07 Aalto University Foundation Estimation of lower bounds for deviations of as-built structures from as-designed models
EP3271900A4 (en) 2015-03-17 2019-03-06 Environmental Systems Research Institute, Inc. INTERACTIVE DIMENSIONING OF PARAMETRIC MODELS
US10373343B1 (en) * 2015-05-28 2019-08-06 Certainteed Corporation System for visualization of a building material
US10178303B2 (en) * 2015-05-29 2019-01-08 Hover Inc. Directed image capture
US9507028B1 (en) * 2015-07-23 2016-11-29 Hyundai Motor Company Positioning apparatus and method for vehicle
CN105516584B (zh) * 2015-11-24 2019-07-05 中国科学院生态环境研究中心 全景影像采集系统、基于其的测量天际线的装置和方法
US10339193B1 (en) * 2015-11-24 2019-07-02 Google Llc Business change detection from street level imagery
US10430961B2 (en) * 2015-12-16 2019-10-01 Objectvideo Labs, Llc Using satellite imagery to enhance a 3D surface model of a real world cityscape
US10127685B2 (en) 2015-12-16 2018-11-13 Objectvideo Labs, Llc Profile matching of buildings and urban structures
US10223829B2 (en) 2016-12-01 2019-03-05 Here Global B.V. Method and apparatus for generating a cleaned object model for an object in a mapping database
US11127201B2 (en) * 2017-01-04 2021-09-21 Gaia3D Inc. Method for providing 3D GIS web services
US20180238690A1 (en) 2017-02-17 2018-08-23 The Charles Stark Draper Laboratory, Inc. Stellar-Landscape/Horizon Image Navigation
CN112815923B (zh) * 2019-11-15 2022-12-30 华为技术有限公司 视觉定位方法和装置
CN111192366B (zh) * 2019-12-30 2023-04-07 重庆市勘测院 用于建筑高度三维控制的方法及装置、服务器
US11734767B1 (en) 2020-02-28 2023-08-22 State Farm Mutual Automobile Insurance Company Systems and methods for light detection and ranging (lidar) based generation of a homeowners insurance quote
US11107244B1 (en) * 2020-04-17 2021-08-31 Applied Research Associates, Inc. Location determination in a GPS-denied environment with user annotation
US20210334538A1 (en) 2020-04-27 2021-10-28 State Farm Mutual Automobile Insurance Company Systems and methods for a 3d model for viewing potential placement of an object
US11678140B2 (en) 2020-06-29 2023-06-13 The United States Of America As Represented By The Secretary Of The Army Localization by using skyline data
CN111899512B (zh) * 2020-08-05 2021-04-27 深圳大学 结合天际线观测的车辆轨迹提取方法、系统及存储介质
KR102481537B1 (ko) * 2020-12-08 2022-12-23 주식회사 한화방산 영상 데이터와 지형 고도 데이터를 이용하여 이동체의 방위각 및 자세를 추정하는 장치 및 방법
KR102520189B1 (ko) * 2021-03-02 2023-04-10 네이버랩스 주식회사 무인 비행체 또는 항공기에 의해 촬영된 항공 영상에 기반하여 hd 맵을 생성하는 방법 및 시스템
CN113031041B (zh) * 2021-03-11 2022-06-10 南京航空航天大学 一种基于天际线匹配的城市峡谷组合导航定位方法
WO2023244978A1 (en) * 2022-06-14 2023-12-21 President And Fellows Of Harvard College Building as an instrumentation for data-driven building operation

Family Cites Families (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5652717A (en) 1994-08-04 1997-07-29 City Of Scottsdale Apparatus and method for collecting, analyzing and presenting geographical information
US5988862A (en) * 1996-04-24 1999-11-23 Cyra Technologies, Inc. Integrated system for quickly and accurately imaging and modeling three dimensional objects
JP3512992B2 (ja) * 1997-01-07 2004-03-31 株式会社東芝 画像処理装置および画像処理方法
US6420698B1 (en) 1997-04-24 2002-07-16 Cyra Technologies, Inc. Integrated system for quickly and accurately imaging and modeling three-dimensional objects
US6597818B2 (en) * 1997-05-09 2003-07-22 Sarnoff Corporation Method and apparatus for performing geo-spatial registration of imagery
US7509241B2 (en) 2001-07-06 2009-03-24 Sarnoff Corporation Method and apparatus for automatically generating a site model
US20030012410A1 (en) * 2001-07-10 2003-01-16 Nassir Navab Tracking and pose estimation for augmented reality using real features
US7103211B1 (en) * 2001-09-04 2006-09-05 Geometrix, Inc. Method and apparatus for generating 3D face models from one camera
US7693325B2 (en) * 2004-01-14 2010-04-06 Hexagon Metrology, Inc. Transprojection of geometry data
JP2005339127A (ja) * 2004-05-26 2005-12-08 Olympus Corp 画像情報表示装置及び画像情報表示方法
US7728833B2 (en) 2004-08-18 2010-06-01 Sarnoff Corporation Method for generating a three-dimensional model of a roof structure
US9049396B2 (en) 2004-09-29 2015-06-02 Hewlett-Packard Development Company, L.P. Creating composite images based on image capture device poses corresponding to captured images
IL164650A0 (en) 2004-10-18 2005-12-18 Odf Optronics Ltd An application for the extraction and modeling of skyline for and stabilization the purpese of orientation
US7616807B2 (en) 2005-02-24 2009-11-10 Siemens Corporate Research, Inc. System and method for using texture landmarks for improved markerless tracking in augmented reality applications
JP2007026201A (ja) 2005-07-19 2007-02-01 Sega Corp 画像処理装置、道路画像描画方法および道路画像描画プログラム
US7840032B2 (en) 2005-10-04 2010-11-23 Microsoft Corporation Street-side maps and paths
US7944547B2 (en) 2006-05-20 2011-05-17 Zheng Wang Method and system of generating 3D images with airborne oblique/vertical imagery, GPS/IMU data, and LIDAR elevation data
US7752018B2 (en) 2006-07-20 2010-07-06 Harris Corporation Geospatial modeling system providing building roof type identification features and related methods
US7831089B2 (en) 2006-08-24 2010-11-09 Microsoft Corporation Modeling and texturing digital surface models in a mapping application

Also Published As

Publication number Publication date
CN102084398A (zh) 2011-06-01
ZA201007844B (en) 2012-02-29
US8284190B2 (en) 2012-10-09
EP2289051A4 (en) 2013-09-11
EP2289051B1 (en) 2017-12-27
EP2289051A2 (en) 2011-03-02
JP5450619B2 (ja) 2014-03-26
CA2723875C (en) 2018-11-20
KR101629042B1 (ko) 2016-06-09
AU2009262925A1 (en) 2009-12-30
MY166106A (en) 2018-05-24
WO2009158083A2 (en) 2009-12-30
US20090322742A1 (en) 2009-12-31
AU2009262925B2 (en) 2014-06-26
CN102084398B (zh) 2013-09-25
JP2011526029A (ja) 2011-09-29
KR20110030641A (ko) 2011-03-23
RU2010153345A (ru) 2012-06-27
CA2723875A1 (en) 2009-12-30
WO2009158083A3 (en) 2010-04-01
BRPI0913210A2 (pt) 2016-01-12

Similar Documents

Publication Publication Date Title
MX2010014049A (es) Registro de imagenes de nivel de calle para modelos de construccion tridimensional (3d).
US11887247B2 (en) Visual localization
Chen et al. City-scale landmark identification on mobile devices
Toschi et al. Oblique photogrammetry supporting 3D urban reconstruction of complex scenarios
JP4488233B2 (ja) 映像オブジェクト認識装置、映像オブジェクト認識方法、および映像オブジェクト認識プログラム
JP4717760B2 (ja) 物体認識装置および映像物体測位装置
US20060195858A1 (en) Video object recognition device and recognition method, video annotation giving device and giving method, and program
Gao et al. Complete scene reconstruction by merging images and laser scans
AliAkbarpour et al. Parallax-tolerant aerial image georegistration and efficient camera pose refinement—without piecewise homographies
Kang et al. An automatic mosaicking method for building facade texture mapping using a monocular close-range image sequence
RU2612571C1 (ru) Способ и система распознавания городских объектов
Hartmann et al. Towards complete, geo-referenced 3d models from crowd-sourced amateur images
Meesuk et al. Using multidimensional views of photographs for flood modelling
Werner et al. Automated architecture reconstruction from close-range photogrammetry
Bourke Novel imaging of heritage objects and sites
Onyango Multi-resolution automated image registration
Hammoudi et al. A synergistic approach for recovering occlusion-free textured 3D maps of urban facades from heterogeneous cartographic data
KR102249380B1 (ko) 기준 영상 정보를 이용한 cctv 장치의 공간 정보 생성 시스템
Li et al. Error aware multiple vertical planes based visual localization for mobile robots in urban environments
Agosto et al. The castle of Graines: different survey methodologies for the documentation of historical buildings
Adekunle An Approach to Speeding Up Incremental Structure from Motion of Aerial Imagery for 3D Reconstruction Using Spatial Search and CUDA for the Open CV Library
Duraisamy et al. Robust 3D reconstruction using LiDAR and N-visual image
Li-Chee-Ming et al. Generation of dense 3D point clouds using a small quadcopter
KR20220032332A (ko) Cctv 장치 기반의 침수위 추정 시스템
Creusen et al. Exploration towards the modeling of gable-roofed buildings using a combination of aerial and street-level imagery

Legal Events

Date Code Title Description
FG Grant or registration