ES2780174T3 - Un procedimiento para clasificación automática de materiales y simulación de texturas para modelos 3D - Google Patents

Un procedimiento para clasificación automática de materiales y simulación de texturas para modelos 3D Download PDF

Info

Publication number
ES2780174T3
ES2780174T3 ES10828764T ES10828764T ES2780174T3 ES 2780174 T3 ES2780174 T3 ES 2780174T3 ES 10828764 T ES10828764 T ES 10828764T ES 10828764 T ES10828764 T ES 10828764T ES 2780174 T3 ES2780174 T3 ES 2780174T3
Authority
ES
Spain
Prior art keywords
texture
textures
model
image
computerized
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
ES10828764T
Other languages
English (en)
Inventor
Stephen Schultz
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Pictometry International Corp
Original Assignee
Pictometry International Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Pictometry International Corp filed Critical Pictometry International Corp
Application granted granted Critical
Publication of ES2780174T3 publication Critical patent/ES2780174T3/es
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • G06T17/05Geographic models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/005General purpose rendering architectures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/04Texture mapping
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/36Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory
    • G09G5/363Graphics controllers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • G06T1/60Memory management
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/001Texturing; Colouring; Generation of texture or colour

Abstract

Un procedimiento de un ordenador que transforma automáticamente un modelo 3D computarizado que tiene porciones de imágenes utilizadas como texturas de un objeto físico representado en el modelo 3D computarizado para incluir información de propiedad de material para una o más regiones de las texturas del modelo 3D computarizado, comprendiendo las etapas de: comparar, usando código ejecutable por ordenador operado en el ordenador, al menos una porción de una textura de imagen aplicada a un objeto físico representado por el modelo 3D computarizado a un conjunto finito de texturas dado de entradas de materiales en una paleta de materiales almacenada en un medio legible por ordenador, representando cada textura del conjunto finito de texturas un tipo particular de material físico, para determinar una textura del conjunto finito de texturas que es una mejor coincidencia para la textura de imagen, en el que cada textura del conjunto finito de texturas se pixela para igualar la resolución de la textura de imagen antes de la comparación; asignar la textura a partir del conjunto finito de texturas que mejor coincide con la textura de imagen a la porción de la textura de imagen para indicar el tipo de material físico del objeto físico representado por el modelo 3D computarizado; y almacenar información de propiedad de material del tipo de material físico en el modelo 3D computarizado para cada una de las texturas de imagen a las que se les ha asignado una textura del conjunto finito de texturas.

Description

DESCRIPCIÓN
Un procedimiento para clasificación automática de materiales y simulación de texturas para modelos 3D
Antecedentes de la invención
1. Campo de la invención
La presente invención se refiere a un sistema de determinación de propiedades de material y a un procedimiento automatizado de asignación de propiedades de material a texturas de imagen dentro de un modelo tridimensional (3D). Más particularmente, pero no a modo de limitación, la presente invención utiliza una metodología automatizada para determinar y asignar propiedades de material a texturas de imágenes aplicadas al modelo 3D comparando cada textura con entradas en una paleta de entradas de material y asignando la entrada de paleta de material que coincide mejor con la contenida en la textura de imagen del modelo 3D.
2. Antecedentes de la técnica
En la industria de la teledetección o de formación de imágenes aéreas, las imágenes se utilizan para capturar vistas de un área geográfica y poder medir objetos y estructuras dentro de las imágenes, así como para poder determinar ubicaciones geográficas de puntos dentro de la imagen. En general, se denominan "imágenes georreferenciadas" y se dividen en dos categorías básicas:
1. Imágenes capturadas: estas imágenes tienen la apariencia de que fueron capturadas por la cámara o el sensor empleado.
2. Imágenes proyectadas: estas imágenes se han procesado y convertido de modo que se ajusten a una proyección matemática.
Todas las imágenes comienzan como imágenes capturadas, pero como la mayoría del software no puede georreferenciar las imágenes capturadas, esas imágenes se reprocesan para crear las imágenes proyectadas. La forma más común de imágenes proyectadas es la imagen ortorectificada. Este procedimiento alinea la imagen a una cuadrícula ortogonal o rectilínea (compuesta de rectángulos). La imagen de entrada utilizada para crear una imagen ortorectificada es una imagen nadir, es decir, una imagen capturada con la cámara apuntando hacia abajo.
A menudo es bastante deseable combinar múltiples imágenes en una imagen compuesta más grande de modo que la imagen cubra un área geográfica más grande en el suelo. La forma más común de esta imagen compuesta es la "imagen ortomosaica", que es una imagen creada a partir de una serie de imágenes nadir superpuestas o adyacentes que se combinan matemáticamente en una sola imagen ortorectificada.
Los avances tecnológicos dentro de la industria del modelado tridimensional computarizado están proporcionando vías para la simulación física de situaciones reales e hipotéticas en sistemas informáticos. Estos modelos pueden proporcionar información valiosa para la planificación estratégica y táctica. Por ejemplo, los modelos tridimensionales de calles de ciudad pueden proporcionar información de primeros auxilios con respecto a los desarrollos actuales de la ciudad, incluyendo ubicaciones de entradas, reconocimiento de edificios y similares. Esta información es valiosa para reducir el tiempo de respuesta durante condiciones de emergencia. Además, el personal de emergencia puede entrenar para situaciones de emergencia a través de escenarios simulados proporcionados por o con los modelos tridimensionales.
La introducción de imágenes oblicuas métricas por Pictometry International Corp ha llevado a la creación de modelos 3D computarizados muy realistas mediante el uso de regiones dentro de imágenes oblicuas como texturas en los edificios, estructuras y objetos en los modelos 3D. Esta práctica no solo da como resultado modelos 3D computarizados que son visualmente agradables, sino que también contienen información sobre los objetos en sí mismos, incluyendo pistas sobre la composición del material utilizado para construir esos objetos.
La identificación de la composición del material es muy importante cuando se utilizan los modelos 3D para simular situaciones reales e hipotéticas en sistemas informáticos, tales como simulaciones de explosión, penetración de armas, propagación de ondas de radio, reflectividad de señal y otros estudios científicos donde la composición del material entra en juego en los cálculos. Tradicionalmente, las propiedades de estos materiales se han introducido a mano en un procedimiento muy laborioso en el que un operador selecciona un edificio u objeto individual en el modelo y luego asigna el material de construcción apropiado. Antes de la creación de modelos 3D fotorrealistas a partir de imágenes oblicuas, este procedimiento podría incluso incluir visitas de campo para determinar la composición del material.
Es altamente deseable automatizar este procedimiento, por dos razones principales: velocidad de producción y ahorro de costes. Sin embargo, hasta la fecha, un procedimiento automatizado ha sido difícil porque, aunque el reconocimiento de objetos o materiales es un procedimiento bastante fácil para las personas, es muy difícil para los ordenadores. Hasta la fecha, la mayoría de los intentos de clasificación automatizada de materiales se han concentrado en la recolección de imágenes multiespectrales con la esperanza de que suficientes firmas de color puedan identificar de manera única cada material. Sin embargo, en la mayoría de los casos, los datos multiespectrales no están disponibles o se limitan a solo unas pocas bandas de color y, por lo tanto, son insuficientes para diferenciar entre materiales.
El documento de patente US 2008/0221843 describe un procedimiento y un sistema informático para el modelado tridimensional de alta fidelidad de un entorno urbano a gran escala por un gran número de modeladores 3D, cada uno de los cuales usa una estación de trabajo de modelado. Se obtienen imágenes del entorno urbano, que contienen pares estereofónicos aéreos verticales, imágenes aéreas oblicuas, imágenes a nivel de calle y escaneos láser terrestres. También se adquieren los metadatos relacionados con el rendimiento, la ubicación espacial y la orientación de sensores de imágenes que proporcionan las imágenes. Los píxeles que representan puntos de control de tierra y puntos de enlace se identifican en cada instancia de las imágenes donde se han capturado los puntos de control de tierra y los puntos de enlace. Las instancias de las imágenes se registran conjuntamente utilizando los puntos de control del suelo, los puntos de enlace y los metadatos, y las imágenes registradas conjuntamente se registran en un sistema de coordenadas estándar común. Los procedimientos de procesamiento previo de datos y modelado 3D se aplican para crear el modelo 3D de alta fidelidad de un entorno urbano a gran escala. Los modeladores 3D pueden usar software de modelado 3D con complementos para automatizar algunas de las tareas de modelado para crear modelos 3D de cada edificio. Se puede usar una herramienta de creación de detalles interactiva para agregar detalles de construcción (como puertas, ventanas, etc.) y los modeladores 3D pueden usar un modificador de textura para crear texturas, modificar texturas o recuperar texturas anteriores de una biblioteca de texturas y luego pegar las texturas en el modelo 3D del edificio.
El documento de patente US 6735557 describe un conjunto de LUT (Tablas de Consulta) especialmente configuradas que se utilizan en una porción rasterizadora de un sistema gráfico para simular la Percepción de Terreno Asistida por Sensor (SaPOT) para que la simulación de la imagen producida por un sensor determinado pueda avanzar rápidamente y con buena precisión a un nivel de resolución por texel (elemento de textura). La memoria que define los texeles del terreno se proporciona con una pluralidad de registros de texel direccionables donde cada registro contiene: (a) uno o más campos de identificación de material (MID); (b) uno o más campos de mezcla (MIX) para definir proporciones de mezcla para los materiales; y (c) datos que definen una pendiente para definir una pendiente superficial o normal del texel correspondiente.
El documento de patente US 5710878 describe un procedimiento para recopilar, gestionar, manipular y verificar datos durante la construcción de un entorno virtual, y reprocesar automáticamente el subconjunto de datos necesario para producir un recurso para su uso por un programa de simulación. El procedimiento proporciona la aplicación repetida de un material designado a elementos comúnmente designados de múltiples objetos. Una vez que el material ha sido designado para ser aplicado a un elemento particular de un objeto, la aplicación a otros objetos se facilita mediante la designación del elemento común. Este procedimiento reduce significativamente la cantidad de trabajo repetitivo del artista relacionado con las operaciones iterativas realizadas.
Sumario de la invención
Un primer aspecto de la invención proporciona un procedimiento para transformar automáticamente un modelo 3D computarizado como se define en la reivindicación 1.
Un segundo aspecto de la invención proporciona un medio legible por ordenador como se define en la reivindicación 7.
Un tercer aspecto de la invención proporciona un sistema como se define en la reivindicación 8.
La invención permite la creación automatizada de un modelo 3D que tiene (1) una apariencia natural, (2) información de material almacenada en el modelo 3D y (3) es preferentemente georreferenciada para mantener la capacidad de medir y determinar coordenadas geográficas. Si bien la realización preferente utiliza imágenes oblicuas aéreas para las texturas, la invención también funcionará con imágenes oblicuas no aéreas capturadas de varias maneras, que incluyen, entre otras, cámaras montadas oblicuamente en un poste vertical, cámaras manuales apuntadas oblicuamente, y cámaras montadas en ángulos oblicuos en una sonda submarina, así como otros tipos de imágenes, como imágenes nadir.
El procedimiento transforma automáticamente un modelo 3D computarizado que tiene regiones de imágenes utilizadas como texturas en uno o más objetos físicos representados en el modelo 3D (como la construcción de revestimientos y techos, paredes, paisajes, laderas de montañas, árboles y similares) para incluir información de propiedad de material para una o más regiones de las texturas del modelo 3D. Las texturas de imagen aplicadas al modelo 3D se examinan mediante la comparación, utilizando un ordenador, de al menos una porción de cada textura de imagen con las entradas en una paleta de entradas de material. La entrada de paleta de materiales que mejor coincide con la contenida en la textura de imagen se asigna para indicar un material físico del objeto físico representado por el modelo 3D. Luego, la información de propiedad de material se almacena en el modelo 3D computarizado para las texturas de imagen a las que se les asigna una entrada de paleta de materiales.
Para mejorar la comparación entre la textura y las entradas en la paleta de materiales, las entradas en la paleta de materiales se pueden modificar de modo que su resolución de imagen coincida con la resolución de imagen contenida en las texturas de imagen del modelo 3D antes de la comparación.
La información de propiedad de material almacenada en el modelo 3D computarizado se puede almacenar en campos en los datos del modelo 3D computarizado directamente, o un identificador único para la entrada de paleta de material seleccionada, o una dirección de información donde la entrada de paleta de material seleccionada (o propiedad de material) se almacena o identifica, u otra información asociada con una entrada de paleta de materiales se puede almacenar en los datos del modelo 3D y posteriormente se puede utilizar para recuperar la información de propiedad de material de una lista o base de datos de propiedades de material.
Las entradas en la paleta de entradas de material se pueden utilizar para texturizar uno o más de los objetos físicos dentro del modelo 3d computarizado. Es decir, una vez que se asigna la entrada de paleta de materiales que mejor coincide con la contenida en la textura de imagen para indicar un material físico del objeto físico representado por el modelo 3D, la entrada de paleta de materiales se puede utilizar como una textura simulada para reemplazar o mejorar la textura de uno o más objetos físicos representados en el modelo 3D del modelo 3D.
Breve descripción de varias vistas de los dibujos
Para que las características y ventajas mencionadas anteriormente de la presente invención puedan entenderse en detalle, puede hacerse una descripción más particular de la invención, resumida antes brevemente, haciendo referencia a las realizaciones de la misma que se ilustran en los dibujos adjuntos. Sin embargo, debe observarse que los dibujos adjuntos ilustran solo realizaciones típicas de esta invención y, por lo tanto, no deben considerarse limitantes de su ámbito, ya que la invención puede admitir otras realizaciones igualmente efectivas.
El archivo de patente o solicitud contiene al menos un dibujo ejecutado en color. La Oficina proporcionará copias de la patente o de la publicación de la solicitud de patente con dibujos en color, previa solicitud y pago de la tasa necesaria.
La Figura 1 ilustra un modelo 3D computarizado ejemplar con texturas del mundo real alejadas para mostrar realismo fotográfico.
La Figura 2 ilustra una porción del modelo 3D computarizado representado en la Figura 1 ampliado de tal manera que las texturas están pixeladas.
La Figura 3 ilustra una parte del modelo 3D computarizado representado en la Figura 1 con una textura de construcción particular resaltada y delineada usando un algoritmo de detección de bordes.
La Figura 4 ilustra una paleta de materiales de construcción de acuerdo con la presente invención, mostrando su valor numérico de coincidencia en relación con la textura de construcción seleccionada de la Figura 3, con la puntuación más alta resaltada.
La Figura 5 ilustra el modelo 3D computarizado representado en la Figura 3 con una textura del mundo real reemplazada por una textura simulada de acuerdo con la presente invención, y las propiedades del material de construcción en una mesa a un lado.
La Figura 6 ilustra una parte del modelo 3D computarizado representado en la Figura 1 con el mundo real y las texturas simuladas combinadas de acuerdo con la presente invención.
La Figura 6A es un diagrama ampliado del modelo representado en la Figura 6.
La Figura 7 ilustra una parte del modelo 3D computarizado representado en la Figura 1 con dos ventanas particulares resaltadas y delineadas usando un algoritmo de detección de bordes de acuerdo con la presente invención.
La Figura 8 ilustra una paleta de imágenes ejemplar que representa una parte de un objeto físico, por ejemplo, representativo de los tipos de vidrio, con un valor numérico de coincidencia en relación con las ventanas seleccionadas de la Figura 7, con el puntaje más alto resaltado.
La Figura 9 ilustra el modelo 3D computarizado representado en la Figura 1 con las imágenes de las ventanas del mundo real reemplazadas por sus versiones simuladas.
La Figura 10 ilustra un modelo de análisis de explosión dentro de un modelo 3D.
La Figura 11 es un diagrama de bloques de un sistema informático como se usa en la presente invención.
Descripción detallada de la invención divulgada y reivindicada en la presente
Antes de explicar al menos una realización de la invención en detalle, debe entenderse que la invención no está limitada en su aplicación a los detalles de construcción, experimentos, datos ejemplares y/o la disposición de los componentes establecidos en la siguiente descripción o ilustrada en los dibujos. La invención es capaz de otras realizaciones o de ser practicada o llevada a cabo de varias maneras. Además, debe entenderse que la fraseología y la terminología empleadas en la presente memoria tienen fines descriptivos y no deben considerarse limitantes.
La(s) invención(es) actualmente reivindicada(s) y divulgada(s) se refiere(n) a un sistema de determinación de propiedades de material y a un procedimiento automatizado de asignación de propiedades de material a texturas de imagen dentro de un modelo 3D. Más particularmente, pero no a modo de limitación, la(s) invención(es) que se reivindica(n) y divulga(n) aquí utiliza(n) una metodología automatizada para determinar y asignar propiedades de material a texturas de imágenes aplicadas al modelo 3D comparando cada textura de imagen con entradas en una paleta de imágenes que representan entradas de material y asignando la imagen que representa la entrada de paleta de materiales que mejor coincide con la contenida en la textura de imagen del modelo 3D.
El término textura, como se usa en la presente memoria, se refiere a una imagen, por ejemplo, una imagen digital, que representa una superficie, un material, un patrón o incluso una imagen. La textura se puede crear de varias maneras, puede generarse a partir de una imagen capturada o proyectada, o generada por un artista o diseñador utilizando un software de edición de mapas de bits como Adobe® Photoshop® o Gimp o escaneando una imagen y, si es necesario o deseable, retocar, equilibrar el color o procesarla de otra manera en un ordenador, como un ordenador personal, un servidor dedicado o similar.
La textura puede estar en un formato adecuado, tal como un formato de mapa de bits o un formato vectorial. La textura se puede construir como una imagen grande, más grande que el destino final (como la página, por ejemplo) para llenar el área completa sin repetir la imagen (evitando así las costuras visibles). También se pueden crear texturas de mapa de bits para usarlas como patrones repetitivos para llenar un área infinita. Los bordes de estos patrones o texturas pequeñas deben tratarse para dar una apariencia perfecta cuando se aplican a una imagen, a menos que, por supuesto, la unión se deba de mostrar.
Cuando se diseñan para imprimir, las texturas deben crearse en alta resolución para lograr buenos resultados en la impresión final.
Cuando las texturas están destinadas a ser utilizadas en multimedia, un modelo 3D o diseño web, deben crearse en una resolución máxima que sea igual a la de la pantalla final (TV, monitor de ordenador, proyector de películas, etc.).
El término "paleta de entradas de material" como se usa en la presente memoria significa un conjunto finito dado de texturas representativas de las propiedades materiales de los materiales físicos. En particular, cada entrada de paleta de materiales representa un tipo particular de material físico. Como se analiza con más detalle a continuación, la entrada de paleta de materiales que mejor se adapta a una textura de imagen particular en el modelo 3D computarizado se asigna a la textura de imagen para indicar una propiedad del material del objeto físico representado por el modelo 3D.
El término "modelo 3D" como se usa en la presente memoria es una colección de datos que representa un objeto tridimensional que usa una colección de puntos en el espacio 3D, conectados por varias entidades geométricas tales como triángulos, líneas, superficies curvas, etc. En la técnica, las entidades geométricas a veces se denominan "esquemas" (wireframes). El modelo 3D se puede crear de forma manual o automática. Un procedimiento ejemplar para crear un modelo 3D se describe en una publicación de solicitud de patente de los Estados Unidos N.° US 2009-0141020 titulada "Systems and methods for rapid three-dimensional modeling with real facade texture (Sistemas y procedimientos para modelación rápida tridimensional con textura real de fachada)". El modelo 3D se puede construir de varias maneras, como sólido o envolvente, y puede ser un modelo 3D estacionario o animado.
En una versión, la presente invención se dirige a un procedimiento de transformación automática de un modelo 3D computarizado que tiene porciones de imágenes utilizadas como texturas en uno o más objetos físicos representados en el modelo 3D para incluir información de propiedad de material para una o más regiones de las texturas del modelo 3D. Consulte la Figura 1 como ejemplo de un modelo 3D de este tipo que tiene porciones de imágenes utilizadas como texturas de uno o más objetos físicos representados en el modelo 3D. En este procedimiento, las texturas de imagen aplicadas al modelo 3D (o para ser aplicadas al modelo 3D) se examinan mediante la comparación, utilizando un sistema informático 50 (véase la Figura 11 como se describe a continuación), al menos una porción de cada textura de imagen con entradas en una paleta de entradas de material. La entrada de paleta de materiales que mejor coincide con la contenida en la textura de imagen se asigna a la textura de imagen para indicar un material físico del objeto físico representado por el modelo 3D. Luego, la información de propiedad de material se almacena en el modelo 3D computarizado para las texturas de imagen a las que se les asigna una entrada de paleta de materiales.
Para mejorar la comparación entre las texturas de imagen y las entradas en la paleta de materiales, las entradas en la paleta de materiales se pueden modificar de modo que su resolución de imagen coincida con la resolución de imagen contenida en las texturas de imagen del modelo 3D antes de la comparación.
La información de propiedad de material almacenada en el modelo 3D computarizado se puede almacenar en campos en los datos del modelo 3D computarizado directamente, o un identificador único para la entrada de paleta de material seleccionada, o una dirección a la información donde la entrada de paleta de material seleccionada (o propiedad de material) se almacena o identifica, u otra información asociada con una entrada de paleta de materiales se puede almacenar en los datos del modelo 3D y posteriormente se utiliza para recuperar la propiedad del material o la información del elemento estructural de una lista o base de datos de propiedades de material. Por ejemplo, la propiedad del material o la información del elemento estructural se puede almacenar como metadatos dentro del modelo 3D, ya sea adjuntada al mismo archivo o en otro archivo fácilmente accesible (una práctica estándar de la industria es usar el mismo nombre de archivo, pero con una extensión de archivo diferente).
En otro aspecto de la presente invención, las entradas en la paleta de entradas de material pueden utilizarse para texturizar una o más de las texturas de imagen que representan los objetos físicos dentro del modelo 3D computarizado. Es decir, una vez que se asigna la entrada de paleta de materiales que mejor coincide con la textura de imagen para indicar un material físico del objeto físico representado por el modelo 3D, la entrada de paleta de materiales se puede utilizar como una textura simulada para reemplazar o mejorar la textura de imagen de uno o más objetos físicos representados en el modelo 3D.
Como se entendería en la técnica, la invención actualmente divulgada y reivindicada proporcionaría el procedimiento para hacer una clasificación de material usando imágenes en color (por ejemplo, bandas de color rojo, verde y azul) mediante el uso de imágenes oblicuas. Por ejemplo, las imágenes oblicuas en color se utilizan para proporcionar texturas de imagen iniciales para los modelos 3D y luego se compara una paleta de posibles materiales de construcción con la textura de imagen dentro del modelo 3D para asignar automáticamente propiedades de material a las porciones de las texturas de imagen contenidas en el modelo 3D que representa los objetos físicos, por ejemplo, los edificios. Estos procedimientos también proporcionan un medio para dimensionar y colocar automáticamente texturas simuladas de elementos estructurales, por ejemplo, ventanas, puertas o similares, en el modelo 3D en función de los detectados en las imágenes reales de texturas que representan los edificios.
Esta metodología ofrece una serie de ventajas. Primero, no hay necesidad de hacer una recopilación de datos especiales para hacer las determinaciones: se pueden usar imágenes oblicuas normales como texturas, como se describen la patente de EE. UU. N.° 5,247,356 titulada "Method and Apparatus for Mapping and Measuring Land (Procedimiento y aparato para mapear y medir tierras)". En segundo lugar, el procedimiento de la presente invención está altamente automatizado, requiriendo solamente un control de calidad y limpieza de cualquier identificación falsa. Tercero, al asignar las propiedades del material de construcción a la paleta de materiales disponibles, el modelo 3D resultante se puede usar para simulaciones de explosión y otros análisis que requieren conocimiento de la composición del material en el modelo. Cuarto, para aplicaciones que requieren texturas simuladas, la entrada de paleta de materiales puede reemplazar la textura oblicua real de la imagen en el modelo 3D, reduciendo así en gran medida el contenido de datos en la escena. Quinto, para aplicaciones que requieren vistas extremas de primer plano del modelo 3D, la entrada de paleta de materiales se puede usar para producir texturas de mayor resolución del edificio que las imágenes originales.
La metodología principal incluye la etapa de comparar una textura de construcción particular con una o más, y preferentemente cada una, de las entradas en la paleta de materiales y luego seleccionar la entrada con la mejor coincidencia. Para mejorar la tasa de éxito del procedimiento de correspondencia, las entradas en la paleta de materiales se pueden pixelar opcionalmente para que coincidan con la resolución de la textura real en el modelo 3D que representa el edificio. La Figura 2 muestra una parte de un edificio 20 que se muestra en la Figura 1 en la que la imagen se amplía para ilustrar el pixelado que puede ocurrir con diferentes resoluciones de imágenes. Esto ayudará a garantizar que el algoritmo no se confunda con las diferencias en la resolución y las diferencias en los patrones causadas por la resolución diferente.
Una metodología opcional secundaria utilizará un algoritmo de detección de bordes para analizar las texturas dentro del modelo 3d para localizar representaciones de elementos estructurales predeterminados, tales como características estructurales, ventanas y puertas, o la ausencia de un elemento estructural predeterminado, como un vacío o un agujero. Las Figuras 3 y 7 ilustran una característica estructural (superficie de construcción 22 en la Figura 3) y ventanas 24 (Figura 7) tal como son detectadas y descritas por el algoritmo de detección de bordes. Una vez que las representaciones de los elementos estructurales predeterminados se ubican dentro de las texturas, dichas representaciones de los elementos estructurales se hacen coincidir con las entradas en una paleta de texturas de elementos estructurales en una metodología similar a la discutida anteriormente para encontrar el elemento estructural que mejor coincida con la representación que se encuentra en la textura de imagen. En este enfoque, se registrará el tamaño y la posición del elemento estructural (superficie de construcción 22 en la Figura 3 o ventanas 24 en la Figura 7) y la entrada seleccionada se dimensionará y posicionará para que coincida.
En ambos procedimientos, la información del material o la información del elemento estructural añadida al modelo 3D de acuerdo con la presente invención, tal como la información del material de la entrada de paleta o la identificación, tamaño y posición del elemento estructural, pueden almacenarse en campos en los datos del modelo 3D computarizado directamente, o se pueden agregar uno o más identificadores únicos para la información del elemento material o estructural, o una dirección a la información donde se almacena o identifica la información del elemento material o estructural, u otra información asociada con una entrada de paleta de material o entrada de elemento estructural puede almacenarse en los datos del modelo 3D y posteriormente utilizarse para recuperar la información de propiedad de material o la información de elemento estructural de una lista o base de datos de propiedades de material.
En la práctica, la metodología divulgada y reivindicada en la presente memoria consiste en múltiples etapas y transformaciones de datos que puede realizar un experto en la técnica dada la presente especificación. Hay una serie de algoritmos ya conocidos en la técnica que pueden escanear las texturas dentro del modelo 3D para localizar los elementos estructurales. Además, el trabajo de seguimiento podría crear nuevos algoritmos diseñados específicamente para tratar las complejidades de las imágenes oblicuas.
Las texturas y las entradas en las paletas se pueden almacenar en cualquier formato; incluyendo uno de los muchos formatos de imagen estándar de la industria, como TIFF, JFIF, TARGA, Windows Bitmap File, PNG o cualquier otro formato estándar de la industria. Las Figuras 4 y 8 ilustran tales entradas de paleta en las que las texturas de imagen seleccionadas y resumidas en las Figuras 3 y 7 (la superficie de construcción 22 en la Figura 3 o las ventanas 24 en la Figura 7) se han comparado con las entradas de paleta y el valor de comparación resultante se indica junto a cada entrada de paleta. Como se entendería, la entrada de paleta con el valor de comparación más alto se seleccionaría como la entrada de paleta que corresponde a las texturas de imagen seleccionadas de las Figuras 3 y 7.
Como se discutió anteriormente, una metodología adicional de la presente invención permite la aplicación de la textura contenida en las entradas de paleta correspondientes a las texturas de imagen seleccionadas al modelo 3D para mejorar la resolución utilizable del modelo 3d . Como se entendería, la aplicación de la textura de la paleta al modelo 3D de la estructura permitiría al usuario de la presente metodología acercarse a la estructura particular, por ejemplo, el edificio 20 de la Figura 2, representado dentro del modelo 3D sin el pixelado que normalmente estaría presente. Por ejemplo, las Figuras 5 y 9 ilustran la aplicación de las texturas de la paleta a las texturas de imagen seleccionadas y resumidas de las Figuras 3 y 7 (superficie de construcción 22 en la Figura 3 o ventanas 24 en la Figura 7).
En una escala mayor, la Figura 6 ilustra el edificio 20 que se muestra en la Figura 2 en el que la imagen oblicua digital original aplicada y que representa el edificio dentro del modelo 3D ha sido completamente reemplazada por la textura de paleta como se describió anteriormente. La Figura 6A ilustra el mismo edificio 20 ampliado para mostrar la textura de la paleta con mayor detalle. Como se puede ver, la imagen ampliada en la Figura 6A está libre del pixelado normal como se muestra en la imagen ampliada de la Figura 2.
Como se describió anteriormente, a las texturas de imagen seleccionadas y delineadas también se les asignarían las propiedades del material asociadas con la entrada de paleta correspondiente a la textura de imagen. En el caso del edificio 20 que se muestra en la Figura 6, la textura de imagen reemplazada por la textura de paleta también incluiría las propiedades del material asociado.
En referencia ahora a la Figura 10, el modelo de salida también podría cargarse en una herramienta de análisis tal como TOPSCENE de Lockheed Martin con una pluralidad de cúpulas de amenaza 40 (mostradas individualmente como 40a-40e) superpuestas en la parte superior del modelo 3D. La atribución del material de construcción, es decir, la consideración de las propiedades del material de construcción, en el modelo 3D aumentaría la capacidad predictiva de un análisis de explosión o penetración balística. Se entenderá que las cúpulas de amenaza 40a-40e varían en tamaño dependiendo de la propiedad del material de construcción asignada a un edificio en particular para un análisis de penetración de explosión dado. Es decir, una herramienta de análisis podría tener en cuenta la propiedad de material asignada a la(s) estructura(s) al analizar diferentes escenarios, por ejemplo, un escenario de explosión, para proporcionar capacidades predictivas mejoradas. Por ejemplo, una explosión que ocurra dentro de una estructura construida con paredes de vidrio fácilmente se entenderá que da como resultado un escenario de explosión diferente que una explosión similar que ocurra dentro de una estructura construida con paredes de ladrillo.
Debe entenderse que los procedimientos descritos anteriormente pueden realizarse con la ayuda de un sistema informático 50 que ejecuta un software de procesamiento de imágenes adaptado para realizar las funciones descritas anteriormente, y las imágenes y datos resultantes se almacenan en uno o más medios legibles por ordenador. La Figura 11 ilustra un diagrama de bloques de una realización ejemplar de un sistema informático 50 construido de acuerdo con la presente invención. El sistema informático 50 incluye un procesador 52 en comunicación con un medio legible por ordenador 56, una interfaz de entrada/salida 54 y una interfaz de comunicación 58. La interfaz de entrada/salida 54 está además en comunicación con los dispositivos de entrada/salida 62a-d. Como se entendería en la técnica, el sistema informático 50 además puede utilizar dispositivos adicionales de entrada/salida (no mostrados) que permitirían a un usuario ingresar, procesar y emitir un modelo 3D construido de acuerdo con la presente invención. Por ejemplo, el sistema informático 50 podría además incluir una tableta digital, un escáner óptico, un medio externo legible por ordenador y similares.
La interfaz de comunicación 58 está en comunicación con la red de comunicación 60. La red de comunicación 60 proporciona un mecanismo para que el sistema informático 50 transmita y/o reciba información entre el sistema informático 50 y los dispositivos/sistemas externos, tales como imágenes digitales, modelos 3D y similares. La red de comunicación 60 se puede implementar utilizando cualquier medio de comunicación comúnmente disponible, como inalámbrico, cableado, TCP/IP, fibra óptica y similares.
El medio legible por ordenador 56 permite el almacenamiento y recuperación de información digital (datos) y también código ejecutable por ordenador como se utiliza en la presente invención. Los ejemplos de un medio legible por ordenador 56 incluyen un dispositivo de almacenamiento óptico, un dispositivo de almacenamiento magnético, un dispositivo de almacenamiento electrónico o similar.
Como se entendería en la técnica, el término "sistema informático" tal como se usa en la presente memoria significa un sistema o sistemas que pueden incorporar y/o ejecutar la lógica de los procedimientos descritos en la presente memoria. La lógica incorporada en forma de instrucciones de software o firmware puede ejecutarse en cualquier hardware apropiado que puede ser un sistema o sistemas dedicados, o un sistema informático de propósito general, o un sistema informático de procesamiento distribuido, todo lo cual se entiende bien en la técnica, y una descripción detallada de cómo hacer o usar tales ordenadores no se considera necesaria en la presente memoria. Cuando el sistema informático se utiliza para ejecutar la lógica de los procedimientos descritos en la presente memoria, dicho(s) ordenador(es) y/o ejecución pueden realizarse en una misma ubicación geográfica o en múltiples ubicaciones geográficas diferentes. Además, la ejecución de la lógica se puede realizar de forma continua o en múltiples momentos discretos. Además, dicha lógica puede realizarse aproximadamente simultáneamente con la captura de las imágenes, o posteriormente o de forma combinada.
Aunque la invención anterior se ha descrito con cierto detalle a modo de ilustración y ejemplo con fines de claridad de comprensión, será evidente para los expertos en la técnica que se pueden practicar ciertos cambios y modificaciones sin apartarse del alcance de la misma, tal como se define en las reivindicaciones adjuntas a continuación.

Claims (8)

REIVINDICACIONES
1. Un procedimiento de un ordenador que transforma automáticamente un modelo 3D computarizado que tiene porciones de imágenes utilizadas como texturas de un objeto físico representado en el modelo 3D computarizado para incluir información de propiedad de material para una o más regiones de las texturas del modelo 3D computarizado, comprendiendo las etapas de:
comparar, usando código ejecutable por ordenador operado en el ordenador, al menos una porción de una textura de imagen aplicada a un objeto físico representado por el modelo 3D computarizado a un conjunto finito de texturas dado de entradas de materiales en una paleta de materiales almacenada en un medio legible por ordenador, representando cada textura del conjunto finito de texturas un tipo particular de material físico, para determinar una textura del conjunto finito de texturas que es una mejor coincidencia para la textura de imagen, en el que cada textura del conjunto finito de texturas se pixela para igualar la resolución de la textura de imagen antes de la comparación;
asignar la textura a partir del conjunto finito de texturas que mejor coincide con la textura de imagen a la porción de la textura de imagen para indicar el tipo de material físico del objeto físico representado por el modelo 3D computarizado; y
almacenar información de propiedad de material del tipo de material físico en el modelo 3D computarizado para cada una de las texturas de imagen a las que se les ha asignado una textura del conjunto finito de texturas.
2. El procedimiento según la reivindicación 1, en el que la información de propiedad de material es almacenada en campos en el modelo 3D computarizado.
3. El procedimiento según la reivindicación 1, en el que la información de propiedad de material almacenada en el modelo 3D computarizado incluye un identificador único para la textura del conjunto finito de texturas y en el que el procedimiento además comprende la etapa de recuperar la información de propiedad de material de una lista o base de datos de propiedades de material utilizando el identificador único.
4. El procedimiento según la reivindicación 1, que además comprende la etapa de utilizar la textura asignada del conjunto finito de texturas como una textura simulada para al menos una de las texturas de imagen aplicadas al objeto físico representado por el modelo 3D computarizado para reemplazar o mejorar la al menos una textura de imagen, en el que la textura de imagen simulada simula la apariencia del tipo particular de material físico representado por la textura asignada.
5. El procedimiento según la reivindicación 4, en el que la textura simulada tiene una primera resolución de imagen mayor que una segunda resolución de imagen de la textura de imagen del modelo 3D computarizado.
6. El procedimiento según la reivindicación 1, en el que dicha comparación de dicha al menos una porción de dicha textura de imagen aplicada a un objeto físico al conjunto finito de texturas dado, además comprende:
crear valores de comparación para cada comparación de dicha textura de imagen con una textura en el conjunto finito de texturas dado; y
seleccionar la comparación con el valor de comparación más alto como la mejor coincidencia.
7. Un medio legible por ordenador (56) que almacena código ejecutable por ordenador que, cuando se ejecuta por un procesador, hace que el procesador lleve a cabo el procedimiento según cualquiera de las reivindicaciones 1 a 6.
8. Un sistema (50) que comprende:
un ordenador que comprende;
un procesador (52); y
el medio legible por ordenador (56) según la reivindicación 7.
ES10828764T 2009-10-26 2010-10-18 Un procedimiento para clasificación automática de materiales y simulación de texturas para modelos 3D Active ES2780174T3 (es)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US12/605,980 US9330494B2 (en) 2009-10-26 2009-10-26 Method for the automatic material classification and texture simulation for 3D models
PCT/US2010/053052 WO2011056402A2 (en) 2009-10-26 2010-10-18 A method for automatic material classification and texture simulation for 3d models

Publications (1)

Publication Number Publication Date
ES2780174T3 true ES2780174T3 (es) 2020-08-24

Family

ID=43898043

Family Applications (1)

Application Number Title Priority Date Filing Date
ES10828764T Active ES2780174T3 (es) 2009-10-26 2010-10-18 Un procedimiento para clasificación automática de materiales y simulación de texturas para modelos 3D

Country Status (7)

Country Link
US (6) US9330494B2 (es)
EP (2) EP3693931A1 (es)
AU (1) AU2010315698B2 (es)
BR (1) BR112012009880A2 (es)
CA (1) CA2778267C (es)
ES (1) ES2780174T3 (es)
WO (1) WO2011056402A2 (es)

Families Citing this family (61)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8145578B2 (en) 2007-04-17 2012-03-27 Eagel View Technologies, Inc. Aerial roof estimation system and method
US8078436B2 (en) 2007-04-17 2011-12-13 Eagle View Technologies, Inc. Aerial roof estimation systems and methods
US8731234B1 (en) 2008-10-31 2014-05-20 Eagle View Technologies, Inc. Automated roof identification systems and methods
US8209152B2 (en) 2008-10-31 2012-06-26 Eagleview Technologies, Inc. Concurrent display systems and methods for aerial roof estimation
US8170840B2 (en) 2008-10-31 2012-05-01 Eagle View Technologies, Inc. Pitch determination systems and methods for aerial roof estimation
US9330494B2 (en) * 2009-10-26 2016-05-03 Pictometry International Corp. Method for the automatic material classification and texture simulation for 3D models
AU2011210538B2 (en) 2010-02-01 2015-03-26 Eagle View Technologies, Inc. Geometric correction of rough wireframe models derived from photographs
US9741156B2 (en) 2011-09-08 2017-08-22 Microsoft Technology Licensing, Llc. Material trouble shooter
US9970890B2 (en) * 2011-10-20 2018-05-15 Varex Imaging Corporation Method and apparatus pertaining to non-invasive identification of materials
US20130185024A1 (en) * 2012-01-12 2013-07-18 Honeywell International Inc. System for automatic object classification and tagging in an rf planning tool
US10663294B2 (en) 2012-02-03 2020-05-26 Eagle View Technologies, Inc. Systems and methods for estimation of building wall area and producing a wall estimation report
US8774525B2 (en) 2012-02-03 2014-07-08 Eagle View Technologies, Inc. Systems and methods for estimation of building floor area
US9599466B2 (en) 2012-02-03 2017-03-21 Eagle View Technologies, Inc. Systems and methods for estimation of building wall area
US10515414B2 (en) 2012-02-03 2019-12-24 Eagle View Technologies, Inc. Systems and methods for performing a risk management assessment of a property
US9933257B2 (en) 2012-02-03 2018-04-03 Eagle View Technologies, Inc. Systems and methods for estimation of building wall area
US9501700B2 (en) 2012-02-15 2016-11-22 Xactware Solutions, Inc. System and method for construction estimation using aerial images
US9396577B2 (en) * 2012-02-16 2016-07-19 Google Inc. Using embedded camera parameters to determine a position for a three-dimensional model
US8462155B1 (en) 2012-05-01 2013-06-11 Google Inc. Merging three-dimensional models based on confidence scores
US8884955B1 (en) 2012-05-04 2014-11-11 Google Inc. Surface simplification based on offset tiles
US9041711B1 (en) 2012-05-08 2015-05-26 Google Inc. Generating reduced resolution textured model from higher resolution model
US8897543B1 (en) 2012-05-18 2014-11-25 Google Inc. Bundle adjustment based on image capture intervals
US8965107B1 (en) 2012-05-18 2015-02-24 Google Inc. Feature reduction based on local densities for bundle adjustment of images
US8941652B1 (en) 2012-05-23 2015-01-27 Google Inc. Incremental surface hole filling
US9224233B2 (en) 2012-05-24 2015-12-29 Google Inc. Blending 3D model textures by image projection
US8463024B1 (en) 2012-05-25 2013-06-11 Google Inc. Combining narrow-baseline and wide-baseline stereo for three-dimensional modeling
US9778391B2 (en) 2013-03-15 2017-10-03 Varex Imaging Corporation Systems and methods for multi-view imaging and tomography
US9959581B2 (en) 2013-03-15 2018-05-01 Eagle View Technologies, Inc. Property management on a smartphone
US9753950B2 (en) * 2013-03-15 2017-09-05 Pictometry International Corp. Virtual property reporting for automatic structure detection
US10909482B2 (en) 2013-03-15 2021-02-02 Pictometry International Corp. Building materials estimation
US11587176B2 (en) 2013-03-15 2023-02-21 Eagle View Technologies, Inc. Price estimation model
CA2920251A1 (en) 2013-08-02 2015-02-05 Xactware Solutions, Inc. System and method for detecting features in aerial images using disparity mapping and segmentation techniques
US20150095071A1 (en) 2013-09-29 2015-04-02 Donan Engineering Co., Inc. Systems and Methods for Identifying a Subrogation Opportunity for a Potential Subrogation Claim
US10108755B2 (en) * 2013-11-19 2018-10-23 Aerohive Networks, Inc. RF floor plan building
CN107209498B (zh) 2015-04-24 2021-07-13 惠普发展公司有限责任合伙企业 用于增材制造过程的生成三维物体模型的方法
US9798841B2 (en) * 2015-09-15 2017-10-24 Livermore Software Technology Corp. Systems and methods of conducting numerical simulation of an underwater explosion
US11151655B1 (en) 2015-12-11 2021-10-19 State Farm Mutual Automobile Insurance Company Structural characteristic extraction and claims processing using 3D images
US10008024B2 (en) * 2016-06-08 2018-06-26 Qualcomm Incorporated Material-aware three-dimensional scanning
US10650285B1 (en) 2016-09-23 2020-05-12 Aon Benfield Inc. Platform, systems, and methods for identifying property characteristics and property feature conditions through aerial imagery analysis
WO2018058044A1 (en) 2016-09-23 2018-03-29 Aon Benfield Inc. Platform, systems, and methods for identifying property characteristics and property feature maintenance through aerial imagery analysis
US10521664B2 (en) 2016-11-04 2019-12-31 Loveland Innovations, LLC Systems and methods for autonomous perpendicular imaging of test squares
US9823658B1 (en) 2016-11-04 2017-11-21 Loveland Innovations, LLC Systems and methods for adaptive property analysis via autonomous vehicles
US11354013B1 (en) * 2017-02-17 2022-06-07 Skydio, Inc. Location-based asset efficiency determination
US10984182B2 (en) 2017-05-12 2021-04-20 Loveland Innovations, LLC Systems and methods for context-rich annotation and report generation for UAV microscan data
US10364027B2 (en) 2017-10-24 2019-07-30 Loveland Innovations, LLC Crisscross boustrophedonic flight patterns for UAV scanning and imaging
US10503843B2 (en) 2017-12-19 2019-12-10 Eagle View Technologies, Inc. Supervised automatic roof modeling
US11514644B2 (en) 2018-01-19 2022-11-29 Enphase Energy, Inc. Automated roof surface measurement from combined aerial LiDAR data and imagery
CN109085780B (zh) * 2018-08-03 2021-06-04 厦门大学 一种基于Unity3D的实验仪器控制系统及方法
US11205072B2 (en) 2018-08-24 2021-12-21 Loveland Innovations, LLC Solar ray mapping via divergent beam modeling
US11210514B2 (en) 2018-08-24 2021-12-28 Loveland Innovations, LLC Image analysis and estimation of rooftop solar exposure via solar ray mapping
US10366287B1 (en) 2018-08-24 2019-07-30 Loveland Innovations, LLC Image analysis and estimation of rooftop solar exposure
CN112100367A (zh) * 2019-05-28 2020-12-18 贵阳海信网络科技有限公司 一种景区舆情预警方法及装置
KR102197724B1 (ko) * 2019-07-15 2021-01-04 현대자동차주식회사 충돌 성능 예측 장치 및 충돌 성능 예측 방법
US11222464B2 (en) 2019-08-22 2022-01-11 The Travelers Indemnity Company Intelligent imagery
US11521026B2 (en) 2019-10-21 2022-12-06 Bentley Systems, Incorporated Classifying individual elements of an infrastructure model
US11094113B2 (en) 2019-12-04 2021-08-17 Geomni, Inc. Systems and methods for modeling structures using point clouds derived from stereoscopic image pairs
US11734890B2 (en) * 2020-08-17 2023-08-22 Nvidia Corporation Three-dimensional model recovery from two-dimensional images
US11645363B2 (en) 2020-10-20 2023-05-09 Bentley Systems, Incorporated Automatic identification of misclassified elements of an infrastructure model
US11532116B2 (en) 2020-10-30 2022-12-20 Loveland Innovations, Inc. Graphical user interface for controlling a solar ray mapping
US20220244833A1 (en) * 2021-01-22 2022-08-04 Primitive LLC Interactive 3d roof model
US11694400B2 (en) * 2021-06-03 2023-07-04 Shopify Inc. Systems and methods for supplementing digital media with three-dimensional (3D) models
CN114764891A (zh) * 2021-09-16 2022-07-19 杭州天眼智联科技有限公司 用于确定物料构成的方法、装置、电子设备和可读介质

Family Cites Families (176)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US2273876A (en) * 1940-02-12 1942-02-24 Frederick W Lutz Apparatus for indicating tilt of cameras
US3153784A (en) 1959-12-24 1964-10-20 Us Industries Inc Photo radar ground contour mapping system
US5345086A (en) 1962-11-28 1994-09-06 Eaton Corporation Automatic map compilation system
US3621326A (en) 1968-09-30 1971-11-16 Itek Corp Transformation system
US3594556A (en) * 1969-01-08 1971-07-20 Us Navy Optical sight with electronic image stabilization
US3661061A (en) * 1969-05-05 1972-05-09 Atomic Energy Commission Picture position finder
US3614410A (en) 1969-06-12 1971-10-19 Knight V Bailey Image rectifier
US3716669A (en) * 1971-05-14 1973-02-13 Japan Eng Dev Co Mapping rectifier for generating polarstereographic maps from satellite scan signals
US3725563A (en) * 1971-12-23 1973-04-03 Singer Co Method of perspective transformation in scanned raster visual display
US3864513A (en) * 1972-09-11 1975-02-04 Grumman Aerospace Corp Computerized polarimetric terrain mapping system
US4015080A (en) * 1973-04-30 1977-03-29 Elliott Brothers (London) Limited Display devices
JPS5223975Y2 (es) * 1973-05-29 1977-05-31
US3877799A (en) * 1974-02-06 1975-04-15 United Kingdom Government Method of recording the first frame in a time index system
DE2510044A1 (de) * 1975-03-07 1976-09-16 Siemens Ag Anordnung zum aufzeichnen von zeichen unter verwendung von mosaikschreibwerken
US4707698A (en) 1976-03-04 1987-11-17 Constant James N Coordinate measurement and radar device using image scanner
US4240108A (en) 1977-10-03 1980-12-16 Grumman Aerospace Corporation Vehicle controlled raster display system
JPS5637416Y2 (es) * 1977-10-14 1981-09-02
IT1095061B (it) * 1978-05-19 1985-08-10 Conte Raffaele Apparecchiatura per la registrazione magnetica di eventi casuali relativi a mezzi mobili
US4396942A (en) * 1979-04-19 1983-08-02 Jackson Gates Video surveys
FR2461305B1 (fr) 1979-07-06 1985-12-06 Thomson Csf Systeme indicateur cartographique destine plus particulierement a la navigation aerienne
DE2939681A1 (de) * 1979-09-29 1981-04-30 Agfa-Gevaert Ag, 5090 Leverkusen Verfahren und vorrichtung zur ueberwachung der qualitaet bei der herstellung von fotografischen bildern
DE2940871C2 (de) * 1979-10-09 1983-11-10 Messerschmitt-Bölkow-Blohm GmbH, 8012 Ottobrunn Photogrammetrisches Verfahren für Fluggeräte und Raumflugkörper zur digitalen Geländedarstellung
US4387056A (en) * 1981-04-16 1983-06-07 E. I. Du Pont De Nemours And Company Process for separating zero-valent nickel species from divalent nickel species
US4382678A (en) * 1981-06-29 1983-05-10 The United States Of America As Represented By The Secretary Of The Army Measuring of feature for photo interpretation
US4463380A (en) * 1981-09-25 1984-07-31 Vought Corporation Image processing system
US4495500A (en) * 1982-01-26 1985-01-22 Sri International Topographic data gathering method
US4490742A (en) 1982-04-23 1984-12-25 Vcs, Incorporated Encoding apparatus for a closed circuit television system
US4586138A (en) * 1982-07-29 1986-04-29 The United States Of America As Represented By The United States Department Of Energy Route profile analysis system and method
US4491399A (en) * 1982-09-27 1985-01-01 Coherent Communications, Inc. Method and apparatus for recording a digital signal on motion picture film
US4527055A (en) * 1982-11-15 1985-07-02 Honeywell Inc. Apparatus for selectively viewing either of two scenes of interest
FR2536851B1 (fr) 1982-11-30 1985-06-14 Aerospatiale Systeme de reconnaissance comportant un vehicule aerien tournant autour de son axe longitudinal
US4489322A (en) 1983-01-27 1984-12-18 The United States Of America As Represented By The Secretary Of The Air Force Radar calibration using direct measurement equipment and oblique photometry
US4635136A (en) * 1984-02-06 1987-01-06 Rochester Institute Of Technology Method and apparatus for storing a massive inventory of labeled images
US4686474A (en) * 1984-04-05 1987-08-11 Deseret Research, Inc. Survey system for collection and real time processing of geophysical data
US4814711A (en) * 1984-04-05 1989-03-21 Deseret Research, Inc. Survey system and method for real time collection and processing of geophysicals data using signals from a global positioning satellite network
US4673988A (en) * 1985-04-22 1987-06-16 E.I. Du Pont De Nemours And Company Electronic mosaic imaging process
US4653136A (en) * 1985-06-21 1987-03-31 Denison James W Wiper for rear view mirror
EP0211623A3 (en) * 1985-08-01 1988-09-21 British Aerospace Public Limited Company Identification of ground targets in airborne surveillance radar returns
US4953227A (en) * 1986-01-31 1990-08-28 Canon Kabushiki Kaisha Image mosaic-processing method and apparatus
US4653316A (en) * 1986-03-14 1987-03-31 Kabushiki Kaisha Komatsu Seisakusho Apparatus mounted on vehicles for detecting road surface conditions
US4688092A (en) * 1986-05-06 1987-08-18 Ford Aerospace & Communications Corporation Satellite camera image navigation
US4956872A (en) 1986-10-31 1990-09-11 Canon Kabushiki Kaisha Image processing apparatus capable of random mosaic and/or oil-painting-like processing
JPS63202182A (ja) * 1987-02-18 1988-08-22 Olympus Optical Co Ltd 傾斜ドツトパタ−ン形成方法
US4814896A (en) * 1987-03-06 1989-03-21 Heitzman Edward F Real time video data acquistion systems
US5164825A (en) 1987-03-30 1992-11-17 Canon Kabushiki Kaisha Image processing method and apparatus for mosaic or similar processing therefor
US4807024A (en) * 1987-06-08 1989-02-21 The University Of South Carolina Three-dimensional display methods and apparatus
US4899296A (en) * 1987-11-13 1990-02-06 Khattak Anwar S Pavement distress survey system
US4843463A (en) * 1988-05-23 1989-06-27 Michetti Joseph A Land vehicle mounted audio-visual trip recorder
GB8826550D0 (en) * 1988-11-14 1989-05-17 Smiths Industries Plc Image processing apparatus and methods
US4906198A (en) * 1988-12-12 1990-03-06 International Business Machines Corporation Circuit board assembly and contact pin for use therein
JP2765022B2 (ja) * 1989-03-24 1998-06-11 キヤノン販売株式会社 立体画像形成装置
US5617224A (en) * 1989-05-08 1997-04-01 Canon Kabushiki Kaisha Imae processing apparatus having mosaic processing feature that decreases image resolution without changing image size or the number of pixels
US5086314A (en) * 1990-05-21 1992-02-04 Nikon Corporation Exposure control apparatus for camera
JPH0316377A (ja) * 1989-06-14 1991-01-24 Kokusai Denshin Denwa Co Ltd <Kdd> 2値画像の縮小方法及び装置
US5166789A (en) 1989-08-25 1992-11-24 Space Island Products & Services, Inc. Geographical surveying using cameras in combination with flight computers to obtain images with overlaid geographical coordinates
JP3147358B2 (ja) * 1990-02-23 2001-03-19 ミノルタ株式会社 撮影地データを記録できるカメラ
US5335072A (en) * 1990-05-30 1994-08-02 Minolta Camera Kabushiki Kaisha Photographic system capable of storing information on photographed image data
EP0464263A3 (en) * 1990-06-27 1992-06-10 Siemens Aktiengesellschaft Device for obstacle detection for pilots of low flying aircrafts
US5191174A (en) * 1990-08-01 1993-03-02 International Business Machines Corporation High density circuit board and method of making same
US5200793A (en) * 1990-10-24 1993-04-06 Kaman Aerospace Corporation Range finding array camera
US5155597A (en) 1990-11-28 1992-10-13 Recon/Optical, Inc. Electro-optical imaging array with motion compensation
JPH04250436A (ja) 1991-01-11 1992-09-07 Pioneer Electron Corp 撮像装置
US5265173A (en) 1991-03-20 1993-11-23 Hughes Aircraft Company Rectilinear object image matcher
US5369443A (en) 1991-04-12 1994-11-29 Abekas Video Systems, Inc. Digital video effects generator
CA2066280C (en) 1991-04-16 1997-12-09 Masaru Hiramatsu Image pickup system with a image pickup device for control
US5555018A (en) 1991-04-25 1996-09-10 Von Braun; Heiko S. Large-scale mapping of parameters of multi-dimensional structures in natural environments
US5231435A (en) * 1991-07-12 1993-07-27 Blakely Bruce W Aerial camera mounting apparatus
DE69123578T2 (de) * 1991-09-05 1997-04-03 Nec Corp Bildaufnahmesystem, das korrekte Bildsignale einer Objektzone erzeugen kann
US5677515A (en) 1991-10-18 1997-10-14 Trw Inc. Shielded multilayer printed wiring board, high frequency, high isolation
US5402170A (en) * 1991-12-11 1995-03-28 Eastman Kodak Company Hand-manipulated electronic camera tethered to a personal computer
US5247356A (en) 1992-02-14 1993-09-21 Ciampa John A Method and apparatus for mapping and measuring land
US5251037A (en) 1992-02-18 1993-10-05 Hughes Training, Inc. Method and apparatus for generating high resolution CCD camera images
US5270756A (en) 1992-02-18 1993-12-14 Hughes Training, Inc. Method and apparatus for generating high resolution vidicon camera images
US5506644A (en) * 1992-08-18 1996-04-09 Olympus Optical Co., Ltd. Camera
US5481479A (en) * 1992-12-10 1996-01-02 Loral Fairchild Corp. Nonlinear scanning to optimize sector scan electro-optic reconnaissance system performance
US5342999A (en) 1992-12-21 1994-08-30 Motorola, Inc. Apparatus for adapting semiconductor die pads and method therefor
US5414462A (en) * 1993-02-11 1995-05-09 Veatch; John W. Method and apparatus for generating a comprehensive survey map
US5508736A (en) * 1993-05-14 1996-04-16 Cooper; Roger D. Video signal processing apparatus for producing a composite signal for simultaneous display of data and video information
US5467271A (en) 1993-12-17 1995-11-14 Trw, Inc. Mapping and analysis system for precision farming applications
WO1995032483A1 (en) * 1994-05-19 1995-11-30 Geospan Corporation Method for collecting and processing visual and spatial position information
RU2153700C2 (ru) * 1995-04-17 2000-07-27 Спейс Системз/Лорал, Инк. Система управления ориентацией и формированием изображения (варианты)
US5604534A (en) * 1995-05-24 1997-02-18 Omni Solutions International, Ltd. Direct digital airborne panoramic camera system and method
US5710878A (en) * 1995-06-07 1998-01-20 Mccoy; David Scott Method for facilitating material application for a group of objects of a computer graphic
US5668593A (en) 1995-06-07 1997-09-16 Recon/Optical, Inc. Method and camera system for step frame reconnaissance with motion compensation
US5963664A (en) 1995-06-22 1999-10-05 Sarnoff Corporation Method and system for image combination using a parallax-based technique
US5977977A (en) * 1995-08-04 1999-11-02 Microsoft Corporation Method and system for multi-pass rendering
US5835133A (en) 1996-01-23 1998-11-10 Silicon Graphics, Inc. Optical system for single camera stereo video
US5894323A (en) * 1996-03-22 1999-04-13 Tasc, Inc, Airborne imaging system using global positioning system (GPS) and inertial measurement unit (IMU) data
US5798786A (en) * 1996-05-07 1998-08-25 Recon/Optical, Inc. Electro-optical imaging detector array for a moving vehicle which includes two axis image motion compensation and transfers pixels in row directions and column directions
US5844602A (en) 1996-05-07 1998-12-01 Recon/Optical, Inc. Electro-optical imaging array and camera system with pitch rate image motion compensation which can be used in an airplane in a dive bomb maneuver
US5841574A (en) 1996-06-28 1998-11-24 Recon/Optical, Inc. Multi-special decentered catadioptric optical system
DE69720758T2 (de) * 1996-11-05 2004-03-04 Bae Systems Information And Electronic Systems Integration Inc. Vorrichtung zur elektro-optischen fernerkundung mit bewegungskompensation
US6108032A (en) 1996-11-05 2000-08-22 Lockheed Martin Fairchild Systems System and method for image motion compensation of a CCD image sensor
US5977978A (en) * 1996-11-13 1999-11-02 Platinum Technology Ip, Inc. Interactive authoring of 3D scenes and movies
RU2127075C1 (ru) * 1996-12-11 1999-03-10 Корженевский Александр Владимирович Способ получения томографического изображения тела и электроимпедансный томограф
US6222583B1 (en) * 1997-03-27 2001-04-24 Nippon Telegraph And Telephone Corporation Device and system for labeling sight images
US6597818B2 (en) * 1997-05-09 2003-07-22 Sarnoff Corporation Method and apparatus for performing geo-spatial registration of imagery
US6097854A (en) 1997-08-01 2000-08-01 Microsoft Corporation Image mosaic construction system and apparatus with patch-based alignment, global block adjustment and pair-wise motion-based local warping
US6157747A (en) 1997-08-01 2000-12-05 Microsoft Corporation 3-dimensional image rotation method and apparatus for producing image mosaics
WO1999018732A1 (en) 1997-10-06 1999-04-15 Ciampa John A Digital-image mapping
JPH11195132A (ja) * 1997-10-31 1999-07-21 Hewlett Packard Co <Hp> テクスチャマッピング用バッファ、3次元グラフィクス処理装置、3次元グラフィクス処理システム、3次元グラフィクス処理方法および処理プログラムが記憶された記憶媒体
US5852753A (en) 1997-11-10 1998-12-22 Lo; Allen Kwok Wah Dual-lens camera with shutters for taking dual or single images
US6434280B1 (en) 1997-11-10 2002-08-13 Gentech Corporation System and method for generating super-resolution-enhanced mosaic images
US6094215A (en) * 1998-01-06 2000-07-25 Intel Corporation Method of determining relative camera orientation position to create 3-D visual images
US6480538B1 (en) * 1998-07-08 2002-11-12 Koninklijke Philips Electronics N.V. Low bandwidth encoding scheme for video transmission
US6130705A (en) 1998-07-10 2000-10-10 Recon/Optical, Inc. Autonomous electro-optical framing camera system with constant ground resolution, unmanned airborne vehicle therefor, and methods of use
JP4245699B2 (ja) 1998-09-16 2009-03-25 オリンパス株式会社 撮像装置
US6434265B1 (en) 1998-09-25 2002-08-13 Apple Computers, Inc. Aligning rectilinear images in 3D through projective registration and calibration
DE19857667A1 (de) 1998-12-15 2000-08-17 Aerowest Photogrammetrie H Ben Verfahren zur Erzeugung einer drei-dimensionalen Objektbeschreibung
US6167300A (en) 1999-03-08 2000-12-26 Tci Incorporated Electric mammograph
DE19922341C2 (de) * 1999-05-14 2002-08-29 Zsp Geodaetische Sys Gmbh Verfahren und eine Anordnung zur Bestimmung der räumlichen Koordinaten mindestens eines Objektpunktes
AUPQ056099A0 (en) * 1999-05-25 1999-06-17 Silverbrook Research Pty Ltd A method and apparatus (pprint01)
TW483287B (en) * 1999-06-21 2002-04-11 Semiconductor Energy Lab EL display device, driving method thereof, and electronic equipment provided with the EL display device
US6639596B1 (en) 1999-09-20 2003-10-28 Microsoft Corporation Stereo reconstruction from multiperspective panoramas
US6735557B1 (en) * 1999-10-15 2004-05-11 Aechelon Technology LUT-based system for simulating sensor-assisted perception of terrain
US6473090B1 (en) * 1999-11-03 2002-10-29 Evans & Sutherland Computer Corporation MIP mapping based on material properties
JP4685313B2 (ja) * 1999-12-29 2011-05-18 ジオスパン コーポレイション 任意の局面の受動的な体積画像の処理方法
AU3047801A (en) * 2000-02-03 2001-08-14 Alst Technical Excellence Center Image resolution improvement using a color mosaic sensor
CA2400975C (en) * 2000-03-16 2008-11-04 The Johns Hopkins University Light detection and ranging (lidar) mapping system
IL151951A0 (en) * 2000-03-29 2003-04-10 Astrovision International Inc Direct broadcast imaging satellite system, apparatus and method for providing real-time, continuous monitoring of earth from geostationary earth orbit and related services
US7184072B1 (en) 2000-06-15 2007-02-27 Power View Company, L.L.C. Airborne inventory and inspection system and apparatus
US6834128B1 (en) 2000-06-16 2004-12-21 Hewlett-Packard Development Company, L.P. Image mosaicing system and method adapted to mass-market hand-held digital cameras
US6484101B1 (en) * 2000-08-16 2002-11-19 Imagelinks, Inc. 3-dimensional interactive image modeling system
US7313289B2 (en) * 2000-08-30 2007-12-25 Ricoh Company, Ltd. Image processing method and apparatus and computer-readable storage medium using improved distortion correction
US6421610B1 (en) * 2000-09-15 2002-07-16 Ernest A. Carroll Method of preparing and disseminating digitized geospatial data
US6959120B1 (en) * 2000-10-27 2005-10-25 Microsoft Corporation Rebinning methods and arrangements for use in compressing image-based rendering (IBR) data
US6690820B2 (en) * 2001-01-31 2004-02-10 Magic Earth, Inc. System and method for analyzing and imaging and enhanced three-dimensional volume data set using one or more attributes
WO2002090887A2 (en) * 2001-05-04 2002-11-14 Vexcel Imaging Gmbh Digital camera for and method of obtaining overlapping images
US7046401B2 (en) * 2001-06-01 2006-05-16 Hewlett-Packard Development Company, L.P. Camera-based document scanning system using multiple-pass mosaicking
JP2003006680A (ja) * 2001-06-20 2003-01-10 Zenrin Co Ltd 3次元電子地図データの生成方法
US7509241B2 (en) * 2001-07-06 2009-03-24 Sarnoff Corporation Method and apparatus for automatically generating a site model
JP3910382B2 (ja) * 2001-07-11 2007-04-25 株式会社日立製作所 画像照合装置
US20030043824A1 (en) * 2001-08-31 2003-03-06 Remboski Donald J. Vehicle active network and device
US6747686B1 (en) * 2001-10-05 2004-06-08 Recon/Optical, Inc. High aspect stereoscopic mode camera and method
US7262790B2 (en) 2002-01-09 2007-08-28 Charles Adams Bakewell Mobile enforcement platform with aimable violation identification and documentation system for multiple traffic violation types across all lanes in moving traffic, generating composite display images and data to support citation generation, homeland security, and monitoring
TW550521B (en) 2002-02-07 2003-09-01 Univ Nat Central Method for re-building 3D model of house in a semi-automatic manner using edge segments of buildings
US6894809B2 (en) 2002-03-01 2005-05-17 Orasee Corp. Multiple angle display produced from remote optical sensing devices
JP4184703B2 (ja) 2002-04-24 2008-11-19 大日本印刷株式会社 画像修正方法およびシステム
JP2005537535A (ja) * 2002-07-10 2005-12-08 ハーマン ベッカー オートモーティブ システムズ ゲーエムベーハー オブジェクトの3次元電子モデルを生成するシステム
US7127348B2 (en) 2002-09-20 2006-10-24 M7 Visual Intelligence, Lp Vehicle based data collection and processing system
US7725258B2 (en) * 2002-09-20 2010-05-25 M7 Visual Intelligence, L.P. Vehicle based data collection and processing system and imaging sensor system and methods thereof
US7239314B2 (en) * 2002-08-29 2007-07-03 Warner Bros. Animation Method for 2-D animation
BR0318292A (pt) * 2002-09-26 2006-07-11 Exxonmobil Upstream Res Co método para a realização de detecção de semente baseada de forma estratigráfica em um volume de dados sìsmicos 3-d
EP1696204B1 (en) 2002-11-08 2015-01-28 Pictometry International Corp. Method for capturing, geolocating and measuring oblique images
US7424133B2 (en) 2002-11-08 2008-09-09 Pictometry International Corporation Method and apparatus for capturing, geolocating and measuring oblique images
US20050128212A1 (en) * 2003-03-06 2005-06-16 Edecker Ada M. System and method for minimizing the amount of data necessary to create a virtual three-dimensional environment
US7298376B2 (en) * 2003-07-28 2007-11-20 Landmark Graphics Corporation System and method for real-time co-rendering of multiple attributes
US7018050B2 (en) * 2003-09-08 2006-03-28 Hewlett-Packard Development Company, L.P. System and method for correcting luminance non-uniformity of obliquely projected images
JP2005151536A (ja) 2003-10-23 2005-06-09 Nippon Dempa Kogyo Co Ltd 水晶発振器
US7916940B2 (en) 2004-01-31 2011-03-29 Hewlett-Packard Development Company Processing of mosaic digital images
BRPI0508226A (pt) 2004-02-27 2007-07-17 Intergraph Software Tech Co formação de uma única imagem a partir de imagens de sobreposição
US7729506B2 (en) * 2004-05-06 2010-06-01 Keith Carlson Apparatus and method for creating three dimensional relief tiles
US20060028550A1 (en) * 2004-08-06 2006-02-09 Palmer Robert G Jr Surveillance system and method
WO2006121457A2 (en) * 2004-08-18 2006-11-16 Sarnoff Corporation Method and apparatus for performing three-dimensional computer modeling
US8078396B2 (en) 2004-08-31 2011-12-13 Meadow William D Methods for and apparatus for generating a continuum of three dimensional image data
US7348895B2 (en) * 2004-11-03 2008-03-25 Lagassey Paul J Advanced automobile accident detection, data recordation and reporting system
US7142984B2 (en) 2005-02-08 2006-11-28 Harris Corporation Method and apparatus for enhancing a digital elevation model (DEM) for topographical modeling
US7466244B2 (en) 2005-04-21 2008-12-16 Microsoft Corporation Virtual earth rooftop overlay and bounding
US7660468B2 (en) 2005-05-09 2010-02-09 Like.Com System and method for enabling image searching using manual enrichment, classification, and/or segmentation
US7554539B2 (en) * 2005-07-27 2009-06-30 Balfour Technologies Llc System for viewing a collection of oblique imagery in a three or four dimensional virtual scene
WO2007027847A2 (en) * 2005-09-01 2007-03-08 Geosim Systems Ltd. System and method for cost-effective, high-fidelity 3d-modeling of large-scale urban environments
US7844499B2 (en) 2005-12-23 2010-11-30 Sharp Electronics Corporation Integrated solar agent business model
US7778491B2 (en) 2006-04-10 2010-08-17 Microsoft Corporation Oblique image stitching
US7873238B2 (en) * 2006-08-30 2011-01-18 Pictometry International Corporation Mosaic oblique images and methods of making and using same
DE102007030781A1 (de) 2006-10-11 2008-04-17 Gta Geoinformatik Gmbh Verfahren zur Texturierung virtueller dreidimensionaler Objekte
IL179344A (en) * 2006-11-16 2014-02-27 Rafael Advanced Defense Sys Mobile Platform Tracking Method
GB2457215A (en) * 2007-03-07 2009-08-12 Nikolaos Kokkas Automatic 3D Modelling
US7832267B2 (en) 2007-04-25 2010-11-16 Ecometriks, Llc Method for determining temporal solar irradiance values
WO2009025928A2 (en) 2007-06-19 2009-02-26 Ch2M Hill, Inc. Systems and methods for solar mapping, determining a usable area for solar energy production and/or providing solar information
EP2183724B1 (en) * 2007-07-27 2019-06-26 Esri R&D Center Zurich AG Computer system and method for generating a 3d geometric model
US8531472B2 (en) * 2007-12-03 2013-09-10 Pictometry International Corp. Systems and methods for rapid three-dimensional modeling with real façade texture
US8417061B2 (en) 2008-02-01 2013-04-09 Sungevity Inc. Methods and systems for provisioning energy systems
US8275194B2 (en) 2008-02-15 2012-09-25 Microsoft Corporation Site modeling using image data fusion
WO2009131108A1 (ja) 2008-04-23 2009-10-29 株式会社パスコ 建物屋根輪郭認識装置、建物屋根輪郭認識方法、及び建物屋根輪郭認識プログラム
US8401222B2 (en) 2009-05-22 2013-03-19 Pictometry International Corp. System and process for roof measurement using aerial imagery
US9330494B2 (en) * 2009-10-26 2016-05-03 Pictometry International Corp. Method for the automatic material classification and texture simulation for 3D models

Also Published As

Publication number Publication date
US20180247448A1 (en) 2018-08-30
EP2494525A4 (en) 2017-08-09
US20110096083A1 (en) 2011-04-28
AU2010315698A1 (en) 2012-06-14
EP2494525A2 (en) 2012-09-05
WO2011056402A2 (en) 2011-05-12
US10748335B2 (en) 2020-08-18
US9330494B2 (en) 2016-05-03
US11657567B2 (en) 2023-05-23
US11263807B2 (en) 2022-03-01
US20210035360A1 (en) 2021-02-04
US20190251742A1 (en) 2019-08-15
CA2778267A1 (en) 2011-05-12
WO2011056402A3 (en) 2011-07-28
EP2494525B1 (en) 2020-02-05
BR112012009880A2 (pt) 2016-11-22
US9959667B2 (en) 2018-05-01
AU2010315698B2 (en) 2015-10-01
EP3693931A1 (en) 2020-08-12
CA2778267C (en) 2019-05-28
US20220189111A1 (en) 2022-06-16
US10198857B2 (en) 2019-02-05
US20160321839A1 (en) 2016-11-03

Similar Documents

Publication Publication Date Title
ES2780174T3 (es) Un procedimiento para clasificación automática de materiales y simulación de texturas para modelos 3D
US9520000B2 (en) Systems and methods for rapid three-dimensional modeling with real facade texture
US9595108B2 (en) System and method for object extraction
JP4521568B2 (ja) 対応点探索方法、相互標定方法、3次元画像計測方法、対応点探索装置、相互標定装置、3次元画像計測装置、対応点探索プログラム及び対応点探索プログラムを記録したコンピュータ読み取り可能な記録媒体
Alshawabkeh et al. A new true ortho‐photo methodology for complex archaeological application
AU2018204115B2 (en) A method for automatic material classification and texture simulation for 3d models
Domingo et al. Unmanned aerial vehicle (UAV) survey-assisted 3D mangrove tree modeling
US10140758B1 (en) Texturing models of structures
Kościuk et al. Documentation of the most important petroglyphs by structured light scanning and analysis of the most damaged petroglyphs by vPTM and vRTI methods
GB2416884A (en) Material coded imagery for simulated terrain and computer generated forces
Piatti et al. A virtual simulator for photogrammetry
Sonet Post-Pandemic COVID-19 Virtual Documentation Through 3D Laser Scanning and 3D Photogrammetry for Site and Building Assessment
Schubiger-Banz et al. Enhancing photogrammetric 3d city models with procedural modeling techniques for urban planning support
CN111311725A (zh) 一种建构筑物可视域分析方法
SHAUN New technologies for the simulation and assessment of forest landscape change
CN118015172A (en) Dynamic perspective mapping generation method, system, terminal and storage medium
CN111695423A (zh) 基于三维重建的犯罪现场图生成方法、系统和存储介质
Pakowska Jacek Kościuk*, Małgorzata Telesińska**, Maciej Nisztuk
Brunnhuber et al. Interactive person path analysis in reconstructed public buildings
Cutler et al. Inferring Architectural Designs from Physical Sketches: Application to Daylighting Analysis