ES2204965T3 - Procedimiento para generacion de imagenes de sintesis por tampon esferico. - Google Patents

Procedimiento para generacion de imagenes de sintesis por tampon esferico.

Info

Publication number
ES2204965T3
ES2204965T3 ES95932792T ES95932792T ES2204965T3 ES 2204965 T3 ES2204965 T3 ES 2204965T3 ES 95932792 T ES95932792 T ES 95932792T ES 95932792 T ES95932792 T ES 95932792T ES 2204965 T3 ES2204965 T3 ES 2204965T3
Authority
ES
Spain
Prior art keywords
facet
image
point
projected
sphere
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
ES95932792T
Other languages
English (en)
Inventor
Jean-Christophe Dusseux
Laurent Blonde
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Thomson Broadcast Systems
Original Assignee
Thomson Broadcast Systems
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Thomson Broadcast Systems filed Critical Thomson Broadcast Systems
Application granted granted Critical
Publication of ES2204965T3 publication Critical patent/ES2204965T3/es
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/10Geometric effects
    • G06T15/40Hidden part removal
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/06Ray-tracing

Abstract

EL PROCEDIMIENTO DE GENERACION DE IMAGENES DE SINTESIS REALIZA UNA PROYECCION DE FACETAS DE LA ESCENA EN 3D SOBRE UNA ESFERA (7) CUYO CENTRO ES EL PUNTO DE OBSERVACION Y CUYO RECORTE PARTICULAR DE SU SUPERFICIE EN AREAS ELEMENTALES ASOCIADAS A LOS PIXELS DE LA IMAGEN (10) SE EFECTUA DE MANERA QUE LAS PROYECCIONES ORTOGONALES DE ESTAS AREAS, SOBRE UN PLANO DE REFERENCIA QUE PASA POR EL PUNTO DE OBSERVACION Y PERPENDICULAR AL EJE DE VISTA DE LA ESCENA TENGA EL MISMO VALOR. LAS APLICACIONES SE REFIEREN A LA GENERACION DE IMAGENES DE VISIBILIDAD O DE DISTANCIA, LA RADIOSIDAD.

Description

Procedimiento para generación de imágenes de síntesis por tampón esférico.
La presente invención se refiere a un procedimiento de generación de imágenes de síntesis por tampón esférico.
Se refiere particularmente al ámbito del tratamiento de imágenes para calculadoras numéricas o calculadoras gráficas que trabajan a partir de una base de datos que describe una escena en 3 dimensiones o 4 dimensiones (espacio y tiempo). Las imágenes de síntesis obtenidas según la invención pueden ser explotadas como imágenes de distancias, para el cálculo de la propagación de energía luminosa o como imágenes de síntesis final a visualizar.
Son conocidos los procedimientos de generación de imágenes de síntesis utilizan la representación superficial para los objetos sólidos y la proyección plana o hemisférica, es decir, la proyección de la imagen sobre uno o varios planos o sobre una semiesfera. Esta proyección se describe, por ejemplo, en el artículo "The hémisphere radiosity method: a tale of 2 algorithms" de Stephen H. Spencer en la revista Proceeding in Eurographics, 1991. Este procedimiento consiste en proyectar sobre un hemisferio centrado alrededor de un punto de vista de la escena en 3 D y que es el punto de observación, los polígonos seleccionados correspondientes a esta representación superficial, también denominadas facetas.
El documento EP-0-A 251800 propone un método y un dispositivo para derivar imágenes de radiación utilizando una memoria tampón luminosa. El método consiste en proyectar sobre un semi-poliedro centrado alrededor de un punto de vista de la escena en 3D en lugar de sobre un hemisferio, tal como se describe por Spencer.
Por otro lado, la determinación de las partes cubiertas de una escena en 3D, es el objeto de numerosos métodos igualmente conocidos. Así pues, un método simple para determinar las partes visibles de los polígonos a proyectar, conocido bajo el término anglosajón de "Z buffer" o "tampón de profundidad", consiste en un cálculo de profundidad o distancia para cada uno de los puntos de la imagen proyectada. Si el polígono considera proporcionar un valor inferior al almacenado en este "tampón", el valor antiguo es sustituido por el nuevo valor calculado. Esta técnica es utilizada para proyecciones planas, es decir, que la muestra correspondiente a los puntos de imagen proyectada se realiza sobre una o varias superficies, por ejemplo, sobre un plano situado próximo al punto de proyección en el caso del algoritmo del semiplano, sobre 5 facetas de un semi-cubo en el caso del algoritmo del semi-cubo.
Una determinación de las partes visibles de una escena 3 D a partir de un punto de observación se describe en la solicitud de patente francesa Nº FR 2703803 publicada el 14 de Octubre de 1994, y que trata en particular de un algoritmo que permite determinar los segmentos visibles, para proyección hemisférica y el cálculo de intersecciones de polígonos proyectado.
La síntesis de imagen para proyección plana se enfrenta con el problema de la recubrimiento del espectro igualmente conocido bajo la apelación anglosajona "aliasing" (solapamiento). Este fenómeno se traduce por defectos de calidad de la imagen, contornos en forma de escalera, centelleos debidos a la desaparición aleatoria de pequeños polígonos, contornos de sombra defectuosos, etc, y que provienen de la insuficiencia del muestreo espacial y temporal utilizados.
Esto es debido, en parte, a las distorsiones geométricas de proyección en el momento del paso de la imagen en 3D a la imagen en 2D que se traduce por un muestreo no uniforme de la imagen en 2D. Estas distorsiones resultan, por ejemplo, de la proyección de un espacio 3 D sobre una superficie plana, proyección que no respeta los ángulos sólidos, es decir, para un ángulo sólido dado, se hace corresponder un área de proyección diferente en función de la dirección de este ángulo sólido en el espacio. Un muestreo adaptable del plan de proyección permite entonces atenuar el fenómeno de "aliasing". Este muestreo se hace de modo que el área de los puntos de imagen así creados no sea constante pero que corresponda a un ángulo sólido proyectado poco más o menos constante cualquiera que sea la dirección. Pero los resultados, bien sea sobre los asociados a los filtrados clásicos, muestran límites, porque se trata de aproximaciones. Otra solución consiste en proyectar la escena sobre una semiesfera porque esta proyección respeta los ángulos sólidos. Pero la distorsión procede entonces de la etapa posterior que debe considerar estos ángulos sólidos proyectados sobre un plano.
Se debe igualmente, de manera más convencional, al paso de analógico a digital, lo que implica una pérdida de información. Este fenómeno está presente sobretodo en el contorno de las facetas, en la frontera de 2 facetas adyacentes, y más particularmente para la información de la etiqueta de la faceta visible porque es necesario entonces elegir un valor entre varios para el punto de imagen correspondiente; para los otros 2 tipos de informaciones asociadas al punto de imagen, a saber la distancia del punto de mira al punto de proyección y color o valor de luminancia del punto de imagen, un filtrado puede atenuar el fenómeno. Está incluso más presente en el contorno de las facetas en el momento de la oclusión parcial de una faceta por otra porque el recubrimiento de un punto de imagen por varias facetas que tienen distancias y colores totalmente diferentes hace los filtrados relativamente poco eficaces. La invención objeto de la solicitud de patente francesa Nº FR 2703803 permite resolver este problema tratando de una manera analítica las intersecciones de facetas o polígonos, los agujeros u oclusiones. Este método puede sin embargo revelarse como costoso en tiempo de cálculo, puesto que la base de datos es considerable. La calidad de los resultados es desde luego excelente pero no puede reputarse en beneficio del tiempo de cálculo. Ahora bien, si la calidad es buscada para iluminaciones directas, y se trata aquí de la explicación de la invención en el campo de la "radiosidad", es decir, para "modelización" de la propagación e intercambio de energía luminosa o simulación de iluminación, es bastante menos crucial para las reflexiones, representando esta iluminación indirecta en medio una decena porcentajes de iluminaciones directas. Además, este método no permite obtener una imagen de distancias o una imagen de la síntesis final.
Se indica finalmente que las distorsiones geométricas mencionadas anteriormente en el momento del paso de la imagen en 3D a imagen en 2D y debidas a un ángulo sólido asociado a los puntos de imagen no constantes sobre el conjunto de la imagen, traen consigo resultados finalmente falsos y que perturban la apreciación de las "modelizaciones" de los sistemas ópticos de cámaras y sensores introduciendo defectos de proyección no realistas.
La presente invención tiene por objeto paliar los inconvenientes citados previamente. A este efecto, la invención tiene por objeto un procedimiento de generación de imágenes de síntesis de una escena en 3 dimensiones constituida por un conjunto de facetas, vista desde un punto de observación A y según un eje de visión, caracterizado porque una proyección de facetas se efectúa sobre la superficie de una esfera, cuyo centro es el punto de observación de la escena y porque se efectúa un corte particular de la superficie de la esfera en áreas elementales, cada una de las cuales corresponde a un punto de imagen sobre la superficie esférica, estando este mismo asociado a un punto de imagen de una imagen plana a representar, de manera que las proyecciones ortogonales de estas áreas sobre un plano de referencia que pasa por A y perpendicular al eje de visión de la escena tienen los mismos valores.
Otras características y ventajas de la invención resultarán a continuación con la ayuda de la descripción que sigue realizada con respecto a los dibujos que se acompañan en los que:
- la figura 1 es un organigrama que muestra el procedimiento de síntesis de imagen empleado por la invención. Este organigrama tiene el objeto de las hojas 1, y 2, relacionadas en las figuras 1a y 1b.
- la figura 2 muestra una etiqueta de proyección de un punto del espacio.
- la figura 3 muestra un área elemental De la esfera para el cálculo del factor de forma,
- la figura 4 muestra los paralelos y meridianos de la esfera.
- la figura 5 presenta el muestreo de la superficie de la esfera de proyección,
- La figura 6 muestra el método de doble cubierta.
La idea de la invención es llevar a cabo un corte particular de la superficie de una esfera de proyección para delimitar las áreas asignadas a los puntos de imagen en 2 D, representación plana de esta superficie esférica, cuyos ángulos sólidos proyectados sobre el plano de referencia perpendicular al eje de visión son del mismo valor que el que tiene el punto de imagen.
Por lo tanto, los resultados obtenidos se liberan de distorsiones geométricas debidas al modo de proyección y el fenómeno de "aliasing" es reducido también debido al hecho de un muestreo angular específico. El algoritmo de tratamiento, por su simplicidad, permite cálculos rápidos que pueden ser adaptados a la calidad de la imagen recibida, por ejemplo, según criterios de importancia asociados con los objetos de la escena.
El procedimiento de generación de imágenes de síntesis mediante tampón esférico se representa en la figura 1 mediante un organigrama. A partir de una base de datos representativa de una escena en un espacio de 4 dimensiones, son extraídos los datos representativos de la escena en un instante t que describe un conjunto de polígonos planos o facetas. Estos datos disponibles en la entrada 1 del organigrama son tratados en la etapa 2 de la manera siguiente: se seleccionan un punto de visión o de proyección actual de la escena 3D, se efectúa una preselección de polígonos relacionados para el tratamiento en curso teniendo en cuenta la jerarquía de la escena, es decir, la constitución de la escena, el campo de observación o el volumen de visión, criterios de importancia.... Esta etapa inicia los procedimientos de acceso a los polígonos sucesivos así como a los diferentes tampones de trabajo tales como tampones de profundidad.
La 3ª etapa permite acceder a los datos de la faceta actual que, en la etapa 4 siguiente, son referidos al punto de proyección por un cambio de punto de referencia que permite pasar del punto de referencia objeto actual al punto de referencia del punto de proyección A seleccionado, denominado punto de referencia (A, X, Y, Z), punto de referencia ortogonal para el que el eje AZ es la dirección de visión.
La etapa 5 es una determinación de la orientación de la faceta en relación al punto de proyección, correspondiendo esta orientación a la visibilidad o no de la faceta del punto y según la dirección de observación. Se trata, por tanto, de una selección de orientación, siendo eliminada la faceta no visible y, en este caso, se efectúa un retorno a la etapa 3 después del incremento en la etapa 6, permitiendo tratar la faceta siguiente.
La etapa número 7 es una proyección de la faceta actual seleccionada de la escena en 3D sobre una esfera centrada en el punto de proyección A que ofrece un "polígono" transformado. Cada vértice M de la faceta va a ser definido en un punto de referencia polar R(A, \theta, \varphi), de centro, el centro de proyección A, de ángulo de marcación \theta y de ángulo de elevación \varphi de la manera que sigue. El plano (A, X, Y) es elegido como plano de referencia de las marcaciones y el eje AX como el eje de referencia de marcación sobre este plano. El eje AZ está tomado como eje de ápice o polos de la esfera. El punto M en el punto de referencia (A, X, Y, Z) está representado en la figura 2.
Para cada uno de los vértices proyectados sobre la esfera se calcula la distancia de A a este vértice o más exactamente el cuadrado de la distancia Euclídea, menos costosa en tiempo de cálculo, puesto que no hay raíz cuadrada que evaluar, luego los ángulos de elevación y de marcación en el punto de referencia polar a partir de las coordenadas X_{A}, Y_{A}, Z_{A} de este vértice en el plano (A, X, Y, Z) elevación:
\varphi = Arc Tag \frac{Z_{A}}{\sqrt{X^{2}_{A}}+Y^{2}_{A}}
marcación:
\theta = ArcTg \frac{Y_{A}}{X_{A}}
Las indeterminaciones de ángulos de elevación para X_{A}, Y_{A} y Z_{A} nulos y de marcación para Z_{A} e Y_{A} nulos o para Y_{A}, solo nulo y X_{A} negativo como se observará más adelante (marcación para el que \theta = -180º ó + 180º) serán superadas durante los tratamientos de corte en las etapas 8 y 9.
Por otro lado, para cada uno de los vértices B es calculado igualmente el producto vectorial \overrightarrow{AB}\cdot\overrightarrow{AC}, siendo B el vértice actual tratado y C el vértice siguiente del contorno.
La etapa 8 efectúa un ensayo sobre la necesidad de cortar la faceta tratada, es decir, en uno de los casos siguientes:
- la faceta proyectada recubre uno de los ápices de la esfera, el ápice norte correspondiente a una elevación de +90º o el ápice sur para una elevación de -90º (1)
- uno de los vértices de la faceta proyectada se confunde con uno de los ápices (X_{A} = Y_{A} = 0) (2)
- la faceta proyectada recubre una parte de un semi-círculo de corte o meridiano de corte, semi-círculo definido por el punto del círculo de referencia de marcación, intersección de la esfera con el plano de referencia, para el que
\theta = \pm180º y para los ápices (3)
- uno de sus vértices proyectados se confunde con un punto del semicírculo de corte (4).
Estos casos corresponden, en efecto, a las indeterminaciones de ángulos citadas anteriormente, la indeterminación de los casos 3 y 4, es decir, un vértice proyectado de la faceta tal que Y_{A} es nulo y X_{A} es negativo, estando unido a elección del meridiano de corte como "línea de corte" de la imagen esférica para la obtención de la imagen plana, representando esta línea las columnas extremas de la imagen plana. Se puede decir de otro modo que un "desarrollo" de la esfera en la imagen plana 2D, como se observará en la etapa 10, hace corresponder los ápices norte y sur en la línea superior e inferior de la imagen y el meridiano de corte en la columna de la derecha y de la izquierda de la imagen creando de este modo una ambigüedad resuelta en la etapa siguiente por una generación de puntos clones.
Esta etapa 9 realiza, cuando es necesario, un corte de la imagen proyectada sobre la esfera, en vista de su proyección plana 2D, creando puntos "clones" a partir de los ya existentes.
En el caso (1), la faceta recubre 1 de los ápices, e independientemente de los casos siguientes (3) y (4), que son afectados también por este tipo de faceta, son creados dos puntos denominados puntos "clones" sobre la esfera de proyección, teniendo cada uno de ellos el mismo valor de elevación que el del ápice recubierto (+90º ó -90º) y los valores de marcaciones adyacentes arbitrarios, por ejemplo, los valores extremos, es decir, +180º y -180º. Los 2 puntos así creados son nuevos vértices insertados en el contorno de los vértices de la faceta, entre los puntos creados en el caso (3) o en el caso (4), generando un nuevo corte de la faceta para el cálculo de los lados que unen estos vértices.
En el caso (2), uno de los vértices es un ápice, la proyección de este vértice está sustituida por 2 puntos clones que tienen la misma elevación que el ápice, siendo respectivamente las marcaciones del vértice precedente y del vértice siguiente durante el recorrido de los vértices del polígono.
El caso (3), un lado del polígono corta el semicírculo de corte, conduce a un cálculo del punto de intersección de la arista con el semicírculo de corte. A partir de la elevación calculada del punto de intersección, dos puntos clones son creados a uno y otro lado del semicírculo de corte, es decir, con la elevación calculada y las marcaciones de +180º y -180º.
En el caso (4), que corresponde a un vértice sobre el semicírculo de corte, si los vértices precedentes y siguientes, durante el recorrido del polígono, se encuentran en el mismo lado con respecto a este semicírculo, el ángulo de marcación elegido es el correspondiente a este lado (+180º o -180º); si se encuentran a una y otra parte de esta frontera, este vértice es sustituido por dos puntos clones que tienen la misma elevación que este vértice y las marcaciones opuestas (+180º o -180º)-. Es esta segunda hipótesis la única que hay que tener en cuenta, puesto que para una faceta, se producen el caso (1) e igualmente el caso 4.
La etapa 10 propiamente dicha realiza una transposición de los valores de elevación y de marcación de cada uno de los vértices y clones de las facetas proyectadas sobre la esfera en valores de "línea" y "columna" de una imagen en dos dimensiones.
Esta transposición está unida a un corte esférico de la superficie de la esfera en áreas elementales que definen los puntos de imagen sobre la esfera, donde la representación superficial plana de esta superficie esférica corresponde a una asociación de estos puntos de imagen a puntos de imagen planos en 2D a crear, como se explica a continuación. Este corte es realizado de tal manera que los puntos de imagen de la imagen esférica o plana en 2D tienen todos la misma contribución al factor de forma (la definición se recordará de nuevo después), es decir, que la superficie de cada uno de los puntos de imagen esférico o plano en 2D que corresponden a las áreas elementales tenían idéntica proyección ortogonal sobre el plano perpendicular al eje de observación.
A continuación se explica el corte a realizar sobre la esfera para obtener un factor de forma constante.
Por definición, el factor de forma F_{dA,i,j} de la faceta Aj con respecto al elemento de superficie dAi de la faceta Ai centrada en 0 o, en los límites, el factor de forma de la faceta Aj respecto al punto 0 y su "normal" se da por la relación:
F_{dAi,j} = \int _{Aj} \frac{cos \alpha i \ cos \alpha j}{\pi r^{2}} dAj
donde \alphai y \alphaj son los ángulos que forman, respectivamente, las perpendiculares a las facetas Ai y Aj con la línea que une su centro, r es la distancia entre estos centros, siendo Aj el área de la faceta Aj, como se indica en la figura 3.
Si la faceta Aj es una proyección sobre la esfera unidad de centro 0, representada en la figura 3, \alphaj = 0, cualquiera que sea Aj:
F_{dAi,j} = \int _{Aj} \frac{cos \alpha i}{ \pi} dAj
Este factor de forma corresponde al ángulo sólido interceptado por la superficie Aj a partir del punto 0 y proyectado sobre Ai, dividido por \pi:
F = \Omega/ \pi
con \Omega = ángulo sólido proyectado.
Cortemos la esfera en puntos de imagen P_{kl} que resultan de la intersección de una banda superficial sobre la esfera definida por dos longitudes con ángulos de marcación, \theta _{l} + \theta _{l+1} con una banda superficial definida por 2 latitudes con ángulos de elevación \varphi _{k} y \varphi _{k+1}. El área de Aj de este punto de imagen representado en la figura 4 es dAj = seno \varphi d\varphi d\theta (con \varphi = 90º en el ecuador).
El factor de forma correspondiente a este área es
F_{dAi,Pkl} = \int^{\varphi k +1} _{\varphi k } \int ^{\theta+1} _{\theta l} \frac{cos \varphi}{ \pi} sen \varphi d \varphi d \theta = \frac{\theta _{i+l} - \theta _{l}}{4\pi} (cos 2\varphi_{k} - cos 2\varphi_{k+1})
La obtención de un factor de forma constante para cada uno de los puntos de imagen así delimitados conduce a la obtención de las igualdades:
- \theta_{1+1}\theta_{1} = \Delta\theta = cste = 2^{\pi}_{N}
si N es el número de meridianos, es decir, si l varía de 0 a N-1
- cos 2\varphi_{k} - cos2\varphi_{k+1} = cste= ^{2}_{P}
si P es el número de paralelos, es decir, si k varía de 0 a P-1.
\newpage
La proyección de las latitudes que corresponden a estas igualdades sobre un plano que pasa por los ápices está representada en la figura 5a.
La proyección de los meridianos sobre el plano de referencia está representada en la figura 5b.
P corresponde al número de líneas de la imagen plana en 2D y N el número de columnas. El punto de imagen definido por la línea k y la columna l de la imagen en 2D corresponde al punto de imagen P_{kl} sobre la esfera.
Los puntos de imagen de la esfera más próximos a los ápices Norte y Sur corresponden respectivamente con la primera y última línea de la imagen, los puntos de imagen más próximos al meridiano de referencia corresponden a la primera y última columna de la imagen.
El muestreo de la superficie de la esfera se efectúa, por lo tanto:
-
en longitud por un corte de N meridianos tal como 2 meridianos sucesivos l y l+1 con ángulos de marcación \theta_{l} y \theta_{l+1}, tales que:
\theta_{l+1} - \theta_{1} = \frac{2\pi}{N}
-
en latitud por un corte de P paralelos tales como 2 paralelos sucesivos k y k+1 con ángulos de elevación \varphi_{k} y \varphi_{k+1}, tales que:
cos2\varphi_{k} - cos 2\varphi_{k+1} = \frac{2}{P}
Es importante resaltar que la capacidad de adaptación angular se hace esencialmente sobre el muestreo en elevación.
N y P corresponden a la resolución deseada, respectivamente al número de líneas y de columnas de la imagen a obtener en 2 dimensiones.
El muestreo de la superficie de la esfera permite por tanto definir áreas adaptadas a cada punto de imagen, así asociado. Un tampón esférico, cuyos casos almacenados corresponden a cada uno de estos puntos de imagen de la superficie esférica y, por tanto, igualmente de la imagen final en dos dimensiones, almacenan las informaciones habituales de distancia, color, número de faceta de cada vértice proyectado sobre la superficie de la esfera y de cada clon creado.
La etapa número 11 efectúa una determinación de la máscara de proyección correspondiente al contorno proyectado cerrado de la faceta actual en el tampón esférico temporal, es decir, actual.
La faceta es proyectada lado por lado sobre la rejilla de puntos de imagen de la esfera para proporcionar a continuación una imagen plana en 2D, representación plana de la esfera obtenida por la correspondencia de los puntos de imagen de la esfera con estos de la imagen plana como se indicó anteriormente y no proyección plana. A partir de los puntos de proyección sobre la esfera de los vértices y de los clones, son determinados los arcos de círculo y líneas rectas que los unen. En el caso en que la diferencia de marcación entre los 2 puntos no excede un valor dado, por ejemplo, 2 a 3 puntos de imagen, la curva es asimilada a una recta cuyo trazado se efectúa según los algoritmos conocidos, por ejemplo, tipo Bresenham. En otro caso, el trazado de arcos del círculo se efectúa en el tampón esférico según, por ejemplo, el método expuesto a continuación que permite igualmente el cálculo de la distancia atribuida a los puntos de imagen correspondientes a este trazado.
Siendo B y C los vértices que definen un segmento o lado de una faceta; se puede definir un punto M de este segmento por su posición paramétrica, es decir, relativa a un parámetro k, tal como:
A \overrightarrow{M} = kA\overrightarrow{B} + (1-k)A\overrightarrow{C}
El plano \pi, que pasa por A y los ápices, es incrementado en marcación y se determina para cada posición el valor de k, es decir, la posición paramétrica del punto M correspondiente a la intersección de este plano \pi con el lado cortado BC. El plano \pi que contiene B corresponde a k = 1, conteniendo éste C para k = 0.
A partir de este valor, la elevación del punto M, intersección del plano \pi con el segmento BC, es calculada teniendo en cuenta la ecuación vectorial y la fórmula de elevación \varphi vista anteriormente, lo que permite de este modo situar el punto M del espacio 3D sobre la superficie esférica, y por tanto, la imagen plana en 2D. La distancia asociada a este punto se da en función de k:
|AM|^{2}=k^{2}|AB|^{2}+(1-k)^{2}|AC|^{2}+2k(1-k)\gamma
con \gamma el producto escalar \overrightarrow{AB}\cdot\overrightarrow{AC} asociado con B y calculado en la etapa 7 por los dos vértices sucesivos B y C.
Los valores |AB|^{2} y |AC|^{2} son calculados en la etapa 7 igualmente. Se aplican estos cálculos, puesto que una interpolación a partir de la imagen plana en 2D no ofrecía resultados exactos debido al hecho de que no se trata de una proyección plana.
Es necesario obtener un contorno cerrado para la faceta proyectada sobre la esfera. Así pues, si los 2 puntos de imagen situados sucesivamente por los incrementos sucesivos del plano \pi no están próximos en el tampón esférico, se efectúa un tratamiento particular: cada uno de los puntos correspondientes es "ensanchado" repitiendo el punto de imagen con una elevación, uno incrementado, el otro reducido, tantas veces como sea necesario para que se encuentren próximos, es decir, que uno se encuentre en la 8-proximidad del otro.
Esta etapa ha permitido por tanto determinar el contorno proyectado cerrado de la faceta o máscara de proyección con la atribución de distancias para cada uno de los puntos de imagen del contorno. Estas informaciones de distancias están almacenadas en un tampón temporal correspondiente a la faceta tratada, para los puntos de imagen unidos al contorno de la faceta. El número de la faceta y eventualmente las informaciones de colores, interpoladas por ejemplo en función de k o según el método conocido de Gouraud, son igualmente registrados en el tampón.
La etapa siguiente número 12 permite, en cuanto a ella misma, el "relleno" de este tampón temporal, es decir, la determinación de los puntos de imagen que pertenecen al interior del contorno cerrado, además, para cada uno de estos puntos de imagen, la determinación de distancias de A en el punto correspondiente de la faceta.
La imagen en 2D del contorno es explorada de este modo horizontalmente, línea por línea también verticalmente, columna por columna. Para cada línea, la intersección con el contorno define un valor inferior y superior en el exterior de las que definen una cubierta. Se hace lo mismo para cada columna. La superposición de estas dos cubiertas, es el método de doble cubierta representado en la figura 6, que permite definir los puntos de imagen en el interior y sobre el contorno, los puntos de imagen correspondientes a la faceta tratada.
Así pues, en el espacio en 3D, se representa de manera general cualquier tipo de faceta definida por un polígono de N lados, sin hueco, sobre una superficie plana, después proyección hemisférica, respetando luego la proyección de los lados en arco de círculo.
Una ventana de tratamiento, rectángulo que circunscribe este contorno cerrado, es creada en el tampón esférico temporal para facilitar el tratamiento a nivel de la imagen completa.
En un segundo tiempo, para cada punto de imagen interior al contorno correspondiente tiene un número de línea y de columna, luego con una elevación y una marcación determinadas, el tampón se llena con la etiqueta asociada a la faceta y con la distancia calculada de A en el punto correspondiente a este punto de imagen sobre la faceta. Este cálculo se efectúa según una exploración de la imagen línea por línea, es decir, con elevación constante: para una elevación dada son determinados, según el método expuesto anteriormente, las distancias y las marcaciones de los extremos de un segmento correspondiente a los puntos del contorno de la faceta. Se trata por tanto de un cálculo de un punto A a un punto P de una recta, P definido por la marcación del plano \pi. El color puede ser almacenado igualmente en el tampón esférico temporal para cada uno de los puntos de imagen después de haber sido calculado, por ejemplo, por interpolación según el método conocido de Gouraud.
La etapa siguiente 13 es una comparación de este tampón esférico temporal con un tampón denominado tampón de referencia.
Este tampón de referencia, asociado a la imagen completa, es inicializado después rellenado y actualizado a medida que estas facetas son tratadas. Este tampón es comparado, punto de imagen por punto de imagen, con el tampón temporal para no conservar en el tampón de referencia, más que las informaciones distancia, etiqueta y eventualmente color, correspondiente al punto de imagen más próximo. La distancia, etiqueta y color del tampón esférico temporal no se escriben en el tampón esférico de referencia salvo que la distancia del punto de imagen del tampón temporal sea inferior a la del punto de imagen correspondiente del tapón de referencia.
Además puede realizarse un tratamiento morfológico para reducir los errores de pertenencia a fronteras asociadas a este método. Una erosión morfológica consiste, por ejemplo, en anular cualquier primer punto de imagen encontrado perteneciente a la faceta y que sigue a un punto de imagen que no pertenece entonces a la exploración de la línea, evitando así una sobreestimación de las áreas de las facetas debido a la asociación de un área en un punto proyectado. La etapa 14 verifica que todas las facetas seleccionadas han sido tratadas. En otro caso la etapa 6 permite pasar a la faceta siguiente y las etapas de tratamiento 3 a 14 son efectuadas nuevamente.
Cuando todas las facetas han sido tratadas, el tampón esférico obtenido constituye la imagen esférica útil.
\newpage
Este tampón es una memoria que contiene, además, en forma física, las informaciones sobre cada uno de los puntos de imagen, de manera que esta imagen sintética modelizada ante sensor puede ser utilizada, por simulación, del sistema óptico para visualizar en la pantalla una imagen final.
Esta imagen sintética permite obtener una imagen muy fiel y natural y así generar escenas muy próximas a la realidad.
Este procedimiento de generación de imágenes de síntesis ofrece como resultados final una "imagen de visibilidad". Esta puede servir también como imagen de síntesis final que puede ser visualizada hasta en 360º como imagen sintética de distancia o como modelo de cálculo de la "radiosidad".
Esta imagen de síntesis puede, por tanto, ser utilizada para generar una imagen estereoscópica o una secuencia estereoscópica FR 2724033, o bien para efectuar cualquier tipo de mezclas por ejemplo con imágenes reales o incluso, para evaluación de los factores de forma, para modelizar los cambios de energía luminosa en el campo de la "radiosidad".

Claims (7)

1. Procedimiento de generación de imágenes de síntesis de una escena en 3 dimensiones constituida por un conjunto de facetas, visto de un punto de observación A y según un eje de visión, caracterizado porque se efectúa una proyección de facetas sobre la superficie de una esfera, cuyo centro es el punto de observación de la escena (7), y porque se efectúa un corte particular de la superficie de la esfera en áreas elementales (10), cada una de las cuales corresponde a un punto de imagen sobre la superficie esférica, de manera que las proyecciones ortogonales de estas áreas sobre un plano de referencia que pasa por A y perpendicular al eje de visión de la escena tienen el mismo valor.
2. Procedimiento según la reivindicación 1, caracterizado porque los casos de ambigüedad generados por la representación plana de la superficie esférica cuando los puntos proyectados provienen de vértices o lados de facetas, son confundidos con el meridiano de corte (8), definido como una línea de corte de la superficie esférica correspondiente a la primera y última columna de la imagen plana, sus extremidades, los ápices, que corresponden a la primera y última línea, son superadas por la creación de puntos clones (9) que consisten en duplicar los puntos proyectados sobre este meridiano para ser tratados como vértices de facetas después de la determinación de los lados de las facetas proyectadas.
3. Procedimiento según la reivindicación 1, caracterizado porque cuando uno de los ápices que aparece en el espacio angular de la faceta proyectada (8), son creados (9) dos puntos clones con la elevación del ápice correspondiente y ángulos de marcación adyacentes para ser tratados como vértices de faceta durante la determinación de los lados de las facetas proyectadas.
4. Procedimiento según la reivindicación 1, 2 ó 3, caracterizado porque el trazado de lados de la faceta (11) sobre la superficie esférica y los cálculos de la distancia de los puntos que los constituyen en el punto de visión A (11) se efectúa atribuyendo a cada vértice B de la faceta, el cuadrado de su distancia con A, el producto escalar \overrightarrow{AB}\cdot \overrightarrow{AC}, siendo C el vértice siguiente según el orden de recorrido de los vértices de la faceta e incrementando un plano que contiene el eje vertical de la esfera que define la intersección M de este plano con el lado actual tratado BC por su posición paramétrica k con relación a las que engloban los vértices B y C.
5. Procedimiento según la reivindicación 1, 2 y 3, caracterizado porque consiste en:
-
una proyección de la faceta seleccionada sobre una esfera de proyección (7)
-
un corte de la faceta proyectada creando puntos clones asimilados a nuevos vértices sobre la esfera cuando uno de los lados o vértices de la faceta atraviesa el meridiano de corte o cuando uno de los ápices pertenece al espacio angular de la faceta (8, 9);
-
una transposición de la imagen esférica a imagen plana, asociando cada punto de imagen de la esfera definido por el corte de su superficie en áreas elementales y por su posición I de elevación y c de marcación, a un punto de imagen de la imagen plana definido por su línea I y columna c (10), correspondiendo los ápices y meridiano de corte a las posiciones extremas respectivamente de líneas y columnas,
-
una determinación de cada lado de la faceta proyectada que une los vértices proyectados incrementando la marcación de un plano que contiene el eje vertical de la esfera entre las marcaciones de 2 planos, que incluyen los vértices y determinando la elevación del punto de intersección de este plano con el lado de la faceta tratado (11).
-
un relleno de un tampón esférico temporal correspondiente a la faceta tratada almacenando, para cada punto de imagen de la faceta proyectada, la distancia, la etiqueta y eventualmente el color de cada punto del espacio asociado a este punto de imagen (12).
-
una comparación, en función de las distancias asociadas a cada punto de imagen del tampón esférico temporal con un tampón esférico de referencia correspondiente a la imagen completa (13).
6. Procedimiento según la reivindicación 5, caracterizado porque se efectúa un tratamiento de erosión morfológico sobre la imagen plana obtenida para la faceta actual tratada.
\newpage
7. Procedimiento según la reivindicación 1, caracterizado porque el punto de observación corresponde a una fuente luminosa, correspondiendo el eje de visión al eje principal de radiación, para ser utilizado en la "modelización" de la propagación de energía en la escena en 3 dimensiones.
ES95932792T 1994-09-30 1995-09-26 Procedimiento para generacion de imagenes de sintesis por tampon esferico. Expired - Lifetime ES2204965T3 (es)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
FR9411736A FR2725291B1 (fr) 1994-09-30 1994-09-30 Procede de generation d'images de synthese par tampon spherique
FR9411736 1994-09-30

Publications (1)

Publication Number Publication Date
ES2204965T3 true ES2204965T3 (es) 2004-05-01

Family

ID=9467474

Family Applications (1)

Application Number Title Priority Date Filing Date
ES95932792T Expired - Lifetime ES2204965T3 (es) 1994-09-30 1995-09-26 Procedimiento para generacion de imagenes de sintesis por tampon esferico.

Country Status (7)

Country Link
US (1) US5923331A (es)
EP (1) EP0731960B1 (es)
JP (1) JP3463755B2 (es)
DE (1) DE69531536T2 (es)
ES (1) ES2204965T3 (es)
FR (1) FR2725291B1 (es)
WO (1) WO1996010805A1 (es)

Families Citing this family (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6345113B1 (en) * 1999-01-12 2002-02-05 Analogic Corporation Apparatus and method for processing object data in computed tomography data using object projections
US6094492A (en) * 1999-05-10 2000-07-25 Boesen; Peter V. Bone conduction voice transmission apparatus and system
EP1332474A1 (en) * 2000-11-07 2003-08-06 Holographic Imaging LLC Improved three dimensional display
US7295200B2 (en) * 2000-11-07 2007-11-13 F. Poszat Hu, Llc Computer generated hologram display system
US6481775B2 (en) * 2000-12-08 2002-11-19 Kay Automotive Graphics Molded vehicle interior trim
US6917842B2 (en) * 2001-02-20 2005-07-12 Canon Kabushiki Kaisha Information processing apparatus and method
US7202867B1 (en) 2003-01-31 2007-04-10 Microsoft Corporation Generation of glow effect
US7274365B1 (en) * 2003-01-31 2007-09-25 Microsoft Corporation Graphical processing of object perimeter information
US8638327B2 (en) * 2007-11-14 2014-01-28 Microsoft Corporation Tiled projections for planar processing of round earth data
US8584044B2 (en) * 2007-11-16 2013-11-12 Microsoft Corporation Localized thumbnail preview of related content during spatial browsing
US8081186B2 (en) * 2007-11-16 2011-12-20 Microsoft Corporation Spatial exploration field of view preview mechanism
US9078299B2 (en) 2011-04-14 2015-07-07 Suntracker Technologies Ltd Predictive daylight harvesting system
US10289094B2 (en) 2011-04-14 2019-05-14 Suntracker Technologies Ltd. System and method for the optimization of radiance modelling and controls in predictive daylight harvesting
US10290148B2 (en) 2011-04-14 2019-05-14 Suntracker Technologies Ltd. System and method for real time dynamic lighting simulation
US10262460B2 (en) * 2012-11-30 2019-04-16 Honeywell International Inc. Three dimensional panorama image generation systems and methods
EP2941726A1 (de) * 2013-01-07 2015-11-11 MAGMA Giessereitechnologie GmbH Verfahren zur simulation von wäremstrahlungn zwischen oberflächen
DK178433B1 (en) * 2014-07-01 2016-02-22 Magma Giessereitechnologie Gmbh PROCEDURE FOR DISCRETING A SPACE ANGLE FOR USE IN A SIMULATION OR CALCULATION PROCESS
DK178393B1 (en) * 2014-07-01 2016-02-01 Magma Giessereitechnologie Gmbh PROCEDURE AND ALGORITHM FOR SIMULATING THE IMPACT OF THERMAL COUPLED SURFACE RADIATION IN CASTING PROCESSES
US9998655B2 (en) * 2014-12-23 2018-06-12 Quallcomm Incorporated Visualization for viewing-guidance during dataset-generation
KR102458339B1 (ko) * 2015-08-07 2022-10-25 삼성전자주식회사 360도 3d 입체 영상을 생성하는 전자 장치 및 이의 방법
CN110322539B (zh) * 2019-06-04 2021-02-02 贝壳找房(北京)科技有限公司 三维物体的三维模型切割过程显示方法、装置与电子设备

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4583185A (en) * 1983-10-28 1986-04-15 General Electric Company Incremental terrain image generation
US4715005A (en) * 1984-08-08 1987-12-22 General Electric Company Terrain/seascape image generator with math model data base
US4821212A (en) * 1984-08-08 1989-04-11 General Electric Company Three dimensional texture generator for computed terrain images
US4855937A (en) * 1984-08-08 1989-08-08 General Electric Company Data block processing for fast image generation
US4862388A (en) * 1986-12-15 1989-08-29 General Electric Company Dynamic comprehensive distortion correction in a real time imaging system
US4928250A (en) * 1986-07-02 1990-05-22 Hewlett-Packard Company System for deriving radiation images
US4807158A (en) * 1986-09-30 1989-02-21 Daleco/Ivex Partners, Ltd. Method and apparatus for sampling images to simulate movement within a multidimensional space
US5051734A (en) * 1990-01-11 1991-09-24 The Grass Valley Group, Inc. Special effects using polar image coordinates
US5222896A (en) * 1991-08-08 1993-06-29 British Technology Group Usa Inc. Polyhedral approximation of a spherical body and two-dimensional projections therefrom
EP0723689B1 (en) * 1993-10-15 1998-02-04 EVANS & SUTHERLAND COMPUTER CORPORATION Direct rendering of textured height fields
US5694530A (en) * 1994-01-18 1997-12-02 Hitachi Medical Corporation Method of constructing three-dimensional image according to central projection method and apparatus for same

Also Published As

Publication number Publication date
US5923331A (en) 1999-07-13
WO1996010805A1 (fr) 1996-04-11
EP0731960B1 (fr) 2003-08-20
FR2725291A1 (fr) 1996-04-05
JPH10506487A (ja) 1998-06-23
FR2725291B1 (fr) 1996-11-29
DE69531536T2 (de) 2004-06-24
JP3463755B2 (ja) 2003-11-05
DE69531536D1 (de) 2003-09-25
EP0731960A1 (fr) 1996-09-18

Similar Documents

Publication Publication Date Title
ES2204965T3 (es) Procedimiento para generacion de imagenes de sintesis por tampon esferico.
Barnsley et al. Fractal modeling of real world images
US8432435B2 (en) Ray image modeling for fast catadioptric light field rendering
Goral et al. Modeling the interaction of light between diffuse surfaces
CN108876926A (zh) 一种全景场景中的导航方法及系统、ar/vr客户端设备
US5594850A (en) Image simulation method
CN107257992A (zh) 用于牙科3d扫描仪的纹理映射的设备和方法
JP2004252935A (ja) 3dオブジェクトをモデル化する方法
Dollner et al. Real-time expressive rendering of city models
CN107016719A (zh) 一种屏幕空间的次表面散射效果实时绘制方法
CN112819941A (zh) 渲染水体面的方法、装置、设备和计算机可读存储介质
ES2226109T3 (es) Metodo de formacion de la caracteristica de proyector y procesador de imagen que lo utiliza.
KR100559127B1 (ko) 화상처리장치
Hall et al. Algorithms for realistic image synthesis
Verhoeven et al. Unfolding leonardo da Vinci’s globe (AD 1504) to reveal its historical world map
CN107564090A (zh) 一种三维牙颌模型渲染方法
TWI780945B (zh) 使用有超解析度影像之等高線產生系統及使用有超解析度影像之等高線產生程式
CN107566777A (zh) 视频聊天的画面处理方法、装置和存储介质
Todd et al. Simulation of curved surfaces from patterns of optical texture.
Wegman et al. On methods of computer graphics for visualizing densities
Bayarri Computing non-planar perspectives in real time
Graf et al. Computer graphics and remote sensing–a synthesis for environmental planning and civil engineering
ES2209453T3 (es) Procedimiento de modelizacion de objetos o de escenas en 3d.
Fober Perspective picture from Visual Sphere: a new approach to image rasterization
Rakhmanova Primary Concepts of Perspective and Scientific Recources on Teaching it as a Science