ES2361228T3 - Renderización no-fotorrealista de una realidad aumentada. - Google Patents

Renderización no-fotorrealista de una realidad aumentada. Download PDF

Info

Publication number
ES2361228T3
ES2361228T3 ES08762451T ES08762451T ES2361228T3 ES 2361228 T3 ES2361228 T3 ES 2361228T3 ES 08762451 T ES08762451 T ES 08762451T ES 08762451 T ES08762451 T ES 08762451T ES 2361228 T3 ES2361228 T3 ES 2361228T3
Authority
ES
Spain
Prior art keywords
image
npr
captured
transparency
window
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
ES08762451T
Other languages
English (en)
Inventor
Guang-Zhong Yang
Mirna Lerotic
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ip2ipo Innovations Ltd
Original Assignee
Imperial Innovations Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Imperial Innovations Ltd filed Critical Imperial Innovations Ltd
Application granted granted Critical
Publication of ES2361228T3 publication Critical patent/ES2361228T3/es
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/50Lighting effects
    • G06T15/503Blending, e.g. for anti-aliasing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/02Non-photorealistic rendering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2210/00Indexing scheme for image generation or computer graphics
    • G06T2210/62Semi-transparency

Abstract

Un método de renderizar (interpretar) una imagen digital capturada, captada por una cámara y definida por una pluralidad de pixeles de imagen como una imagen NPR renderizada (interpretada) de manera no-fotorrealista definida por una pluralidad de pixeles de imagen NPR cada uno de los cuales tiene un valor de transparencia NPR asociado, en el que el valor de transparencia de al menos algunos de los pixeles de imagen NPR es determinado con dependencia de correspondientes pixeles de la imagen capturada, incluyendo el método renderizar (interpretar) un objeto virtual detrás de la imagen NPR.

Description

La presente invención se refiere a un método de renderizar (interpretar) imágenes, en particular para proporcionar indicaciones de oclusión, por ejemplo presentaciones visuales de realidad médica aumentada.
La realidad aumentada (RA) se está convirtiendo en una herramienta valiosa en las operaciones quirúrgicas. El hecho de proporcionar datos pre-operativos grabados en tiempo real durante una operación quirúrgica elimina la necesidad de referirse a imágenes fuera de línea y ayuda a la grabación de éstas para el tejido real. La visualización de los objetos de interés resulta accesible a través de la visión de “penetración” que proporciona la RA.
En años recientes, están siendo utilizados de manera creciente robots médicos en Cirugía Mínimamente Agresiva (CMA). Con CMA robótica asistida, se mejora la destreza mediante muñecas mecánicas controladas por microprocesador, permitiendo la graduación del movimiento para reducir bastos movimientos manuales y el comportamiento de tareas de micro-escala que no son de otro modo posibles.
El establecimiento operacional único del robot quirúrgico proporciona una plataforma ideal para mejorar el campo visual con imágenes pre-operativas/intra-operativas o gráficos generados por ordenador. La efectividad y el beneficio clínico de la RA han sido bien reconocidos en neurocirugía y cirugía ortopédica. Su aplicación a cirugía cardiotorácica
o gastrointestinal, sin embargo, permanece limitada, ya que la complejidad de la deformación del tejido impone retos significativos a la presentación de la RA.
La síntesis sin juntura de la RA depende de cierto número de factores relativos al modo en el que aparecen los objetos visuales e interactúan visualmente con una escena real. Uno de los mayores problemas de la RA es la manipulación correcta de la oclusión. Aunque la manipulación de oclusión parcial del entorno virtual y real puede ser conseguida mediante reconstrucción exacta en 3D de la escena quirúrgica, particularmente con el advenimiento de técnicas recientes para recuperación de deformación de tejido en 3D en tiempo real, la mayoría de las aplicaciones quirúrgicas de RA implican la superposición de estructuras anatómicas detrás de la superficie de tejido expuesta. Esto es importante, por ejemplo, para bypass coronario, para el cual la visualización anatómica y funcional mejorada permite más exacta navegación intra-operativa y extirpación de vasos. En prostatectomía, la visualización en 3D de la anatomía circundante puede dar lugar a preservación mejorada del haz neurovascular e índices de continencia y potencia mejorados.
Aunque proporciona una referencia útil en plano en entornos de visión estéreo, la tradicionalmente superpuesta RA adolece de percepción inexacta en profundidad. Incluso si el objeto es renderizado (interpretado) a la profundidad correcta, el cerebro percibe el objeto como flotando sobre la superficie (Véase, por ejemplo, Johnson LG, et al, La transparencia superficial hace impredecible las superposiciones estéreo: las implicaciones para realidad aumentada, Studies in Health Technology and Informatics 2003, 94:131-6; y Swan JE, el al, Juicios de Profundidad Egocéntricos en Optica, Realidad Aumentada de Penetración, IEEE Transactions on Visualization and Computer Graphics 2007, 13(3):429-42). Esta impresión es mejorada por una renderización (interpretación) (interpretación) estilizada; véase por ejemplo Ficher et al, Realidad Aumentada Estilizada para Inmersión Mejorada, Proc. of VR 2005, IEEE, Bonn, Alemania, 12-16-3-2005, p. 195-202, 325, xp010836683.
Para objetos que se han de percibir como embebidos en el tejido, nuestros cerebros esperan algún grado de oclusión. Para enfrentarse al problema de la percepción profunda en RA, han sido desarrolladas técnicas de renderización (interpretación) (interpretación) y estrategias de presentación para permitir la percepción exacta de profundidad en 3D de las estructuras virtuales con respecto a la superficie de tejido expuesta. En Sielhorst T, el al, Percepción de Profundidad – Una Cuestión Importante en RA Médica: Estudio de Evaluación por Veinte Cirujanos, Medical Image Computing and Computer-Assisted Intervention – MICCAI 2006 2006:364-72, ha sido estudiado el tejido de percepción en profundidad en RA médica. De acuerdo con las dos referencias citadas anteriormente, se encontró que la percepción de profundidad es pobre si el objeto de RA se renderiza (interpreta) de manera opaca cuando parece flotar sobre la superficie exterior del cuerpo incluso aunque se renderiza (interpreta) a la profundidad correcta detrás de ella. Se identificaron dos modos de mejorar la percepción de profundidad: renderizar (interpretar) tanto la superficie del cuerpo como el objeto de RA como transparentes o renderizar (interpretar) la superficie del cuerpo con una ventana definida dentro de él de tal manera que la ventana proporciona una pista de oclusión por la que el objeto de RA pueda ser visto dentro de la ventana, pero esté de otro modo ocluido por la superficie del cuerpo. Con respecto al primer enfoque [renderización (interpretación) transparente], aunque esto puede da lugar a una percepción de profundidad mejorada para algunas superficies, en general renderizar (interpretar) dos superficies transparentes superpuestas da lugar a indicaciones visuales conflictivas desde la oclusión de tal manera que es pobre la percepción de profundidad (Véase, por ejemplo, Johnson et al citado anteriormente). El último enfoque (renderización (interpretación) de una ventana) tiene la desventaja de que se pierde toda la información acerca de la superficie del cuerpo dentro de la ventana.
En Ventana Virtual para Percepción de Profundidad Mejorada en RA Médica: C. Bichimeir, N. Navab, Taller Internacional sobre entornos para Formación de Imágenes Médicas y Cirugía ayudada por Ordenador (AMI-ARCS 2006), Copenhagen, Dinamarca, octubre de 2006 (disponible en línea en http://ar.in.tum.de/pub/bichlmeier2006window/bichlmeier2006window.pdf) han sido estudiados varios enfoques para mejorar la percepción de profundidad obtenida con el enfoque de ventana mientras se mantiene información acerca de la superficie del cuerpo dentro de la ventana. Han sido considerados los siguientes enfoques: adaptar la forma de ventana a la forma de la superficie del cuerpo, renderizar (interpretar) la superficie de la ventana parecida a vidrio utilizando efectos de luz máxima debido a una fuente de luz virtual, mapear el plano de ventana con una textura estructurada única, simular una estructura finitamente dimensionad para la ventana y fijar el fondo de los objetos de RA ya sea transparentes u opacos. Una desventaja de todos los enfoques, excepto el último, es que debe ser conocido un modelo de 3D de la superficie del cuerpo para que el contorno o superficie de la ventana se pueda renderizar (interpretar) correspondientemente. Un tal modelo de 3D puede ser difícil de obtener de manera fiable, en particular si la superficie del cuerpo se está deformando o cambiando de otros modos durante la formación de imagen.
De acuerdo con un aspecto de la invención, se proporciona un método de renderizar (interpretar) una imagen digital capturada como se define en la reivindicación 1.
Ventajosamente, estableciendo valores de transparencia de una imagen correspondiente renderizada (interpretada) de manera no-fotorrealista (NPR: non-photorealistically rendered) basada en la propia imagen capturada, es posible definir una ventana parcialmente transparente que conserve algo de la estructura de la imagen para proporcionar indicaciones de oclusión tales que hagan posible la percepción de profundidad [en el caso de una renderización (interpretación) bidimensional de la imagen] o ayudada [en el caso de renderización (interpretación) tridimensional de la imagen]. Esta solución no requiere un modelo de la escena subyacente a la imagen según está basado en los propios datos de imagen.
Como se ha mencionado anteriormente, la imagen NPR puede ser renderizada (interpretada) como una vista bidimensional o una segunda imagen puede ser capturada para definir una vista estereoscópica. En cualquier caso, puede ponerse detrás de la imagen capturada un objeto virtual (por ejemplo la RA).
La asignación de los valores de transparencia se puede hacer dentro de una ventana de tal manera que la imagen NPR capturada permanezca opaca fuera de la ventana, ocluyendo el objeto cuando no se ve a través de la ventana. Para una apariencia más natural de la escena o para ayudar a fundir las dos ventanas en una vista estereoscópica, los valores de transparencia pueden ser mezclados gradualmente desde dentro de la ventana al exterior de la misma. La posición de la ventana puede ser definida con dependencia de la mirada del observador, siguiendo continuamente la mirada del observador o actualizando la posición o actualizando la posición sólo cuando se reciba una petición de actualización del observador. Naturalmente, en caso de visión estereoscópica, las ventanas en las dos imágenes (derecha e izquierda) de NPR pueden ser desplazadas en una magnitud determinada por las posiciones de la cámara y los parámetros de acuerdo con la vista estereoscópica.
Los valores de transparencia pueden ser determinados como una función de un gradiente de intensidad de imagen normalizado en lugares correspondientes de la imagen capturada. El cálculo del gradiente de intensidad de imagen puede incluir la determinación de una derivada parcial con respecto a una coordenada de imagen dividida por la intensidad de imagen en los correspondientes lugares.
La determinación de la transparencia de imagen de NPR como se ha expuesto anteriormente, puede ser vista como un ejemplo de un método de fijar los valores de transparencia definiendo un mapa de prioridad o saliencia (saliency map) para un área de la imagen NPR y asignando valores de transparencia como una función de valores de respectivos lugares correspondientes en el mismo mapa de prioridad. El mapa de prioridad puede estar dispuesto para capturar características sobresalientes de la imagen, por ejemplo características que son sobresalientes debido a que sobresalen del fondo de la escena subyacente o debido al contraste de color y/o intensidad. En particular, el mapa de prioridad puede ser definido como una función de inclinaciones locales en la escena subyacente a la imagen, por ejemplo según es estimada sobre la base de sombreado de la imagen. Las inclinaciones locales pueden ser estimadas como una función de respectivos gradientes de intensidad normalizados en la imagen.
Además de asignar valores de transparencia para conservar características sobresalientes como más o menos opacas y hacer el fondo dentro de una zona o ventana más o menos transparente, el mapa de prioridad puede ser usado también para asignar un valor de color a un píxel de la imagen NPR, por ejemplo usando una escala de colores. En particular, los valores de transparencia y de color pueden ser asignados de tal manera que un objeto renderizado (interpretado) detrás de la imagen NPR está siendo percibido como visto a través de la zona transparente (ventana) mientras está siendo ocluido por pixeles dentro de la zona que tiene elevados valores en el mapa de prioridad.
En una aplicación, el objeto virtual puede ser derivado de datos médicos de formación de imagen, por ejemplo imágenes de CT o MRI de un tumor. En particular, las imágenes pueden ser capturadas usando un endoscopio estereoscópico, por ejemplo durante cirugía torácica de ojo de cerradura. Sin embargo, se comprenderá que el método de renderización (interpretación) descrito anteriormente no está limitado a aplicaciones médicas de RA, sino que es más generalmente aplicable a aplicaciones de RA en las que el objeto virtual está fuera de la vista normal del observador detrás de una escena capturada.
En un aspecto más de la invención, se proporciona un sistema para renderizar (interpretar) una imagen digital según se reivindica en la reivindicación 21.
Todavía en un aspecto más de la invención se proporciona una consola de cirugía robótica según se define en la reivindicación 41.
Otros aspectos de la invención se extienden a un programa de ordenador según se define en la reivindicación 42.
Para evitar dudas, la expresión imagen NPR (abreviatura de Non-Photorealisticaly Rendered imagen) se usa en esta memoria para designar la imagen digital capturada y tratada, aplicada por ejemplo como una textura a un plano correspondiente a un plano de imagen en un modelo de gráfico de ordenador en 3D que puede contener también el objeto de RA. Naturalmente, este modelo puede ser renderizado (interpretado) como una imagen en 2D o endoscópica en 3D.
A continuación se describirán realizaciones de la invención a modo de ejemplos solamente y haciendo referencia a los dibujos que se acompañan, en los cuales:
La figura 1 es un diagrama de flujo de un método para renderización (interpretación) no-fotorrealista de al menos parte de una imagen, por ejemplo para revelar un objeto renderizado (interpretado) detrás de la escena capturada en la imagen; La figura 2 es un diagrama de flujo de un algoritmo para la renderización (interpretación) de una imagen NPR correspondiente y un objeto de RA en 2D ó 3D; La figura 3 representa un sistema correspondiente; La figura 4 representa un función de enmascaramiento utilizada en el tratamiento; y La figura 5 representa un ejemplo de una vista de RA renderizada (interpretada) usando el método descrito.
La idea subyacente para el presente método de renderizar (interpretar) una imagen como aplicado a presentaciones visuales médicas de RA es renderizar (interpretar) una superficie anatómica expuesta como una capa traslúcida mientras se conservan detalles suficientes para ayudar en la navegación e indicación de profundidad. Una realización está basada en espacio-pq basado en renderización (interpretación) No-Fotorrealista (NPR) para proporcionar una visión de penetración del objeto virtual embebido mientras se mantienen detalles anatómicos sobresalientes de la superficie anatómica expuesta. A este fin, la geometría de superficie basada en representación de espacio-pq es primeramente derivada, donde p y q representan la pendiente de la superficie de la imagen a los largo de los ejes x, y, respectivamente. Por ejemplo, esto se puede conseguir con estéreo fotométrico introduciendo múltiples condiciones de iluminación. Para deformar tejido, sin embargo, el problema está mal planteado y no es posible la introducción de múltiples fuentes de luz en una disposición endoscópica. Sin embargo, el problema puede ser simplificado para casos en los que tanto la cámara como una fuente de luz estén cerca de la superficie en la que se forma imagen (véase Rashid HU, Burger P. “Algoritmo diferencial para la determinación de la forma a partir del sombreado usando una fuente de luz puntual”. Image and Vision Computing 1992; 10(2):119 – 27), tal como broncoscopios y endoscopios. En tales casos, el valor de la intensidad de imagen en coordenadas x, y para una fuente de luz puntual próxima está dada por
s0(x,y)cos
E(x,y)  (1)
2
r
donde s0 es la constante de intensidad de la fuente de luz, ρ(x, y) es el albedo o coeficiente de reflexión, r es la distancia entre la fuente de luz y el punto de la superficie (x, y, z), y θ es el ángulo entre el rayo de luz incidente y la normal a la superficie ñ. En espacio de gradiente, el vector normal a la superficie es igual a
(p,q,1)
ñ 
imagen1 (2)
1 p2  q2
donde p y q representan inclinaciones de la superficie en direcciones x e y, respectivamente. Para una superficie Lambertiana lisa en la escena, la intensidad de imagen dada por la Ecuación 1 puede ser reducida a
5
10
15
20
25
30
35
40
(1 p0x  q0 y)3
E(x,y)  s  (3)
0 promedio 2 2 2 21/2 2 23/2
Z (1 px  qy ) (1 p  q ) (1 x  y )
0 0000 0 0
que define la relación entre la intensidad de imagen E(x, y) en el punto (x, y) y el flujo radiante de la escena en el correspondiente punto de superficie (x0Z0, y0Z0, Z0) con una superficie normal (p0, q0, -1), donde ρpromedio indica el albedo promedio en una pequeña proximidad de la superficie y s0 es la constante de intensidad de la fuente de luz puntual. La superficie Lambertiana bajo iluminación de fuente puntual es un material de superficie idealizada que satisface dos condiciones: (1) parece igualmente brillante desde todas las direcciones de visión, y (2) refleja toda la luz incidente.
Utilizando derivadas parciales de la intensidad de imagen en la Ecuación 3, las derivadas parciales normalizadas en x/y en el lugar de la imagen (x, y), Rx/y, pueden ser expresadas en términos sólo de coordenadas de imagen e
inclinaciones locales:
Rx
 1 E   x E      (13  )00 0 q yp x p  (1 2x x    )2y
(4)
Ry
 1 E   y E      (13  )00 0 q yp x q  (1 2x y    )2y
Esto
se puede expresar nuevamente como dos ecuaciones lineales en p0 y q0 (siendo las derivadas parciales
normalizadas o gradiente normalizado Rx/y, en el lugar (x, y) de la imagen determinable a partir de la intensidad de la imagen en (x, y) y su proximidad):
A1p0 + B1q0 + C1 = 0 A2p0 + B2q0 + C2 = 0 (5)
con
22 2
A  (x  R  3) (1 x  y ) 3 x
10 x 00 0
B R (1 x2  y2) y  3 x  y
1 x 000 00
22
C R  (1 x  y ) 3 x (6)
1 x 00 0
A2 Ry  (1 x02  y02) x0  3 x0  y0
22 2
B2  (y0  Ry  3) (1 x0  y0) 3 y0
C2  Ry  (1 x02  y02) 3 y0
que da las siguientes expresiones para p0 y q0 en cada punto (x, y) de la imagen:
BC  BC
21 12
p  (7)0 BA  AB
12 12
 AC  AC
21 12
q  (8)0 BA  AB
12 12
Los valores de p y q de la superficie con imagen captan detalles en 3D de la estructura anatómica expuesta y se usan para acentuar características sobresalientes (que son características que sobresalen de la superficie y por tanto que tienen un elevado gradiente) mientras hacen semi-transparente la superficie de fondo suavemente variable. Se entenderá que los valores de p y q pueden ser calculados utilizando cualquier técnica apropiada. Para crear las indicaciones visuales deseadas, las superficies de la escena que son paralelas al plano de visión (bajos p, q) son renderizada (interpretada)s como más o menos transparentes mientras las estructuras inclinadas (altos p y q) son renderizada (interpretada)s más o menos opacas. Una medida de la inclinación de la superficie es generada a partir de valores-pq para cada punto de imagen (x, y) por
S(x, y) = log(abs(p0) + abs(q0)+1) (9)
En donde valores altos de S(x, y) corresponden a gradientes grandes. En efecto, esto proporciona un mapa de prioridad o imagen sobresaliente. El algoritmo agrupa valores elevados de p y q para limitar el intervalo dinámico para fines de presentación visual. Un mapa B de fondo liso es creado aplicando un amplio filtro Gaussiano al mapa de prioridad S, con lo que se suavizan las elevadas variaciones de frecuencia en la imagen propensas a representar ruido
o variaciones menos importantes de superficie en lugar de características sobresalientes de “verdad”. Las imágenes sobresalientes y de fondo se combinan usando una máscara de tal manera que valores de pixeles bajos de S son sustituidos con el valor de B en el píxel correspondiente de (x, y), como se describe con detalle en lo que sigue.
Pasando a la aplicación práctica del mapa de prioridad anterior, con referencia a la figura 1, en un método 2 de producir una renderización (interpretación) no-realista de una imagen capturada (o una zona de la misma) para uso como una textura proyectada sobre un plano de imagen en un modelo de gráfico de ordenador, en el paso 4 se define una región de interés (ROI: región of interest) para tratamiento de NPR. Esto puede incluir la imagen completa o una subzona de la misma. En el paso 6 la región de interés es previamente tratada incluyendo convertir los valores de color de píxel (si está en color) a la escala del gris y aplicando una función de alisamiento suave tal como una Gaussiana de 3x3 pixeles. En el paso 8, el mapa de prioridad es calculado a partir de la imagen capturada en la ROI como se ha descrito anteriormente usando cualquier método conocido para calcular las derivadas parciales, por ejemplo diferenciando simplemente los valores de píxel del píxel en cuestión con un píxel vecino en la dirección pertinente (por ejemplo, x). El mapa es calculado a partir de la derivada parcial y de la intensidad de imagen (por ejemplo, valor de la escala del gris) en cada píxel o situación en la ROI.
En el paso 10, el mapa de prioridad es desprovisto de ruido combinándolo con el mapa de fondo liso B (por ejemplo B puede ser derivada de S aplicando un filtro Gaussiano amplio de 6x6 pixeles con una extensión de 7 pixeles). S y B se combinan de acuerdo con una función de enmascaramiento como
S(x, y) = máscara(x, y)·S(x, y)+(1-máscara(x, y)·B(x, y) (10)
de tal manera que el mapa de prioridad es mezclado con el mapa de fondo, por lo que S domina donde S es alto y B domina donde S es bajo. La función de enmascaramiento puede se definida usado estrías con unos pocos puntos de control (por ejemplo una estría Catmull Rom). En la figura 5 está representada una función de enmascaramiento apropiada como una función de S(x, y). Naturalmente, se pueden utilizar también otras funciones de enmascaramiento, por ejemplo una función de etapa con un valor de umbral apropiado para S(x, y). Otro ejemplo podría ser una función polinómica apropiada.
En el paso 12, a los pixeles dentro de la región de interés desprovista de ruido les son asignados valores de color de acuerdo con el mapa de prioridad S(x, y) usando una escala de colores. Una escala de colores apropiada puede estar comprendida en el intervalo del negro para el valor mínimo de S, y a través de azul a blanco para el valor máximo. Estos colores artificiales se aplican a la imagen NPR de acuerdo con una función de ventana, por ejemplo una función de ventana radial f(r) de tal manera que el color artificial se aplica dentro de la ventana y el color original de la imagen permanece fuera de la ventana. Un ejemplo de f(r) es una función de etapa, en cuyo caso la ventana tendría un borde agudo que cambia discretamente del color artificial al color de imagen. Para conseguir una transición suave, f(r) define una región de transición en otro ejemplo
2
r
f (r)  para r < r0, f(r) = 1 para r > r0 (11)
2
r
0
donde r2 = (x - xcentral)2 + (y – ycentral)2 y r0 determina el tamaño de ventana. Definiendo una transición suave, se puede ayudar, si es aplicable, la fusión de las dos (izquierda y derecha) ventanas en una imagen estéreo (véase más abajo).
En el paso 14, la transparencia de píxel de imagen NPR dentro de la misma ventana es fijada de acuerdo con S(x, y) y la función de ventana f(r) de tal manera que el valor más bajo de S corresponde a la completa (o casi completa, por ejemplo 95%) transparencia y el valor máximo de S corresponde a la completa (o casi completa, por ejemplo 95%) opacidad y los valores de transparencia se mezclan con el resto de la imagen NPR usando f(r), por ejemplo.
Para evitar dudas, se puede ver un ejemplo de la operación de mezcladura usando f(r) como mezcladura de la Imagen Renderizada (interpretada) No-Fotorrealista (NPI) tratada con la Imagen Capturada (CI) para llegar a la imagen NPR como sigue:
Imagen NPR = f(r)·CI + (1 – f(r))·NPI (12)
La situación de la ventana (es decir, el origen de f(r) en el anterior ejemplo (xcentral , ycentral)) se puede fijar de numerosos modos. Por ejemplo, en algunas realizaciones la posición de la ventana es previamente definida basándose en la posición del objeto de RA que se ha de renderizar (interpretar) detrás del plano de imagen, en particular si existe sólo un objeto único que se ha de renderizar (interpretar) dentro del campo de vista. Alternativamente, en algunas realizaciones la posición de la ventana puede ser determinada sobre la base de una mirada del observador (por ejemplo detectada utilizando un dispositivo seguidor de los ojos), ya sea actualizada continuamente o de acuerdo con una fijación del observador cuando el observador emite una petición para que la posición de ventana sea actualizada (o, en algunas realizaciones, si no es actualmente presentada ventana, la ventana es presentada de acuerdo con las fijaciones del observador cuando es activada la ventana). Esta presentación dinámica de ventana puede ser particularmente útil si está siendo renderizada (interpretada) una escena completa de RA en lugar de un objeto único.
Con referencia a las figuras 2 y 3, se describe a continuación un sistema y un método para presentar una imagen capturada de una escena junto con un objeto de realidad aumentada. En el paso 16, es capturada una imagen de la escena por un dispositivo 22 de formación de imagen y transmitida a una unidad de tratamiento 24. La imagen capturada es tratada como una textura proyectada sobre un objeto del plano de la escena que se ha de presentar en un modelo de gráfico de ordenador en algunas realizaciones. El modelo de gráfico de ordenador puede ser ejecutado en la práctica de varios modos, por ejemplo utilizando la librería de gráficos de OpenGL en un programa de C++, en algunas realizaciones.
La perspectiva correcta (y la disparidad en el caso de renderización (interpretación) en 3D) está ya contenida en la imagen capturada (imagen capturada izquierda y derecha en el caso de un dispositivo de formación de imagen con cámara estéreo), pero la información de profundidad acerca del objeto de realidad aumentada en el modelo de gráfico de ordenador es importante para manejar compatiblemente la oclusión.
Para cámaras y presentaciones visuales en estéreo, la posición del objeto de realidad aumentada en la visa izquierda y derecha tiene que adaptar la disparidad en las imágenes capturadas. Esto se consigue por medio de calibración de cámara estéreo que proporciona transformaciones necesarias entre las vistas. En la escena combinada, las imágenes capturadas son presentadas en la misma posición para ambas vistas, izquierda y derecha, puesto que contienen ya la disparidad, mientras que el objeto de realidad aumentada es puesto en diferentes posiciones para las vistas izquierda y derecha de manera que se adapte la disparidad de las imágenes capturadas. Las transformaciones obtenidas como parte de una calibración de cámara estéreo son utilizadas usando transformaciones de OpenGL en algunas realizaciones.
En algunas ejecuciones prácticas ejemplares, se abre una ventana de OpenGL para cada presentación (izquierda y derecha) y la imagen NPR es presentada (por ejemplo, aplicada a un objeto en el plano de escena que actúa como una pantalla de proyección) en cada ventana a una profundidad apropiada (véase más adelante). El objeto de RA es entonces renderizado (interpretado) para cada ventana usando la calibración de cámara para la respectiva cámara (izquierda y derecha). Similarmente, la posición relativa de la ROI y/o ventana en cada una de las ventanas de OpenGL se fija usando los datos de calibración de cámara para que sea compatible con la vista estereoscópica, en algunas realizaciones. A este respecto, ventanas suavemente mezcladas ayudarán en la fusión de dos ventanas en una vista estereoscópica incluso si el desplazamiento de la ventana no está exactamente de acuerdo con la vista estereoscópica. Por ejemplo, una aproximación apropiada para una cámara de endoscopio estereoscópico es usar el desplazamiento de cámara como el desplazamiento de ventana en algunas ejecuciones prácticas.
Para asegurar que cada píxel sea correctamente coloreado, la coordenada z de la imagen NPR (el plano del objeto de escena) debe estar más próximo a la posición de la cámara en el modelo de gráfico de ordenador que la posición del objeto de RA en la estructura de cámara de tal manera que los pixeles adopten los valores de color del objeto de escena donde el objeto de escena ocluye el objeto de RA detrás del mismo (o donde partes de baja transparencia del objeto de escena dominan la coloración de los pixeles correspondientes). Puesto que las indicaciones de oclusión proporcionadas por el tratamiento no-fotorrealista explicado anteriormente son sólo necesarias cuando el objeto de RA se sitúa detrás de la superficie capturada por el dispositivo 22 de formación de imagen (de otro modo el objeto real sería visible en la imagen capturada), se supone para renderización (interpretación) en algunas realizaciones que el objeto de escena está siempre delante del objeto de RA y, por ejemplo, el plano frontal del tronco de visión del modelo de gráfico de ordenador se utiliza como el objeto de escena sobre el que se proyecta(n) la(s) imagen(es) capturada(s) en algunas ejecuciones prácticas. Esto asegura la correcta manipulación de la oclusión sin influenciar la perspectiva o disparidad de la(s) imagen(es) capturada(s) que son definidas por el posicionamiento real de la cámara.
Alternativamente, en algunas ejecuciones prácticas la imagen NPR se sitúa en o cerca del plano focal de la cámara o la profundidad del plano de escena podría ser recuperado usando el descubrimiento de intervalo para fijar la profundidad de la imagen NPR (véase, por ejemplo, el documento de Stoyanov D., et al, Cirugía Asistida por Ordenador, julio de 2005, 10(4): 199-208, incorporado a esta memoria como referencia). Técnicas que son utilizadas para recuperación de profundidad en algunas realizaciones incluyen el uso de la vergencia del observador a partir del seguimiento del ojo (Mylonas GP et al, Procedimientos del segundo Taller International en Formación de Imágenes Médicas y Realidad Aumentada, MIAR (2004), Pekín, 311-319), recuperación de profundidad desde estéreo tal como técnicas de dispersión, forma a partir de sombreado o combinación de ambos (Stoyanov D et al, MICCAI (2) 2004: 4148) o el uso de luz estructurada (Koninckx TP y Van Gool L, IEEE PAMI, vol 28, no. 3, 2006), marcadores de referencia o descubrimiento de intervalo de láser (Mitsuhiro H et al, Análisis de Imagen Médica 10(2006) 509-519).
En el paso 18 se determina la posición del objeto de RA virtual en el modelo de gráfico de ordenador. Una entrada 26 de objeto de RA proporciona datos de coordenadas del objeto de RA obtenidos a partir de la formación de imagen médica, por ejemplo a partir de datos de MRI o CT. Estos datos han de ser expresados en coordenadas en una estructura de referencia fija en el cuerpo de un paciente antes de que sean obtenidas las imágenes para convertir los datos de imagen desde el dispositivo de formación de imagen médica a una estructura del cuerpo de referencia.
Para presentación exacta del objeto de RA junto con la imagen de escena capturada, las coordenadas de objetos de RA de la estructura del cuerpo de referencia definida por los indicadores de referencia necesitan ser transformadas en estructura de cámara del dispositivo de formación de imagen de referencia a partir de la entrada 28 de estructura de referencia que sigue tanto la posición de la cámara como la orientación, así como los indicadores de referencia, por ejemplo siguiendo los indicadores de referencia usando un dispositivo de seguimiento de 3 dimensiones para determinar la posición y la orientación de la estructura de referencia del cuerpo con relación a la estructura de referencia de la cámara, como es bien sabido en la técnica.
Si se conoce la posición de la cámara (por ejemplo en el caso de una consola de cirugía robótica, en la que la colocación de la cámara puede ser derivada de la posición del brazo robótico que soporta la cámara), esta posición conocida en una estructura de coordenadas fijada al recinto de operación se usa juntamente con los datos del seguidor para realizar la necesaria transformación de coordenadas en algunas ejecuciones prácticas particularmente relevantes para aplicaciones en una consola de cirugía robótica. En otras disposiciones en las que las cámaras son más móviles (tales como en una disposición de visión de penetración de vídeo montado en la cabeza) es necesario que la posición de la cámara sea seguida para poder realizar la requerida transformación de coordenadas. Detalles de las mediciones y transformación requeridas se describen en el documento de Vorgt S. et al, Aumento de Realidad paraOperaciones Médicas: Estructura del Sistema, Seguimiento de Indicador de Cámara Única y Evaluación del Sistema, International Journal of Computer Vision 2006, 70(2): 179-190.
En el paso 2 (se ha de entender que el orden de pasos no está limitado al mostrado en la figura 2, sino que los pasos pueden ser realizados en cualquier orden, sometido naturalmente a la limitación de que una imagen deba ser capturada antes de que pueda ser tratada), el tratamiento NPR de la imagen capturada es realizado como se ha descrito anteriormente con referencia a la figura 1, posiblemente tomando una entrada acerca de la posición de ventana desde la entrada 30 de posición de ventana que, en algunas realizaciones, incluye un seguidor de ojos e interfaz de usuario para activar o desactivar la ventana y seleccionar la posición de ventana, para la ventana descrita anteriormente.
Una vez que la imagen capturada ha sido tratada y aplicada como una imagen NPR al objeto de escena y ha sido definida la posición en 3D del objeto de RA como se ha descrito anteriormente, el objeto de escena y el objeto de RA son renderizado (interpretado)s para presentar en el dispositivo de presentación 32 en el paso 20. Esto puede ser una vista en 2D del correspondiente modelo de gráfico de ordenador en el que el dispositivo de presentación es un simple monitor o una vista en 3D que consiste en una imagen derecha e izquierda donde el dispositivo de presentación es capaz de estéreo.
En algunas realizaciones, el sistema y el método descritos anteriormente son incorporados en una consola de cirugía robótica mínimamente agresiva, por ejemplo la consola quirúrgica robótica Vinci por Intuitive Surgical, Inc. Mountain Wiew, USA. La consola proporciona manipulación robótica para controlar a distancia herramientas quirúrgicas mínimamente agresivas y realimentación visual en estéreo a través de un dispositivo de presentación en estéreo de posición fija que proporciona respectivas imágenes izquierda y derecha desde un endoscopio estereoscópico para cada ojo del operador. Las imágenes capturadas son tratadas como se ha descrito anteriormente y pueden ser entonces renderizada (interpretada)s conjuntamente con un objeto de RA (por ejemplo, la representación de un tumor).
Las figuras 5 a y b muestran respectivas vistas de ojos izquierdo y derecho de tejidos de pulmón a partir de una lobectomía de pulmón asistida por robótica. Las figuras 5 c y d muestran la misma vista con una superposición de RA transparente de un objeto de RA en el que tanto la escena como el objeto son renderizado (interpretado)s de manera transparente como en la solución de video de vista de penetración de Vogt et al, a que se ha hecho referencia anteriormente. Las figuras 5 e y f representan respectivas vistas izquierda y derecha de la escena de las figuras 5 a y b tratadas usando el método descrito anteriormente junto con el objeto de RA y las figuras g y h muestran las vistas de a y b, y e y f, respectivamente, combinadas usando ventana radial lisa. Como se puede ver claramente, la ventana proporciona una renderización (interpretación) más natural de la escena tridimensional según es visto el objeto de RA a través de la ventana mientras las características preservadas en la ventana mantienen información de referencia para el cirujano y proporcionan también indicaciones de profundidad adicionales por oclusión.
Se ha de entender que son posibles muchas modificaciones en las realizaciones descritas anteriormente. Por ejemplo, puede ser presentado más de un objeto y puede ser alterado el orden de las operaciones del método según se ha descrito anteriormente dentro de las limitaciones de ciertos pasos previos. Además, el método anteriormente descrito para la determinación de valores de transparencia que preserva características sobresalientes de una imagen mientras proporciona visión de penetración para un objeto subyacente al mismo tiempo será aplicable a cualquier otro tipo de escenas, objetos y aplicaciones además de las descritas anteriormente.
Se entenderá, por supuesto, que aunque se acaban de describir realizaciones particulares, el objeto reivindicado no está limitado en su alcance a una realización o ejecución práctica particular. Por ejemplo, una realización puede ser en hardware, tal como se ejecuta en la práctica para operar sobre un dispositivo o combinación de dispositivos, por ejemplo, mientras otras realizaciones pueden estar en software, o como cualquier combinación de hardware, software y/o firmware, por ejemplo. Análogamente, aunque el objeto reivindicación no está limitado en su alcance a este respecto, una realización puede comprender uno o más artículos, tales como un portador o medio de almacenamiento
o soporte de almacenamiento. El soporte de almacenamiento, tal como uno o más CD-ROMs, memoria de estado sólido, disco magneto-óptico y/o cintas o discos magnéticos, por ejemplo, puede tener instrucciones almacenadas en el mismo que, cuando son ejecutadas por un sistema, tal como un sistema de ordenador, plataforma de cálculo u otro sistema, por ejemplo, pueden dar lugar a una realización de un método que esté siendo ejecutado de acuerdo con el objeto reivindicado, tal como una de las realizaciones previamente descritas, por ejemplo. Una realización puede comprender una señal portadora en un medio de telecomunicaciones, por ejemplo una red de telecomunicaciones. Ejemplos de señales portadoras apropiadas incluyen una señal de radio-frecuencia, una señal óptica y/o una señal electrónica.
Como un ejemplo potencial, una plataforma de cálculo u ordenador puede incluir una o más unidades de tratamiento o procesadores, uno o más dispositivos de entrada/salida, tales como una pantalla de presentación, un teclado y/o un ratón, y/o una o más memorias, tales como memoria estática de acceso aleatorio, memoria dinámica de acceso aleatorio, memoria flash y/o disco duro.
En la descripción precedente han sido descritos varios aspectos del objeto reivindicado. Para fines de explicación, fueron expuestos números concretos, sistemas y/o configuraciones para proporcionar una comprensión completa del objeto reivindicado. Sin embargo, resultará evidente para un experto en la técnica que tiene el beneficio de esta descripción que el objeto reivindicado puede ser puesto en práctica sin los detalles concretos. En otros casos, fueron omitidas y/o simplificadas características bien conocidas para no oscurecer el objeto reivindicado. Aunque ciertas características han sido ilustradas y/o descritas en esta memoria, a los expertos en la técnica se les ocurrirán ahora muchas modificaciones, sustituciones, cambios y/o equivalentes. Por lo tanto, se ha de entender que las reivindicaciones adjuntas pretender cubrir todas las citadas modificaciones y/o cambios que caigan dentro del alcance del objeto reivindicado.

Claims (15)

  1. REIVINDICACIONES
    1 Un método de renderizar (interpretar) una imagen digital capturada, captada por una cámara y definida por una pluralidad de pixeles de imagen como una imagen NPR renderizada (interpretada) de manera no-fotorrealista definida por una pluralidad de pixeles de imagen NPR cada uno de los cuales tiene un valor de transparencia NPR asociado, en el que el valor de transparencia de al menos algunos de los pixeles de imagen NPR es determinado con dependencia de correspondientes pixeles de la imagen capturada, incluyendo el método renderizar (interpretar) un objeto virtual detrás de la imagen NPR.
  2. 2.
    Un método según la reivindicación 1, que incluye renderizar (interpretar) una imagen adicional capturada como una imagen NPR adicional para definir una vista estereoscópica.
  3. 3.
    Un método según la reivindicación 1 o la 2, que incluye definir una ventana dentro de la imagen NPR y asignar los valores de transparencia dentro de la ventana con dependencia de los correspondientes pixeles de imagen capturada.
  4. 4.
    Un método según la reivindicación 3, que incluye definir una posición de ventana con dependencia con dependencia de la mirada de un usuario.
  5. 5.
    Un método según una cualquiera de las reivindicaciones precedentes, que incluye determinar los valores de transparencia como una función de un gradiente de intensidad de imagen normalizado en correspondientes lugares en la imagen capturada.
  6. 6.
    Un método según una cualquiera de las reivindicaciones precedentes, que incluye definir un mapa de prioridad o saliencia para una zona de la imagen NPR y asignar un valor de transparencia a un píxel de la imagen NPR como una función de un valor correspondiente del mapa de prioridad.
  7. 7.
    Un método según la reivindicación 6, que incluye asignar un valor de color a un píxel de la imagen NPR como una función de una valor correspondiente valor del mapa de prioridad, en el que los valores de transparencia y de color son asignados de tal manera que un objeto renderizado (interpretado) detrás de la imagen NPR está siendo percibido como siendo visto a través de la zona en la que valores del mapa de prioridad son inferiores mientras está siendo ocluido donde el mapa de prioridad tiene valores más altos.
  8. 8.
    Un sistema para renderizar (interpretar) una imagen digital capturada, captada por una cámara y definida por una pluralidad de pixeles de imagen como una imagen NPR definida por una pluralidad de pixeles de imagen NPR, cada uno de los cuales tiene un valor de transparencia asociado, incluyendo el sistema un calculador de transparencia dispuesto para calcular el valor de transparencia de al menos algunos de los pixeles de imagen NPR con dependencia de correspondientes pixeles de la imagen capturada, siendo además el sistema operable para renderizar (interpretar) un objeto virtual detrás de la imagen NPR.
  9. 9.
    Un sistema según la reivindicación 8, el cual está dispuesto para renderizar (interpretar) una imagen adicional capturada usando el calculador de transparencia como una imagen NPR adicional para definir una vista estereoscópica.
  10. 10.
    Un método según la reivindicación 8 o la 9, en el que el calculador de transparencia está dispuesto para asignar los valores de transparencia dentro de una ventana dentro de la imagen NPR.
  11. 11.
    Un sistema según una cualquiera de las reivindicaciones 8 a 10, que incluye un módulo de formación de ventana que tiene una entrada representativa de la mirada de un usuario para definir una posición de ventana con dependencia de la mirada del usuario.
  12. 12.
    Un sistema según una cualquiera de las reivindicaciones 8 a 11, en el que el calculador de transparencia está dispuesto para determinar los valores de transparencia como una función de un gradiente de intensidad de imagen normalizado en respectivos lugares correspondientes en la imagen capturada.
  13. 13.
    Un sistema según una cualquiera de las reivindicaciones 8 a 12, en el que el calculador de transparencia está dispuesto para definir un mapa de prioridad para una zona de la imagen capturada y para asignar un valor de transparencia a un píxel de la imagen NPR como una función de un valor correspondiente del mapa de prioridad.
  14. 14.
    Un sistema según la reivindicación 13, que incluye un calculador de color dispuesto para asignar un valor de color a un píxel de la imagen NPR capturada como una función de un valor correspondiente del mapa de prioridad, en el que el calculador de transparencia y el calculador de color están dispuestos apara asignar los respectivos valores de tal manera que un objeto renderizado (interpretado) detrás de la imagen NPR capturada está siendo percibido como
    siendo visto a través de la zona en la que el mapa de prioridad tiene valores inferiores mientras está siendo ocluido donde el mapa de prioridad tiene valores más altos.
  15. 15.
    Una consola de cirugía robótica para cirugía mínimamente agresiva que incluye un endoscopio estereoscópico
    5 para capturar imágenes estereoscópicas de una escena quirúrgica y una disposición de visión estereoscópica para ver las imágenes capturadas, incluyendo la consola un sistema según una cualquiera de las reivindicaciones 8 a 14 dispuesto para renderizar (interpretar) imágenes recibidas desde el endoscopio estereoscópico y presentarlas en la disposición de visión estereoscópica.
    10 16. Un medio legible por ordenador o señal portadora que codifica un programa de ordenador que, cuando se ejecuta en un ordenador, realiza en la práctica un método según una cualquiera de las reivindicaciones 1 a 7.
ES08762451T 2007-06-29 2008-06-23 Renderización no-fotorrealista de una realidad aumentada. Active ES2361228T3 (es)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
GB0712690 2007-06-29
GBGB0712690.7A GB0712690D0 (en) 2007-06-29 2007-06-29 Imagee processing

Publications (1)

Publication Number Publication Date
ES2361228T3 true ES2361228T3 (es) 2011-06-15

Family

ID=38420978

Family Applications (1)

Application Number Title Priority Date Filing Date
ES08762451T Active ES2361228T3 (es) 2007-06-29 2008-06-23 Renderización no-fotorrealista de una realidad aumentada.

Country Status (10)

Country Link
US (1) US8878900B2 (es)
EP (1) EP2174297B1 (es)
JP (1) JP5186561B2 (es)
KR (1) KR20100051798A (es)
CN (1) CN101802873B (es)
AT (1) ATE500578T1 (es)
DE (1) DE602008005312D1 (es)
ES (1) ES2361228T3 (es)
GB (1) GB0712690D0 (es)
WO (1) WO2009004296A1 (es)

Families Citing this family (63)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2011039679A1 (en) * 2009-10-02 2011-04-07 Koninklijke Philips Electronics N.V. Selecting viewpoints for generating additional views in 3d video
SG183408A1 (en) * 2010-04-08 2012-09-27 Univ Nanyang Tech Image generating devices, graphics boards, and image generating methods
US20110287811A1 (en) * 2010-05-21 2011-11-24 Nokia Corporation Method and apparatus for an augmented reality x-ray
CN102271262B (zh) * 2010-06-04 2015-05-13 三星电子株式会社 用于3d显示的基于多线索的视频处理方法
KR20110137634A (ko) * 2010-06-17 2011-12-23 삼성전자주식회사 스케치 영상 생성방법 및 이를 적용한 디스플레이 장치
KR101188715B1 (ko) * 2010-10-04 2012-10-09 한국과학기술연구원 수술 도구의 3차원 추적 시스템 및 이를 이용한 위치 감지 방법
JP5738569B2 (ja) * 2010-10-15 2015-06-24 任天堂株式会社 画像処理プログラム、装置、システムおよび方法
US8514295B2 (en) * 2010-12-17 2013-08-20 Qualcomm Incorporated Augmented reality processing based on eye capture in handheld device
EP2691935A1 (en) * 2011-03-29 2014-02-05 Qualcomm Incorporated System for the rendering of shared digital interfaces relative to each user's point of view
KR20120117165A (ko) * 2011-04-14 2012-10-24 삼성전자주식회사 3차원 영상의 생성 방법 및 이를 이용하는 내시경 장치
EP2521097B1 (en) * 2011-04-15 2020-01-22 Sony Interactive Entertainment Europe Limited System and Method of Input Processing for Augmented Reality
US8970693B1 (en) * 2011-12-15 2015-03-03 Rawles Llc Surface modeling with structured light
DE102011089233A1 (de) * 2011-12-20 2013-06-20 Siemens Aktiengesellschaft Texturadaption in zumindest einem aus mindestens zwei Bildern überlagerten, medizinischen Bild
US9734633B2 (en) 2012-01-27 2017-08-15 Microsoft Technology Licensing, Llc Virtual environment generating system
US20150049177A1 (en) * 2012-02-06 2015-02-19 Biooptico Ab Camera Arrangement and Image Processing Method for Quantifying Tissue Structure and Degeneration
CN102663788B (zh) * 2012-04-12 2014-09-10 云南大学 一种基于非真实感的钢笔淡彩艺术效果绘制方法
EP2706508B1 (en) * 2012-09-10 2019-08-28 BlackBerry Limited Reducing latency in an augmented-reality display
US9576397B2 (en) 2012-09-10 2017-02-21 Blackberry Limited Reducing latency in an augmented-reality display
US9265458B2 (en) 2012-12-04 2016-02-23 Sync-Think, Inc. Application of smooth pursuit cognitive testing paradigms to clinical drug development
US9380976B2 (en) 2013-03-11 2016-07-05 Sync-Think, Inc. Optical neuroinformatics
CN104346777B (zh) * 2013-08-09 2017-08-29 联想(北京)有限公司 一种添加现实增强信息的方法及装置
CN103489214A (zh) * 2013-09-10 2014-01-01 北京邮电大学 增强现实系统中基于虚拟模型预处理的虚实遮挡处理方法
US9805510B2 (en) 2014-05-13 2017-10-31 Nant Holdings Ip, Llc Augmented reality content rendering via albedo models, systems and methods
KR101652888B1 (ko) * 2014-08-20 2016-09-01 재단법인 아산사회복지재단 수술 내비게이션에 의해 수술도구를 표시하는 방법
WO2016038240A1 (en) * 2014-09-09 2016-03-17 Nokia Technologies Oy Stereo image recording and playback
US10013808B2 (en) 2015-02-03 2018-07-03 Globus Medical, Inc. Surgeon head-mounted display apparatuses
GB2536650A (en) 2015-03-24 2016-09-28 Augmedics Ltd Method and system for combining video-based and optic-based augmented reality in a near eye display
US10241569B2 (en) 2015-12-08 2019-03-26 Facebook Technologies, Llc Focus adjustment method for a virtual reality headset
US10445860B2 (en) * 2015-12-08 2019-10-15 Facebook Technologies, Llc Autofocus virtual reality headset
WO2017114834A1 (en) 2015-12-29 2017-07-06 Koninklijke Philips N.V. System, controller and method using virtual reality device for robotic surgery
EP3211599A1 (en) 2016-02-29 2017-08-30 Thomson Licensing Adaptive depth-guided non-photorealistic rendering method, corresponding computer program product, computer-readable carrier medium and device
US11106276B2 (en) 2016-03-11 2021-08-31 Facebook Technologies, Llc Focus adjusting headset
JP6493885B2 (ja) * 2016-03-15 2019-04-03 富士フイルム株式会社 画像位置合せ装置、画像位置合せ装置の作動方法および画像位置合せプログラム
US20190088019A1 (en) * 2016-03-16 2019-03-21 Koninklijke Philips N.V. Calculation device for superimposing a laparoscopic image and an ultrasound image
WO2017165566A1 (en) * 2016-03-25 2017-09-28 The Regents Of The University Of California High definition, color images, animations, and videos for diagnostic and personal imaging applications
US10379356B2 (en) 2016-04-07 2019-08-13 Facebook Technologies, Llc Accommodation based optical correction
WO2017179350A1 (ja) * 2016-04-11 2017-10-19 富士フイルム株式会社 画像表示制御装置および方法並びにプログラム
US10429647B2 (en) 2016-06-10 2019-10-01 Facebook Technologies, Llc Focus adjusting virtual reality headset
CN106780760A (zh) * 2016-12-12 2017-05-31 大连文森特软件科技有限公司 一种基于ar虚拟现实技术的整形手术观摩系统
US10310598B2 (en) 2017-01-17 2019-06-04 Facebook Technologies, Llc Varifocal head-mounted display including modular air spaced optical assembly
US10628995B2 (en) 2017-04-17 2020-04-21 Microsoft Technology Licensing, Llc Anti-aliasing of graphical elements defined based on functions
EP3737321A4 (en) 2018-01-10 2021-09-01 Covidien LP GUIDED TO POSITION A PATIENT AND SURGICAL ROBOT
US20190254753A1 (en) 2018-02-19 2019-08-22 Globus Medical, Inc. Augmented reality navigation systems for use with robotic surgical systems and methods of their use
WO2019211741A1 (en) 2018-05-02 2019-11-07 Augmedics Ltd. Registration of a fiducial marker for an augmented reality system
WO2020106299A1 (en) 2018-11-21 2020-05-28 Hewlett-Packard Development Company, L.P. Augmenting live images of a scene for occlusion
US11766296B2 (en) 2018-11-26 2023-09-26 Augmedics Ltd. Tracking system for image-guided surgery
US10818028B2 (en) * 2018-12-17 2020-10-27 Microsoft Technology Licensing, Llc Detecting objects in crowds using geometric context
CN110009720B (zh) * 2019-04-02 2023-04-07 阿波罗智联(北京)科技有限公司 Ar场景中的图像处理方法、装置、电子设备及存储介质
US10881353B2 (en) * 2019-06-03 2021-01-05 General Electric Company Machine-guided imaging techniques
US11382712B2 (en) 2019-12-22 2022-07-12 Augmedics Ltd. Mirroring in image guided surgery
IL294987B2 (en) * 2020-01-22 2024-01-01 Beyeonics Surgical Ltd A system and method for improving medical procedures with electronic assistance
US11464581B2 (en) 2020-01-28 2022-10-11 Globus Medical, Inc. Pose measurement chaining for extended reality surgical navigation in visible and near infrared spectrums
US11382699B2 (en) 2020-02-10 2022-07-12 Globus Medical Inc. Extended reality visualization of optical tool tracking volume for computer assisted navigation in surgery
US11207150B2 (en) 2020-02-19 2021-12-28 Globus Medical, Inc. Displaying a virtual model of a planned instrument attachment to ensure correct selection of physical instrument attachment
US11607277B2 (en) 2020-04-29 2023-03-21 Globus Medical, Inc. Registration of surgical tool with reference array tracked by cameras of an extended reality headset for assisted navigation during surgery
US11382700B2 (en) 2020-05-08 2022-07-12 Globus Medical Inc. Extended reality headset tool tracking and control
US11153555B1 (en) 2020-05-08 2021-10-19 Globus Medical Inc. Extended reality headset camera system for computer assisted navigation in surgery
US11510750B2 (en) 2020-05-08 2022-11-29 Globus Medical, Inc. Leveraging two-dimensional digital imaging and communication in medicine imagery in three-dimensional extended reality applications
US11737831B2 (en) 2020-09-02 2023-08-29 Globus Medical Inc. Surgical object tracking template generation for computer assisted navigation during surgical procedure
US11896445B2 (en) 2021-07-07 2024-02-13 Augmedics Ltd. Iliac pin and adapter
AU2022341233A1 (en) * 2021-09-10 2024-03-14 Boston Scientific Scimed, Inc. Method of robust surface and depth estimation
CN116540872A (zh) * 2023-04-28 2023-08-04 中广电广播电影电视设计研究院有限公司 Vr数据处理方法、装置、设备、介质及产品
CN117041511B (zh) * 2023-09-28 2024-01-02 青岛欧亚丰科技发展有限公司 一种展厅视觉交互增强的视频图像处理方法

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6151009A (en) * 1996-08-21 2000-11-21 Carnegie Mellon University Method and apparatus for merging real and synthetic images
US7355597B2 (en) * 2002-05-06 2008-04-08 Brown University Research Foundation Method, apparatus and computer program product for the interactive rendering of multivalued volume data with layered complementary values
US7295720B2 (en) * 2003-03-19 2007-11-13 Mitsubishi Electric Research Laboratories Non-photorealistic camera
JP2005108108A (ja) * 2003-10-01 2005-04-21 Canon Inc 三次元cg操作装置および方法、並びに位置姿勢センサのキャリブレーション装置
WO2006099490A1 (en) * 2005-03-15 2006-09-21 The University Of North Carolina At Chapel Hill Methods, systems, and computer program products for processing three-dimensional image data to render an image from a viewpoint within or beyond an occluding region of the image data
US20070070063A1 (en) * 2005-09-29 2007-03-29 Siemens Medical Solutions Usa, Inc. Non-photorealistic volume rendering of ultrasonic data
EP2034442A1 (en) * 2007-09-06 2009-03-11 Thomson Licensing Method for non-photorealistic rendering of an image frame sequence

Also Published As

Publication number Publication date
US20100177163A1 (en) 2010-07-15
GB0712690D0 (en) 2007-08-08
EP2174297B1 (en) 2011-03-02
JP5186561B2 (ja) 2013-04-17
CN101802873B (zh) 2012-11-28
CN101802873A (zh) 2010-08-11
EP2174297A1 (en) 2010-04-14
ATE500578T1 (de) 2011-03-15
US8878900B2 (en) 2014-11-04
KR20100051798A (ko) 2010-05-18
JP2010532035A (ja) 2010-09-30
WO2009004296A1 (en) 2009-01-08
DE602008005312D1 (de) 2011-04-14

Similar Documents

Publication Publication Date Title
ES2361228T3 (es) Renderización no-fotorrealista de una realidad aumentada.
CN110650703B (zh) 手术导航系统
Fuchs et al. Augmented reality visualization for laparoscopic surgery
US11963723B2 (en) Visualization of medical data depending on viewing-characteristics
Canessa et al. Calibrated depth and color cameras for accurate 3D interaction in a stereoscopic augmented reality environment
Sandor et al. Egocentric space-distorting visualizations for rapid environment exploration in mobile mixed reality
Cutolo et al. Software framework for customized augmented reality headsets in medicine
Lerotic et al. Pq-space based non-photorealistic rendering for augmented reality
JP2016533832A (ja) 手術ナビゲーションシステム運用方法及び手術ナビゲーションシステム
US20220292786A1 (en) Method for controlling a display, computer program and mixed reality display device
JP2008520312A (ja) インターベンション手順の間の画像表示用の画像処理システム及び方法
CN109685906A (zh) 基于增强现实的场景融合方法和装置
US20230316639A1 (en) Systems and methods for enhancing medical images
Goncalves et al. Perspective shape from shading for wide-FOV near-lighting endoscopes
Gsaxner et al. Augmented reality in oral and maxillofacial surgery
US20230026489A1 (en) Surgical guidance for surgical tools
Zhang et al. 3D augmented reality based orthopaedic interventions
US20240062387A1 (en) An Augmented Reality System, an Augmented Reality HMD, an Augmented Reality Method and a Computer Program
Bichlmeier et al. Virtual window for improved depth perception in medical AR
US20230276016A1 (en) Real time augmentation
Fischer Rendering methods for augmented reality
Luijten Holographic augmented reality in deep inferior epigastric perforator flap breast reconstruction
Kirmizibayrak Interactive volume visualization and editing methods for surgical applications
US20230255692A1 (en) Technique for optical guidance during a surgical procedure
Boulanger Projected Augmented Reality to Display Medical Information Directly on a Patient Skin