MX2014000639A - Metodo y sistema para llevar a cabo una representacion. - Google Patents

Metodo y sistema para llevar a cabo una representacion.

Info

Publication number
MX2014000639A
MX2014000639A MX2014000639A MX2014000639A MX2014000639A MX 2014000639 A MX2014000639 A MX 2014000639A MX 2014000639 A MX2014000639 A MX 2014000639A MX 2014000639 A MX2014000639 A MX 2014000639A MX 2014000639 A MX2014000639 A MX 2014000639A
Authority
MX
Mexico
Prior art keywords
projection
projection model
data
view
model
Prior art date
Application number
MX2014000639A
Other languages
English (en)
Other versions
MX338918B (es
Inventor
Thomas Vincent
Tristan Lapalme
Original Assignee
Dog Microsystems Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Dog Microsystems Inc filed Critical Dog Microsystems Inc
Publication of MX2014000639A publication Critical patent/MX2014000639A/es
Publication of MX338918B publication Critical patent/MX338918B/es

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/10Geometric effects
    • G06T15/20Perspective computation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/06Ray-tracing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/08Volume rendering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/003Navigation within 3D models or images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2210/00Indexing scheme for image generation or computer graphics
    • G06T2210/41Medical

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Graphics (AREA)
  • General Physics & Mathematics (AREA)
  • Software Systems (AREA)
  • Geometry (AREA)
  • Computer Hardware Design (AREA)
  • Remote Sensing (AREA)
  • General Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Computing Systems (AREA)
  • Apparatus For Radiation Diagnosis (AREA)
  • Magnetic Resonance Imaging Apparatus (AREA)
  • Image Generation (AREA)
  • Image Processing (AREA)
  • Transforming Electric Information Into Light Information (AREA)
  • Projection Apparatus (AREA)

Abstract

Un método y un sistema para llevar a cabo una rendición a un punto de vista dado de por lo menos una parte de las áreas visuales cegadas a una perspectiva rendida al punto de vista dado se describen, el método comprendido un modelo de proyección que comprende una primera parte usada para proporcionar una vista alejada y una segunda parte para proporcionar una vista cercana de manera que por lo menos una parte de las áreas visuales es rendida usando la segunda parte de dicho modelo de proyección y además en donde una transición entre la primera parte del modelo de proyección y la segunda parte del modelo de proyección se caracteriza por vectores de proyección esencialmente similares, obteniendo datos de imagen, llevando a cabo una primera proyección de por lo menos una parte de los datos de imagen de acuerdo a una primera parte del modelo de proyección para generar los primeros datos proyectados, la realización de una segunda proyección de otra parte de los datos de imagen de acuerdo a la segunda parte del modelo de proyección para generar los segundos datos proyectados y exhibir los datos proyectados usando los primeros datos proyectados y los segundos datos proyectados.

Description

MÉTODO Y SISTEMA PARA LA LLEVAR A CABO UNA REPRESENTACIÓN REFERENCIA CRUZADA A LAS SOLICITUDES RELACIONADAS La presente solicitud reclama la prioridad de la solicitud de patente provisional de los Estados Unidos de América No. 61/509,092 intitulada "Método y Sistema para Realizar el Funcionamiento" que fue presentada el 18 de Julio de 2011, cuya descripción se incorpora aquí por referencia.
CAMPO DE LA INVENCIÓN La presente invención está dirigida a sistemas y métodos para crear una visualización mejorada de la imagen volumétrica, más particularmente a sistemas y métodos para crear una exhibición de tres dimensiones de una imagen volumétrica de objetos tales como órganos huecos.
ANTECEDENTES DE LA INVENCIÓN La endoscopia de virtual, también conocida como endoscopia tomográfica de computadora (CT) es una forma de procedimiento de diagnóstico no invasor permitiendo la inspección de las superficies interna y exterior de las estructuras anatómicas del cuerpo humano. Recientemente, tal procedimiento se ha cruzado para investigar los órganos huecos tales como el colon como se sugiere por la patente de los Estados Unidos de América No.6,694,163 y por la patente de los Estados Unidos de América No.5,891,030, durante el análisis de cáncer colorectal. Este procedimiento se conoce como colonoscopia virtual o colonoscopía de cáncer rectal.
Originalmente, la colonoscopia de cáncer rectal indicada como colonoscopia óptica mediante el crear un ambiente virtual representando una vista de tres dimensiones de la parte interna y del colon como se detalló en la patente de los estados Unidos de América No.5,782,762, involucró el proporcionar una perspectiva del ambiente de tres dimensiones. Sin embargo, esto imitó asi como la imitación muy limitada de la colonoscopia óptica, que está ciega a áreas localizadas fuera del alcance de los rayos ópticos tal como detrás de los dobleces haustrales (haustras) o localizadas entre los dobleces profundos.
Por tanto, las nuevas téenicas surgidas para aumentar la cantidad de mucosa colónica visualizada a través de la cámara virtual, entre las cuales están las técnicas de colon plano (1) detalladas en la patente de los Estados Unidos de América No.5,891,030 [?30], (2) vista cúbica detallada en la patente de los Estados Unidos de América No.6,947,039 (de aquí en adelante ?39) mostrada en la figura la, (3) proyección panorámica detallada en la patente en los Estados Unidos de América No.7,609,910 (de aquí en adelante '910) mostrada en la figura Ib y en la figura le (4) proyección de colon desdoblada detallada en la solicitud de patente de los Estados Unidos de América No. 2011/0116692 (de aquí en adelante '692) y más recientemente (5) téenicas de proyección cilindrica de diámetro especifico de objeto limitando la distorsión de la sección interior del colon como se detalló en la solicitud de patente de los Estados Unidos de América No. 2010/0142788 (de aquí en adelante '788).
Las técnicas detalladas en la patente de los Estados Unidos de América No. 6,947,039, en la solicitud de patente de los Estados Unidos de América No.2011/0116692 y en la solicitud de patente de los Estados Unidos de América no. 2010/0142788 tienen una alimentación común que es un cambio de paradigma en relación a la percepción humana de objetos desde las proyecciones de tres dimensiones en perspectiva a proyecciones de dos dimensiones. Estas técnicas introducen una distorsión visual en las formas, que requiere a los observadores el aprender de nuevo como interpretar la información, eventualmente que pueden impactar negativamente la evaluación de mucosa colónica. Además, la solicitud de patente de los Estados Unidos de América No.2011/0116692 y la solicitud de patente de los Estados Unidos de América No.2010/0142788 tiene por objeto el reducir estos artefactos, pero requieren la evaluación de una sección limitada del colon. Esto lleva a dos limitaciones las cuales son un tiempo de revisión aumentado, y una exposición visual disminuida a las lesiones en oposición a una exposición prolongada en las proyecciones en perspectiva tradicionales.
Además, la téenica detallada en la patente de los Estados Unidos de América No. 6,947,039 tiene una desventaja inherente la cual es la exposición constante de las proyecciones frontal y posterior, similar a siempre estar viendo un espejo posterior mientras que se maneja. En adición, y debido a que solo las vistas de cubo están involucradas para representar un ambiente completo de 360, algunos objetos pueden ser presentados parcialmente en orillas múltiples de diferentes vistas de cubo. Estas dos desventajas son una limitación clara a la técnica que lleva a un paradigma de lectura clínico o eficiente.
Una evolución de la patente de los Estados Unidos de América No. 6,947,039 para superar la vista dividida de los objetos de orilla, y la información de sobre flujo se detalla en la patente de los Estados Unidos de América No.7,609,910. La técnica involucra el distorsionar algunas de las vistas de cubo y ensamblarlas alrededor de la vista frontal, mientras que se remueve la vista posterior. Intrínsecamente, y aun cuando la patente de los Estados Unidos de América No.6,947,039 propone dos colocaciones diferentes, las distorsiones no son homogéneas en la imagen a lo largo de las líneas de imagen radial empezando en el centro de la vista frontal; la distorsión implica que un objeto idéntico será visto en forma diferente dependiendo en donde éste está colocado en la "vista ensamblada distorsional", creando artefactos adicionales para el observador. Además, la distorsión de vista de cubo no proporciona una solución alterna práctica en el caso de dobleces colónicos que son realmente compactos en una región especifica ya que la vista de campo limitada y no distorsionada linealmente permanecerá ciega a la mayoría de la información. Finalmente, la patente de los Estados Unidos de América No.6,947,039 requiere un proceso de mapa que ya sea suprime, interpola o de alguna manera altera la información original a fin de que esta ajuste dentro del espacio ensamblado final, aumentando el tiempo de procesamiento y alternando intrínsecamente la información clínica.
Por tanto hay una necesidad de un método y un aparato que supere por lo menos una de las desventajas arriba identificadas.
Las características de la invención serán evidentes de la revisión de la descripción, dibujos y descripción de la invención dada abajo.
BREVE RESUMEN DE LA INVENCIÓN De acuerdo con un aspecto de la invención, se proporciona un método para llevar a cabo el proporcionar en un punto de vista dado por lo menos una parte de las áreas visuales cegadas a una perspectiva proporcionando en un punto de vista dado, el método comprende proporcionar un modelo de proyección que comprende una primera parte usada para proporcionar una vista más alejada y una segunda parte para proporcionar una vista cercana de manera que por lo menos una parte de las áreas visuales se proporciona usando la segunda parte del modelo de proyección y además en donde una transición entre la primera parte del modelo de proyección y la segunda parte del modelo de proyección se caracteriza por vectores de proyección esencialmente similares, obteniendo datos de imagen; llevar a cabo una primeras proyección de por lo menos una parte de los datos de imagen de acuerdo a la primera parte del modelo de proyección para generar los primeros datos proyectados, llevar a cabo una segunda proyección de otra parte de los datos de imagen de acuerdo a la segunda parte del modelo de proyección para generar los segundos datos proyectados y exhibir los datos proyectados usando los primeros datos proyectados y los segundos datos proyectados.
De acuerdo con otro aspecto de la invención, se proporciona un método para llevar a cabo la proporción a un punto de vista dado de por lo menos una parte de las áreas visuales cegadas a una perspectiva proporcionada en un punto de vista dado, el método comprendiendo al proporcionar datos de imagen; llevar a cabo una primera proyección de por lo menos una parte de los datos de imagen de acuerdo a la primera parte de un modelo de proyección, el modelo de proyección comprendiendo la primera parte usada para proporcionar una visión alejada y una segunda parte para proporcionar una visión cercana de manera que por lo menos una parte de las áreas visuales se proporciona usando la segunda parte del modelo de proyección y además en donde una transición entre la primera parte del modelo de proyección y la segunda parte del modelo de proyección se caracterizan por los vectores de proyección esencialmente similares llevando a cabo una segunda proyección de otra parte de los datos de imagen de acuerdo a la segunda parte del modelo de proyección para generar los segundos datos proyectados; proporcionar los datos proyectados comprendiendo los primeros datos proyectados y los segundos datos proyectados.
De acuerdo con una incorporación, el proporcionar los datos de imagen comprende el recibir los datos de imagen desde un dispositivo seleccionado de un grupo que consiste de un dispositivo de formación de imagen de resonancia magnética (MRI), un dispositivo de tomografia de emisión de positrón (PET), un dispositivo de rayos-X, un dispositivo de ultrasonido y cualquier combinación de los mismos.
De acuerdo con otra incorporación, la provisión de los datos proyectados comprende el exhibir los datos proyectados sobre una pantalla.
De acuerdo con otra incorporación, la provisión de los datos proyectados comprende el llevar a cabo por lo menos uno del almacenamiento de los datos proyectados y la transmisión de los datos proyectados a una ubicación remota.
De acuerdo con una incorporación, la provisión de los datos de imagen comprende el recibir los datos de imagen desde un servidor DICOM.
De acuerdo con una incorporación, la primera parte del modelo de proyección comprende una parte de semiesfera de un modelo de proyección semiesférico y la segunda parte del modelo de proyección comprende un modelo de proyección cilindrico.
De acuerdo con otra incorporación, el modelo de proyección semiesférico está caracterizado por: De acuerdo con una incorporación, el modelo de proyección se caracteriza por: De acuerdo con una incorporación, la primera parte del modelo de proyección comprende una parte del modelo de proyección elipsoide y la segunda parte del modelo de proyección comprende un modelo de proyección cilindrico arqueado.
De acuerdo con una incorporación, cada uno de la primera parte del modelo de proyección es simétrico alrededor de un eje que se extiende desde el punto de vista dado a un punto de vista proyectado.
De acuerdo con un aspecto de la invención, se proporciona un medio de almacenamiento que puede ser leído por computadora que almacena instrucciones ejecutables por computadora las cuales, cuando se ejecutan, hacen que un dispositivo de procesamiento lleve a cabo un método como se describió anteriormente.
De acuerdo con una incorporación, el método descrito arriba es usado para llevar a cabo un volado a través.
De acuerdo con un aspecto de la invención, se describe un sistema para llevar a cabo la rendición a un punto de vista dado de por lo menos una parte de las áreas visuales cegadas a un perspectiva que proporciona en el punto de vista dado, el sistema comprendiendo una unidad de provisión de datos de imagen para recibir y proporcionar datos de imagen; una primera unidad de realización de proyección para realizar una proyección de por lo menos una parte de los datos de imagen proporcionados de acuerdo a una primera parte de un modelo de proyección, el modelo de proyección comprendiendo la primera parte usada para llevar a cabo una vista adelantada y una segunda parte para proporcionar una vista cercana de manera que por lo menos una parte de las áreas visuales se proporcione usando la segunda parte del modelo de proyección y además en donde una transición entre la primera parte del modelo de proyección y la segunda parte del modelo de proyección se caracteriza por vectores de proyección esencialmente similares, la primera unidad de realización de proyección además proporciona unos primeros datos proyectados; una segunda unidad de realización de proyección para llevar a cabo una proyección de otra parte de los datos de imagen proporcionados de acuerdo a la segunda parte del modelo de proyección y para proporcionar unos segundos datos proyectados; una unidad proporcionando datos proyectados para recibir los primeros datos proyectados y los segundos datos proyectados para generar los datos proyectados usando los primeros datos proyectados y los segundos datos proyectados y para proporcionar los datos proyectados para por tanto proporcionar por lo menos una parte de las áreas visuales cegadas a una perspectiva proporcionada en el punto de vista dado.
De acuerdo con un aspecto de la invención, se describe un sistema para llevar a cabo la rendición en un punto de vista dado de por lo menos una parte de las áreas visuales cegadas a una perspectiva proporcionada en un punto de vista dado, el sistema comprendiendo un dispositivo de exhibición; una unidad de provisión de datos de imagen; una unidad de procesamiento central; una memoria que comprende un programa, en donde el programa está almacenado en una memoria y configurado para ser ejecutado por la unidad de procesamiento central, el programa comprendiendo instrucciones para obtener los datos de imagen desde la unidad que proporciona datos de imagen; instrucciones para llevar a cabo una primera proyección de por lo menos una parte de los datos de imagen de acuerdo a una primera parte de un modelo de proyección, el modelo de proyección comprendiendo la primera parte usada para proporcionar una vista adelantada y una segunda parte para proporcionar una vista cercana de manera que por lo menos una parte de las áreas visuales se proporcione usando la segunda parte del modelo de proyección y además en donde una transición entre la primera parte del modelo de proyección y la segunda parte del modelo de proyección se caracteriza por vectores de proyección esencialmente similares, instrucciones para llevar a cabo una segunda proyección de otra parte de los datos de imagen de acuerdo a la segunda parte del modelo de proyección para generar los segundos datos proyectados, y las instrucciones para generar los datos proyectados usando los primeros datos proyectados y los segundos datos proyectados; instrucciones para proporcionar los datos proyectados generados al dispositivo de exhibición.
De acuerdo con una incorporación, el sistema además comprende un dispositivo de salida, además en donde el programa comprende instrucciones para transmitir los datos proyectados generados al dispositivo de salida.
Una ventaja del método descrito aquí es la de que éste permite la creación de una proyección de perspectiva la cual imita a aquella de las endoscopías tradicionales, las cuales hacen eficientemente cegadas a las endoscopías las áreas con una distorsión mínima ya sea sobre formas o sobre la percepción del que ve.
Una ventaja del método descrito aquí usando la cromatografía CT es la de que este aumenta una cantidad de mucosa colónica inspeccionada durante una pasada única en comparación al arte previo la cual evita las distorsiones mayores y no linearidades generadas debido al rendimiento de proyecciones del arte previo típicas o planas, desdobladas o de cubo.
Otra ventaja del método descrito aquí es la de que éste puede permitir la igualación de una distorsión radial lineal de la percepción humana.
BREVE DESCR IPCIÓN DE LOS DIBUJOS D fin de que la invención pueda ser entendida fácilmente, están ilustradas las incorporaciones de la invención por vía del ejemplo de acuerdo con los dibujos.
La figura la, la Figura Ib y la Figura le son figuras originadas desde las referencias del arte previo.
La Figura 2a es un esquema de flujo el cual muestra un primera incorporación de un método para llevar a cabo la rendición a un punto de vista dado.
La Figura 2b es un esquema de flujo el cual es una segunda incorporación de un método para llevar a cabo la rendición a un punto de vista dado.
La Figura 3 es un esquema el cual ilustra una vista en perspectiva de un modelo de proyección casi esférico.
La Figura 4 es un esquema el cual ilustra una vista en perspectiva der un modelo de proyección cilindrico.
La Figura 5 es un esquema el cual muestra una vista en perspectiva de un modelo de proyección el cual comprende una primera parte y una segunda parte en donde la primera parte comprende un modelo de proyección casi esférico y además en donde la segunda parte comprende un modelo de proyección cilindrico.
La Figura 6a es una forma esquemática la cual muestra una vista elevada lateral de un modelo de proyección elipsoide y de un modelo de proyección casi esférico mientras que la Figura 6b muestra una vista elevada lateral de un modelo de proyección casi esférico sobre impuesto sobre un modelo de proyección elipsoide.
La Figura 7 es un esquema que el cual muestra una vista elevada lateral de una primera incorporación de un modelo de proyección que comprende una primera parte y una segunda parte, en donde la primera parte comprende un modelo de proyección casi esférico y la segunda parte comprende un modelo de proyección cilindrico y una segunda incorporación de un modelo de proyección mostrado en lineas punteadas, y comprendiendo una primera parte y una segunda parte en donde la primera parte comprende un modelo de proyección elipsoide y una segunda parte que comprende un modelo de proyección cilindrico arqueado.
La Figura 8a es una vista esquemática la cual muestra una vista elevada lateral de una incorporación de un modelo de proyección que comprende una primera parte y una segunda parte en donde la primera parte comprende un modelo de proyección casi esférico y la segunda parte comprende un modelo de proyección cilindrico y unja imagen proyectada correspondiente generada usando el modelo de proyección en un plano de imagen.
La Figura 8b es una pantalla mostrando un ejemplo en el plano de imagen de la combinación de la proyección esférica con una proyección cilindrica y una vista amplificada de un resultado de la proyección esférica.
La Figura 8b es una pantalla mostrando un ejemplo de una imagen proyectada generada usando un modelo de proyección del arte previo.
La Figura 8c es una pantalla mostrando un ejemplo de la imagen proyectada generada usando el modelo de proyección descrito en la Figura 8a.
La Figura 9a es una pantalla de una imagen generada durante un vuelo a través del ciego recto y que se ha generado de acuerdo a una incorporación del método descrito aquí.
La Figura 9b es una pantalla de una imagen generada durante un vuelo a través de un ciego recto y que se ha generado de acuerdo a una perspectiva mostrando el arte previo.
La Figura 9c es una pantalla de una imagen generada durante un vuelo a través de un ciego recto y que se ha generado de acuerdo a una incorporación del método descrito aquí.
La Figura 9d es una pantalla de una imagen generada durante un vuelo a través de un ciego recto y que se ha generado de acuerdo a una rendición de la perspectiva del arte previo.
La Figura 9e es una pantalla mostrando una rendición de perspectiva embebida localmente de una lesión localizada como se tomó por un observador para un examen adicional.
La Figura 9f es una pantalla mostrando la lesión sobre la perspectiva tradicional de rendición mediante la rotación manual de la cámara de tres dimensiones a una posición diferente que la trayectoria de vuelo normal.
La Figura 10a es un diagrama de bloque la cual muestra una primera incorporación de un sistema para llevar a cabo la rendición a un punto de vista dado.
La Figura 10b es un diagrama de bloque el cual muestra una según da incorporación de un sistema para llevar a cabo la rendición un punto de vista dado.
La Figura 11 es un dibujo el cual muestra vectores de proyección para el caso específico de un modelo de proyección involucrando un modelo de proyección casi esférico y un modelo de proyección cilindrico. Esta ilustra dos vectores esencialmente similares en la zona de transición de los modelos de proyección.
La Figura 12 es un dibujo el cual muestra una incorporación de la presente invención en donde una parte de la proyección es un modelo de proyección casi esférico para la vista alejada, mostrando un campo de vista (FOV) de 45 grados, y un modelo de proyección cilindrico para la vista cercana, mostrando un campo de vista de 90 grados.
DESCRIPCIÓN DETALLADA DE LAS INCORPORACIONES PREFERIDAS En la siguiente descripción de las incorporaciones, las referencias a los dibujos acompañantes son por día de ilustración de un ejemplo por el cual la invención puede ser practicada. Se entenderá que las otras incorporaciones pueden hacerse sin departir del alcance de la invención descrita.
Ahora refiriéndonos a la figura 2a, ahi se muestra una primera incorporación de un método para llevar a cabo la rendición a un punto de vita dado de por lo menos una parte de las áreas visuales cegadas a una rendición de perspectiva a un punto de vista dado.
Cundo se usa en el contexto de una colonografia CT, se apreciará que el método descrito aquí será particularmente útil para aumentar la cantidad de mucosa colónica inspeccionada durante una pasada única en comparación al arte previo mientras que se evitan distorsiones mayores y no linealidades debidas al rendimiento de proyecciones del arte previo típicas o planas, desdobladas o de cubo lo cual es una ventaja mayor.
Más precisamente de acuerdo al paso de procesamiento 202, se proporciona un modelo de proyección que comprende una primera parte usada para proporcionar una vista alejada y una segunda parte para proporcionar una vista cercana.
Se apreciará que, en una incorporación, la vista alejada será entendida como un área cubierta usando una proyección de perspectiva del arte previo.
Se apreciará que por lo menos una parte de las áreas visuales se hace usando la segunda parte del modelo de proyección. Se apreciará además que una transición entre la primera parte del modelo de proyección y la segunda parte del modelo de proyección se caracteriza por vectores de proyección esencialmente similares. El examinador habilitado apreciará que esto es de una gran ventaja para una explicación detallada abajo.
Los vectores de proyección son caracterizados por la combinación de dos elementos; el origen del rayo de proyección, y la trayectoria del rayo al objeto que a realizarse como se ilustró por ejemplo en la figura 11. Aun refiriéndonos a la figura 11, se apreciará que ésta figura muestra los vectores de proyección para el caso especifico de un modelo de proyección involucrando una proyección casi esférica y el modelo de proyección cilindrico. Esta ilustra dos vectores similares esencialmente en la zona de transición. El examinador experto apreciará que la trayectoria de rayo puede, en alguna incorporación, no alinearse con la proyección del punto de origen sobre el modelo de proyección. Además, el examinador experto apreciará que el punto de origen puede estar asociado con los elementos casi planos usados en las téenicas de realización de tercera dimensión del estado del arte tal como fundición de rayo.
Aun cuando varias incorporaciones serán descritas abajo, se apreciará que en la incorporación preferida la primera parte del modelo de proyección se caracteriza por la ecuación: ....Modelo de Proyección Casi-Esférico Aún en una incorporación preferida, la segunda parte del modelo de proyección se caracteriza por la ecuación ...Modelo de proyección cilindrico La figura 12 ilustra los modelos de proyección casi esférico y cilindrico usado en la incorporación anterior.
Aun refiriéndonos a la figura 2a y de acuerdo al paso de procesamiento 204, los datos de formación de imagen son obtenidos. Será apreciado que los datos de imagen pueden ser obtenidos desde varias fuentes. En una incorporación preferida, los datos de imagen son recibidos desde un dispositivo seleccionado de un grupo que consiste de un dispositivo de rayos X, un dispositivo de formación de imagen de resonancia magnética (MRI), un dispositivo de ultrasonido, un dispositivo de tomografia de emisión de posición (PET) y cualquier combinación de los mismos. Alternativamente, los datos de formación de imagen pueden ser proporcionados por servidores de almacenamiento DICOM.
De acuerdo a un paso de procesamiento 206, una primera proyección de por lo menos una parte de los datos de formación de imagen se lleva a cabo de acuerdo a la primera parte del modelo de proyección. Los primeros datos proyectados correspondientes son generados desde la primera proyección.
Aun refiriéndonos a la figura 2a y de acuerdo al paso de procesamiento 208, un segunda proyección de otra parte de los datos de formación de imagen se lleva a cabo de acuerdo a la segunda parte del modelo de proyección. Los segundos datos proyectados correspondientes son generados desde la segunda proyección.
De acuerdo al paso de procesamiento 210, los datos proyectados son exhibidos usando los primeros datos proyectados y los segundos datos proyectados.
Se apreciará que los datos proyectados comprenden los primeros datos proyectados y los segundos datos proyectados. Será apreciado por los expertos en el arte que la generación de los datos proyectados usando los primeros datos proyectados y los segundos datos proyectados no requieren modificar por lo menos uno de los primeros datos proyectados y de los segundos datos proyectados. Esto es una gran ventaja sobre el arte previo ya que el riesgo de perder información cuando se modifican los datos se reduce y también dado que la cantidad de recursos de procesamiento requeridos para generar los datos proyectados es limitada, por ejemplo una cantidad extra de recursos de proyección y procesamiento no se requieren para modificar por lo menos uno de los primeros datos proyectados y de los segundos datos proyectados.
Ahora refiriéndonos a la figura 2b, ahi se muestra una segunda incorporación del método para llevar a cabo la remisión a un punto de vista dado.
De acuerdo a un paso de procesamiento 212, se proporcionan los datos de formación de imagen. En una incorporación, la provisión de los datos de formación de imagen comprende el recibir los datos de formación de imagen desde un servidor de formación de imagen digital y comunicaciones en medicina (DICOM).
De acuerdo al paso de procesamiento 214, una primera proyección de por lo menos una parte de los datos de imagen de acuerdo a una primera parte de un modelo de proyección se lleva a cabo. El modelo de proyección comprende la primera parte usada para la rendición de una vista alejada y una segunda parte para la rendición de una vista cercana de manera que por lo menos una parte de las áreas visuales se hace usando la segunda parte del modelo de proyección y además en donde una transición entre la primera parte del modelo de proyección y la segunda parte del modelo de proyección se caracteriza por los lectores de proyección esencialmente similares.
Se apreciará por los expertos en el arte que el modelo de proyección mencionado en la incorporación mostrada en la figura 2b es idéntico al modelo de proyección descrito en la figura 2a.
De acuerdo al paso de procesamiento 216, una segunda proyección de otra parte de los datos de formación de imagen se lleva a cabo de acuerdo a la segunda parte del modelo de proyección. Los segundos datos de proyección se generan en forma acorde.
De acuerdo al paso de procesamiento 218, se proporcionan los datos proyectados comprendiendo los primeros datos proyectados y los segundos datos proyectados.
En una incorporación, la provisión de los datos proyectados exhibe los datos proyectados sobre una pantalla.
En otra incorporación, la provisión de los datos proyectados comprende el llevara cabo por lo menos uno del almacenamiento de los datos proyectados y de la transmisión de los datos proyectados a una ubicación remota, Se apreciará que en una incorporación cada una de la primera parte del modelo de proyección y la segunda parte del modelo de proyección es simétrica alrededor de un eje que se extiende desde un punto de vista dado a un punto de vista proyectado. Ahora refiriéndonos a la figura 3, ahí se muestra una incorporación de un modelo de proyección casi-esférico. Será apreciado gue en una incorporación el modelo de proyección casi-esférico puede ser usado como una primera parte del modelo de proyección y puede usarse más precisamente para proporcionar una vista alejada.
Refiriéndonos a la figura 4, ahi se muestra una incorporación de un modelo de proyección cilindrico. Se apreciará que en una incorporación, el modelo de proyección cilindrico puede ser usado como una segunda parte de un modelo de proyección y puede ser usado más precisamente para rendir una vista cercana.
Ahora refiriéndonos a la figura 5, ahí se muestra una vista en perspectiva de otra incorporación de un modelo de proyección comprendiendo una primera parte y una segunda parte, en donde el modelo de proyección casi-esférico es la primera parte del modelo de proyección y además en donde el modelo de proyección cilindrico es la segunda parte del modelo de proyección.
Ahora refiriéndonos a la figura 6a ahi se muestra como cada punto localizado sobre un elipsoide de un modelo de proyección elipsoide se proyecta asi mismo sobre un plano de imagen correspondiente. También se muestra como cada punto localizado sobre una semi-esfera de un modelo de proyección casi-esférico se proyecta asi mismo sobre el plano de imagen.
Se apreciará por aquellos expertos en el arte que una incorporación de un modelo de proyección elipsoide es una exactitud mayor y una homogeneidad es mayor lograda a lo largo de la imagen proyectada en el plano de imagen, específicamente cerca del punto de vista proyectado. El examinador experto apreciará que ésta incorporación es particularmente pertinente para una aplicación médica dado que hablando clínicamente solo una lesión grande puede ser vista desde un alejamiento y las lesiones más pequeñas son más difíciles de discriminar.
La figura 6b muestra los vectores de proyección en varios puntos de superficie de una semi-esfera representado un modelo de proyección casi-esférico y en varios puntos de un elipsoide representado un modelo de proyección elipsoide.
Ahora refiriéndonos a la figura 7 se muestra una primera incorporación de un modelo de proyección y de una segunda incorporación de un modelo de proyección.
La primera incorporación del modelo de proyección comprende una primera parte y una segunda parte. La primera parte del modelo de proyección comprende una parte casi-esférica de un modelo de proyección casi-esférico mientras que la segunda parte del modelo de proyección comprende un modelo de proyección cilindrico.
La segunda incorporación del modelo de proyección, mostrado en lineas punteadas comprende una primeras parte y una segunda parte. La primera parte del modelo de proyección comprende una parte de un modelo de proyección elipsoide mientras que la segunda parte del modelo de proyección comprende un parte de un modelo de proyección cilindrico arqueado. Se apreciará por la figura 7 que se muestra además un vector de proyección en un limite entre la primera parte del modelo de proyección y la segunda parte del modelo de proyección. Será apreciado que los vectores de proyección e ese limite son esencialmente similares para cada una de la primera proyección del modelo de proyección y de la segunda incorporación del modelo de proyección. Específicamente, aun cuando el origen de ambos rayos es diferente pero cercano, la trayectoria del rayo es esencialmente similar.
Refiriéndonos a la figura 8a ahí se muestra una incorporación de un modelo de proyección que comprende una primera parte y una segunda parte. La primera parte comprende un modelo de proyección casi-esférico mientras que la segunda parte del modelo de proyección comprende un modelo de proyección cilindrico. Además se muestra un resultado de la proyección del modelo de proyección en un plano de imagen.
Como se mencionó anteriormente, la transición entre la primera parte del modelo de proyección y la segunda parte del modelo de proyección se caracteriza por los vectores de proyección esencialmente similares. Esto permitirá una transición suave y no distorsionada entre una parte de un imagen que corresponde a una proyección de acuerdo a una primera parte del modelo de proyección y a un parte de una imagen que corresponde a la segunda parte del modelo de proyección la cual es una ventaja mayor cuando se lleva a cabo un vuelo.
Refiriéndoos ahora a la figura 8c, ahí se muestra una pantalla que contiene un ejemplo de una imagen proyectada usando el modelo de proyección descrito en la figura 8a. Se apreciar que el área cubierta por la imagen proyectada es mucho mayor que el área cubierta por una imagen proyectada generada de acuerdo a una téenica del arte previo mostrada en la figura 8b. Los expertos en el arte apreciarán además una transición más suave y no distorsionada entre una parte de la pantalla que corresponde a una proyección de acuerdo a la primera parte de un modelo de proyección y una parte de la pantalla que corresponde a una segunda parte del modelo de proyección.
Además y en la incorporación en donde cada una de la primera parte del modelo de proyección y de la segunda parte del modelo de proyección es simétrica alrededor de un eje que se extiende desde el punto de vista al punto de vista proyectado, se apreciará que la imagen proyectada está libre de distorsión radial la cual es una gran ventaja. El observador experto apreciará que esto es una gran ventaja ya que las distorsiones radiales pueden sobre-enfatizar o sub-enfatizar el tamaño de la lesión dependiendo de su posición radial lo cual puede complicar la tarea de un médico como se mostró en la patente de los Estados Unidos de América No.6,947,039. Específicamente, puede verse que las incorporaciones de la patente de los Estados Unidos de América No.6,947,039 presentadas en los números 312 y 412 hacen al mismo punto de vista, dependiendo del proceso de mapeado di mismo doblez haustral mostrando diferentes formas, respectivamente, una forma cuadrada en el 312 y una forma redonda en el 412. Además, entre más cercano a la transición de 308/306 por ejemplo, más distorsión observará el que ve.
Ahora refiriéndonos a la figura 9b, d, ahí se muestran imágenes originadas ya sea desde un vuelo de un ciego recto o de un vuelo de un ciego recto y que se han generado de acuerdo a una rendición de una perspectiva del arte previo. Aquellas imágenes fallan en mostrar una lesión de doblez e medio de 6 milímetros. Más precisamente, 1 Figura 9b muestra una imagen generada durante un vuelo de ciego recto mientras que la figura 9d muestra una imagen generada durante un vuelo de ciego recto.
La figura 9a, la figura 9c y la figura 9e muestran imágenes originándose desde ya sea un vuelo de ciego recto o un vuelo de ciego recto y que se han generado de acuerdo al método descrito aquí y los cuales muestran que la lesión de 6 milímetros pudiera no haber sido descubierta en todos los casos. Más precisamente, la figura 9a muestra una imagen generada durante un vuelo de ciego recto mientras que la figura 9c muestra una imagen generada durante un vuelo de un ciego recto.
La figura 9e muestra una perspectiva embebida localmente rindiendo una lesión localizada como se tomó por el observador para un examen adicional. Se apreciará que ambas rendiciones en perspectiva son similares.
Ahora refiriéndonos a la figura 10a ahí se muestra una incorporación de un sistema 1000 para llevar a cabo la rendición a un punto de vista dado.
El sistema 1000 comprende una unidad de procesamiento central (CPU) 1002, un dispositivo de exhibición 1004, un dispositivo de entrada 1006, una unidad de provisión de datos de imagen 1008, un bus de datos 1010, una memoria 1012.
La unidad de procesamiento central (CPU) 1002, el dispositivo de exhibición 1004, el dispositivo de entrada 1006, en la unidad de provisión de datos de imagen 1008 y la memoria 1012 están cada uno operativamente acoplados a través del bus de datos 1010.
La unidad de procesamiento central (CPU) 1002 es usada para ejecutar las instrucciones que pueden salir de esta computadora. El experto en el arte apreciará que las varias incorporaciones de la unidad de procesamiento central (CPU) 1002 pueden ser proporcionadas en una incorporación preferida, la unidad de procesamiento central 1002 es una estación de trabajo y una laptop.
El dispositivo de exhibición 1004 es usado para exhibir una imagen. El examinador experto apreciará que varias incorporaciones del dispositivo de exhibición 1004 pueden ser proporcionadas. En una incorporación preferida, el dispositivo de exhibición 1004 es una pantalla de computadora o un dispositivo manejado.
Los dispositivos de entrada 1006 son usados para habilitar a un operador para interactuar con el sistema 1000. El examinador experto apreciará que las varias incorporaciones de los dispositivos de entrada 1006 pueden ser proporcionados. En una incorporación preferida, los dispositivos de entrada 1006 comprenden un ratón y un tablero.
La unidad que proporciona los datos de imagen 1008 es usada para proporcionar los datos de imagen al sistema 1000. El experto habilitado apreciará que las varias incorporaciones de la unidad de proporción de datos de imagen 1008 pueden ser proporcionadas. En una incorporación preferida, es seleccionada la unidad de provisión de datos de imagen 1008 desde 'un grupo que consiste de una impulsión dura, una memoria, una interface de comunicación a un sistema de formación de imágenes, un sistema PACS y un escáner CT. Se apreciará que la unidad de provisión de datos de imagen 1008 también puede ser mencionada como un dispositivo de entrada.
La unidad de memoria 1012 es usada para almacenar datos. El examinador experto apreciará que varias incorporaciones de la unidad de memoria 1012 pueden proporcionarse. En una incorporación preferida, la unidad de memoria 1012 comprende un nodulo del sistema de operación 1014 y una aplicación para llevar a cabo la rendición 1016. Aun en una incorporación preferida, el nodulo del sistema de operación 1014 es un Windows 7<marca de comercio) fabricado por Microsoft(raarca de comercio). La aplicación para rendir el 1016 comprende instrucciones para obtener los datos de imagen desde la unidad que proporciona los datos de imagen 1008. La aplicación para llevar a cabo la rendición 1016 además comprende instrucciones para llevar a cabo una primera proyección de por lo menos una parte de los datos de formación de imagen de acuerdo a una primera parte del modelo de proyección, el modelo de proyección comprende la primera parte usada para rendir una vista alejada y una segunda parte para rendir una vista cercana de manera que por lo menos una parte de las áreas visuales se hace usando una segunda parte del modelo de proyección y además en donde una transición entre la primera parte del modelo de proyección y la segunda parte del modelo de proyección se caracteriza por vectores de proyección esencialmente similares. La aplicación para llevar a cabo la rendición 1016 además comprende instrucciones para llevar a cabo una segunda proyección de otra parte de los datos de imagen de acuerdo a la segunda parte del modelo de proyección para generar unos segundos datos proyectados. La aplicación para llevar a cabo la rendición 1016 además comprende instrucciones para generar los datos proyectados usando los primeros datos proyectados y los segundos datos proyectados. La aplicación para llevar a cabo la rendición 1016 además comprende instrucciones para proporcionar los datos proyectados generados al dispositivo de exhibición. Se apreciará que la aplicación para llevar a cabo la rendición 1016 además comprende instrucciones para transmitir los datos proyectados generados a un dispositivo de salida, no mostrado en la figura 10a el cual puede ser usado para llevar a cabo por lo menos uno del almacenamiento de los datos proyectados generados y la transmisión de los datos proyectados generados a una unidas de procesamiento remota.
Ahora refiriéndonos a la figura 10b, ahí se muestra -una segunda incorporación de un sistema 1019 para llevar a cabo la rendición a un punto de vista dado.
El sistema 1019 para llevar a cabo loa rendición a un punto de vista dado comprende una unidad de provisión de datos de imagen 1020. La unidad de provisión de datos de imagen 1020 es usada para recibir y proporcionar datos de imagen.
El sistema 1019 para llevar a cabo la rendición a un punto de vista dado además comprende una primera unidad de realización de proyección 1022. La primera unidad de rendición de proyección 1019 es usada para llevar a cabo una proyección de por lo menos una parte de los datos de imagen proporcionados de acuerdo a una primera parte de un modelo de proyección. El modelo de proyección comprende la primera parte usada para rendir una vista alejada y una segunda parte para rendir una vista cercana de manera que por lo menos una parte de las áreas visuales se proporciona usando la segunda parte del modelo de proyección y además en donde una transición entre la primera parte del modelo de proyección y la segunda parte del modelo de proyección se caracterizan por vectores de proyección esencialmente similares. La primera unidad de realización de proyección 1019 es además usada para proporcionar unos primeros datos proyectados.
El sistema 1019 para llevar a cabo la rendición a un punto de vista dado además comprende una segunda unidad de realización de proyección 1024. La segunda unidad de realización de proyección 1024 es usada para llevar a cabo la proyección de otra parte de los datos de imagen proporcionados de acuerdo a la segunda parte del modelo de proyección y para proporcionar unos segundos datos proyectados.
El sistema 1019 para llevar a cabo la rendición a un punto de vista dado además comprende una unidad de provisión de datos proyectados 1026. La unidad de provisión de datos proyectados 1026 es usada para recibir los primeros datos proyectados y los segundos datos proyectados, para generar los datos proyectados usando los primeros datos proyectados y los segundos datos proyectados y para proporcionar los datos proyectados.
También, se apreciará que un medio de almacenamiento que puede ser leído por computadora puede ser proporcionado para almacenar las instrucciones que pueden ser ejecutadas por computadora. Tales instrucciones que pueden ser ejecutadas por computadora pueden causar que un dispositivo de computación, cuando ejecute, lleva a cabo un método para llevar a cabo la rendición a un punto de vista dado de por lo menos una parte de las áreas visuales cegadas a una perspectiva rindiendo en un punto de vista dado, el método comprende proporcionar un modelo de proyección que comprende una primera parte usada para proporcionar una vista alejada y una segunda parte para proporcionar una vista cercana de manera que por lo menos una parte de las áreas visuales se proporcionen usando la segunda parte del modelo de proyección y además en donde una transición entre la primera parte del modelo de proyección y la segunda parte del modelo de proyección se caracteriza por los vectores de proyección esencialmente similares; obtener datos de imagen; llevar a cabo una primera proyección de por lo menos una parte de los datos de imagen de acuerdo a la primera parte del modelo de proyección para generar los primeros datos proyectados; llevar a cabo una segunda proyección de otra parte de los datos de imagen de acuerdo a la segunda parte del modelo de proyección para generar los segundos datos proyectados y exhibir los datos proyectados usando los primeros datos proyectados y los segundos datos proyectados.
Aun cuando no se ha ilustrado en las figuras, se apreciará que una incorporación alterna, el punto de vista puede no coincidir con la posición de cámara o la posición de cámara puede cambiar dependiendo de una forma de objeto, o alternativamente el punto de vista puede cambiar dependiendo de la forma de objeto para una posición de cámara dada.
Aun cuando se ha descrito que la presente invención puede ser usada en el contexto de colonografia CT. Los expertos apreciarán que la presente invención puede ser usada con cualquier tipo de sistemas de información de imagen de dos dimensiones o de tres dimensiones, para el propósito de ver estructuras internas de un objeto. Más particularmente, ésta está muy adecuada para el examen de órganos huecos a través de endoscopia visual. En una incorporación alterna, el método descrito aquí puede ser usado en aplicaciones no médicas que involucran imágenes de dos o tres dimensiones. Una de tales aplicaciones seria para la evaluación de tuberías y la identíficación de grietas.

Claims (16)

R E IV IN D ICA C ION E S
1. Un método para llevar a cabo la rendición de un punto de vista dado de por lo menos una parte de áreas visuales cegadas a una perspectiva rendida a un punto de vista dado, el método comprende: proporcionar un modelo de proyección que comprende una primera parte usada para la rendición de una vista alejada y una segunda parte para la rendición de una vista cercana de manera que por lo menos una parte de las áreas visuales es proporcionada usando la segundas parte del modelo de proyección y además en donde una transición entre la primera parte del modelo de proyección y la segunda parte del modelo de proyección se caracteriza por vectores de proyección esencialmente similares; obtener datos de imagen; llevar a cabo una primera proyección de por lo menos una parte de los datos de imagen de acuerdo a la primera parte del modelo de proyección para generar los primeros datos proyectados; llevar a cabo una segunda proyección de otra parte de los datos de imagen de acuerdo a la segunda parte del modelo de proyección para generar los segundos datos proyectados; exhibir los datos proyectados usando los primeros datos proyectados y los segundos datos proyectados.
2. Un método para llevar a cabo la rendición a un punto de vista dado de por lo menos una parte de las áreas visuales cegadas a una perspectiva proporcionada a un punto de vista dado, el método comprende: proporcionar datos de imagen; llevar a cabo una primera proyección de por lo menos una parte de los datos de imagen de acuerdo a una primera parte de un modelo de proyección, el modelo de proyección comprendiendo la primera parte usada para la rendición de una vista alejada y una segunda parte para la rendición de una vista cercana de manera gue por lo menos una parte de las áreas visuales se hace usando la segunda parte del modelo de proyección y además en donde una transición entre la primera parte del modelo de proyección y la segunda parte del modelo de proyección se caracteriza por vectores de proyección esencialmente similares; llevar a cabo una segunda proyección de otra parte de los datos de imagen de acuerdo a la segunda parte del modelo de proyección para generar los segundos datos proyectados; proporcionar los datos proyectados comprendiendo los primeros datos proyectados y los segundos datos proyectados.
3. El método tal y como se reivindica en la cláusula 2, caracterizado porque la provisión de los datos de imagen comprende recibir los datos de imagen desde un dispositivo seleccionado de un grupo que consiste de un dispositivo de formación de imagen de resonancia magnética (MRI), u dispositivo de tomografia de emisión de positrón (PET), un dispositivo de rayos-X, un dispositivo de ultrasonido y cualquier combinación de los mismos.
4. El método tal y como se reivindica en una cualquiera de las cláusulas 2 a 3, caracterizado porque la provisión de los datos proyectados comprende exhibir los datos proyectados sobre una pantalla.
5. El método tal y como se reivindica en una cualquiera de las cláusulas 2 a 3, caracterizado porque la provisión de los datos proyectados comprende llevar a cabo por lo menos uno del almacenamiento de los datos proyectados y la transmisión de los datos proyectados a una ubicación remota.
6. El método tal y como se reivindica en la cláusula 2, caracterizado porque la provisión de los datos de imagen comprende recibir los datos de imagen desde un servidor DICOM.
7. El método tal y como se reivindica en una cualquiera de las cláusulas 1 a 6, caracterizado porque la primera parte del modelo de proyección comprende una parte de semi-esfera de un modelo de proyección casi-esférico, además en donde la segunda parte del modelo de proyección comprende un modelo de proyección cilindrico.
8. El método tal y como se reivindica en la cláusula 7, caracterizado porque el modelo de proyección casi-esférico se caracteriza por:
9. El método tal y como se reivindica en una cualquiera de las cláusulas 7 a 8, caracterizado porque el modelo de proyección cilindrico se caracteriza por:
10. El método tal y como se reivindica en una cualquiera de las cláusulas 1 a 6, caracterizado porque la primera parte del modelo de proyección comprende una parte de un modelo de proyección elipsoide, además en donde la segunda parte del modelo de proyección comprende un modelo de proyección cilindrico arqueado.
11. El método tal y como se reivindica en una cualquiera de las cláusulas 1 a 10, caracterizado porque cada una de la primera parte del modelo de proyección y de la segunda parte del modelo de proyección es simétrica alrededor de un eje que se extiende desde el punto de vista dado a un punto de vista proyectado.
12. Un medio de almacenamiento que puede ser leído por computadora almacenando instrucciones que pueden ser ejecutadas por computadora el cual, cuando se ejecuta, provoca que un dispositivo de procesamiento lleve a cabo el método tal y como se reivindica en una cualquiera de las cláusulas 1 a 11.
13. .El uso del método tal y como se reivindica en una cualquiera de las cláusulas 1-11 para llevar a cabo un vuelo a través.
14. Un sistema para llevar a cabo la rendición a un punto de vista dado de por lo menos una parte de las áreas visuales cegadas a una perspectiva rendida a un punto de vista dado, el sistema comprende: una unidad de provisión de datos de formación de imagen para recibir y proporcionar datos de imagen; una primera unidad de realización de proyección para llevar a cabo una proyección de por lo menos una parte de unos datos de imagen proporcionados de acuerdo a una primera parte de un modelo de proyección, el modelo de proyección comprende la primera parte usada para rendir una vista alejada y una segunda parte para rendir una vista cercana de manera que por lo menos una parte de las áreas visuales se hace usando la segunda parte del modelo de proyección y además en donde una transición entre la primera parte del modelo de.proyección y la segunda parte del modelo de proyección se caracteriza por vectores de proyección esencialmente similares, la primera unidad de realización de proyección además comprende unos primeros datos proyectados; una segunda unidad de realización de proyección para llevar a cabo una proyección de otra parte de los datos de imagen proporcionados de acuerdo a la segunda parte del modelo de proyección y para proporcionar unos segundos datos proyectados; una unidad de provisión de datos proyectados para recibir los primeros datos proyectados y los segundos datos proyectados para generar los datos proyectados usando los primeros datos proyectados y los segundos datos proyectados y para proporcionar los datos proyectados par por tanto hacer por lo menos una parte de las áreas visuales cegadas a una rendición de perspectiva en un punto de vista dado.
15. Un sistema para llevar a cabo la rendición a un punto de vista dado de por lo menos una parte de áreas visuales cegadas a una perspectiva rendida a un punto de vista dado, el sistema comprende: un dispositivo de exhibición; una unidad de provisión de datos de imagen; una unidad de procesamiento central; una memoria que comprende un programa, en donde el programa está almacenado en la memoria y configurado para ejecutar por la unidad de procesamiento central, el programa comprende: instrucciones para obtener datos de imagen de la unidad de provisión de datos de imagen; instrucciones para llevar a cabo una primera proyección de por lo menos una parte de los datos de imagen de acuerdo a una primera parte de un modelo de proyección, el modelo de proyección comprende la primera parte usada para rendir una vista alejada y una segunda parte para rendir una vista cercana de manera que por lo menos una parte de las áreas visuales se proporcione usando la segunda parte del modelo de proyección y además en donde una transición entre la primera parte del modelo de proyección y la segunda parte del modelo de proyección se caracteriza por los vectores de proyección esencialmente similares; instrucciones para llevar a cabo una segunda proyección de otra parte de los datos de imagen de acuerdo a la segunda parte del modelo de proyección para generar los segundos datos proyectados; instrucciones para generar los datos proyectados usando los primeros datos proyectados y los segundos datos proyectados; instrucciones para proporcionar los datos proyectados generados al dispositivo exhibidor:
16. El sistema tal y como se reivindica en la cláusula 15, caracterizado además porque comprende un dispositivo de salida además en donde el programa comprende instrucciones para transmitir los datos proyectados generados al dispositivo de salida. R E S U M E N Un método y un sistema para llevar a cabo una rendición a un punto de vista dado de por lo menos una parte de las áreas visuales cegadas a una perspectiva rendida al punto de vista dado se describen, el método comprendiendo un modelo de proyección que comprende una primeras parte usada para proporcionar una vista alejada y una segunda parte para proporcionar una vista cercana de manera que por lo menos una parte de las áreas visuales es rendida usando la segunda parte de dicho modelo de proyección y además en donde una transición entre la primera parte del modelo de proyección y la segunda parte del modelo de proyección se caracteriza por vectores de proyección esencialmente similares, obteniendo datos de imagen, llevando a cabo una primera proyección de por lo menos una parte de los datos de imagen de acuerdo a una primera parte del modelo de proyección para generar los primeros datos proyectados, la realización de una segunda proyección de otra parte de los datos de imagen de acuerdo a la segunda parte del modelo de proyección para generar los segundos datos proyectados y exhibir los datos proyectados usando los primeros datos proyectados y los segundos datos proyectados.
MX2014000639A 2011-07-18 2012-07-18 Metodo y sistema para llevar a cabo una representacion. MX338918B (es)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US201161509092P 2011-07-18 2011-07-18
PCT/CA2012/000684 WO2013010261A2 (en) 2011-07-18 2012-07-18 Method and system for performing rendering

Publications (2)

Publication Number Publication Date
MX2014000639A true MX2014000639A (es) 2015-05-15
MX338918B MX338918B (es) 2016-05-05

Family

ID=47558533

Family Applications (1)

Application Number Title Priority Date Filing Date
MX2014000639A MX338918B (es) 2011-07-18 2012-07-18 Metodo y sistema para llevar a cabo una representacion.

Country Status (12)

Country Link
US (1) US9996968B2 (es)
EP (1) EP2734982B1 (es)
JP (1) JP6739897B2 (es)
KR (1) KR102111707B1 (es)
CN (1) CN103688293B (es)
AU (1) AU2012286480A1 (es)
BR (1) BR112014001143B1 (es)
CA (1) CA2842119C (es)
CL (1) CL2014000123A1 (es)
IL (1) IL230443A (es)
MX (1) MX338918B (es)
WO (1) WO2013010261A2 (es)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6396310B2 (ja) * 2012-11-23 2018-09-26 キャデンス メディカル イメージング インコーポレイテッドCadens Medical Imaging Inc. 第一レンダリング投影と第二レンダリング投影との間のトランジションをユーザーに表示するための方法および装置
TWI681691B (zh) 2014-04-30 2020-01-01 瑞士商菲利浦莫里斯製品股份有限公司 電熱式氣溶膠產生系統、裝置及其控制方法
WO2016026756A1 (en) 2014-08-21 2016-02-25 Philip Morris Products S.A. Aerosol-generating device and system
CN105261052B (zh) 2015-11-03 2018-09-18 沈阳东软医疗系统有限公司 管腔图像展开绘制方法及装置
GB2587010B (en) * 2019-09-12 2023-10-18 Fovo Tech Limited A method for generating and modifying non-linear perspective images of a 3D scene

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5782762A (en) 1994-10-27 1998-07-21 Wake Forest University Method and system for producing interactive, three-dimensional renderings of selected body organs having hollow lumens to enable simulated movement through the lumen
US6694163B1 (en) 1994-10-27 2004-02-17 Wake Forest University Health Sciences Method and system for producing interactive, three-dimensional renderings of selected body organs having hollow lumens to enable simulated movement through the lumen
US5891030A (en) 1997-01-24 1999-04-06 Mayo Foundation For Medical Education And Research System for two dimensional and three dimensional imaging of tubular structures in the human body
US6611282B1 (en) 1999-01-04 2003-08-26 Remote Reality Super wide-angle panoramic imaging apparatus
EP1393259B1 (en) 2001-05-11 2018-06-13 Koninklijke Philips N.V. Method, system and computer program for producing a medical report
JP3871614B2 (ja) 2002-06-12 2007-01-24 松下電器産業株式会社 運転支援装置
US7609910B2 (en) * 2004-04-09 2009-10-27 Siemens Medical Solutions Usa, Inc. System and method for creating a panoramic view of a volumetric image
CN101006469A (zh) 2004-04-09 2007-07-25 美国西门子医疗解决公司 用于产生体积图像的全景视图的系统和方法
DE602005024159D1 (de) * 2004-06-23 2010-11-25 Koninkl Philips Electronics Nv Virtuelle endoskopie
JP2009543670A (ja) * 2006-07-17 2009-12-10 メドラッド インコーポレーテッド 一体型医療用画像化システム
JP2010131257A (ja) * 2008-12-05 2010-06-17 Ziosoft Inc 医療用画像処理装置及び医療用画像処理プログラム
JP5631584B2 (ja) 2009-12-25 2014-11-26 株式会社東芝 医用画像処理装置、医用画像処理プログラム及び医用画像診断装置

Also Published As

Publication number Publication date
KR20140054087A (ko) 2014-05-08
BR112014001143B1 (pt) 2022-05-24
JP6739897B2 (ja) 2020-08-12
CN103688293A (zh) 2014-03-26
CA2842119C (en) 2015-07-07
KR102111707B1 (ko) 2020-05-15
US20150161817A1 (en) 2015-06-11
BR112014001143A2 (pt) 2017-02-21
CL2014000123A1 (es) 2014-09-26
WO2013010261A3 (en) 2013-04-11
IL230443A0 (en) 2014-03-31
CA2842119A1 (en) 2013-01-24
WO2013010261A2 (en) 2013-01-24
IL230443A (en) 2017-10-31
EP2734982A2 (en) 2014-05-28
US9996968B2 (en) 2018-06-12
EP2734982A4 (en) 2015-03-04
EP2734982B1 (en) 2020-08-26
CN103688293B (zh) 2017-10-31
AU2012286480A1 (en) 2014-01-30
JP2014524810A (ja) 2014-09-25
MX338918B (es) 2016-05-05

Similar Documents

Publication Publication Date Title
US9225969B2 (en) Graphical system with enhanced stereopsis
EP1743302B1 (en) System and method for creating a panoramic view of a volumetric image
EP3166082B1 (en) Rendering expanded lumen image
US20220012954A1 (en) Generation of synthetic three-dimensional imaging from partial depth maps
WO2011142222A1 (ja) 画像処理装置及び画像処理方法
JP4257218B2 (ja) 三次元医療画像の立体的な観察のための方法、システム及びコンピュータプログラム
MX2014000639A (es) Metodo y sistema para llevar a cabo una representacion.
CN103839285A (zh) 用于显示医学图像的方法和设备
Abou El-Seoud et al. An interactive mixed reality ray tracing rendering mobile application of medical data in minimally invasive surgeries
JP2005521960A5 (es)
Wang et al. Improving 3d surface reconstruction from endoscopic video via fusion and refined reflectance modeling
JP2008067915A (ja) 医用画像表示装置
KR100466409B1 (ko) 가상 내시경 시스템, 가상 내시경 디스플레이 방법과 그 방법을 컴퓨터 상에서 수행하는 프로그램을 저장한 컴퓨터가 판독 가능한 기록 매체
EP3695380B1 (en) Hypersurface reconstruction of microscope view
CN101006469A (zh) 用于产生体积图像的全景视图的系统和方法
Hayashi et al. Quantitative evaluation of observation methods in virtual endoscopy based on the rate of undisplayed region
Marino et al. Colon visualization using shape preserving flattening
Wei et al. A software platform for interactive analysis on 3D medical data
Tiede et al. Virtual endoscopy of branched objects based on cubic panoramas

Legal Events

Date Code Title Description
FG Grant or registration
HC Change of company name or juridical status

Owner name: ERICSSON WIFI INC.