ES2878599T3 - Sistema y método para generar y visualizar bloques de imagen de tomosíntesis - Google Patents

Sistema y método para generar y visualizar bloques de imagen de tomosíntesis Download PDF

Info

Publication number
ES2878599T3
ES2878599T3 ES18165965T ES18165965T ES2878599T3 ES 2878599 T3 ES2878599 T3 ES 2878599T3 ES 18165965 T ES18165965 T ES 18165965T ES 18165965 T ES18165965 T ES 18165965T ES 2878599 T3 ES2878599 T3 ES 2878599T3
Authority
ES
Spain
Prior art keywords
image
images
source
blocks
user
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
ES18165965T
Other languages
English (en)
Inventor
Nikolaos Gkanatsios
Haili Chui
Xiangwei Zhang
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hologic Inc
Original Assignee
Hologic Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hologic Inc filed Critical Hologic Inc
Application granted granted Critical
Publication of ES2878599T3 publication Critical patent/ES2878599T3/es
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus for radiation diagnosis, e.g. combined with radiation therapy equipment
    • A61B6/50Clinical applications
    • A61B6/502Clinical applications involving diagnosis of breast, i.e. mammography
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus for radiation diagnosis, e.g. combined with radiation therapy equipment
    • A61B6/02Devices for diagnosis sequentially in different planes; Stereoscopic radiation diagnosis
    • A61B6/025Tomosynthesis
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus for radiation diagnosis, e.g. combined with radiation therapy equipment
    • A61B6/52Devices using data or image processing specially adapted for radiation diagnosis
    • A61B6/5211Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data
    • A61B6/5223Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data generating planar views from image data, e.g. extracting a coronal view from a 3D image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/003Reconstruction from projections, e.g. tomography
    • G06T11/008Specific post-processing after tomographic reconstruction, e.g. voxelisation, metal artifact correction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/60Editing figures and text; Combining figures or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • G06T2207/10081Computed x-ray tomography [CT]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20021Dividing image into blocks, subimages or windows
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20076Probabilistic image processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30068Mammography; Breast
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2210/00Indexing scheme for image generation or computer graphics
    • G06T2210/41Medical

Abstract

Sistema para procesar imágenes de tejido de mama, que comprende: un ordenador de procesamiento de imágenes; y una interfaz de usuario acoplada operativamente al ordenador de procesamiento de imágenes, en el que el ordenador de procesamiento de imágenes está configurado para obtener un conjunto de imágenes fuente de tejido de mama, seleccionándose cada imagen fuente del grupo que consiste en una imagen de reconstrucción de tomosíntesis (Tr), una imagen de proyección de tomosíntesis (Tp), una imagen de mamografía sintetizada (Ms) y una imagen de mamografía (Mp), caracterizado porque el ordenador de procesamiento de imágenes está configurada para procesar el conjunto de imágenes fuente para generar un conjunto de varios bloques (30) de imagen, comprendiendo cada bloque (301-303) de imagen una imagen sintética de una parte del tejido de mama obtenida a partir de un subconjunto respectivo del conjunto de imágenes fuente, en el que el ordenador de procesamiento de imágenes está configurado para generar cada bloque (301-303) de imágenes del conjunto de bloques (30) de imagen a partir de un número predeterminado de imágenes fuente sucesivas, en el que cada dos bloques (301, 302) de imagen adyacentes del conjunto incluyen un número de superposiciones predeterminado o introducido por el usuario de imágenes fuente sucesivas.

Description

DESCRIPCIÓN
Sistema y método para generar y visualizar bloques de imagen de tomosíntesis
La presente divulgación se refiere en general a la obtención de imágenes de mama usando tomosíntesis, y más específicamente a sistemas y métodos para obtener, procesar, sintetizar, almacenar y visualizar un conjunto de datos de tomosíntesis o un subconjunto del mismo. En particular, la presente divulgación se refiere a la generación y visualización de bloques de imagen 2D mediante la importación de datos relevantes desde un subconjunto de cortes de imagen de tomosíntesis reconstruidos de un conjunto de datos en las imágenes sintetizadas.
Antecedentes
La mamografía se ha usado durante mucho tiempo para detectar el cáncer de mama y otras anomalías. Tradicionalmente, las mamografías se han formado en película de rayos X. Más recientemente, se han introducido generadores de imágenes digitales de pantalla plana que adquieren una mamografía en forma digital y, por tanto, facilitan el análisis y el almacenamiento de los datos de imagen adquiridos, y también proporcionan otros beneficios. Además, se ha dedicado considerable atención y desarrollo tecnológico a la obtención de imágenes tridimensionales de la mama usando métodos tales como la tomosíntesis de mama. A diferencia de las imágenes 2D generadas por los sistemas de mamografía preexistentes, los sistemas de tomosíntesis de mama construyen un volumen de imágenes 3D a partir de una serie de imágenes de proyección 2D, obteniéndose cada imagen de proyección con un desplazamiento angular diferente de una fuente de rayos X en relación con el detector de imágenes cuando la fuente de rayos X se escanea sobre el detector. El volumen de imágenes 3D construido se presenta normalmente como una pluralidad de cortes de datos de imagen, reconstruyéndose matemáticamente los cortes en planos normalmente paralelos al detector de imágenes. Los cortes de tomosíntesis reconstruidos reducen o eliminan los problemas provocados por la superposición de tejido y el ruido de estructuras presente en la obtención imágenes de mamografía bidimensional, de un solo corte, al permitir que un usuario (por ejemplo, un radiólogo u otro profesional médico) se desplace por los cortes de imagen para observar sólo las estructuras en ese corte.
Recientemente se han desarrollado sistemas de tomosíntesis para la detección y el diagnóstico del cáncer de mama. En particular, Hologic, Inc. (www.hologic.com) ha desarrollado un sistema de mamografía/tomosíntesis multimodo fusionado que adquiere uno o ambos tipos de imágenes de mamografía y tomosíntesis, ya sea mientras la mama permanece inmovilizada o en diferentes compresiones de la mama. Otras empresas han propuesto la introducción de sistemas que están dedicados a la obtención de imágenes por tomosíntesis; es decir, que no incluyen la capacidad de adquirir también una mamografía en la misma compresión.
En la patente estadounidense n.° 7.760.924 se describen ejemplos de sistemas y métodos que aprovechan la experiencia médica existente con el fin de facilitar, opcionalmente, la transición a la tecnología de tomosíntesis. En particular, la patente estadounidense n.° 7.760.924 describe un método de generación de una imagen 2D sintetizada, que puede visualizarse junto con las imágenes reconstruidas o de proyección de tomosíntesis, con el fin de ayudar en la detección y el diagnóstico.
Aunque una imagen 2D sintetizada a partir de todo el conjunto de datos de tomosíntesis proporciona una visión general útil de los datos de imagen que es similar a una imagen de mamografía tradicional, una sola imagen 2D puede contener demasiados datos para facilitar la detección y el diagnóstico óptimos. Por consiguiente, existe la necesidad de sistemas y métodos de tomosíntesis para procesar, sintetizar y visualizar más eficazmente datos de imagen de tomosíntesis.
El documento US-A1-2011/0109650 da a conocer un sistema y un método según el preámbulo de las reivindicaciones independientes 1 y 8.
Sumario
La invención se define por las reivindicaciones independientes 1 y 8. Según diversas realizaciones, un sistema para procesar imágenes de tejido de mama incluye un ordenador de procesamiento de imágenes, y una interfaz de usuario acoplada operativamente al ordenador de procesamiento de imágenes, en el que el ordenador de procesamiento de imágenes está configurado para obtener datos de imagen de tejido de mama, procesar los datos de imagen para generar un conjunto de cortes de imagen reconstruidos, representando los cortes de imagen reconstruidos colectivamente el tejido de mama, procesar subconjuntos respectivos de los cortes de imagen reconstruidos para generar un conjunto de bloques de imagen, comprendiendo cada bloque de imagen una imagen 2D sintetizada de una parte del tejido de mama obtenida a partir de un subconjunto respectivo del conjunto de cortes de imagen reconstruidos. El sistema puede comprender además al menos un monitor de visualización de imágenes, en el que el ordenador de procesamiento de imágenes está configurado además para hacer que se visualicen en el mismo monitor de visualización o en uno diferente del uno o más monitores de visualización uno o más bloques de imagen del conjunto generado de bloques de imagen. En diversas realizaciones, el ordenador de procesamiento de imágenes está configurado además para generar un archivo de almacenamiento que comprende el conjunto generado de bloques de imagen.
En una realización, el ordenador de procesamiento de imágenes está configurado para generar cada bloque de imagen del conjunto a partir de un número predeterminado de cortes de imagen reconstruidos sucesivos, en el que bloques de imagen adyacentes del conjunto incluyen un número de superposiciones predeterminado de cortes de imagen reconstruidos sucesivos. En otra realización, el ordenador de procesamiento de imágenes está configurado para generar cada bloque de imagen del conjunto a partir de un número introducido por el usuario de cortes de imagen reconstruidos sucesivos, en el que bloques de imagen adyacentes del conjunto incluyen un número de superposiciones introducido por el usuario de cortes de imagen reconstruidos sucesivos. En una realización, se generan bloques respectivos a partir de seis bloques de imagen sucesivos, y en el que bloques de imagen adyacentes del conjunto incluyen una superposición de tres cortes de imagen reconstruidos sucesivos.
En diversas realizaciones, los bloques de imagen un mecanismo de mejora que se selecciona o se modifica basándose en varios cortes de imagen reconstruidos a partir de los cuales se genera el bloque de imagen respectivo. A modo de ejemplo no limitativo, el mecanismo de mejora puede seleccionarse o modificarse basándose en un valor correspondiente al número de cortes de imagen reconstruidos a partir de los cuales se genera el bloque de imagen respectivo. A modo de otro ejemplo no limitativo, el mecanismo de mejora puede comprender resaltar uno o más objetos o regiones en uno o más bloques de imagen del conjunto. En diversas realizaciones, el mecanismo de mejora tiene en cuenta uno o más de: (i) un mapa binario de las regiones o los objetos resaltados respectivos; (ii) un mapa de cada corte de imagen que incluye una distribución de probabilidades para un patrón identificado en las regiones o los objetos resaltados respectivos; y (iii) la importación de una región o un objeto identificado desde un corte de imagen del subconjunto respectivo de cortes de imagen reconstruidos en el bloque de imagen, en el que la región o el objeto se importa en el bloque de imagen en ubicaciones de coordenadas X, Y correspondientes a las ubicaciones de coordenadas X, Y de la región o el objeto en el corte de imagen reconstruido respectivo.
En otra realización de las invenciones dadas a conocer, un método para procesar datos de imagen de tejido de mama incluye obtener datos de imagen de tejido de mama, procesar los datos de imagen para generar un conjunto de cortes de imagen reconstruidos, representando los cortes de imagen reconstruidos colectivamente el tejido de mama, y procesar subconjuntos respectivos de los cortes de imagen reconstruidos para generar un conjunto de bloques de imagen, incluyendo cada bloque de imagen del conjunto una imagen 2D sintetizada de una parte del tejido de mama obtenida a partir de un subconjunto respectivo del conjunto de cortes de imagen reconstruidos. En algunas realizaciones, los bloques se generan a partir de un número predeterminado de cortes de imagen sucesivos, y los bloques de imagen sucesivos se generan a partir de una superposición predeterminada de cortes de imagen. En otras realizaciones, los bloques se generan a partir de un número introducido por el usuario de cortes de imagen sucesivos, y pueden generarse bloques de imagen sucesivos a partir de una superposición introducida por el usuario de cortes de imagen. En una realización, se generan bloques respectivos a partir de seis bloques de imagen sucesivos, y en el que bloques de imagen adyacentes del conjunto incluyen una superposición de tres cortes de imagen reconstruidos sucesivos.
En diversas realizaciones, los bloques de imagen se generan usando un mecanismo de mejora (es decir, una función de procesamiento/síntesis de imágenes) que se selecciona o se modifica basándose en varios cortes de imagen reconstruidos a partir de los cuales se genera el bloque de imagen respectivo. El mecanismo de mejora puede seleccionarse o modificarse basándose en un valor determinado anteriormente correspondiente al número de cortes de imagen reconstruidos a partir de los cuales se genera el bloque de imagen respectivo. El mecanismo de mejora puede seleccionarse o modificarse basándose en un valor determinado basándose en el número de cortes de imagen reconstruidos a partir de los cuales se genera el bloque de imagen respectivo. El mecanismo de mejora puede incluir resaltar objeto(s) y/o regiones en los bloques de imagen respectivos. El mecanismo de mejora puede tener en cuenta un mapa binario de la región o el objeto. El mecanismo de mejora puede tener en cuenta un mapa de cada corte de imagen reconstruido que incluye una distribución de probabilidades para un patrón identificado en el objeto o la región. El mecanismo de mejora puede incluir importar una región o un objeto identificado desde un corte de imagen reconstruido del subconjunto respectivo en el bloque de imagen. A modo de ejemplo no limitativo, el/los objeto(s) o la región/las regiones puede(n) importarse en el bloque de imagen en ubicaciones de coordenadas X, Y correspondientes a las ubicaciones de coordenadas X, Y de la región/las regiones o el/los objeto(s) respectivo(s) en el/los corte(s) de imagen reconstruido(s) respectivo(s).
Aún en otra realización, un método para procesar datos de imagen de tejido de mama incluye (i) obtener datos de imagen de tejido de mama, (ii) procesar los datos de imagen para generar un conjunto de cortes de imagen reconstruidos que representan colectivamente el tejido de mama, (iii) visualizar una pluralidad de cortes de imagen reconstruidos por parte de un usuario, (iv) recibir entrada de usuario que identifica un corte de imagen del conjunto, y (v) procesar un subconjunto de los cortes de imagen para generar un bloque de imagen que comprende una imagen 2D sintetizada de una parte del tejido de mama obtenida a partir del subconjunto de cortes de imagen reconstruidos, incluyendo el corte de imagen identificado por el usuario. A modo de ejemplo no limitativo, el bloque puede generarse a partir de un número introducido por el usuario de cortes de imagen sucesivos. El método también puede incluir procesar subconjuntos respectivos de los cortes de imagen reconstruidos para generar un número de bloques de imagen introducido por el usuario, incluyendo cada bloque de imagen una imagen 2D sintetizada de una parte del tejido de mama obtenida a partir del subconjunto respectivo de cortes de imagen reconstruidos, y en el que se generan bloques de imagen sucesivos de la pluralidad a partir de una superposición introducida por el usuario de cortes de imagen reconstruidos.
Estos y otros aspectos y realizaciones de las invenciones dadas a conocer se describen con más detalle a continuación, junto con las figuras adjuntas.
Breve descripción de las figuras
Los dibujos ilustran el diseño y la utilidad de las realizaciones de las invenciones dadas a conocer, en los que se hace referencia a elementos similares mediante números de referencia comunes. Estos dibujos no están necesariamente dibujados a escala. Con el fin de apreciar mejor cómo se obtienen las ventajas y objetos mencionados anteriormente y otros, se presentará una descripción más particular de las realizaciones, que se ilustran en los dibujos adjuntos. Estos dibujos representan solo realizaciones típicas de las invenciones dadas a conocer y, por tanto, no deben considerarse limitativas de su alcance.
La figura 1 es un diagrama de bloques que ilustra el flujo de datos a través de un sistema que incluye un sistema de adquisición de mamografía/tomosíntesis de combinación y/o un sistema de adquisición sólo de tomosíntesis para adquirir imágenes de tomosíntesis y/o mamografía (incluyendo mamografía de contraste) de una mama femenina, e incluye además uno o más procesadores que implementan la tecnología de fusión de imágenes de las invenciones dadas a conocer para proporcionar una imagen sintetizada bidimensional mediante la importación de los datos más relevantes desde las imágenes fuente 2D y/o 3D adquiridas en una o más imágenes 2D fusionadas para su visualización por parte de un usuario (por ejemplo, un profesional médico, incluyendo un radiólogo);
la figura 2 es un diagrama que ilustra el flujo de datos de una serie de cortes Tr reconstruidos a través de la tecnología de fusión de imágenes de las invenciones dadas a conocer para generar un bloque de imagen IFUSIÓN sintetizado y un mapa de fusión correspondiente (“índice” o “guía”);
la figura 3 representa una realización de una imagen fusionada visualizada, en la que determinados límites de región se identifican de manera dinámica durante la creación de una imagen de fusión;
la figura 4 es un diagrama de flujo que ilustra etapas a modo de ejemplo realizadas durante un procedimiento de fusión de imágenes según una realización de las invenciones dadas a conocer;
las figuras 5A y 5B ilustran una realización de una visualización de una imagen fusionada, y una visualización resultante de una imagen fuente en respuesta a la selección de una región en la imagen fusionada por un usuario; la figura 6 representa una interfaz de usuario a modo de ejemplo, que incluye un monitor de lado izquierdo que muestra una imagen 2D sintetizada de la mama de una mujer, que incluye una estructura tisular resaltada, en la que la zona resaltada está en forma de una línea de contorno que representa un límite de la estructura tisular resaltada, y un monitor de lado derecho que muestra la imagen de tomosíntesis desde la que se importó la estructura tisular resaltada en la imagen 2D, o que proporciona de otro modo la mejor vista de la estructura tisular resaltada;
la figura 7 representa la interfaz de usuario de la figura 6, que muestra de nuevo una imagen 2D sintetizada de la mama de una mujer que incluye una masa espiculada resaltada en el monitor de la izquierda, y un monitor de lado derecho que muestra la imagen de tomosíntesis desde la que se importó la masa espiculada representada en la imagen 2D, o que proporciona de otro modo la mejor vista de la masa espiculada;
la figura 8 representa la interfaz de usuario de la figura 7, que incluye la misma imagen de mama mostrada en el monitor de lado izquierdo, pero resaltando ahora una región que contiene microcalcificaciones, mostrando el monitor de lado derecho la imagen de tomosíntesis desde la que se importó la región resaltada que contiene las microcalcificaciones en la imagen 2D, o que proporciona de otro modo la mejor vista de las microcalcificaciones; y la figura 9 es un diagrama que ilustra el flujo de datos de una serie de cortes Tr reconstruidos a través de la tecnología de fusión de imágenes de las invenciones dadas a conocer para generar una pluralidad de bloques de imagen Ifusión sintetizados.
Descripción detallada de las realizaciones ilustradas
Se supone que todos los valores numéricos en el presente documento están modificados por los términos “alrededor de” o “aproximadamente,” se indique o no explícitamente. Los términos “alrededor de” y “aproximadamente” se refieren en general a un intervalo de números que un experto habitual en la técnica consideraría equivalente al valor citado (es decir, que tiene la misma función o resultado). En muchos casos, los términos “alrededor de” y “aproximadamente” pueden incluir números que se redondean a la cifra significativa más cercana. La mención de intervalos numéricos por puntos finales incluye todos los números dentro de ese intervalo (por ejemplo, de 1 a 5 incluye 1, 1,5, 2, 2,75, 3, 3,80, 4 y 5).
Tal como se usa en esta memoria descriptiva y en las reivindicaciones adjuntas, las formas en singular “un”, “una” y “el/la” incluyen referentes en plural, a menos que el contenido indique claramente otra cosa. Tal como se usa en esta memoria descriptiva y en las reivindicaciones adjuntas, el término “o” se emplea generalmente en su sentido que incluye “y/o” a menos que el contenido indique claramente otra cosa. Al describir las realizaciones representadas de las invenciones dadas a conocer ilustradas en las figuras adjuntas, se emplea terminología específica por motivos de claridad y facilidad de descripción. Sin embargo, la divulgación de esta memoria descriptiva de patente no pretende limitarse a la terminología específica así seleccionada, y debe entenderse que cada elemento específico incluye todos los equivalentes técnicos que operan de manera similar. Debe entenderse además que los diversos elementos y/o características de diferentes realizaciones ilustrativas pueden combinarse entre sí y/o sustituirse entre sí siempre que sea posible dentro del alcance de esta divulgación y las reivindicaciones adjuntas.
A continuación en el presente documento se describen diversas realizaciones de las invenciones dadas a conocer con referencia a las figuras. Cabe señalar que las figuras no están dibujadas a escala y que elementos de estructuras o funciones similares se representan mediante números de referencia similares en todas las figuras. Cabe señalar también que las figuras sólo están destinadas a facilitar la descripción de las realizaciones. No pretenden ser una descripción exhaustiva de las invenciones dadas a conocer, que se definen únicamente por las reivindicaciones adjuntas.
Además, no es necesario que una realización ilustrada de las invenciones dadas a conocer tenga todos los aspectos o ventajas mostrados. Una ventaja, característica o aspecto descrito junto con una realización particular de las invenciones dadas a conocer no se limita necesariamente a esa realización y puede ponerse en práctica en cualquier otra realización aunque no se ilustre de ese modo.
Para las siguientes abreviaturas y términos definidos se aplicarán estas definiciones a lo largo de esta memoria descriptiva de patente y las reivindicaciones adjuntas, a menos que se facilite una definición diferente en las reivindicaciones o en otra parte de esta memoria descriptiva:
Imagen adquirida se refiere a una imagen generada al visualizar el tejido de mama de una mujer. Las imágenes adquiridas pueden generarse mediante la radiación procedente de una fuente de radiación que incide sobre un detector de radiación dispuesto en lados opuestos del tejido de mama, como en una mamografía convencional. Imagen reconstruida se refiere a una imagen generada a partir de datos derivados de una pluralidad de imágenes adquiridas. Una imagen reconstruida simula una imagen adquirida no incluida en la pluralidad de imágenes adquiridas.
Imagen sintetizada se refiere a una imagen artificial generada a partir de datos derivados de una pluralidad de imágenes adquiridas y/o reconstruidas. Una imagen sintetizada incluye elementos (por ejemplo, objetos y regiones) de las imágenes adquiridas y/o reconstruidas, pero no corresponde necesariamente a una imagen que puede adquirirse durante la visualización. Las imágenes sintetizadas son herramientas de análisis construidas.
Mp se refiere a una mamografía convencional o mamografía mejorada por contraste, que son imágenes de proyección bidimensionales (2D) de una mama, y abarca tanto una imagen digital adquirida por un detector de pantalla plana u otro dispositivo de obtención de imágenes, como la imagen después del procesamiento convencional para prepararla para su visualización (por ejemplo, por parte de un profesional sanitario), almacenamiento (por ejemplo, en el sistema PACS de un hospital) y/u otro uso.
Tp se refiere a una imagen que de manera similar es bidimensional (2D), pero que se adquiere en un ángulo de tomosíntesis respectivo entre la mama y el origen de los rayos X de obtención de imágenes (normalmente el punto focal de un tubo de rayos X), y abarca la imagen tal como se adquirió, así como los datos de imagen después de procesarse para visualización, almacenamiento y/u otro uso.
Tr se refiere a una imagen que se reconstruye a partir de imágenes de proyección de tomosíntesis Tp, por ejemplo, de la manera descrita en una o más de las patentes estadounidenses n.os 7.577.282, 7.606.801, 7.760.924 y 8.571.289, en el que una imagen de Tr representa un corte de la mama tal como aparecería en una imagen de rayos X de proyección de ese corte en cualquier ángulo deseado, no sólo en un ángulo usado para adquirir imágenes de Tp o Mp.
Ms se refiere a una imagen de proyección 2D sintetizada, que simula imágenes de mamografía, tales como imágenes craneocaudales (CC) u oblicuas mediolaterales (MLO), y se construye usando imágenes de proyección de tomosíntesis Tp, imágenes reconstruidas de tomosíntesis Tr o una combinación de las mismas. Las imágenes de Ms pueden proporcionarse para su visualización por parte de un profesional sanitario o para almacenarlas en el sistema PACS de un hospital u otra institución. Ejemplos de métodos que pueden usarse para generar imágenes de Ms se describen en las patentes estadounidenses mencionadas anteriormente n.os 7.760.924 y 8.571.289.
Ifusión se refiere a una imagen 2D sintetizada construida mediante la importación en una sola imagen de uno o más objetos y/o regiones procedentes de dos o más de imágenes de Mp, Ms, Tp o Tr de la mama de una mujer, en la que una imagen desde la que se importa un objeto o una región en la imagen fusionada comprende una imagen fuente para ese objeto o región, y en la que los objetos o regiones se importan en la imagen fusionada en las ubicaciones de coordenadas X, Y correspondientes a las ubicaciones de coordenadas X, Y de los objetos o regiones en su imagen fuente respectiva. Ejemplos de métodos que pueden usarse para generar imágenes Ifusión se describen en las solicitudes PCT n.os PCT/US2012/066526 y PCT/US2013/025993.
Los términos Ifusión, Tp, Tr, Ms y Mp abarcan cada uno información, en cualquier forma, que es suficiente para describir la imagen respectiva para su visualización, procesamiento adicional o almacenamiento. Las imágenes Ifusión, Mp, Ms. Tp y Tr respectivas se proporcionan normalmente en forma digital antes de visualizarse, estando definida cada imagen por información que identifica las propiedades de cada píxel en una matriz bidimensional de píxeles. Los valores de píxel se refieren normalmente a las respuestas a los rayos X medidas, estimadas o calculadas respectivas de volúmenes correspondientes en la mama, es decir, vóxeles o columnas de tejido. En una realización, la geometría de las imágenes de tomosíntesis (Tr y Tp), las imágenes de mamografía (Ms y Mp) y las imágenes fusionadas (Ifusión) se corresponde con un sistema de coordenadas común, tal como se describe en la patente estadounidense n.° 7.702.142. A menos que se especifique de otro modo, se supone que dicha correspondencia del sistema de coordenadas se implementa con respecto a las realizaciones descritas en la descripción detallada que sigue de esta memoria descriptiva de patente.
Los términos “generar una imagen” y “transmitir una imagen” se refieren respectivamente a generar y transmitir información que es suficiente para describir la imagen para su visualización. La información generada y transmitida normalmente es información digital.
La figura 1 ilustra el flujo de datos en un sistema de generación y visualización de imágenes a modo de ejemplo, que incorpora tecnología fusionada de generación y visualización de imágenes. Debe entenderse que aunque la figura 1 ilustra una realización particular de un diagrama de flujo con determinados procedimientos que tienen lugar en un orden en serie particular o en paralelo, las reivindicaciones y otras realizaciones diversas no se limitan al desempeño de las etapas de procesamiento de imágenes en ningún orden particular, a menos que se especifique de ese modo.
Más particularmente, el sistema de generación y visualización de imágenes incluye un sistema 1 de adquisición de imágenes que adquiere datos de imágenes de tomosíntesis para generar imágenes de Tp de la(s) mama(s) de una mujer, usando los métodos de adquisición tridimensionales y/o de tomosíntesis respectivos de cualquiera de los sistemas disponibles actualmente. Si el sistema de adquisición es un sistema combinado de tomosíntesis/mamografía, también pueden generarse imágenes de Mp. Algunos sistemas de tomosíntesis dedicados o sistemas combinados de tomosíntesis/mamografía pueden adaptarse para aceptar y almacenar imágenes de mamografías preexistentes (indicadas mediante una línea discontinua y la leyenda Mppreexistente en la figura 1) en un dispositivo 2 de almacenamiento, que es preferiblemente un dispositivo de almacenamiento de Sistema de Comunicación y Archivo de Imágenes (PACS) compatible con DICOM. Después de la adquisición, las imágenes de proyección de tomosíntesis Tp también pueden transmitirse al dispositivo 2 de almacenamiento (tal como se muestra en la figura 1).
Las imágenes de Tp se transmiten desde el sistema 1 de adquisición, o desde el dispositivo 2 de almacenamiento, o ambos, a un sistema informático configurado como un motor 3 de reconstrucción que reconstruye las imágenes de Tp en “cortes” de imagen reconstruida Tr, que representan cortes de mama de grosor seleccionado y en orientaciones seleccionadas, tal como se describe en las patentes y solicitudes mencionadas anteriormente. El sistema 1 de obtención de imágenes y visualización incluye además un sintetizador 42D que opera sustancialmente en paralelo con el motor de 3 reconstrucción para generar imágenes 2D que simulan mamografías tomadas en cualquier orientación (por ejemplo, CC o MLO) usando una combinación de una o más imágenes de Tp y/o Tr. Las imágenes 2D sintetizadas pueden generarse dinámicamente antes de la visualización (tal como se muestra en la figura 1) o pueden almacenarse en el sistema 2 de almacenamiento para su uso posterior. Las imágenes 2D sintetizadas se denominan indistintamente como Ifusión, T2d y Ms. El motor 3 de reconstrucción y el sintetizador 4 2D están conectados preferiblemente a un sistema 5 de visualización a través de un enlace de transmisión rápida. Las imágenes de Mp y/o Tp adquiridas originalmente también pueden enviarse al sistema 5 de visualización para la visualización simultánea o alterna con las imágenes de Ifusión, Tr y/o Ms respectivas por parte de un usuario.
Están dispuestos filtros 7a, 7b de modo entre la adquisición de imágenes y la visualización de imágenes. Cada uno de los filtros 7a y 7b puede incluir adicionalmente filtros personalizados para cada tipo de imagen (es decir, Tp, Mp y Tr) dispuestos para identificar y resaltar determinados aspectos de los tipos de imagen respectivos. De esta manera, cada modo de obtención de imágenes puede ajustarse o configurarse de manera óptima para un fin específico. El ajuste o la configuración puede ser automática, basándose en el tipo de imagen, o puede definirse mediante entrada manual, por ejemplo, a través de una interfaz de usuario acoplada a una pantalla. En la realización ilustrada de la figura 1, los filtros 7a y 7b se seleccionan para resaltar características particulares de las imágenes que mejor se visualizan en los modos de obtención de imágenes respectivos, por ejemplo, dirigidos a resaltar masas o calcificaciones, o para hacer que las imágenes fusionadas (descritas a continuación) parezcan ser un tipo de imagen particular, tal como un corte reconstruido 3D o una mamografía 2D.
Según una realización de las invenciones dadas a conocer, y tal como se describe con mayor detalle en el presente documento, el sistema 1 incluye un procesador 6 de fusión de imágenes que fusiona datos de imagen relevantes obtenidos de un conjunto de imágenes fuente y sintetizadas disponibles de la(s) mama(s) de una mujer para proporcionar una o más imágenes 2D fusionadas (“bloque” o Ifusión) para su visualización. El conjunto de imágenes disponibles usadas para generar las imágenes fusionadas (“bloque” o Ifusión) puede incluir imágenes de Ms, Mp, Tr y/o Tp filtradas y/o sin filtrar. Mientras que la figura 1 representa todos estos tipos de imágenes que se introducen en el procesador 6 de fusión de imágenes, también se prevé dentro del alcance de las invenciones dadas a conocer que las imágenes fusionadas pueden configurarse manualmente. Por ejemplo, puede proporcionarse y configurarse una interfaz de usuario o configuración preestablecida para permitir que un usuario seleccione un grupo particular de dos o más imágenes o tipos de imágenes para generar un “bloque” o Ifusión de imágenes 2D sintetizadas para su visualización.
A modo de ilustración, un usuario, tal como un radiólogo u otro profesional médico, puede desear fusionar dos o más cortes de tomosíntesis reconstruidos (Tr) con el fin de proporcionar una imagen fusionada que muestra las estructuras más fáciles de discernir en los datos de imagen de tomosíntesis colectivos en una imagen 2D sintetizada visualizada (“bloque” o Ifusión), que mapea esencialmente los cortes de tomosíntesis con una granularidad de píxeles. Adicional o alternativamente, el usuario puede combinar una imagen de mamografía 2D, ya sea Mp o Ms, con una proyección 3D (Tp), o con imágenes reconstruidas seleccionadas (Tr), con el fin de obtener una imagen fusionada personalizada (“bloque” o Ifusión) que resalta tanto calcificaciones como diversas estructuras tisulares de la mama. Los filtros aplicados a cada tipo de imagen pueden resaltar adicionalmente los tipos de estructuras o características en una imagen fusionada que generalmente son más prevalentes o más fáciles de discernir en el tipo de imagen fuente respectivo. Por tanto, puede aplicarse un tipo de filtro a las imágenes de mamografía para resaltar calcificaciones, mientras que puede aplicarse un filtro diferente a los cortes de tomosíntesis para resaltar masas, lo que permite que tanto las calcificaciones resaltadas como las masas tisulares resaltadas se visualicen en una sola imagen fusionada. Los filtros también pueden proporcionar una imagen fusionada con un aspecto y una sensación deseados; es decir, para hacer que una imagen fusionada parezca más como una imagen de tomosíntesis o mamografía.
El sistema 5 de pantalla puede formar parte de una estación de trabajo de adquisición convencional (por ejemplo, del sistema 1 de adquisición), o de una estación de revisión convencional (visualización múltiple) (no mostrada) que está físicamente alejada del sistema 1 de adquisición. En algunas realizaciones, puede usarse una pantalla conectada a través de una red de comunicación, por ejemplo, una pantalla de un ordenador personal o de una denominada tableta, teléfono inteligente u otro dispositivo portátil. En cualquier caso, la pantalla 5 del sistema puede visualizar preferiblemente imágenes Ifusión, Ms, Mp, Tr y/o Tp simultáneamente, por ejemplo, en monitores independientes uno al lado del otro de una estación de trabajo de revisión, aunque la invención todavía puede implementarse con un solo monitor de visualización, alternando entre imágenes.
Para facilitar el procedimiento de detección/diagnóstico, los cortes de Tr se reconstruyen preferiblemente todos al mismo tamaño para su visualización, que puede ser el mismo que el tamaño de una imagen de Mp o Ms de la mama, o pueden reconstruirse inicialmente a tamaños determinados por la forma de abanico del haz de rayos X usado en la adquisición, y luego convertirse a ese mismo tamaño mediante interpolación y/o extrapolación apropiadas. De esta manera, pueden visualizarse imágenes de diferentes tipos y de diferentes fuentes con el tamaño y la resolución deseados. Por ejemplo, una imagen puede visualizarse en (1) modo de ajuste a puerto de visualización, en el que el tamaño de la imagen visualizada se maximiza de manera que todo el tejido de mama obtenido como imagen sea visible, (2) modo de tamaño real, en el que un píxel de visualización en la pantalla se corresponde con un píxel de la imagen, o (3) modo de tamaño correcto, en el que el tamaño de una imagen visualizada se ajusta para que coincida con el de otra imagen que se visualiza simultáneamente, o con el que la imagen visualizada se alterna o puede alternarse.
Por ejemplo, si se toman dos imágenes de la misma mama y no son del mismo tamaño, o no tienen la misma resolución, pueden tomarse medidas para aumentar o reducir el aumento de manera automática o selectivamente por parte del usuario (es decir, “acercar” o “alejar”) de una o ambas imágenes, de modo que parezcan tener el mismo tamaño cuando se visualizan simultáneamente, o cuando un usuario alterna entre las imágenes. Pueden usarse técnicas conocidas de interpolación, extrapolación y/o ponderación para realizar el proceso de redimensionamiento, y también puede usarse tecnología de procesamiento de imágenes conocida para hacer que otras características de las imágenes visualizadas sean similares de manera que se facilite la detección/el diagnóstico. Cuando se visualizan tales imágenes redimensionadas, según una realización de las invenciones dadas a conocer, las imágenes fusionadas (“bloque” o Ifusión) se redimensionan automáticamente, en consecuencia.
Por tanto, el sistema 1, que se describe con fines de ilustración y no de limitación en esta memoria descriptiva de patente, puede recibir y visualizar selectivamente imágenes de proyección de tomosíntesis Tp, imágenes de reconstrucción de tomosíntesis Tr, imágenes de mamografía sintetizadas Ms y/o imágenes de mamografía Mp (incluyendo mamografía de contraste), o cualquiera o una subcombinación de estos tipos de imágenes. El sistema 1 emplea software para convertir (es decir, reconstruir) imágenes de tomosíntesis Tp en imágenes Tr, software para sintetizar imágenes de mamografía Ms y software para fusionar un conjunto de imágenes para proporcionar un conjunto de imágenes fusionadas (“bloques” o Ifusión) cada uno de los cuales visualiza, para cada región de la imagen fusionada, la característica más relevante en esa región entre todas las imágenes del conjunto de imágenes fuente. Para los fines de esta memoria descriptiva de patente, un objeto de interés o característica en una imagen fuente puede considerarse la característica “más relevante” para su inclusión en una imagen fusionada basándose en la aplicación de uno o más algoritmos de CAD a las imágenes fuente colectivas, en los que los algoritmos de CAD asignan valores numéricos, ponderaciones o umbrales, a píxeles o regiones de las imágenes fuente respectivas basándose en características de interés y objetos identificados/detectados dentro de la región respectiva o entre las características o, en los casos en que las imágenes fusionadas se generan directamente a partir la imagen sintetizada sin ayuda de CAD, simplemente el valor de píxel, la ponderación u otro umbral asociado con un píxel o una región de la imagen. Los objetos y las características de interés pueden incluir, por ejemplo, lesiones espiculadas, calcificaciones y similares. Actualmente se conocen bien diversos sistemas y métodos para la detección computarizada de anomalías en imágenes radiográficas, tales como las descritas por Giger et al. en RadioGraphics, mayo de 1993, págs. 647-656; Giger et al. en Proceedings de SPIE, Vol. 1445 (1991), págs. 101­ 103; y las patentes estadounidenses n.os 4.907.156, 5.133.020, 5.343.390 y 5.491.627.
La figura 2 es un diagrama que ilustra gráficamente la fusión de datos de imagen de un conjunto de imágenes de reconstrucción de tomosíntesis (Tr), que comprende los cortes 10A a 10N de tomosíntesis, para generar una imagen 30 fusionada sintética (“bloque” o Ifusión). Para facilitar la descripción, no se muestran filtros en este ejemplo. El conjunto de datos de imagen de tomosíntesis (Tr) se envía al procesador 6 de comparación de regiones y fusión de imágenes, que evalúa cada una de las imágenes 10A-10N fuente para las que van a generarse una pluralidad de imágenes combinadas (es decir, ya sea automáticamente o basándose en un comando de usuario específico) con el fin de (1) identificar los objetos y las características de interés en cada imagen para aquellas que puedan considerarse la característica “más relevante” para su posible inclusión en una o más imágenes 30 fusionadas basándose en la aplicación de uno o más más algoritmos de CAD (tal como se describió anteriormente), (2) identificar regiones de píxel respectivas en las imágenes 10A-10N que contienen las características identificadas, y (3) luego comparar las imágenes región por región, buscando aquella imagen 10A-10N con los datos de visualización más deseables para cada región respectiva.
Tal como se comentó anteriormente, la imagen 10A-10N con los datos de visualización más deseables puede ser una imagen con el valor de píxel más alto, el valor de píxel más bajo, o a la que se ha asignado una ponderación o valor umbral basándose en la aplicación de un algoritmo de CAD a la imagen 10A-10N. Cuando se identifica la imagen 10A-10N con los datos de visualización más deseables para esa región, los píxeles de esa región se copian en la región correspondiente de una o más imágenes 30 fusionadas. Por ejemplo, tal como se muestra en la figura 2, la región 35Tr del corte 10A de tomosíntesis se copia en la región 351 de una imagen 30 fusionada. De manera similar, la región 36Tr del corte 10B de tomosíntesis se copia en la región 361 de la imagen 30 fusionada. Opcionalmente, el procesador 6 de comparación de regiones y fusión de imágenes puede generar un mapa 40 de índice que identifica las imágenes 10A, 10B fuente de los objetos 351, 361 en la imagen 30 fusionada. Aunque las regiones de la figura 2 se muestran como regiones de cuadrícula predefinidas, no es necesario que las regiones estén predefinidas de esta manera. Más bien, según una realización de las invenciones dadas a conocer, los límites de las regiones pueden identificarse dinámicamente durante el proceso de comparación de regiones y generación de imágenes realizando comparaciones en granularidades de píxel o de múltiples píxeles.
En la realización mostrada en la figura 9, una pluralidad de imágenes 30 fusionadas (“bloques” o Ifusión) se sintetizan a partir de un conjunto o pila de imágenes 10 de Tr reconstruidas (“cortes”). Por ejemplo, se generan 11 bloques 30 de imagen fusionada a partir de una pila que incluye 60 cortes 101-1060 de Tr reconstruidos, que se divide en 11 subconjuntos superpuestos de cortes 10 de Tr (solo se muestran los cortes 101-1020 y los bloques 301-303 para mayor claridad). El primer bloque 301 de imagen fusionada se sintetiza a partir de los cortes 101-1010 de Tr, el segundo bloque 302 de imagen fusionada se sintetiza a partir de los cortes 106-1015 de Tr, el tercer bloque 303 de imagen fusionada se sintetiza a partir de los cortes 10n-1020 de Tr, etc. Este patrón se repite hasta el undécimo bloque 30n de imagen fusionada a partir de los cortes 1051-1060 de Tr. En esta realización, el patrón por defecto de bloques 30 de imagen fusionada incluye un grosor de 10 cortes (es decir, N = 10 en la figura 2) con una superposición de 5 cortes entre bloques 30 adyacentes. Para una pila que tiene varios cortes 10 de Tr no divisibles entre 10, los bloques 30 de imagen fusionada en un extremo de la pila pueden tener un número diferente de cortes 10 de Tr por bloque 30 y/o una superposición diferente con el bloque 30 adyacente.
Aunque la realización descrita anteriormente tiene un patrón por defecto específico de bloques 30 de imagen fusionada, la invención abarca cualquier número de cortes 10 de Tr por bloque 30, cualquier cantidad de superposición entre bloques 30 adyacentes y cualquier tamaño de pila. A modo de ejemplos no limitativos: en una realización, hay seis cortes 10 Tr por bloque 30, con una superposición de tres cortes entre bloques adyacentes. En otra realización, hay ocho cortes de Tr por bloque 30, con una superposición de cuatro cortes entre bloques adyacentes. Todavía en otra realización, hay quince cortes 10 de Tr por bloque 30, con una superposición de diez cortes entre bloques adyacentes. En particular, no es necesario que la cantidad de cortes 10 de Tr superpuestos en bloques 30 adyacentes sea exacta o aproximadamente la mitad del tamaño de bloque respectivo, sino que puede ser cualquier número de cortes 10 de Tr seleccionado por el operador.
En otra realización, el sistema puede visualizar una interfaz de usuario configurada para recibir la entrada de un usuario. La entrada de usuario puede incluir varios cortes 10 de Tr por bloque 30, una cantidad de superposición entre bloques 30 adyacentes y un tamaño de pila. El sistema genera la pluralidad de bloques 30 basándose en la entrada del usuario. Aún en otra realización con una interfaz de usuario, la entrada de usuario puede incluir un número de corte de Tr (por ejemplo, 1026) y varios cortes (por ejemplo, cinco), y el sistema genera entonces un solo bloque 30 basándose en esta entrada del usuario. El bloque 30 se genera a partir de un subconjunto de cortes 10 de Tr centrados en el corte de Tr correspondiente al número de corte de Tr proporcionado por el usuario con el número proporcionado de cortes en cada lado del corte de Tr central (por ejemplo, 1020-1031). Aunque se han descrito dos tipos de entrada de usuario, las reivindicaciones abarcan otros tipos de entrada de usuario.
Todavía en otras realizaciones, el número de cortes 10 de Tr por bloque 30, la cantidad de superposición entre bloques 30 adyacentes y/o el tamaño de pila respectivo son valores preestablecidos, y los bloques se generan automáticamente según los valores preestablecidos sin requerir entrada de usuario. En algunas de tales realizaciones de “mapeo automático”, todavía puede ser posible que el usuario anule cualquiera de los valores preestablecidos de tamaño de bloque, cantidad de superposición de cortes y tamaño de pila.
La figura 3 ilustra una imagen 50 fusionada, que se ha construido a través de las combinaciones de numerosas regiones 52 de diferentes imágenes fuente (cortes TrA, TrB, Trf y TrX de tomosíntesis Tr), en límites de región arbitrarios, por ejemplo, que pueden identificarse según la detección de características particulares dentro de las imágenes fuente TrA, TrB, Trf y TrX respectivas. Aunque las imágenes 30 y 50 fusionadas representadas en las figuras 2 y 3 se generan a partir de imágenes de reconstrucción de tomosíntesis o “cortes” (Tr), pueden generarse imágenes fusionadas a partir de imágenes de proyección de tomosíntesis Tp, imágenes de reconstrucción de tomosíntesis Tr, imágenes de mamografía sintetizadas Ms y/o imágenes de mamografía Mp (incluyendo mamografía de contraste).
La figura 4 es un diagrama de flujo proporcionado para ilustrar etapas a modo de ejemplo que pueden realizarse en un proceso de fusión de imágenes llevado a cabo según una realización de las invenciones dadas a conocer. En la etapa 62, se adquiere un conjunto de datos de imagen. El conjunto de datos de imagen puede adquirirse mediante un sistema de adquisición de tomosíntesis, un sistema de combinación de tomosíntesis/mamografía o recuperando datos de imagen preexistentes de un dispositivo de almacenamiento, ubicado ya sea local o remotamente en relación con un dispositivo de visualización de imágenes. En la etapa 64, un usuario puede seleccionar opcionalmente un modo de fusión, en el que el usuario puede designar (1) qué imágenes van a usarse para el conjunto de imágenes fuente para generar una o más imágenes fusionadas, (2) si resaltar determinadas características en las imágenes fusionadas, tales como calcificaciones, lesiones espiculadas o masas, y (3) si visualizar la imagen como una imagen de tomosíntesis de menor resolución, etc. En la etapa 66, las imágenes que van a fusionarse para generar las imágenes fusionadas se mapean en un sistema de coordenadas común, por ejemplo, tal como se describe en la patente estadounidense n.° 7.702.142 a la que se ha hecho referencia anteriormente. Alternativamente, pueden usarse otros métodos para hacer coincidir imágenes de diferentes sistemas de coordenadas. En la etapa 72, comienza el proceso de comparar regiones entre las diferentes imágenes. En la etapa 74, cada región de Ifusión se rellena con los píxeles de la región de una imagen del conjunto de imágenes fuente que tiene los píxeles, el valor o el patrón más deseables. El proceso de rellenar regiones continúa hasta que se determina, en la etapa 76, que se han evaluado todas las regiones, momento en el que las imágenes fusionadas están listas para su visualización.
Una vez que se generan las imágenes fusionadas, pueden usarse para ayudar en la navegación a través de una pila de datos de imagen de tomosíntesis a partir de la cual se generó la imagen fusionada. Tal navegación es un procedimiento de dos etapas que comprende la selección de diversos objetos de interés y la visualización de las imágenes de tomosíntesis correspondientes que son la fuente de tales objetos de interés en una o más de las imágenes fusionadas. A modo de ejemplo, la figura 5A y la figura 5B ilustran dos vistas de una pantalla 80. La primera vista de la pantalla 80 mostrada en la figura 5A ilustra una imagen 82 fusionada, que tiene regiones originadas por diferentes imágenes de un conjunto de imágenes adquiridas o sintetizadas. La figura 5B ilustra una característica particular habilitada por las invenciones dadas a conocer, mediante lo cual un usuario puede seleccionar una región o área 83 dentro de la imagen 82 fusionada, y la fuente 84 de imagen resultante para esa área se presenta al usuario.
Las realizaciones dadas a conocer pueden emplear muchos mecanismos diferentes para la selección de los objetos de interés y la visualización correspondiente de las imágenes fuente respectivas correspondientes; aunque debe entenderse que las invenciones dadas a conocer no se limitan a las descritas en el presente documento. Por ejemplo, la selección de una región o área dentro de una imagen fusionada puede incluir una selección de una marca de CAD o, alternativamente una selección de una característica de interés particular para el revisor. La navegación por datos de imagen de tomosíntesis usando una imagen combinada se detalla en las solicitudes PCT n.os PCT/US2012/066526 y PCT/US2013/025993.
Se apreciará que los sistemas y métodos dados a conocer y descritos en esta memoria descriptiva de patente están diseñados para condensar la información de imagen disponible desde un volumen de reconstrucción de tomosíntesis (o “pila”) que contiene datos de imagen de mama en 3D hasta un conjunto de imágenes 2D sintetizadas. similares a las imágenes mamográficas 2D convencionales. Al revisar estas imágenes 2D sintetizadas simultáneamente con o sin la pila de tomosíntesis 3D, es posible proporcionar una revisión mucho más eficaz y precisa del tejido de mama. En realizaciones con revisión concurrente, las imágenes fusionadas 2D sintetizadas pueden actuar como un mapa de guía, de modo que el usuario que revisa las imágenes puede centrarse en las imágenes 2D sintetizadas para detectar cualquier objeto o región de interés que justifique una revisión adicional, y el sistema puede proporcionar navegación inmediata y automatizada a un corte de imagen de tomosíntesis “mejor” correspondiente (o un subconjunto de cortes de tomosíntesis adyacentes) para permitir que el usuario realice esta revisión adicional para verificar y evaluar el hallazgo. Por tanto, se prefiere, aunque no es necesario para poner en práctica todas las realizaciones, que el usuario emplee una interfaz de usuario que pueda visualizar una imagen fusionada 2D sintetizada respectiva junto a los cortes de imagen de volumen de tomosíntesis, para la visualización simultánea de ambos.
La pluralidad de imágenes 2D y/o 3D a partir de las cuales se generan las imágenes 2D sintetizadas puede incluir imágenes de proyección de tomosíntesis, cortes de reconstrucción de tomosíntesis, imágenes de mamografía, imágenes de mamografía mejorada por contraste, imágenes 2D sintetizadas y combinaciones de las mismas. Se apreciará que las imágenes 2D sintetizadas incorporan ventajosamente la información más relevante de cada uno de los conjuntos de datos de imagen subyacentes adquiridos y generados por ordenador de la mama respectiva. Por tanto, pueden obtenerse diferentes regiones de píxeles en las imágenes 2D sintetizadas visualizadas de imágenes diferentes correspondientes en el conjunto de datos de imagen subyacente, dependiendo de qué imagen subyacente sea mejor para visualizar un objeto de interés, por ejemplo, una masa o una calcificación, en la región respectiva. Las regiones particulares pueden identificarse estáticamente, es decir, dentro de una cuadrícula particular, o dinámicamente, es decir, basándose en objetos de interés identificados, y pueden oscilar en granularidad desde tan solo un píxel hasta todos los píxeles en la imagen respectiva. En una realización, se da prioridad a importar primero en una imagen fusionada en construcción aquellas regiones que contienen una o más estructuras tisulares específicas de interés en las imágenes de un conjunto de datos de imagen de tomosíntesis (o “pila”), y luego rellenar las regiones restantes de la imagen fusionada con las regiones por lo demás más relevantes de las imágenes, tal como se describió anteriormente.
La interfaz de usuario puede incluir adicionalmente características para permitir que el usuario manipule los datos de tomosíntesis presentados, por ejemplo, para permitir que el usuario explore a través de cortes de imagen adyacentes de la pila de tomosíntesis, o para hacer acercar (ampliar) en una región seleccionada, para colocar marcadores, o alternativamente para aplicar filtros u otras técnicas de procesamiento de imágenes a los datos de la imagen. De esta manera, el usuario puede revisar rápidamente una gran pila de datos de tomosíntesis utilizando las imágenes 2D sintetizadas con fines de navegación, aumentando de ese modo el rendimiento y la eficiencia de la detección y el diagnóstico del cáncer de mama. Según otra realización, se ha determinado o apreciado de otro modo que tipos de imágenes particulares pueden incluir o ser superiores para visualizar diferentes tipos de información relevante. Por ejemplo, las calcificaciones generalmente se visualizan mejor en mamografías 2D, mientras que las masas normalmente se visualizan mejor usando imágenes reconstruidas 3D.
Por tanto, en una realización, se aplican diferentes filtros a cada uno de los diferentes tipos de imágenes subyacentes 2D y/o 3D en el conjunto de datos de imagen utilizado para generar las imágenes fusionadas, seleccionándose los filtros para resaltar características particulares de las imágenes que mejor se visualizan en los respectivos modos de imagen. El filtrado adecuado de las imágenes antes de generar las imágenes fusionadas ayuda a garantizar que las imágenes fusionadas finales incluyen la información más relevante que puede obtenerse de todos los tipos de imágenes subyacentes. Adicional y/o alternativamente, el tipo de filtrado realizado para las diversas imágenes puede definirse a través de la entrada del usuario, lo que permite que el usuario seleccione un “modo de fusión”, por ejemplo, dirigido a resaltar masas, calcificaciones o para hacer que las imágenes fusionadas. parezcan ser un tipo de imagen particular, tal como un corte reconstruido 3D o una mamografía 2D.
La síntesis de las imágenes 2D puede realizarse de diversas formas. Por ejemplo, en una realización, se usan algoritmos de filtrado de imágenes de uso general para identificar características dentro de cada una de las imágenes fuente 2D y 3D respectivas, y un usuario puede seleccionar si usar datos filtrados 2D y/o datos filtrados 3D para generar las imágenes fusionadas. Alternativamente, pueden seleccionarse automáticamente datos filtrados 2D o 3D según un modo de visualización particular que haya seleccionado el usuario; por ejemplo, el sistema puede seleccionar automáticamente datos filtrados 2D para el modo de visualización de calcificación, mientras que el sistema puede seleccionar automáticamente datos filtrados en 3D para los modos de visualización de masas. En una realización, pueden construirse dos conjuntos diferentes de imágenes fusionadas, uno para cada modo; alternativamente, puede construirse un único conjunto de imágenes fusionadas que tenga en cuenta los resultados de los datos de imagen filtrados respectivos de todos los tipos de imágenes disponibles.
En una realización, se identifican características (que representan posibles objetos de interés) en las imágenes fuente disponibles y después se ponderan, por ejemplo, píxel por píxel o región por región en cada imagen respectiva. Entonces se construye una imagen 2D incorporando las regiones respectivas que tienen la ponderación más significativa en imágenes individuales de las imágenes fuente disponibles. El tamaño de la región puede variar en granularidad de un píxel a muchos (o incluso todos) píxeles de la imagen respectiva, y puede estar predefinido estáticamente, o puede tener márgenes que varían según los umbrales variables de las imágenes fuente. La imagen sintetizada (también conocida como “fusionada”) puede procesarse previamente y almacenarse como un objeto de DICOM después de la adquisición de tomosíntesis y, posteriormente enviarse con los datos de reconstrucción para su posterior revisión por parte de un usuario. Tal disposición elimina la necesidad de enviar información de ponderación para cada corte reconstruido. Alternativamente, el objeto de DICOM almacenado puede incluir la información de ponderación, lo que permite que las imágenes fusionadas se construyan dinámicamente en respuesta a una solicitud de imágenes 2D sintetizadas en la estación de trabajo del usuario. En una realización, tanto la información de ponderación como la imagen 2D sintetizada pueden proporcionarse en el objeto de DICOM, lo que permite la presentación de un conjunto por defecto de imágenes fusionadas, al tiempo que todavía permite la personalización según el flujo de trabajo personal del revisor. Para ser claros, la información de ponderación puede almacenarse con la propia imagen y no es necesario que sea un archivo independiente.
La ponderación o mejora de las características en las imágenes fuente puede modificarse basándose en el número de cortes Tr a partir de los cuales se generan bloques de Ifusión. Por ejemplo, un factor, coeficiente, valor o ponderación usado para ponderar una característica en una imagen fuente puede dar como resultado una mayor ponderación de la característica en un corte de Tr cuando el bloque va a generarse a partir de 30 cortes, cuando se compara con la ponderación de la misma característica en el mismo corte de Tr cuando el bloque va a generarse a partir de 10 cortes. Además, la selección de características que se ponderarán puede modificarse basándose en el número de cortes de Tr a partir de los cuales se generan bloques de Ifusión. Por ejemplo, pueden ponderarse o mejorarse más características cuando se generan más de un bloque a partir de más cortes. Los factores de ponderación pueden predeterminarse y almacenarse en una tabla de consulta en el sistema. Alternativamente, los factores de ponderación pueden determinarse empírica o matemáticamente a partir del número de cortes de Tr a partir de los cuales van a generarse bloques de Ifusión. De esta manera, las características de los cortes de Tr fuente pueden mejorarse en los bloques de Ifusión sintética. Los bloques de Ifusión sintética pueden presentar información enriquecida al combinar características clínicamente relevantes de múltiples cortes de Tr y resaltarlas. Estos bloques pueden usarse para impulsar el procesamiento y análisis de imágenes adicional, y para proporcionar un rendimiento mejorado de revisión de datos y aumentar la eficiencia y el rendimiento.
se comprende que la visualización de las imágenes 2D sintetizadas puede tener algunos inconvenientes. Por ejemplo, puede haber regiones vecinas en una imagen fusionada que presenten calcificaciones brillantes, pero que de hecho procedan de cortes de imagen que están distantes entre sí en el plano z. Por tanto, lo que puede parecer que es una agrupación de microcalcificaciones en una imagen 2D pueden ser de hecho calcificaciones individuales que se distribuyen (es decir, a lo largo del eje z) por toda la mama y, por tanto, en realidad no representan una agrupación de microcalcificaciones que requiere una revisión adicional. Por tanto, según otra realización, puede proporcionarse un “indicador de dispersión de agrupaciones” con la imagen 2D sintetizada, que indica visualmente la distribución de calcificaciones a lo largo del plano z, lo que permite al usuario evaluar rápidamente si un grupo de calcificaciones comprende una agrupación de calcificaciones.
Las imágenes 2D sintetizadas las visualiza el usuario del sistema descrito (por ejemplo, el profesional médico o el radiólogo), normalmente en una estación de trabajo que tiene monitores uno al lado del otro tal como se representa en la figura 5B. Dependiendo de cómo haya configurado el usuario la estación de trabajo, cuando se inicia la revisión de los datos de la imagen de la mama de una persona en particular, sólo pueden presentarse las imágenes 2D sintetizadas, por ejemplo, en el monitor de lado izquierdo, quedando el monitor de lado derecho en blanco, o quizás representando un corte de imagen primero o medio de la pila de tomosíntesis, preferiblemente dependiendo de una configuración que el usuario puede seleccionar. En una realización, el sistema visualizará inicialmente y en serie las imágenes 2D sintetizadas en el monitor de lado izquierdo, y la imagen “más relevante” de las imágenes de corte de tomosíntesis en el monitor de lado derecho, que el sistema determinó basándose en que el corte de tomosíntesis visualizado que tiene el aspecto más similar a cada imagen 2D sintetizada, o que tiene los objetos relativamente más interesantes, fuera de la pila de imágenes de tomosíntesis para todo el volumen de mama.
Tal como se señaló anteriormente, en diversas realizaciones, un objeto o región puede resaltarse automáticamente en la imagen 2D sintetizada y/o visualizarse al menos parte de una o más imágenes de la pluralidad. Adicional y/o alternativamente, puede resaltarse un objeto o región en la imagen 2D sintetizada y/o visualizarse al menos parte de la una o más imágenes de la pluralidad en respuesta a un comando de usuario recibido adicional o a determinada actividad del usuario detectada a través de la interfaz de usuario. A modo de ejemplo no limitativo, un objeto o región puede resaltarse mediante una línea de contorno que representa un límite de la región o el objeto resaltado. Preferiblemente, la región o el objeto se resalta de una manera que indica que la región o el objeto resaltado es o contiene un tipo específico de estructura tisular.
Mientras que el sistema procesa un subconjunto de cortes de Tr para generar un bloque de Ifusión, puede incorporar información adicional diseñada para seleccionar como objetivo/resaltar determinados objetos, lesiones o regiones. La información usada para seleccionar como objetivo/resaltar estos objetos puede importarse de diversas formas, tal como un mapa binario de regiones u objetos identificados, o como un mapa continuo que incluye la distribución de probabilidades para determinados patrones.
A modo de ilustración, la figura 6 representa una pantalla 122 de estación de trabajo a modo de ejemplo, que incluye un monitor 124 de lado izquierdo (“C-View”) que visualiza una imagen 132 de una pluralidad de imágenes 2d sintetizadas de la mama de una mujer. La imagen 1322D sintetizada incluye una estructura 134 tisular resaltada, en la que la zona resaltada está en forma de una línea de contorno que representa un límite de la estructura tisular. Esta zona resaltada puede haberla realizado automáticamente el sistema, por ejemplo, en el momento en que la imagen 1322D se visualiza inicialmente, o sólo en respuesta a una indicación o un comando de usuario específico, por ejemplo, al pasar un puntero sobre el objeto 134 en la imagen 1322D. La pantalla 122 de estación de trabajo también incluye un monitor 126 de lado derecho que visualiza la imagen 136 de tomosíntesis respectiva (que es el corte n.° 18 de la pila de volumen de tomosíntesis, tal como se indica en el lado inferior derecho del monitor 126), que es la imagen fuente o que proporciona de otro modo la vista más similar de la estructura 134 tisular resaltada tal como se observa en la imagen 132 sintetizada. En particular, la interfaz de usuario asociada con la pantalla 122 permite que un usuario seleccione o indique de otro modo una ubicación en el imagen 132 2D sintetizada, por ejemplo, visualizando un puntero, una cruz, un círculo u otro objeto geométrico similar, y luego introduzca un tipo de comando determinado (por ejemplo, clic de ratón) que el sistema reconocerá como una petición del usuario para tener la fuente correspondiente o de otro modo el/los corte(s) de tomosíntesis más similares que representen la región u objeto subyacente al puntero visualizado en el monitor 126.
La figura 7 representa la pantalla 122 de estación de trabajo, en la que se visualiza una imagen 142 diferente de la pluralidad de imágenes de mama 2D sintetizadas en el monitor 124 C-View de lado izquierdo. La imagen 1422D sintetizada incluye una estructura 144 tisular resaltada, en la que la zona resaltada tiene una forma geométrica, en este caso un círculo, para indicar que el objeto 144 es una masa espiculada. De nuevo, esta zona resaltada puede haberla realizado automáticamente el sistema, por ejemplo, en el momento en que la imagen 1422D se visualiza inicialmente, o sólo en respuesta a una indicación o un comando de usuario específico, por ejemplo, al pasar un puntero sobre el objeto 144 en la imagen 142 2D. El monitor 126 de lado derecho visualiza la imagen 146 de tomosíntesis respectiva (que es el corte n.° 33 de la pila de volumen de tomosíntesis, tal como se indica en el lado inferior derecho del monitor 126), que es la imagen fuente o que proporciona de otro modo la vista más similar de la estructura 144 tisular resaltada tal como se observa en la imagen 132 sintetizada.
Debe apreciarse que habrá casos en los que el mapeo entre una región o un objeto en una imagen 2D fusionada a la región o el objeto respectivo en la imagen visualizada (es decir, la imagen fuente o “mejor”) puede no ser necesariamente de 1 a 1, y posiblemente será “de 1 a muchas” en determinadas circunstancias, por ejemplo, cuando múltiples estructuras de líneas en diferentes cortes de imagen de tomosíntesis se combinan entre sí para formar estructuras de cruce de líneas en la imagen 2D sintetizada. A modo de ejemplo, la figura 8 representa la pantalla 122 de estación de trabajo del usuario, que incluye la misma imagen 142 de mama 2D sintetizada que se visualiza en la figura 7, pero ahora resaltando una región 154 que contiene microcalcificaciones, mostrando el monitor de lado derecho el corte 156 de imagen de tomosíntesis (que es el corte n.° 29 de la pila de volumen de tomosíntesis, tal como se indica en el lado inferior derecho del monitor 126), desde la que se importó la región 154 resaltada en la imagen 142 2D, o que proporciona de otro modo la mejor vista de las microcalcificaciones. En particular, debido a que la estructura 144 de masa espiculada y la región 154 de microcalcificaciones están en proximidad muy cercana en la figura 8, puede resaltarse una diferente dependiendo de un comando de usuario específico (por ejemplo, para resaltar un tipo de tejido determinado), o mediante un ligero ajuste de la posición del puntero de la interfaz de usuario.
Los ejemplos descritos anteriormente con respecto a las figuras 6-8 se realizan fácilmente mediante mapas de índice o un mapa 3D completo construido al mismo tiempo (o después, dependiendo de la implementación del sistema) de que se generen las imágenes 2D sintetizadas, tal como se describe en las solicitudes PCT n.os PCT/US2012/066526 y PCT/US2013/025993. Alternativamente, si no hay un mapa de índice o un mapa 3D completo disponible, para cualquier ubicación/punto dado seleccionado/especificado por el usuario en la imagen 2D visualizada en el monitor 124 de lado izquierdo, el sistema puede ejecutar un algoritmo para calcular automáticamente la mejor imagen correspondiente (es decir, X, Y y Z) dentro de la pila de tomosíntesis para su visualización en el monitor 126 de lado derecho. Opcionalmente puede proporcionarse un “indicador de corte de tomosíntesis” en el monitor 124 de lado izquierdo, que indica qué número (números) de cortes de tomosíntesis se visualizaría(n) en el monitor 126 de lado derecho basándose en una ubicación actual de un cursor de usuario en la imagen 2D. Con esta característica, no es necesario que el usuario desvíe la atención cambiando constantemente las visualizaciones de imágenes en el monitor 126 de lado derecho, mientras que todavía se proporciona al revisor una comprensión de la ubicación en el eje z en la pila de volúmenes de tomosíntesis de un objeto particular en una imagen 2D.
Según una realización de las invenciones dadas a conocer, las características disponibles de la interfaz de usuario pueden ampliarse para funcionar, no sólo basándose en un punto/ubicación en una imagen fusionada, sino también basándose, de manera similar, en una estructura/objeto/región en una imagen fusionada. Por ejemplo, los objetos o regiones particulares en una imagen fusionada pueden resaltarse automáticamente cuando se visualizan, basándose en el reconocimiento del sistema de un posible interés en los objetos respectivos, o de objetos ubicados en las regiones respectivas. En una realización, mostrada en la figura 8, esta zona resaltada está en forma de una línea 108 de contorno que representa un límite de una estructura tisular resaltada. De manera similar, puede usarse una línea de contorno para resaltar regiones de interés en la imagen visualizada, por ejemplo, que contienen varias estructuras de calcificación. En algunas realizaciones, el sistema está configurado para permitir que el usuario “dibuje” una línea de contorno en las imágenes fusionadas como un modo de seleccionar o indicar de otro modo una región o un objeto de interés para hacer que el sistema visualice simultáneamente una o más imágenes fuente subyacentes de la región o el objeto seleccionado o indicado.
En otras realizaciones, el sistema emplea técnicas de procesamiento de imágenes conocidas para identificar diferentes estructuras de tejido de mama en las diversas imágenes fuente y resaltarlas en las imágenes fusionadas, en particular, estructuras tisulares que comprenden o están relacionadas con objetos anómalos, tales como agrupaciones de microcalcificaciones, masas redondas o lobuladas, masas espiculadas, distorsiones estructurales, etc.; así como estructuras tisulares benignas que comprenden o están relacionadas con tejidos de mama normales, tales como tejidos lineales, quistes, ganglios linfáticos, vasos sanguíneos, etc. Además, un objeto o una región que consiste en o que contiene un primer tipo de estructura tisular puede resaltarse de una primera manera en una imagen fusionada visualizada, y un objeto o una región que consiste o que contiene un segundo tipo de estructura tisular puede resaltarse de una segunda manera diferente de la primera manera en la imagen fusionada visualizada.
En diversas realizaciones, el usuario puede introducir un comando a través de la interfaz de usuario seleccionando o identificando de otro modo un determinado tipo de estructura tisular y, en respuesta al comando recibido, el sistema realiza uno o ambos de (i) resaltar automáticamente en una imagen fusionada visualizada objetos que comprenden el tipo seleccionado de estructura tisular y/o regiones que contienen uno o más objetos que comprenden el tipo seleccionado de estructura tisular, y (ii) visualizar automáticamente de manera simultánea el corte fuente respectivo (o por lo demás el corte con la mejor descripción de) una estructura tisular del tipo seleccionado en los datos de la imagen de mama, por ejemplo, la estructura más prominente del tipo de estructura tisular seleccionado basándose en una comparación, si se detecta más de uno en la pila de imágenes fuente. Por tanto, cuando el usuario “hace clic” en (o muy cerca de) un punto/agrupamiento de microcalcificaciones en una imagen 2D fusionada, el sistema visualiza automáticamente de manera simultánea el corte de la imagen fuente de tomosíntesis (o por lo demás el mejor) que incluye la microcalcificación correspondiente en 3D. A modo de otro ejemplo, un usuario puede seleccionar (a través de la interfaz de usuario) una región en una imagen 2D fusionada que tiene el aspecto con patrones de líneas radiantes (a menudo una indicación de masas espiculadas), y el sistema mostrará simultáneamente el corte fuente de tomosíntesis 3D (o por lo demás el mejor), o quizás una serie de cortes de tomosíntesis consecutivos, para visualizar los patrones de líneas radiantes.
Las figuras 3 y 5-8 representan realizaciones en las que puede usarse un bloque de imagen, que se sintetiza a partir de un subconjunto de la pluralidad de cortes de imagen de tomosíntesis, para navegar por ese subconjunto de cortes de imagen de tomosíntesis. De manera similar, puede usarse un bloque de imagen sintetizado a partir de un apilamiento completo de cortes de imagen de tomosíntesis para navegar por un conjunto de bloques de imagen, cada uno de los cuales se genera a partir de subconjuntos respectivos de cortes de imagen de tomosíntesis. En un sistema de este tipo, cuando un usuario que revisa el bloque de imagen generado a partir de la pila completa de cortes de imagen de tomosíntesis identifica cualquier objeto o región de interés que justifique una revisión adicional, el sistema proporciona una navegación inmediata y automatizada al “mejor” bloque de imágenes correspondiente (o un subconjunto de bloques de imagen adyacentes) para permitir al usuario realizar esta revisión adicional para verificar y evaluar el hallazgo.
En diversas realizaciones, el usuario puede introducir un comando a través de la interfaz de usuario, activando la funcionalidad de visualización dinámica, en la que el sistema resalta automáticamente aquellos objetos y estructuras tisulares que corresponden (dinámicamente) a la ubicación de un dispositivo de entrada móvil de usuario en una imagen fusionada visualizada (por ejemplo, un puntero de ratón que se desplaza). En tales realizaciones, el sistema puede comprender además visualizar automáticamente de manera simultánea una imagen fuente respectiva de una estructura tisular seleccionada resaltada que corresponde a una ubicación dada de un dispositivo de entrada móvil de usuario en una imagen fusionada visualizada de nuevo sobre una base dinámica.
En una realización, el sistema puede activarse para proporcionar un cursor de “sombra” que se visualiza en el monitor 126 de lado derecho, en una ubicación correspondiente a la misma ubicación (X, Y) que el cursor real del usuario en el monitor 124 de lado izquierdo, de modo que al mover el cursor por la imagen 2D se mueve el cursor de sombra en la imagen de tomosíntesis en las mismas coordenadas X, Y. También se puede implementar lo inverso, es decir, con el cursor de usuario activo que puede operarse en el monitor 126 de la derecha y el cursor de sombra en el monitor 124 de la izquierda. En una implementación, esta característica de visualización dinámica permite que el sistema siga el punto de interés del usuario, por ejemplo la ubicación del cursor del ratón en una imagen fusionada 2D y que se visualicen/resalten dinámicamente la región/las regiones más “significativa(s)” por debajo en tiempo real. Por ejemplo, el usuario puede mover el ratón (sin hacer clic en ningún botón) sobre un vaso sanguíneo y el sistema resaltará instantáneamente el contorno del vaso.
Según aún otro aspecto de las invenciones dadas a conocer, el almacenamiento posterior a la revisión de los datos de imagen de mama se realiza a nivel de bloque, en lugar de al nivel de corte de Tr reconstruido individual, con el fin de reflejar los mismos datos de imagen que realmente revisó el usuario, y también para reducir en gran medida la capacidad de almacenamiento necesaria para almacenar los datos de imagen de mama. A modo de ejemplo, en una realización, el sistema puede visualizar una interfaz de usuario configurada para recibir la entrada de un usuario, que incluye varios cortes 10 de Tr por bloque 30, una cantidad de superposición entre bloques 30 adyacentes y un tamaño de pila. El sistema genera la pluralidad de bloques 30 basándose en la entrada del usuario, y el usuario visualiza entonces los bloques mostrados (o un subconjunto de los mismos) con el fin de estudiar los datos de imagen de mama. Una vez que se completa la revisión del usuario de los bloques visualizados, los datos de imagen se transmiten para su almacenamiento (por ejemplo, en el sistema PACS de un hospital) como un archivo que contiene sólo los bloques generados, y no la pila completa subyacente de cortes de imagen de Tr.
Habiéndose descrito realizaciones a modo de ejemplo, puede apreciarse que los ejemplos descritos anteriormente y representados en las figuras adjuntas son sólo ilustrativos, y que otras realizaciones y ejemplos también se abarcan dentro del alcance de las reivindicaciones adjuntas. Por ejemplo, aunque los diagramas de flujo proporcionados en las figuras adjuntas son ilustrativos de etapas a modo de ejemplo, el procedimiento general de fusión de imágenes puede lograrse de diversas formas usando otros métodos de fusión de datos conocidos en la técnica. De manera similar, los diagramas de bloques del sistema son sólo representativos, ilustrando delineaciones funcionales que no deben considerarse requisitos limitativos de las invenciones dadas a conocer. También será evidente para los expertos en la técnica que pueden realizarse diversos cambios y modificaciones a las realizaciones representadas y/o descritas (por ejemplo, las dimensiones de varias partes), y que diversas realizaciones según la invención pueden combinar elementos o componentes de las realizaciones dadas a conocer, incluso si no se ejemplifica expresamente en el presente documento en tal combinación. Por consiguiente, la memoria descriptiva y los dibujos deben considerarse en un sentido ilustrativo más que restrictivo, y el alcance de las invenciones dadas a conocer debe definirse únicamente mediante las siguientes reivindicaciones.

Claims (15)

  1. REIVINDICACIONES
    i. Sistema para procesar imágenes de tejido de mama, que comprende:
    un ordenador de procesamiento de imágenes; y
    una interfaz de usuario acoplada operativamente al ordenador de procesamiento de imágenes, en el que el ordenador de procesamiento de imágenes está configurado para obtener un conjunto de imágenes fuente de tejido de mama, seleccionándose cada imagen fuente del grupo que consiste en una imagen de reconstrucción de tomosíntesis (Tr), una imagen de proyección de tomosíntesis (Tp), una imagen de mamografía sintetizada (Ms) y una imagen de mamografía (Mp), caracterizado porque el ordenador de procesamiento de imágenes está configurada para procesar el conjunto de imágenes fuente para generar un conjunto de varios bloques (30) de imagen, comprendiendo cada bloque (301-303) de imagen una imagen sintética de una parte del tejido de mama obtenida a partir de un subconjunto respectivo del conjunto de imágenes fuente,
    en el que el ordenador de procesamiento de imágenes está configurado para generar cada bloque (301-303) de imágenes del conjunto de bloques (30) de imagen a partir de un número predeterminado de imágenes fuente sucesivas, en el que cada dos bloques (301, 302) de imagen adyacentes del conjunto incluyen un número de superposiciones predeterminado o introducido por el usuario de imágenes fuente sucesivas.
  2. 2. Sistema según la reivindicación 1, en el que cada bloque de imagen se genera usando un mecanismo de mejora que se selecciona o se modifica basándose en el número de imágenes fuente a partir de las cuales se genera el bloque de imagen respectivo.
  3. 3. Sistema según la reivindicación 2, en el que el mecanismo de mejora se selecciona o se modifica basándose en un valor correspondiente al número de imágenes fuente a partir de las cuales se genera el bloque de imagen respectivo.
  4. 4. Sistema según la reivindicación 2 ó 3, en el que el mecanismo de mejora comprende resaltar uno o más objetos o regiones en uno o más bloques de imagen del conjunto.
  5. 5. Sistema según la reivindicación 4, en el que el mecanismo de mejora tiene en cuenta uno o más de: un mapa binario de las regiones o los objetos resaltados respectivos; un mapa de cada corte de imagen que incluye una distribución de probabilidades para un patrón identificado en las regiones o los objetos resaltados respectivos; y la importación de una región o un objeto identificado desde una imagen del subconjunto respectivo del conjunto de imágenes fuente en el bloque de imagen, en el que la región o el objeto se importa en el bloque de imagen en ubicaciones de coordenadas X, Y correspondientes a las ubicaciones de coordenadas X, Y de la región o el objeto en la imagen fuente respectiva.
  6. 6. Sistema según una cualquiera de las reivindicaciones 1-5, en el que el ordenador de procesamiento de imágenes está configurado además para generar un archivo de almacenamiento que comprende el conjunto generado de bloques de imagen.
  7. 7. Sistema según una cualquiera de las reivindicaciones 1-6, que comprende una estación de trabajo de adquisición configurada para generar los bloques de imagen.
  8. 8. Método para procesar datos de imagen de tejido de mama, que comprende: obtener un conjunto de imágenes fuente de tejido de mama, seleccionándose cada imagen fuente del grupo que consiste en una imagen de reconstrucción de tomosíntesis (Tr), una imagen de proyección de tomosíntesis (Tp), una imagen de mamografía sintetizada (Ms) y una imagen de mamografía (Mp); caracterizado porque el método comprende la etapa de procesar el conjunto de imágenes fuente para generar un conjunto de varios bloques (30) de imagen, comprendiendo cada bloque (301-303) de imagen una imagen sintética de una parte del tejido de mama obtenida a partir de un subconjunto respectivo del conjunto de imágenes fuente, en el que cada bloque (301-303) de imagen del conjunto de bloques (30) de imagen se genera a partir de un número predefinido de imágenes fuente sucesivas, en el que cada dos bloques (301, 302) de imagen adyacentes del conjunto incluyen un número de superposiciones predeterminado o introducido por el usuario de imágenes fuente sucesivas.
  9. 9. Método según la reivindicación 8, en el que cada bloque de imagen se genera usando un mecanismo de mejora que se selecciona o se modifica basándose en el número de imágenes fuente a partir de las cuales se genera el bloque de imagen respectivo.
  10. 10. Método según la reivindicación 9, en el que el mecanismo de mejora se selecciona o se modifica basándose en un valor correspondiente al número de imágenes fuente a partir de las cuales se genera el bloque de imagen respectivo.
  11. 11. Método según la reivindicación 9, en el que el mecanismo de mejora comprende resaltar uno o más objetos o regiones en uno o más bloques de imagen del conjunto.
  12. 12. Método según la reivindicación 11, en el que el mecanismo de mejora tiene en cuenta uno o más de: un mapa binario de las regiones o los objetos resaltados respectivos; un mapa de cada corte de imagen que incluye una distribución de probabilidades para un patrón identificado en las regiones o los objetos resaltados respectivos; y la importación de una región o un objeto identificado desde una imagen del subconjunto respectivo del conjunto de imágenes fuente en el bloque de imagen, en el que la región o el objeto se importa en el bloque de imagen en ubicaciones de coordenadas X, Y correspondientes a las ubicaciones de coordenadas X, Y de la región o el objeto en la imagen fuente respectiva.
  13. 13. Método según una cualquiera de las reivindicaciones 8-12, que comprende además: visualizar una pluralidad de imágenes fuente por parte de un usuario; recibir entrada de usuario que identifica una imagen fuente respectiva del conjunto; y procesar un subconjunto de las imágenes fuente para generar un bloque de imagen, comprendiendo el bloque de imagen una imagen 2D sintetizada de una parte del tejido de mama obtenida a partir del subconjunto de imágenes fuente, en el que el subconjunto de imágenes fuente incluye la imagen identificada por el usuario respectiva.
  14. 14. Método según la reivindicación 13, que comprende además procesar subconjuntos respectivos de las imágenes fuente para generar un número de bloques de imagen introducido por el usuario, comprendiendo cada bloque de imagen una imagen 2D sintetizada de una parte del tejido de mama obtenida a partir del subconjunto respectivo de imágenes fuente, en el que bloques de imagen sucesivos incluyen un número de superposiciones introducidas por el usuario de imágenes fuente.
  15. 15. Método según una cualquiera de las reivindicaciones 8-14, que comprende además almacenar el conjunto generado de bloques de imagen en un sistema de almacenamiento externo.
ES18165965T 2014-02-28 2015-02-26 Sistema y método para generar y visualizar bloques de imagen de tomosíntesis Active ES2878599T3 (es)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
US201461946417P 2014-02-28 2014-02-28

Publications (1)

Publication Number Publication Date
ES2878599T3 true ES2878599T3 (es) 2021-11-19

Family

ID=52633691

Family Applications (2)

Application Number Title Priority Date Filing Date
ES21168134T Active ES2943561T3 (es) 2014-02-28 2015-02-26 Sistema y método para generar y visualizar bloques de imagen de tomosíntesis
ES18165965T Active ES2878599T3 (es) 2014-02-28 2015-02-26 Sistema y método para generar y visualizar bloques de imagen de tomosíntesis

Family Applications Before (1)

Application Number Title Priority Date Filing Date
ES21168134T Active ES2943561T3 (es) 2014-02-28 2015-02-26 Sistema y método para generar y visualizar bloques de imagen de tomosíntesis

Country Status (9)

Country Link
US (4) US10111631B2 (es)
EP (3) EP3868301B1 (es)
JP (3) JP6506769B2 (es)
KR (1) KR102402887B1 (es)
CN (1) CN106061389B (es)
AU (1) AU2015222981B2 (es)
CA (1) CA2937379C (es)
ES (2) ES2943561T3 (es)
WO (1) WO2015130916A1 (es)

Families Citing this family (31)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2007095330A2 (en) 2006-02-15 2007-08-23 Hologic Inc Breast biopsy and needle localization using tomosynthesis systems
WO2011043838A1 (en) 2009-10-08 2011-04-14 Hologic, Inc . Needle breast biopsy system and method of use
WO2012071429A1 (en) 2010-11-26 2012-05-31 Hologic, Inc. User interface for medical image review workstation
AU2012225398B2 (en) 2011-03-08 2017-02-02 Hologic, Inc. System and method for dual energy and/or contrast enhanced breast imaging for screening, diagnosis and biopsy
KR102109588B1 (ko) 2011-11-27 2020-05-12 홀로직, 인크. 유방 조직 이미지를 프로세싱하고, 디스플레잉하고, 네비게이팅하기 위한 방법
ES2641456T3 (es) 2012-02-13 2017-11-10 Hologic, Inc. Sistema y método para navegar por una pila de tomosíntesis usando datos de imágenes sintetizadas
US10092358B2 (en) 2013-03-15 2018-10-09 Hologic, Inc. Tomosynthesis-guided biopsy apparatus and method
WO2015130916A1 (en) 2014-02-28 2015-09-03 Hologic, Inc. System and method for generating and displaying tomosynthesis image slabs
JP6126058B2 (ja) * 2014-09-30 2017-05-10 富士フイルム株式会社 画像表示装置、画像処理装置、放射線画像撮影システム、断層画像表示方法、及び断層画像表示プログラム。
JP6502509B2 (ja) 2015-09-10 2019-04-17 富士フイルム株式会社 画像処理装置、放射線画像撮影システム、画像処理方法、及び画像処理プログラム
KR102451377B1 (ko) 2015-10-08 2022-10-06 (주)바텍이우홀딩스 깊이 정보를 강조하는 의료 영상 재구성 장치 및 방법
JP6708407B2 (ja) * 2015-12-25 2020-06-10 キヤノン株式会社 画像処理装置、画像処理方法およびプログラム
EP3423968B1 (en) * 2016-03-03 2021-08-18 Koninklijke Philips N.V. Medical image navigation system
US20180174294A1 (en) * 2016-12-16 2018-06-21 General Electric Company Multi-Layer Color Display In Synthetic 2D Images
EP3600047A1 (en) * 2017-03-30 2020-02-05 Hologic, Inc. System and method for hierarchical multi-level feature image synthesis and representation
JP7174710B2 (ja) * 2017-03-30 2022-11-17 ホロジック, インコーポレイテッド 合成乳房組織画像を生成するための標的オブジェクト増強のためのシステムおよび方法
JP7169986B2 (ja) * 2017-03-30 2022-11-11 ホロジック, インコーポレイテッド オブジェクトグリッド増強を用いて高次元画像データから低次元画像データを合成するためのシステムおよび方法
JP6929696B2 (ja) * 2017-05-02 2021-09-01 キヤノンメディカルシステムズ株式会社 X線診断装置及び画像処理装置
US11403483B2 (en) 2017-06-20 2022-08-02 Hologic, Inc. Dynamic self-learning medical image method and system
US10993689B2 (en) * 2017-08-31 2021-05-04 General Electric Company Method and system for motion assessment and correction in digital breast tomosynthesis
CN111344742A (zh) * 2017-11-14 2020-06-26 皇家飞利浦有限公司 针对多种不同类型的投影数据每个体素具有一次几何计算的单个ct反投影器
JP7033931B2 (ja) 2018-01-17 2022-03-11 富士フイルム株式会社 画像処理装置、画像処理方法、及び画像処理プログラム
CN112770674A (zh) 2018-09-28 2021-05-07 豪洛捷公司 通过高密度元素抑制来合成乳腺组织的图像生成的系统和方法
EP3657442B1 (de) * 2018-11-23 2022-10-26 Siemens Healthcare GmbH Synthetisches mammogramm mit aufgeprägtem bildeindruck
EP4101387A4 (en) * 2020-02-04 2023-07-19 FUJIFILM Corporation IMAGE ADJUSTMENT DEVICE, METHOD AND PROGRAM
WO2021157181A1 (ja) 2020-02-04 2021-08-12 富士フイルム株式会社 画像設定装置、方法およびプログラム
JP7270782B2 (ja) 2020-02-04 2023-05-10 富士フイルム株式会社 画像設定装置、画像設定装置の作動方法および画像設定プログラム
JP7446410B2 (ja) 2020-03-18 2024-03-08 富士フイルム株式会社 画像処理装置、方法およびプログラム
US20230031814A1 (en) * 2021-07-28 2023-02-02 GE Precision Healthcare LLC Methods and systems for breast tomosynthesis
WO2023108002A1 (en) * 2021-12-07 2023-06-15 Real Time Tomography, Llc Automated multi-class segmentation of digital mammograms
WO2023139971A1 (ja) * 2022-01-19 2023-07-27 富士フイルム株式会社 画像処理装置、画像処理方法、プログラム、及び機械学習方法

Family Cites Families (414)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4054402B2 (ja) 1997-04-25 2008-02-27 株式会社東芝 X線断層撮影装置
US3502878A (en) 1967-09-22 1970-03-24 Us Health Education & Welfare Automatic x-ray apparatus for limiting the field size of a projected x-ray beam in response to film size and to source-to-film distance
US7050611B2 (en) 2001-05-29 2006-05-23 Mevis Breastcare Gmbh Co. Kg Method and computer system for screening of medical cases
US3863073A (en) 1973-04-26 1975-01-28 Machlett Lab Inc Automatic system for precise collimation of radiation
US3971950A (en) 1975-04-14 1976-07-27 Xerox Corporation Independent compression and positioning device for use in mammography
US4160906A (en) 1977-06-23 1979-07-10 General Electric Company Anatomically coordinated user dominated programmer for diagnostic x-ray apparatus
DE2838901C2 (de) 1978-09-06 1986-11-06 Siemens AG, 1000 Berlin und 8000 München Katapultrasterlade
FR2512024A1 (fr) 1981-08-27 1983-03-04 Adir Ethers tricycliques, leur preparation et les compositions pharmaceutiques les contenant
FR2549248B1 (fr) 1983-06-24 1986-01-31 Thomson Csf Porte-cassette escamotable pour appareil d'examen radiologique et radiographique
DE3339775A1 (de) 1983-11-03 1985-05-15 Siemens AG, 1000 Berlin und 8000 München Roentgendiagnostikgeraet mit strahlenfiltern
SE8306243L (sv) 1983-11-14 1985-05-15 Cytex Medicinteknik Ab Lokaliseringsmetodik
JPS60129034A (ja) 1983-12-16 1985-07-10 横河メディカルシステム株式会社 X線断層撮像装置の操作卓
US4706269A (en) 1985-03-11 1987-11-10 Reina Leo J Anti-scatter grid structure
US4773087A (en) 1986-04-14 1988-09-20 University Of Rochester Quality of shadowgraphic x-ray images
USRE33634E (en) 1986-09-23 1991-07-09 Method and structure for optimizing radiographic quality by controlling X-ray tube voltage, current focal spot size and exposure time
US4821727A (en) 1986-10-30 1989-04-18 Elscint Ltd. Mammographic biopsy needle holder system
US4819258A (en) 1986-11-28 1989-04-04 Bennett X-Ray Corp. Auto-setting of KV in an x-ray machine after selection of technic factors
US4907156A (en) 1987-06-30 1990-03-06 University Of Chicago Method and system for enhancement and detection of abnormal anatomic regions in a digital image
US5051904A (en) 1988-03-24 1991-09-24 Olganix Corporation Computerized dynamic tomography system
US5740270A (en) 1988-04-08 1998-04-14 Neuromedical Systems, Inc. Automated cytological specimen classification system and method
DK654488A (da) 1988-11-23 1990-05-24 Nordisk Roentgen Tech App Roentgenapparat
US5099846A (en) 1988-12-23 1992-03-31 Hardy Tyrone L Method and apparatus for video presentation from a variety of scanner imaging sources
FR2645006A1 (fr) 1989-03-29 1990-10-05 Gen Electric Cgr Mammographe equipe d'un dispositif de vue stereotaxiques integre et procede d'utilisation d'un tel mammographe
FR2646340A1 (fr) 1989-04-28 1990-11-02 Gen Electric Cgr Porte-cassette adaptable en dimension et en position pour mammographie
EP0406455B1 (de) 1989-07-03 1994-09-21 Siemens Aktiengesellschaft Röntgendiagnostikgerät für Mammographieaufnahmen
US5133020A (en) 1989-07-21 1992-07-21 Arch Development Corporation Automated method and system for the detection and classification of abnormal lesions and parenchymal distortions in digital medical images
CA2014918A1 (en) 1989-09-06 1991-03-06 James A. Mcfaul Scanning mammography system with improved skin line viewing
US4969174A (en) 1989-09-06 1990-11-06 General Electric Company Scanning mammography system with reduced scatter radiation
US5240011A (en) 1991-11-27 1993-08-31 Fischer Imaging Corporation Motorized biopsy needle positioner
US5078142A (en) 1989-11-21 1992-01-07 Fischer Imaging Corporation Precision mammographic needle biopsy system
US5415169A (en) 1989-11-21 1995-05-16 Fischer Imaging Corporation Motorized mammographic biopsy apparatus
AU645535B2 (en) 1989-11-27 1994-01-20 Bard International, Inc. Puncture guide for computer tomography
US5199056A (en) 1989-11-28 1993-03-30 Darrah Carol J Mammography compression paddle
US5481623A (en) 1990-04-19 1996-01-02 Fuji Photo Film Co., Ltd. Apparatus for determining an image position on imaging media
FR2668359B1 (fr) 1990-10-24 1998-02-20 Gen Electric Cgr Mammographe muni d'un porte-aiguille perfectionne.
US5409497A (en) 1991-03-11 1995-04-25 Fischer Imaging Corporation Orbital aiming device for mammo biopsy
US5129911A (en) 1991-03-11 1992-07-14 Siczek Bernard W Orbital aiming device
US5279309A (en) 1991-06-13 1994-01-18 International Business Machines Corporation Signaling device and method for monitoring positions in a surgical operation
US5163075A (en) 1991-08-08 1992-11-10 Eastman Kodak Company Contrast enhancement of electrographic imaging
US5941832A (en) 1991-09-27 1999-08-24 Tumey; David M. Method and apparatus for detection of cancerous and precancerous conditions in a breast
US5289520A (en) 1991-11-27 1994-02-22 Lorad Corporation Stereotactic mammography imaging system with prone position examination table and CCD camera
US5594769A (en) 1991-11-27 1997-01-14 Thermotrex Corporation Method and apparatus for obtaining stereotactic mammographic guided needle breast biopsies
US5343390A (en) 1992-02-28 1994-08-30 Arch Development Corporation Method and system for automated selection of regions of interest and detection of septal lines in digital chest radiographs
US5359637A (en) 1992-04-28 1994-10-25 Wake Forest University Self-calibrated tomosynthetic, radiographic-imaging system, method, and device
US5386447A (en) 1992-09-23 1995-01-31 Fischer Imaging Corporation Mammographic screening and biopsy apparatus
US5596200A (en) 1992-10-14 1997-01-21 Primex Low dose mammography system
FR2703237B1 (fr) 1993-03-29 1995-05-19 Ge Medical Syst Sa Mammographe équipé d'un dispositif de prises en vues stéréotaxiques à détecteur numérique et procédé d'utilisation d'un tel mammographe .
US5491627A (en) 1993-05-13 1996-02-13 Arch Development Corporation Method and system for the detection of microcalcifications in digital mammograms
US5878746A (en) 1993-08-25 1999-03-09 Lemelson; Jerome H. Computerized medical diagnostic system
US5365562A (en) 1993-09-20 1994-11-15 Fischer Imaging Corporation Digital imaging apparatus
US6075879A (en) 1993-09-29 2000-06-13 R2 Technology, Inc. Method and system for computer-aided lesion detection using information from multiple images
US5526394A (en) 1993-11-26 1996-06-11 Fischer Imaging Corporation Digital scan mammography apparatus
US5452367A (en) 1993-11-29 1995-09-19 Arch Development Corporation Automated method and system for the segmentation of medical images
CA2113752C (en) 1994-01-19 1999-03-02 Stephen Michael Rooks Inspection system for cross-sectional imaging
DE4414689C2 (de) 1994-04-26 1996-08-29 Siemens Ag Röntgendiagnostikeinrichtung
US5499097A (en) 1994-09-19 1996-03-12 Neopath, Inc. Method and apparatus for checking automated optical system performance repeatability
AU3371395A (en) 1994-09-20 1996-04-19 Neopath, Inc. Biological specimen analysis system processing integrity checking apparatus
US5557097A (en) 1994-09-20 1996-09-17 Neopath, Inc. Cytological system autofocus integrity checking apparatus
US5647025A (en) 1994-09-20 1997-07-08 Neopath, Inc. Automatic focusing of biomedical specimens apparatus
US5553111A (en) 1994-10-26 1996-09-03 The General Hospital Corporation Apparatus and method for improved tissue imaging
US5506877A (en) 1994-11-23 1996-04-09 The General Hospital Corporation Mammography breast compression device and method
US5712890A (en) 1994-11-23 1998-01-27 Thermotrex Corp. Full breast digital mammography device
US5657362A (en) 1995-02-24 1997-08-12 Arch Development Corporation Automated method and system for computerized detection of masses and parenchymal distortions in medical images
US5660185A (en) 1995-04-13 1997-08-26 Neovision Corporation Image-guided biopsy apparatus with enhanced imaging and methods
US5671288A (en) 1995-05-31 1997-09-23 Neopath, Inc. Method and apparatus for assessing slide and specimen preparation quality
US6216540B1 (en) 1995-06-06 2001-04-17 Robert S. Nelson High resolution device and method for imaging concealed objects within an obscuring medium
US5820623A (en) 1995-06-20 1998-10-13 Ng; Wan Sing Articulated arm for medical procedures
US5642433A (en) 1995-07-31 1997-06-24 Neopath, Inc. Method and apparatus for image contrast quality evaluation
US5642441A (en) 1995-10-24 1997-06-24 Neopath, Inc. Separation apparatus and method for measuring focal plane
US5818898A (en) 1995-11-07 1998-10-06 Kabushiki Kaisha Toshiba X-ray imaging apparatus using X-ray planar detector
US5693948A (en) 1995-11-21 1997-12-02 Loral Fairchild Corporation Advanced CCD-based x-ray image sensor system
US5627869A (en) 1995-11-22 1997-05-06 Thermotrex Corporation Mammography apparatus with proportional collimation
FI955636A0 (fi) 1995-11-23 1995-11-23 Planmed Oy Foerfarande och system foer styrning av funktionerna av en mammografiaanordning
US6215892B1 (en) 1995-11-30 2001-04-10 Chromavision Medical Systems, Inc. Method and apparatus for automated image analysis of biological specimens
US5769086A (en) 1995-12-06 1998-06-23 Biopsys Medical, Inc. Control system and method for automated biopsy device
JPH09198490A (ja) * 1996-01-22 1997-07-31 Hitachi Medical Corp 3次元離散データ投影装置
JPH09238934A (ja) * 1996-03-11 1997-09-16 Toshiba Medical Eng Co Ltd 画像表示システム
DE19619925C2 (de) 1996-05-17 1999-09-09 Sirona Dental Systems Gmbh Röntgendiagnostikgerät für Tomosynthese
DE19619915A1 (de) 1996-05-17 1997-11-20 Siemens Ag Verfahren zur Erstellung von Tomosyntheseaufnahmen
DE19619913C2 (de) 1996-05-17 2001-03-15 Sirona Dental Systems Gmbh Röntgendiagnostikgerät für Tomosynthese
DE19619924A1 (de) 1996-05-17 1997-11-20 Siemens Ag Verfahren zur Erstellung von Tomosyntheseaufnahmen
US6067079A (en) 1996-06-13 2000-05-23 International Business Machines Corporation Virtual pointing device for touchscreens
US5835079A (en) 1996-06-13 1998-11-10 International Business Machines Corporation Virtual pointing device for touchscreens
US5841124A (en) 1996-06-19 1998-11-24 Neopath, Inc. Cytological system autofocus integrity checking apparatus
DE69739995D1 (de) 1996-07-23 2010-10-28 Gen Hospital Corp Anordnung zur mammographie mittels tomosynthese
JPH1033523A (ja) * 1996-07-24 1998-02-10 Hitachi Medical Corp X線ct装置
US5776062A (en) 1996-10-15 1998-07-07 Fischer Imaging Corporation Enhanced breast imaging/biopsy system employing targeted ultrasound
US5986662A (en) 1996-10-16 1999-11-16 Vital Images, Inc. Advanced diagnostic viewer employing automated protocol selection for volume-rendered imaging
US6293282B1 (en) 1996-11-05 2001-09-25 Jerome Lemelson System and method for treating select tissue in living being
JP3878259B2 (ja) 1996-11-13 2007-02-07 東芝医用システムエンジニアリング株式会社 医用画像処理装置
US6137527A (en) 1996-12-23 2000-10-24 General Electric Company System and method for prompt-radiology image screening service via satellite
US7117098B1 (en) 1997-02-27 2006-10-03 Cellomics, Inc. Machine-readable storage medium for analyzing distribution of macromolecules between the cell membrane and the cell cytoplasm
US5999639A (en) 1997-09-04 1999-12-07 Qualia Computing, Inc. Method and system for automated detection of clustered microcalcifications from digital mammograms
US20030135115A1 (en) 1997-11-24 2003-07-17 Burdette Everette C. Method and apparatus for spatial registration and mapping of a biopsy needle during a tissue biopsy
US6442288B1 (en) 1997-12-17 2002-08-27 Siemens Aktiengesellschaft Method for reconstructing a three-dimensional image of an object scanned in the context of a tomosynthesis, and apparatus for tomosynthesis
JP3554172B2 (ja) 1998-01-09 2004-08-18 キヤノン株式会社 放射線撮影装置
US6175117B1 (en) 1998-01-23 2001-01-16 Quanta Vision, Inc. Tissue analysis apparatus
US6289235B1 (en) 1998-03-05 2001-09-11 Wake Forest University Method and system for creating three-dimensional images using tomosynthetic computed tomography
US6081577A (en) 1998-07-24 2000-06-27 Wake Forest University Method and system for creating task-dependent three-dimensional images
US6375352B1 (en) 1999-10-01 2002-04-23 General Electric Company Apparatus and method for obtaining x-ray tomosynthesis data for mammography
US6141398A (en) 1998-08-25 2000-10-31 General Electric Company Protocol driven image reconstruction, display, and processing in a multislice imaging system
US6101236A (en) 1998-10-02 2000-08-08 University Of Iowa Research Foundation Iterative method and apparatus for x-ray computed tomographic fluoroscopy
WO2000051484A2 (en) 1998-11-25 2000-09-08 Fischer Imaging Corporation User interface system for mammographic imager
FR2786388B1 (fr) 1998-11-27 2001-02-16 Ge Medical Syst Sa Procede de detection d'un tissu de nature determinee en radiologie numerique et son utilisation pour le reglage des parametres d'exposition
US6149301A (en) 1998-12-30 2000-11-21 General Electric Company X-ray target centering apparatus for radiographic imaging system
JP2000200340A (ja) * 1999-01-06 2000-07-18 Ge Yokogawa Medical Systems Ltd 画像表示方法、画像表示装置およびct装置
US6424332B1 (en) 1999-01-29 2002-07-23 Hunter Innovations, Inc. Image comparison apparatus and method
CA2359322C (en) 1999-01-29 2007-09-18 American Superconductor Corporation Electric utility system with superconducting magnetic energy storage
US6233473B1 (en) 1999-02-16 2001-05-15 Hologic, Inc. Determining body composition using fan beam dual-energy x-ray absorptiometry
US6272207B1 (en) 1999-02-18 2001-08-07 Creatv Microtech, Inc. Method and apparatus for obtaining high-resolution digital X-ray and gamma ray images
US6256370B1 (en) 2000-01-24 2001-07-03 General Electric Company Method and apparatus for performing tomosynthesis
US6689142B1 (en) 1999-04-26 2004-02-10 Scimed Life Systems, Inc. Apparatus and methods for guiding a needle
US6292530B1 (en) 1999-04-29 2001-09-18 General Electric Company Method and apparatus for reconstructing image data acquired by a tomosynthesis x-ray imaging system
DE19922346C2 (de) 1999-05-14 2003-06-18 Siemens Ag Röntgendiagnostikeinrichtung für Tomosynthese oder Schichtung
US6243441B1 (en) 1999-07-13 2001-06-05 Edge Medical Devices Active matrix detector for X-ray imaging
US20020173721A1 (en) 1999-08-20 2002-11-21 Novasonics, Inc. User interface for handheld imaging devices
US6987831B2 (en) 1999-11-18 2006-01-17 University Of Rochester Apparatus and method for cone beam volume computed tomography breast imaging
US6480565B1 (en) 1999-11-18 2002-11-12 University Of Rochester Apparatus and method for cone beam volume computed tomography breast imaging
US6245028B1 (en) 1999-11-24 2001-06-12 Marconi Medical Systems, Inc. Needle biopsy system
US6633674B1 (en) 1999-11-24 2003-10-14 General Electric Company Picture archiving and communication system employing improved data compression
US6645520B2 (en) 1999-12-16 2003-11-11 Dermatrends, Inc. Transdermal administration of nonsteroidal anti-inflammatory drugs using hydroxide-releasing agents as permeation enhancers
FR2803069B1 (fr) 1999-12-28 2002-12-13 Ge Medical Syst Sa Procede et systeme de compensation de l'epaisseur d'un organe
US6411836B1 (en) 1999-12-30 2002-06-25 General Electric Company Method and apparatus for user preferences configuring in an image handling system
US8352289B2 (en) 1999-12-30 2013-01-08 Dhi Computing, Inc. Systems and methods for providing and maintaining electronic medical records
US6901156B2 (en) 2000-02-04 2005-05-31 Arch Development Corporation Method, system and computer readable medium for an intelligent search workstation for computer assisted interpretation of medical images
US6744848B2 (en) 2000-02-11 2004-06-01 Brandeis University Method and system for low-dose three-dimensional imaging of a scene
GB0006598D0 (en) 2000-03-17 2000-05-10 Isis Innovation Three-dimensional reconstructions from images
US6351660B1 (en) 2000-04-18 2002-02-26 Litton Systems, Inc. Enhanced visualization of in-vivo breast biopsy location for medical documentation
US6683934B1 (en) 2000-06-05 2004-01-27 General Electric Company Dual energy x-ray imaging system and method for radiography and mammography
US6327336B1 (en) 2000-06-05 2001-12-04 Direct Radiography Corp. Radiogram showing location of automatic exposure control sensor
US6389104B1 (en) 2000-06-30 2002-05-14 Siemens Corporate Research, Inc. Fluoroscopy based 3-D neural navigation based on 3-D angiography reconstruction data
JP2002052018A (ja) 2000-08-11 2002-02-19 Canon Inc 画像表示装置、画像表示方法および記憶媒体
JP2002109510A (ja) 2000-09-27 2002-04-12 Fuji Photo Film Co Ltd 異常陰影候補検出処理システム
JP2004512081A (ja) 2000-10-20 2004-04-22 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 限られた角度範囲での断層写真合成法
US6758824B1 (en) 2000-11-06 2004-07-06 Suros Surgical Systems, Inc. Biopsy apparatus
WO2002069808A2 (en) 2000-11-06 2002-09-12 Suros Surgical Systems, Inc. Biopsy apparatus
US6468226B1 (en) 2000-11-22 2002-10-22 Mcintyre, Iv John J. Remote tissue biopsy apparatus and associated methods
US7556602B2 (en) 2000-11-24 2009-07-07 U-Systems, Inc. Breast cancer screening with adjunctive ultrasound mammography
US7103205B2 (en) 2000-11-24 2006-09-05 U-Systems, Inc. Breast cancer screening with ultrasound image overlays
US7615008B2 (en) 2000-11-24 2009-11-10 U-Systems, Inc. Processing and displaying breast ultrasound information
US7597663B2 (en) 2000-11-24 2009-10-06 U-Systems, Inc. Adjunctive ultrasound processing and display for breast cancer screening
US6650928B1 (en) 2000-11-27 2003-11-18 Ge Medical Systems Global Technology Company, Llc Color parametric and composite maps for CT perfusion
US6501819B2 (en) 2000-12-18 2002-12-31 Ge Medical Systems Global Technology Company, Llc Medical diagnostic method and apparatus to control dual energy exposure techniques based on image information
FR2818116B1 (fr) 2000-12-19 2004-08-27 Ge Med Sys Global Tech Co Llc Appareil de mammographie
US6463181B2 (en) 2000-12-22 2002-10-08 The United States Of America As Represented By The Secretary Of The Navy Method for optimizing visual display of enhanced digital images
EP1346322A1 (en) 2000-12-22 2003-09-24 Koninklijke Philips Electronics N.V. Stereoscopic viewing of a region between clipping planes
EP1364374A4 (en) 2001-02-01 2006-11-22 Creatv Microtech Inc MODELS OF COLLIMATORS AND ANTI-DISPENSING GRIDS, AND THEIR MOVEMENT, MANUFACTURE AND ASSEMBLY
US7030861B1 (en) 2001-02-10 2006-04-18 Wayne Carl Westerman System and method for packing multi-touch gestures onto a hand
US6486764B2 (en) 2001-02-16 2002-11-26 Delphi Technologies, Inc. Rotary position sensor
US20020188466A1 (en) 2001-04-18 2002-12-12 Barrette Pierre Philip Secure digital medical intellectual property (IP) distribution, market applications, and mobile devices
US6620111B2 (en) 2001-04-20 2003-09-16 Ethicon Endo-Surgery, Inc. Surgical biopsy device having automatic rotation of the probe for taking multiple samples
US6954667B2 (en) 2001-06-28 2005-10-11 Chemimage Corporation Method for Raman chemical imaging and characterization of calcification in tissue
US6611575B1 (en) 2001-07-27 2003-08-26 General Electric Company Method and system for high resolution 3D visualization of mammography images
US20030048260A1 (en) 2001-08-17 2003-03-13 Alec Matusis System and method for selecting actions based on the identification of user's fingers
AU2002332758A1 (en) 2001-08-31 2003-03-18 Analogic Corporation Image positioning method and system for tomosynthesis in a digital x-ray radiography system
US20030072478A1 (en) * 2001-10-12 2003-04-17 Claus Bernhard Erich Hermann Reconstruction method for tomosynthesis
WO2003037046A2 (en) 2001-10-19 2003-05-01 Hologic, Inc. Mammography system and method employing offset compression paddles, automatic collimation, and retractable anti-scatter grid
US6626849B2 (en) 2001-11-01 2003-09-30 Ethicon Endo-Surgery, Inc. MRI compatible surgical biopsy device
DE60135559D1 (de) 2001-11-19 2008-10-09 St Microelectronics Srl Verfahren zur Mischung von digitalen Bildern zur Erzeugung eines digitalen Bildes mit erweitertem Dynamikbereich
US6751285B2 (en) 2001-11-21 2004-06-15 General Electric Company Dose management system for mammographic tomosynthesis
US6895077B2 (en) 2001-11-21 2005-05-17 University Of Massachusetts Medical Center System and method for x-ray fluoroscopic imaging
US20030097055A1 (en) * 2001-11-21 2003-05-22 Philips Medical Systems(Cleveland), Inc. Method of reviewing tomographic scans with a large number of images
JP4099984B2 (ja) 2001-12-14 2008-06-11 コニカミノルタホールディングス株式会社 異常陰影検出装置および画像出力装置
US6978040B2 (en) 2001-12-19 2005-12-20 Canon Kabushiki Kaisha Optical recovery of radiographic geometry
US6647092B2 (en) 2002-01-18 2003-11-11 General Electric Company Radiation imaging system and method of collimation
SE524458C2 (sv) 2002-03-01 2004-08-10 Mamea Imaging Ab Skyddsanordning vid en röntgenapparat
US7346381B2 (en) 2002-11-01 2008-03-18 Ge Medical Systems Global Technology Company Llc Method and apparatus for medical intervention procedure planning
US6878115B2 (en) 2002-03-28 2005-04-12 Ultrasound Detection Systems, Llc Three-dimensional ultrasound computed tomography imaging system
US20030194050A1 (en) 2002-04-15 2003-10-16 General Electric Company Multi modality X-ray and nuclear medicine mammography imaging system and method
US7218766B2 (en) 2002-04-15 2007-05-15 General Electric Company Computer aided detection (CAD) for 3D digital mammography
US6882700B2 (en) 2002-04-15 2005-04-19 General Electric Company Tomosynthesis X-ray mammogram system and method with automatic drive system
US6752767B2 (en) 2002-04-16 2004-06-22 Vivant Medical, Inc. Localization element with energized tip
US7139000B2 (en) 2002-05-13 2006-11-21 Ge Medical Systems Global Technology Company, Llc Method, system and computer product for displaying axial images
US7295691B2 (en) 2002-05-15 2007-11-13 Ge Medical Systems Global Technology Company, Llc Computer aided diagnosis of an image set
US11275405B2 (en) 2005-03-04 2022-03-15 Apple Inc. Multi-functional hand-held device
US7599579B2 (en) 2002-07-11 2009-10-06 Ge Medical Systems Global Technology Company, Llc Interpolated image filtering method and apparatus
US7450747B2 (en) 2002-07-12 2008-11-11 Ge Medical Systems Global Technology Company, Llc System and method for efficiently customizing an imaging system
US20040036680A1 (en) 2002-08-26 2004-02-26 Mark Davis User-interface features for computers with contact-sensitive displays
US6898331B2 (en) 2002-08-28 2005-05-24 Bae Systems Aircraft Controls, Inc. Image fusion system and method
US6574304B1 (en) 2002-09-13 2003-06-03 Ge Medical Systems Global Technology Company, Llc Computer aided acquisition of medical images
US6748044B2 (en) 2002-09-13 2004-06-08 Ge Medical Systems Global Technology Company, Llc Computer assisted analysis of tomographic mammography data
US7260249B2 (en) 2002-09-27 2007-08-21 Confirma Incorporated Rules-based approach for processing medical images
US6940943B2 (en) 2002-10-07 2005-09-06 General Electric Company Continuous scan tomosynthesis system and method
US7347829B2 (en) 2002-10-07 2008-03-25 Suros Surgical Systems, Inc. Introduction system for minimally invasive surgical instruments
US6825838B2 (en) 2002-10-11 2004-11-30 Sonocine, Inc. 3D modeling system
US20040171933A1 (en) 2002-11-25 2004-09-02 Milton Stoller Mammography needle biopsy system and method
US7616801B2 (en) 2002-11-27 2009-11-10 Hologic, Inc. Image handling and display in x-ray mammography and tomosynthesis
US8571289B2 (en) 2002-11-27 2013-10-29 Hologic, Inc. System and method for generating a 2D image from a tomosynthesis data set
US7831296B2 (en) 2002-11-27 2010-11-09 Hologic, Inc. X-ray mammography with tomosynthesis
US7123684B2 (en) 2002-11-27 2006-10-17 Hologic, Inc. Full field mammography with tissue exposure control, tomosynthesis, and dynamic field of view processing
US6597762B1 (en) 2002-11-27 2003-07-22 Ge Medical Systems Global Technology Co., Llc Method and apparatus of lesion detection and validation based on multiple reviews of a CT image
US7760924B2 (en) 2002-11-27 2010-07-20 Hologic, Inc. System and method for generating a 2D image from a tomosynthesis data set
US7577282B2 (en) 2002-11-27 2009-08-18 Hologic, Inc. Image handling and display in X-ray mammography and tomosynthesis
US7406150B2 (en) 2002-11-29 2008-07-29 Hologic, Inc. Distributed architecture for mammographic image acquisition and processing
US7904824B2 (en) 2002-12-10 2011-03-08 Siemens Medical Solutions Usa, Inc. Medical imaging programmable custom user interface system and method
US7110490B2 (en) 2002-12-10 2006-09-19 General Electric Company Full field digital tomosynthesis method and apparatus
US7634308B2 (en) 2002-12-17 2009-12-15 Kabushiki Kaisha Toshiba Method and system for X-ray diagnosis of object in which X-ray contrast agent is injected
US7356113B2 (en) 2003-02-12 2008-04-08 Brandeis University Tomosynthesis imaging system and method
JP4604451B2 (ja) 2003-02-24 2011-01-05 コニカミノルタホールディングス株式会社 医用画像処理装置及び悪性度の判定方法
US7333644B2 (en) 2003-03-11 2008-02-19 Siemens Medical Solutions Usa, Inc. Systems and methods for providing automatic 3D lesion segmentation and measurements
JP4497837B2 (ja) 2003-05-12 2010-07-07 キヤノン株式会社 放射線画像撮影装置
JP2007524461A (ja) 2003-06-25 2007-08-30 シーメンス メディカル ソリューションズ ユーエスエー インコーポレイテッド 乳房撮像の自動診断及び決定支援システム及び方法
US6885724B2 (en) 2003-08-22 2005-04-26 Ge Medical Systems Global Technology Company, Llc Radiographic tomosynthesis image acquisition utilizing asymmetric geometry
US8090164B2 (en) 2003-08-25 2012-01-03 The University Of North Carolina At Chapel Hill Systems, methods, and computer program products for analysis of vessel attributes for diagnosis, disease staging, and surgical planning
US7424141B2 (en) 2003-08-29 2008-09-09 Agilent Technologies, Inc. System and method for performing auto-focused tomosynthesis
US7578781B2 (en) 2003-09-18 2009-08-25 Wisconsin Alumni Research Foundation Device for placement of needles and radioactive seeds in radiotherapy
US7869862B2 (en) 2003-10-15 2011-01-11 Varian Medical Systems, Inc. Systems and methods for functional imaging using contrast-enhanced multiple-energy computed tomography
US20050089205A1 (en) 2003-10-23 2005-04-28 Ajay Kapur Systems and methods for viewing an abnormality in different kinds of images
JP2005149107A (ja) 2003-11-14 2005-06-09 Konica Minolta Medical & Graphic Inc 医用画像管理システム
DE10353611B4 (de) 2003-11-17 2013-01-17 Siemens Aktiengesellschaft Röntgendiagnostikgerät für Mammographieuntersuchungen
US8768026B2 (en) 2003-11-26 2014-07-01 Hologic, Inc. X-ray imaging with x-ray markers that provide adjunct information but preserve image quality
US8265728B2 (en) 2003-11-26 2012-09-11 University Of Chicago Automated method and system for the evaluation of disease and registration accuracy in the subtraction of temporally sequential medical images
WO2005051197A2 (en) 2003-11-26 2005-06-09 Koninklijke Philips Electronics, N.V. Workflow optimization for high throughput imaging environment
US7727151B2 (en) * 2003-11-28 2010-06-01 U-Systems Inc. Navigation among multiple breast ultrasound volumes
US7773721B2 (en) 2003-12-03 2010-08-10 The General Hospital Corporation Multi-segment cone-beam reconstruction system and method for tomosynthesis imaging
US20050135555A1 (en) 2003-12-23 2005-06-23 Claus Bernhard Erich H. Method and system for simultaneously viewing rendered volumes
US7653229B2 (en) 2003-12-23 2010-01-26 General Electric Company Methods and apparatus for reconstruction of volume data from projection data
CN1933787A (zh) 2004-01-23 2007-03-21 特拉克斯医疗有限公司 在体内目标位置上完成某些程序的方法和装置
US7298881B2 (en) 2004-02-13 2007-11-20 University Of Chicago Method, system, and computer software product for feature-based correlation of lesions from multiple images
US7289825B2 (en) 2004-03-15 2007-10-30 General Electric Company Method and system for utilizing wireless voice technology within a radiology workflow
US7142633B2 (en) 2004-03-31 2006-11-28 General Electric Company Enhanced X-ray imaging system and method
US7699783B2 (en) 2004-04-08 2010-04-20 Techniscan, Inc. Method for imaging and treating a breast
EP1750584B1 (en) 2004-05-14 2020-10-14 Philips Intellectual Property & Standards GmbH System and method for diagnosing breast cancer
GB0411402D0 (en) 2004-05-21 2004-06-23 Tissuomics Ltd Penetrating radiation measurements
US7835562B2 (en) 2004-07-23 2010-11-16 General Electric Company Methods and apparatus for noise reduction filtering of images
AU2005266901B2 (en) 2004-07-23 2010-04-08 Learning Tree International System and method for electronic presentations
FR2873835A1 (fr) 2004-07-29 2006-02-03 Gen Electric Procede et dispositif d'imagerie aux rayons x avec produit de contraste permettant une visualisation amelioree
WO2006020874A2 (en) 2004-08-10 2006-02-23 The Research Foundation Flat-panel detector with avalanche gain
US7725153B2 (en) 2004-10-04 2010-05-25 Hologic, Inc. Estimating visceral fat by dual-energy x-ray absorptiometry
WO2006055830A2 (en) 2004-11-15 2006-05-26 Hologic, Inc. Matching geometry generation and display of mammograms and tomosynthesis images
EP1816965B1 (en) 2004-11-26 2016-06-29 Hologic, Inc. Integrated multi-mode mammography/tomosynthesis x-ray system
US20060132508A1 (en) 2004-12-16 2006-06-22 Navid Sadikali Multi-planar image viewing system and method
EP1877980A2 (en) 2004-12-22 2008-01-16 Bio-Tree Systems, Inc. Medical imaging methods and apparatus for diagnosis and monitoring of diseases and uses therefor
US7616793B2 (en) 2004-12-30 2009-11-10 Hologic, Inc. Medical image review workstation with integrated content-based resource retrieval
US9760214B2 (en) 2005-02-23 2017-09-12 Zienon, Llc Method and apparatus for data entry input
US7859549B2 (en) 2005-03-08 2010-12-28 Agfa Inc. Comparative image review system and method
US20060210131A1 (en) 2005-03-15 2006-09-21 Wheeler Frederick W Jr Tomographic computer aided diagnosis (CAD) with multiple reconstructions
JP5038643B2 (ja) * 2005-04-06 2012-10-03 株式会社東芝 画像表示装置
US8373652B2 (en) * 2005-04-06 2013-02-12 Kabushiki Kaisha Toshiba Image display apparatus and image display method
US10492749B2 (en) 2005-05-03 2019-12-03 The Regents Of The University Of California Biopsy systems for breast computed tomography
DE102005022543A1 (de) 2005-05-17 2006-11-23 Siemens Ag Mammographieverfahren und Mammographiegerät
KR20080021723A (ko) 2005-06-02 2008-03-07 더 메디패턴 코포레이션 컴퓨터­보조 검진을 위한 시스템 및 방법
US7606801B2 (en) 2005-06-07 2009-10-20 Varonis Inc. Automatic management of storage access control
US7809175B2 (en) 2005-07-01 2010-10-05 Hologic, Inc. Displaying and navigating computer-aided detection results on a review workstation
DE102005037376B3 (de) 2005-08-08 2006-10-19 Siemens Ag Verfahren zur Stempelung beliebiger Ethernet-Frames in Verbindung mit Standard-Ethernet
US7245694B2 (en) 2005-08-15 2007-07-17 Hologic, Inc. X-ray mammography/tomosynthesis of patient's breast
WO2007027610A2 (en) 2005-08-30 2007-03-08 Bruce Reiner Multi-functional navigational device and method
DE202005013910U1 (de) 2005-09-02 2005-11-24 Siemens Ag Mammographiegerät mit Gesichtsschild
US20070052700A1 (en) 2005-09-07 2007-03-08 Wheeler Frederick W System and method for 3D CAD using projection images
US10008184B2 (en) 2005-11-10 2018-06-26 Hologic, Inc. System and method for generating a 2D image using mammography and/or tomosynthesis image data
US7342233B2 (en) 2005-11-18 2008-03-11 Sectra Mamea Ab Method and arrangement relating to x-ray imaging
US20070118400A1 (en) 2005-11-22 2007-05-24 General Electric Company Method and system for gesture recognition to drive healthcare applications
US20070236490A1 (en) 2005-11-25 2007-10-11 Agfa-Gevaert Medical image display and review system
EP1966762A2 (en) 2005-12-29 2008-09-10 Carestream Health, Inc. Cross-time and cross-modality medical diagnosis
US7581399B2 (en) 2006-01-05 2009-09-01 United Technologies Corporation Damped coil pin for attachment hanger hinge
US20070156451A1 (en) 2006-01-05 2007-07-05 Gering David T System and method for portable display of relevant healthcare information
WO2007095330A2 (en) 2006-02-15 2007-08-23 Hologic Inc Breast biopsy and needle localization using tomosynthesis systems
US20070223651A1 (en) 2006-03-21 2007-09-27 Wagenaar Douglas J Dual modality mammography device
US7489761B2 (en) 2006-03-27 2009-02-10 Hologic, Inc. Breast compression for digital mammography, tomosynthesis and other modalities
EP2046223B1 (en) 2006-04-12 2011-03-02 NAVAB, Nassir Virtual penetrating mirror device for visualizing virtual objects in angiographic applications
US7945083B2 (en) 2006-05-25 2011-05-17 Carestream Health, Inc. Method for supporting diagnostic workflow from a medical imaging apparatus
JP2007330334A (ja) * 2006-06-12 2007-12-27 Toshiba Corp X線撮影装置及びその方法
US7974924B2 (en) 2006-07-19 2011-07-05 Mvisum, Inc. Medical data encryption for communication over a vulnerable system
CN100444800C (zh) 2006-07-25 2008-12-24 倪湘申 微创手术x线穿刺定位装置及方法
US20090080602A1 (en) 2006-08-03 2009-03-26 Kenneth Brooks Dedicated breast radiation imaging/therapy system
US20080043905A1 (en) 2006-08-21 2008-02-21 Bamdad Hassanpourgol Portable Prone Stereotactic Mammography System for Biopsies, Image Guided Lumpectomies, and Radiation Treatment
JP2008068032A (ja) * 2006-09-15 2008-03-27 Toshiba Corp 画像表示装置
US20080139896A1 (en) 2006-10-13 2008-06-12 Siemens Medical Solutions Usa, Inc. System and Method for Graphical Annotation of Anatomical Images Using a Touch Screen Display
RU2471239C2 (ru) 2006-10-17 2012-12-27 Конинклейке Филипс Электроникс Н.В. Визуализация трехмерных изображений в комбинации с двумерными проекционными изображениями
JP4851296B2 (ja) 2006-10-26 2012-01-11 富士フイルム株式会社 放射線断層画像取得装置および放射線断層画像取得方法
US20080114614A1 (en) 2006-11-15 2008-05-15 General Electric Company Methods and systems for healthcare application interaction using gesture-based interaction enhanced with pressure sensitivity
US8280488B2 (en) 2006-11-24 2012-10-02 Huisman Henkjan J Processing and displaying dynamic contrast-enhanced magnetic resonance imaging information
US7769219B2 (en) 2006-12-11 2010-08-03 Cytyc Corporation Method for assessing image focus quality
US8044972B2 (en) 2006-12-21 2011-10-25 Sectra Mamea Ab Synchronized viewing of tomosynthesis and/or mammograms
US8051386B2 (en) 2006-12-21 2011-11-01 Sectra Ab CAD-based navigation of views of medical image data stacks or volumes
US8091045B2 (en) 2007-01-07 2012-01-03 Apple Inc. System and method for managing lists
US10682107B2 (en) 2007-01-31 2020-06-16 Philips Digital Mammography Sweden Ab Method and arrangement relating to x-ray imaging
US20080221444A1 (en) 2007-03-07 2008-09-11 Ritchie Paul G Integrated Imaging and Biopsy System with Integrated Surgical, Therapy, and Diagnostic Devices
JP4888165B2 (ja) 2007-03-12 2012-02-29 富士ゼロックス株式会社 画像処理装置及びプログラム
US8155417B2 (en) 2007-03-27 2012-04-10 Hologic, Inc. Post-acquisition adaptive reconstruction of MRI data
JP5656339B2 (ja) 2007-03-28 2015-01-21 Jsr株式会社 タンパク質固定化担体およびその製造方法
US7936341B2 (en) 2007-05-30 2011-05-03 Microsoft Corporation Recognizing selection regions from multiple simultaneous inputs
US7889175B2 (en) 2007-06-28 2011-02-15 Panasonic Corporation Touchpad-enabled remote controller and user interaction methods
US9427201B2 (en) 2007-06-30 2016-08-30 Accuray Incorporated Non-invasive method for using 2D angiographic images for radiosurgical target definition
FR2919747B1 (fr) * 2007-08-02 2009-11-06 Gen Electric Procede et systeme d'affichage d'images de tomosynthese
EP2219525B1 (en) 2007-08-23 2017-01-04 Bearf, Llc Improved computed tomography breast imaging and biopsy system
CN101861563B (zh) 2007-09-14 2014-03-12 松下航空电子公司 用于交通工具信息系统的便携式用户控制设备和方法
US8126226B2 (en) 2007-09-20 2012-02-28 General Electric Company System and method to generate a selected visualization of a radiological image of an imaged subject
US7630533B2 (en) 2007-09-20 2009-12-08 Hologic, Inc. Breast tomosynthesis with display of highlighted suspected calcifications
US7929743B2 (en) 2007-10-02 2011-04-19 Hologic, Inc. Displaying breast tomosynthesis computer-aided detection results
US8107700B2 (en) 2007-11-21 2012-01-31 Merge Cad Inc. System and method for efficient workflow in reading medical image data
FR2924010B1 (fr) 2007-11-23 2010-11-26 Gen Electric Perfectionnements aux appareils de mammographie
US20090138280A1 (en) 2007-11-26 2009-05-28 The General Electric Company Multi-stepped default display protocols
ES2576644T3 (es) 2007-12-21 2016-07-08 Koning Corporation Aparato de haz cónico para imagen CT
US20090167702A1 (en) 2008-01-02 2009-07-02 Nokia Corporation Pointing device detection
JP5294654B2 (ja) 2008-02-29 2013-09-18 富士フイルム株式会社 画像表示方法および装置
JP5558672B2 (ja) 2008-03-19 2014-07-23 株式会社東芝 画像処理装置及びx線コンピュータ断層撮影装置
KR100977385B1 (ko) 2008-04-10 2010-08-20 주식회사 팬택 위젯형 대기화면을 제어할 수 있는 이동 단말기 및 그를이용한 대기화면 제어 방법
US20110178389A1 (en) 2008-05-02 2011-07-21 Eigen, Inc. Fused image moldalities guidance
US20100177053A2 (en) 2008-05-09 2010-07-15 Taizo Yasutake Method and apparatus for control of multiple degrees of freedom of a display
JP5224451B2 (ja) 2008-06-03 2013-07-03 富士フイルム株式会社 投影画像作成装置、方法およびプログラム
US8031835B2 (en) 2008-08-07 2011-10-04 Xcision Medical Systems Llc Method and system for translational digital tomosynthesis mammography
US9848849B2 (en) 2008-08-21 2017-12-26 General Electric Company System and method for touch screen control of an ultrasound system
US7991106B2 (en) 2008-08-29 2011-08-02 Hologic, Inc. Multi-mode tomosynthesis/mammography gain calibration and image correction using gain map information from selected projection angles
CN102196772A (zh) 2008-09-04 2011-09-21 霍罗吉克公司 集成多模式乳房x射线照相术/体层合成x射线系统和方法
US8284170B2 (en) 2008-09-30 2012-10-09 Apple Inc. Touch screen device, method, and graphical user interface for moving on-screen objects without using a cursor
US20100088346A1 (en) 2008-10-08 2010-04-08 General Electric Company Method and system for attaching objects to a data repository
US7940891B2 (en) 2008-10-22 2011-05-10 Varian Medical Systems, Inc. Methods and systems for treating breast cancer using external beam radiation
US8543415B2 (en) 2008-11-26 2013-09-24 General Electric Company Mobile medical device image and series navigation
US20100131482A1 (en) 2008-11-26 2010-05-27 General Electric Company Adaptive user interface systems and methods for healthcare applications
WO2010062979A2 (en) 2008-11-28 2010-06-03 Fujifilm Medical Systems Usa, Inc. Active overlay system and method for accessing and manipulating imaging dislays
US9146663B2 (en) * 2008-12-08 2015-09-29 Hologic, Inc. Displaying computer-aided detection information with associated breast tomosynthesis image information
JP2010137004A (ja) 2008-12-15 2010-06-24 Fujifilm Corp 放射線画像処理システム及び処理方法
US8184890B2 (en) 2008-12-26 2012-05-22 Three Palm Software Computer-aided diagnosis and visualization of tomosynthesis mammography data
JP2010188003A (ja) 2009-02-19 2010-09-02 Fujifilm Corp 画像表示システム及び画像撮影表示システム
DE102009015007A1 (de) 2009-03-26 2010-10-21 Siemens Aktiengesellschaft Verfahren zur Auswertung einer Zeitserie von zweidimensionalen Bildern einer Testbolusmessung und medizinische Bildaufnahmeeinrichtung
JP5373450B2 (ja) 2009-03-31 2013-12-18 富士フイルム株式会社 生検装置及び生検装置の動作方法
US8300023B2 (en) 2009-04-10 2012-10-30 Qualcomm Incorporated Virtual keypad generator with learning capabilities
US8217357B2 (en) 2009-04-13 2012-07-10 Hologic, Inc. Integrated breast X-ray and molecular imaging system
US8413054B2 (en) 2009-04-13 2013-04-02 Cisco Technology, Inc. Graphical user interface for still image capture from video footage
US8677282B2 (en) 2009-05-13 2014-03-18 International Business Machines Corporation Multi-finger touch adaptations for medical imaging systems
US8639056B2 (en) 2009-06-29 2014-01-28 Thomson Licensing Contrast enhancement
WO2011006257A1 (en) 2009-07-16 2011-01-20 Karim Karim S Multi-layer flat panel x-ray detector
FR2948481B1 (fr) 2009-07-27 2012-01-20 Gen Electric Procede d'imagerie pour la realisation d'une modelisation en triple energie, et dispositif pour la mise en oeuvre d'un tel procede
US8644644B2 (en) 2009-09-14 2014-02-04 Adobe Systems Incorporation Methods and apparatus for blending images
JP5572440B2 (ja) 2009-09-15 2014-08-13 富士フイルム株式会社 診断支援システム、診断支援プログラムおよび診断支援方法
KR101616874B1 (ko) 2009-09-23 2016-05-02 삼성전자주식회사 다중 영상 합성 방법 및 그 장치
US9053565B2 (en) * 2009-10-05 2015-06-09 Koninklijke Philips N.V. Interactive selection of a region of interest in an image
WO2011044295A2 (en) 2009-10-07 2011-04-14 Hologic, Inc. Processing and displaying computer-aided detection information associated with breast x-ray images
WO2011043838A1 (en) 2009-10-08 2011-04-14 Hologic, Inc . Needle breast biopsy system and method of use
US8687860B2 (en) 2009-11-24 2014-04-01 Penrad Technologies, Inc. Mammography statistical diagnostic profiler and prediction system
JP2011110175A (ja) 2009-11-26 2011-06-09 Konica Minolta Medical & Graphic Inc 医用画像表示システム及びプログラム
US20120014578A1 (en) 2010-07-19 2012-01-19 Qview Medical, Inc. Computer Aided Detection Of Abnormalities In Volumetric Breast Ultrasound Scans And User Interface
US9289183B2 (en) 2009-11-27 2016-03-22 Qview Medical, Inc. Interactive display of computer aided detection results in combination with quantitative prompts
US9087400B2 (en) 2009-12-17 2015-07-21 Koninklijke Philips N.V. Reconstructing an object of interest
US8027582B2 (en) 2009-12-21 2011-09-27 Sony Corporation Autofocus with confidence measure
US9451924B2 (en) 2009-12-30 2016-09-27 General Electric Company Single screen multi-modality imaging displays
US9201627B2 (en) 2010-01-05 2015-12-01 Rovi Guides, Inc. Systems and methods for transferring content between user equipment and a wireless communications device
WO2011091300A2 (en) 2010-01-24 2011-07-28 Mistretta Medical, Llc System and method for implementation of 4d time-energy subtraction computed tomography
US8559590B2 (en) 2010-01-28 2013-10-15 Varian Medical Systems, Inc. Imaging breast cancerous lesions with microcalcifications
DE102010009295B4 (de) 2010-02-25 2019-02-21 Siemens Healthcare Gmbh Verfahren zur Darstellung eines zu untersuchenden und/oder behandelnden Bereichs
JP5340213B2 (ja) 2010-03-30 2013-11-13 富士フイルム株式会社 画像表示システム
WO2011148371A1 (en) 2010-05-23 2011-12-01 Technion Research And Development Foundation Ltd. Detection, staging and grading of benign and malignant tumors
US20110310126A1 (en) 2010-06-22 2011-12-22 Emil Markov Georgiev Method and system for interacting with datasets for display
CN102985009B (zh) 2010-06-28 2016-08-17 皇家飞利浦电子股份有限公司 医学断层合成系统
JP5654787B2 (ja) 2010-06-30 2015-01-14 富士フイルム株式会社 放射線画像撮影表示方法およびシステム
KR101687971B1 (ko) 2010-07-19 2016-12-21 삼성전자주식회사 유방 촬영 장치 및 그 방법
JP5650467B2 (ja) 2010-08-27 2015-01-07 富士フイルム株式会社 放射線画像撮影システム
JP2012061196A (ja) * 2010-09-17 2012-03-29 Fujifilm Corp 断層画像表示方法および装置
DE102010041920A1 (de) 2010-10-04 2012-04-05 Siemens Aktiengesellschaft Verfahren zur Darstellung einer Konzentration eines Kontrastmittels in einem vorbestimmten Volumenabschnitt mittels Tomosynthese und entsprechendes Tomosynthesegerät
JPWO2012063653A1 (ja) 2010-11-12 2014-05-12 株式会社日立メディコ 医用画像表示装置及び医用画像表示方法
ES2663617T3 (es) 2010-11-18 2018-04-16 Hologic Inc. Mesa para realizar procedimientos médicos
US9146674B2 (en) 2010-11-23 2015-09-29 Sectra Ab GUI controls with movable touch-control objects for alternate interactions
WO2012071429A1 (en) 2010-11-26 2012-05-31 Hologic, Inc. User interface for medical image review workstation
JP5170226B2 (ja) 2010-12-10 2013-03-27 カシオ計算機株式会社 画像処理装置、画像処理方法、及びプログラム
DE102011003137A1 (de) * 2011-01-25 2012-07-26 Siemens Aktiengesellschaft Bildgebungsverfahren mit einer verbesserten Darstellung eines Gewebebereichs
US9392986B2 (en) 2011-02-14 2016-07-19 University Of Rochester Method and apparatus for cone beam breast CT image-based computer-aided detection and diagnosis
FR2971412B1 (fr) 2011-02-15 2014-01-17 Gen Electric Methode d'acquisition de la morphologie d'un sein.
IT1404617B1 (it) 2011-02-25 2013-11-29 I M S Internaz Medicoscientifica S R L Apparecchiatura per la tomosintesi e la mammografia.
AU2012225398B2 (en) 2011-03-08 2017-02-02 Hologic, Inc. System and method for dual energy and/or contrast enhanced breast imaging for screening, diagnosis and biopsy
DE202011004071U1 (de) 2011-03-16 2011-07-27 Siemens Aktiengesellschaft Kompressionsplatte für Tomosynthese
US8526763B2 (en) 2011-05-27 2013-09-03 Adobe Systems Incorporated Seamless image composition
EP2724274A2 (en) 2011-06-27 2014-04-30 Koninklijke Philips N.V. Method of anatomical tagging of findings in image data
KR101477543B1 (ko) 2011-07-22 2014-12-31 삼성전자주식회사 엑스선 촬영 장치 및 방법
EP2745266B1 (en) 2011-09-07 2020-05-13 Koninklijke Philips N.V. Interactive live segmentation with automatic selection of optimal tomography slice
JP5439453B2 (ja) * 2011-10-20 2014-03-12 株式会社東芝 画像表示装置
DE102011087127B4 (de) 2011-11-25 2015-11-19 Siemens Aktiengesellschaft Bestimmung von Aufnahmeparametern bei einer Dual-Energy Tomosynthese
KR102109588B1 (ko) 2011-11-27 2020-05-12 홀로직, 인크. 유방 조직 이미지를 프로세싱하고, 디스플레잉하고, 네비게이팅하기 위한 방법
EP3181052A1 (en) 2011-11-30 2017-06-21 Rush University Medical Center System and methods for identification of implanted medical devices and/or detection of retained surgical foreign objects from medical images
US8594407B2 (en) 2012-02-03 2013-11-26 Siemens Aktiengesellschaft Plane-by-plane iterative reconstruction for digital breast tomosynthesis
ES2641456T3 (es) 2012-02-13 2017-11-10 Hologic, Inc. Sistema y método para navegar por una pila de tomosíntesis usando datos de imágenes sintetizadas
JP5745444B2 (ja) 2012-03-05 2015-07-08 富士フイルム株式会社 医用画像表示装置および医用画像表示方法、並びに、医用画像表示プログラム
EP2823464B1 (en) 2012-03-08 2016-10-19 Koninklijke Philips N.V. Intelligent landmark selection to improve registration accuracy in multimodal image fusion
JP5244250B1 (ja) 2012-03-28 2013-07-24 パナソニック株式会社 給電装置
US8842806B2 (en) 2012-04-03 2014-09-23 Carestream Health, Inc. Apparatus and method for breast imaging
ITBO20120227A1 (it) 2012-04-24 2013-10-25 I M S Internaz Medico Scient Ifica S R L Apparecchiatura per eseguire un esame sul seno di un paziente.
JP2013244211A (ja) * 2012-05-25 2013-12-09 Toshiba Corp 医用画像処理装置、医用画像処理方法及び制御プログラム
DE102012213910A1 (de) 2012-08-06 2014-02-06 Siemens Aktiengesellschaft Steuerungsmodul und -verfahren zur Perspektivenbestimmung beim Rendern von medizinischen Bilddatensätzen
KR101479212B1 (ko) 2012-09-05 2015-01-06 삼성전자 주식회사 엑스선 영상 장치 및 엑스선 영상 생성 방법
GB201221069D0 (en) 2012-11-23 2013-01-09 Univ Reading Control method
US8983156B2 (en) 2012-11-23 2015-03-17 Icad, Inc. System and method for improving workflow efficiences in reading tomosynthesis medical image data
US9113781B2 (en) 2013-02-07 2015-08-25 Siemens Aktiengesellschaft Method and system for on-site learning of landmark detection models for end user-specific diagnostic medical image reading
CN105451657A (zh) 2013-03-15 2016-03-30 霍罗吉克公司 用于导航断层合成堆叠的包括自动聚焦的系统和方法
US10092358B2 (en) 2013-03-15 2018-10-09 Hologic, Inc. Tomosynthesis-guided biopsy apparatus and method
US9129362B2 (en) 2013-05-22 2015-09-08 Siemens Aktiengesellschaft Semantic navigation and lesion mapping from digital breast tomosynthesis
JP6368779B2 (ja) 2013-06-28 2018-08-01 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. トモシンセシスデータからエッジ保存合成マンモグラムを生成するための方法
KR20150010515A (ko) 2013-07-19 2015-01-28 삼성전자주식회사 의료 영상 획득 방법 및 장치
US9668699B2 (en) 2013-10-17 2017-06-06 Siemens Healthcare Gmbh Method and system for anatomical object detection using marginal space deep neural networks
KR102340594B1 (ko) 2013-10-24 2021-12-20 앤드류 피 스미스 엑스레이 유도 유방 생검을 네비게이팅하기 위한 시스템 및 방법
US10978184B2 (en) 2013-11-04 2021-04-13 Terarecon, Inc. Evolving contextual clinical data engine for medical information
US10610182B2 (en) 2014-01-15 2020-04-07 Alara Systems, Inc Converting low-dose to higher dose 3D tomosynthesis images through machine-learning processes
JP6283850B2 (ja) 2014-01-31 2018-02-28 国立大学法人 熊本大学 画像処理方法、画像処理装置及びプログラム
JP6495003B2 (ja) 2014-02-04 2019-04-03 キヤノンメディカルシステムズ株式会社 医用画像処理装置、医用画像診断装置及び医用画像処理方法
WO2015130916A1 (en) * 2014-02-28 2015-09-03 Hologic, Inc. System and method for generating and displaying tomosynthesis image slabs
US20150331995A1 (en) 2014-05-14 2015-11-19 Tiecheng Zhao Evolving contextual clinical data engine for medical data processing
US20160000399A1 (en) 2014-07-02 2016-01-07 General Electric Company Method and apparatus for ultrasound needle guidance
US9569864B2 (en) 2014-09-12 2017-02-14 Siemens Aktiengesellschaft Method and apparatus for projection image generation from tomographic images
JP2018500997A (ja) 2014-12-24 2018-01-18 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. 標的生検の針軌道予測
JP6383321B2 (ja) 2015-04-08 2018-08-29 株式会社エクスメディオ 診断支援システム
WO2016184746A1 (en) 2015-05-18 2016-11-24 Koninklijke Philips N.V. Intra-procedural accuracy feedback for image-guided biopsy
KR101822404B1 (ko) 2015-11-30 2018-01-26 임욱빈 Dnn 학습을 이용한 세포이상 여부 진단시스템
WO2017156547A1 (en) 2016-03-11 2017-09-14 Magic Leap, Inc. Structure learning in convolutional neural networks
TWI609674B (zh) 2016-05-12 2018-01-01 太豪生醫股份有限公司 乳房影像對位方法與影像處理裝置
US9589374B1 (en) 2016-08-01 2017-03-07 12 Sigma Technologies Computer-aided diagnosis system for medical images using deep convolutional neural networks
US20180144244A1 (en) 2016-11-23 2018-05-24 Vital Images, Inc. Distributed clinical workflow training of deep learning neural networks
EP3326535B1 (en) 2016-11-25 2019-06-12 ScreenPoint Medical Displaying system for displaying digital breast tomosynthesis data
JP7174710B2 (ja) 2017-03-30 2022-11-17 ホロジック, インコーポレイテッド 合成乳房組織画像を生成するための標的オブジェクト増強のためのシステムおよび方法
EP3600047A1 (en) 2017-03-30 2020-02-05 Hologic, Inc. System and method for hierarchical multi-level feature image synthesis and representation
JP7169986B2 (ja) 2017-03-30 2022-11-11 ホロジック, インコーポレイテッド オブジェクトグリッド増強を用いて高次元画像データから低次元画像データを合成するためのシステムおよび方法
US11403483B2 (en) 2017-06-20 2022-08-02 Hologic, Inc. Dynamic self-learning medical image method and system
EP3787520A1 (en) 2018-05-04 2021-03-10 Hologic, Inc. Biopsy needle visualization
US20210000553A1 (en) 2018-05-04 2021-01-07 Hologic, Inc. Introducer and localization wire visualization
US20220254023A1 (en) 2019-07-31 2022-08-11 Google Llc System and Method for Interpretation of Multiple Medical Images Using Deep Learning
US20230125385A1 (en) 2021-10-25 2023-04-27 Hologic, Inc. Auto-focus tool for multimodality image review

Also Published As

Publication number Publication date
CN106061389B (zh) 2019-11-12
AU2015222981A1 (en) 2016-08-04
EP3110332A1 (en) 2017-01-04
US20160367210A1 (en) 2016-12-22
US10575807B2 (en) 2020-03-03
KR102402887B1 (ko) 2022-05-27
US11801025B2 (en) 2023-10-31
JP2017510323A (ja) 2017-04-13
EP3110332B1 (en) 2018-04-11
JP7317077B2 (ja) 2023-07-28
KR20160128315A (ko) 2016-11-07
JP2021166941A (ja) 2021-10-21
US11419565B2 (en) 2022-08-23
CA2937379C (en) 2022-08-09
EP3868301B1 (en) 2023-04-05
EP3417786A1 (en) 2018-12-26
US10111631B2 (en) 2018-10-30
EP3417786B1 (en) 2021-04-14
JP2019122817A (ja) 2019-07-25
JP6506769B2 (ja) 2019-04-24
EP3868301A1 (en) 2021-08-25
US20230056692A1 (en) 2023-02-23
US20190125286A1 (en) 2019-05-02
WO2015130916A1 (en) 2015-09-03
ES2943561T3 (es) 2023-06-14
CN106061389A (zh) 2016-10-26
AU2015222981B2 (en) 2019-01-31
US20200253573A1 (en) 2020-08-13
CA2937379A1 (en) 2015-09-03
JP6967031B2 (ja) 2021-11-17

Similar Documents

Publication Publication Date Title
ES2878599T3 (es) Sistema y método para generar y visualizar bloques de imagen de tomosíntesis
ES2641456T3 (es) Sistema y método para navegar por una pila de tomosíntesis usando datos de imágenes sintetizadas
ES2950033T3 (es) Método para la generación de imágenes de tejido mamario sintético mediante supresión de elementos de alta densidad
US20240138792A1 (en) System and method for generating and displaying tomosynthesis image slabs