ES2943561T3 - Sistema y método para generar y visualizar bloques de imagen de tomosíntesis - Google Patents
Sistema y método para generar y visualizar bloques de imagen de tomosíntesis Download PDFInfo
- Publication number
- ES2943561T3 ES2943561T3 ES21168134T ES21168134T ES2943561T3 ES 2943561 T3 ES2943561 T3 ES 2943561T3 ES 21168134 T ES21168134 T ES 21168134T ES 21168134 T ES21168134 T ES 21168134T ES 2943561 T3 ES2943561 T3 ES 2943561T3
- Authority
- ES
- Spain
- Prior art keywords
- image
- slices
- images
- reconstructed
- fusion
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 36
- 210000000481 breast Anatomy 0.000 claims abstract description 67
- 238000003384 imaging method Methods 0.000 claims abstract description 21
- 210000001519 tissue Anatomy 0.000 claims description 67
- 230000004927 fusion Effects 0.000 claims description 37
- 238000012545 processing Methods 0.000 claims description 36
- 208000004434 Calcinosis Diseases 0.000 claims description 31
- 230000007246 mechanism Effects 0.000 claims description 14
- 230000008569 process Effects 0.000 claims description 7
- 210000004204 blood vessel Anatomy 0.000 claims description 4
- 208000031513 cyst Diseases 0.000 claims description 3
- 210000001165 lymph node Anatomy 0.000 claims description 3
- 238000009607 mammography Methods 0.000 description 29
- 230000002308 calcification Effects 0.000 description 18
- 238000012552 review Methods 0.000 description 15
- 238000001514 detection method Methods 0.000 description 7
- 230000004044 response Effects 0.000 description 7
- 238000005516 engineering process Methods 0.000 description 6
- 230000008901 benefit Effects 0.000 description 5
- 238000003745 diagnosis Methods 0.000 description 5
- 238000010586 diagram Methods 0.000 description 5
- 235000019580 granularity Nutrition 0.000 description 4
- 206010006187 Breast cancer Diseases 0.000 description 3
- 208000026310 Breast neoplasm Diseases 0.000 description 3
- 238000001914 filtration Methods 0.000 description 3
- 230000003902 lesion Effects 0.000 description 3
- 238000013507 mapping Methods 0.000 description 3
- 230000005855 radiation Effects 0.000 description 3
- 230000005856 abnormality Effects 0.000 description 2
- 230000015572 biosynthetic process Effects 0.000 description 2
- 238000004891 communication Methods 0.000 description 2
- 230000006835 compression Effects 0.000 description 2
- 238000007906 compression Methods 0.000 description 2
- 238000013213 extrapolation Methods 0.000 description 2
- 238000007499 fusion processing Methods 0.000 description 2
- 238000003786 synthesis reaction Methods 0.000 description 2
- 230000002159 abnormal effect Effects 0.000 description 1
- 230000003213 activating effect Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000002405 diagnostic procedure Methods 0.000 description 1
- 238000006073 displacement reaction Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 238000002156 mixing Methods 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000007500 overflow downdraw method Methods 0.000 description 1
- 238000012216 screening Methods 0.000 description 1
- 230000002194 synthesizing effect Effects 0.000 description 1
- 230000026676 system process Effects 0.000 description 1
- 230000007704 transition Effects 0.000 description 1
Classifications
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B6/00—Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
- A61B6/02—Arrangements for diagnosis sequentially in different planes; Stereoscopic radiation diagnosis
- A61B6/025—Tomosynthesis
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B6/00—Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
- A61B6/50—Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment specially adapted for specific body parts; specially adapted for specific clinical applications
- A61B6/502—Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment specially adapted for specific body parts; specially adapted for specific clinical applications for diagnosis of breast, i.e. mammography
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B6/00—Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
- A61B6/52—Devices using data or image processing specially adapted for radiation diagnosis
- A61B6/5211—Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data
- A61B6/5223—Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data generating planar views from image data, e.g. extracting a coronal view from a 3D image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T11/00—2D [Two Dimensional] image generation
- G06T11/003—Reconstruction from projections, e.g. tomography
- G06T11/008—Specific post-processing after tomographic reconstruction, e.g. voxelisation, metal artifact correction
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T11/00—2D [Two Dimensional] image generation
- G06T11/60—Editing figures and text; Combining figures or text
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10072—Tomographic images
- G06T2207/10081—Computed x-ray tomography [CT]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20021—Dividing image into blocks, subimages or windows
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20076—Probabilistic image processing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30004—Biomedical image processing
- G06T2207/30068—Mammography; Breast
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2210/00—Indexing scheme for image generation or computer graphics
- G06T2210/41—Medical
Landscapes
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Engineering & Computer Science (AREA)
- Medical Informatics (AREA)
- Physics & Mathematics (AREA)
- Biomedical Technology (AREA)
- Animal Behavior & Ethology (AREA)
- Biophysics (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- Optics & Photonics (AREA)
- Pathology (AREA)
- Radiology & Medical Imaging (AREA)
- Veterinary Medicine (AREA)
- Heart & Thoracic Surgery (AREA)
- Molecular Biology (AREA)
- Surgery (AREA)
- High Energy & Nuclear Physics (AREA)
- General Health & Medical Sciences (AREA)
- Public Health (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Dentistry (AREA)
- Oral & Maxillofacial Surgery (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Apparatus For Radiation Diagnosis (AREA)
- Ultra Sonic Daignosis Equipment (AREA)
- Image Processing (AREA)
Abstract
La presente descripción se refiere a un sistema y método para procesar imágenes de tejido mamario en el que se obtienen y procesan datos de imagen de tejido mamario para generar un conjunto de cortes de imágenes reconstruidas, representando colectivamente los cortes de imágenes reconstruidas el tejido mamario, en el que los subconjuntos del conjunto de los cortes de imagen reconstruida se procesan para generar un conjunto correspondiente de placas de imagen, en el que cada placa de imagen comprende una imagen 2D sintetizada de una parte del tejido mamario, en el que los subconjuntos respectivos del conjunto de secciones de imagen reconstruida utilizadas para generar las placas de imagen comprenden secciones sucesivas cortes de imagen reconstruida seleccionados en base al menos en parte a una identificación de uno o más objetos en, o regiones de, los cortes de imagen reconstruida respectivos que comprenden o contienen una estructura de tejido de interés. (Traducción automática con Google Translate, sin valor legal)
Description
DESCRIPCIÓN
Sistema y método para generar y visualizar bloques de imagen de tomosíntesis
Campo
La presente divulgación se refiere en general a la obtención de imágenes de mama usando tomosíntesis, y más específicamente a sistemas y métodos para obtener, procesar, sintetizar, almacenar y visualizar un conjunto de datos de tomosíntesis o un subconjunto del mismo. En particular, la presente divulgación se refiere a la generación y visualización de bloques de imagen 2D mediante la importación de datos relevantes desde un subconjunto de cortes de imagen de tomosíntesis reconstruidos de un conjunto de datos en las imágenes sintetizadas.
Antecedentes
La mamografía se ha usado durante mucho tiempo para detectar el cáncer de mama y otras anomalías. Tradicionalmente, las mamografías se han formado en película de rayos X. Más recientemente, se han introducido generadores de imágenes digitales de pantalla plana que adquieren una mamografía en forma digital y, por tanto, facilitan el análisis y el almacenamiento de los datos de imagen adquiridos, y también proporcionan otros beneficios. Además, se ha dedicado considerable atención y desarrollo tecnológico a la obtención de imágenes tridimensionales de la mama usando métodos tales como la tomosíntesis de mama. A diferencia de las imágenes 2D generadas por los sistemas de mamografía preexistentes, los sistemas de tomosíntesis de mama construyen un volumen de imágenes 3D a partir de una serie de imágenes de proyección 2D, obteniéndose cada imagen de proyección con un desplazamiento angular diferente de una fuente de rayos X en relación con el detector de imágenes cuando la fuente de rayos X se escanea sobre el detector. El volumen de imágenes 3D construido se presenta normalmente como una pluralidad de cortes de datos de imagen, reconstruyéndose matemáticamente los cortes en planos normalmente paralelos al detector de imágenes. Los cortes de tomosíntesis reconstruidos reducen o eliminan los problemas provocados por la superposición de tejido y el ruido de estructuras presente en la obtención imágenes de mamografía bidimensional, de un solo corte, al permitir que un usuario (por ejemplo, un radiólogo u otro profesional médico) se desplace por los cortes de imagen para observar sólo las estructuras en ese corte.
Recientemente se han desarrollado sistemas de tomosíntesis para la detección y el diagnóstico del cáncer de mama. En particular, Hologic, Inc. (www.hologic.com) ha desarrollado un sistema de mamografía/tomosíntesis multimodo fusionado que adquiere uno o ambos tipos de imágenes de mamografía y tomosíntesis, ya sea mientras la mama permanece inmovilizada o en diferentes compresiones de la mama. Otras empresas han propuesto la introducción de sistemas que están dedicados a la obtención de imágenes por tomosíntesis; es decir, que no incluyen la capacidad de adquirir también una mamografía en la misma compresión.
En la patente estadounidense n.° 7.760.924 se describen ejemplos de sistemas y métodos que aprovechan la experiencia médica existente con el fin de facilitar, opcionalmente, la transición a la tecnología de tomosíntesis. En particular, la patente estadounidense n.° 7.760.924 describe un método de generación de una imagen 2D sintetizada, que puede visualizarse junto con las imágenes reconstruidas o de proyección de tomosíntesis, con el fin de ayudar en la detección y el diagnóstico.
Como otro ejemplo, la solicitud de patente estadounidense US2009080752A1 da a conocer los sistemas y métodos que facilitan la presentación y evaluación de características seleccionadas en imágenes de mama de proyección y/o reconstruidas, tales como calcificaciones que cumplen criterios seleccionados de tamaño, forma, presencia en imágenes de corte seleccionadas, distribución de píxeles que pueden ser indicativos de calcificación con respecto a otros píxeles o de otras características de imagen de interés clínico.
Aunque una imagen 2D sintetizada a partir de todo el conjunto de datos de tomosíntesis proporciona una visión general útil de los datos de imagen que es similar a una imagen de mamografía tradicional, una sola imagen 2D puede contener demasiados datos para facilitar la detección y el diagnóstico óptimos. Por consiguiente, existe la necesidad de sistemas y métodos de tomosíntesis para procesar, sintetizar y visualizar más eficazmente datos de imagen de tomosíntesis.
Sumario
La invención se define por las reivindicaciones adjuntas.
Según diversas realizaciones, un sistema para procesar imágenes de tejido de mama incluye un ordenador de procesamiento de imágenes, y una interfaz de usuario acoplada operativamente al ordenador de procesamiento de imágenes, en el que el ordenador de procesamiento de imágenes está configurado para obtener datos de imagen de tejido de mama, procesar los datos de imagen para generar un conjunto de cortes de imagen reconstruidos, representando los cortes de imagen reconstruidos colectivamente el tejido de mama, procesar subconjuntos respectivos de los cortes de imagen reconstruidos para generar un conjunto de bloques de imagen, comprendiendo cada bloque de imagen una imagen 2D sintetizada de una parte del tejido de mama obtenida a partir de un
subconjunto respectivo del conjunto de cortes de imagen reconstruidos. El sistema puede comprender además al menos un monitor de visualización de imágenes, en el que el ordenador de procesamiento de imágenes está configurado además para hacer que se visualicen en el mismo monitor de visualización o en uno diferente del uno o más monitores de visualización uno o más bloques de imagen del conjunto generado de bloques de imagen. En diversas realizaciones, el ordenador de procesamiento de imágenes está configurado además para generar un archivo de almacenamiento que comprende el conjunto generado de bloques de imagen.
En una realización, el ordenador de procesamiento de imágenes está configurado para generar cada bloque de imagen del conjunto a partir de un número predeterminado de cortes de imagen reconstruidos sucesivos, en el que bloques de imagen adyacentes del conjunto incluyen un número de superposiciones predeterminado de cortes de imagen reconstruidos sucesivos. En otra realización, el ordenador de procesamiento de imágenes está configurado para generar cada bloque de imagen del conjunto a partir de un número introducido por el usuario de cortes de imagen reconstruidos sucesivos, en el que bloques de imagen adyacentes del conjunto incluyen un número de superposiciones introducido por el usuario de cortes de imagen reconstruidos sucesivos. En una realización, se generan bloques respectivos a partir de seis bloques de imagen sucesivos, y en el que bloques de imagen adyacentes del conjunto incluyen una superposición de tres cortes de imagen reconstruidos sucesivos.
En diversas realizaciones, los bloques de imagen un mecanismo de mejora que se selecciona o se modifica basándose en varios cortes de imagen reconstruidos a partir de los cuales se genera el bloque de imagen respectivo. A modo de ejemplo no limitativo, el mecanismo de mejora puede seleccionarse o modificarse basándose en un valor correspondiente al número de cortes de imagen reconstruidos a partir de los cuales se genera el bloque de imagen respectivo. A modo de otro ejemplo no limitativo, el mecanismo de mejora puede comprender resaltar uno o más objetos o regiones en uno o más bloques de imagen del conjunto. En diversas realizaciones, el mecanismo de mejora tiene en cuenta uno o más de: (i) un mapa binario de las regiones o los objetos resaltados respectivos; (ii) un mapa de cada corte de imagen que incluye una distribución de probabilidades para un patrón identificado en las regiones o los objetos resaltados respectivos; y (iii) la importación de una región o un objeto identificado desde un corte de imagen del subconjunto respectivo de cortes de imagen reconstruidos en el bloque de imagen, en el que la región o el objeto se importa en el bloque de imagen en ubicaciones de coordenadas X, Y correspondientes a las ubicaciones de coordenadas X, Y de la región o el objeto en el corte de imagen reconstruido respectivo.
En otra realización, un método para procesar datos de imagen de tejido de mama incluye obtener datos de imagen de tejido de mama, procesar los datos de imagen para generar un conjunto de cortes de imagen reconstruidos, representando los cortes de imagen reconstruidos colectivamente el tejido de mama, y procesar subconjuntos respectivos de los cortes de imagen reconstruidos para generar un conjunto de bloques de imagen, incluyendo cada bloque de imagen del conjunto una imagen 2D sintetizada de una parte del tejido de mama obtenida a partir de un subconjunto respectivo del conjunto de cortes de imagen reconstruidos. En algunas realizaciones, los bloques se generan a partir de un número predeterminado de cortes de imagen sucesivos, y los bloques de imagen sucesivos se generan a partir de una superposición predeterminada de cortes de imagen. En otras realizaciones, los bloques se generan a partir de un número introducido por el usuario de cortes de imagen sucesivos, y pueden generarse bloques de imagen sucesivos a partir de una superposición introducida por el usuario de cortes de imagen. En una realización, se generan bloques respectivos a partir de seis bloques de imagen sucesivos, y en el que bloques de imagen adyacentes del conjunto incluyen una superposición de tres cortes de imagen reconstruidos sucesivos.
En diversas realizaciones, los bloques de imagen se generan usando un mecanismo de mejora (es decir, una función de procesamiento/síntesis de imágenes) que se selecciona o se modifica basándose en varios cortes de imagen reconstruidos a partir de los cuales se genera el bloque de imagen respectivo. El mecanismo de mejora puede seleccionarse o modificarse basándose en un valor determinado anteriormente correspondiente al número de cortes de imagen reconstruidos a partir de los cuales se genera el bloque de imagen respectivo. El mecanismo de mejora puede seleccionarse o modificarse basándose en un valor determinado basándose en el número de cortes de imagen reconstruidos a partir de los cuales se genera el bloque de imagen respectivo. El mecanismo de mejora puede incluir resaltar objeto(s) y/o regiones en los bloques de imagen respectivos. El mecanismo de mejora puede tener en cuenta un mapa binario de la región o el objeto. El mecanismo de mejora puede tener en cuenta un mapa de cada corte de imagen reconstruido que incluye una distribución de probabilidades para un patrón identificado en el objeto o la región. El mecanismo de mejora puede incluir importar una región o un objeto identificado desde un corte de imagen reconstruido del subconjunto respectivo en el bloque de imagen. A modo de ejemplo no limitativo, el/los objeto(s) o la región/las regiones puede(n) importarse en el bloque de imagen en ubicaciones de coordenadas X, Y correspondientes a las ubicaciones de coordenadas X, Y de la región/las regiones o el/los objeto(s) respectivo(s) en el/los corte(s) de imagen reconstruido(s) respectivo(s).
Aún en otra realización, un método para procesar datos de imagen de tejido de mama incluye (i) obtener datos de imagen de tejido de mama, (ii) procesar los datos de imagen para generar un conjunto de cortes de imagen reconstruidos que representan colectivamente el tejido de mama, (iii) visualizar una pluralidad de cortes de imagen reconstruidos por parte de un usuario, (iv) recibir entrada de usuario que identifica un corte de imagen del conjunto, y (v) procesar un subconjunto de los cortes de imagen para generar un bloque de imagen que comprende una imagen 2D sintetizada de una parte del tejido de mama obtenida a partir del subconjunto de cortes de imagen reconstruidos, incluyendo el corte de imagen identificado por el usuario. A modo de ejemplo no limitativo, el bloque puede
generarse a partir de un número introducido por el usuario de cortes de imagen sucesivos. El método también puede incluir procesar subconjuntos respectivos de los cortes de imagen reconstruidos para generar un número de bloques de imagen introducido por el usuario, incluyendo cada bloque de imagen una imagen 2D sintetizada de una parte del tejido de mama obtenida a partir del subconjunto respectivo de cortes de imagen reconstruidos, y en el que se generan bloques de imagen sucesivos de la pluralidad a partir de una superposición introducida por el usuario de cortes de imagen reconstruidos.
Estos y otros aspectos y realizaciones se describen con más detalle a continuación, junto con las figuras adjuntas.
Breve descripción de las figuras
Los dibujos ilustran el diseño y la utilidad de ciertas realizaciones, en los que se hace referencia a elementos similares mediante números de referencia comunes. Estos dibujos no están necesariamente dibujados a escala. Con el fin de apreciar mejor cómo se obtienen las ventajas y objetos mencionados anteriormente y otros, se presentará una descripción más particular de las realizaciones, que se ilustran en los dibujos adjuntos. Estos dibujos representan solo realizaciones típicas y, por tanto, no deben considerarse limitativas del alcance de protección. La figura 1 es un diagrama de bloques que ilustra el flujo de datos a través de un sistema que incluye un sistema de adquisición de mamografía/tomosíntesis de combinación y/o un sistema de adquisición sólo de tomosíntesis para adquirir imágenes de tomosíntesis y/o mamografía (incluyendo mamografía de contraste) de una mama femenina, e incluye además uno o más procesadores que implementan la tecnología de fusión de imágenes de las enseñanzas dadas a conocer para proporcionar una imagen sintetizada bidimensional mediante la importación de los datos más relevantes desde las imágenes fuente 2D y/o 3D adquiridas en una o más imágenes 2D fusionadas para su visualización por parte de un usuario (por ejemplo, un profesional médico, incluyendo un radiólogo);
la figura 2 es un diagrama que ilustra el flujo de datos de una serie de cortes Tr reconstruidos a través de la tecnología de fusión de imágenes para generar un bloque de imagen IFUSIÓN sintetizado y un mapa de fusión correspondiente (“índice” o “guía”);
la figura 3 representa una realización de una imagen fusionada visualizada, en la que determinados límites de región se identifican de manera dinámica durante la creación de una imagen de fusión;
la figura 4 es un diagrama de flujo que ilustra etapas a modo de ejemplo realizadas durante un procedimiento de fusión de imágenes según una realización;
las figuras 5A y 5B ilustran una realización de una visualización de una imagen fusionada, y una visualización resultante de una imagen fuente en respuesta a la selección de una región en la imagen fusionada por un usuario; la figura 6 representa una interfaz de usuario a modo de ejemplo, que incluye un monitor de lado izquierdo que muestra una imagen 2D sintetizada de la mama de una mujer, que incluye una estructura tisular resaltada, en la que la zona resaltada está en forma de una línea de contorno que representa un límite de la estructura tisular resaltada, y un monitor de lado derecho que muestra la imagen de tomosíntesis desde la que se importó la estructura tisular resaltada en la imagen 2D, o que proporciona de otro modo la mejor vista de la estructura tisular resaltada;
la figura 7 representa la interfaz de usuario de la figura 6, que muestra de nuevo una imagen 2D sintetizada de la mama de una mujer que incluye una masa espiculada resaltada en el monitor de la izquierda, y un monitor de lado derecho que muestra la imagen de tomosíntesis desde la que se importó la masa espiculada representada en la imagen 2D, o que proporciona de otro modo la mejor vista de la masa espiculada;
la figura 8 representa la interfaz de usuario de la figura 7, que incluye la misma imagen de mama mostrada en el monitor de lado izquierdo, pero resaltando ahora una región que contiene microcalcificaciones, mostrando el monitor de lado derecho la imagen de tomosíntesis desde la que se importó la región resaltada que contiene las microcalcificaciones en la imagen 2D, o que proporciona de otro modo la mejor vista de las microcalcificaciones; y la figura 9 es un diagrama que ilustra el flujo de datos de una serie de cortes Tr reconstruidos a través de la tecnología de fusión de imágenes para generar una pluralidad de bloques de imagen IFUSIÓN sintetizados.
Descripción detallada de las realizaciones ilustradas
Se supone que todos los valores numéricos en el presente documento están modificados por los términos “alrededor de” o “aproximadamente,” se indique o no explícitamente. Los términos “alrededor de” y “aproximadamente” se refieren en general a un intervalo de números que un experto habitual en la técnica consideraría equivalente al valor citado (es decir, que tiene la misma función o resultado). En muchos casos, los términos “alrededor de” y “aproximadamente” pueden incluir números que se redondean a la cifra significativa más cercana. La mención de intervalos numéricos por puntos finales incluye todos los números dentro de ese intervalo (por ejemplo, de 1 a 5 incluye 1, 1,5, 2, 2,75, 3, 3,80, 4 y 5).
Tal como se usa en esta memoria descriptiva y en las reivindicaciones adjuntas, las formas en singular “un”, “una” y “el/la” incluyen referentes en plural, a menos que el contenido indique claramente otra cosa. Tal como se usa en esta memoria descriptiva y en las reivindicaciones adjuntas, el término “o” se emplea generalmente en su sentido que incluye “y/o” a menos que el contenido indique claramente otra cosa. Al describir las realizaciones representadas tal como se ilustran en las figuras adjuntas, se emplea terminología específica por motivos de claridad y facilidad de descripción. Sin embargo, la divulgación de esta memoria descriptiva de patente no pretende limitarse a la terminología específica así seleccionada, y debe entenderse que cada elemento específico incluye todos los equivalentes técnicos que operan de manera similar. Debe entenderse además que los diversos elementos y/o características de diferentes realizaciones ilustrativas pueden combinarse entre sí y/o sustituirse entre sí siempre que sea posible dentro del alcance de esta divulgación y las reivindicaciones adjuntas.
A continuación en el presente documento se describen diversas realizaciones con referencia a las figuras. Cabe señalar que las figuras no están dibujadas a escala y que elementos de estructuras o funciones similares se representan mediante números de referencia similares en todas las figuras. Cabe señalar también que las figuras sólo están destinadas a facilitar la descripción de las realizaciones. No pretenden ser una descripción exhaustiva de las enseñanzas. Además, no es necesario que una realización ilustrada tenga todos los aspectos o ventajas mostrados. Una ventaja, característica o aspecto descrito junto con una realización particular no se limita necesariamente a esa realización y puede ponerse en práctica en cualquier otra realización aunque no se ilustre de ese modo.
Para las siguientes abreviaturas y términos definidos se aplicarán estas definiciones a lo largo de esta memoria descriptiva de patente y las reivindicaciones adjuntas, a menos que se facilite una definición diferente en las reivindicaciones o en otra parte de esta memoria descriptiva:
Imagen adquirida se refiere a una imagen generada al visualizar el tejido de mama de una mujer. Las imágenes adquiridas pueden generarse mediante la radiación procedente de una fuente de radiación que incide sobre un detector de radiación dispuesto en lados opuestos del tejido de mama, como en una mamografía convencional. Imagen reconstruida se refiere a una imagen generada a partir de datos derivados de una pluralidad de imágenes adquiridas. Una imagen reconstruida simula una imagen adquirida no incluida en la pluralidad de imágenes adquiridas.
Imagen sintetizada se refiere a una imagen artificial generada a partir de datos derivados de una pluralidad de imágenes adquiridas y/o reconstruidas. Una imagen sintetizada incluye elementos (por ejemplo, objetos y regiones) de las imágenes adquiridas y/o reconstruidas, pero no corresponde necesariamente a una imagen que puede adquirirse durante la visualización. Las imágenes sintetizadas son herramientas de análisis construidas.
Mp se refiere a una mamografía convencional o mamografía mejorada por contraste, que son imágenes de proyección bidimensionales (2D) de una mama, y abarca tanto una imagen digital adquirida por un detector de pantalla plana u otro dispositivo de obtención de imágenes, como la imagen después del procesamiento convencional para prepararla para su visualización (por ejemplo, por parte de un profesional sanitario), almacenamiento (por ejemplo, en el sistema PACS de un hospital) y/u otro uso.
Tp se refiere a una imagen que de manera similar es bidimensional (2D), pero que se adquiere en un ángulo de tomosíntesis respectivo entre la mama y el origen de los rayos X de obtención de imágenes (normalmente el punto focal de un tubo de rayos X), y abarca la imagen tal como se adquirió, así como los datos de imagen después de procesarse para visualización, almacenamiento y/u otro uso.
Tr se refiere a una imagen que se reconstruye a partir de imágenes de proyección de tomosíntesis Tp, por ejemplo, de la manera descrita en una o más de las patentes estadounidenses n.os 7.577.282, 7.606.801, 7.760.924 y 8.571.289, en el que una imagen de Tr representa un corte de la mama tal como aparecería en una imagen de rayos X de proyección de ese corte en cualquier ángulo deseado, no sólo en un ángulo usado para adquirir imágenes de Tp o Mp.
Ms se refiere a una imagen de proyección 2D sintetizada, que simula imágenes de mamografía, tales como imágenes craneocaudales (CC) u oblicuas mediolaterales (MLO), y se construye usando imágenes de proyección de tomosíntesis Tp, imágenes reconstruidas de tomosíntesis Tr o una combinación de las mismas. Las imágenes de Ms pueden proporcionarse para su visualización por parte de un profesional sanitario o para almacenarlas en el sistema PACS de un hospital u otra institución. Ejemplos de métodos que pueden usarse para generar imágenes de Ms se describen en las patentes estadounidenses mencionadas anteriormente n.os 7.760.924 y 8.571.289.
Ifusión se refiere a una imagen 2D sintetizada construida mediante la importación en una sola imagen de uno o más objetos y/o regiones procedentes de dos o más de imágenes de Mp, Ms, Tp o Tr de la mama de una mujer, en la que una imagen desde la que se importa un objeto o una región en la imagen fusionada comprende una imagen fuente para ese objeto o región, y en la que los objetos o regiones se importan en la imagen fusionada en las
ubicaciones de coordenadas X, Y correspondientes a las ubicaciones de coordenadas X, Y de los objetos o regiones en su imagen fuente respectiva. Ejemplos de métodos que pueden usarse para generar imágenes Ifusión se describen en las solicitudes PCT n.os PCT/US2012/066526 y PCT/US2013/025993.
Los términos IFUSIÓN, Tp, Tr, Ms y Mp abarcan cada uno información, en cualquier forma, que es suficiente para describir la imagen respectiva para su visualización, procesamiento adicional o almacenamiento. Las imágenes IFUSIÓN, Mp, Ms. Tp y Tr respectivas se proporcionan normalmente en forma digital antes de visualizarse, estando definida cada imagen por información que identifica las propiedades de cada píxel en una matriz bidimensional de píxeles. Los valores de píxel se refieren normalmente a las respuestas a los rayos X medidas, estimadas o calculadas respectivas de volúmenes correspondientes en la mama, es decir, vóxeles o columnas de tejido. En una realización, la geometría de las imágenes de tomosíntesis (Tr y Tp), las imágenes de mamografía (Ms y Mp) y las imágenes fusionadas (Ifusión) se corresponde con un sistema de coordenadas común, tal como se describe en la patente estadounidense n.° 7.702.142. A menos que se especifique de otro modo, se supone que dicha correspondencia del sistema de coordenadas se implementa con respecto a las realizaciones descritas en la descripción detallada que sigue de esta memoria descriptiva de patente.
Los términos “generar una imagen” y “transmitir una imagen” se refieren respectivamente a generar y transmitir información que es suficiente para describir la imagen para su visualización. La información generada y transmitida normalmente es información digital.
La figura 1 ilustra el flujo de datos en un sistema de generación y visualización de imágenes a modo de ejemplo, que incorpora tecnología fusionada de generación y visualización de imágenes. Debe entenderse que aunque la figura 1 ilustra una realización particular de un diagrama de flujo con determinados procedimientos que tienen lugar en un orden en serie particular o en paralelo, las reivindicaciones y otras realizaciones diversas no se limitan al desempeño de las etapas de procesamiento de imágenes en ningún orden particular, a menos que se especifique de ese modo.
Más particularmente, el sistema de generación y visualización de imágenes incluye un sistema 1 de adquisición de imágenes que adquiere datos de imágenes de tomosíntesis para generar imágenes de Tp de la(s) mama(s) de una mujer, usando los métodos de adquisición tridimensionales y/o de tomosíntesis respectivos de cualquiera de los sistemas disponibles actualmente. Si el sistema de adquisición es un sistema combinado de tomosíntesis/mamografía, también pueden generarse imágenes de Mp. Algunos sistemas de tomosíntesis dedicados o sistemas combinados de tomosíntesis/mamografía pueden adaptarse para aceptar y almacenar imágenes de mamografías preexistentes (indicadas mediante una línea discontinua y la leyenda Mppreexistente en la figura 1) en un dispositivo 2 de almacenamiento, que es preferiblemente un dispositivo de almacenamiento de Sistema de Comunicación y Archivo de Imágenes (PACS) compatible con DICOM. Después de la adquisición, las imágenes de proyección de tomosíntesis Tp también pueden transmitirse al dispositivo 2 de almacenamiento (tal como se muestra en la figura 1).
Las imágenes de Tp se transmiten desde el sistema 1 de adquisición, o desde el dispositivo 2 de almacenamiento, o ambos, a un sistema informático configurado como un motor 3 de reconstrucción que reconstruye las imágenes de Tp en “cortes” de imagen reconstruida Tr, que representan cortes de mama de grosor seleccionado y en orientaciones seleccionadas, tal como se describe en las patentes y solicitudes mencionadas anteriormente. El sistema 1 de obtención de imágenes y visualización incluye además un sintetizador 42D que opera sustancialmente en paralelo con el motor de 3 reconstrucción para generar imágenes 2D que simulan mamografías tomadas en cualquier orientación (por ejemplo, CC o MLO) usando una combinación de una o más imágenes de Tp y/o Tr. Las imágenes 2D sintetizadas pueden generarse dinámicamente antes de la visualización (tal como se muestra en la figura 1) o pueden almacenarse en el sistema 2 de almacenamiento para su uso posterior. Las imágenes 2D sintetizadas se denominan indistintamente como Ifusión, T2d y Ms. El motor 3 de reconstrucción y el sintetizador 4 2D están conectados preferiblemente a un sistema 5 de visualización a través de un enlace de transmisión rápida. Las imágenes de Mp y/o Tp adquiridas originalmente también pueden enviarse al sistema 5 de visualización para la visualización simultánea o alterna con las imágenes de Ifusión, Tr y/o Ms respectivas por parte de un usuario.
Están dispuestos filtros 7a, 7b de modo entre la adquisición de imágenes y la visualización de imágenes. Cada uno de los filtros 7a y 7b puede incluir adicionalmente filtros personalizados para cada tipo de imagen (es decir, Tp, Mp y Tr) dispuestos para identificar y resaltar determinados aspectos de los tipos de imagen respectivos. De esta manera, cada modo de obtención de imágenes puede ajustarse o configurarse de manera óptima para un fin específico. El ajuste o la configuración puede ser automática, basándose en el tipo de imagen, o puede definirse mediante entrada manual, por ejemplo, a través de una interfaz de usuario acoplada a una pantalla. En la realización ilustrada de la figura 1, los filtros 7a y 7b se seleccionan para resaltar características particulares de las imágenes que mejor se visualizan en los modos de obtención de imágenes respectivos, por ejemplo, dirigidos a resaltar masas o calcificaciones, o para hacer que las imágenes fusionadas (descritas a continuación) parezcan ser un tipo de imagen particular, tal como un corte reconstruido 3D o una mamografía 2D.
Según una realización de la presente divulgación, y tal como se describe con mayor detalle en el presente documento, el sistema 1 incluye un procesador 6 de fusión de imágenes que fusiona datos de imagen relevantes obtenidos de un conjunto de imágenes fuente y sintetizadas disponibles de la(s) mama(s) de una mujer para
proporcionar una o más imágenes 2D fusionadas (“bloque” o Ifusión) para su visualización. El conjunto de imágenes disponibles usadas para generar las imágenes fusionadas (“bloque” o Ifusión) puede incluir imágenes de Ms, Mp, Tr y/o Tp filtradas y/o sin filtrar. Mientras que la figura 1 representa todos estos tipos de imágenes que se introducen en el procesador 6 de fusión de imágenes, también se prevé que las imágenes fusionadas pueden configurarse manualmente. Por ejemplo, puede proporcionarse y configurarse una interfaz de usuario o configuración preestablecida para permitir que un usuario seleccione un grupo particular de dos o más imágenes o tipos de imágenes para generar un “bloque” o Ifusión de imágenes 2D sintetizadas para su visualización.
A modo de ilustración, un usuario, tal como un radiólogo u otro profesional médico, puede desear fusionar dos o más cortes de tomosíntesis reconstruidos (Tr) con el fin de proporcionar una imagen fusionada que muestra las estructuras más fáciles de discernir en los datos de imagen de tomosíntesis colectivos en una imagen 2D sintetizada visualizada (“bloque” o Ifusión), que mapea esencialmente los cortes de tomosíntesis con una granularidad de píxeles. Adicional o alternativamente, el usuario puede combinar una imagen de mamografía 2D, ya sea Mp o Ms, con una proyección 3D (Tp), o con imágenes reconstruidas seleccionadas (Tr), con el fin de obtener una imagen fusionada personalizada (“bloque” o Ifusión) que resalta tanto calcificaciones como diversas estructuras tisulares de la mama. Los filtros aplicados a cada tipo de imagen pueden resaltar adicionalmente los tipos de estructuras o características en una imagen fusionada que generalmente son más prevalentes o más fáciles de discernir en el tipo de imagen fuente respectivo. Por tanto, puede aplicarse un tipo de filtro a las imágenes de mamografía para resaltar calcificaciones, mientras que puede aplicarse un filtro diferente a los cortes de tomosíntesis para resaltar masas, lo que permite que tanto las calcificaciones resaltadas como las masas tisulares resaltadas se visualicen en una sola imagen fusionada. Los filtros también pueden proporcionar una imagen fusionada con un aspecto y una sensación deseados; es decir, para hacer que una imagen fusionada parezca más como una imagen de tomosíntesis o mamografía.
El sistema 5 de pantalla puede formar parte de una estación de trabajo de adquisición convencional (por ejemplo, del sistema 1 de adquisición), o de una estación de revisión convencional (visualización múltiple) (no mostrada) que está físicamente alejada del sistema 1 de adquisición. En algunas realizaciones, puede usarse una pantalla conectada a través de una red de comunicación, por ejemplo, una pantalla de un ordenador personal o de una denominada tableta, teléfono inteligente u otro dispositivo portátil. En cualquier caso, la pantalla 5 del sistema puede visualizar preferiblemente imágenes Ifusión, Ms, Mp, Tr y/o Tp simultáneamente, por ejemplo, en monitores independientes uno al lado del otro de una estación de trabajo de revisión, aunque esta realización también puede implementarse con un solo monitor de visualización, alternando entre imágenes.
Para facilitar el procedimiento de detección/diagnóstico, los cortes de Tr se reconstruyen preferiblemente todos al mismo tamaño para su visualización, que puede ser el mismo que el tamaño de una imagen de Mp o Ms de la mama, o pueden reconstruirse inicialmente a tamaños determinados por la forma de abanico del haz de rayos X usado en la adquisición, y luego convertirse a ese mismo tamaño mediante interpolación y/o extrapolación apropiadas. De esta manera, pueden visualizarse imágenes de diferentes tipos y de diferentes fuentes con el tamaño y la resolución deseados. Por ejemplo, una imagen puede visualizarse en (1) modo de ajuste a puerto de visualización, en el que el tamaño del tamaño de imagen visualizada se maximiza de manera que todo el tejido de mama obtenido como imagen sea visible, (2) modo de tamaño real, en el que un píxel de visualización en la pantalla se corresponde con un píxel de la imagen, o (3) modo de tamaño correcto, en el que el tamaño de una imagen visualizada se ajusta para que coincida con el de otra imagen que se visualiza simultáneamente, o con el que la imagen visualizada se alterna o puede alternarse.
Por ejemplo, si se toman dos imágenes de la misma mama y no son del mismo tamaño, o no tienen la misma resolución, pueden tomarse medidas para aumentar o reducir el aumento de manera automática o selectivamente por parte del usuario (es decir, “acercar” o “alejar”) de una o ambas imágenes, de modo que parezcan tener el mismo tamaño cuando se visualizan simultáneamente, o cuando un usuario alterna entre las imágenes. Pueden usarse técnicas conocidas de interpolación, extrapolación y/o ponderación para realizar el proceso de redimensionamiento, y también puede usarse tecnología de procesamiento de imágenes conocida para hacer que otras características de las imágenes visualizadas sean similares de manera que se facilite la detección/el diagnóstico. Cuando se visualizan tales imágenes redimensionadas, según una realización, las imágenes fusionadas (“bloque” o Ifusión) se redimensionan automáticamente, en consecuencia.
Por tanto, el sistema 1, que se describe con fines de ilustración y no de limitación en esta memoria descriptiva de patente, puede recibir y visualizar selectivamente imágenes de proyección de tomosíntesis Tp, imágenes de reconstrucción de tomosíntesis Tr, imágenes de mamografía sintetizadas Ms y/o imágenes de mamografía Mp (incluyendo mamografía de contraste), o cualquiera o una subcombinación de estos tipos de imágenes. El sistema 1 emplea software para convertir (es decir, reconstruir) imágenes de tomosíntesis Tp en imágenes Tr, software para sintetizar imágenes de mamografía Ms y software para fusionar un conjunto de imágenes para proporcionar un conjunto de imágenes fusionadas (“bloques” o Ifusión) cada uno de los cuales visualiza, para cada región de la imagen fusionada, la característica más relevante en esa región entre todas las imágenes del conjunto de imágenes fuente. Para los fines de esta memoria descriptiva de patente, un objeto de interés o característica en una imagen fuente puede considerarse la característica “más relevante” para su inclusión en una imagen fusionada basándose en la aplicación de uno o más algoritmos de CAD a las imágenes fuente colectivas, en los que los algoritmos de
CAD asignan valores numéricos, ponderaciones o umbrales, a píxeles o regiones de las imágenes fuente respectivas basándose en características de interés y objetos identificados/detectados dentro de la región respectiva o entre las características o, en los casos en que las imágenes fusionadas se generan directamente a partir la imagen sintetizada sin ayuda de CAD, simplemente el valor de píxel, la ponderación u otro umbral asociado con un píxel o una región de la imagen. Los objetos y las características de interés pueden incluir, por ejemplo, lesiones espiculadas, calcificaciones y similares. Actualmente se conocen bien diversos sistemas y métodos para la detección computarizada de anomalías en imágenes radiográficas, tales como las descritas por Giger et al. en RadioGraphics, mayo de 1993, págs. 647-656; Giger et al. en Proceedings de SPIE, Vol. 1445 (1991), págs. 101 103; y las patentes estadounidenses n.os 4.907.156, 5.133.020, 5.343.390 y 5.491.627.
La figura 2 es un diagrama que ilustra gráficamente la fusión de datos de imagen de un conjunto de imágenes de reconstrucción de tomosíntesis (Tr), que comprende los cortes 10A a 10N de tomosíntesis, para generar una imagen 30 fusionada sintética (“bloque” o Ifusión). Para facilitar la descripción, no se muestran filtros en este ejemplo. El conjunto de datos de imagen de tomosíntesis (Tr) se envía al procesador 6 de comparación de regiones y fusión de imágenes, que evalúa cada una de las imágenes 10A-10N fuente para las que van a generarse una pluralidad de imágenes combinadas (es decir, ya sea automáticamente o basándose en un comando de usuario específico) con el fin de (1) identificar los objetos y las características de interés en cada imagen para aquellas que puedan considerarse la característica “más relevante” para su posible inclusión en una o más imágenes 30 fusionadas basándose en la aplicación de uno o más más algoritmos de CAD (tal como se describió anteriormente), (2) identificar regiones de píxel respectivas en las imágenes 10A-10N que contienen las características identificadas, y (3) luego comparar las imágenes región por región, buscando aquella imagen 10A-10N con los datos de visualización más deseables para cada región respectiva.
Tal como se comentó anteriormente, la imagen 10A-10N con los datos de visualización más deseables puede ser una imagen con el valor de píxel más alto, el valor de píxel más bajo, o a la que se ha asignado una ponderación o valor umbral basándose en la aplicación de un algoritmo de CAD a la imagen 10A-10N. Cuando se identifica la imagen 10A-10N con los datos de visualización más deseables para esa región, los píxeles de esa región se copian en la región correspondiente de una o más imágenes 30 fusionadas. Por ejemplo, tal como se muestra en la figura 2, la región 35Tr del corte 10A de tomosíntesis se copia en la región 351 de una imagen 30 fusionada. De manera similar, la región 36Tr del corte 10B de tomosíntesis se copia en la región 361 de la imagen 30 fusionada. Opcionalmente, el procesador 6 de comparación de regiones y fusión de imágenes puede generar un mapa 40 de índice que identifica las imágenes 10A, 10B fuente de los objetos 351, 361 en la imagen 30 fusionada. Aunque las regiones de la figura 2 se muestran como regiones de cuadrícula predefinidas, no es necesario que las regiones estén predefinidas de esta manera. Más bien, según una realización, los límites de las regiones pueden identificarse dinámicamente durante el proceso de comparación de regiones y generación de imágenes realizando comparaciones en granularidades de píxel o de múltiples píxeles.
En la realización mostrada en la figura 9, una pluralidad de imágenes 30 fusionadas (“bloques” o Ifusión) se sintetizan a partir de un conjunto o pila de imágenes 10 de Tr reconstruidas (“cortes”). Por ejemplo, se generan 11 bloques 30 de imagen fusionada a partir de una pila que incluye 60 cortes 101-1060 de Tr reconstruidos, que se divide en 11 subconjuntos superpuestos de cortes 10 de Tr (solo se muestran los cortes 101-1020 y los bloques 301-303 para mayor claridad). El primer bloque 301 de imagen fusionada se sintetiza a partir de los cortes 101-1010 de Tr, el segundo bloque 302 de imagen fusionada se sintetiza a partir de los cortes 106-1015 de Tr, el tercer bloque 303 de imagen fusionada se sintetiza a partir de los cortes 10n-1020 de Tr, etc. Este patrón se repite hasta el undécimo bloque 30n de imagen fusionada a partir de los cortes 1051-1060 de Tr. En esta realización, el patrón por defecto de bloques 30 de imagen fusionada incluye un grosor de 10 cortes (es decir, N = 10 en la figura 2) con una superposición de 5 cortes entre bloques 30 adyacentes. Para una pila que tiene varios cortes 10 de Tr no divisibles entre 10, los bloques 30 de imagen fusionada en un extremo de la pila pueden tener un número diferente de cortes 10 de Tr por bloque 30 y/o una superposición diferente con el bloque 30 adyacente.
Aunque la realización descrita anteriormente tiene un patrón por defecto específico de bloques 30 de imagen fusionada, dicha realización puede abarcar cualquier número de cortes 10 de Tr por bloque 30, cualquier cantidad de superposición entre bloques 30 adyacentes y cualquier tamaño de pila. A modo de ejemplos no limitativos: en una realización, hay seis cortes 10 Tr por bloque 30, con una superposición de tres cortes entre bloques adyacentes. En otra realización, hay ocho cortes de Tr por bloque 30, con una superposición de cuatro cortes entre bloques adyacentes. Todavía en otra realización, hay quince cortes 10 de Tr por bloque 30, con una superposición de diez cortes entre bloques adyacentes. En particular, no es necesario que la cantidad de cortes 10 de Tr superpuestos en bloques 30 adyacentes sea exacta o aproximadamente la mitad del tamaño de bloque respectivo, sino que puede ser cualquier número de cortes 10 de Tr seleccionado por el operador.
En otra realización, el sistema puede visualizar una interfaz de usuario configurada para recibir la entrada de un usuario. La entrada de usuario puede incluir varios cortes 10 de Tr por bloque 30, una cantidad de superposición entre bloques 30 adyacentes y un tamaño de pila. El sistema genera la pluralidad de bloques 30 basándose en la entrada del usuario. Aún en otra realización con una interfaz de usuario, la entrada de usuario puede incluir un número de corte de Tr (por ejemplo, 1026) y varios cortes (por ejemplo, cinco), y el sistema genera entonces un solo bloque 30 basándose en esta entrada del usuario. El bloque 30 se genera a partir de un subconjunto de cortes 10 de
Tr centrados en el corte de Tr correspondiente al número de corte de Tr proporcionado por el usuario con el número proporcionado de cortes en cada lado del corte de Tr central (por ejemplo, 1020-1031). Aunque se han descrito dos tipos de entrada de usuario, las reivindicaciones abarcan otros tipos de entrada de usuario.
Todavía en otras realizaciones, el número de cortes 10 de Tr por bloque 30, la cantidad de superposición entre bloques 30 adyacentes y/o el tamaño de pila respectivo son valores preestablecidos, y los bloques se generan automáticamente según los valores preestablecidos sin requerir entrada de usuario. En algunas de tales realizaciones de “mapeo automático”, todavía puede ser posible que el usuario anule cualquiera de los valores preestablecidos de tamaño de bloque, cantidad de superposición de cortes y tamaño de pila.
La figura 3 ilustra una imagen 50 fusionada, que se ha construido a través de las combinaciones de numerosas regiones 52 de diferentes imágenes fuente (cortes TrA, TrB, Trf y TrX de tomosíntesis Tr), en límites de región arbitrarios, por ejemplo, que pueden identificarse según la detección de características particulares dentro de las imágenes fuente TrA, TrB, Trf y TrX respectivas. Aunque las imágenes 30 y 50 fusionadas representadas en las figuras 2 y 3 se generan a partir de imágenes de reconstrucción de tomosíntesis o “cortes” (Tr), pueden generarse imágenes fusionadas a partir de imágenes de proyección de tomosíntesis Tp, imágenes de reconstrucción de tomosíntesis Tr, imágenes de mamografía sintetizadas Ms y/o imágenes de mamografía Mp (incluyendo mamografía de contraste).
La figura 4 es un diagrama de flujo proporcionado para ilustrar etapas a modo de ejemplo que pueden realizarse en un proceso de fusión de imágenes llevado a cabo según una realización. En la etapa 62, se adquiere un conjunto de datos de imagen. El conjunto de datos de imagen puede adquirirse mediante un sistema de adquisición de tomosíntesis, un sistema de combinación de tomosíntesis/mamografía o recuperando datos de imagen preexistentes de un dispositivo de almacenamiento, ubicado ya sea local o remotamente en relación con un dispositivo de visualización de imágenes. En la etapa 64, un usuario puede seleccionar opcionalmente un modo de fusión, en el que el usuario puede designar (1) qué imágenes van a usarse para el conjunto de imágenes fuente para generar una o más imágenes fusionadas, (2) si resaltar determinadas características en las imágenes fusionadas, tales como calcificaciones, lesiones espiculadas o masas, y (3) si visualizar la imagen como una imagen de tomosíntesis de menor resolución, etc. En la etapa 66, las imágenes que van a fusionarse para generar las imágenes fusionadas se mapean en un sistema de coordenadas común, por ejemplo, tal como se describe en la patente estadounidense n.° 7.702.142 a la que se ha hecho referencia anteriormente. Alternativamente, pueden usarse otros métodos para hacer coincidir imágenes de diferentes sistemas de coordenadas. En la etapa 72, comienza el proceso de comparar regiones entre las diferentes imágenes. En la etapa 74, cada región de Ifusión se rellena con los píxeles de la región de una imagen del conjunto de imágenes fuente que tiene los píxeles, el valor o el patrón más deseables. El proceso de rellenar regiones continúa hasta que se determina, en la etapa 76, que se han evaluado todas las regiones, momento en el que las imágenes fusionadas están listas para su visualización.
Una vez que se generan las imágenes fusionadas, pueden usarse para ayudar en la navegación a través de una pila de datos de imagen de tomosíntesis a partir de la cual se generó la imagen fusionada. Tal navegación es un procedimiento de dos etapas que comprende la selección de diversos objetos de interés y la visualización de las imágenes de tomosíntesis correspondientes que son la fuente de tales objetos de interés en una o más de las imágenes fusionadas. A modo de ejemplo, la figura 5A y la figura 5B ilustran dos vistas de una pantalla 80. La primera vista de la pantalla 80 mostrada en la figura 5A ilustra una imagen 82 fusionada, que tiene regiones originadas por diferentes imágenes de un conjunto de imágenes adquiridas o sintetizadas. La figura 5B ilustra una característica particular, mediante la cual un usuario puede seleccionar una región o área 83 dentro de la imagen 82 fusionada, y la fuente 84 de imagen resultante para esa área se presenta al usuario.
Las realizaciones dadas a conocer pueden emplear muchos mecanismos diferentes para la selección de los objetos de interés y la visualización correspondiente de las imágenes fuente respectivas correspondientes; aunque debe entenderse que las realizaciones dadas a conocer no se limitan a las descritas en el presente documento. Por ejemplo, la selección de una región o área dentro de una imagen fusionada puede incluir una selección de una marca de CAD o, alternativamente una selección de una característica de interés particular para el revisor. La navegación por datos de imagen de tomosíntesis usando una imagen combinada se detalla en las solicitudes PCT n.os PCT/US2012/066526 y PCT/US2013/025993.
Se apreciará que los sistemas y métodos dados a conocer y descritos en esta memoria descriptiva de patente están diseñados para condensar la información de imagen disponible desde un volumen de reconstrucción de tomosíntesis (o “pila”) que contiene datos de imagen de mama en 3D hasta un conjunto de imágenes 2D sintetizadas. similares a las imágenes mamográficas 2D convencionales. Al revisar estas imágenes 2D sintetizadas simultáneamente con o sin la pila de tomosíntesis 3D, es posible proporcionar una revisión mucho más eficaz y precisa del tejido de mama. En realizaciones con revisión concurrente, las imágenes fusionadas 2D sintetizadas pueden actuar como un mapa de guía, de modo que el usuario que revisa las imágenes puede centrarse en las imágenes 2D sintetizadas para detectar cualquier objeto o región de interés que justifique una revisión adicional, y el sistema puede proporcionar navegación inmediata y automatizada a un corte de imagen de tomosíntesis “mejor” correspondiente (o un subconjunto de cortes de tomosíntesis adyacentes) para permitir que el usuario realice esta revisión adicional para verificar y evaluar el hallazgo. Por tanto, se prefiere, aunque no es necesario para poner en práctica todas las
realizaciones, que el usuario emplee una interfaz de usuario que pueda visualizar una imagen fusionada 2D sintetizada respectiva junto a los cortes de imagen de volumen de tomosíntesis, para la visualización simultánea de ambos.
La pluralidad de imágenes 2D y/o 3D a partir de las cuales se generan las imágenes 2D sintetizadas puede incluir imágenes de proyección de tomosíntesis, cortes de reconstrucción de tomosíntesis, imágenes de mamografía, imágenes de mamografía mejorada por contraste, imágenes 2D sintetizadas y combinaciones de las mismas. Se apreciará que las imágenes 2D sintetizadas incorporan ventajosamente la información más relevante de cada uno de los conjuntos de datos de imagen subyacentes adquiridos y generados por ordenador de la mama respectiva. Por tanto, pueden obtenerse diferentes regiones de píxeles en las imágenes 2d sintetizadas visualizadas de imágenes diferentes correspondientes en el conjunto de datos de imagen subyacente, dependiendo de qué imagen subyacente sea mejor para visualizar un objeto de interés, por ejemplo, una masa o una calcificación, en la región respectiva. Las regiones particulares pueden identificarse estáticamente, es decir, dentro de una cuadrícula particular, o dinámicamente, es decir, basándose en objetos de interés identificados, y pueden oscilar en granularidad desde tan solo un píxel hasta todos los píxeles en la imagen respectiva. En una realización, se da prioridad a importar primero en una imagen fusionada en construcción aquellas regiones que contienen una o más estructuras tisulares específicas de interés en las imágenes de un conjunto de datos de imagen de tomosíntesis (o “pila”), y luego rellenar las regiones restantes de la imagen fusionada con las regiones por lo demás más relevantes de las imágenes, tal como se describió anteriormente.
La interfaz de usuario puede incluir adicionalmente características para permitir que el usuario manipule los datos de tomosíntesis presentados, por ejemplo, para permitir que el usuario explore a través de cortes de imagen adyacentes de la pila de tomosíntesis, o para hacer acercar (ampliar) en una región seleccionada, para colocar marcadores, o alternativamente para aplicar filtros u otras técnicas de procesamiento de imágenes a los datos de la imagen. De esta manera, el usuario puede revisar rápidamente una gran pila de datos de tomosíntesis utilizando las imágenes 2D sintetizadas con fines de navegación, aumentando de ese modo el rendimiento y la eficiencia de la detección y el diagnóstico del cáncer de mama. Según otra realización, se ha determinado o apreciado de otro modo que tipos de imágenes particulares pueden incluir o ser superiores para visualizar diferentes tipos de información relevante. Por ejemplo, las calcificaciones generalmente se visualizan mejor en mamografías 2D, mientras que las masas normalmente se visualizan mejor usando imágenes reconstruidas 3D.
Por tanto, en una realización, se aplican diferentes filtros a cada uno de los diferentes tipos de imágenes subyacentes 2D y/o 3D en el conjunto de datos de imagen utilizado para generar las imágenes fusionadas, seleccionándose los filtros para resaltar características particulares de las imágenes que mejor se visualizan en los respectivos modos de imagen. El filtrado adecuado de las imágenes antes de generar las imágenes fusionadas ayuda a garantizar que las imágenes fusionadas finales incluyen la información más relevante que puede obtenerse de todos los tipos de imágenes subyacentes. Adicional y/o alternativamente, el tipo de filtrado realizado para las diversas imágenes puede definirse a través de la entrada del usuario, lo que permite que el usuario seleccione un “modo de fusión”, por ejemplo, dirigido a resaltar masas, calcificaciones o para hacer que las imágenes fusionadas. parezcan ser un tipo de imagen particular, tal como un corte reconstruido 3D o una mamografía 2D.
La síntesis de las imágenes 2D puede realizarse de diversas formas. Por ejemplo, en una realización, se usan algoritmos de filtrado de imágenes de uso general para identificar características dentro de cada una de las imágenes fuente 2D y 3D respectivas, y un usuario puede seleccionar si usar datos filtrados 2D y/o datos filtrados 3D para generar las imágenes fusionadas. Alternativamente, pueden seleccionarse automáticamente datos filtrados 2D o 3D según un modo de visualización particular que haya seleccionado el usuario; por ejemplo, el sistema puede seleccionar automáticamente datos filtrados 2D para el modo de visualización de calcificación, mientras que el sistema puede seleccionar automáticamente datos filtrados en 3D para los modos de visualización de masas. En una realización, pueden construirse dos conjuntos diferentes de imágenes fusionadas, uno para cada modo; alternativamente, puede construirse un único conjunto de imágenes fusionadas que tenga en cuenta los resultados de los datos de imagen filtrados respectivos de todos los tipos de imágenes disponibles.
En una realización, se identifican características (que representan posibles objetos de interés) en las imágenes fuente disponibles y después se ponderan, por ejemplo, píxel por píxel o región por región en cada imagen respectiva. Entonces se construye una imagen 2D incorporando las regiones respectivas que tienen la ponderación más significativa en imágenes individuales de las imágenes fuente disponibles. El tamaño de la región puede variar en granularidad de un píxel a muchos (o incluso todos) píxeles de la imagen respectiva, y puede estar predefinido estáticamente, o puede tener márgenes que varían según los umbrales variables de las imágenes fuente. La imagen sintetizada (también conocida como “fusionada”) puede procesarse previamente y almacenarse como un objeto de DICOM después de la adquisición de tomosíntesis y, posteriormente enviarse con los datos de reconstrucción para su posterior revisión por parte de un usuario. Tal disposición elimina la necesidad de enviar información de ponderación para cada corte reconstruido. Alternativamente, el objeto de DICOM almacenado puede incluir la información de ponderación, lo que permite que las imágenes fusionadas se construyan dinámicamente en respuesta a una solicitud de imágenes 2D sintetizadas en la estación de trabajo del usuario. En una realización, tanto la información de ponderación como la imagen 2D sintetizada pueden proporcionarse en el objeto de DICOM, lo que permite la presentación de un conjunto por defecto de imágenes fusionadas, al tiempo que todavía permite la
personalización según el flujo de trabajo personal del revisor. Para ser claros, la información de ponderación puede almacenarse con la propia imagen y no es necesario que sea un archivo independiente.
La ponderación o mejora de las características en las imágenes fuente puede modificarse basándose en el número de cortes Tr a partir de los cuales se generan bloques de IFUSIÓN. Por ejemplo, un factor, coeficiente, valor o ponderación usado para ponderar una característica en una imagen fuente puede dar como resultado una mayor ponderación de la característica en un corte de Tr cuando el bloque va a generarse a partir de 30 cortes, cuando se compara con la ponderación de la misma característica en el mismo corte de Tr cuando el bloque va a generarse a partir de 10 cortes. Además, la selección de características que se ponderarán puede modificarse basándose en el número de cortes de Tr a partir de los cuales se generan bloques de IFUSIÓN. Por ejemplo, pueden ponderarse o mejorarse más características cuando se generan más de un bloque a partir de más cortes. Los factores de ponderación pueden predeterminarse y almacenarse en una tabla de consulta en el sistema. Alternativamente, los factores de ponderación pueden determinarse empírica o matemáticamente a partir del número de cortes de Tr a partir de los cuales van a generarse bloques de IFUSIÓN. De esta manera, las características de los cortes de Tr fuente pueden mejorarse en los bloques de IFUSIÓN sintética. Los bloques de IFUSIÓN sintética pueden presentar información enriquecida al combinar características clínicamente relevantes de múltiples cortes de Tr y resaltarlas. Estos bloques pueden usarse para impulsar el procesamiento y análisis de imágenes adicional, y para proporcionar un rendimiento mejorado de revisión de datos y aumentar la eficiencia y el rendimiento.
Se comprende que la visualización de las imágenes 2D sintetizadas puede tener algunos inconvenientes. Por ejemplo, puede haber regiones vecinas en una imagen fusionada que presenten calcificaciones brillantes, pero que de hecho procedan de cortes de imagen que están distantes entre sí en el plano z. Por tanto, lo que puede parecer que es una agrupación de microcalcificaciones en una imagen 2D pueden ser de hecho calcificaciones individuales que se distribuyen (es decir, a lo largo del eje z) por toda la mama y, por tanto, en realidad no representan una agrupación de microcalcificaciones que requiere una revisión adicional. Por tanto, según otra realización, puede proporcionarse un “indicador de dispersión de agrupaciones” con la imagen 2D sintetizada, que indica visualmente la distribución de calcificaciones a lo largo del plano z, lo que permite al usuario evaluar rápidamente si un grupo de calcificaciones comprende una agrupación de calcificaciones.
Las imágenes 2D sintetizadas las visualiza el usuario del sistema descrito (por ejemplo, el profesional médico o el radiólogo), normalmente en una estación de trabajo que tiene monitores uno al lado del otro tal como se representa en la figura 5B. Dependiendo de cómo haya configurado el usuario la estación de trabajo, cuando se inicia la revisión de los datos de la imagen de la mama de una persona en particular, sólo pueden presentarse las imágenes 2D sintetizadas, por ejemplo, en el monitor de lado izquierdo, quedando el monitor de lado derecho en blanco, o quizás representando un corte de imagen primero o medio de la pila de tomosíntesis, preferiblemente dependiendo de una configuración que el usuario puede seleccionar. En una realización, el sistema visualizará inicialmente y en serie las imágenes 2D sintetizadas en el monitor de lado izquierdo, y la imagen “más relevante” de las imágenes de corte de tomosíntesis en el monitor de lado derecho, que el sistema determinó basándose en que el corte de tomosíntesis visualizado que tiene el aspecto más similar a cada imagen 2D sintetizada, o que tiene los objetos relativamente más interesantes, fuera de la pila de imágenes de tomosíntesis para todo el volumen de mama.
Tal como se señaló anteriormente, en diversas realizaciones, un objeto o región puede resaltarse automáticamente en la imagen 2D sintetizada y/o visualizarse al menos parte de una o más imágenes de la pluralidad. Adicional y/o alternativamente, puede resaltarse un objeto o región en la imagen 2D sintetizada y/o visualizarse al menos parte de la una o más imágenes de la pluralidad en respuesta a un comando de usuario recibido adicional o a determinada actividad del usuario detectada a través de la interfaz de usuario. A modo de ejemplo no limitativo, un objeto o región puede resaltarse mediante una línea de contorno que representa un límite de la región o el objeto resaltado. Preferiblemente, la región o el objeto se resalta de una manera que indica que la región o el objeto resaltado es o contiene un tipo específico de estructura tisular.
Mientras que el sistema procesa un subconjunto de cortes de Tr para generar un bloque de Ifusión, puede incorporar información adicional diseñada para seleccionar como objetivo/resaltar determinados objetos, lesiones o regiones. La información usada para seleccionar como objetivo/resaltar estos objetos puede importarse de diversas formas, tal como un mapa binario de regiones u objetos identificados, o como un mapa continuo que incluye la distribución de probabilidades para determinados patrones.
A modo de ilustración, la figura 6 representa una pantalla 122 de estación de trabajo a modo de ejemplo, que incluye un monitor 124 de lado izquierdo (“C-View”) que visualiza una imagen 132 de una pluralidad de imágenes 2d sintetizadas de la mama de una mujer. La imagen 1322D sintetizada incluye una estructura 134 tisular resaltada, en la que la zona resaltada está en forma de una línea de contorno que representa un límite de la estructura tisular. Esta zona resaltada puede haberla realizado automáticamente el sistema, por ejemplo, en el momento en que la imagen 1322D se visualiza inicialmente, o sólo en respuesta a una indicación o un comando de usuario específico, por ejemplo, al pasar un puntero sobre el objeto 134 en la imagen 1322D. La pantalla 122 de estación de trabajo también incluye un monitor 126 de lado derecho que visualiza la imagen 136 de tomosíntesis respectiva (que es el corte n.° 18 de la pila de volumen de tomosíntesis, tal como se indica en el lado inferior derecho del monitor 126), que es la imagen fuente o que proporciona de otro modo la vista más similar de la estructura 134 tisular resaltada tal
como se observa en la imagen 132 sintetizada. En particular, la interfaz de usuario asociada con la pantalla 122 permite que un usuario seleccione o indique de otro modo una ubicación en el imagen 132 2D sintetizada, por ejemplo, visualizando un puntero, una cruz, un círculo u otro objeto geométrico similar, y luego introduzca un tipo de comando determinado (por ejemplo, clic de ratón) que el sistema reconocerá como una petición del usuario para tener la fuente correspondiente o de otro modo el/los corte(s) de tomosíntesis más similares que representen la región u objeto subyacente al puntero visualizado en el monitor 126.
La figura 7 representa la pantalla 122 de estación de trabajo, en la que se visualiza una imagen 142 diferente de la pluralidad de imágenes de mama 2D sintetizadas en el monitor C-View de lado izquierdo. La imagen 142 2D sintetizada incluye una estructura 144 tisular resaltada, en la que la zona resaltada tiene una forma geométrica, en este caso un círculo, para indicar que el objeto 144 es una masa espiculada. De nuevo, esta zona resaltada puede haberla realizado automáticamente el sistema, por ejemplo, en el momento en que la imagen 1422D se visualiza inicialmente, o sólo en respuesta a una indicación o un comando de usuario específico, por ejemplo, al pasar un puntero sobre el objeto 144 en la imagen 142 2D. El monitor 126 de lado derecho visualiza la imagen 146 de tomosíntesis respectiva (que es el corte n.° 33 de la pila de volumen de tomosíntesis, tal como se indica en el lado inferior derecho del monitor 126), que es la imagen fuente o que proporciona de otro modo la vista más similar de la estructura 144 tisular resaltada tal como se observa en la imagen 132 sintetizada.
Debe apreciarse que habrá casos en los que el mapeo entre una región o un objeto en una imagen 2D fusionada a la región o el objeto respectivo en la imagen visualizada (es decir, la imagen fuente o “mejor”) puede no ser necesariamente de 1 a 1, y posiblemente será “de 1 a muchas” en determinadas circunstancias, por ejemplo, cuando múltiples estructuras de líneas en diferentes cortes de imagen de tomosíntesis se combinan entre sí para formar estructuras de cruce de líneas en la imagen 2D sintetizada. A modo de ejemplo, la figura 8 representa la pantalla 122 de estación de trabajo del usuario, que incluye la misma imagen 142 de mama 2D sintetizada que se visualiza en la figura 7, pero ahora resaltando una región 154 que contiene microcalcificaciones, mostrando el monitor de lado derecho el corte 156 de imagen de tomosíntesis (que es el corte n.° 29 de la pila de volumen de tomosíntesis, tal como se indica en el lado inferior derecho del monitor 126), desde la que se importó la región 154 resaltada en la imagen 142 2D, o que proporciona de otro modo la mejor vista de las microcalcificaciones. En particular, debido a que la estructura 144 de masa espiculada y la región 154 de microcalcificaciones están en proximidad muy cercana en la figura 8, puede resaltarse una diferente dependiendo de un comando de usuario específico (por ejemplo, para resaltar un tipo de tejido determinado), o mediante un ligero ajuste de la posición del puntero de la interfaz de usuario.
Los ejemplos descritos anteriormente con respecto a las figuras 6-8 se realizan fácilmente mediante mapas de índice o un mapa 3D completo construido al mismo tiempo (o después, dependiendo de la implementación del sistema) de que se generen las imágenes 2D sintetizadas, tal como se describe en las solicitudes PCT n.os PCT/US2012/066526 y PCT/US2013/025993. Alternativamente, si no hay un mapa de índice o un mapa 3D completo disponible, para cualquier ubicación/punto dado seleccionado/especificado por el usuario en la imagen 2D visualizada en el monitor 124 de lado izquierdo, el sistema puede ejecutar un algoritmo para calcular automáticamente la mejor imagen correspondiente (es decir, X, Y y Z) dentro de la pila de tomosíntesis para su visualización en el monitor 126 de lado derecho. Opcionalmente puede proporcionarse un “indicador de corte de tomosíntesis” en el monitor 124 de lado izquierdo, que indica qué número (números) de cortes de tomosíntesis se visualizaría(n) en el monitor 126 de lado derecho basándose en una ubicación actual de un cursor de usuario en la imagen 2D. Con esta característica, no es necesario que el usuario desvíe la atención cambiando constantemente las visualizaciones de imágenes en el monitor 126 de lado derecho, mientras que todavía se proporciona al revisor una comprensión de la ubicación en el eje z en la pila de volúmenes de tomosíntesis de un objeto particular en una imagen 2D.
Según una realización, las características disponibles de la interfaz de usuario pueden ampliarse para funcionar, no sólo basándose en un punto/ubicación en una imagen fusionada, sino también basándose, de manera similar, en una estructura/objeto/región en una imagen fusionada. Por ejemplo, los objetos o regiones particulares en una imagen fusionada pueden resaltarse automáticamente cuando se visualizan, basándose en el reconocimiento del sistema de un posible interés en los objetos respectivos, o de objetos ubicados en las regiones respectivas. En una realización, mostrada en la figura 8, esta zona resaltada está en forma de una línea 108 de contorno que representa un límite de una estructura tisular resaltada. De manera similar, puede usarse una línea de contorno para resaltar regiones de interés en la imagen visualizada, por ejemplo, que contienen varias estructuras de calcificación. En algunas realizaciones, el sistema está configurado para permitir que el usuario “dibuje” una línea de contorno en las imágenes fusionadas como un modo de seleccionar o indicar de otro modo una región o un objeto de interés para hacer que el sistema visualice simultáneamente una o más imágenes fuente subyacentes de la región o el objeto seleccionado o indicado.
En otras realizaciones, el sistema emplea técnicas de procesamiento de imágenes conocidas para identificar diferentes estructuras de tejido de mama en las diversas imágenes fuente y resaltarlas en las imágenes fusionadas, en particular, estructuras tisulares que comprenden o están relacionadas con objetos anómalos, tales como agrupaciones de microcalcificaciones, masas redondas o lobuladas, masas espiculadas, distorsiones estructurales, etc.; así como estructuras tisulares benignas que comprenden o están relacionadas con tejidos de mama normales,
tales como tejidos lineales, quistes, ganglios linfáticos, vasos sanguíneos, etc. Además, un objeto o una región que consiste en o que contiene un primer tipo de estructura tisular puede resaltarse de una primera manera en una imagen fusionada visualizada, y un objeto o una región que consiste o que contiene un segundo tipo de estructura tisular puede resaltarse de una segunda manera diferente de la primera manera en la imagen fusionada visualizada.
En diversas realizaciones, el usuario puede introducir un comando a través de la interfaz de usuario seleccionando o identificando de otro modo un determinado tipo de estructura tisular y, en respuesta al comando recibido, el sistema realiza uno o ambos de (i) resaltar automáticamente en una imagen fusionada visualizada objetos que comprenden el tipo seleccionado de estructura tisular y/o regiones que contienen uno o más objetos que comprenden el tipo seleccionado de estructura tisular, y (ii) visualizar automáticamente de manera simultánea el corte fuente respectivo (o por lo demás el corte con la mejor descripción de) una estructura tisular del tipo seleccionado en los datos de la imagen de mama, por ejemplo, la estructura más prominente del tipo de estructura tisular seleccionado basándose en una comparación, si se detecta más de uno en la pila de imágenes fuente. Por tanto, cuando el usuario “hace clic” en (o muy cerca de) un punto/agrupamiento de microcalcificaciones en una imagen 2D fusionada, y el sistema visualiza automáticamente de manera simultánea el corte de la imagen fuente de tomosíntesis (o por lo demás el mejor) que incluye la microcalcificación correspondiente en 3D. A modo de otro ejemplo, un usuario puede seleccionar (a través de la interfaz de usuario) una región en una imagen 2D fusionada que tiene el aspecto con patrones de líneas radiantes (a menudo una indicación de masas espiculadas), y el sistema mostrará simultáneamente el corte fuente de tomosíntesis 3D (o por lo demás el mejor), o quizás una serie de cortes de tomosíntesis consecutivos, para visualizar los patrones de líneas radiantes.
Las figuras 3 y 5-8 representan realizaciones en las que puede usarse un bloque de imagen, que se sintetiza a partir de un subconjunto de la pluralidad de cortes de imagen de tomosíntesis, para navegar por ese subconjunto de cortes de imagen de tomosíntesis. De manera similar, puede usarse un bloque de imagen sintetizado a partir de un apilamiento completo de cortes de imagen de tomosíntesis para navegar por un conjunto de bloques de imagen, cada uno de los cuales se genera a partir de subconjuntos respectivos de cortes de imagen de tomosíntesis. En un sistema de este tipo, cuando un usuario que revisa el bloque de imagen generado a partir de la pila completa de cortes de imagen de tomosíntesis identifica cualquier objeto o región de interés que justifique una revisión adicional, el sistema proporciona una navegación inmediata y automatizada al “mejor” bloque de imágenes correspondiente (o un subconjunto de bloques de imagen adyacentes) para permitir al usuario realizar esta revisión adicional para verificar y evaluar el hallazgo.
En diversas realizaciones, el usuario puede introducir un comando a través de la interfaz de usuario, activando la funcionalidad de visualización dinámica, en la que el sistema resalta automáticamente aquellos objetos y estructuras tisulares que corresponden (dinámicamente) a la ubicación de un dispositivo de entrada móvil de usuario en una imagen fusionada visualizada (por ejemplo, un puntero de ratón que se desplaza). En tales realizaciones, el sistema puede comprender además visualizar automáticamente de manera simultánea una imagen fuente respectiva de una estructura tisular seleccionada resaltada que corresponde a una ubicación dada de un dispositivo de entrada móvil de usuario en una imagen fusionada visualizada de nuevo sobre una base dinámica.
En una realización, el sistema puede activarse para proporcionar un cursor de “sombra” que se visualiza en el monitor 126 de lado derecho, en una ubicación correspondiente a la misma ubicación (X, Y) que el cursor real del usuario en el monitor 124 de lado izquierdo, de modo que al mover el cursor por la imagen 2D se mueve el cursor de sombra en la imagen de tomosíntesis en las mismas coordenadas X, Y. También se puede implementar lo inverso, es decir, con el cursor de usuario activo que puede operarse en el monitor 126 de la derecha y el cursor de mostrar en el monitor 124 de la izquierda. En una implementación, esta característica de visualización dinámica permite que el sistema siga el punto de interés del usuario, por ejemplo la ubicación del cursor del ratón en una imagen fusionada 2D y que se visualicen/resalten dinámicamente la región/las regiones más “significativa(s)” por debajo en tiempo real. Por ejemplo, el usuario puede mover el ratón (sin hacer clic en ningún botón) sobre un vaso sanguíneo y el sistema resaltará instantáneamente el contorno del vaso.
Según aún otra realización, el almacenamiento posterior a la revisión de los datos de imagen de mama se realiza a nivel de bloque, en lugar de al nivel de corte de Tr reconstruido individual, con el fin de reflejar los mismos datos de imagen que realmente revisó el usuario, y también para reducir en gran medida la capacidad de almacenamiento necesaria para almacenar los datos de imagen de mama. A modo de ejemplo, en una realización, el sistema puede visualizar una interfaz de usuario configurada para recibir la entrada de un usuario, que incluye varios cortes 10 de Tr por bloque 30, una cantidad de superposición entre bloques 30 adyacentes y un tamaño de pila. El sistema genera la pluralidad de bloques 30 basándose en la entrada del usuario, y el usuario visualiza entonces los bloques mostrados (o un subconjunto de los mismos) con el fin de estudiar los datos de imagen de mama. Una vez que se completa la revisión del usuario de los bloques visualizados, los datos de imagen se transmiten para su almacenamiento (por ejemplo, en el sistema PACS de un hospital) como un archivo que contiene sólo los bloques generados, y no la pila completa subyacente de cortes de imagen de Tr.
Habiéndose descrito realizaciones a modo de ejemplo, puede apreciarse que los ejemplos descritos anteriormente y representados en las figuras adjuntas son sólo ilustrativos, y que otras realizaciones y ejemplos también se abarcan dentro del alcance de las reivindicaciones adjuntas. Por ejemplo, aunque los diagramas de flujo proporcionados en
las figuras adjuntas son ilustrativos de etapas a modo de ejemplo, el procedimiento general de fusión de imágenes puede lograrse de diversas formas usando otros métodos de fusión de datos conocidos en la técnica. De manera similar, los diagramas de bloques del sistema son sólo representativos, ilustrando delineaciones funcionales que no deben considerarse requisitos limitativos de la presente divulgación. También será evidente para los expertos en la técnica que pueden realizarse diversos cambios y modificaciones a las realizaciones representadas y/o descritas (por ejemplo, las dimensiones de varias partes), y que diversas realizaciones pueden combinar elementos o componentes de las realizaciones dadas a conocer, incluso si no se ejemplifica expresamente en el presente documento en tal combinación. Por consiguiente, la memoria descriptiva y los dibujos deben considerarse en un sentido ilustrativo más que restrictivo, y el alcance de las invenciones debe definirse únicamente mediante las reivindicaciones.
Claims (9)
- REIVINDICACIONESi. Sistema para procesar imágenes de tejido de mama, que comprende un ordenador de procesamiento de imágenes configurado para obtener datos de imagen de tejido de mama y para procesar los datos de imagen para generar un conjunto de cortes de imagen reconstruidos (Tr), representando los cortes de imagen reconstruidos (Tr) colectivamente el tejido de mama, en el que el ordenador de procesamiento de imágenes está configurado además para procesar subconjuntos respectivos del conjunto de cortes de imagen reconstruidos (Tr) para generar un conjunto correspondiente de bloques de imagen (IFUSIÓN), comprendiendo cada bloque de imagen (IFUSIÓN) una imagen 2D sintetizada de una parte respectiva del tejido de mama, en el que subconjuntos respectivos de bloques de imagen (IFUSIÓN) se construyen a partir de cortes de imagen reconstruidos (Tr) sucesivos que comprenden o contienen una estructura tisular de interés identificada;caracterizado porque el ordenador de procesamiento de imágenes está configurado para generar dichos bloques de imagen (Ifusión):- identificando características de interés en el conjunto de cortes de imagen reconstruidos (Tr);- identificando regiones de píxel en los cortes de imagen reconstruidos (Tr) que contienen las características de interés identificadas;- comparando los cortes de imagen reconstruidos (Tr) región por región, buscando un corte de imagen reconstruido (Tr) con los datos de visualización más deseables para cada región respectiva; y- para cada corte de imagen reconstruido (Tr) con la visualización más deseable para una región respectiva, copiando los píxeles de dicha región respectiva en una región correspondiente de un bloque de imagen (Ifusión).
- 2. Sistema según la reivindicación 1, en el que el ordenador de procesamiento de imágenes está configurado para generar los bloques de imagen (Ifusión) a partir de subconjuntos superpuestos de cortes de imagen reconstruidos (Tr).
- 3. Sistema según cualquier reivindicación anterior, en el que los datos de visualización más deseables son un corte de imagen (Tr) con un valor de píxel más alto, un valor de píxel más bajo o un corte de imagen (Tr) que cumple una ponderación o valor umbral basándose en la aplicación de un algoritmo de CAD.
- 4. Sistema según cualquier reivindicación anterior, en el que la imagen 2D sintetizada respectiva de cada bloque de imagen (Ifusión) no corresponde a una imagen que se adquirió durante la obtención de imágenes del tejido de mama.
- 5. Sistema según cualquier reivindicación anterior, en el que el ordenador de procesamiento de imágenes está configurado para generar un mapa (40) para la imagen 2D sintetizada respectiva de cada bloque de imagen (Ifusión) que identifica los cortes de imagen reconstruidos (Tr) del subconjunto usado para generar el bloque de imagen respectivo (Ifusión) que incluye las estructuras tisulares de interés identificadas.
- 6. Sistema según cualquier reivindicación anterior, en el que el ordenador de procesamiento de imágenes está configurado para generar cada bloque de imagen (Ifusión) usando un mecanismo de mejora que se selecciona o se modifica basándose en un número de cortes de imagen reconstruidos (Tr) sucesivos contenidos en el subconjunto a partir del cual se genera el bloque de imagen (Ifusión).
- 7. Sistema según la reivindicación 6, en el que el mecanismo de mejora comprende resaltar una o más estructuras tisulares de interés en el bloque de imagen (Ifusión).
- 8. Sistema según cualquier reivindicación anterior, en el que la estructura tisular de interés se selecciona del grupo que comprende agrupaciones de microcalcificaciones, masas redondas o lobuladas, masas espiculadas, distorsiones estructurales, tejidos lineales, quistes, ganglios linfáticos y vasos sanguíneos.
- 9. Método para procesar imágenes de tejido de mama, que comprende: obtener datos de imagen de tejido de mama, procesar los datos de imagen para generar un conjunto de cortes de imagen reconstruidos (Tr), representando los cortes de imagen reconstruidos (Tr) colectivamente el tejido de mama, y procesar subconjuntos respectivos del conjunto de cortes de imagen reconstruidos (Tr) para generar un conjunto correspondiente de bloques de imagen (Ifusión), comprendiendo cada bloque de imagen (Ifusión) una imagen 2D sintetizada de una parte del tejido de mama, en el que subconjuntos respectivos de bloques de imagen (Ifusión) se construyen a partir de cortes de imagen reconstruidos (Tr) sucesivos que comprenden o contienen una estructura tisular de interés identificada;caracterizado porque dichos bloques de imagen (Ifusión) se generan:- identificando características de interés en el conjunto de cortes de imagen reconstruidos (Tr);- identificando regiones de píxel en los cortes de imagen reconstruidos (Tr) que contienen características de interés identificadas;- comparando los cortes de imagen reconstruidos (Tr) región por región, buscando un corte de imagen reconstruido (Tr) con los datos de visualización más deseables para cada región respectiva; y- para cada corte de imagen reconstruido (Tr) con la visualización más deseable para una región respectiva, copiando los píxeles de dicha región respectiva en una región correspondiente de un bloque de imagen (Ifusión).Método según la reivindicación 9, en el que los bloques de imagen (Ifusión) se construyen a partir de subconjuntos superpuestos de cortes de imagen reconstruidos (Tr).Método según la reivindicación 9 ó 10, en el que la imagen 2D sintetizada no corresponde a una imagen que se adquirió durante la obtención de imágenes del tejido de mama que produjo los datos de imagen. Método según cualquiera de las reivindicaciones 9-11, que comprende además: generar un mapa (40) para la imagen 2D sintetizada que identifica los cortes de imagen reconstruidos (Tr) del subconjunto que incluyen las estructuras tisulares de interés identificadas.Método según cualquiera de las reivindicaciones 9-12, en el que la estructura tisular de interés se selecciona del grupo que comprende agrupaciones de microcalcificaciones, masas redondas o lobuladas, masas espiculadas, distorsiones estructurales, tejidos lineales, quistes, ganglios linfáticos y vasos sanguíneos.
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201461946417P | 2014-02-28 | 2014-02-28 |
Publications (1)
Publication Number | Publication Date |
---|---|
ES2943561T3 true ES2943561T3 (es) | 2023-06-14 |
Family
ID=52633691
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
ES21168134T Active ES2943561T3 (es) | 2014-02-28 | 2015-02-26 | Sistema y método para generar y visualizar bloques de imagen de tomosíntesis |
ES18165965T Active ES2878599T3 (es) | 2014-02-28 | 2015-02-26 | Sistema y método para generar y visualizar bloques de imagen de tomosíntesis |
Family Applications After (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
ES18165965T Active ES2878599T3 (es) | 2014-02-28 | 2015-02-26 | Sistema y método para generar y visualizar bloques de imagen de tomosíntesis |
Country Status (9)
Country | Link |
---|---|
US (5) | US10111631B2 (es) |
EP (3) | EP3417786B1 (es) |
JP (3) | JP6506769B2 (es) |
KR (1) | KR102402887B1 (es) |
CN (1) | CN106061389B (es) |
AU (1) | AU2015222981B2 (es) |
CA (1) | CA2937379C (es) |
ES (2) | ES2943561T3 (es) |
WO (1) | WO2015130916A1 (es) |
Families Citing this family (31)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5554927B2 (ja) | 2006-02-15 | 2014-07-23 | ホロジック, インコーポレイテッド | トモシンセシスシステムを使用した乳房バイオプシおよびニードル位置特定 |
WO2011043838A1 (en) | 2009-10-08 | 2011-04-14 | Hologic, Inc . | Needle breast biopsy system and method of use |
US20120133600A1 (en) | 2010-11-26 | 2012-05-31 | Hologic, Inc. | User interface for medical image review workstation |
JP6057922B2 (ja) | 2011-03-08 | 2017-01-11 | ホロジック, インコーポレイテッドHologic, Inc. | スクリーニング、診断及び生検のための二重エネルギー及び/又は造影強化乳房撮像のためのシステム及び方法 |
JP2014534042A (ja) | 2011-11-27 | 2014-12-18 | ホロジック, インコーポレイテッドHologic, Inc. | マンモグラフィーおよび/またはトモシンセシス画像データを使用して2d画像を生成するためのシステムおよび方法 |
US9805507B2 (en) | 2012-02-13 | 2017-10-31 | Hologic, Inc | System and method for navigating a tomosynthesis stack using synthesized image data |
JP6388347B2 (ja) | 2013-03-15 | 2018-09-12 | ホロジック, インコーポレイテッドHologic, Inc. | 腹臥位におけるトモシンセシス誘導生検 |
AU2015222981B2 (en) | 2014-02-28 | 2019-01-31 | Hologic, Inc. | System and method for generating and displaying tomosynthesis image slabs |
JP6126058B2 (ja) * | 2014-09-30 | 2017-05-10 | 富士フイルム株式会社 | 画像表示装置、画像処理装置、放射線画像撮影システム、断層画像表示方法、及び断層画像表示プログラム。 |
EP3348195B1 (en) | 2015-09-10 | 2019-07-10 | FUJIFILM Corporation | Image processing device, radiation image image pickup system, image processing method, and image processing program |
KR102451377B1 (ko) * | 2015-10-08 | 2022-10-06 | (주)바텍이우홀딩스 | 깊이 정보를 강조하는 의료 영상 재구성 장치 및 방법 |
JP6708407B2 (ja) * | 2015-12-25 | 2020-06-10 | キヤノン株式会社 | 画像処理装置、画像処理方法およびプログラム |
WO2017149107A1 (en) * | 2016-03-03 | 2017-09-08 | Koninklijke Philips N.V. | Medical image navigation system |
US20180174294A1 (en) * | 2016-12-16 | 2018-06-21 | General Electric Company | Multi-Layer Color Display In Synthetic 2D Images |
CN110621231B (zh) * | 2017-03-30 | 2024-02-23 | 豪洛捷公司 | 用于分层次多级特征图像合成和表示的系统以及方法 |
WO2018183549A1 (en) * | 2017-03-30 | 2018-10-04 | Hologic, Inc. | System and method for synthesizing low-dimensional image data from high-dimensional image data using an object grid enhancement |
WO2018183550A1 (en) * | 2017-03-30 | 2018-10-04 | Hologic, Inc. | System and method for targeted object enhancement to generate synthetic breast tissue images |
JP6929696B2 (ja) * | 2017-05-02 | 2021-09-01 | キヤノンメディカルシステムズ株式会社 | X線診断装置及び画像処理装置 |
WO2018236565A1 (en) | 2017-06-20 | 2018-12-27 | Hologic, Inc. | METHOD AND SYSTEM FOR MEDICAL IMAGING WITH DYNAMIC SELF-LEARNING |
US10993689B2 (en) * | 2017-08-31 | 2021-05-04 | General Electric Company | Method and system for motion assessment and correction in digital breast tomosynthesis |
WO2019096600A1 (en) * | 2017-11-14 | 2019-05-23 | Koninklijke Philips N.V. | Single ct backprojector with one geometry calculation per voxel for multiple different types of projection data |
JP7033931B2 (ja) | 2018-01-17 | 2022-03-11 | 富士フイルム株式会社 | 画像処理装置、画像処理方法、及び画像処理プログラム |
EP3856033B1 (en) | 2018-09-28 | 2023-06-07 | Hologic, Inc. | Method for synthetic breast tissue image generation by high density element suppression |
EP3657442B1 (de) * | 2018-11-23 | 2022-10-26 | Siemens Healthcare GmbH | Synthetisches mammogramm mit aufgeprägtem bildeindruck |
WO2021157180A1 (ja) | 2020-02-04 | 2021-08-12 | 富士フイルム株式会社 | 画像設定装置、方法およびプログラム |
EP4101385A4 (en) | 2020-02-04 | 2023-07-19 | FUJIFILM Corporation | IMAGE ADJUSTMENT DEVICE, METHOD AND PROGRAM |
JP7321299B2 (ja) | 2020-02-04 | 2023-08-04 | 富士フイルム株式会社 | 画像設定装置、画像設定装置の作動方法および画像設定プログラム |
WO2021186957A1 (ja) * | 2020-03-18 | 2021-09-23 | 富士フイルム株式会社 | 画像処理装置、方法およびプログラム |
US20230031814A1 (en) * | 2021-07-28 | 2023-02-02 | GE Precision Healthcare LLC | Methods and systems for breast tomosynthesis |
US20230177686A1 (en) * | 2021-12-07 | 2023-06-08 | Real Time Tomography, Llc | Automated multi-class segmentation of digital mammogram |
WO2023139971A1 (ja) * | 2022-01-19 | 2023-07-27 | 富士フイルム株式会社 | 画像処理装置、画像処理方法、プログラム、及び機械学習方法 |
Family Cites Families (414)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4054402B2 (ja) | 1997-04-25 | 2008-02-27 | 株式会社東芝 | X線断層撮影装置 |
US3502878A (en) | 1967-09-22 | 1970-03-24 | Us Health Education & Welfare | Automatic x-ray apparatus for limiting the field size of a projected x-ray beam in response to film size and to source-to-film distance |
US7050611B2 (en) | 2001-05-29 | 2006-05-23 | Mevis Breastcare Gmbh Co. Kg | Method and computer system for screening of medical cases |
US3863073A (en) | 1973-04-26 | 1975-01-28 | Machlett Lab Inc | Automatic system for precise collimation of radiation |
US3971950A (en) | 1975-04-14 | 1976-07-27 | Xerox Corporation | Independent compression and positioning device for use in mammography |
US4160906A (en) | 1977-06-23 | 1979-07-10 | General Electric Company | Anatomically coordinated user dominated programmer for diagnostic x-ray apparatus |
DE2838901C2 (de) | 1978-09-06 | 1986-11-06 | Siemens AG, 1000 Berlin und 8000 München | Katapultrasterlade |
FR2512024A1 (fr) | 1981-08-27 | 1983-03-04 | Adir | Ethers tricycliques, leur preparation et les compositions pharmaceutiques les contenant |
FR2549248B1 (fr) | 1983-06-24 | 1986-01-31 | Thomson Csf | Porte-cassette escamotable pour appareil d'examen radiologique et radiographique |
DE3339775A1 (de) | 1983-11-03 | 1985-05-15 | Siemens AG, 1000 Berlin und 8000 München | Roentgendiagnostikgeraet mit strahlenfiltern |
SE8306243L (sv) | 1983-11-14 | 1985-05-15 | Cytex Medicinteknik Ab | Lokaliseringsmetodik |
JPS60129034A (ja) | 1983-12-16 | 1985-07-10 | 横河メディカルシステム株式会社 | X線断層撮像装置の操作卓 |
US4706269A (en) | 1985-03-11 | 1987-11-10 | Reina Leo J | Anti-scatter grid structure |
US4773087A (en) | 1986-04-14 | 1988-09-20 | University Of Rochester | Quality of shadowgraphic x-ray images |
USRE33634E (en) | 1986-09-23 | 1991-07-09 | Method and structure for optimizing radiographic quality by controlling X-ray tube voltage, current focal spot size and exposure time | |
US4821727A (en) | 1986-10-30 | 1989-04-18 | Elscint Ltd. | Mammographic biopsy needle holder system |
US4819258A (en) | 1986-11-28 | 1989-04-04 | Bennett X-Ray Corp. | Auto-setting of KV in an x-ray machine after selection of technic factors |
US4907156A (en) | 1987-06-30 | 1990-03-06 | University Of Chicago | Method and system for enhancement and detection of abnormal anatomic regions in a digital image |
US5051904A (en) | 1988-03-24 | 1991-09-24 | Olganix Corporation | Computerized dynamic tomography system |
US5740270A (en) | 1988-04-08 | 1998-04-14 | Neuromedical Systems, Inc. | Automated cytological specimen classification system and method |
DK654488A (da) | 1988-11-23 | 1990-05-24 | Nordisk Roentgen Tech App | Roentgenapparat |
US5099846A (en) | 1988-12-23 | 1992-03-31 | Hardy Tyrone L | Method and apparatus for video presentation from a variety of scanner imaging sources |
FR2645006A1 (fr) | 1989-03-29 | 1990-10-05 | Gen Electric Cgr | Mammographe equipe d'un dispositif de vue stereotaxiques integre et procede d'utilisation d'un tel mammographe |
FR2646340A1 (fr) | 1989-04-28 | 1990-11-02 | Gen Electric Cgr | Porte-cassette adaptable en dimension et en position pour mammographie |
EP0406455B1 (de) | 1989-07-03 | 1994-09-21 | Siemens Aktiengesellschaft | Röntgendiagnostikgerät für Mammographieaufnahmen |
US5133020A (en) | 1989-07-21 | 1992-07-21 | Arch Development Corporation | Automated method and system for the detection and classification of abnormal lesions and parenchymal distortions in digital medical images |
CA2014918A1 (en) | 1989-09-06 | 1991-03-06 | James A. Mcfaul | Scanning mammography system with improved skin line viewing |
US4969174A (en) | 1989-09-06 | 1990-11-06 | General Electric Company | Scanning mammography system with reduced scatter radiation |
US5415169A (en) | 1989-11-21 | 1995-05-16 | Fischer Imaging Corporation | Motorized mammographic biopsy apparatus |
US5240011A (en) | 1991-11-27 | 1993-08-31 | Fischer Imaging Corporation | Motorized biopsy needle positioner |
US5078142A (en) | 1989-11-21 | 1992-01-07 | Fischer Imaging Corporation | Precision mammographic needle biopsy system |
EP0465609A4 (en) | 1989-11-27 | 1992-08-26 | Bard International, Inc. | Puncture guide for computer tomography |
US5199056A (en) | 1989-11-28 | 1993-03-30 | Darrah Carol J | Mammography compression paddle |
US5481623A (en) | 1990-04-19 | 1996-01-02 | Fuji Photo Film Co., Ltd. | Apparatus for determining an image position on imaging media |
FR2668359B1 (fr) | 1990-10-24 | 1998-02-20 | Gen Electric Cgr | Mammographe muni d'un porte-aiguille perfectionne. |
US5409497A (en) | 1991-03-11 | 1995-04-25 | Fischer Imaging Corporation | Orbital aiming device for mammo biopsy |
US5129911A (en) | 1991-03-11 | 1992-07-14 | Siczek Bernard W | Orbital aiming device |
US5279309A (en) | 1991-06-13 | 1994-01-18 | International Business Machines Corporation | Signaling device and method for monitoring positions in a surgical operation |
US5163075A (en) | 1991-08-08 | 1992-11-10 | Eastman Kodak Company | Contrast enhancement of electrographic imaging |
US5941832A (en) | 1991-09-27 | 1999-08-24 | Tumey; David M. | Method and apparatus for detection of cancerous and precancerous conditions in a breast |
US5289520A (en) | 1991-11-27 | 1994-02-22 | Lorad Corporation | Stereotactic mammography imaging system with prone position examination table and CCD camera |
US5594769A (en) | 1991-11-27 | 1997-01-14 | Thermotrex Corporation | Method and apparatus for obtaining stereotactic mammographic guided needle breast biopsies |
US5343390A (en) | 1992-02-28 | 1994-08-30 | Arch Development Corporation | Method and system for automated selection of regions of interest and detection of septal lines in digital chest radiographs |
US5359637A (en) | 1992-04-28 | 1994-10-25 | Wake Forest University | Self-calibrated tomosynthetic, radiographic-imaging system, method, and device |
US5386447A (en) | 1992-09-23 | 1995-01-31 | Fischer Imaging Corporation | Mammographic screening and biopsy apparatus |
US5596200A (en) | 1992-10-14 | 1997-01-21 | Primex | Low dose mammography system |
FR2703237B1 (fr) | 1993-03-29 | 1995-05-19 | Ge Medical Syst Sa | Mammographe équipé d'un dispositif de prises en vues stéréotaxiques à détecteur numérique et procédé d'utilisation d'un tel mammographe . |
US5491627A (en) | 1993-05-13 | 1996-02-13 | Arch Development Corporation | Method and system for the detection of microcalcifications in digital mammograms |
US5878746A (en) | 1993-08-25 | 1999-03-09 | Lemelson; Jerome H. | Computerized medical diagnostic system |
US5365562A (en) | 1993-09-20 | 1994-11-15 | Fischer Imaging Corporation | Digital imaging apparatus |
US6075879A (en) | 1993-09-29 | 2000-06-13 | R2 Technology, Inc. | Method and system for computer-aided lesion detection using information from multiple images |
US5526394A (en) | 1993-11-26 | 1996-06-11 | Fischer Imaging Corporation | Digital scan mammography apparatus |
US5452367A (en) | 1993-11-29 | 1995-09-19 | Arch Development Corporation | Automated method and system for the segmentation of medical images |
CA2113752C (en) | 1994-01-19 | 1999-03-02 | Stephen Michael Rooks | Inspection system for cross-sectional imaging |
DE4414689C2 (de) | 1994-04-26 | 1996-08-29 | Siemens Ag | Röntgendiagnostikeinrichtung |
US5499097A (en) | 1994-09-19 | 1996-03-12 | Neopath, Inc. | Method and apparatus for checking automated optical system performance repeatability |
WO1996010237A1 (en) | 1994-09-20 | 1996-04-04 | Neopath, Inc. | Biological specimen analysis system processing integrity checking apparatus |
US5647025A (en) | 1994-09-20 | 1997-07-08 | Neopath, Inc. | Automatic focusing of biomedical specimens apparatus |
US5557097A (en) | 1994-09-20 | 1996-09-17 | Neopath, Inc. | Cytological system autofocus integrity checking apparatus |
US5553111A (en) | 1994-10-26 | 1996-09-03 | The General Hospital Corporation | Apparatus and method for improved tissue imaging |
US5506877A (en) | 1994-11-23 | 1996-04-09 | The General Hospital Corporation | Mammography breast compression device and method |
US5712890A (en) | 1994-11-23 | 1998-01-27 | Thermotrex Corp. | Full breast digital mammography device |
US5657362A (en) | 1995-02-24 | 1997-08-12 | Arch Development Corporation | Automated method and system for computerized detection of masses and parenchymal distortions in medical images |
US5660185A (en) | 1995-04-13 | 1997-08-26 | Neovision Corporation | Image-guided biopsy apparatus with enhanced imaging and methods |
US5671288A (en) | 1995-05-31 | 1997-09-23 | Neopath, Inc. | Method and apparatus for assessing slide and specimen preparation quality |
US6216540B1 (en) | 1995-06-06 | 2001-04-17 | Robert S. Nelson | High resolution device and method for imaging concealed objects within an obscuring medium |
AU2997095A (en) | 1995-06-20 | 1997-01-22 | Wan Sing Ng | Articulated arm for medical procedures |
US5642433A (en) | 1995-07-31 | 1997-06-24 | Neopath, Inc. | Method and apparatus for image contrast quality evaluation |
US5642441A (en) | 1995-10-24 | 1997-06-24 | Neopath, Inc. | Separation apparatus and method for measuring focal plane |
US5818898A (en) | 1995-11-07 | 1998-10-06 | Kabushiki Kaisha Toshiba | X-ray imaging apparatus using X-ray planar detector |
US5693948A (en) | 1995-11-21 | 1997-12-02 | Loral Fairchild Corporation | Advanced CCD-based x-ray image sensor system |
US5627869A (en) | 1995-11-22 | 1997-05-06 | Thermotrex Corporation | Mammography apparatus with proportional collimation |
FI955636A0 (fi) | 1995-11-23 | 1995-11-23 | Planmed Oy | Foerfarande och system foer styrning av funktionerna av en mammografiaanordning |
EP1300713A3 (en) | 1995-11-30 | 2004-11-03 | Chromavision Medical Systems, Inc. | Method and apparatus for automated image analysis of biological specimens |
US5769086A (en) | 1995-12-06 | 1998-06-23 | Biopsys Medical, Inc. | Control system and method for automated biopsy device |
JPH09198490A (ja) * | 1996-01-22 | 1997-07-31 | Hitachi Medical Corp | 3次元離散データ投影装置 |
JPH09238934A (ja) * | 1996-03-11 | 1997-09-16 | Toshiba Medical Eng Co Ltd | 画像表示システム |
DE19619913C2 (de) | 1996-05-17 | 2001-03-15 | Sirona Dental Systems Gmbh | Röntgendiagnostikgerät für Tomosynthese |
DE19619924A1 (de) | 1996-05-17 | 1997-11-20 | Siemens Ag | Verfahren zur Erstellung von Tomosyntheseaufnahmen |
DE19619915A1 (de) | 1996-05-17 | 1997-11-20 | Siemens Ag | Verfahren zur Erstellung von Tomosyntheseaufnahmen |
DE19619925C2 (de) | 1996-05-17 | 1999-09-09 | Sirona Dental Systems Gmbh | Röntgendiagnostikgerät für Tomosynthese |
US6067079A (en) | 1996-06-13 | 2000-05-23 | International Business Machines Corporation | Virtual pointing device for touchscreens |
US5835079A (en) | 1996-06-13 | 1998-11-10 | International Business Machines Corporation | Virtual pointing device for touchscreens |
US5841124A (en) | 1996-06-19 | 1998-11-24 | Neopath, Inc. | Cytological system autofocus integrity checking apparatus |
JP4458553B2 (ja) | 1996-07-23 | 2010-04-28 | ザ ジェネラル ホスピタル コーポレイション | 胸部撮像のための断層合成装置 |
JPH1033523A (ja) * | 1996-07-24 | 1998-02-10 | Hitachi Medical Corp | X線ct装置 |
US5776062A (en) | 1996-10-15 | 1998-07-07 | Fischer Imaging Corporation | Enhanced breast imaging/biopsy system employing targeted ultrasound |
US5986662A (en) | 1996-10-16 | 1999-11-16 | Vital Images, Inc. | Advanced diagnostic viewer employing automated protocol selection for volume-rendered imaging |
US6293282B1 (en) | 1996-11-05 | 2001-09-25 | Jerome Lemelson | System and method for treating select tissue in living being |
JP3878259B2 (ja) | 1996-11-13 | 2007-02-07 | 東芝医用システムエンジニアリング株式会社 | 医用画像処理装置 |
US6137527A (en) | 1996-12-23 | 2000-10-24 | General Electric Company | System and method for prompt-radiology image screening service via satellite |
US7117098B1 (en) | 1997-02-27 | 2006-10-03 | Cellomics, Inc. | Machine-readable storage medium for analyzing distribution of macromolecules between the cell membrane and the cell cytoplasm |
US5999639A (en) | 1997-09-04 | 1999-12-07 | Qualia Computing, Inc. | Method and system for automated detection of clustered microcalcifications from digital mammograms |
US20030135115A1 (en) | 1997-11-24 | 2003-07-17 | Burdette Everette C. | Method and apparatus for spatial registration and mapping of a biopsy needle during a tissue biopsy |
US6442288B1 (en) | 1997-12-17 | 2002-08-27 | Siemens Aktiengesellschaft | Method for reconstructing a three-dimensional image of an object scanned in the context of a tomosynthesis, and apparatus for tomosynthesis |
JP3554172B2 (ja) | 1998-01-09 | 2004-08-18 | キヤノン株式会社 | 放射線撮影装置 |
US6175117B1 (en) | 1998-01-23 | 2001-01-16 | Quanta Vision, Inc. | Tissue analysis apparatus |
US6289235B1 (en) | 1998-03-05 | 2001-09-11 | Wake Forest University | Method and system for creating three-dimensional images using tomosynthetic computed tomography |
US6081577A (en) | 1998-07-24 | 2000-06-27 | Wake Forest University | Method and system for creating task-dependent three-dimensional images |
US6375352B1 (en) | 1999-10-01 | 2002-04-23 | General Electric Company | Apparatus and method for obtaining x-ray tomosynthesis data for mammography |
US6141398A (en) | 1998-08-25 | 2000-10-31 | General Electric Company | Protocol driven image reconstruction, display, and processing in a multislice imaging system |
US6101236A (en) | 1998-10-02 | 2000-08-08 | University Of Iowa Research Foundation | Iterative method and apparatus for x-ray computed tomographic fluoroscopy |
WO2000051484A2 (en) | 1998-11-25 | 2000-09-08 | Fischer Imaging Corporation | User interface system for mammographic imager |
FR2786388B1 (fr) | 1998-11-27 | 2001-02-16 | Ge Medical Syst Sa | Procede de detection d'un tissu de nature determinee en radiologie numerique et son utilisation pour le reglage des parametres d'exposition |
US6149301A (en) | 1998-12-30 | 2000-11-21 | General Electric Company | X-ray target centering apparatus for radiographic imaging system |
JP2000200340A (ja) * | 1999-01-06 | 2000-07-18 | Ge Yokogawa Medical Systems Ltd | 画像表示方法、画像表示装置およびct装置 |
US6424332B1 (en) | 1999-01-29 | 2002-07-23 | Hunter Innovations, Inc. | Image comparison apparatus and method |
JP3597473B2 (ja) | 1999-01-29 | 2004-12-08 | アメリカン スーパーコンダクター コーポレイション | 超伝導磁気エネルギー貯蔵装置を備えた電気ユーティリティシステム |
US6233473B1 (en) | 1999-02-16 | 2001-05-15 | Hologic, Inc. | Determining body composition using fan beam dual-energy x-ray absorptiometry |
US6272207B1 (en) | 1999-02-18 | 2001-08-07 | Creatv Microtech, Inc. | Method and apparatus for obtaining high-resolution digital X-ray and gamma ray images |
US6256370B1 (en) | 2000-01-24 | 2001-07-03 | General Electric Company | Method and apparatus for performing tomosynthesis |
US6689142B1 (en) | 1999-04-26 | 2004-02-10 | Scimed Life Systems, Inc. | Apparatus and methods for guiding a needle |
US6292530B1 (en) | 1999-04-29 | 2001-09-18 | General Electric Company | Method and apparatus for reconstructing image data acquired by a tomosynthesis x-ray imaging system |
DE19922346C2 (de) | 1999-05-14 | 2003-06-18 | Siemens Ag | Röntgendiagnostikeinrichtung für Tomosynthese oder Schichtung |
US6243441B1 (en) | 1999-07-13 | 2001-06-05 | Edge Medical Devices | Active matrix detector for X-ray imaging |
US20020173721A1 (en) | 1999-08-20 | 2002-11-21 | Novasonics, Inc. | User interface for handheld imaging devices |
US6987831B2 (en) | 1999-11-18 | 2006-01-17 | University Of Rochester | Apparatus and method for cone beam volume computed tomography breast imaging |
US6480565B1 (en) | 1999-11-18 | 2002-11-12 | University Of Rochester | Apparatus and method for cone beam volume computed tomography breast imaging |
US6633674B1 (en) | 1999-11-24 | 2003-10-14 | General Electric Company | Picture archiving and communication system employing improved data compression |
US6245028B1 (en) | 1999-11-24 | 2001-06-12 | Marconi Medical Systems, Inc. | Needle biopsy system |
US6645520B2 (en) | 1999-12-16 | 2003-11-11 | Dermatrends, Inc. | Transdermal administration of nonsteroidal anti-inflammatory drugs using hydroxide-releasing agents as permeation enhancers |
FR2803069B1 (fr) | 1999-12-28 | 2002-12-13 | Ge Medical Syst Sa | Procede et systeme de compensation de l'epaisseur d'un organe |
US6411836B1 (en) | 1999-12-30 | 2002-06-25 | General Electric Company | Method and apparatus for user preferences configuring in an image handling system |
US8352289B2 (en) | 1999-12-30 | 2013-01-08 | Dhi Computing, Inc. | Systems and methods for providing and maintaining electronic medical records |
US6901156B2 (en) | 2000-02-04 | 2005-05-31 | Arch Development Corporation | Method, system and computer readable medium for an intelligent search workstation for computer assisted interpretation of medical images |
US6744848B2 (en) | 2000-02-11 | 2004-06-01 | Brandeis University | Method and system for low-dose three-dimensional imaging of a scene |
US6960020B2 (en) | 2001-08-31 | 2005-11-01 | Analogic Corporation | Image positioning method and system for tomosynthesis in a digital X-ray radiography system |
GB0006598D0 (en) | 2000-03-17 | 2000-05-10 | Isis Innovation | Three-dimensional reconstructions from images |
US6351660B1 (en) | 2000-04-18 | 2002-02-26 | Litton Systems, Inc. | Enhanced visualization of in-vivo breast biopsy location for medical documentation |
US6327336B1 (en) | 2000-06-05 | 2001-12-04 | Direct Radiography Corp. | Radiogram showing location of automatic exposure control sensor |
US6683934B1 (en) | 2000-06-05 | 2004-01-27 | General Electric Company | Dual energy x-ray imaging system and method for radiography and mammography |
US6389104B1 (en) | 2000-06-30 | 2002-05-14 | Siemens Corporate Research, Inc. | Fluoroscopy based 3-D neural navigation based on 3-D angiography reconstruction data |
JP2002052018A (ja) | 2000-08-11 | 2002-02-19 | Canon Inc | 画像表示装置、画像表示方法および記憶媒体 |
JP2002109510A (ja) | 2000-09-27 | 2002-04-12 | Fuji Photo Film Co Ltd | 異常陰影候補検出処理システム |
WO2002034134A1 (en) | 2000-10-20 | 2002-05-02 | Koninklijke Philips Electronics N.V. | Tomosynthesis in a limited angular range |
US6758824B1 (en) | 2000-11-06 | 2004-07-06 | Suros Surgical Systems, Inc. | Biopsy apparatus |
WO2002069808A2 (en) | 2000-11-06 | 2002-09-12 | Suros Surgical Systems, Inc. | Biopsy apparatus |
US6468226B1 (en) | 2000-11-22 | 2002-10-22 | Mcintyre, Iv John J. | Remote tissue biopsy apparatus and associated methods |
US7597663B2 (en) | 2000-11-24 | 2009-10-06 | U-Systems, Inc. | Adjunctive ultrasound processing and display for breast cancer screening |
US7615008B2 (en) | 2000-11-24 | 2009-11-10 | U-Systems, Inc. | Processing and displaying breast ultrasound information |
US7556602B2 (en) | 2000-11-24 | 2009-07-07 | U-Systems, Inc. | Breast cancer screening with adjunctive ultrasound mammography |
US7103205B2 (en) | 2000-11-24 | 2006-09-05 | U-Systems, Inc. | Breast cancer screening with ultrasound image overlays |
US6650928B1 (en) * | 2000-11-27 | 2003-11-18 | Ge Medical Systems Global Technology Company, Llc | Color parametric and composite maps for CT perfusion |
US6501819B2 (en) | 2000-12-18 | 2002-12-31 | Ge Medical Systems Global Technology Company, Llc | Medical diagnostic method and apparatus to control dual energy exposure techniques based on image information |
FR2818116B1 (fr) | 2000-12-19 | 2004-08-27 | Ge Med Sys Global Tech Co Llc | Appareil de mammographie |
JP2004517408A (ja) | 2000-12-22 | 2004-06-10 | コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ | クリッピング面間の領域の立体的ビューイング |
US6463181B2 (en) | 2000-12-22 | 2002-10-08 | The United States Of America As Represented By The Secretary Of The Navy | Method for optimizing visual display of enhanced digital images |
CA2437454A1 (en) | 2001-02-01 | 2002-08-22 | Creatv Microtech, Inc. | Anti-scatter grids and collimator designs, and their motion, fabrication and assembly |
US7030861B1 (en) | 2001-02-10 | 2006-04-18 | Wayne Carl Westerman | System and method for packing multi-touch gestures onto a hand |
US6486764B2 (en) | 2001-02-16 | 2002-11-26 | Delphi Technologies, Inc. | Rotary position sensor |
US20020188466A1 (en) | 2001-04-18 | 2002-12-12 | Barrette Pierre Philip | Secure digital medical intellectual property (IP) distribution, market applications, and mobile devices |
US6620111B2 (en) | 2001-04-20 | 2003-09-16 | Ethicon Endo-Surgery, Inc. | Surgical biopsy device having automatic rotation of the probe for taking multiple samples |
US6954667B2 (en) | 2001-06-28 | 2005-10-11 | Chemimage Corporation | Method for Raman chemical imaging and characterization of calcification in tissue |
US6611575B1 (en) | 2001-07-27 | 2003-08-26 | General Electric Company | Method and system for high resolution 3D visualization of mammography images |
US20030048260A1 (en) | 2001-08-17 | 2003-03-13 | Alec Matusis | System and method for selecting actions based on the identification of user's fingers |
US20030072478A1 (en) * | 2001-10-12 | 2003-04-17 | Claus Bernhard Erich Hermann | Reconstruction method for tomosynthesis |
WO2003037046A2 (en) | 2001-10-19 | 2003-05-01 | Hologic, Inc. | Mammography system and method employing offset compression paddles, automatic collimation, and retractable anti-scatter grid |
US6626849B2 (en) | 2001-11-01 | 2003-09-30 | Ethicon Endo-Surgery, Inc. | MRI compatible surgical biopsy device |
DE60135559D1 (de) | 2001-11-19 | 2008-10-09 | St Microelectronics Srl | Verfahren zur Mischung von digitalen Bildern zur Erzeugung eines digitalen Bildes mit erweitertem Dynamikbereich |
US20030097055A1 (en) * | 2001-11-21 | 2003-05-22 | Philips Medical Systems(Cleveland), Inc. | Method of reviewing tomographic scans with a large number of images |
US6895077B2 (en) | 2001-11-21 | 2005-05-17 | University Of Massachusetts Medical Center | System and method for x-ray fluoroscopic imaging |
US6751285B2 (en) | 2001-11-21 | 2004-06-15 | General Electric Company | Dose management system for mammographic tomosynthesis |
JP4099984B2 (ja) | 2001-12-14 | 2008-06-11 | コニカミノルタホールディングス株式会社 | 異常陰影検出装置および画像出力装置 |
US6978040B2 (en) | 2001-12-19 | 2005-12-20 | Canon Kabushiki Kaisha | Optical recovery of radiographic geometry |
US6647092B2 (en) | 2002-01-18 | 2003-11-11 | General Electric Company | Radiation imaging system and method of collimation |
SE524458C2 (sv) | 2002-03-01 | 2004-08-10 | Mamea Imaging Ab | Skyddsanordning vid en röntgenapparat |
US7346381B2 (en) | 2002-11-01 | 2008-03-18 | Ge Medical Systems Global Technology Company Llc | Method and apparatus for medical intervention procedure planning |
US6878115B2 (en) | 2002-03-28 | 2005-04-12 | Ultrasound Detection Systems, Llc | Three-dimensional ultrasound computed tomography imaging system |
US20030194050A1 (en) | 2002-04-15 | 2003-10-16 | General Electric Company | Multi modality X-ray and nuclear medicine mammography imaging system and method |
US7218766B2 (en) | 2002-04-15 | 2007-05-15 | General Electric Company | Computer aided detection (CAD) for 3D digital mammography |
US6882700B2 (en) | 2002-04-15 | 2005-04-19 | General Electric Company | Tomosynthesis X-ray mammogram system and method with automatic drive system |
US6752767B2 (en) | 2002-04-16 | 2004-06-22 | Vivant Medical, Inc. | Localization element with energized tip |
US7139000B2 (en) | 2002-05-13 | 2006-11-21 | Ge Medical Systems Global Technology Company, Llc | Method, system and computer product for displaying axial images |
US7295691B2 (en) | 2002-05-15 | 2007-11-13 | Ge Medical Systems Global Technology Company, Llc | Computer aided diagnosis of an image set |
US11275405B2 (en) | 2005-03-04 | 2022-03-15 | Apple Inc. | Multi-functional hand-held device |
US7599579B2 (en) | 2002-07-11 | 2009-10-06 | Ge Medical Systems Global Technology Company, Llc | Interpolated image filtering method and apparatus |
US7450747B2 (en) | 2002-07-12 | 2008-11-11 | Ge Medical Systems Global Technology Company, Llc | System and method for efficiently customizing an imaging system |
US20040036680A1 (en) | 2002-08-26 | 2004-02-26 | Mark Davis | User-interface features for computers with contact-sensitive displays |
US6898331B2 (en) | 2002-08-28 | 2005-05-24 | Bae Systems Aircraft Controls, Inc. | Image fusion system and method |
US6748044B2 (en) | 2002-09-13 | 2004-06-08 | Ge Medical Systems Global Technology Company, Llc | Computer assisted analysis of tomographic mammography data |
US6574304B1 (en) | 2002-09-13 | 2003-06-03 | Ge Medical Systems Global Technology Company, Llc | Computer aided acquisition of medical images |
US7260249B2 (en) | 2002-09-27 | 2007-08-21 | Confirma Incorporated | Rules-based approach for processing medical images |
US6940943B2 (en) | 2002-10-07 | 2005-09-06 | General Electric Company | Continuous scan tomosynthesis system and method |
US7347829B2 (en) | 2002-10-07 | 2008-03-25 | Suros Surgical Systems, Inc. | Introduction system for minimally invasive surgical instruments |
US6825838B2 (en) | 2002-10-11 | 2004-11-30 | Sonocine, Inc. | 3D modeling system |
US20040171933A1 (en) | 2002-11-25 | 2004-09-02 | Milton Stoller | Mammography needle biopsy system and method |
US7831296B2 (en) | 2002-11-27 | 2010-11-09 | Hologic, Inc. | X-ray mammography with tomosynthesis |
US7123684B2 (en) | 2002-11-27 | 2006-10-17 | Hologic, Inc. | Full field mammography with tissue exposure control, tomosynthesis, and dynamic field of view processing |
US7616801B2 (en) | 2002-11-27 | 2009-11-10 | Hologic, Inc. | Image handling and display in x-ray mammography and tomosynthesis |
US7760924B2 (en) | 2002-11-27 | 2010-07-20 | Hologic, Inc. | System and method for generating a 2D image from a tomosynthesis data set |
US6597762B1 (en) | 2002-11-27 | 2003-07-22 | Ge Medical Systems Global Technology Co., Llc | Method and apparatus of lesion detection and validation based on multiple reviews of a CT image |
US8571289B2 (en) | 2002-11-27 | 2013-10-29 | Hologic, Inc. | System and method for generating a 2D image from a tomosynthesis data set |
US7577282B2 (en) | 2002-11-27 | 2009-08-18 | Hologic, Inc. | Image handling and display in X-ray mammography and tomosynthesis |
US7406150B2 (en) | 2002-11-29 | 2008-07-29 | Hologic, Inc. | Distributed architecture for mammographic image acquisition and processing |
US7904824B2 (en) | 2002-12-10 | 2011-03-08 | Siemens Medical Solutions Usa, Inc. | Medical imaging programmable custom user interface system and method |
US7110490B2 (en) | 2002-12-10 | 2006-09-19 | General Electric Company | Full field digital tomosynthesis method and apparatus |
EP1430835B1 (en) | 2002-12-17 | 2011-11-16 | Kabushiki Kaisha Toshiba | System for peripheral X-ray angiography |
US7356113B2 (en) | 2003-02-12 | 2008-04-08 | Brandeis University | Tomosynthesis imaging system and method |
JP4604451B2 (ja) | 2003-02-24 | 2011-01-05 | コニカミノルタホールディングス株式会社 | 医用画像処理装置及び悪性度の判定方法 |
US7333644B2 (en) | 2003-03-11 | 2008-02-19 | Siemens Medical Solutions Usa, Inc. | Systems and methods for providing automatic 3D lesion segmentation and measurements |
JP4497837B2 (ja) | 2003-05-12 | 2010-07-07 | キヤノン株式会社 | 放射線画像撮影装置 |
CN1839391A (zh) | 2003-06-25 | 2006-09-27 | 美国西门子医疗解决公司 | 用于乳房成像的自动诊断和决策支持的系统和方法 |
US6885724B2 (en) | 2003-08-22 | 2005-04-26 | Ge Medical Systems Global Technology Company, Llc | Radiographic tomosynthesis image acquisition utilizing asymmetric geometry |
US8090164B2 (en) | 2003-08-25 | 2012-01-03 | The University Of North Carolina At Chapel Hill | Systems, methods, and computer program products for analysis of vessel attributes for diagnosis, disease staging, and surgical planning |
US7424141B2 (en) | 2003-08-29 | 2008-09-09 | Agilent Technologies, Inc. | System and method for performing auto-focused tomosynthesis |
US7578781B2 (en) | 2003-09-18 | 2009-08-25 | Wisconsin Alumni Research Foundation | Device for placement of needles and radioactive seeds in radiotherapy |
US7869862B2 (en) | 2003-10-15 | 2011-01-11 | Varian Medical Systems, Inc. | Systems and methods for functional imaging using contrast-enhanced multiple-energy computed tomography |
US20050089205A1 (en) | 2003-10-23 | 2005-04-28 | Ajay Kapur | Systems and methods for viewing an abnormality in different kinds of images |
JP2005149107A (ja) | 2003-11-14 | 2005-06-09 | Konica Minolta Medical & Graphic Inc | 医用画像管理システム |
DE10353611B4 (de) | 2003-11-17 | 2013-01-17 | Siemens Aktiengesellschaft | Röntgendiagnostikgerät für Mammographieuntersuchungen |
US8265728B2 (en) | 2003-11-26 | 2012-09-11 | University Of Chicago | Automated method and system for the evaluation of disease and registration accuracy in the subtraction of temporally sequential medical images |
US8768026B2 (en) | 2003-11-26 | 2014-07-01 | Hologic, Inc. | X-ray imaging with x-ray markers that provide adjunct information but preserve image quality |
WO2005051197A2 (en) | 2003-11-26 | 2005-06-09 | Koninklijke Philips Electronics, N.V. | Workflow optimization for high throughput imaging environment |
US7727151B2 (en) * | 2003-11-28 | 2010-06-01 | U-Systems Inc. | Navigation among multiple breast ultrasound volumes |
WO2005055803A2 (en) | 2003-12-03 | 2005-06-23 | The General Hospital Corporation D/B/A Massachusetts General Hospital | Multi-segment cone-beam reconstruction system and method for tomosynthesis imaging |
US20050135555A1 (en) | 2003-12-23 | 2005-06-23 | Claus Bernhard Erich H. | Method and system for simultaneously viewing rendered volumes |
US7653229B2 (en) | 2003-12-23 | 2010-01-26 | General Electric Company | Methods and apparatus for reconstruction of volume data from projection data |
CN1933787A (zh) | 2004-01-23 | 2007-03-21 | 特拉克斯医疗有限公司 | 在体内目标位置上完成某些程序的方法和装置 |
US7298881B2 (en) | 2004-02-13 | 2007-11-20 | University Of Chicago | Method, system, and computer software product for feature-based correlation of lesions from multiple images |
US7289825B2 (en) | 2004-03-15 | 2007-10-30 | General Electric Company | Method and system for utilizing wireless voice technology within a radiology workflow |
US7142633B2 (en) | 2004-03-31 | 2006-11-28 | General Electric Company | Enhanced X-ray imaging system and method |
US20060009693A1 (en) | 2004-04-08 | 2006-01-12 | Techniscan, Inc. | Apparatus for imaging and treating a breast |
US7835556B2 (en) | 2004-05-14 | 2010-11-16 | Koninklijke Philips Electronics N.V. | System and method for diagnosing breast cancer |
GB0411402D0 (en) | 2004-05-21 | 2004-06-23 | Tissuomics Ltd | Penetrating radiation measurements |
WO2006012568A2 (en) | 2004-07-23 | 2006-02-02 | Learning Tree International | System and method for electronic presentations |
US7835562B2 (en) | 2004-07-23 | 2010-11-16 | General Electric Company | Methods and apparatus for noise reduction filtering of images |
FR2873835A1 (fr) | 2004-07-29 | 2006-02-03 | Gen Electric | Procede et dispositif d'imagerie aux rayons x avec produit de contraste permettant une visualisation amelioree |
US7323692B2 (en) | 2004-08-10 | 2008-01-29 | Research Foundation Of State University Of New York | Flat-panel detector with avalanche gain |
US7725153B2 (en) | 2004-10-04 | 2010-05-25 | Hologic, Inc. | Estimating visceral fat by dual-energy x-ray absorptiometry |
WO2006055830A2 (en) | 2004-11-15 | 2006-05-26 | Hologic, Inc. | Matching geometry generation and display of mammograms and tomosynthesis images |
EP3106094B1 (en) | 2004-11-26 | 2021-09-08 | Hologic, Inc. | Integrated multi-mode mammography/tomosynthesis x-ray system |
US20060132508A1 (en) | 2004-12-16 | 2006-06-22 | Navid Sadikali | Multi-planar image viewing system and method |
WO2006069379A2 (en) | 2004-12-22 | 2006-06-29 | Bio-Tree Systems, Inc. | Medical imaging methods and apparatus for diagnosis and monitoring of diseases and uses therefor |
US7616793B2 (en) | 2004-12-30 | 2009-11-10 | Hologic, Inc. | Medical image review workstation with integrated content-based resource retrieval |
US9760214B2 (en) | 2005-02-23 | 2017-09-12 | Zienon, Llc | Method and apparatus for data entry input |
US7859549B2 (en) | 2005-03-08 | 2010-12-28 | Agfa Inc. | Comparative image review system and method |
US20060210131A1 (en) | 2005-03-15 | 2006-09-21 | Wheeler Frederick W Jr | Tomographic computer aided diagnosis (CAD) with multiple reconstructions |
US8373652B2 (en) * | 2005-04-06 | 2013-02-12 | Kabushiki Kaisha Toshiba | Image display apparatus and image display method |
JP5038643B2 (ja) * | 2005-04-06 | 2012-10-03 | 株式会社東芝 | 画像表示装置 |
US10492749B2 (en) | 2005-05-03 | 2019-12-03 | The Regents Of The University Of California | Biopsy systems for breast computed tomography |
DE102005022543A1 (de) | 2005-05-17 | 2006-11-23 | Siemens Ag | Mammographieverfahren und Mammographiegerät |
AU2006254689B2 (en) | 2005-06-02 | 2012-03-08 | Salient Imaging, Inc. | System and method of computer-aided detection |
US7606801B2 (en) | 2005-06-07 | 2009-10-20 | Varonis Inc. | Automatic management of storage access control |
US7809175B2 (en) | 2005-07-01 | 2010-10-05 | Hologic, Inc. | Displaying and navigating computer-aided detection results on a review workstation |
DE102005037376B3 (de) | 2005-08-08 | 2006-10-19 | Siemens Ag | Verfahren zur Stempelung beliebiger Ethernet-Frames in Verbindung mit Standard-Ethernet |
US7245694B2 (en) | 2005-08-15 | 2007-07-17 | Hologic, Inc. | X-ray mammography/tomosynthesis of patient's breast |
US8081165B2 (en) | 2005-08-30 | 2011-12-20 | Jesterrad, Inc. | Multi-functional navigational device and method |
DE202005013910U1 (de) | 2005-09-02 | 2005-11-24 | Siemens Ag | Mammographiegerät mit Gesichtsschild |
US20070052700A1 (en) | 2005-09-07 | 2007-03-08 | Wheeler Frederick W | System and method for 3D CAD using projection images |
US10008184B2 (en) | 2005-11-10 | 2018-06-26 | Hologic, Inc. | System and method for generating a 2D image using mammography and/or tomosynthesis image data |
US7342233B2 (en) | 2005-11-18 | 2008-03-11 | Sectra Mamea Ab | Method and arrangement relating to x-ray imaging |
US20070118400A1 (en) | 2005-11-22 | 2007-05-24 | General Electric Company | Method and system for gesture recognition to drive healthcare applications |
US20070236490A1 (en) | 2005-11-25 | 2007-10-11 | Agfa-Gevaert | Medical image display and review system |
JP2009522005A (ja) | 2005-12-29 | 2009-06-11 | ケアストリーム ヘルス インク | 時間横断的かつモダリティ横断的な医療診断 |
US7581399B2 (en) | 2006-01-05 | 2009-09-01 | United Technologies Corporation | Damped coil pin for attachment hanger hinge |
US20070156451A1 (en) | 2006-01-05 | 2007-07-05 | Gering David T | System and method for portable display of relevant healthcare information |
JP5554927B2 (ja) | 2006-02-15 | 2014-07-23 | ホロジック, インコーポレイテッド | トモシンセシスシステムを使用した乳房バイオプシおよびニードル位置特定 |
US20070223651A1 (en) | 2006-03-21 | 2007-09-27 | Wagenaar Douglas J | Dual modality mammography device |
US7489761B2 (en) | 2006-03-27 | 2009-02-10 | Hologic, Inc. | Breast compression for digital mammography, tomosynthesis and other modalities |
WO2007115824A2 (en) | 2006-04-12 | 2007-10-18 | Nassir Navab | Virtual penetrating mirror device for visualizing virtual objects in angiographic applications |
US7945083B2 (en) | 2006-05-25 | 2011-05-17 | Carestream Health, Inc. | Method for supporting diagnostic workflow from a medical imaging apparatus |
JP2007330334A (ja) * | 2006-06-12 | 2007-12-27 | Toshiba Corp | X線撮影装置及びその方法 |
US7974924B2 (en) | 2006-07-19 | 2011-07-05 | Mvisum, Inc. | Medical data encryption for communication over a vulnerable system |
CN100444800C (zh) | 2006-07-25 | 2008-12-24 | 倪湘申 | 微创手术x线穿刺定位装置及方法 |
US20090080602A1 (en) | 2006-08-03 | 2009-03-26 | Kenneth Brooks | Dedicated breast radiation imaging/therapy system |
US20080043905A1 (en) | 2006-08-21 | 2008-02-21 | Bamdad Hassanpourgol | Portable Prone Stereotactic Mammography System for Biopsies, Image Guided Lumpectomies, and Radiation Treatment |
JP2008068032A (ja) * | 2006-09-15 | 2008-03-27 | Toshiba Corp | 画像表示装置 |
US20080139896A1 (en) | 2006-10-13 | 2008-06-12 | Siemens Medical Solutions Usa, Inc. | System and Method for Graphical Annotation of Anatomical Images Using a Touch Screen Display |
EP2074595A1 (en) | 2006-10-17 | 2009-07-01 | Koninklijke Philips Electronics N.V. | Visualization of 3d images in combination with 2d projection images |
JP4851296B2 (ja) | 2006-10-26 | 2012-01-11 | 富士フイルム株式会社 | 放射線断層画像取得装置および放射線断層画像取得方法 |
US20080114614A1 (en) | 2006-11-15 | 2008-05-15 | General Electric Company | Methods and systems for healthcare application interaction using gesture-based interaction enhanced with pressure sensitivity |
US8280488B2 (en) | 2006-11-24 | 2012-10-02 | Huisman Henkjan J | Processing and displaying dynamic contrast-enhanced magnetic resonance imaging information |
US7769219B2 (en) | 2006-12-11 | 2010-08-03 | Cytyc Corporation | Method for assessing image focus quality |
US8044972B2 (en) | 2006-12-21 | 2011-10-25 | Sectra Mamea Ab | Synchronized viewing of tomosynthesis and/or mammograms |
US8051386B2 (en) | 2006-12-21 | 2011-11-01 | Sectra Ab | CAD-based navigation of views of medical image data stacks or volumes |
US8091045B2 (en) | 2007-01-07 | 2012-01-03 | Apple Inc. | System and method for managing lists |
US10682107B2 (en) | 2007-01-31 | 2020-06-16 | Philips Digital Mammography Sweden Ab | Method and arrangement relating to x-ray imaging |
US20080221479A1 (en) | 2007-03-07 | 2008-09-11 | Ritchie Paul G | Integrated Imaging and Biopsy System with Integrated Utilities |
JP4888165B2 (ja) | 2007-03-12 | 2012-02-29 | 富士ゼロックス株式会社 | 画像処理装置及びプログラム |
US8155417B2 (en) | 2007-03-27 | 2012-04-10 | Hologic, Inc. | Post-acquisition adaptive reconstruction of MRI data |
JP5656339B2 (ja) | 2007-03-28 | 2015-01-21 | Jsr株式会社 | タンパク質固定化担体およびその製造方法 |
US7936341B2 (en) | 2007-05-30 | 2011-05-03 | Microsoft Corporation | Recognizing selection regions from multiple simultaneous inputs |
US7889175B2 (en) | 2007-06-28 | 2011-02-15 | Panasonic Corporation | Touchpad-enabled remote controller and user interaction methods |
US9427201B2 (en) | 2007-06-30 | 2016-08-30 | Accuray Incorporated | Non-invasive method for using 2D angiographic images for radiosurgical target definition |
FR2919747B1 (fr) | 2007-08-02 | 2009-11-06 | Gen Electric | Procede et systeme d'affichage d'images de tomosynthese |
EP2219525B1 (en) | 2007-08-23 | 2017-01-04 | Bearf, Llc | Improved computed tomography breast imaging and biopsy system |
WO2009036375A1 (en) | 2007-09-14 | 2009-03-19 | Panasonic Avionics Corporation | Portable user control device and method for vehicle information systems |
US8126226B2 (en) | 2007-09-20 | 2012-02-28 | General Electric Company | System and method to generate a selected visualization of a radiological image of an imaged subject |
US7630533B2 (en) * | 2007-09-20 | 2009-12-08 | Hologic, Inc. | Breast tomosynthesis with display of highlighted suspected calcifications |
US7929743B2 (en) | 2007-10-02 | 2011-04-19 | Hologic, Inc. | Displaying breast tomosynthesis computer-aided detection results |
US8107700B2 (en) | 2007-11-21 | 2012-01-31 | Merge Cad Inc. | System and method for efficient workflow in reading medical image data |
FR2924010B1 (fr) | 2007-11-23 | 2010-11-26 | Gen Electric | Perfectionnements aux appareils de mammographie |
US20090138280A1 (en) | 2007-11-26 | 2009-05-28 | The General Electric Company | Multi-stepped default display protocols |
CN101983033B (zh) | 2007-12-21 | 2014-09-03 | 科宁公司 | 锥光束ct成像和图像引导程序的方法和装置 |
US20090167702A1 (en) | 2008-01-02 | 2009-07-02 | Nokia Corporation | Pointing device detection |
JP5294654B2 (ja) | 2008-02-29 | 2013-09-18 | 富士フイルム株式会社 | 画像表示方法および装置 |
JP5558672B2 (ja) | 2008-03-19 | 2014-07-23 | 株式会社東芝 | 画像処理装置及びx線コンピュータ断層撮影装置 |
KR100977385B1 (ko) | 2008-04-10 | 2010-08-20 | 주식회사 팬택 | 위젯형 대기화면을 제어할 수 있는 이동 단말기 및 그를이용한 대기화면 제어 방법 |
US20110178389A1 (en) | 2008-05-02 | 2011-07-21 | Eigen, Inc. | Fused image moldalities guidance |
US20100177053A2 (en) | 2008-05-09 | 2010-07-15 | Taizo Yasutake | Method and apparatus for control of multiple degrees of freedom of a display |
JP5224451B2 (ja) | 2008-06-03 | 2013-07-03 | 富士フイルム株式会社 | 投影画像作成装置、方法およびプログラム |
US8031835B2 (en) | 2008-08-07 | 2011-10-04 | Xcision Medical Systems Llc | Method and system for translational digital tomosynthesis mammography |
US9848849B2 (en) | 2008-08-21 | 2017-12-26 | General Electric Company | System and method for touch screen control of an ultrasound system |
US7991106B2 (en) | 2008-08-29 | 2011-08-02 | Hologic, Inc. | Multi-mode tomosynthesis/mammography gain calibration and image correction using gain map information from selected projection angles |
KR20110063659A (ko) | 2008-09-04 | 2011-06-13 | 홀로직, 인크. | 통합된 다중 모드 마모그래피/토모신테시스 x선 시스템 및 방법 |
US8284170B2 (en) | 2008-09-30 | 2012-10-09 | Apple Inc. | Touch screen device, method, and graphical user interface for moving on-screen objects without using a cursor |
US20100088346A1 (en) | 2008-10-08 | 2010-04-08 | General Electric Company | Method and system for attaching objects to a data repository |
US7940891B2 (en) | 2008-10-22 | 2011-05-10 | Varian Medical Systems, Inc. | Methods and systems for treating breast cancer using external beam radiation |
US8543415B2 (en) | 2008-11-26 | 2013-09-24 | General Electric Company | Mobile medical device image and series navigation |
US20100131482A1 (en) | 2008-11-26 | 2010-05-27 | General Electric Company | Adaptive user interface systems and methods for healthcare applications |
JP2012510672A (ja) | 2008-11-28 | 2012-05-10 | フジフイルム メディカル システムズ ユーエスエイ インコーポレイテッド | 画像表示にアクセスし、それを操作するためのアクティブ・オーバーレイ・システムおよび方法 |
US9146663B2 (en) * | 2008-12-08 | 2015-09-29 | Hologic, Inc. | Displaying computer-aided detection information with associated breast tomosynthesis image information |
JP2010137004A (ja) | 2008-12-15 | 2010-06-24 | Fujifilm Corp | 放射線画像処理システム及び処理方法 |
US8184890B2 (en) | 2008-12-26 | 2012-05-22 | Three Palm Software | Computer-aided diagnosis and visualization of tomosynthesis mammography data |
JP2010188003A (ja) | 2009-02-19 | 2010-09-02 | Fujifilm Corp | 画像表示システム及び画像撮影表示システム |
DE102009015007A1 (de) | 2009-03-26 | 2010-10-21 | Siemens Aktiengesellschaft | Verfahren zur Auswertung einer Zeitserie von zweidimensionalen Bildern einer Testbolusmessung und medizinische Bildaufnahmeeinrichtung |
JP5373450B2 (ja) | 2009-03-31 | 2013-12-18 | 富士フイルム株式会社 | 生検装置及び生検装置の動作方法 |
US8300023B2 (en) | 2009-04-10 | 2012-10-30 | Qualcomm Incorporated | Virtual keypad generator with learning capabilities |
US8217357B2 (en) | 2009-04-13 | 2012-07-10 | Hologic, Inc. | Integrated breast X-ray and molecular imaging system |
US8413054B2 (en) | 2009-04-13 | 2013-04-02 | Cisco Technology, Inc. | Graphical user interface for still image capture from video footage |
US8677282B2 (en) | 2009-05-13 | 2014-03-18 | International Business Machines Corporation | Multi-finger touch adaptations for medical imaging systems |
KR101728088B1 (ko) | 2009-06-29 | 2017-04-18 | 톰슨 라이센싱 | 콘트라스트 개선 |
CA2766485C (en) | 2009-07-16 | 2017-07-25 | Karim S. Karim | Multi-layer flat panel x-ray detector |
FR2948481B1 (fr) | 2009-07-27 | 2012-01-20 | Gen Electric | Procede d'imagerie pour la realisation d'une modelisation en triple energie, et dispositif pour la mise en oeuvre d'un tel procede |
US8644644B2 (en) | 2009-09-14 | 2014-02-04 | Adobe Systems Incorporation | Methods and apparatus for blending images |
JP5572440B2 (ja) | 2009-09-15 | 2014-08-13 | 富士フイルム株式会社 | 診断支援システム、診断支援プログラムおよび診断支援方法 |
KR101616874B1 (ko) | 2009-09-23 | 2016-05-02 | 삼성전자주식회사 | 다중 영상 합성 방법 및 그 장치 |
CN102648485B (zh) * | 2009-10-05 | 2015-10-07 | 皇家飞利浦电子股份有限公司 | 图像中感兴趣体积的交互选择 |
EP2486503A2 (en) | 2009-10-07 | 2012-08-15 | Hologic, Inc. | Processing and displaying computer-aided detection information associated with breast x-ray images |
WO2011043838A1 (en) | 2009-10-08 | 2011-04-14 | Hologic, Inc . | Needle breast biopsy system and method of use |
US8687860B2 (en) | 2009-11-24 | 2014-04-01 | Penrad Technologies, Inc. | Mammography statistical diagnostic profiler and prediction system |
JP2011110175A (ja) | 2009-11-26 | 2011-06-09 | Konica Minolta Medical & Graphic Inc | 医用画像表示システム及びプログラム |
WO2011065950A1 (en) | 2009-11-27 | 2011-06-03 | Qview Medical, Inc. | Interactive display of computer aided detection radiological screening results combined with quantitative prompts |
US20120014578A1 (en) | 2010-07-19 | 2012-01-19 | Qview Medical, Inc. | Computer Aided Detection Of Abnormalities In Volumetric Breast Ultrasound Scans And User Interface |
CN102656608B (zh) | 2009-12-17 | 2016-02-24 | 皇家飞利浦电子股份有限公司 | 重建感兴趣对象 |
US8027582B2 (en) | 2009-12-21 | 2011-09-27 | Sony Corporation | Autofocus with confidence measure |
US9451924B2 (en) | 2009-12-30 | 2016-09-27 | General Electric Company | Single screen multi-modality imaging displays |
US9201627B2 (en) | 2010-01-05 | 2015-12-01 | Rovi Guides, Inc. | Systems and methods for transferring content between user equipment and a wireless communications device |
WO2011091300A2 (en) | 2010-01-24 | 2011-07-28 | Mistretta Medical, Llc | System and method for implementation of 4d time-energy subtraction computed tomography |
US8559590B2 (en) | 2010-01-28 | 2013-10-15 | Varian Medical Systems, Inc. | Imaging breast cancerous lesions with microcalcifications |
DE102010009295B4 (de) | 2010-02-25 | 2019-02-21 | Siemens Healthcare Gmbh | Verfahren zur Darstellung eines zu untersuchenden und/oder behandelnden Bereichs |
JP5340213B2 (ja) | 2010-03-30 | 2013-11-13 | 富士フイルム株式会社 | 画像表示システム |
WO2011148371A1 (en) | 2010-05-23 | 2011-12-01 | Technion Research And Development Foundation Ltd. | Detection, staging and grading of benign and malignant tumors |
US20110310126A1 (en) | 2010-06-22 | 2011-12-22 | Emil Markov Georgiev | Method and system for interacting with datasets for display |
WO2012001572A1 (en) | 2010-06-28 | 2012-01-05 | Koninklijke Philips Electronics N.V. | Medical tomosynthesis system |
JP5654787B2 (ja) | 2010-06-30 | 2015-01-14 | 富士フイルム株式会社 | 放射線画像撮影表示方法およびシステム |
KR101687971B1 (ko) | 2010-07-19 | 2016-12-21 | 삼성전자주식회사 | 유방 촬영 장치 및 그 방법 |
JP5650467B2 (ja) | 2010-08-27 | 2015-01-07 | 富士フイルム株式会社 | 放射線画像撮影システム |
JP2012061196A (ja) * | 2010-09-17 | 2012-03-29 | Fujifilm Corp | 断層画像表示方法および装置 |
DE102010041920A1 (de) | 2010-10-04 | 2012-04-05 | Siemens Aktiengesellschaft | Verfahren zur Darstellung einer Konzentration eines Kontrastmittels in einem vorbestimmten Volumenabschnitt mittels Tomosynthese und entsprechendes Tomosynthesegerät |
JPWO2012063653A1 (ja) | 2010-11-12 | 2014-05-12 | 株式会社日立メディコ | 医用画像表示装置及び医用画像表示方法 |
KR101912959B1 (ko) | 2010-11-18 | 2018-10-29 | 홀로직, 인크. | 의료 시술을 수행하기 위한 테이블 |
US9146674B2 (en) | 2010-11-23 | 2015-09-29 | Sectra Ab | GUI controls with movable touch-control objects for alternate interactions |
US20120133600A1 (en) | 2010-11-26 | 2012-05-31 | Hologic, Inc. | User interface for medical image review workstation |
JP5170226B2 (ja) | 2010-12-10 | 2013-03-27 | カシオ計算機株式会社 | 画像処理装置、画像処理方法、及びプログラム |
DE102011003137A1 (de) * | 2011-01-25 | 2012-07-26 | Siemens Aktiengesellschaft | Bildgebungsverfahren mit einer verbesserten Darstellung eines Gewebebereichs |
CN103582455B (zh) | 2011-02-14 | 2016-12-28 | 罗切斯特大学 | 基于锥形束乳房ct图像的计算机辅助检测和诊断的方法和装置 |
FR2971412B1 (fr) | 2011-02-15 | 2014-01-17 | Gen Electric | Methode d'acquisition de la morphologie d'un sein. |
IT1404617B1 (it) | 2011-02-25 | 2013-11-29 | I M S Internaz Medicoscientifica S R L | Apparecchiatura per la tomosintesi e la mammografia. |
JP6057922B2 (ja) | 2011-03-08 | 2017-01-11 | ホロジック, インコーポレイテッドHologic, Inc. | スクリーニング、診断及び生検のための二重エネルギー及び/又は造影強化乳房撮像のためのシステム及び方法 |
DE202011004071U1 (de) | 2011-03-16 | 2011-07-27 | Siemens Aktiengesellschaft | Kompressionsplatte für Tomosynthese |
US8526763B2 (en) | 2011-05-27 | 2013-09-03 | Adobe Systems Incorporated | Seamless image composition |
BR112013033262A2 (pt) | 2011-06-27 | 2017-03-01 | Koninklijke Philips Nv | método para administrar achados clínicos de estudos em série de uma anatomia de um paciente |
KR101477543B1 (ko) | 2011-07-22 | 2014-12-31 | 삼성전자주식회사 | 엑스선 촬영 장치 및 방법 |
EP2745266B1 (en) | 2011-09-07 | 2020-05-13 | Koninklijke Philips N.V. | Interactive live segmentation with automatic selection of optimal tomography slice |
JP5439453B2 (ja) * | 2011-10-20 | 2014-03-12 | 株式会社東芝 | 画像表示装置 |
DE102011087127B4 (de) | 2011-11-25 | 2015-11-19 | Siemens Aktiengesellschaft | Bestimmung von Aufnahmeparametern bei einer Dual-Energy Tomosynthese |
JP2014534042A (ja) * | 2011-11-27 | 2014-12-18 | ホロジック, インコーポレイテッドHologic, Inc. | マンモグラフィーおよび/またはトモシンセシス画像データを使用して2d画像を生成するためのシステムおよび方法 |
EP2786309A4 (en) | 2011-11-30 | 2015-07-08 | Univ Rush Medical Center | SYSTEM AND METHOD FOR IDENTIFYING IMPLANTED MEDICAL DEVICES AND / OR DETECTING REMAINING SURGICAL PROPERTIES ON MEDICAL PICTURES |
US8594407B2 (en) | 2012-02-03 | 2013-11-26 | Siemens Aktiengesellschaft | Plane-by-plane iterative reconstruction for digital breast tomosynthesis |
US9805507B2 (en) | 2012-02-13 | 2017-10-31 | Hologic, Inc | System and method for navigating a tomosynthesis stack using synthesized image data |
JP5745444B2 (ja) | 2012-03-05 | 2015-07-08 | 富士フイルム株式会社 | 医用画像表示装置および医用画像表示方法、並びに、医用画像表示プログラム |
CN104160424B (zh) | 2012-03-08 | 2017-09-19 | 皇家飞利浦有限公司 | 用于改进多模态图像融合中的配准准确度的智能标志选择 |
JP5244250B1 (ja) | 2012-03-28 | 2013-07-24 | パナソニック株式会社 | 給電装置 |
US8842806B2 (en) | 2012-04-03 | 2014-09-23 | Carestream Health, Inc. | Apparatus and method for breast imaging |
ITBO20120227A1 (it) | 2012-04-24 | 2013-10-25 | I M S Internaz Medico Scient Ifica S R L | Apparecchiatura per eseguire un esame sul seno di un paziente. |
JP2013244211A (ja) * | 2012-05-25 | 2013-12-09 | Toshiba Corp | 医用画像処理装置、医用画像処理方法及び制御プログラム |
DE102012213910A1 (de) | 2012-08-06 | 2014-02-06 | Siemens Aktiengesellschaft | Steuerungsmodul und -verfahren zur Perspektivenbestimmung beim Rendern von medizinischen Bilddatensätzen |
KR101479212B1 (ko) | 2012-09-05 | 2015-01-06 | 삼성전자 주식회사 | 엑스선 영상 장치 및 엑스선 영상 생성 방법 |
US8983156B2 (en) | 2012-11-23 | 2015-03-17 | Icad, Inc. | System and method for improving workflow efficiences in reading tomosynthesis medical image data |
GB201221069D0 (en) | 2012-11-23 | 2013-01-09 | Univ Reading | Control method |
US9113781B2 (en) | 2013-02-07 | 2015-08-25 | Siemens Aktiengesellschaft | Method and system for on-site learning of landmark detection models for end user-specific diagnostic medical image reading |
JP6388347B2 (ja) | 2013-03-15 | 2018-09-12 | ホロジック, インコーポレイテッドHologic, Inc. | 腹臥位におけるトモシンセシス誘導生検 |
EP2967473B1 (en) | 2013-03-15 | 2020-02-19 | Hologic, Inc. | System and method for navigating a tomosynthesis stack including automatic focusing |
US9129362B2 (en) | 2013-05-22 | 2015-09-08 | Siemens Aktiengesellschaft | Semantic navigation and lesion mapping from digital breast tomosynthesis |
US9836872B2 (en) | 2013-06-28 | 2017-12-05 | Koninklijke Philips N.V. | Methods for generation of edge=preserving synthetic mammograms from tomosynthesis data |
KR20150010515A (ko) | 2013-07-19 | 2015-01-28 | 삼성전자주식회사 | 의료 영상 획득 방법 및 장치 |
US9668699B2 (en) | 2013-10-17 | 2017-06-06 | Siemens Healthcare Gmbh | Method and system for anatomical object detection using marginal space deep neural networks |
JP2016533803A (ja) | 2013-10-24 | 2016-11-04 | アンドリュー ピー. スミス, | X線誘導胸部生検をナビゲートするためのシステムおよび方法 |
US10978184B2 (en) | 2013-11-04 | 2021-04-13 | Terarecon, Inc. | Evolving contextual clinical data engine for medical information |
US10610182B2 (en) | 2014-01-15 | 2020-04-07 | Alara Systems, Inc | Converting low-dose to higher dose 3D tomosynthesis images through machine-learning processes |
JP6283850B2 (ja) | 2014-01-31 | 2018-02-28 | 国立大学法人 熊本大学 | 画像処理方法、画像処理装置及びプログラム |
JP6495003B2 (ja) | 2014-02-04 | 2019-04-03 | キヤノンメディカルシステムズ株式会社 | 医用画像処理装置、医用画像診断装置及び医用画像処理方法 |
AU2015222981B2 (en) | 2014-02-28 | 2019-01-31 | Hologic, Inc. | System and method for generating and displaying tomosynthesis image slabs |
US20150331995A1 (en) | 2014-05-14 | 2015-11-19 | Tiecheng Zhao | Evolving contextual clinical data engine for medical data processing |
US20160000399A1 (en) | 2014-07-02 | 2016-01-07 | General Electric Company | Method and apparatus for ultrasound needle guidance |
US9569864B2 (en) | 2014-09-12 | 2017-02-14 | Siemens Aktiengesellschaft | Method and apparatus for projection image generation from tomographic images |
US20180000446A1 (en) | 2014-12-24 | 2018-01-04 | Koninklijke Philips N.V. | Needle trajectory prediction for target biopsy |
JP6383321B2 (ja) | 2015-04-08 | 2018-08-29 | 株式会社エクスメディオ | 診断支援システム |
WO2016184746A1 (en) | 2015-05-18 | 2016-11-24 | Koninklijke Philips N.V. | Intra-procedural accuracy feedback for image-guided biopsy |
KR101822404B1 (ko) | 2015-11-30 | 2018-01-26 | 임욱빈 | Dnn 학습을 이용한 세포이상 여부 진단시스템 |
CA3015658A1 (en) | 2016-03-11 | 2017-09-14 | Magic Leap, Inc. | Structure learning in convolutional neural networks |
TWI609674B (zh) | 2016-05-12 | 2018-01-01 | 太豪生醫股份有限公司 | 乳房影像對位方法與影像處理裝置 |
US9589374B1 (en) | 2016-08-01 | 2017-03-07 | 12 Sigma Technologies | Computer-aided diagnosis system for medical images using deep convolutional neural networks |
US20180144244A1 (en) | 2016-11-23 | 2018-05-24 | Vital Images, Inc. | Distributed clinical workflow training of deep learning neural networks |
EP3326535B1 (en) | 2016-11-25 | 2019-06-12 | ScreenPoint Medical | Displaying system for displaying digital breast tomosynthesis data |
WO2018183549A1 (en) | 2017-03-30 | 2018-10-04 | Hologic, Inc. | System and method for synthesizing low-dimensional image data from high-dimensional image data using an object grid enhancement |
WO2018183550A1 (en) | 2017-03-30 | 2018-10-04 | Hologic, Inc. | System and method for targeted object enhancement to generate synthetic breast tissue images |
CN110621231B (zh) | 2017-03-30 | 2024-02-23 | 豪洛捷公司 | 用于分层次多级特征图像合成和表示的系统以及方法 |
WO2018236565A1 (en) | 2017-06-20 | 2018-12-27 | Hologic, Inc. | METHOD AND SYSTEM FOR MEDICAL IMAGING WITH DYNAMIC SELF-LEARNING |
US20210000553A1 (en) | 2018-05-04 | 2021-01-07 | Hologic, Inc. | Introducer and localization wire visualization |
JP7244540B2 (ja) | 2018-05-04 | 2023-03-22 | ホロジック, インコーポレイテッド | 生検針の可視化 |
WO2021021329A1 (en) | 2019-07-31 | 2021-02-04 | Google Llc | System and method for interpretation of multiple medical images using deep learning |
US20230125385A1 (en) | 2021-10-25 | 2023-04-27 | Hologic, Inc. | Auto-focus tool for multimodality image review |
-
2015
- 2015-02-26 AU AU2015222981A patent/AU2015222981B2/en active Active
- 2015-02-26 ES ES21168134T patent/ES2943561T3/es active Active
- 2015-02-26 WO PCT/US2015/017713 patent/WO2015130916A1/en active Application Filing
- 2015-02-26 EP EP18165965.7A patent/EP3417786B1/en active Active
- 2015-02-26 ES ES18165965T patent/ES2878599T3/es active Active
- 2015-02-26 JP JP2016549766A patent/JP6506769B2/ja active Active
- 2015-02-26 EP EP21168134.1A patent/EP3868301B1/en active Active
- 2015-02-26 EP EP15709035.8A patent/EP3110332B1/en active Active
- 2015-02-26 US US15/120,911 patent/US10111631B2/en active Active
- 2015-02-26 CA CA2937379A patent/CA2937379C/en active Active
- 2015-02-26 KR KR1020167023205A patent/KR102402887B1/ko active IP Right Grant
- 2015-02-26 CN CN201580010642.2A patent/CN106061389B/zh active Active
-
2018
- 2018-09-26 US US16/143,181 patent/US10575807B2/en active Active
-
2019
- 2019-03-29 JP JP2019066645A patent/JP6967031B2/ja active Active
-
2020
- 2020-02-14 US US16/792,127 patent/US11419565B2/en active Active
-
2021
- 2021-08-02 JP JP2021126592A patent/JP7317077B2/ja active Active
-
2022
- 2022-07-20 US US17/869,408 patent/US11801025B2/en active Active
-
2023
- 2023-09-19 US US18/469,775 patent/US20240138792A1/en active Pending
Also Published As
Publication number | Publication date |
---|---|
EP3868301A1 (en) | 2021-08-25 |
CN106061389A (zh) | 2016-10-26 |
JP6967031B2 (ja) | 2021-11-17 |
CA2937379C (en) | 2022-08-09 |
US20230056692A1 (en) | 2023-02-23 |
EP3110332A1 (en) | 2017-01-04 |
US20200253573A1 (en) | 2020-08-13 |
US20240138792A1 (en) | 2024-05-02 |
JP6506769B2 (ja) | 2019-04-24 |
CN106061389B (zh) | 2019-11-12 |
US11801025B2 (en) | 2023-10-31 |
JP7317077B2 (ja) | 2023-07-28 |
EP3110332B1 (en) | 2018-04-11 |
EP3868301B1 (en) | 2023-04-05 |
JP2017510323A (ja) | 2017-04-13 |
US20190125286A1 (en) | 2019-05-02 |
JP2021166941A (ja) | 2021-10-21 |
US11419565B2 (en) | 2022-08-23 |
US20160367210A1 (en) | 2016-12-22 |
JP2019122817A (ja) | 2019-07-25 |
KR102402887B1 (ko) | 2022-05-27 |
EP3417786B1 (en) | 2021-04-14 |
WO2015130916A1 (en) | 2015-09-03 |
AU2015222981A1 (en) | 2016-08-04 |
EP3417786A1 (en) | 2018-12-26 |
AU2015222981B2 (en) | 2019-01-31 |
US10575807B2 (en) | 2020-03-03 |
KR20160128315A (ko) | 2016-11-07 |
US10111631B2 (en) | 2018-10-30 |
ES2878599T3 (es) | 2021-11-19 |
CA2937379A1 (en) | 2015-09-03 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
ES2943561T3 (es) | Sistema y método para generar y visualizar bloques de imagen de tomosíntesis | |
US11663780B2 (en) | System and method for navigating a tomosynthesis stack using synthesized image data | |
ES2960537T3 (es) | Sistema y método para navegar en una biopsia de mama guiada por rayos X | |
ES2950033T3 (es) | Método para la generación de imágenes de tejido mamario sintético mediante supresión de elementos de alta densidad |