ES2878599T3 - Sistema y método para generar y visualizar bloques de imagen de tomosíntesis - Google Patents
Sistema y método para generar y visualizar bloques de imagen de tomosíntesis Download PDFInfo
- Publication number
- ES2878599T3 ES2878599T3 ES18165965T ES18165965T ES2878599T3 ES 2878599 T3 ES2878599 T3 ES 2878599T3 ES 18165965 T ES18165965 T ES 18165965T ES 18165965 T ES18165965 T ES 18165965T ES 2878599 T3 ES2878599 T3 ES 2878599T3
- Authority
- ES
- Spain
- Prior art keywords
- image
- images
- source
- blocks
- user
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 42
- 210000000481 breast Anatomy 0.000 claims abstract description 63
- 238000012545 processing Methods 0.000 claims abstract description 40
- 238000009607 mammography Methods 0.000 claims abstract description 32
- 230000008569 process Effects 0.000 claims abstract description 9
- 230000007246 mechanism Effects 0.000 claims description 20
- 210000001519 tissue Anatomy 0.000 description 48
- 230000004927 fusion Effects 0.000 description 33
- 208000004434 Calcinosis Diseases 0.000 description 27
- 230000002308 calcification Effects 0.000 description 16
- 238000012552 review Methods 0.000 description 15
- 238000003384 imaging method Methods 0.000 description 13
- 238000001514 detection method Methods 0.000 description 7
- 230000004044 response Effects 0.000 description 7
- 238000005516 engineering process Methods 0.000 description 6
- 230000008901 benefit Effects 0.000 description 5
- 238000003745 diagnosis Methods 0.000 description 5
- 238000010586 diagram Methods 0.000 description 5
- 235000019580 granularity Nutrition 0.000 description 4
- 238000013507 mapping Methods 0.000 description 4
- 206010006187 Breast cancer Diseases 0.000 description 3
- 208000026310 Breast neoplasm Diseases 0.000 description 3
- 238000001914 filtration Methods 0.000 description 3
- 230000003902 lesion Effects 0.000 description 3
- 230000005855 radiation Effects 0.000 description 3
- 230000005856 abnormality Effects 0.000 description 2
- 230000015572 biosynthetic process Effects 0.000 description 2
- 210000004204 blood vessel Anatomy 0.000 description 2
- 238000004891 communication Methods 0.000 description 2
- 230000006835 compression Effects 0.000 description 2
- 238000007906 compression Methods 0.000 description 2
- 238000013213 extrapolation Methods 0.000 description 2
- 238000002156 mixing Methods 0.000 description 2
- 238000003786 synthesis reaction Methods 0.000 description 2
- 241001061260 Emmelichthys struhsakeri Species 0.000 description 1
- 230000003213 activating effect Effects 0.000 description 1
- 230000002547 anomalous effect Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 208000031513 cyst Diseases 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000002405 diagnostic procedure Methods 0.000 description 1
- 238000006073 displacement reaction Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000005429 filling process Methods 0.000 description 1
- 238000007499 fusion processing Methods 0.000 description 1
- 210000001165 lymph node Anatomy 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000007500 overflow downdraw method Methods 0.000 description 1
- 238000012216 screening Methods 0.000 description 1
- 230000002194 synthesizing effect Effects 0.000 description 1
- 230000026676 system process Effects 0.000 description 1
- 230000007704 transition Effects 0.000 description 1
- 238000012800 visualization Methods 0.000 description 1
Classifications
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B6/00—Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
- A61B6/50—Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment specially adapted for specific body parts; specially adapted for specific clinical applications
- A61B6/502—Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment specially adapted for specific body parts; specially adapted for specific clinical applications for diagnosis of breast, i.e. mammography
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B6/00—Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
- A61B6/02—Arrangements for diagnosis sequentially in different planes; Stereoscopic radiation diagnosis
- A61B6/025—Tomosynthesis
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B6/00—Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
- A61B6/52—Devices using data or image processing specially adapted for radiation diagnosis
- A61B6/5211—Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data
- A61B6/5223—Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data generating planar views from image data, e.g. extracting a coronal view from a 3D image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T11/00—2D [Two Dimensional] image generation
- G06T11/003—Reconstruction from projections, e.g. tomography
- G06T11/008—Specific post-processing after tomographic reconstruction, e.g. voxelisation, metal artifact correction
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T11/00—2D [Two Dimensional] image generation
- G06T11/60—Editing figures and text; Combining figures or text
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10072—Tomographic images
- G06T2207/10081—Computed x-ray tomography [CT]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20021—Dividing image into blocks, subimages or windows
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20076—Probabilistic image processing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30004—Biomedical image processing
- G06T2207/30068—Mammography; Breast
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2210/00—Indexing scheme for image generation or computer graphics
- G06T2210/41—Medical
Landscapes
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Engineering & Computer Science (AREA)
- Medical Informatics (AREA)
- Physics & Mathematics (AREA)
- Biomedical Technology (AREA)
- Animal Behavior & Ethology (AREA)
- Biophysics (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- Optics & Photonics (AREA)
- Pathology (AREA)
- Radiology & Medical Imaging (AREA)
- Veterinary Medicine (AREA)
- Heart & Thoracic Surgery (AREA)
- Molecular Biology (AREA)
- Surgery (AREA)
- High Energy & Nuclear Physics (AREA)
- General Health & Medical Sciences (AREA)
- Public Health (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Dentistry (AREA)
- Oral & Maxillofacial Surgery (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Apparatus For Radiation Diagnosis (AREA)
- Ultra Sonic Daignosis Equipment (AREA)
- Image Processing (AREA)
Abstract
Sistema para procesar imágenes de tejido de mama, que comprende: un ordenador de procesamiento de imágenes; y una interfaz de usuario acoplada operativamente al ordenador de procesamiento de imágenes, en el que el ordenador de procesamiento de imágenes está configurado para obtener un conjunto de imágenes fuente de tejido de mama, seleccionándose cada imagen fuente del grupo que consiste en una imagen de reconstrucción de tomosíntesis (Tr), una imagen de proyección de tomosíntesis (Tp), una imagen de mamografía sintetizada (Ms) y una imagen de mamografía (Mp), caracterizado porque el ordenador de procesamiento de imágenes está configurada para procesar el conjunto de imágenes fuente para generar un conjunto de varios bloques (30) de imagen, comprendiendo cada bloque (301-303) de imagen una imagen sintética de una parte del tejido de mama obtenida a partir de un subconjunto respectivo del conjunto de imágenes fuente, en el que el ordenador de procesamiento de imágenes está configurado para generar cada bloque (301-303) de imágenes del conjunto de bloques (30) de imagen a partir de un número predeterminado de imágenes fuente sucesivas, en el que cada dos bloques (301, 302) de imagen adyacentes del conjunto incluyen un número de superposiciones predeterminado o introducido por el usuario de imágenes fuente sucesivas.
Description
DESCRIPCIÓN
Sistema y método para generar y visualizar bloques de imagen de tomosíntesis
La presente divulgación se refiere en general a la obtención de imágenes de mama usando tomosíntesis, y más específicamente a sistemas y métodos para obtener, procesar, sintetizar, almacenar y visualizar un conjunto de datos de tomosíntesis o un subconjunto del mismo. En particular, la presente divulgación se refiere a la generación y visualización de bloques de imagen 2D mediante la importación de datos relevantes desde un subconjunto de cortes de imagen de tomosíntesis reconstruidos de un conjunto de datos en las imágenes sintetizadas.
Antecedentes
La mamografía se ha usado durante mucho tiempo para detectar el cáncer de mama y otras anomalías. Tradicionalmente, las mamografías se han formado en película de rayos X. Más recientemente, se han introducido generadores de imágenes digitales de pantalla plana que adquieren una mamografía en forma digital y, por tanto, facilitan el análisis y el almacenamiento de los datos de imagen adquiridos, y también proporcionan otros beneficios. Además, se ha dedicado considerable atención y desarrollo tecnológico a la obtención de imágenes tridimensionales de la mama usando métodos tales como la tomosíntesis de mama. A diferencia de las imágenes 2D generadas por los sistemas de mamografía preexistentes, los sistemas de tomosíntesis de mama construyen un volumen de imágenes 3D a partir de una serie de imágenes de proyección 2D, obteniéndose cada imagen de proyección con un desplazamiento angular diferente de una fuente de rayos X en relación con el detector de imágenes cuando la fuente de rayos X se escanea sobre el detector. El volumen de imágenes 3D construido se presenta normalmente como una pluralidad de cortes de datos de imagen, reconstruyéndose matemáticamente los cortes en planos normalmente paralelos al detector de imágenes. Los cortes de tomosíntesis reconstruidos reducen o eliminan los problemas provocados por la superposición de tejido y el ruido de estructuras presente en la obtención imágenes de mamografía bidimensional, de un solo corte, al permitir que un usuario (por ejemplo, un radiólogo u otro profesional médico) se desplace por los cortes de imagen para observar sólo las estructuras en ese corte.
Recientemente se han desarrollado sistemas de tomosíntesis para la detección y el diagnóstico del cáncer de mama. En particular, Hologic, Inc. (www.hologic.com) ha desarrollado un sistema de mamografía/tomosíntesis multimodo fusionado que adquiere uno o ambos tipos de imágenes de mamografía y tomosíntesis, ya sea mientras la mama permanece inmovilizada o en diferentes compresiones de la mama. Otras empresas han propuesto la introducción de sistemas que están dedicados a la obtención de imágenes por tomosíntesis; es decir, que no incluyen la capacidad de adquirir también una mamografía en la misma compresión.
En la patente estadounidense n.° 7.760.924 se describen ejemplos de sistemas y métodos que aprovechan la experiencia médica existente con el fin de facilitar, opcionalmente, la transición a la tecnología de tomosíntesis. En particular, la patente estadounidense n.° 7.760.924 describe un método de generación de una imagen 2D sintetizada, que puede visualizarse junto con las imágenes reconstruidas o de proyección de tomosíntesis, con el fin de ayudar en la detección y el diagnóstico.
Aunque una imagen 2D sintetizada a partir de todo el conjunto de datos de tomosíntesis proporciona una visión general útil de los datos de imagen que es similar a una imagen de mamografía tradicional, una sola imagen 2D puede contener demasiados datos para facilitar la detección y el diagnóstico óptimos. Por consiguiente, existe la necesidad de sistemas y métodos de tomosíntesis para procesar, sintetizar y visualizar más eficazmente datos de imagen de tomosíntesis.
El documento US-A1-2011/0109650 da a conocer un sistema y un método según el preámbulo de las reivindicaciones independientes 1 y 8.
Sumario
La invención se define por las reivindicaciones independientes 1 y 8. Según diversas realizaciones, un sistema para procesar imágenes de tejido de mama incluye un ordenador de procesamiento de imágenes, y una interfaz de usuario acoplada operativamente al ordenador de procesamiento de imágenes, en el que el ordenador de procesamiento de imágenes está configurado para obtener datos de imagen de tejido de mama, procesar los datos de imagen para generar un conjunto de cortes de imagen reconstruidos, representando los cortes de imagen reconstruidos colectivamente el tejido de mama, procesar subconjuntos respectivos de los cortes de imagen reconstruidos para generar un conjunto de bloques de imagen, comprendiendo cada bloque de imagen una imagen 2D sintetizada de una parte del tejido de mama obtenida a partir de un subconjunto respectivo del conjunto de cortes de imagen reconstruidos. El sistema puede comprender además al menos un monitor de visualización de imágenes, en el que el ordenador de procesamiento de imágenes está configurado además para hacer que se visualicen en el mismo monitor de visualización o en uno diferente del uno o más monitores de visualización uno o más bloques de imagen del conjunto generado de bloques de imagen. En diversas realizaciones, el ordenador de procesamiento de imágenes está configurado además para generar un archivo de almacenamiento que comprende el conjunto generado de bloques de imagen.
En una realización, el ordenador de procesamiento de imágenes está configurado para generar cada bloque de imagen del conjunto a partir de un número predeterminado de cortes de imagen reconstruidos sucesivos, en el que bloques de imagen adyacentes del conjunto incluyen un número de superposiciones predeterminado de cortes de imagen reconstruidos sucesivos. En otra realización, el ordenador de procesamiento de imágenes está configurado para generar cada bloque de imagen del conjunto a partir de un número introducido por el usuario de cortes de imagen reconstruidos sucesivos, en el que bloques de imagen adyacentes del conjunto incluyen un número de superposiciones introducido por el usuario de cortes de imagen reconstruidos sucesivos. En una realización, se generan bloques respectivos a partir de seis bloques de imagen sucesivos, y en el que bloques de imagen adyacentes del conjunto incluyen una superposición de tres cortes de imagen reconstruidos sucesivos.
En diversas realizaciones, los bloques de imagen un mecanismo de mejora que se selecciona o se modifica basándose en varios cortes de imagen reconstruidos a partir de los cuales se genera el bloque de imagen respectivo. A modo de ejemplo no limitativo, el mecanismo de mejora puede seleccionarse o modificarse basándose en un valor correspondiente al número de cortes de imagen reconstruidos a partir de los cuales se genera el bloque de imagen respectivo. A modo de otro ejemplo no limitativo, el mecanismo de mejora puede comprender resaltar uno o más objetos o regiones en uno o más bloques de imagen del conjunto. En diversas realizaciones, el mecanismo de mejora tiene en cuenta uno o más de: (i) un mapa binario de las regiones o los objetos resaltados respectivos; (ii) un mapa de cada corte de imagen que incluye una distribución de probabilidades para un patrón identificado en las regiones o los objetos resaltados respectivos; y (iii) la importación de una región o un objeto identificado desde un corte de imagen del subconjunto respectivo de cortes de imagen reconstruidos en el bloque de imagen, en el que la región o el objeto se importa en el bloque de imagen en ubicaciones de coordenadas X, Y correspondientes a las ubicaciones de coordenadas X, Y de la región o el objeto en el corte de imagen reconstruido respectivo.
En otra realización de las invenciones dadas a conocer, un método para procesar datos de imagen de tejido de mama incluye obtener datos de imagen de tejido de mama, procesar los datos de imagen para generar un conjunto de cortes de imagen reconstruidos, representando los cortes de imagen reconstruidos colectivamente el tejido de mama, y procesar subconjuntos respectivos de los cortes de imagen reconstruidos para generar un conjunto de bloques de imagen, incluyendo cada bloque de imagen del conjunto una imagen 2D sintetizada de una parte del tejido de mama obtenida a partir de un subconjunto respectivo del conjunto de cortes de imagen reconstruidos. En algunas realizaciones, los bloques se generan a partir de un número predeterminado de cortes de imagen sucesivos, y los bloques de imagen sucesivos se generan a partir de una superposición predeterminada de cortes de imagen. En otras realizaciones, los bloques se generan a partir de un número introducido por el usuario de cortes de imagen sucesivos, y pueden generarse bloques de imagen sucesivos a partir de una superposición introducida por el usuario de cortes de imagen. En una realización, se generan bloques respectivos a partir de seis bloques de imagen sucesivos, y en el que bloques de imagen adyacentes del conjunto incluyen una superposición de tres cortes de imagen reconstruidos sucesivos.
En diversas realizaciones, los bloques de imagen se generan usando un mecanismo de mejora (es decir, una función de procesamiento/síntesis de imágenes) que se selecciona o se modifica basándose en varios cortes de imagen reconstruidos a partir de los cuales se genera el bloque de imagen respectivo. El mecanismo de mejora puede seleccionarse o modificarse basándose en un valor determinado anteriormente correspondiente al número de cortes de imagen reconstruidos a partir de los cuales se genera el bloque de imagen respectivo. El mecanismo de mejora puede seleccionarse o modificarse basándose en un valor determinado basándose en el número de cortes de imagen reconstruidos a partir de los cuales se genera el bloque de imagen respectivo. El mecanismo de mejora puede incluir resaltar objeto(s) y/o regiones en los bloques de imagen respectivos. El mecanismo de mejora puede tener en cuenta un mapa binario de la región o el objeto. El mecanismo de mejora puede tener en cuenta un mapa de cada corte de imagen reconstruido que incluye una distribución de probabilidades para un patrón identificado en el objeto o la región. El mecanismo de mejora puede incluir importar una región o un objeto identificado desde un corte de imagen reconstruido del subconjunto respectivo en el bloque de imagen. A modo de ejemplo no limitativo, el/los objeto(s) o la región/las regiones puede(n) importarse en el bloque de imagen en ubicaciones de coordenadas X, Y correspondientes a las ubicaciones de coordenadas X, Y de la región/las regiones o el/los objeto(s) respectivo(s) en el/los corte(s) de imagen reconstruido(s) respectivo(s).
Aún en otra realización, un método para procesar datos de imagen de tejido de mama incluye (i) obtener datos de imagen de tejido de mama, (ii) procesar los datos de imagen para generar un conjunto de cortes de imagen reconstruidos que representan colectivamente el tejido de mama, (iii) visualizar una pluralidad de cortes de imagen reconstruidos por parte de un usuario, (iv) recibir entrada de usuario que identifica un corte de imagen del conjunto, y (v) procesar un subconjunto de los cortes de imagen para generar un bloque de imagen que comprende una imagen 2D sintetizada de una parte del tejido de mama obtenida a partir del subconjunto de cortes de imagen reconstruidos, incluyendo el corte de imagen identificado por el usuario. A modo de ejemplo no limitativo, el bloque puede generarse a partir de un número introducido por el usuario de cortes de imagen sucesivos. El método también puede incluir procesar subconjuntos respectivos de los cortes de imagen reconstruidos para generar un número de bloques de imagen introducido por el usuario, incluyendo cada bloque de imagen una imagen 2D sintetizada de una parte del tejido de mama obtenida a partir del subconjunto respectivo de cortes de imagen reconstruidos, y en el que se generan bloques de imagen sucesivos de la pluralidad a partir de una superposición introducida por el usuario de
cortes de imagen reconstruidos.
Estos y otros aspectos y realizaciones de las invenciones dadas a conocer se describen con más detalle a continuación, junto con las figuras adjuntas.
Breve descripción de las figuras
Los dibujos ilustran el diseño y la utilidad de las realizaciones de las invenciones dadas a conocer, en los que se hace referencia a elementos similares mediante números de referencia comunes. Estos dibujos no están necesariamente dibujados a escala. Con el fin de apreciar mejor cómo se obtienen las ventajas y objetos mencionados anteriormente y otros, se presentará una descripción más particular de las realizaciones, que se ilustran en los dibujos adjuntos. Estos dibujos representan solo realizaciones típicas de las invenciones dadas a conocer y, por tanto, no deben considerarse limitativas de su alcance.
La figura 1 es un diagrama de bloques que ilustra el flujo de datos a través de un sistema que incluye un sistema de adquisición de mamografía/tomosíntesis de combinación y/o un sistema de adquisición sólo de tomosíntesis para adquirir imágenes de tomosíntesis y/o mamografía (incluyendo mamografía de contraste) de una mama femenina, e incluye además uno o más procesadores que implementan la tecnología de fusión de imágenes de las invenciones dadas a conocer para proporcionar una imagen sintetizada bidimensional mediante la importación de los datos más relevantes desde las imágenes fuente 2D y/o 3D adquiridas en una o más imágenes 2D fusionadas para su visualización por parte de un usuario (por ejemplo, un profesional médico, incluyendo un radiólogo);
la figura 2 es un diagrama que ilustra el flujo de datos de una serie de cortes Tr reconstruidos a través de la tecnología de fusión de imágenes de las invenciones dadas a conocer para generar un bloque de imagen IFUSIÓN sintetizado y un mapa de fusión correspondiente (“índice” o “guía”);
la figura 3 representa una realización de una imagen fusionada visualizada, en la que determinados límites de región se identifican de manera dinámica durante la creación de una imagen de fusión;
la figura 4 es un diagrama de flujo que ilustra etapas a modo de ejemplo realizadas durante un procedimiento de fusión de imágenes según una realización de las invenciones dadas a conocer;
las figuras 5A y 5B ilustran una realización de una visualización de una imagen fusionada, y una visualización resultante de una imagen fuente en respuesta a la selección de una región en la imagen fusionada por un usuario; la figura 6 representa una interfaz de usuario a modo de ejemplo, que incluye un monitor de lado izquierdo que muestra una imagen 2D sintetizada de la mama de una mujer, que incluye una estructura tisular resaltada, en la que la zona resaltada está en forma de una línea de contorno que representa un límite de la estructura tisular resaltada, y un monitor de lado derecho que muestra la imagen de tomosíntesis desde la que se importó la estructura tisular resaltada en la imagen 2D, o que proporciona de otro modo la mejor vista de la estructura tisular resaltada;
la figura 7 representa la interfaz de usuario de la figura 6, que muestra de nuevo una imagen 2D sintetizada de la mama de una mujer que incluye una masa espiculada resaltada en el monitor de la izquierda, y un monitor de lado derecho que muestra la imagen de tomosíntesis desde la que se importó la masa espiculada representada en la imagen 2D, o que proporciona de otro modo la mejor vista de la masa espiculada;
la figura 8 representa la interfaz de usuario de la figura 7, que incluye la misma imagen de mama mostrada en el monitor de lado izquierdo, pero resaltando ahora una región que contiene microcalcificaciones, mostrando el monitor de lado derecho la imagen de tomosíntesis desde la que se importó la región resaltada que contiene las microcalcificaciones en la imagen 2D, o que proporciona de otro modo la mejor vista de las microcalcificaciones; y la figura 9 es un diagrama que ilustra el flujo de datos de una serie de cortes Tr reconstruidos a través de la tecnología de fusión de imágenes de las invenciones dadas a conocer para generar una pluralidad de bloques de imagen Ifusión sintetizados.
Descripción detallada de las realizaciones ilustradas
Se supone que todos los valores numéricos en el presente documento están modificados por los términos “alrededor de” o “aproximadamente,” se indique o no explícitamente. Los términos “alrededor de” y “aproximadamente” se refieren en general a un intervalo de números que un experto habitual en la técnica consideraría equivalente al valor citado (es decir, que tiene la misma función o resultado). En muchos casos, los términos “alrededor de” y “aproximadamente” pueden incluir números que se redondean a la cifra significativa más cercana. La mención de intervalos numéricos por puntos finales incluye todos los números dentro de ese intervalo (por ejemplo, de 1 a 5 incluye 1, 1,5, 2, 2,75, 3, 3,80, 4 y 5).
Tal como se usa en esta memoria descriptiva y en las reivindicaciones adjuntas, las formas en singular “un”, “una” y
“el/la” incluyen referentes en plural, a menos que el contenido indique claramente otra cosa. Tal como se usa en esta memoria descriptiva y en las reivindicaciones adjuntas, el término “o” se emplea generalmente en su sentido que incluye “y/o” a menos que el contenido indique claramente otra cosa. Al describir las realizaciones representadas de las invenciones dadas a conocer ilustradas en las figuras adjuntas, se emplea terminología específica por motivos de claridad y facilidad de descripción. Sin embargo, la divulgación de esta memoria descriptiva de patente no pretende limitarse a la terminología específica así seleccionada, y debe entenderse que cada elemento específico incluye todos los equivalentes técnicos que operan de manera similar. Debe entenderse además que los diversos elementos y/o características de diferentes realizaciones ilustrativas pueden combinarse entre sí y/o sustituirse entre sí siempre que sea posible dentro del alcance de esta divulgación y las reivindicaciones adjuntas.
A continuación en el presente documento se describen diversas realizaciones de las invenciones dadas a conocer con referencia a las figuras. Cabe señalar que las figuras no están dibujadas a escala y que elementos de estructuras o funciones similares se representan mediante números de referencia similares en todas las figuras. Cabe señalar también que las figuras sólo están destinadas a facilitar la descripción de las realizaciones. No pretenden ser una descripción exhaustiva de las invenciones dadas a conocer, que se definen únicamente por las reivindicaciones adjuntas.
Además, no es necesario que una realización ilustrada de las invenciones dadas a conocer tenga todos los aspectos o ventajas mostrados. Una ventaja, característica o aspecto descrito junto con una realización particular de las invenciones dadas a conocer no se limita necesariamente a esa realización y puede ponerse en práctica en cualquier otra realización aunque no se ilustre de ese modo.
Para las siguientes abreviaturas y términos definidos se aplicarán estas definiciones a lo largo de esta memoria descriptiva de patente y las reivindicaciones adjuntas, a menos que se facilite una definición diferente en las reivindicaciones o en otra parte de esta memoria descriptiva:
Imagen adquirida se refiere a una imagen generada al visualizar el tejido de mama de una mujer. Las imágenes adquiridas pueden generarse mediante la radiación procedente de una fuente de radiación que incide sobre un detector de radiación dispuesto en lados opuestos del tejido de mama, como en una mamografía convencional. Imagen reconstruida se refiere a una imagen generada a partir de datos derivados de una pluralidad de imágenes adquiridas. Una imagen reconstruida simula una imagen adquirida no incluida en la pluralidad de imágenes adquiridas.
Imagen sintetizada se refiere a una imagen artificial generada a partir de datos derivados de una pluralidad de imágenes adquiridas y/o reconstruidas. Una imagen sintetizada incluye elementos (por ejemplo, objetos y regiones) de las imágenes adquiridas y/o reconstruidas, pero no corresponde necesariamente a una imagen que puede adquirirse durante la visualización. Las imágenes sintetizadas son herramientas de análisis construidas.
Mp se refiere a una mamografía convencional o mamografía mejorada por contraste, que son imágenes de proyección bidimensionales (2D) de una mama, y abarca tanto una imagen digital adquirida por un detector de pantalla plana u otro dispositivo de obtención de imágenes, como la imagen después del procesamiento convencional para prepararla para su visualización (por ejemplo, por parte de un profesional sanitario), almacenamiento (por ejemplo, en el sistema PACS de un hospital) y/u otro uso.
Tp se refiere a una imagen que de manera similar es bidimensional (2D), pero que se adquiere en un ángulo de tomosíntesis respectivo entre la mama y el origen de los rayos X de obtención de imágenes (normalmente el punto focal de un tubo de rayos X), y abarca la imagen tal como se adquirió, así como los datos de imagen después de procesarse para visualización, almacenamiento y/u otro uso.
Tr se refiere a una imagen que se reconstruye a partir de imágenes de proyección de tomosíntesis Tp, por ejemplo, de la manera descrita en una o más de las patentes estadounidenses n.os 7.577.282, 7.606.801, 7.760.924 y 8.571.289, en el que una imagen de Tr representa un corte de la mama tal como aparecería en una imagen de rayos X de proyección de ese corte en cualquier ángulo deseado, no sólo en un ángulo usado para adquirir imágenes de Tp o Mp.
Ms se refiere a una imagen de proyección 2D sintetizada, que simula imágenes de mamografía, tales como imágenes craneocaudales (CC) u oblicuas mediolaterales (MLO), y se construye usando imágenes de proyección de tomosíntesis Tp, imágenes reconstruidas de tomosíntesis Tr o una combinación de las mismas. Las imágenes de Ms pueden proporcionarse para su visualización por parte de un profesional sanitario o para almacenarlas en el sistema PACS de un hospital u otra institución. Ejemplos de métodos que pueden usarse para generar imágenes de Ms se describen en las patentes estadounidenses mencionadas anteriormente n.os 7.760.924 y 8.571.289.
Ifusión se refiere a una imagen 2D sintetizada construida mediante la importación en una sola imagen de uno o más objetos y/o regiones procedentes de dos o más de imágenes de Mp, Ms, Tp o Tr de la mama de una mujer, en la que una imagen desde la que se importa un objeto o una región en la imagen fusionada comprende una imagen
fuente para ese objeto o región, y en la que los objetos o regiones se importan en la imagen fusionada en las ubicaciones de coordenadas X, Y correspondientes a las ubicaciones de coordenadas X, Y de los objetos o regiones en su imagen fuente respectiva. Ejemplos de métodos que pueden usarse para generar imágenes Ifusión se describen en las solicitudes PCT n.os PCT/US2012/066526 y PCT/US2013/025993.
Los términos Ifusión, Tp, Tr, Ms y Mp abarcan cada uno información, en cualquier forma, que es suficiente para describir la imagen respectiva para su visualización, procesamiento adicional o almacenamiento. Las imágenes Ifusión, Mp, Ms. Tp y Tr respectivas se proporcionan normalmente en forma digital antes de visualizarse, estando definida cada imagen por información que identifica las propiedades de cada píxel en una matriz bidimensional de píxeles. Los valores de píxel se refieren normalmente a las respuestas a los rayos X medidas, estimadas o calculadas respectivas de volúmenes correspondientes en la mama, es decir, vóxeles o columnas de tejido. En una realización, la geometría de las imágenes de tomosíntesis (Tr y Tp), las imágenes de mamografía (Ms y Mp) y las imágenes fusionadas (Ifusión) se corresponde con un sistema de coordenadas común, tal como se describe en la patente estadounidense n.° 7.702.142. A menos que se especifique de otro modo, se supone que dicha correspondencia del sistema de coordenadas se implementa con respecto a las realizaciones descritas en la descripción detallada que sigue de esta memoria descriptiva de patente.
Los términos “generar una imagen” y “transmitir una imagen” se refieren respectivamente a generar y transmitir información que es suficiente para describir la imagen para su visualización. La información generada y transmitida normalmente es información digital.
La figura 1 ilustra el flujo de datos en un sistema de generación y visualización de imágenes a modo de ejemplo, que incorpora tecnología fusionada de generación y visualización de imágenes. Debe entenderse que aunque la figura 1 ilustra una realización particular de un diagrama de flujo con determinados procedimientos que tienen lugar en un orden en serie particular o en paralelo, las reivindicaciones y otras realizaciones diversas no se limitan al desempeño de las etapas de procesamiento de imágenes en ningún orden particular, a menos que se especifique de ese modo.
Más particularmente, el sistema de generación y visualización de imágenes incluye un sistema 1 de adquisición de imágenes que adquiere datos de imágenes de tomosíntesis para generar imágenes de Tp de la(s) mama(s) de una mujer, usando los métodos de adquisición tridimensionales y/o de tomosíntesis respectivos de cualquiera de los sistemas disponibles actualmente. Si el sistema de adquisición es un sistema combinado de tomosíntesis/mamografía, también pueden generarse imágenes de Mp. Algunos sistemas de tomosíntesis dedicados o sistemas combinados de tomosíntesis/mamografía pueden adaptarse para aceptar y almacenar imágenes de mamografías preexistentes (indicadas mediante una línea discontinua y la leyenda Mppreexistente en la figura 1) en un dispositivo 2 de almacenamiento, que es preferiblemente un dispositivo de almacenamiento de Sistema de Comunicación y Archivo de Imágenes (PACS) compatible con DICOM. Después de la adquisición, las imágenes de proyección de tomosíntesis Tp también pueden transmitirse al dispositivo 2 de almacenamiento (tal como se muestra en la figura 1).
Las imágenes de Tp se transmiten desde el sistema 1 de adquisición, o desde el dispositivo 2 de almacenamiento, o ambos, a un sistema informático configurado como un motor 3 de reconstrucción que reconstruye las imágenes de Tp en “cortes” de imagen reconstruida Tr, que representan cortes de mama de grosor seleccionado y en orientaciones seleccionadas, tal como se describe en las patentes y solicitudes mencionadas anteriormente. El sistema 1 de obtención de imágenes y visualización incluye además un sintetizador 42D que opera sustancialmente en paralelo con el motor de 3 reconstrucción para generar imágenes 2D que simulan mamografías tomadas en cualquier orientación (por ejemplo, CC o MLO) usando una combinación de una o más imágenes de Tp y/o Tr. Las imágenes 2D sintetizadas pueden generarse dinámicamente antes de la visualización (tal como se muestra en la figura 1) o pueden almacenarse en el sistema 2 de almacenamiento para su uso posterior. Las imágenes 2D sintetizadas se denominan indistintamente como Ifusión, T2d y Ms. El motor 3 de reconstrucción y el sintetizador 4 2D están conectados preferiblemente a un sistema 5 de visualización a través de un enlace de transmisión rápida. Las imágenes de Mp y/o Tp adquiridas originalmente también pueden enviarse al sistema 5 de visualización para la visualización simultánea o alterna con las imágenes de Ifusión, Tr y/o Ms respectivas por parte de un usuario.
Están dispuestos filtros 7a, 7b de modo entre la adquisición de imágenes y la visualización de imágenes. Cada uno de los filtros 7a y 7b puede incluir adicionalmente filtros personalizados para cada tipo de imagen (es decir, Tp, Mp y Tr) dispuestos para identificar y resaltar determinados aspectos de los tipos de imagen respectivos. De esta manera, cada modo de obtención de imágenes puede ajustarse o configurarse de manera óptima para un fin específico. El ajuste o la configuración puede ser automática, basándose en el tipo de imagen, o puede definirse mediante entrada manual, por ejemplo, a través de una interfaz de usuario acoplada a una pantalla. En la realización ilustrada de la figura 1, los filtros 7a y 7b se seleccionan para resaltar características particulares de las imágenes que mejor se visualizan en los modos de obtención de imágenes respectivos, por ejemplo, dirigidos a resaltar masas o calcificaciones, o para hacer que las imágenes fusionadas (descritas a continuación) parezcan ser un tipo de imagen particular, tal como un corte reconstruido 3D o una mamografía 2D.
Según una realización de las invenciones dadas a conocer, y tal como se describe con mayor detalle en el presente documento, el sistema 1 incluye un procesador 6 de fusión de imágenes que fusiona datos de imagen relevantes
obtenidos de un conjunto de imágenes fuente y sintetizadas disponibles de la(s) mama(s) de una mujer para proporcionar una o más imágenes 2D fusionadas (“bloque” o Ifusión) para su visualización. El conjunto de imágenes disponibles usadas para generar las imágenes fusionadas (“bloque” o Ifusión) puede incluir imágenes de Ms, Mp, Tr y/o Tp filtradas y/o sin filtrar. Mientras que la figura 1 representa todos estos tipos de imágenes que se introducen en el procesador 6 de fusión de imágenes, también se prevé dentro del alcance de las invenciones dadas a conocer que las imágenes fusionadas pueden configurarse manualmente. Por ejemplo, puede proporcionarse y configurarse una interfaz de usuario o configuración preestablecida para permitir que un usuario seleccione un grupo particular de dos o más imágenes o tipos de imágenes para generar un “bloque” o Ifusión de imágenes 2D sintetizadas para su visualización.
A modo de ilustración, un usuario, tal como un radiólogo u otro profesional médico, puede desear fusionar dos o más cortes de tomosíntesis reconstruidos (Tr) con el fin de proporcionar una imagen fusionada que muestra las estructuras más fáciles de discernir en los datos de imagen de tomosíntesis colectivos en una imagen 2D sintetizada visualizada (“bloque” o Ifusión), que mapea esencialmente los cortes de tomosíntesis con una granularidad de píxeles. Adicional o alternativamente, el usuario puede combinar una imagen de mamografía 2D, ya sea Mp o Ms, con una proyección 3D (Tp), o con imágenes reconstruidas seleccionadas (Tr), con el fin de obtener una imagen fusionada personalizada (“bloque” o Ifusión) que resalta tanto calcificaciones como diversas estructuras tisulares de la mama. Los filtros aplicados a cada tipo de imagen pueden resaltar adicionalmente los tipos de estructuras o características en una imagen fusionada que generalmente son más prevalentes o más fáciles de discernir en el tipo de imagen fuente respectivo. Por tanto, puede aplicarse un tipo de filtro a las imágenes de mamografía para resaltar calcificaciones, mientras que puede aplicarse un filtro diferente a los cortes de tomosíntesis para resaltar masas, lo que permite que tanto las calcificaciones resaltadas como las masas tisulares resaltadas se visualicen en una sola imagen fusionada. Los filtros también pueden proporcionar una imagen fusionada con un aspecto y una sensación deseados; es decir, para hacer que una imagen fusionada parezca más como una imagen de tomosíntesis o mamografía.
El sistema 5 de pantalla puede formar parte de una estación de trabajo de adquisición convencional (por ejemplo, del sistema 1 de adquisición), o de una estación de revisión convencional (visualización múltiple) (no mostrada) que está físicamente alejada del sistema 1 de adquisición. En algunas realizaciones, puede usarse una pantalla conectada a través de una red de comunicación, por ejemplo, una pantalla de un ordenador personal o de una denominada tableta, teléfono inteligente u otro dispositivo portátil. En cualquier caso, la pantalla 5 del sistema puede visualizar preferiblemente imágenes Ifusión, Ms, Mp, Tr y/o Tp simultáneamente, por ejemplo, en monitores independientes uno al lado del otro de una estación de trabajo de revisión, aunque la invención todavía puede implementarse con un solo monitor de visualización, alternando entre imágenes.
Para facilitar el procedimiento de detección/diagnóstico, los cortes de Tr se reconstruyen preferiblemente todos al mismo tamaño para su visualización, que puede ser el mismo que el tamaño de una imagen de Mp o Ms de la mama, o pueden reconstruirse inicialmente a tamaños determinados por la forma de abanico del haz de rayos X usado en la adquisición, y luego convertirse a ese mismo tamaño mediante interpolación y/o extrapolación apropiadas. De esta manera, pueden visualizarse imágenes de diferentes tipos y de diferentes fuentes con el tamaño y la resolución deseados. Por ejemplo, una imagen puede visualizarse en (1) modo de ajuste a puerto de visualización, en el que el tamaño de la imagen visualizada se maximiza de manera que todo el tejido de mama obtenido como imagen sea visible, (2) modo de tamaño real, en el que un píxel de visualización en la pantalla se corresponde con un píxel de la imagen, o (3) modo de tamaño correcto, en el que el tamaño de una imagen visualizada se ajusta para que coincida con el de otra imagen que se visualiza simultáneamente, o con el que la imagen visualizada se alterna o puede alternarse.
Por ejemplo, si se toman dos imágenes de la misma mama y no son del mismo tamaño, o no tienen la misma resolución, pueden tomarse medidas para aumentar o reducir el aumento de manera automática o selectivamente por parte del usuario (es decir, “acercar” o “alejar”) de una o ambas imágenes, de modo que parezcan tener el mismo tamaño cuando se visualizan simultáneamente, o cuando un usuario alterna entre las imágenes. Pueden usarse técnicas conocidas de interpolación, extrapolación y/o ponderación para realizar el proceso de redimensionamiento, y también puede usarse tecnología de procesamiento de imágenes conocida para hacer que otras características de las imágenes visualizadas sean similares de manera que se facilite la detección/el diagnóstico. Cuando se visualizan tales imágenes redimensionadas, según una realización de las invenciones dadas a conocer, las imágenes fusionadas (“bloque” o Ifusión) se redimensionan automáticamente, en consecuencia.
Por tanto, el sistema 1, que se describe con fines de ilustración y no de limitación en esta memoria descriptiva de patente, puede recibir y visualizar selectivamente imágenes de proyección de tomosíntesis Tp, imágenes de reconstrucción de tomosíntesis Tr, imágenes de mamografía sintetizadas Ms y/o imágenes de mamografía Mp (incluyendo mamografía de contraste), o cualquiera o una subcombinación de estos tipos de imágenes. El sistema 1 emplea software para convertir (es decir, reconstruir) imágenes de tomosíntesis Tp en imágenes Tr, software para sintetizar imágenes de mamografía Ms y software para fusionar un conjunto de imágenes para proporcionar un conjunto de imágenes fusionadas (“bloques” o Ifusión) cada uno de los cuales visualiza, para cada región de la imagen fusionada, la característica más relevante en esa región entre todas las imágenes del conjunto de imágenes fuente. Para los fines de esta memoria descriptiva de patente, un objeto de interés o característica en una imagen
fuente puede considerarse la característica “más relevante” para su inclusión en una imagen fusionada basándose en la aplicación de uno o más algoritmos de CAD a las imágenes fuente colectivas, en los que los algoritmos de CAD asignan valores numéricos, ponderaciones o umbrales, a píxeles o regiones de las imágenes fuente respectivas basándose en características de interés y objetos identificados/detectados dentro de la región respectiva o entre las características o, en los casos en que las imágenes fusionadas se generan directamente a partir la imagen sintetizada sin ayuda de CAD, simplemente el valor de píxel, la ponderación u otro umbral asociado con un píxel o una región de la imagen. Los objetos y las características de interés pueden incluir, por ejemplo, lesiones espiculadas, calcificaciones y similares. Actualmente se conocen bien diversos sistemas y métodos para la detección computarizada de anomalías en imágenes radiográficas, tales como las descritas por Giger et al. en RadioGraphics, mayo de 1993, págs. 647-656; Giger et al. en Proceedings de SPIE, Vol. 1445 (1991), págs. 101 103; y las patentes estadounidenses n.os 4.907.156, 5.133.020, 5.343.390 y 5.491.627.
La figura 2 es un diagrama que ilustra gráficamente la fusión de datos de imagen de un conjunto de imágenes de reconstrucción de tomosíntesis (Tr), que comprende los cortes 10A a 10N de tomosíntesis, para generar una imagen 30 fusionada sintética (“bloque” o Ifusión). Para facilitar la descripción, no se muestran filtros en este ejemplo. El conjunto de datos de imagen de tomosíntesis (Tr) se envía al procesador 6 de comparación de regiones y fusión de imágenes, que evalúa cada una de las imágenes 10A-10N fuente para las que van a generarse una pluralidad de imágenes combinadas (es decir, ya sea automáticamente o basándose en un comando de usuario específico) con el fin de (1) identificar los objetos y las características de interés en cada imagen para aquellas que puedan considerarse la característica “más relevante” para su posible inclusión en una o más imágenes 30 fusionadas basándose en la aplicación de uno o más más algoritmos de CAD (tal como se describió anteriormente), (2) identificar regiones de píxel respectivas en las imágenes 10A-10N que contienen las características identificadas, y (3) luego comparar las imágenes región por región, buscando aquella imagen 10A-10N con los datos de visualización más deseables para cada región respectiva.
Tal como se comentó anteriormente, la imagen 10A-10N con los datos de visualización más deseables puede ser una imagen con el valor de píxel más alto, el valor de píxel más bajo, o a la que se ha asignado una ponderación o valor umbral basándose en la aplicación de un algoritmo de CAD a la imagen 10A-10N. Cuando se identifica la imagen 10A-10N con los datos de visualización más deseables para esa región, los píxeles de esa región se copian en la región correspondiente de una o más imágenes 30 fusionadas. Por ejemplo, tal como se muestra en la figura 2, la región 35Tr del corte 10A de tomosíntesis se copia en la región 351 de una imagen 30 fusionada. De manera similar, la región 36Tr del corte 10B de tomosíntesis se copia en la región 361 de la imagen 30 fusionada. Opcionalmente, el procesador 6 de comparación de regiones y fusión de imágenes puede generar un mapa 40 de índice que identifica las imágenes 10A, 10B fuente de los objetos 351, 361 en la imagen 30 fusionada. Aunque las regiones de la figura 2 se muestran como regiones de cuadrícula predefinidas, no es necesario que las regiones estén predefinidas de esta manera. Más bien, según una realización de las invenciones dadas a conocer, los límites de las regiones pueden identificarse dinámicamente durante el proceso de comparación de regiones y generación de imágenes realizando comparaciones en granularidades de píxel o de múltiples píxeles.
En la realización mostrada en la figura 9, una pluralidad de imágenes 30 fusionadas (“bloques” o Ifusión) se sintetizan a partir de un conjunto o pila de imágenes 10 de Tr reconstruidas (“cortes”). Por ejemplo, se generan 11 bloques 30 de imagen fusionada a partir de una pila que incluye 60 cortes 101-1060 de Tr reconstruidos, que se divide en 11 subconjuntos superpuestos de cortes 10 de Tr (solo se muestran los cortes 101-1020 y los bloques 301-303 para mayor claridad). El primer bloque 301 de imagen fusionada se sintetiza a partir de los cortes 101-1010 de Tr, el segundo bloque 302 de imagen fusionada se sintetiza a partir de los cortes 106-1015 de Tr, el tercer bloque 303 de imagen fusionada se sintetiza a partir de los cortes 10n-1020 de Tr, etc. Este patrón se repite hasta el undécimo bloque 30n de imagen fusionada a partir de los cortes 1051-1060 de Tr. En esta realización, el patrón por defecto de bloques 30 de imagen fusionada incluye un grosor de 10 cortes (es decir, N = 10 en la figura 2) con una superposición de 5 cortes entre bloques 30 adyacentes. Para una pila que tiene varios cortes 10 de Tr no divisibles entre 10, los bloques 30 de imagen fusionada en un extremo de la pila pueden tener un número diferente de cortes 10 de Tr por bloque 30 y/o una superposición diferente con el bloque 30 adyacente.
Aunque la realización descrita anteriormente tiene un patrón por defecto específico de bloques 30 de imagen fusionada, la invención abarca cualquier número de cortes 10 de Tr por bloque 30, cualquier cantidad de superposición entre bloques 30 adyacentes y cualquier tamaño de pila. A modo de ejemplos no limitativos: en una realización, hay seis cortes 10 Tr por bloque 30, con una superposición de tres cortes entre bloques adyacentes. En otra realización, hay ocho cortes de Tr por bloque 30, con una superposición de cuatro cortes entre bloques adyacentes. Todavía en otra realización, hay quince cortes 10 de Tr por bloque 30, con una superposición de diez cortes entre bloques adyacentes. En particular, no es necesario que la cantidad de cortes 10 de Tr superpuestos en bloques 30 adyacentes sea exacta o aproximadamente la mitad del tamaño de bloque respectivo, sino que puede ser cualquier número de cortes 10 de Tr seleccionado por el operador.
En otra realización, el sistema puede visualizar una interfaz de usuario configurada para recibir la entrada de un usuario. La entrada de usuario puede incluir varios cortes 10 de Tr por bloque 30, una cantidad de superposición entre bloques 30 adyacentes y un tamaño de pila. El sistema genera la pluralidad de bloques 30 basándose en la entrada del usuario. Aún en otra realización con una interfaz de usuario, la entrada de usuario puede incluir un
número de corte de Tr (por ejemplo, 1026) y varios cortes (por ejemplo, cinco), y el sistema genera entonces un solo bloque 30 basándose en esta entrada del usuario. El bloque 30 se genera a partir de un subconjunto de cortes 10 de Tr centrados en el corte de Tr correspondiente al número de corte de Tr proporcionado por el usuario con el número proporcionado de cortes en cada lado del corte de Tr central (por ejemplo, 1020-1031). Aunque se han descrito dos tipos de entrada de usuario, las reivindicaciones abarcan otros tipos de entrada de usuario.
Todavía en otras realizaciones, el número de cortes 10 de Tr por bloque 30, la cantidad de superposición entre bloques 30 adyacentes y/o el tamaño de pila respectivo son valores preestablecidos, y los bloques se generan automáticamente según los valores preestablecidos sin requerir entrada de usuario. En algunas de tales realizaciones de “mapeo automático”, todavía puede ser posible que el usuario anule cualquiera de los valores preestablecidos de tamaño de bloque, cantidad de superposición de cortes y tamaño de pila.
La figura 3 ilustra una imagen 50 fusionada, que se ha construido a través de las combinaciones de numerosas regiones 52 de diferentes imágenes fuente (cortes TrA, TrB, Trf y TrX de tomosíntesis Tr), en límites de región arbitrarios, por ejemplo, que pueden identificarse según la detección de características particulares dentro de las imágenes fuente TrA, TrB, Trf y TrX respectivas. Aunque las imágenes 30 y 50 fusionadas representadas en las figuras 2 y 3 se generan a partir de imágenes de reconstrucción de tomosíntesis o “cortes” (Tr), pueden generarse imágenes fusionadas a partir de imágenes de proyección de tomosíntesis Tp, imágenes de reconstrucción de tomosíntesis Tr, imágenes de mamografía sintetizadas Ms y/o imágenes de mamografía Mp (incluyendo mamografía de contraste).
La figura 4 es un diagrama de flujo proporcionado para ilustrar etapas a modo de ejemplo que pueden realizarse en un proceso de fusión de imágenes llevado a cabo según una realización de las invenciones dadas a conocer. En la etapa 62, se adquiere un conjunto de datos de imagen. El conjunto de datos de imagen puede adquirirse mediante un sistema de adquisición de tomosíntesis, un sistema de combinación de tomosíntesis/mamografía o recuperando datos de imagen preexistentes de un dispositivo de almacenamiento, ubicado ya sea local o remotamente en relación con un dispositivo de visualización de imágenes. En la etapa 64, un usuario puede seleccionar opcionalmente un modo de fusión, en el que el usuario puede designar (1) qué imágenes van a usarse para el conjunto de imágenes fuente para generar una o más imágenes fusionadas, (2) si resaltar determinadas características en las imágenes fusionadas, tales como calcificaciones, lesiones espiculadas o masas, y (3) si visualizar la imagen como una imagen de tomosíntesis de menor resolución, etc. En la etapa 66, las imágenes que van a fusionarse para generar las imágenes fusionadas se mapean en un sistema de coordenadas común, por ejemplo, tal como se describe en la patente estadounidense n.° 7.702.142 a la que se ha hecho referencia anteriormente. Alternativamente, pueden usarse otros métodos para hacer coincidir imágenes de diferentes sistemas de coordenadas. En la etapa 72, comienza el proceso de comparar regiones entre las diferentes imágenes. En la etapa 74, cada región de Ifusión se rellena con los píxeles de la región de una imagen del conjunto de imágenes fuente que tiene los píxeles, el valor o el patrón más deseables. El proceso de rellenar regiones continúa hasta que se determina, en la etapa 76, que se han evaluado todas las regiones, momento en el que las imágenes fusionadas están listas para su visualización.
Una vez que se generan las imágenes fusionadas, pueden usarse para ayudar en la navegación a través de una pila de datos de imagen de tomosíntesis a partir de la cual se generó la imagen fusionada. Tal navegación es un procedimiento de dos etapas que comprende la selección de diversos objetos de interés y la visualización de las imágenes de tomosíntesis correspondientes que son la fuente de tales objetos de interés en una o más de las imágenes fusionadas. A modo de ejemplo, la figura 5A y la figura 5B ilustran dos vistas de una pantalla 80. La primera vista de la pantalla 80 mostrada en la figura 5A ilustra una imagen 82 fusionada, que tiene regiones originadas por diferentes imágenes de un conjunto de imágenes adquiridas o sintetizadas. La figura 5B ilustra una característica particular habilitada por las invenciones dadas a conocer, mediante lo cual un usuario puede seleccionar una región o área 83 dentro de la imagen 82 fusionada, y la fuente 84 de imagen resultante para esa área se presenta al usuario.
Las realizaciones dadas a conocer pueden emplear muchos mecanismos diferentes para la selección de los objetos de interés y la visualización correspondiente de las imágenes fuente respectivas correspondientes; aunque debe entenderse que las invenciones dadas a conocer no se limitan a las descritas en el presente documento. Por ejemplo, la selección de una región o área dentro de una imagen fusionada puede incluir una selección de una marca de CAD o, alternativamente una selección de una característica de interés particular para el revisor. La navegación por datos de imagen de tomosíntesis usando una imagen combinada se detalla en las solicitudes PCT n.os PCT/US2012/066526 y PCT/US2013/025993.
Se apreciará que los sistemas y métodos dados a conocer y descritos en esta memoria descriptiva de patente están diseñados para condensar la información de imagen disponible desde un volumen de reconstrucción de tomosíntesis (o “pila”) que contiene datos de imagen de mama en 3D hasta un conjunto de imágenes 2D sintetizadas. similares a las imágenes mamográficas 2D convencionales. Al revisar estas imágenes 2D sintetizadas simultáneamente con o sin la pila de tomosíntesis 3D, es posible proporcionar una revisión mucho más eficaz y precisa del tejido de mama. En realizaciones con revisión concurrente, las imágenes fusionadas 2D sintetizadas pueden actuar como un mapa de guía, de modo que el usuario que revisa las imágenes puede centrarse en las imágenes 2D sintetizadas para
detectar cualquier objeto o región de interés que justifique una revisión adicional, y el sistema puede proporcionar navegación inmediata y automatizada a un corte de imagen de tomosíntesis “mejor” correspondiente (o un subconjunto de cortes de tomosíntesis adyacentes) para permitir que el usuario realice esta revisión adicional para verificar y evaluar el hallazgo. Por tanto, se prefiere, aunque no es necesario para poner en práctica todas las realizaciones, que el usuario emplee una interfaz de usuario que pueda visualizar una imagen fusionada 2D sintetizada respectiva junto a los cortes de imagen de volumen de tomosíntesis, para la visualización simultánea de ambos.
La pluralidad de imágenes 2D y/o 3D a partir de las cuales se generan las imágenes 2D sintetizadas puede incluir imágenes de proyección de tomosíntesis, cortes de reconstrucción de tomosíntesis, imágenes de mamografía, imágenes de mamografía mejorada por contraste, imágenes 2D sintetizadas y combinaciones de las mismas. Se apreciará que las imágenes 2D sintetizadas incorporan ventajosamente la información más relevante de cada uno de los conjuntos de datos de imagen subyacentes adquiridos y generados por ordenador de la mama respectiva. Por tanto, pueden obtenerse diferentes regiones de píxeles en las imágenes 2D sintetizadas visualizadas de imágenes diferentes correspondientes en el conjunto de datos de imagen subyacente, dependiendo de qué imagen subyacente sea mejor para visualizar un objeto de interés, por ejemplo, una masa o una calcificación, en la región respectiva. Las regiones particulares pueden identificarse estáticamente, es decir, dentro de una cuadrícula particular, o dinámicamente, es decir, basándose en objetos de interés identificados, y pueden oscilar en granularidad desde tan solo un píxel hasta todos los píxeles en la imagen respectiva. En una realización, se da prioridad a importar primero en una imagen fusionada en construcción aquellas regiones que contienen una o más estructuras tisulares específicas de interés en las imágenes de un conjunto de datos de imagen de tomosíntesis (o “pila”), y luego rellenar las regiones restantes de la imagen fusionada con las regiones por lo demás más relevantes de las imágenes, tal como se describió anteriormente.
La interfaz de usuario puede incluir adicionalmente características para permitir que el usuario manipule los datos de tomosíntesis presentados, por ejemplo, para permitir que el usuario explore a través de cortes de imagen adyacentes de la pila de tomosíntesis, o para hacer acercar (ampliar) en una región seleccionada, para colocar marcadores, o alternativamente para aplicar filtros u otras técnicas de procesamiento de imágenes a los datos de la imagen. De esta manera, el usuario puede revisar rápidamente una gran pila de datos de tomosíntesis utilizando las imágenes 2D sintetizadas con fines de navegación, aumentando de ese modo el rendimiento y la eficiencia de la detección y el diagnóstico del cáncer de mama. Según otra realización, se ha determinado o apreciado de otro modo que tipos de imágenes particulares pueden incluir o ser superiores para visualizar diferentes tipos de información relevante. Por ejemplo, las calcificaciones generalmente se visualizan mejor en mamografías 2D, mientras que las masas normalmente se visualizan mejor usando imágenes reconstruidas 3D.
Por tanto, en una realización, se aplican diferentes filtros a cada uno de los diferentes tipos de imágenes subyacentes 2D y/o 3D en el conjunto de datos de imagen utilizado para generar las imágenes fusionadas, seleccionándose los filtros para resaltar características particulares de las imágenes que mejor se visualizan en los respectivos modos de imagen. El filtrado adecuado de las imágenes antes de generar las imágenes fusionadas ayuda a garantizar que las imágenes fusionadas finales incluyen la información más relevante que puede obtenerse de todos los tipos de imágenes subyacentes. Adicional y/o alternativamente, el tipo de filtrado realizado para las diversas imágenes puede definirse a través de la entrada del usuario, lo que permite que el usuario seleccione un “modo de fusión”, por ejemplo, dirigido a resaltar masas, calcificaciones o para hacer que las imágenes fusionadas. parezcan ser un tipo de imagen particular, tal como un corte reconstruido 3D o una mamografía 2D.
La síntesis de las imágenes 2D puede realizarse de diversas formas. Por ejemplo, en una realización, se usan algoritmos de filtrado de imágenes de uso general para identificar características dentro de cada una de las imágenes fuente 2D y 3D respectivas, y un usuario puede seleccionar si usar datos filtrados 2D y/o datos filtrados 3D para generar las imágenes fusionadas. Alternativamente, pueden seleccionarse automáticamente datos filtrados 2D o 3D según un modo de visualización particular que haya seleccionado el usuario; por ejemplo, el sistema puede seleccionar automáticamente datos filtrados 2D para el modo de visualización de calcificación, mientras que el sistema puede seleccionar automáticamente datos filtrados en 3D para los modos de visualización de masas. En una realización, pueden construirse dos conjuntos diferentes de imágenes fusionadas, uno para cada modo; alternativamente, puede construirse un único conjunto de imágenes fusionadas que tenga en cuenta los resultados de los datos de imagen filtrados respectivos de todos los tipos de imágenes disponibles.
En una realización, se identifican características (que representan posibles objetos de interés) en las imágenes fuente disponibles y después se ponderan, por ejemplo, píxel por píxel o región por región en cada imagen respectiva. Entonces se construye una imagen 2D incorporando las regiones respectivas que tienen la ponderación más significativa en imágenes individuales de las imágenes fuente disponibles. El tamaño de la región puede variar en granularidad de un píxel a muchos (o incluso todos) píxeles de la imagen respectiva, y puede estar predefinido estáticamente, o puede tener márgenes que varían según los umbrales variables de las imágenes fuente. La imagen sintetizada (también conocida como “fusionada”) puede procesarse previamente y almacenarse como un objeto de DICOM después de la adquisición de tomosíntesis y, posteriormente enviarse con los datos de reconstrucción para su posterior revisión por parte de un usuario. Tal disposición elimina la necesidad de enviar información de ponderación para cada corte reconstruido. Alternativamente, el objeto de DICOM almacenado puede incluir la
información de ponderación, lo que permite que las imágenes fusionadas se construyan dinámicamente en respuesta a una solicitud de imágenes 2D sintetizadas en la estación de trabajo del usuario. En una realización, tanto la información de ponderación como la imagen 2D sintetizada pueden proporcionarse en el objeto de DICOM, lo que permite la presentación de un conjunto por defecto de imágenes fusionadas, al tiempo que todavía permite la personalización según el flujo de trabajo personal del revisor. Para ser claros, la información de ponderación puede almacenarse con la propia imagen y no es necesario que sea un archivo independiente.
La ponderación o mejora de las características en las imágenes fuente puede modificarse basándose en el número de cortes Tr a partir de los cuales se generan bloques de Ifusión. Por ejemplo, un factor, coeficiente, valor o ponderación usado para ponderar una característica en una imagen fuente puede dar como resultado una mayor ponderación de la característica en un corte de Tr cuando el bloque va a generarse a partir de 30 cortes, cuando se compara con la ponderación de la misma característica en el mismo corte de Tr cuando el bloque va a generarse a partir de 10 cortes. Además, la selección de características que se ponderarán puede modificarse basándose en el número de cortes de Tr a partir de los cuales se generan bloques de Ifusión. Por ejemplo, pueden ponderarse o mejorarse más características cuando se generan más de un bloque a partir de más cortes. Los factores de ponderación pueden predeterminarse y almacenarse en una tabla de consulta en el sistema. Alternativamente, los factores de ponderación pueden determinarse empírica o matemáticamente a partir del número de cortes de Tr a partir de los cuales van a generarse bloques de Ifusión. De esta manera, las características de los cortes de Tr fuente pueden mejorarse en los bloques de Ifusión sintética. Los bloques de Ifusión sintética pueden presentar información enriquecida al combinar características clínicamente relevantes de múltiples cortes de Tr y resaltarlas. Estos bloques pueden usarse para impulsar el procesamiento y análisis de imágenes adicional, y para proporcionar un rendimiento mejorado de revisión de datos y aumentar la eficiencia y el rendimiento.
se comprende que la visualización de las imágenes 2D sintetizadas puede tener algunos inconvenientes. Por ejemplo, puede haber regiones vecinas en una imagen fusionada que presenten calcificaciones brillantes, pero que de hecho procedan de cortes de imagen que están distantes entre sí en el plano z. Por tanto, lo que puede parecer que es una agrupación de microcalcificaciones en una imagen 2D pueden ser de hecho calcificaciones individuales que se distribuyen (es decir, a lo largo del eje z) por toda la mama y, por tanto, en realidad no representan una agrupación de microcalcificaciones que requiere una revisión adicional. Por tanto, según otra realización, puede proporcionarse un “indicador de dispersión de agrupaciones” con la imagen 2D sintetizada, que indica visualmente la distribución de calcificaciones a lo largo del plano z, lo que permite al usuario evaluar rápidamente si un grupo de calcificaciones comprende una agrupación de calcificaciones.
Las imágenes 2D sintetizadas las visualiza el usuario del sistema descrito (por ejemplo, el profesional médico o el radiólogo), normalmente en una estación de trabajo que tiene monitores uno al lado del otro tal como se representa en la figura 5B. Dependiendo de cómo haya configurado el usuario la estación de trabajo, cuando se inicia la revisión de los datos de la imagen de la mama de una persona en particular, sólo pueden presentarse las imágenes 2D sintetizadas, por ejemplo, en el monitor de lado izquierdo, quedando el monitor de lado derecho en blanco, o quizás representando un corte de imagen primero o medio de la pila de tomosíntesis, preferiblemente dependiendo de una configuración que el usuario puede seleccionar. En una realización, el sistema visualizará inicialmente y en serie las imágenes 2D sintetizadas en el monitor de lado izquierdo, y la imagen “más relevante” de las imágenes de corte de tomosíntesis en el monitor de lado derecho, que el sistema determinó basándose en que el corte de tomosíntesis visualizado que tiene el aspecto más similar a cada imagen 2D sintetizada, o que tiene los objetos relativamente más interesantes, fuera de la pila de imágenes de tomosíntesis para todo el volumen de mama.
Tal como se señaló anteriormente, en diversas realizaciones, un objeto o región puede resaltarse automáticamente en la imagen 2D sintetizada y/o visualizarse al menos parte de una o más imágenes de la pluralidad. Adicional y/o alternativamente, puede resaltarse un objeto o región en la imagen 2D sintetizada y/o visualizarse al menos parte de la una o más imágenes de la pluralidad en respuesta a un comando de usuario recibido adicional o a determinada actividad del usuario detectada a través de la interfaz de usuario. A modo de ejemplo no limitativo, un objeto o región puede resaltarse mediante una línea de contorno que representa un límite de la región o el objeto resaltado. Preferiblemente, la región o el objeto se resalta de una manera que indica que la región o el objeto resaltado es o contiene un tipo específico de estructura tisular.
Mientras que el sistema procesa un subconjunto de cortes de Tr para generar un bloque de Ifusión, puede incorporar información adicional diseñada para seleccionar como objetivo/resaltar determinados objetos, lesiones o regiones. La información usada para seleccionar como objetivo/resaltar estos objetos puede importarse de diversas formas, tal como un mapa binario de regiones u objetos identificados, o como un mapa continuo que incluye la distribución de probabilidades para determinados patrones.
A modo de ilustración, la figura 6 representa una pantalla 122 de estación de trabajo a modo de ejemplo, que incluye un monitor 124 de lado izquierdo (“C-View”) que visualiza una imagen 132 de una pluralidad de imágenes 2d sintetizadas de la mama de una mujer. La imagen 1322D sintetizada incluye una estructura 134 tisular resaltada, en la que la zona resaltada está en forma de una línea de contorno que representa un límite de la estructura tisular. Esta zona resaltada puede haberla realizado automáticamente el sistema, por ejemplo, en el momento en que la imagen 1322D se visualiza inicialmente, o sólo en respuesta a una indicación o un comando de usuario específico,
por ejemplo, al pasar un puntero sobre el objeto 134 en la imagen 1322D. La pantalla 122 de estación de trabajo también incluye un monitor 126 de lado derecho que visualiza la imagen 136 de tomosíntesis respectiva (que es el corte n.° 18 de la pila de volumen de tomosíntesis, tal como se indica en el lado inferior derecho del monitor 126), que es la imagen fuente o que proporciona de otro modo la vista más similar de la estructura 134 tisular resaltada tal como se observa en la imagen 132 sintetizada. En particular, la interfaz de usuario asociada con la pantalla 122 permite que un usuario seleccione o indique de otro modo una ubicación en el imagen 132 2D sintetizada, por ejemplo, visualizando un puntero, una cruz, un círculo u otro objeto geométrico similar, y luego introduzca un tipo de comando determinado (por ejemplo, clic de ratón) que el sistema reconocerá como una petición del usuario para tener la fuente correspondiente o de otro modo el/los corte(s) de tomosíntesis más similares que representen la región u objeto subyacente al puntero visualizado en el monitor 126.
La figura 7 representa la pantalla 122 de estación de trabajo, en la que se visualiza una imagen 142 diferente de la pluralidad de imágenes de mama 2D sintetizadas en el monitor 124 C-View de lado izquierdo. La imagen 1422D sintetizada incluye una estructura 144 tisular resaltada, en la que la zona resaltada tiene una forma geométrica, en este caso un círculo, para indicar que el objeto 144 es una masa espiculada. De nuevo, esta zona resaltada puede haberla realizado automáticamente el sistema, por ejemplo, en el momento en que la imagen 1422D se visualiza inicialmente, o sólo en respuesta a una indicación o un comando de usuario específico, por ejemplo, al pasar un puntero sobre el objeto 144 en la imagen 142 2D. El monitor 126 de lado derecho visualiza la imagen 146 de tomosíntesis respectiva (que es el corte n.° 33 de la pila de volumen de tomosíntesis, tal como se indica en el lado inferior derecho del monitor 126), que es la imagen fuente o que proporciona de otro modo la vista más similar de la estructura 144 tisular resaltada tal como se observa en la imagen 132 sintetizada.
Debe apreciarse que habrá casos en los que el mapeo entre una región o un objeto en una imagen 2D fusionada a la región o el objeto respectivo en la imagen visualizada (es decir, la imagen fuente o “mejor”) puede no ser necesariamente de 1 a 1, y posiblemente será “de 1 a muchas” en determinadas circunstancias, por ejemplo, cuando múltiples estructuras de líneas en diferentes cortes de imagen de tomosíntesis se combinan entre sí para formar estructuras de cruce de líneas en la imagen 2D sintetizada. A modo de ejemplo, la figura 8 representa la pantalla 122 de estación de trabajo del usuario, que incluye la misma imagen 142 de mama 2D sintetizada que se visualiza en la figura 7, pero ahora resaltando una región 154 que contiene microcalcificaciones, mostrando el monitor de lado derecho el corte 156 de imagen de tomosíntesis (que es el corte n.° 29 de la pila de volumen de tomosíntesis, tal como se indica en el lado inferior derecho del monitor 126), desde la que se importó la región 154 resaltada en la imagen 142 2D, o que proporciona de otro modo la mejor vista de las microcalcificaciones. En particular, debido a que la estructura 144 de masa espiculada y la región 154 de microcalcificaciones están en proximidad muy cercana en la figura 8, puede resaltarse una diferente dependiendo de un comando de usuario específico (por ejemplo, para resaltar un tipo de tejido determinado), o mediante un ligero ajuste de la posición del puntero de la interfaz de usuario.
Los ejemplos descritos anteriormente con respecto a las figuras 6-8 se realizan fácilmente mediante mapas de índice o un mapa 3D completo construido al mismo tiempo (o después, dependiendo de la implementación del sistema) de que se generen las imágenes 2D sintetizadas, tal como se describe en las solicitudes PCT n.os PCT/US2012/066526 y PCT/US2013/025993. Alternativamente, si no hay un mapa de índice o un mapa 3D completo disponible, para cualquier ubicación/punto dado seleccionado/especificado por el usuario en la imagen 2D visualizada en el monitor 124 de lado izquierdo, el sistema puede ejecutar un algoritmo para calcular automáticamente la mejor imagen correspondiente (es decir, X, Y y Z) dentro de la pila de tomosíntesis para su visualización en el monitor 126 de lado derecho. Opcionalmente puede proporcionarse un “indicador de corte de tomosíntesis” en el monitor 124 de lado izquierdo, que indica qué número (números) de cortes de tomosíntesis se visualizaría(n) en el monitor 126 de lado derecho basándose en una ubicación actual de un cursor de usuario en la imagen 2D. Con esta característica, no es necesario que el usuario desvíe la atención cambiando constantemente las visualizaciones de imágenes en el monitor 126 de lado derecho, mientras que todavía se proporciona al revisor una comprensión de la ubicación en el eje z en la pila de volúmenes de tomosíntesis de un objeto particular en una imagen 2D.
Según una realización de las invenciones dadas a conocer, las características disponibles de la interfaz de usuario pueden ampliarse para funcionar, no sólo basándose en un punto/ubicación en una imagen fusionada, sino también basándose, de manera similar, en una estructura/objeto/región en una imagen fusionada. Por ejemplo, los objetos o regiones particulares en una imagen fusionada pueden resaltarse automáticamente cuando se visualizan, basándose en el reconocimiento del sistema de un posible interés en los objetos respectivos, o de objetos ubicados en las regiones respectivas. En una realización, mostrada en la figura 8, esta zona resaltada está en forma de una línea 108 de contorno que representa un límite de una estructura tisular resaltada. De manera similar, puede usarse una línea de contorno para resaltar regiones de interés en la imagen visualizada, por ejemplo, que contienen varias estructuras de calcificación. En algunas realizaciones, el sistema está configurado para permitir que el usuario “dibuje” una línea de contorno en las imágenes fusionadas como un modo de seleccionar o indicar de otro modo una región o un objeto de interés para hacer que el sistema visualice simultáneamente una o más imágenes fuente subyacentes de la región o el objeto seleccionado o indicado.
En otras realizaciones, el sistema emplea técnicas de procesamiento de imágenes conocidas para identificar
diferentes estructuras de tejido de mama en las diversas imágenes fuente y resaltarlas en las imágenes fusionadas, en particular, estructuras tisulares que comprenden o están relacionadas con objetos anómalos, tales como agrupaciones de microcalcificaciones, masas redondas o lobuladas, masas espiculadas, distorsiones estructurales, etc.; así como estructuras tisulares benignas que comprenden o están relacionadas con tejidos de mama normales, tales como tejidos lineales, quistes, ganglios linfáticos, vasos sanguíneos, etc. Además, un objeto o una región que consiste en o que contiene un primer tipo de estructura tisular puede resaltarse de una primera manera en una imagen fusionada visualizada, y un objeto o una región que consiste o que contiene un segundo tipo de estructura tisular puede resaltarse de una segunda manera diferente de la primera manera en la imagen fusionada visualizada.
En diversas realizaciones, el usuario puede introducir un comando a través de la interfaz de usuario seleccionando o identificando de otro modo un determinado tipo de estructura tisular y, en respuesta al comando recibido, el sistema realiza uno o ambos de (i) resaltar automáticamente en una imagen fusionada visualizada objetos que comprenden el tipo seleccionado de estructura tisular y/o regiones que contienen uno o más objetos que comprenden el tipo seleccionado de estructura tisular, y (ii) visualizar automáticamente de manera simultánea el corte fuente respectivo (o por lo demás el corte con la mejor descripción de) una estructura tisular del tipo seleccionado en los datos de la imagen de mama, por ejemplo, la estructura más prominente del tipo de estructura tisular seleccionado basándose en una comparación, si se detecta más de uno en la pila de imágenes fuente. Por tanto, cuando el usuario “hace clic” en (o muy cerca de) un punto/agrupamiento de microcalcificaciones en una imagen 2D fusionada, el sistema visualiza automáticamente de manera simultánea el corte de la imagen fuente de tomosíntesis (o por lo demás el mejor) que incluye la microcalcificación correspondiente en 3D. A modo de otro ejemplo, un usuario puede seleccionar (a través de la interfaz de usuario) una región en una imagen 2D fusionada que tiene el aspecto con patrones de líneas radiantes (a menudo una indicación de masas espiculadas), y el sistema mostrará simultáneamente el corte fuente de tomosíntesis 3D (o por lo demás el mejor), o quizás una serie de cortes de tomosíntesis consecutivos, para visualizar los patrones de líneas radiantes.
Las figuras 3 y 5-8 representan realizaciones en las que puede usarse un bloque de imagen, que se sintetiza a partir de un subconjunto de la pluralidad de cortes de imagen de tomosíntesis, para navegar por ese subconjunto de cortes de imagen de tomosíntesis. De manera similar, puede usarse un bloque de imagen sintetizado a partir de un apilamiento completo de cortes de imagen de tomosíntesis para navegar por un conjunto de bloques de imagen, cada uno de los cuales se genera a partir de subconjuntos respectivos de cortes de imagen de tomosíntesis. En un sistema de este tipo, cuando un usuario que revisa el bloque de imagen generado a partir de la pila completa de cortes de imagen de tomosíntesis identifica cualquier objeto o región de interés que justifique una revisión adicional, el sistema proporciona una navegación inmediata y automatizada al “mejor” bloque de imágenes correspondiente (o un subconjunto de bloques de imagen adyacentes) para permitir al usuario realizar esta revisión adicional para verificar y evaluar el hallazgo.
En diversas realizaciones, el usuario puede introducir un comando a través de la interfaz de usuario, activando la funcionalidad de visualización dinámica, en la que el sistema resalta automáticamente aquellos objetos y estructuras tisulares que corresponden (dinámicamente) a la ubicación de un dispositivo de entrada móvil de usuario en una imagen fusionada visualizada (por ejemplo, un puntero de ratón que se desplaza). En tales realizaciones, el sistema puede comprender además visualizar automáticamente de manera simultánea una imagen fuente respectiva de una estructura tisular seleccionada resaltada que corresponde a una ubicación dada de un dispositivo de entrada móvil de usuario en una imagen fusionada visualizada de nuevo sobre una base dinámica.
En una realización, el sistema puede activarse para proporcionar un cursor de “sombra” que se visualiza en el monitor 126 de lado derecho, en una ubicación correspondiente a la misma ubicación (X, Y) que el cursor real del usuario en el monitor 124 de lado izquierdo, de modo que al mover el cursor por la imagen 2D se mueve el cursor de sombra en la imagen de tomosíntesis en las mismas coordenadas X, Y. También se puede implementar lo inverso, es decir, con el cursor de usuario activo que puede operarse en el monitor 126 de la derecha y el cursor de sombra en el monitor 124 de la izquierda. En una implementación, esta característica de visualización dinámica permite que el sistema siga el punto de interés del usuario, por ejemplo la ubicación del cursor del ratón en una imagen fusionada 2D y que se visualicen/resalten dinámicamente la región/las regiones más “significativa(s)” por debajo en tiempo real. Por ejemplo, el usuario puede mover el ratón (sin hacer clic en ningún botón) sobre un vaso sanguíneo y el sistema resaltará instantáneamente el contorno del vaso.
Según aún otro aspecto de las invenciones dadas a conocer, el almacenamiento posterior a la revisión de los datos de imagen de mama se realiza a nivel de bloque, en lugar de al nivel de corte de Tr reconstruido individual, con el fin de reflejar los mismos datos de imagen que realmente revisó el usuario, y también para reducir en gran medida la capacidad de almacenamiento necesaria para almacenar los datos de imagen de mama. A modo de ejemplo, en una realización, el sistema puede visualizar una interfaz de usuario configurada para recibir la entrada de un usuario, que incluye varios cortes 10 de Tr por bloque 30, una cantidad de superposición entre bloques 30 adyacentes y un tamaño de pila. El sistema genera la pluralidad de bloques 30 basándose en la entrada del usuario, y el usuario visualiza entonces los bloques mostrados (o un subconjunto de los mismos) con el fin de estudiar los datos de imagen de mama. Una vez que se completa la revisión del usuario de los bloques visualizados, los datos de imagen se transmiten para su almacenamiento (por ejemplo, en el sistema PACS de un hospital) como un archivo que contiene sólo los bloques generados, y no la pila completa subyacente de cortes de imagen de Tr.
Habiéndose descrito realizaciones a modo de ejemplo, puede apreciarse que los ejemplos descritos anteriormente y representados en las figuras adjuntas son sólo ilustrativos, y que otras realizaciones y ejemplos también se abarcan dentro del alcance de las reivindicaciones adjuntas. Por ejemplo, aunque los diagramas de flujo proporcionados en las figuras adjuntas son ilustrativos de etapas a modo de ejemplo, el procedimiento general de fusión de imágenes puede lograrse de diversas formas usando otros métodos de fusión de datos conocidos en la técnica. De manera similar, los diagramas de bloques del sistema son sólo representativos, ilustrando delineaciones funcionales que no deben considerarse requisitos limitativos de las invenciones dadas a conocer. También será evidente para los expertos en la técnica que pueden realizarse diversos cambios y modificaciones a las realizaciones representadas y/o descritas (por ejemplo, las dimensiones de varias partes), y que diversas realizaciones según la invención pueden combinar elementos o componentes de las realizaciones dadas a conocer, incluso si no se ejemplifica expresamente en el presente documento en tal combinación. Por consiguiente, la memoria descriptiva y los dibujos deben considerarse en un sentido ilustrativo más que restrictivo, y el alcance de las invenciones dadas a conocer debe definirse únicamente mediante las siguientes reivindicaciones.
Claims (15)
- REIVINDICACIONESi. Sistema para procesar imágenes de tejido de mama, que comprende:un ordenador de procesamiento de imágenes; yuna interfaz de usuario acoplada operativamente al ordenador de procesamiento de imágenes, en el que el ordenador de procesamiento de imágenes está configurado para obtener un conjunto de imágenes fuente de tejido de mama, seleccionándose cada imagen fuente del grupo que consiste en una imagen de reconstrucción de tomosíntesis (Tr), una imagen de proyección de tomosíntesis (Tp), una imagen de mamografía sintetizada (Ms) y una imagen de mamografía (Mp), caracterizado porque el ordenador de procesamiento de imágenes está configurada para procesar el conjunto de imágenes fuente para generar un conjunto de varios bloques (30) de imagen, comprendiendo cada bloque (301-303) de imagen una imagen sintética de una parte del tejido de mama obtenida a partir de un subconjunto respectivo del conjunto de imágenes fuente,en el que el ordenador de procesamiento de imágenes está configurado para generar cada bloque (301-303) de imágenes del conjunto de bloques (30) de imagen a partir de un número predeterminado de imágenes fuente sucesivas, en el que cada dos bloques (301, 302) de imagen adyacentes del conjunto incluyen un número de superposiciones predeterminado o introducido por el usuario de imágenes fuente sucesivas.
- 2. Sistema según la reivindicación 1, en el que cada bloque de imagen se genera usando un mecanismo de mejora que se selecciona o se modifica basándose en el número de imágenes fuente a partir de las cuales se genera el bloque de imagen respectivo.
- 3. Sistema según la reivindicación 2, en el que el mecanismo de mejora se selecciona o se modifica basándose en un valor correspondiente al número de imágenes fuente a partir de las cuales se genera el bloque de imagen respectivo.
- 4. Sistema según la reivindicación 2 ó 3, en el que el mecanismo de mejora comprende resaltar uno o más objetos o regiones en uno o más bloques de imagen del conjunto.
- 5. Sistema según la reivindicación 4, en el que el mecanismo de mejora tiene en cuenta uno o más de: un mapa binario de las regiones o los objetos resaltados respectivos; un mapa de cada corte de imagen que incluye una distribución de probabilidades para un patrón identificado en las regiones o los objetos resaltados respectivos; y la importación de una región o un objeto identificado desde una imagen del subconjunto respectivo del conjunto de imágenes fuente en el bloque de imagen, en el que la región o el objeto se importa en el bloque de imagen en ubicaciones de coordenadas X, Y correspondientes a las ubicaciones de coordenadas X, Y de la región o el objeto en la imagen fuente respectiva.
- 6. Sistema según una cualquiera de las reivindicaciones 1-5, en el que el ordenador de procesamiento de imágenes está configurado además para generar un archivo de almacenamiento que comprende el conjunto generado de bloques de imagen.
- 7. Sistema según una cualquiera de las reivindicaciones 1-6, que comprende una estación de trabajo de adquisición configurada para generar los bloques de imagen.
- 8. Método para procesar datos de imagen de tejido de mama, que comprende: obtener un conjunto de imágenes fuente de tejido de mama, seleccionándose cada imagen fuente del grupo que consiste en una imagen de reconstrucción de tomosíntesis (Tr), una imagen de proyección de tomosíntesis (Tp), una imagen de mamografía sintetizada (Ms) y una imagen de mamografía (Mp); caracterizado porque el método comprende la etapa de procesar el conjunto de imágenes fuente para generar un conjunto de varios bloques (30) de imagen, comprendiendo cada bloque (301-303) de imagen una imagen sintética de una parte del tejido de mama obtenida a partir de un subconjunto respectivo del conjunto de imágenes fuente, en el que cada bloque (301-303) de imagen del conjunto de bloques (30) de imagen se genera a partir de un número predefinido de imágenes fuente sucesivas, en el que cada dos bloques (301, 302) de imagen adyacentes del conjunto incluyen un número de superposiciones predeterminado o introducido por el usuario de imágenes fuente sucesivas.
- 9. Método según la reivindicación 8, en el que cada bloque de imagen se genera usando un mecanismo de mejora que se selecciona o se modifica basándose en el número de imágenes fuente a partir de las cuales se genera el bloque de imagen respectivo.
- 10. Método según la reivindicación 9, en el que el mecanismo de mejora se selecciona o se modifica basándose en un valor correspondiente al número de imágenes fuente a partir de las cuales se genera el bloque de imagen respectivo.
- 11. Método según la reivindicación 9, en el que el mecanismo de mejora comprende resaltar uno o más objetos o regiones en uno o más bloques de imagen del conjunto.
- 12. Método según la reivindicación 11, en el que el mecanismo de mejora tiene en cuenta uno o más de: un mapa binario de las regiones o los objetos resaltados respectivos; un mapa de cada corte de imagen que incluye una distribución de probabilidades para un patrón identificado en las regiones o los objetos resaltados respectivos; y la importación de una región o un objeto identificado desde una imagen del subconjunto respectivo del conjunto de imágenes fuente en el bloque de imagen, en el que la región o el objeto se importa en el bloque de imagen en ubicaciones de coordenadas X, Y correspondientes a las ubicaciones de coordenadas X, Y de la región o el objeto en la imagen fuente respectiva.
- 13. Método según una cualquiera de las reivindicaciones 8-12, que comprende además: visualizar una pluralidad de imágenes fuente por parte de un usuario; recibir entrada de usuario que identifica una imagen fuente respectiva del conjunto; y procesar un subconjunto de las imágenes fuente para generar un bloque de imagen, comprendiendo el bloque de imagen una imagen 2D sintetizada de una parte del tejido de mama obtenida a partir del subconjunto de imágenes fuente, en el que el subconjunto de imágenes fuente incluye la imagen identificada por el usuario respectiva.
- 14. Método según la reivindicación 13, que comprende además procesar subconjuntos respectivos de las imágenes fuente para generar un número de bloques de imagen introducido por el usuario, comprendiendo cada bloque de imagen una imagen 2D sintetizada de una parte del tejido de mama obtenida a partir del subconjunto respectivo de imágenes fuente, en el que bloques de imagen sucesivos incluyen un número de superposiciones introducidas por el usuario de imágenes fuente.
- 15. Método según una cualquiera de las reivindicaciones 8-14, que comprende además almacenar el conjunto generado de bloques de imagen en un sistema de almacenamiento externo.
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201461946417P | 2014-02-28 | 2014-02-28 |
Publications (1)
Publication Number | Publication Date |
---|---|
ES2878599T3 true ES2878599T3 (es) | 2021-11-19 |
Family
ID=52633691
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
ES18165965T Active ES2878599T3 (es) | 2014-02-28 | 2015-02-26 | Sistema y método para generar y visualizar bloques de imagen de tomosíntesis |
ES21168134T Active ES2943561T3 (es) | 2014-02-28 | 2015-02-26 | Sistema y método para generar y visualizar bloques de imagen de tomosíntesis |
Family Applications After (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
ES21168134T Active ES2943561T3 (es) | 2014-02-28 | 2015-02-26 | Sistema y método para generar y visualizar bloques de imagen de tomosíntesis |
Country Status (9)
Country | Link |
---|---|
US (5) | US10111631B2 (es) |
EP (3) | EP3417786B1 (es) |
JP (3) | JP6506769B2 (es) |
KR (1) | KR102402887B1 (es) |
CN (1) | CN106061389B (es) |
AU (1) | AU2015222981B2 (es) |
CA (1) | CA2937379C (es) |
ES (2) | ES2878599T3 (es) |
WO (1) | WO2015130916A1 (es) |
Families Citing this family (33)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE202007019497U1 (de) | 2006-02-15 | 2013-03-06 | Hologic, Inc. | Brustbiopsie und Nadellokalisierung unter Verwendung von Tomosynthesesystemen |
WO2011043838A1 (en) | 2009-10-08 | 2011-04-14 | Hologic, Inc . | Needle breast biopsy system and method of use |
US9075903B2 (en) | 2010-11-26 | 2015-07-07 | Hologic, Inc. | User interface for medical image review workstation |
CN103477346A (zh) | 2011-03-08 | 2013-12-25 | 霍洛吉克公司 | 用于筛查、诊断和活检的双能和/或造影增强乳房成像的系统和方法 |
JP2014534042A (ja) | 2011-11-27 | 2014-12-18 | ホロジック, インコーポレイテッドHologic, Inc. | マンモグラフィーおよび/またはトモシンセシス画像データを使用して2d画像を生成するためのシステムおよび方法 |
ES2641456T3 (es) | 2012-02-13 | 2017-11-10 | Hologic, Inc. | Sistema y método para navegar por una pila de tomosíntesis usando datos de imágenes sintetizadas |
JP6388347B2 (ja) | 2013-03-15 | 2018-09-12 | ホロジック, インコーポレイテッドHologic, Inc. | 腹臥位におけるトモシンセシス誘導生検 |
EP4278977A3 (en) | 2013-10-24 | 2024-02-21 | Hologic, Inc. | System and method for navigating x-ray guided breast biopsy |
WO2015130916A1 (en) | 2014-02-28 | 2015-09-03 | Hologic, Inc. | System and method for generating and displaying tomosynthesis image slabs |
JP6126058B2 (ja) * | 2014-09-30 | 2017-05-10 | 富士フイルム株式会社 | 画像表示装置、画像処理装置、放射線画像撮影システム、断層画像表示方法、及び断層画像表示プログラム。 |
EP3348195B1 (en) * | 2015-09-10 | 2019-07-10 | FUJIFILM Corporation | Image processing device, radiation image image pickup system, image processing method, and image processing program |
KR102451377B1 (ko) | 2015-10-08 | 2022-10-06 | (주)바텍이우홀딩스 | 깊이 정보를 강조하는 의료 영상 재구성 장치 및 방법 |
JP6708407B2 (ja) * | 2015-12-25 | 2020-06-10 | キヤノン株式会社 | 画像処理装置、画像処理方法およびプログラム |
CN108701492B (zh) * | 2016-03-03 | 2022-05-03 | 皇家飞利浦有限公司 | 医学图像导航系统 |
US20180174294A1 (en) * | 2016-12-16 | 2018-06-21 | General Electric Company | Multi-Layer Color Display In Synthetic 2D Images |
JP7277053B2 (ja) * | 2017-03-30 | 2023-05-18 | ホロジック, インコーポレイテッド | 階層式マルチレベル特徴画像合成および提示のためのシステムおよび方法 |
JP7169986B2 (ja) * | 2017-03-30 | 2022-11-11 | ホロジック, インコーポレイテッド | オブジェクトグリッド増強を用いて高次元画像データから低次元画像データを合成するためのシステムおよび方法 |
US11445993B2 (en) | 2017-03-30 | 2022-09-20 | Hologic, Inc. | System and method for targeted object enhancement to generate synthetic breast tissue images |
JP6929696B2 (ja) * | 2017-05-02 | 2021-09-01 | キヤノンメディカルシステムズ株式会社 | X線診断装置及び画像処理装置 |
US11403483B2 (en) | 2017-06-20 | 2022-08-02 | Hologic, Inc. | Dynamic self-learning medical image method and system |
US10993689B2 (en) * | 2017-08-31 | 2021-05-04 | General Electric Company | Method and system for motion assessment and correction in digital breast tomosynthesis |
CN111344742A (zh) * | 2017-11-14 | 2020-06-26 | 皇家飞利浦有限公司 | 针对多种不同类型的投影数据每个体素具有一次几何计算的单个ct反投影器 |
JP7033931B2 (ja) | 2018-01-17 | 2022-03-11 | 富士フイルム株式会社 | 画像処理装置、画像処理方法、及び画像処理プログラム |
AU2019346527A1 (en) | 2018-09-28 | 2021-04-08 | Hologic, Inc. | System and method for synthetic breast tissue image generation by high density element suppression |
EP3657442B1 (de) * | 2018-11-23 | 2022-10-26 | Siemens Healthcare GmbH | Synthetisches mammogramm mit aufgeprägtem bildeindruck |
JP7270781B2 (ja) * | 2020-02-04 | 2023-05-10 | 富士フイルム株式会社 | 画像設定装置、画像設定装置の作動方法および画像設定プログラム |
JP7321299B2 (ja) | 2020-02-04 | 2023-08-04 | 富士フイルム株式会社 | 画像設定装置、画像設定装置の作動方法および画像設定プログラム |
WO2021157182A1 (ja) | 2020-02-04 | 2021-08-12 | 富士フイルム株式会社 | 画像設定装置、方法およびプログラム |
WO2021186957A1 (ja) * | 2020-03-18 | 2021-09-23 | 富士フイルム株式会社 | 画像処理装置、方法およびプログラム |
JP2022153114A (ja) * | 2021-03-29 | 2022-10-12 | 富士フイルム株式会社 | 画像処理装置、画像処理方法、及び画像処理プログラム |
US20230031814A1 (en) * | 2021-07-28 | 2023-02-02 | GE Precision Healthcare LLC | Methods and systems for breast tomosynthesis |
EP4430562A1 (en) * | 2021-12-07 | 2024-09-18 | Real Time Tomography LLC | Automated multi-class segmentation of digital mammograms |
WO2023139971A1 (ja) * | 2022-01-19 | 2023-07-27 | 富士フイルム株式会社 | 画像処理装置、画像処理方法、プログラム、及び機械学習方法 |
Family Cites Families (414)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4054402B2 (ja) | 1997-04-25 | 2008-02-27 | 株式会社東芝 | X線断層撮影装置 |
US3502878A (en) | 1967-09-22 | 1970-03-24 | Us Health Education & Welfare | Automatic x-ray apparatus for limiting the field size of a projected x-ray beam in response to film size and to source-to-film distance |
US7050611B2 (en) | 2001-05-29 | 2006-05-23 | Mevis Breastcare Gmbh Co. Kg | Method and computer system for screening of medical cases |
US3863073A (en) | 1973-04-26 | 1975-01-28 | Machlett Lab Inc | Automatic system for precise collimation of radiation |
US3971950A (en) | 1975-04-14 | 1976-07-27 | Xerox Corporation | Independent compression and positioning device for use in mammography |
US4160906A (en) | 1977-06-23 | 1979-07-10 | General Electric Company | Anatomically coordinated user dominated programmer for diagnostic x-ray apparatus |
DE2838901C2 (de) | 1978-09-06 | 1986-11-06 | Siemens AG, 1000 Berlin und 8000 München | Katapultrasterlade |
FR2512024A1 (fr) | 1981-08-27 | 1983-03-04 | Adir | Ethers tricycliques, leur preparation et les compositions pharmaceutiques les contenant |
FR2549248B1 (fr) | 1983-06-24 | 1986-01-31 | Thomson Csf | Porte-cassette escamotable pour appareil d'examen radiologique et radiographique |
DE3339775A1 (de) | 1983-11-03 | 1985-05-15 | Siemens AG, 1000 Berlin und 8000 München | Roentgendiagnostikgeraet mit strahlenfiltern |
SE8306243L (sv) | 1983-11-14 | 1985-05-15 | Cytex Medicinteknik Ab | Lokaliseringsmetodik |
JPS60129034A (ja) | 1983-12-16 | 1985-07-10 | 横河メディカルシステム株式会社 | X線断層撮像装置の操作卓 |
US4706269A (en) | 1985-03-11 | 1987-11-10 | Reina Leo J | Anti-scatter grid structure |
US4773087A (en) | 1986-04-14 | 1988-09-20 | University Of Rochester | Quality of shadowgraphic x-ray images |
USRE33634E (en) | 1986-09-23 | 1991-07-09 | Method and structure for optimizing radiographic quality by controlling X-ray tube voltage, current focal spot size and exposure time | |
US4821727A (en) | 1986-10-30 | 1989-04-18 | Elscint Ltd. | Mammographic biopsy needle holder system |
US4819258A (en) | 1986-11-28 | 1989-04-04 | Bennett X-Ray Corp. | Auto-setting of KV in an x-ray machine after selection of technic factors |
US4907156A (en) | 1987-06-30 | 1990-03-06 | University Of Chicago | Method and system for enhancement and detection of abnormal anatomic regions in a digital image |
US5051904A (en) | 1988-03-24 | 1991-09-24 | Olganix Corporation | Computerized dynamic tomography system |
US5740270A (en) | 1988-04-08 | 1998-04-14 | Neuromedical Systems, Inc. | Automated cytological specimen classification system and method |
DK654488A (da) | 1988-11-23 | 1990-05-24 | Nordisk Roentgen Tech App | Roentgenapparat |
US5099846A (en) | 1988-12-23 | 1992-03-31 | Hardy Tyrone L | Method and apparatus for video presentation from a variety of scanner imaging sources |
FR2645006A1 (fr) | 1989-03-29 | 1990-10-05 | Gen Electric Cgr | Mammographe equipe d'un dispositif de vue stereotaxiques integre et procede d'utilisation d'un tel mammographe |
FR2646340A1 (fr) | 1989-04-28 | 1990-11-02 | Gen Electric Cgr | Porte-cassette adaptable en dimension et en position pour mammographie |
EP0406455B1 (de) | 1989-07-03 | 1994-09-21 | Siemens Aktiengesellschaft | Röntgendiagnostikgerät für Mammographieaufnahmen |
US5133020A (en) | 1989-07-21 | 1992-07-21 | Arch Development Corporation | Automated method and system for the detection and classification of abnormal lesions and parenchymal distortions in digital medical images |
US4969174A (en) | 1989-09-06 | 1990-11-06 | General Electric Company | Scanning mammography system with reduced scatter radiation |
CA2014918A1 (en) | 1989-09-06 | 1991-03-06 | James A. Mcfaul | Scanning mammography system with improved skin line viewing |
US5240011A (en) | 1991-11-27 | 1993-08-31 | Fischer Imaging Corporation | Motorized biopsy needle positioner |
US5078142A (en) | 1989-11-21 | 1992-01-07 | Fischer Imaging Corporation | Precision mammographic needle biopsy system |
US5415169A (en) | 1989-11-21 | 1995-05-16 | Fischer Imaging Corporation | Motorized mammographic biopsy apparatus |
CA2055486C (en) | 1989-11-27 | 1996-11-26 | Anders Magnusson | Puncture guide for computer tomography |
US5199056A (en) | 1989-11-28 | 1993-03-30 | Darrah Carol J | Mammography compression paddle |
US5481623A (en) | 1990-04-19 | 1996-01-02 | Fuji Photo Film Co., Ltd. | Apparatus for determining an image position on imaging media |
FR2668359B1 (fr) | 1990-10-24 | 1998-02-20 | Gen Electric Cgr | Mammographe muni d'un porte-aiguille perfectionne. |
US5129911A (en) | 1991-03-11 | 1992-07-14 | Siczek Bernard W | Orbital aiming device |
US5409497A (en) | 1991-03-11 | 1995-04-25 | Fischer Imaging Corporation | Orbital aiming device for mammo biopsy |
US5279309A (en) | 1991-06-13 | 1994-01-18 | International Business Machines Corporation | Signaling device and method for monitoring positions in a surgical operation |
US5163075A (en) | 1991-08-08 | 1992-11-10 | Eastman Kodak Company | Contrast enhancement of electrographic imaging |
US5941832A (en) | 1991-09-27 | 1999-08-24 | Tumey; David M. | Method and apparatus for detection of cancerous and precancerous conditions in a breast |
US5594769A (en) | 1991-11-27 | 1997-01-14 | Thermotrex Corporation | Method and apparatus for obtaining stereotactic mammographic guided needle breast biopsies |
US5289520A (en) | 1991-11-27 | 1994-02-22 | Lorad Corporation | Stereotactic mammography imaging system with prone position examination table and CCD camera |
US5343390A (en) | 1992-02-28 | 1994-08-30 | Arch Development Corporation | Method and system for automated selection of regions of interest and detection of septal lines in digital chest radiographs |
US5359637A (en) | 1992-04-28 | 1994-10-25 | Wake Forest University | Self-calibrated tomosynthetic, radiographic-imaging system, method, and device |
US5386447A (en) | 1992-09-23 | 1995-01-31 | Fischer Imaging Corporation | Mammographic screening and biopsy apparatus |
US5596200A (en) | 1992-10-14 | 1997-01-21 | Primex | Low dose mammography system |
FR2703237B1 (fr) | 1993-03-29 | 1995-05-19 | Ge Medical Syst Sa | Mammographe équipé d'un dispositif de prises en vues stéréotaxiques à détecteur numérique et procédé d'utilisation d'un tel mammographe . |
US5491627A (en) | 1993-05-13 | 1996-02-13 | Arch Development Corporation | Method and system for the detection of microcalcifications in digital mammograms |
US5878746A (en) | 1993-08-25 | 1999-03-09 | Lemelson; Jerome H. | Computerized medical diagnostic system |
US5365562A (en) | 1993-09-20 | 1994-11-15 | Fischer Imaging Corporation | Digital imaging apparatus |
US6075879A (en) | 1993-09-29 | 2000-06-13 | R2 Technology, Inc. | Method and system for computer-aided lesion detection using information from multiple images |
US5526394A (en) | 1993-11-26 | 1996-06-11 | Fischer Imaging Corporation | Digital scan mammography apparatus |
US5452367A (en) | 1993-11-29 | 1995-09-19 | Arch Development Corporation | Automated method and system for the segmentation of medical images |
CA2113752C (en) | 1994-01-19 | 1999-03-02 | Stephen Michael Rooks | Inspection system for cross-sectional imaging |
DE4414689C2 (de) | 1994-04-26 | 1996-08-29 | Siemens Ag | Röntgendiagnostikeinrichtung |
US5499097A (en) | 1994-09-19 | 1996-03-12 | Neopath, Inc. | Method and apparatus for checking automated optical system performance repeatability |
AU3371395A (en) | 1994-09-20 | 1996-04-19 | Neopath, Inc. | Biological specimen analysis system processing integrity checking apparatus |
US5557097A (en) | 1994-09-20 | 1996-09-17 | Neopath, Inc. | Cytological system autofocus integrity checking apparatus |
US5647025A (en) | 1994-09-20 | 1997-07-08 | Neopath, Inc. | Automatic focusing of biomedical specimens apparatus |
US5553111A (en) | 1994-10-26 | 1996-09-03 | The General Hospital Corporation | Apparatus and method for improved tissue imaging |
US5506877A (en) | 1994-11-23 | 1996-04-09 | The General Hospital Corporation | Mammography breast compression device and method |
US5712890A (en) | 1994-11-23 | 1998-01-27 | Thermotrex Corp. | Full breast digital mammography device |
US5657362A (en) | 1995-02-24 | 1997-08-12 | Arch Development Corporation | Automated method and system for computerized detection of masses and parenchymal distortions in medical images |
US5660185A (en) | 1995-04-13 | 1997-08-26 | Neovision Corporation | Image-guided biopsy apparatus with enhanced imaging and methods |
US5671288A (en) | 1995-05-31 | 1997-09-23 | Neopath, Inc. | Method and apparatus for assessing slide and specimen preparation quality |
US6216540B1 (en) | 1995-06-06 | 2001-04-17 | Robert S. Nelson | High resolution device and method for imaging concealed objects within an obscuring medium |
WO1997000649A1 (en) | 1995-06-20 | 1997-01-09 | Wan Sing Ng | Articulated arm for medical procedures |
US5642433A (en) | 1995-07-31 | 1997-06-24 | Neopath, Inc. | Method and apparatus for image contrast quality evaluation |
US5642441A (en) | 1995-10-24 | 1997-06-24 | Neopath, Inc. | Separation apparatus and method for measuring focal plane |
US5818898A (en) | 1995-11-07 | 1998-10-06 | Kabushiki Kaisha Toshiba | X-ray imaging apparatus using X-ray planar detector |
US5693948A (en) | 1995-11-21 | 1997-12-02 | Loral Fairchild Corporation | Advanced CCD-based x-ray image sensor system |
US5627869A (en) | 1995-11-22 | 1997-05-06 | Thermotrex Corporation | Mammography apparatus with proportional collimation |
FI955636A0 (fi) | 1995-11-23 | 1995-11-23 | Planmed Oy | Foerfarande och system foer styrning av funktionerna av en mammografiaanordning |
US6215892B1 (en) | 1995-11-30 | 2001-04-10 | Chromavision Medical Systems, Inc. | Method and apparatus for automated image analysis of biological specimens |
US5769086A (en) | 1995-12-06 | 1998-06-23 | Biopsys Medical, Inc. | Control system and method for automated biopsy device |
JPH09198490A (ja) * | 1996-01-22 | 1997-07-31 | Hitachi Medical Corp | 3次元離散データ投影装置 |
JPH09238934A (ja) * | 1996-03-11 | 1997-09-16 | Toshiba Medical Eng Co Ltd | 画像表示システム |
DE19619925C2 (de) | 1996-05-17 | 1999-09-09 | Sirona Dental Systems Gmbh | Röntgendiagnostikgerät für Tomosynthese |
DE19619915A1 (de) | 1996-05-17 | 1997-11-20 | Siemens Ag | Verfahren zur Erstellung von Tomosyntheseaufnahmen |
DE19619913C2 (de) | 1996-05-17 | 2001-03-15 | Sirona Dental Systems Gmbh | Röntgendiagnostikgerät für Tomosynthese |
DE19619924A1 (de) | 1996-05-17 | 1997-11-20 | Siemens Ag | Verfahren zur Erstellung von Tomosyntheseaufnahmen |
US5835079A (en) | 1996-06-13 | 1998-11-10 | International Business Machines Corporation | Virtual pointing device for touchscreens |
US6067079A (en) | 1996-06-13 | 2000-05-23 | International Business Machines Corporation | Virtual pointing device for touchscreens |
US5841124A (en) | 1996-06-19 | 1998-11-24 | Neopath, Inc. | Cytological system autofocus integrity checking apparatus |
DE69739995D1 (de) | 1996-07-23 | 2010-10-28 | Gen Hospital Corp | Anordnung zur mammographie mittels tomosynthese |
JPH1033523A (ja) * | 1996-07-24 | 1998-02-10 | Hitachi Medical Corp | X線ct装置 |
US5776062A (en) | 1996-10-15 | 1998-07-07 | Fischer Imaging Corporation | Enhanced breast imaging/biopsy system employing targeted ultrasound |
US5986662A (en) | 1996-10-16 | 1999-11-16 | Vital Images, Inc. | Advanced diagnostic viewer employing automated protocol selection for volume-rendered imaging |
US6293282B1 (en) | 1996-11-05 | 2001-09-25 | Jerome Lemelson | System and method for treating select tissue in living being |
JP3878259B2 (ja) | 1996-11-13 | 2007-02-07 | 東芝医用システムエンジニアリング株式会社 | 医用画像処理装置 |
US6137527A (en) | 1996-12-23 | 2000-10-24 | General Electric Company | System and method for prompt-radiology image screening service via satellite |
US7117098B1 (en) | 1997-02-27 | 2006-10-03 | Cellomics, Inc. | Machine-readable storage medium for analyzing distribution of macromolecules between the cell membrane and the cell cytoplasm |
US5999639A (en) | 1997-09-04 | 1999-12-07 | Qualia Computing, Inc. | Method and system for automated detection of clustered microcalcifications from digital mammograms |
US20030135115A1 (en) | 1997-11-24 | 2003-07-17 | Burdette Everette C. | Method and apparatus for spatial registration and mapping of a biopsy needle during a tissue biopsy |
US6442288B1 (en) | 1997-12-17 | 2002-08-27 | Siemens Aktiengesellschaft | Method for reconstructing a three-dimensional image of an object scanned in the context of a tomosynthesis, and apparatus for tomosynthesis |
JP3554172B2 (ja) | 1998-01-09 | 2004-08-18 | キヤノン株式会社 | 放射線撮影装置 |
US6175117B1 (en) | 1998-01-23 | 2001-01-16 | Quanta Vision, Inc. | Tissue analysis apparatus |
US6289235B1 (en) | 1998-03-05 | 2001-09-11 | Wake Forest University | Method and system for creating three-dimensional images using tomosynthetic computed tomography |
US6081577A (en) | 1998-07-24 | 2000-06-27 | Wake Forest University | Method and system for creating task-dependent three-dimensional images |
US6375352B1 (en) | 1999-10-01 | 2002-04-23 | General Electric Company | Apparatus and method for obtaining x-ray tomosynthesis data for mammography |
US6141398A (en) | 1998-08-25 | 2000-10-31 | General Electric Company | Protocol driven image reconstruction, display, and processing in a multislice imaging system |
US6101236A (en) | 1998-10-02 | 2000-08-08 | University Of Iowa Research Foundation | Iterative method and apparatus for x-ray computed tomographic fluoroscopy |
EP1143845A4 (en) | 1998-11-25 | 2004-10-06 | Fischer Imaging Corp | USER INTERFACE SYSTEM FOR MAMMOGRAPHIC IMAGERS |
FR2786388B1 (fr) | 1998-11-27 | 2001-02-16 | Ge Medical Syst Sa | Procede de detection d'un tissu de nature determinee en radiologie numerique et son utilisation pour le reglage des parametres d'exposition |
US6149301A (en) | 1998-12-30 | 2000-11-21 | General Electric Company | X-ray target centering apparatus for radiographic imaging system |
JP2000200340A (ja) * | 1999-01-06 | 2000-07-18 | Ge Yokogawa Medical Systems Ltd | 画像表示方法、画像表示装置およびct装置 |
MXPA01007664A (es) | 1999-01-29 | 2002-07-02 | American Superconductor Corp | Sistema de central electrica con almacenamiento de energia magnetica de superconduccion. |
US6424332B1 (en) | 1999-01-29 | 2002-07-23 | Hunter Innovations, Inc. | Image comparison apparatus and method |
US6233473B1 (en) | 1999-02-16 | 2001-05-15 | Hologic, Inc. | Determining body composition using fan beam dual-energy x-ray absorptiometry |
US6272207B1 (en) | 1999-02-18 | 2001-08-07 | Creatv Microtech, Inc. | Method and apparatus for obtaining high-resolution digital X-ray and gamma ray images |
US6256370B1 (en) | 2000-01-24 | 2001-07-03 | General Electric Company | Method and apparatus for performing tomosynthesis |
US6689142B1 (en) | 1999-04-26 | 2004-02-10 | Scimed Life Systems, Inc. | Apparatus and methods for guiding a needle |
US6292530B1 (en) | 1999-04-29 | 2001-09-18 | General Electric Company | Method and apparatus for reconstructing image data acquired by a tomosynthesis x-ray imaging system |
DE19922346C2 (de) | 1999-05-14 | 2003-06-18 | Siemens Ag | Röntgendiagnostikeinrichtung für Tomosynthese oder Schichtung |
US6243441B1 (en) | 1999-07-13 | 2001-06-05 | Edge Medical Devices | Active matrix detector for X-ray imaging |
US20020173721A1 (en) | 1999-08-20 | 2002-11-21 | Novasonics, Inc. | User interface for handheld imaging devices |
US6987831B2 (en) | 1999-11-18 | 2006-01-17 | University Of Rochester | Apparatus and method for cone beam volume computed tomography breast imaging |
US6480565B1 (en) | 1999-11-18 | 2002-11-12 | University Of Rochester | Apparatus and method for cone beam volume computed tomography breast imaging |
US6633674B1 (en) | 1999-11-24 | 2003-10-14 | General Electric Company | Picture archiving and communication system employing improved data compression |
US6245028B1 (en) | 1999-11-24 | 2001-06-12 | Marconi Medical Systems, Inc. | Needle biopsy system |
US6645520B2 (en) | 1999-12-16 | 2003-11-11 | Dermatrends, Inc. | Transdermal administration of nonsteroidal anti-inflammatory drugs using hydroxide-releasing agents as permeation enhancers |
FR2803069B1 (fr) | 1999-12-28 | 2002-12-13 | Ge Medical Syst Sa | Procede et systeme de compensation de l'epaisseur d'un organe |
US8352289B2 (en) | 1999-12-30 | 2013-01-08 | Dhi Computing, Inc. | Systems and methods for providing and maintaining electronic medical records |
US6411836B1 (en) | 1999-12-30 | 2002-06-25 | General Electric Company | Method and apparatus for user preferences configuring in an image handling system |
US6901156B2 (en) | 2000-02-04 | 2005-05-31 | Arch Development Corporation | Method, system and computer readable medium for an intelligent search workstation for computer assisted interpretation of medical images |
US6744848B2 (en) | 2000-02-11 | 2004-06-01 | Brandeis University | Method and system for low-dose three-dimensional imaging of a scene |
US6960020B2 (en) | 2001-08-31 | 2005-11-01 | Analogic Corporation | Image positioning method and system for tomosynthesis in a digital X-ray radiography system |
GB0006598D0 (en) | 2000-03-17 | 2000-05-10 | Isis Innovation | Three-dimensional reconstructions from images |
US6351660B1 (en) | 2000-04-18 | 2002-02-26 | Litton Systems, Inc. | Enhanced visualization of in-vivo breast biopsy location for medical documentation |
US6683934B1 (en) | 2000-06-05 | 2004-01-27 | General Electric Company | Dual energy x-ray imaging system and method for radiography and mammography |
US6327336B1 (en) | 2000-06-05 | 2001-12-04 | Direct Radiography Corp. | Radiogram showing location of automatic exposure control sensor |
US6389104B1 (en) | 2000-06-30 | 2002-05-14 | Siemens Corporate Research, Inc. | Fluoroscopy based 3-D neural navigation based on 3-D angiography reconstruction data |
JP2002052018A (ja) | 2000-08-11 | 2002-02-19 | Canon Inc | 画像表示装置、画像表示方法および記憶媒体 |
JP2002109510A (ja) | 2000-09-27 | 2002-04-12 | Fuji Photo Film Co Ltd | 異常陰影候補検出処理システム |
JP2004512081A (ja) | 2000-10-20 | 2004-04-22 | コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ | 限られた角度範囲での断層写真合成法 |
WO2002069808A2 (en) | 2000-11-06 | 2002-09-12 | Suros Surgical Systems, Inc. | Biopsy apparatus |
US6758824B1 (en) | 2000-11-06 | 2004-07-06 | Suros Surgical Systems, Inc. | Biopsy apparatus |
US6468226B1 (en) | 2000-11-22 | 2002-10-22 | Mcintyre, Iv John J. | Remote tissue biopsy apparatus and associated methods |
US7556602B2 (en) | 2000-11-24 | 2009-07-07 | U-Systems, Inc. | Breast cancer screening with adjunctive ultrasound mammography |
US7597663B2 (en) | 2000-11-24 | 2009-10-06 | U-Systems, Inc. | Adjunctive ultrasound processing and display for breast cancer screening |
US7615008B2 (en) | 2000-11-24 | 2009-11-10 | U-Systems, Inc. | Processing and displaying breast ultrasound information |
US7103205B2 (en) | 2000-11-24 | 2006-09-05 | U-Systems, Inc. | Breast cancer screening with ultrasound image overlays |
US6650928B1 (en) | 2000-11-27 | 2003-11-18 | Ge Medical Systems Global Technology Company, Llc | Color parametric and composite maps for CT perfusion |
US6501819B2 (en) | 2000-12-18 | 2002-12-31 | Ge Medical Systems Global Technology Company, Llc | Medical diagnostic method and apparatus to control dual energy exposure techniques based on image information |
FR2818116B1 (fr) | 2000-12-19 | 2004-08-27 | Ge Med Sys Global Tech Co Llc | Appareil de mammographie |
US6463181B2 (en) | 2000-12-22 | 2002-10-08 | The United States Of America As Represented By The Secretary Of The Navy | Method for optimizing visual display of enhanced digital images |
JP2004517408A (ja) | 2000-12-22 | 2004-06-10 | コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ | クリッピング面間の領域の立体的ビューイング |
EP1364374A4 (en) | 2001-02-01 | 2006-11-22 | Creatv Microtech Inc | MODELS OF COLLIMATORS AND ANTI-DISPENSING GRIDS, AND THEIR MOVEMENT, MANUFACTURE AND ASSEMBLY |
US7030861B1 (en) | 2001-02-10 | 2006-04-18 | Wayne Carl Westerman | System and method for packing multi-touch gestures onto a hand |
US6486764B2 (en) | 2001-02-16 | 2002-11-26 | Delphi Technologies, Inc. | Rotary position sensor |
US20020188466A1 (en) | 2001-04-18 | 2002-12-12 | Barrette Pierre Philip | Secure digital medical intellectual property (IP) distribution, market applications, and mobile devices |
US6620111B2 (en) | 2001-04-20 | 2003-09-16 | Ethicon Endo-Surgery, Inc. | Surgical biopsy device having automatic rotation of the probe for taking multiple samples |
US6965793B2 (en) | 2001-06-28 | 2005-11-15 | Chemimage Corporation | Method for Raman chemical imaging of endogenous chemicals to reveal tissue lesion boundaries in tissue |
US6611575B1 (en) | 2001-07-27 | 2003-08-26 | General Electric Company | Method and system for high resolution 3D visualization of mammography images |
WO2003017244A1 (en) | 2001-08-17 | 2003-02-27 | Multidigit, Inc. | System and method for selecting actions based on the identification of user's fingers |
US20030072478A1 (en) * | 2001-10-12 | 2003-04-17 | Claus Bernhard Erich Hermann | Reconstruction method for tomosynthesis |
US7443949B2 (en) | 2001-10-19 | 2008-10-28 | Hologic, Inc. | Mammography system and method employing offset compression paddles, automatic collimation, and retractable anti-scatter grid |
US6626849B2 (en) | 2001-11-01 | 2003-09-30 | Ethicon Endo-Surgery, Inc. | MRI compatible surgical biopsy device |
DE60135559D1 (de) | 2001-11-19 | 2008-10-09 | St Microelectronics Srl | Verfahren zur Mischung von digitalen Bildern zur Erzeugung eines digitalen Bildes mit erweitertem Dynamikbereich |
US20030097055A1 (en) * | 2001-11-21 | 2003-05-22 | Philips Medical Systems(Cleveland), Inc. | Method of reviewing tomographic scans with a large number of images |
US6751285B2 (en) | 2001-11-21 | 2004-06-15 | General Electric Company | Dose management system for mammographic tomosynthesis |
US6895077B2 (en) | 2001-11-21 | 2005-05-17 | University Of Massachusetts Medical Center | System and method for x-ray fluoroscopic imaging |
JP4099984B2 (ja) | 2001-12-14 | 2008-06-11 | コニカミノルタホールディングス株式会社 | 異常陰影検出装置および画像出力装置 |
US6978040B2 (en) | 2001-12-19 | 2005-12-20 | Canon Kabushiki Kaisha | Optical recovery of radiographic geometry |
US6647092B2 (en) | 2002-01-18 | 2003-11-11 | General Electric Company | Radiation imaging system and method of collimation |
SE524458C2 (sv) | 2002-03-01 | 2004-08-10 | Mamea Imaging Ab | Skyddsanordning vid en röntgenapparat |
US7346381B2 (en) | 2002-11-01 | 2008-03-18 | Ge Medical Systems Global Technology Company Llc | Method and apparatus for medical intervention procedure planning |
US6878115B2 (en) | 2002-03-28 | 2005-04-12 | Ultrasound Detection Systems, Llc | Three-dimensional ultrasound computed tomography imaging system |
US6882700B2 (en) | 2002-04-15 | 2005-04-19 | General Electric Company | Tomosynthesis X-ray mammogram system and method with automatic drive system |
US20030194050A1 (en) | 2002-04-15 | 2003-10-16 | General Electric Company | Multi modality X-ray and nuclear medicine mammography imaging system and method |
US7218766B2 (en) | 2002-04-15 | 2007-05-15 | General Electric Company | Computer aided detection (CAD) for 3D digital mammography |
US6752767B2 (en) | 2002-04-16 | 2004-06-22 | Vivant Medical, Inc. | Localization element with energized tip |
US7139000B2 (en) | 2002-05-13 | 2006-11-21 | Ge Medical Systems Global Technology Company, Llc | Method, system and computer product for displaying axial images |
US7295691B2 (en) | 2002-05-15 | 2007-11-13 | Ge Medical Systems Global Technology Company, Llc | Computer aided diagnosis of an image set |
US11275405B2 (en) | 2005-03-04 | 2022-03-15 | Apple Inc. | Multi-functional hand-held device |
US7599579B2 (en) | 2002-07-11 | 2009-10-06 | Ge Medical Systems Global Technology Company, Llc | Interpolated image filtering method and apparatus |
US7450747B2 (en) | 2002-07-12 | 2008-11-11 | Ge Medical Systems Global Technology Company, Llc | System and method for efficiently customizing an imaging system |
US7406666B2 (en) | 2002-08-26 | 2008-07-29 | Palm, Inc. | User-interface features for computers with contact-sensitive displays |
US6898331B2 (en) | 2002-08-28 | 2005-05-24 | Bae Systems Aircraft Controls, Inc. | Image fusion system and method |
US6748044B2 (en) | 2002-09-13 | 2004-06-08 | Ge Medical Systems Global Technology Company, Llc | Computer assisted analysis of tomographic mammography data |
US6574304B1 (en) | 2002-09-13 | 2003-06-03 | Ge Medical Systems Global Technology Company, Llc | Computer aided acquisition of medical images |
US7260249B2 (en) | 2002-09-27 | 2007-08-21 | Confirma Incorporated | Rules-based approach for processing medical images |
US7347829B2 (en) | 2002-10-07 | 2008-03-25 | Suros Surgical Systems, Inc. | Introduction system for minimally invasive surgical instruments |
US6940943B2 (en) | 2002-10-07 | 2005-09-06 | General Electric Company | Continuous scan tomosynthesis system and method |
US6825838B2 (en) | 2002-10-11 | 2004-11-30 | Sonocine, Inc. | 3D modeling system |
US20040171933A1 (en) | 2002-11-25 | 2004-09-02 | Milton Stoller | Mammography needle biopsy system and method |
US8571289B2 (en) | 2002-11-27 | 2013-10-29 | Hologic, Inc. | System and method for generating a 2D image from a tomosynthesis data set |
US7577282B2 (en) | 2002-11-27 | 2009-08-18 | Hologic, Inc. | Image handling and display in X-ray mammography and tomosynthesis |
US7123684B2 (en) | 2002-11-27 | 2006-10-17 | Hologic, Inc. | Full field mammography with tissue exposure control, tomosynthesis, and dynamic field of view processing |
US7760924B2 (en) | 2002-11-27 | 2010-07-20 | Hologic, Inc. | System and method for generating a 2D image from a tomosynthesis data set |
US7831296B2 (en) | 2002-11-27 | 2010-11-09 | Hologic, Inc. | X-ray mammography with tomosynthesis |
US7616801B2 (en) | 2002-11-27 | 2009-11-10 | Hologic, Inc. | Image handling and display in x-ray mammography and tomosynthesis |
US6597762B1 (en) | 2002-11-27 | 2003-07-22 | Ge Medical Systems Global Technology Co., Llc | Method and apparatus of lesion detection and validation based on multiple reviews of a CT image |
US7406150B2 (en) | 2002-11-29 | 2008-07-29 | Hologic, Inc. | Distributed architecture for mammographic image acquisition and processing |
US7904824B2 (en) | 2002-12-10 | 2011-03-08 | Siemens Medical Solutions Usa, Inc. | Medical imaging programmable custom user interface system and method |
US7110490B2 (en) | 2002-12-10 | 2006-09-19 | General Electric Company | Full field digital tomosynthesis method and apparatus |
EP1430835B1 (en) | 2002-12-17 | 2011-11-16 | Kabushiki Kaisha Toshiba | System for peripheral X-ray angiography |
US7356113B2 (en) | 2003-02-12 | 2008-04-08 | Brandeis University | Tomosynthesis imaging system and method |
JP4604451B2 (ja) | 2003-02-24 | 2011-01-05 | コニカミノルタホールディングス株式会社 | 医用画像処理装置及び悪性度の判定方法 |
US7333644B2 (en) | 2003-03-11 | 2008-02-19 | Siemens Medical Solutions Usa, Inc. | Systems and methods for providing automatic 3D lesion segmentation and measurements |
JP4497837B2 (ja) | 2003-05-12 | 2010-07-07 | キヤノン株式会社 | 放射線画像撮影装置 |
AU2004251359B2 (en) | 2003-06-25 | 2009-01-22 | Siemens Medical Solutions Usa, Inc. | Systems and methods for automated diagnosis and decision support for breast imaging |
US6885724B2 (en) | 2003-08-22 | 2005-04-26 | Ge Medical Systems Global Technology Company, Llc | Radiographic tomosynthesis image acquisition utilizing asymmetric geometry |
WO2005023086A2 (en) | 2003-08-25 | 2005-03-17 | University Of North Carolina At Chapel Hill | Systems, methods, and computer program products for analysis of vessel attributes for diagnosis, disease staging, and surgical planning |
US7424141B2 (en) | 2003-08-29 | 2008-09-09 | Agilent Technologies, Inc. | System and method for performing auto-focused tomosynthesis |
US7578781B2 (en) | 2003-09-18 | 2009-08-25 | Wisconsin Alumni Research Foundation | Device for placement of needles and radioactive seeds in radiotherapy |
US7869862B2 (en) | 2003-10-15 | 2011-01-11 | Varian Medical Systems, Inc. | Systems and methods for functional imaging using contrast-enhanced multiple-energy computed tomography |
US20050089205A1 (en) | 2003-10-23 | 2005-04-28 | Ajay Kapur | Systems and methods for viewing an abnormality in different kinds of images |
JP2005149107A (ja) | 2003-11-14 | 2005-06-09 | Konica Minolta Medical & Graphic Inc | 医用画像管理システム |
DE10353611B4 (de) | 2003-11-17 | 2013-01-17 | Siemens Aktiengesellschaft | Röntgendiagnostikgerät für Mammographieuntersuchungen |
US8265728B2 (en) | 2003-11-26 | 2012-09-11 | University Of Chicago | Automated method and system for the evaluation of disease and registration accuracy in the subtraction of temporally sequential medical images |
US8768026B2 (en) | 2003-11-26 | 2014-07-01 | Hologic, Inc. | X-ray imaging with x-ray markers that provide adjunct information but preserve image quality |
JP4739225B2 (ja) | 2003-11-26 | 2011-08-03 | コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ | 高スループットイメージング環境のためのワークフロー最適化 |
US7727151B2 (en) * | 2003-11-28 | 2010-06-01 | U-Systems Inc. | Navigation among multiple breast ultrasound volumes |
WO2005055803A2 (en) | 2003-12-03 | 2005-06-23 | The General Hospital Corporation D/B/A Massachusetts General Hospital | Multi-segment cone-beam reconstruction system and method for tomosynthesis imaging |
US20050135555A1 (en) | 2003-12-23 | 2005-06-23 | Claus Bernhard Erich H. | Method and system for simultaneously viewing rendered volumes |
US7653229B2 (en) | 2003-12-23 | 2010-01-26 | General Electric Company | Methods and apparatus for reconstruction of volume data from projection data |
EP1711119A1 (en) | 2004-01-23 | 2006-10-18 | Traxyz Medical, Inc. | Methods and apparatus for performing procedures on target locations in the body |
WO2005079306A2 (en) | 2004-02-13 | 2005-09-01 | University Of Chicago | Method, system, and computer software product for feature-based correlation of lesions from multiple images |
US7289825B2 (en) | 2004-03-15 | 2007-10-30 | General Electric Company | Method and system for utilizing wireless voice technology within a radiology workflow |
US7142633B2 (en) | 2004-03-31 | 2006-11-28 | General Electric Company | Enhanced X-ray imaging system and method |
US7699783B2 (en) | 2004-04-08 | 2010-04-20 | Techniscan, Inc. | Method for imaging and treating a breast |
WO2005110230A1 (en) | 2004-05-14 | 2005-11-24 | Philips Intellectual Property & Standards Gmbh | System and method for diagnosing breast cancer |
GB0411402D0 (en) | 2004-05-21 | 2004-06-23 | Tissuomics Ltd | Penetrating radiation measurements |
AU2005266901B2 (en) | 2004-07-23 | 2010-04-08 | Learning Tree International | System and method for electronic presentations |
US7835562B2 (en) | 2004-07-23 | 2010-11-16 | General Electric Company | Methods and apparatus for noise reduction filtering of images |
FR2873835A1 (fr) | 2004-07-29 | 2006-02-03 | Gen Electric | Procede et dispositif d'imagerie aux rayons x avec produit de contraste permettant une visualisation amelioree |
WO2006020874A2 (en) | 2004-08-10 | 2006-02-23 | The Research Foundation | Flat-panel detector with avalanche gain |
US7725153B2 (en) | 2004-10-04 | 2010-05-25 | Hologic, Inc. | Estimating visceral fat by dual-energy x-ray absorptiometry |
WO2006055830A2 (en) | 2004-11-15 | 2006-05-26 | Hologic, Inc. | Matching geometry generation and display of mammograms and tomosynthesis images |
EP1816965B1 (en) | 2004-11-26 | 2016-06-29 | Hologic, Inc. | Integrated multi-mode mammography/tomosynthesis x-ray system |
US20060132508A1 (en) | 2004-12-16 | 2006-06-22 | Navid Sadikali | Multi-planar image viewing system and method |
US20090005693A1 (en) | 2004-12-22 | 2009-01-01 | Biotree Systems, Inc. | Medical Imaging Methods and Apparatus for Diagnosis and Monitoring of Diseases and Uses Therefor |
US7616793B2 (en) | 2004-12-30 | 2009-11-10 | Hologic, Inc. | Medical image review workstation with integrated content-based resource retrieval |
US9760214B2 (en) | 2005-02-23 | 2017-09-12 | Zienon, Llc | Method and apparatus for data entry input |
US7859549B2 (en) | 2005-03-08 | 2010-12-28 | Agfa Inc. | Comparative image review system and method |
US20060210131A1 (en) | 2005-03-15 | 2006-09-21 | Wheeler Frederick W Jr | Tomographic computer aided diagnosis (CAD) with multiple reconstructions |
US8373652B2 (en) * | 2005-04-06 | 2013-02-12 | Kabushiki Kaisha Toshiba | Image display apparatus and image display method |
JP5038643B2 (ja) * | 2005-04-06 | 2012-10-03 | 株式会社東芝 | 画像表示装置 |
US10492749B2 (en) | 2005-05-03 | 2019-12-03 | The Regents Of The University Of California | Biopsy systems for breast computed tomography |
DE102005022543A1 (de) | 2005-05-17 | 2006-11-23 | Siemens Ag | Mammographieverfahren und Mammographiegerät |
WO2006128302A1 (en) | 2005-06-02 | 2006-12-07 | The Medipattern Corporation | System and method of computer-aided detection |
US7606801B2 (en) | 2005-06-07 | 2009-10-20 | Varonis Inc. | Automatic management of storage access control |
US7809175B2 (en) | 2005-07-01 | 2010-10-05 | Hologic, Inc. | Displaying and navigating computer-aided detection results on a review workstation |
DE102005037376B3 (de) | 2005-08-08 | 2006-10-19 | Siemens Ag | Verfahren zur Stempelung beliebiger Ethernet-Frames in Verbindung mit Standard-Ethernet |
US7245694B2 (en) | 2005-08-15 | 2007-07-17 | Hologic, Inc. | X-ray mammography/tomosynthesis of patient's breast |
WO2007027610A2 (en) | 2005-08-30 | 2007-03-08 | Bruce Reiner | Multi-functional navigational device and method |
DE202005013910U1 (de) | 2005-09-02 | 2005-11-24 | Siemens Ag | Mammographiegerät mit Gesichtsschild |
US20070052700A1 (en) | 2005-09-07 | 2007-03-08 | Wheeler Frederick W | System and method for 3D CAD using projection images |
US10008184B2 (en) | 2005-11-10 | 2018-06-26 | Hologic, Inc. | System and method for generating a 2D image using mammography and/or tomosynthesis image data |
US7342233B2 (en) | 2005-11-18 | 2008-03-11 | Sectra Mamea Ab | Method and arrangement relating to x-ray imaging |
US20070118400A1 (en) | 2005-11-22 | 2007-05-24 | General Electric Company | Method and system for gesture recognition to drive healthcare applications |
US20070236490A1 (en) | 2005-11-25 | 2007-10-11 | Agfa-Gevaert | Medical image display and review system |
WO2007079099A2 (en) | 2005-12-29 | 2007-07-12 | Carestream Health, Inc. | Cross-time and cross-modality medical diagnosis |
US7581399B2 (en) | 2006-01-05 | 2009-09-01 | United Technologies Corporation | Damped coil pin for attachment hanger hinge |
US20070156451A1 (en) | 2006-01-05 | 2007-07-05 | Gering David T | System and method for portable display of relevant healthcare information |
DE202007019497U1 (de) | 2006-02-15 | 2013-03-06 | Hologic, Inc. | Brustbiopsie und Nadellokalisierung unter Verwendung von Tomosynthesesystemen |
US20070223651A1 (en) | 2006-03-21 | 2007-09-27 | Wagenaar Douglas J | Dual modality mammography device |
US7489761B2 (en) | 2006-03-27 | 2009-02-10 | Hologic, Inc. | Breast compression for digital mammography, tomosynthesis and other modalities |
DE602007012886D1 (de) | 2006-04-12 | 2011-04-14 | Nassir Navab | Virtuelle penetrierende spiegelvorrichtung zur visualisierung von virtuellen objekten in angiografischen anwendungen |
US7945083B2 (en) | 2006-05-25 | 2011-05-17 | Carestream Health, Inc. | Method for supporting diagnostic workflow from a medical imaging apparatus |
JP2007330334A (ja) * | 2006-06-12 | 2007-12-27 | Toshiba Corp | X線撮影装置及びその方法 |
US7974924B2 (en) | 2006-07-19 | 2011-07-05 | Mvisum, Inc. | Medical data encryption for communication over a vulnerable system |
CN100444800C (zh) | 2006-07-25 | 2008-12-24 | 倪湘申 | 微创手术x线穿刺定位装置及方法 |
US20090080602A1 (en) | 2006-08-03 | 2009-03-26 | Kenneth Brooks | Dedicated breast radiation imaging/therapy system |
US20080043905A1 (en) | 2006-08-21 | 2008-02-21 | Bamdad Hassanpourgol | Portable Prone Stereotactic Mammography System for Biopsies, Image Guided Lumpectomies, and Radiation Treatment |
JP2008068032A (ja) * | 2006-09-15 | 2008-03-27 | Toshiba Corp | 画像表示装置 |
US20080139896A1 (en) | 2006-10-13 | 2008-06-12 | Siemens Medical Solutions Usa, Inc. | System and Method for Graphical Annotation of Anatomical Images Using a Touch Screen Display |
EP2074595A1 (en) | 2006-10-17 | 2009-07-01 | Koninklijke Philips Electronics N.V. | Visualization of 3d images in combination with 2d projection images |
JP4851296B2 (ja) | 2006-10-26 | 2012-01-11 | 富士フイルム株式会社 | 放射線断層画像取得装置および放射線断層画像取得方法 |
US20080114614A1 (en) | 2006-11-15 | 2008-05-15 | General Electric Company | Methods and systems for healthcare application interaction using gesture-based interaction enhanced with pressure sensitivity |
US8280488B2 (en) | 2006-11-24 | 2012-10-02 | Huisman Henkjan J | Processing and displaying dynamic contrast-enhanced magnetic resonance imaging information |
US7769219B2 (en) | 2006-12-11 | 2010-08-03 | Cytyc Corporation | Method for assessing image focus quality |
US8051386B2 (en) | 2006-12-21 | 2011-11-01 | Sectra Ab | CAD-based navigation of views of medical image data stacks or volumes |
US8044972B2 (en) | 2006-12-21 | 2011-10-25 | Sectra Mamea Ab | Synchronized viewing of tomosynthesis and/or mammograms |
US8091045B2 (en) | 2007-01-07 | 2012-01-03 | Apple Inc. | System and method for managing lists |
US10682107B2 (en) | 2007-01-31 | 2020-06-16 | Philips Digital Mammography Sweden Ab | Method and arrangement relating to x-ray imaging |
US20080221478A1 (en) | 2007-03-07 | 2008-09-11 | Ritchie Paul G | Integrated Imaging and Biopsy System with Integrated Control Interface |
JP4888165B2 (ja) | 2007-03-12 | 2012-02-29 | 富士ゼロックス株式会社 | 画像処理装置及びプログラム |
US8155417B2 (en) | 2007-03-27 | 2012-04-10 | Hologic, Inc. | Post-acquisition adaptive reconstruction of MRI data |
JP5656339B2 (ja) | 2007-03-28 | 2015-01-21 | Jsr株式会社 | タンパク質固定化担体およびその製造方法 |
US7936341B2 (en) | 2007-05-30 | 2011-05-03 | Microsoft Corporation | Recognizing selection regions from multiple simultaneous inputs |
US7889175B2 (en) | 2007-06-28 | 2011-02-15 | Panasonic Corporation | Touchpad-enabled remote controller and user interaction methods |
US9427201B2 (en) | 2007-06-30 | 2016-08-30 | Accuray Incorporated | Non-invasive method for using 2D angiographic images for radiosurgical target definition |
FR2919747B1 (fr) * | 2007-08-02 | 2009-11-06 | Gen Electric | Procede et systeme d'affichage d'images de tomosynthese |
WO2009026587A1 (en) | 2007-08-23 | 2009-02-26 | Fischer Medical Technologies, Inc. | Improved computed tomography breast imaging and biopsy system |
JP5421266B2 (ja) | 2007-09-14 | 2014-02-19 | パナソニック・アビオニクス・コーポレイション | 乗物用情報システムのための携帯型ユーザ用操作デバイスおよび操作方法 |
US7630533B2 (en) * | 2007-09-20 | 2009-12-08 | Hologic, Inc. | Breast tomosynthesis with display of highlighted suspected calcifications |
US8126226B2 (en) | 2007-09-20 | 2012-02-28 | General Electric Company | System and method to generate a selected visualization of a radiological image of an imaged subject |
US7929743B2 (en) | 2007-10-02 | 2011-04-19 | Hologic, Inc. | Displaying breast tomosynthesis computer-aided detection results |
US8107700B2 (en) | 2007-11-21 | 2012-01-31 | Merge Cad Inc. | System and method for efficient workflow in reading medical image data |
FR2924010B1 (fr) | 2007-11-23 | 2010-11-26 | Gen Electric | Perfectionnements aux appareils de mammographie |
US20090138280A1 (en) | 2007-11-26 | 2009-05-28 | The General Electric Company | Multi-stepped default display protocols |
US8792965B2 (en) | 2007-12-21 | 2014-07-29 | Koning Corporation | Methods and apparatus of cone beam CT imaging and image-guided procedures |
US20090167702A1 (en) | 2008-01-02 | 2009-07-02 | Nokia Corporation | Pointing device detection |
JP5294654B2 (ja) | 2008-02-29 | 2013-09-18 | 富士フイルム株式会社 | 画像表示方法および装置 |
JP5558672B2 (ja) | 2008-03-19 | 2014-07-23 | 株式会社東芝 | 画像処理装置及びx線コンピュータ断層撮影装置 |
KR100977385B1 (ko) | 2008-04-10 | 2010-08-20 | 주식회사 팬택 | 위젯형 대기화면을 제어할 수 있는 이동 단말기 및 그를이용한 대기화면 제어 방법 |
US20110178389A1 (en) | 2008-05-02 | 2011-07-21 | Eigen, Inc. | Fused image moldalities guidance |
US20100177053A2 (en) | 2008-05-09 | 2010-07-15 | Taizo Yasutake | Method and apparatus for control of multiple degrees of freedom of a display |
JP5224451B2 (ja) | 2008-06-03 | 2013-07-03 | 富士フイルム株式会社 | 投影画像作成装置、方法およびプログラム |
US8031835B2 (en) | 2008-08-07 | 2011-10-04 | Xcision Medical Systems Llc | Method and system for translational digital tomosynthesis mammography |
US9848849B2 (en) | 2008-08-21 | 2017-12-26 | General Electric Company | System and method for touch screen control of an ultrasound system |
US7991106B2 (en) | 2008-08-29 | 2011-08-02 | Hologic, Inc. | Multi-mode tomosynthesis/mammography gain calibration and image correction using gain map information from selected projection angles |
DE202009018884U1 (de) | 2008-09-04 | 2014-04-04 | Hologic Inc. | Integriertes Multimodus-Mammographie/Thomosynthese-Röntgensystem |
US8284170B2 (en) | 2008-09-30 | 2012-10-09 | Apple Inc. | Touch screen device, method, and graphical user interface for moving on-screen objects without using a cursor |
US20100088346A1 (en) | 2008-10-08 | 2010-04-08 | General Electric Company | Method and system for attaching objects to a data repository |
US7940891B2 (en) | 2008-10-22 | 2011-05-10 | Varian Medical Systems, Inc. | Methods and systems for treating breast cancer using external beam radiation |
US8543415B2 (en) | 2008-11-26 | 2013-09-24 | General Electric Company | Mobile medical device image and series navigation |
US20100131482A1 (en) | 2008-11-26 | 2010-05-27 | General Electric Company | Adaptive user interface systems and methods for healthcare applications |
EP2359282A2 (en) | 2008-11-28 | 2011-08-24 | Fujifilm Medical Systems U.S.A. Inc. | Active overlay system and method for accessing and manipulating imaging dislays |
US9146663B2 (en) * | 2008-12-08 | 2015-09-29 | Hologic, Inc. | Displaying computer-aided detection information with associated breast tomosynthesis image information |
JP2010137004A (ja) | 2008-12-15 | 2010-06-24 | Fujifilm Corp | 放射線画像処理システム及び処理方法 |
US8184890B2 (en) | 2008-12-26 | 2012-05-22 | Three Palm Software | Computer-aided diagnosis and visualization of tomosynthesis mammography data |
JP2010188003A (ja) | 2009-02-19 | 2010-09-02 | Fujifilm Corp | 画像表示システム及び画像撮影表示システム |
DE102009015007A1 (de) | 2009-03-26 | 2010-10-21 | Siemens Aktiengesellschaft | Verfahren zur Auswertung einer Zeitserie von zweidimensionalen Bildern einer Testbolusmessung und medizinische Bildaufnahmeeinrichtung |
JP5373450B2 (ja) | 2009-03-31 | 2013-12-18 | 富士フイルム株式会社 | 生検装置及び生検装置の動作方法 |
US8300023B2 (en) | 2009-04-10 | 2012-10-30 | Qualcomm Incorporated | Virtual keypad generator with learning capabilities |
US9113124B2 (en) | 2009-04-13 | 2015-08-18 | Linkedin Corporation | Method and system for still image capture from video footage |
US8217357B2 (en) | 2009-04-13 | 2012-07-10 | Hologic, Inc. | Integrated breast X-ray and molecular imaging system |
US8677282B2 (en) | 2009-05-13 | 2014-03-18 | International Business Machines Corporation | Multi-finger touch adaptations for medical imaging systems |
KR101728088B1 (ko) | 2009-06-29 | 2017-04-18 | 톰슨 라이센싱 | 콘트라스트 개선 |
CA2766485C (en) | 2009-07-16 | 2017-07-25 | Karim S. Karim | Multi-layer flat panel x-ray detector |
FR2948481B1 (fr) | 2009-07-27 | 2012-01-20 | Gen Electric | Procede d'imagerie pour la realisation d'une modelisation en triple energie, et dispositif pour la mise en oeuvre d'un tel procede |
US8644644B2 (en) | 2009-09-14 | 2014-02-04 | Adobe Systems Incorporation | Methods and apparatus for blending images |
JP5572440B2 (ja) | 2009-09-15 | 2014-08-13 | 富士フイルム株式会社 | 診断支援システム、診断支援プログラムおよび診断支援方法 |
KR101616874B1 (ko) | 2009-09-23 | 2016-05-02 | 삼성전자주식회사 | 다중 영상 합성 방법 및 그 장치 |
US9053565B2 (en) * | 2009-10-05 | 2015-06-09 | Koninklijke Philips N.V. | Interactive selection of a region of interest in an image |
EP2535829A3 (en) * | 2009-10-07 | 2013-07-10 | Hologic, Inc. | Processing and displaying computer-aided detection information associated with breast x-ray images |
WO2011043838A1 (en) | 2009-10-08 | 2011-04-14 | Hologic, Inc . | Needle breast biopsy system and method of use |
US9183355B2 (en) | 2009-11-24 | 2015-11-10 | Penrad Technologies, Inc. | Mammography information system |
JP2011110175A (ja) | 2009-11-26 | 2011-06-09 | Konica Minolta Medical & Graphic Inc | 医用画像表示システム及びプログラム |
US20120014578A1 (en) | 2010-07-19 | 2012-01-19 | Qview Medical, Inc. | Computer Aided Detection Of Abnormalities In Volumetric Breast Ultrasound Scans And User Interface |
US9289183B2 (en) | 2009-11-27 | 2016-03-22 | Qview Medical, Inc. | Interactive display of computer aided detection results in combination with quantitative prompts |
BR112012014423A2 (pt) | 2009-12-17 | 2017-12-19 | Koninklijke Philips Eletronics N V | "sistema para a geração de uma cosntrução de um objeto de interesse, estação de trabalho médica, parelhos de aquisição de imagens médicas, método de geração de uma construção de um objeto de interesse e produto de programa de computador |
US8027582B2 (en) | 2009-12-21 | 2011-09-27 | Sony Corporation | Autofocus with confidence measure |
US9451924B2 (en) | 2009-12-30 | 2016-09-27 | General Electric Company | Single screen multi-modality imaging displays |
US9201627B2 (en) | 2010-01-05 | 2015-12-01 | Rovi Guides, Inc. | Systems and methods for transferring content between user equipment and a wireless communications device |
WO2011091300A2 (en) | 2010-01-24 | 2011-07-28 | Mistretta Medical, Llc | System and method for implementation of 4d time-energy subtraction computed tomography |
US8559590B2 (en) | 2010-01-28 | 2013-10-15 | Varian Medical Systems, Inc. | Imaging breast cancerous lesions with microcalcifications |
DE102010009295B4 (de) | 2010-02-25 | 2019-02-21 | Siemens Healthcare Gmbh | Verfahren zur Darstellung eines zu untersuchenden und/oder behandelnden Bereichs |
JP5340213B2 (ja) | 2010-03-30 | 2013-11-13 | 富士フイルム株式会社 | 画像表示システム |
WO2011148371A1 (en) | 2010-05-23 | 2011-12-01 | Technion Research And Development Foundation Ltd. | Detection, staging and grading of benign and malignant tumors |
US20110310126A1 (en) | 2010-06-22 | 2011-12-22 | Emil Markov Georgiev | Method and system for interacting with datasets for display |
CN102985009B (zh) | 2010-06-28 | 2016-08-17 | 皇家飞利浦电子股份有限公司 | 医学断层合成系统 |
JP5654787B2 (ja) | 2010-06-30 | 2015-01-14 | 富士フイルム株式会社 | 放射線画像撮影表示方法およびシステム |
KR101687971B1 (ko) | 2010-07-19 | 2016-12-21 | 삼성전자주식회사 | 유방 촬영 장치 및 그 방법 |
JP5650467B2 (ja) | 2010-08-27 | 2015-01-07 | 富士フイルム株式会社 | 放射線画像撮影システム |
JP2012061196A (ja) * | 2010-09-17 | 2012-03-29 | Fujifilm Corp | 断層画像表示方法および装置 |
DE102010041920A1 (de) | 2010-10-04 | 2012-04-05 | Siemens Aktiengesellschaft | Verfahren zur Darstellung einer Konzentration eines Kontrastmittels in einem vorbestimmten Volumenabschnitt mittels Tomosynthese und entsprechendes Tomosynthesegerät |
WO2012063653A1 (ja) | 2010-11-12 | 2012-05-18 | 株式会社 日立メディコ | 医用画像表示装置及び医用画像表示方法 |
CN103269670A (zh) | 2010-11-18 | 2013-08-28 | 豪洛捷公司 | 用于执行医疗程序的台 |
US9146674B2 (en) | 2010-11-23 | 2015-09-29 | Sectra Ab | GUI controls with movable touch-control objects for alternate interactions |
US9075903B2 (en) | 2010-11-26 | 2015-07-07 | Hologic, Inc. | User interface for medical image review workstation |
JP5170226B2 (ja) | 2010-12-10 | 2013-03-27 | カシオ計算機株式会社 | 画像処理装置、画像処理方法、及びプログラム |
DE102011003137A1 (de) * | 2011-01-25 | 2012-07-26 | Siemens Aktiengesellschaft | Bildgebungsverfahren mit einer verbesserten Darstellung eines Gewebebereichs |
EP2675360B1 (en) | 2011-02-14 | 2022-08-10 | University Of Rochester | Method and apparatus of cone beam breast ct image-based computer-aided detection and diagnosis |
FR2971412B1 (fr) | 2011-02-15 | 2014-01-17 | Gen Electric | Methode d'acquisition de la morphologie d'un sein. |
IT1404617B1 (it) | 2011-02-25 | 2013-11-29 | I M S Internaz Medicoscientifica S R L | Apparecchiatura per la tomosintesi e la mammografia. |
CN103477346A (zh) | 2011-03-08 | 2013-12-25 | 霍洛吉克公司 | 用于筛查、诊断和活检的双能和/或造影增强乳房成像的系统和方法 |
DE202011004071U1 (de) | 2011-03-16 | 2011-07-27 | Siemens Aktiengesellschaft | Kompressionsplatte für Tomosynthese |
US8526763B2 (en) | 2011-05-27 | 2013-09-03 | Adobe Systems Incorporated | Seamless image composition |
JP6134315B2 (ja) | 2011-06-27 | 2017-05-24 | コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. | 画像データにおける所見の解剖学的タグ付けの方法 |
KR101477543B1 (ko) | 2011-07-22 | 2014-12-31 | 삼성전자주식회사 | 엑스선 촬영 장치 및 방법 |
JP6118325B2 (ja) | 2011-09-07 | 2017-04-19 | コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. | 最適なトモグラフィスライスの自動選択を備えた対話式ライブセグメンテーション |
JP5439453B2 (ja) * | 2011-10-20 | 2014-03-12 | 株式会社東芝 | 画像表示装置 |
DE102011087127B4 (de) | 2011-11-25 | 2015-11-19 | Siemens Aktiengesellschaft | Bestimmung von Aufnahmeparametern bei einer Dual-Energy Tomosynthese |
JP2014534042A (ja) | 2011-11-27 | 2014-12-18 | ホロジック, インコーポレイテッドHologic, Inc. | マンモグラフィーおよび/またはトモシンセシス画像データを使用して2d画像を生成するためのシステムおよび方法 |
EP3181052A1 (en) | 2011-11-30 | 2017-06-21 | Rush University Medical Center | System and methods for identification of implanted medical devices and/or detection of retained surgical foreign objects from medical images |
US8594407B2 (en) | 2012-02-03 | 2013-11-26 | Siemens Aktiengesellschaft | Plane-by-plane iterative reconstruction for digital breast tomosynthesis |
ES2641456T3 (es) | 2012-02-13 | 2017-11-10 | Hologic, Inc. | Sistema y método para navegar por una pila de tomosíntesis usando datos de imágenes sintetizadas |
JP5745444B2 (ja) | 2012-03-05 | 2015-07-08 | 富士フイルム株式会社 | 医用画像表示装置および医用画像表示方法、並びに、医用画像表示プログラム |
CN104160424B (zh) | 2012-03-08 | 2017-09-19 | 皇家飞利浦有限公司 | 用于改进多模态图像融合中的配准准确度的智能标志选择 |
JP5244250B1 (ja) | 2012-03-28 | 2013-07-24 | パナソニック株式会社 | 給電装置 |
US8842806B2 (en) | 2012-04-03 | 2014-09-23 | Carestream Health, Inc. | Apparatus and method for breast imaging |
ITBO20120227A1 (it) | 2012-04-24 | 2013-10-25 | I M S Internaz Medico Scient Ifica S R L | Apparecchiatura per eseguire un esame sul seno di un paziente. |
JP2013244211A (ja) * | 2012-05-25 | 2013-12-09 | Toshiba Corp | 医用画像処理装置、医用画像処理方法及び制御プログラム |
DE102012213910A1 (de) | 2012-08-06 | 2014-02-06 | Siemens Aktiengesellschaft | Steuerungsmodul und -verfahren zur Perspektivenbestimmung beim Rendern von medizinischen Bilddatensätzen |
KR101479212B1 (ko) | 2012-09-05 | 2015-01-06 | 삼성전자 주식회사 | 엑스선 영상 장치 및 엑스선 영상 생성 방법 |
US8983156B2 (en) | 2012-11-23 | 2015-03-17 | Icad, Inc. | System and method for improving workflow efficiences in reading tomosynthesis medical image data |
GB201221069D0 (en) | 2012-11-23 | 2013-01-09 | Univ Reading | Control method |
US9113781B2 (en) | 2013-02-07 | 2015-08-25 | Siemens Aktiengesellschaft | Method and system for on-site learning of landmark detection models for end user-specific diagnostic medical image reading |
CN105451657A (zh) | 2013-03-15 | 2016-03-30 | 霍罗吉克公司 | 用于导航断层合成堆叠的包括自动聚焦的系统和方法 |
JP6388347B2 (ja) | 2013-03-15 | 2018-09-12 | ホロジック, インコーポレイテッドHologic, Inc. | 腹臥位におけるトモシンセシス誘導生検 |
US9129362B2 (en) | 2013-05-22 | 2015-09-08 | Siemens Aktiengesellschaft | Semantic navigation and lesion mapping from digital breast tomosynthesis |
JP6368779B2 (ja) | 2013-06-28 | 2018-08-01 | コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. | トモシンセシスデータからエッジ保存合成マンモグラムを生成するための方法 |
KR20150010515A (ko) | 2013-07-19 | 2015-01-28 | 삼성전자주식회사 | 의료 영상 획득 방법 및 장치 |
US9668699B2 (en) | 2013-10-17 | 2017-06-06 | Siemens Healthcare Gmbh | Method and system for anatomical object detection using marginal space deep neural networks |
EP4278977A3 (en) | 2013-10-24 | 2024-02-21 | Hologic, Inc. | System and method for navigating x-ray guided breast biopsy |
US10978184B2 (en) | 2013-11-04 | 2021-04-13 | Terarecon, Inc. | Evolving contextual clinical data engine for medical information |
US10610182B2 (en) | 2014-01-15 | 2020-04-07 | Alara Systems, Inc | Converting low-dose to higher dose 3D tomosynthesis images through machine-learning processes |
JP6283850B2 (ja) | 2014-01-31 | 2018-02-28 | 国立大学法人 熊本大学 | 画像処理方法、画像処理装置及びプログラム |
JP6495003B2 (ja) | 2014-02-04 | 2019-04-03 | キヤノンメディカルシステムズ株式会社 | 医用画像処理装置、医用画像診断装置及び医用画像処理方法 |
WO2015130916A1 (en) * | 2014-02-28 | 2015-09-03 | Hologic, Inc. | System and method for generating and displaying tomosynthesis image slabs |
US20150331995A1 (en) | 2014-05-14 | 2015-11-19 | Tiecheng Zhao | Evolving contextual clinical data engine for medical data processing |
US20160000399A1 (en) | 2014-07-02 | 2016-01-07 | General Electric Company | Method and apparatus for ultrasound needle guidance |
US9569864B2 (en) | 2014-09-12 | 2017-02-14 | Siemens Aktiengesellschaft | Method and apparatus for projection image generation from tomographic images |
WO2016103094A1 (en) | 2014-12-24 | 2016-06-30 | Koninklijke Philips N.V. | Needle trajectory prediction for target biopsy |
JP6383321B2 (ja) | 2015-04-08 | 2018-08-29 | 株式会社エクスメディオ | 診断支援システム |
US20180132944A1 (en) | 2015-05-18 | 2018-05-17 | Koninklijke Philips N.V. | Intra-procedural accuracy feedback for image-guided biopsy |
KR101822404B1 (ko) | 2015-11-30 | 2018-01-26 | 임욱빈 | Dnn 학습을 이용한 세포이상 여부 진단시스템 |
US10255529B2 (en) | 2016-03-11 | 2019-04-09 | Magic Leap, Inc. | Structure learning in convolutional neural networks |
TWI609674B (zh) | 2016-05-12 | 2018-01-01 | 太豪生醫股份有限公司 | 乳房影像對位方法與影像處理裝置 |
US9589374B1 (en) | 2016-08-01 | 2017-03-07 | 12 Sigma Technologies | Computer-aided diagnosis system for medical images using deep convolutional neural networks |
US20180144244A1 (en) | 2016-11-23 | 2018-05-24 | Vital Images, Inc. | Distributed clinical workflow training of deep learning neural networks |
EP3326535B1 (en) | 2016-11-25 | 2019-06-12 | ScreenPoint Medical | Displaying system for displaying digital breast tomosynthesis data |
JP7277053B2 (ja) | 2017-03-30 | 2023-05-18 | ホロジック, インコーポレイテッド | 階層式マルチレベル特徴画像合成および提示のためのシステムおよび方法 |
JP7169986B2 (ja) | 2017-03-30 | 2022-11-11 | ホロジック, インコーポレイテッド | オブジェクトグリッド増強を用いて高次元画像データから低次元画像データを合成するためのシステムおよび方法 |
US11445993B2 (en) | 2017-03-30 | 2022-09-20 | Hologic, Inc. | System and method for targeted object enhancement to generate synthetic breast tissue images |
US11403483B2 (en) | 2017-06-20 | 2022-08-02 | Hologic, Inc. | Dynamic self-learning medical image method and system |
US12029499B2 (en) | 2018-05-04 | 2024-07-09 | Hologic, Inc. | Biopsy needle visualization |
US20210000553A1 (en) | 2018-05-04 | 2021-01-07 | Hologic, Inc. | Introducer and localization wire visualization |
EP3973539A1 (en) | 2019-07-31 | 2022-03-30 | Google LLC | System and method for interpretation of multiple medical images using deep learning |
US20230125385A1 (en) | 2021-10-25 | 2023-04-27 | Hologic, Inc. | Auto-focus tool for multimodality image review |
-
2015
- 2015-02-26 WO PCT/US2015/017713 patent/WO2015130916A1/en active Application Filing
- 2015-02-26 ES ES18165965T patent/ES2878599T3/es active Active
- 2015-02-26 KR KR1020167023205A patent/KR102402887B1/ko active IP Right Grant
- 2015-02-26 US US15/120,911 patent/US10111631B2/en active Active
- 2015-02-26 AU AU2015222981A patent/AU2015222981B2/en active Active
- 2015-02-26 EP EP18165965.7A patent/EP3417786B1/en active Active
- 2015-02-26 ES ES21168134T patent/ES2943561T3/es active Active
- 2015-02-26 EP EP15709035.8A patent/EP3110332B1/en active Active
- 2015-02-26 CN CN201580010642.2A patent/CN106061389B/zh active Active
- 2015-02-26 EP EP21168134.1A patent/EP3868301B1/en active Active
- 2015-02-26 JP JP2016549766A patent/JP6506769B2/ja active Active
- 2015-02-26 CA CA2937379A patent/CA2937379C/en active Active
-
2018
- 2018-09-26 US US16/143,181 patent/US10575807B2/en active Active
-
2019
- 2019-03-29 JP JP2019066645A patent/JP6967031B2/ja active Active
-
2020
- 2020-02-14 US US16/792,127 patent/US11419565B2/en active Active
-
2021
- 2021-08-02 JP JP2021126592A patent/JP7317077B2/ja active Active
-
2022
- 2022-07-20 US US17/869,408 patent/US11801025B2/en active Active
-
2023
- 2023-09-19 US US18/469,775 patent/US20240138792A1/en active Pending
Also Published As
Publication number | Publication date |
---|---|
US20200253573A1 (en) | 2020-08-13 |
US20230056692A1 (en) | 2023-02-23 |
US20160367210A1 (en) | 2016-12-22 |
KR102402887B1 (ko) | 2022-05-27 |
US11801025B2 (en) | 2023-10-31 |
AU2015222981A1 (en) | 2016-08-04 |
EP3417786A1 (en) | 2018-12-26 |
CA2937379A1 (en) | 2015-09-03 |
CA2937379C (en) | 2022-08-09 |
EP3868301B1 (en) | 2023-04-05 |
WO2015130916A1 (en) | 2015-09-03 |
ES2943561T3 (es) | 2023-06-14 |
US10111631B2 (en) | 2018-10-30 |
EP3868301A1 (en) | 2021-08-25 |
US20190125286A1 (en) | 2019-05-02 |
EP3417786B1 (en) | 2021-04-14 |
US20240138792A1 (en) | 2024-05-02 |
JP2019122817A (ja) | 2019-07-25 |
CN106061389B (zh) | 2019-11-12 |
JP2021166941A (ja) | 2021-10-21 |
EP3110332B1 (en) | 2018-04-11 |
US10575807B2 (en) | 2020-03-03 |
KR20160128315A (ko) | 2016-11-07 |
JP6506769B2 (ja) | 2019-04-24 |
JP2017510323A (ja) | 2017-04-13 |
AU2015222981B2 (en) | 2019-01-31 |
EP3110332A1 (en) | 2017-01-04 |
JP7317077B2 (ja) | 2023-07-28 |
JP6967031B2 (ja) | 2021-11-17 |
US11419565B2 (en) | 2022-08-23 |
CN106061389A (zh) | 2016-10-26 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
ES2878599T3 (es) | Sistema y método para generar y visualizar bloques de imagen de tomosíntesis | |
ES2641456T3 (es) | Sistema y método para navegar por una pila de tomosíntesis usando datos de imágenes sintetizadas | |
JP2020512129A (ja) | オブジェクトグリッド増強を用いて高次元画像データから低次元画像データを合成するためのシステムおよび方法 | |
ES2950033T3 (es) | Método para la generación de imágenes de tejido mamario sintético mediante supresión de elementos de alta densidad |