ES2405879T3 - Dispositivo, sistema y método para la detección automática de actividad contráctil en una trama de imagen - Google Patents

Dispositivo, sistema y método para la detección automática de actividad contráctil en una trama de imagen Download PDF

Info

Publication number
ES2405879T3
ES2405879T3 ES07713342T ES07713342T ES2405879T3 ES 2405879 T3 ES2405879 T3 ES 2405879T3 ES 07713342 T ES07713342 T ES 07713342T ES 07713342 T ES07713342 T ES 07713342T ES 2405879 T3 ES2405879 T3 ES 2405879T3
Authority
ES
Spain
Prior art keywords
skeleton
image
image frames
wrinkle
imaging device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
ES07713342T
Other languages
English (en)
Inventor
Panagiota Spyridonos
Fernando Vilarino
Jordi Vitria
Petia Radeva
Fernando Azpiroz
Juan Malagelada
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fundacio Hospital Universitari Vall dHebron Institut de Recerca FIR VHIR
Given Imaging Ltd
Original Assignee
Fundacio Hospital Universitari Vall dHebron Institut de Recerca FIR VHIR
Given Imaging Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fundacio Hospital Universitari Vall dHebron Institut de Recerca FIR VHIR, Given Imaging Ltd filed Critical Fundacio Hospital Universitari Vall dHebron Institut de Recerca FIR VHIR
Application granted granted Critical
Publication of ES2405879T3 publication Critical patent/ES2405879T3/es
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00004Operational features of endoscopes characterised by electronic signal processing
    • A61B1/00009Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope
    • A61B1/000094Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope extracting biological structures
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00043Operational features of endoscopes provided with output arrangements
    • A61B1/00045Display arrangement
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/04Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances
    • A61B1/041Capsule endoscopes for imaging
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/40Analysis of texture
    • G06T7/41Analysis of texture based on statistical description of texture
    • G06T7/44Analysis of texture based on statistical description of texture using image operators, e.g. filters, edge density metrics or local histograms
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20036Morphological image processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20036Morphological image processing
    • G06T2207/20044Skeletonization; Medial axis transform
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30028Colon; Small intestine

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Surgery (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Radiology & Medical Imaging (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Veterinary Medicine (AREA)
  • Biomedical Technology (AREA)
  • Pathology (AREA)
  • Biophysics (AREA)
  • Molecular Biology (AREA)
  • Animal Behavior & Ethology (AREA)
  • Public Health (AREA)
  • Optics & Photonics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Signal Processing (AREA)
  • Quality & Reliability (AREA)
  • Probability & Statistics with Applications (AREA)
  • Endoscopes (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)

Abstract

Un método para identificar tramas de imagen que representan actividad contráctil, a partir de una corriente o flujo de imágenes de una cavidad interna intestinal, captadas por un dispositivo in vivo, de manera que dicho método comprende: - recibir el flujo de imágenes; y, tras la captación de las imágenes, - utilizar una extracción automática de características para determinar si las tramas de imagen representan actividad contráctil; caracterizado por que - dicha extracción automática de características comprende: - identificar una pauta o configuración de arrugamiento dentro de una de las tramas de imagen mediante la identificación de bordes de una pared intestinal plegada dentro de dicha una de las tramas de imagen; - extraer un esqueleto de la configuración de arrugamiento; - identificar un centro del esqueleto como el punto donde convergen los bordes; - evaluar la orientación radial del esqueleto; y - determinar si dicha una de las tramas de imagen representa actividad contráctil basándose en la extracción de características automática.

Description

Dispositivo, sistema y método para la detección automática de actividad contráctil en una trama de imagen.
Campo de la invención
La presente invención se refiere, en general, a la formación de imágenes in vivo y, específicamente, a la extracción de características a partir de tramas de imagen captadas in vivo.
Antecedentes de la invención
La peristalsis en el interior de un tracto gastrointestinal (GI) puede transportar los alimentos tragados y puede ayudar a su digestión y, finalmente, a su evacuación. La peristalsis puede tener como resultado ondas de presión o contracciones que se desplazan a lo largo del tracto GI, de lo que resulta la movilidad de un bolo alimenticio u otro objeto contenido dentro del trasto GI.
Ciertos estados patológicos pueden alterar la motilidad normal dentro del tracto GI. Puede ocasionarse una baja motilidad, por ejemplo, debido a una obstrucción, un bloqueo u otro estado patológico. Las afecciones de la motilidad pueden venir provocadas, por ejemplo, por afecciones nerviosas y pueden no ser, necesariamente, visibles.
Algunos sistemas de detección in vivo pueden incluir un dispositivo de formación de imágenes in vivo que es capaz de captar y transmitir imágenes de, por ejemplo, el tracto GI al tiempo que el dispositivo de formación de imágenes in vivo pasa a través de la cavidad interna GI.
Se conocen en la técnica otros dispositivos, sistemas y métodos para la detección in vivo de vías de paso o cavidades del interior del cuerpo, y para la detección y recopilación de información (por ejemplo, información sobre la imagen, información sobre el pH, información sobre la temperatura, información sobre la impedancia eléctrica, información sobre la presión, etc.).
La publicación de PANAGIOTA SPYRIDONOS et al.: “Identification of Intestinal Motility Events of Capsule Endoscopy Video Analysis” (Identificación de sucesos de motilidad intestinal de análisis de vídeo de endoscopia
capsular), enero de 2005, ADVANCED CONCEPTS FOR INTELLIGENT VISION SYSTEMS LECTURE NOTES IN COMPUTER SCIENCE; LNCS, SPRINGER, BERLÍN, DE, página(s) 531-537, XP019019716, ISBN: 978-3-54029032-2, divulga un sistema para ayudar al análisis de datos de vídeo de endoscopia capsular mediante la identificación de secuencias de imágenes candidatas de contracciones y la estimación del área de cavidad interna en las imágenes.
La publicación de KRYSTIAN MIKOLAJCZYK et al.: “Scale & Affine Invariant Interest Point Detectors” (Detectores de
puntos de interés invariantes en escala & afines), INTERNAL JOURNAL OF COMPUTER VISION (REVISTAINTERNA DE VISIÓN COMPUTACIONAL), KLUWER ACADEMIC PUBLISHERS, BO, vol. 60, nº 1, octubre de 2004, páginas 63-86, XP019216425, SIN: 1573-1405, divulga una solución para detectar puntos de interés invariantes en escala y transformaciones afines, y encontrar un centro para estructuras detectadas mediante la computación de una representación en múltiples escalas para el detector de puntos de interés de Harris, y, a continuación, seleccionar puntos en los cuales una medida local (la laplaciana) es máxima a través de las escalas.
La publicación FERNANDO VILARINO et al.: “Experiments with SVM and Stratified Sampling with an Imbalanced Problem: Detection of Intestinal Contractions” (Experimentos con SVM y muestreo estratificado con un problema
desproporcionado: la detección de las contracciones intestinales), 1 de enero de 2005, PATTERN RECOGNITION AND IMAGE ANALYSIS LECTURE NOTES IN COMPUTER SCIENCE (NOTAS DE CONFERENCIA SOBRERECONOCIMIENTO DE CONFIGURACIONES Y ANÁLISIS DE IMAGEN EN CIENCIA INFORMÁTICA); LNCS,SPRINGER, BERLÍN, DE, páginas 783 – 791, XP 019018600, ISBN: 978-3-540-28833, divulga la detección automática de contracciones intestinales en imágenes de vídeo endoscópicas mediante el adiestramiento de una Máquina Vectorial de Soporte.
La publicación de FERNANDO VILARINO et al.: “Self Organized Maps for Intestinal Contractions Categorization with Wireless Capsule Video Endoscopy” (Relaciones de correspondencia autoorganizadas para la categorización de
contracciones intestinales con endoscopia de vídeo capsular inalámbrica), IFMBE POCEEDINGS, INTERNATIONAL FEERATION FOR MEDICAL AND BIOLOGICAL ENGINEERING (PROCEDIMIENTOS DE LA IFMBE, FEDERACIÓN INTERNACIONAL DE INGENIERÍA MÉDICA Y BIOLÓGICA), vol. 11, nº 1, 1 de enero de 2005, XP007919823, ISSN: 1727-1983, divulga una clasificación de diferentes pautas o configuraciones de pequeñas contracciones intestinales en endoscopia de vídeo para la exploración e la motilidad intestinal.
La publicación de SUHUAI LUO et al.: “Extraction of Brain Vessels from Magnetic Resonance Angiografic Images: Concise Literature Review, Challenges and Proposals” (Extracción de vasos cerebrales a partir de imágenes
angiográficas por resonancia magnética: breve revisión de la bibliografía, desafíos y propuestas), ENGINEERING INMEDICINE AND BIOLOGY SOCIETY (INGENIERÍA EN LA SOCIEDAD DE MEDICINA Y BIOLOGÍA), 2005, IEEE-EMBS 2005. 27ª CONFERENCIA ANUAL INTERNACIONAL DE SHANGHAI, CHINA, 01-04 septiembre de 2005, PISICATAWAY, NJ [Nueva Jersey], USA, IEEE [Instituto de Ingeniería Eléctrica y Electrónica –“Institute of Electrical and Electronics Engineering”], 1 de septiembre de 2005, páginas 1422-1425, XP01 0908044, ISBN: 978-0-78038741-6, divulga propuestas en las formas de desarrollar un algoritmo de extracción de vasos robusto.
El documento de B. Cyganek: “Combined Detector of Locally-Oriented Structures and Corners in Images Based on a Scale-Space Tensor Representation of Local Neighborhoods of Pixels” (Detector combinado de estructuras y esquinas localmente orientadas en imágenes basadas en una representación tensorial a escala espacial de sectores locales de píxeles), 1 de enero de 2003, páginas 721-730, XP002630548, recuperado de la Internet: URL: http://www.springerlink.com/conten/ydldhjvndgg 1r8vw/ [recuperado el ], divulga una solución para el problema de la detección de las esquinas y de la detección de áreas o zonas en imágenes que pueden ser caracterizadas por la misma orientación angular.
Breve descripción de los dibujos
La materia objeto que se considera constitutiva de la invención se ha destacado particularmente y reivindicado de forma distintiva en las reivindicaciones independientes. La invención, sin embargo, tanto en lo que respecta a su organización como a su método de funcionamiento, junto con los objetivos, características y ventajas de la misma, puede comprenderse mejor en referencia a la siguiente descripción detallada que sigue, cuando se lee en combinación con los dibujos que se acompañan, en los cuales:
La Figura 1A muestra tramas de imagen proporcionadas a modo de ejemplo y que incluyen una contracción en arrugamiento, de acuerdo con realizaciones de la presente invención;
La Figura 1B muestra tramas de imagen proporcionadas a modo de ejemplo y que incluyen contracción en arrugamiento, de acuerdo con realizaciones de la invención;
La Figura 2 muestra un método para identificar tramas de imagen que incluyen contracciones, de acuerdo con una realización de la presente invención;
La Figura 3 muestra un método proporcionado a modo de ejemplo para extraer el esqueleto de la configuración o pauta de arrugamiento, de acuerdo con realizaciones de la presente invención;
Las Figuras 4A-4D muestran resultados proporcionados a modo de ejemplo de un método de extracción de configuraciones de arrugamiento, de acuerdo con realizaciones de la presente invención;
La Figura 5 muestra un método para determinar el centro de simetría de un esqueleto de arrugamiento, de acuerdo con realizaciones de la presente invención;
Las Figuras 6A a 6C muestran resultados de muestra que pueden obtenerse a partir de un método para determinar un centro de simetría para un esqueleto de arrugamiento, de acuerdo con realizaciones de la presente invención;
La Figura 7 muestra una configuración a modo de estrella proporcionada a modo de ejemplo, dividida en cuadrantes de acuerdo con una realización de la presente invención;
La Figura 8A muestra un esqueleto de arrugamiento detectado a partir de una trama de imagen contráctil de muestra, de acuerdo con una realización de la invención;
La Figura 8B muestra esqueletos de arrugamiento detectados a partir de una trama de imagen no contráctil de muestra, de acuerdo con una realización de la invención;
La Figura 9 muestra un diagrama de flujo simplificado para la detección de arrugamientos intestinales a través del análisis de valles y picos o crestas, de acuerdo con una realización de la presente invención;
Las Figuras 10(a) a 10(e) muestran resultados de muestra obtenidos por las etapas descritas en la Figura 9, de acuerdo con una realización de la presente invención;
Las Figuras 11(a) y 11(b) muestran dos ejemplos de 4 cuadrantes diferentes que utilizan el centroide de la cavidad interna como punto medio para la división en cuadrantes, para una configuración de arrugamiento dada, de acuerdo con una realización de la presente invención;
La Figura 12 muestra varias tramas de muestra (a) para contracciones tónicas y (b) tramas aleatorias con sus correspondientes abultamientos, máscaras y arrugas de la cavidad interna así como la transformada polar de la configuración de las arrugas de los valles, restringida a la máscara toroidal de acuerdo con ciertas realizaciones de la presente invención; y
La Figura 13 muestra un diagrama de bloques simplificado de un sistema de formación de imágenes que incluye un dispositivo de formación de imágenes in vivo, de acuerdo con realizaciones de la presente invención.
Se apreciará que, en aras de la simplicidad y claridad de ilustración, los elementos mostrados en las figuras no tienen que haber sido dibujados necesariamente a escala. Por ejemplo, las dimensiones de algunos de los elementos pueden haberse exagerado con respecto a otros elementos por razones de claridad. Por otra parte, cuando se considera apropiado, los números de referencia pueden estar repetidos de unas figuras a otras para indicar elementos correspondientes o análogos.
Descripción detallada de la invención
En la siguiente descripción detallada, se exponen numerosos detalles específicos con el fin de proporcionar una compresión exhaustiva de la invención. Se comprenderá, sin embargo, por parte de los expertos de la técnica que la presente invención puede llevarse a la práctica sin estos detalles específicos. En otros casos, métodos, procedimientos y componentes bien conocidos no se han descrito en detalle con el fin de no oscurecer la presente invención.
Si bien una parte de la exposición puede referirse a dispositivos, sistemas y métodos autónomos de formación de imágenes in vivo, la presente invención no está limitada a este respecto y pueden utilizarse realizaciones de la presente invención en conjunción con otros diversos dispositivos, sistemas y métodos de formación de imágenes. Por ejemplo, algunas realizaciones de la invención pueden ser utilizadas, por ejemplo, conjuntamente con un endoscopio u otros dispositivos empleados para la formación de imágenes de cavidades internas corporales, por ejemplo, para detectar un estado médico o una patología utilizando el análisis de imágenes.
Algunas realizaciones de la presente invención están dirigidas a un dispositivo autónomo de detección in vivo, por ejemplo, un dispositivo de formación de imágenes in vivo típicamente tragable. Los dispositivos, sistemas y métodos de la presente invención pueden ser utilizados con, o dentro de, un sistema de formación de imágenes tal como el
que se ha descrito en la Solicitud de Patente de los Estados Unidos número 09/800.470, titulada “Dispositivo y sistema para la formación de imágenes in vivo” (“Device and System por In Vivo Imaging”), presentada el 8 de marzo
de 2001. Un ejemplo adicional de un sistema de formación de imágenes con el que, o dentro del cual, pueden utilizarse dispositivos, sistemas y métodos de la presente invención, se describe en la Patente de los Estados Unidos número 5.604.531, concedida a Iddan et al. y titulada “Sistema de cámara de vídeo in vivo” (“In-Vivo Video Camara System”), presentada el 17 de enero de 1995, y/o en la Publicación de PCT WO 2004096008.Todas estas
publicaciones se han asignado al asignatario en común de la presente Solicitud y se han incorporado a la presente memoria como referencia en su totalidad. El dispositivo, el sistema y el método de la presente invención pueden ser utilizados en combinación con otros dispositivos, sistemas y métodos de formación de imágenes o de detección apropiados. Los dispositivos y sistemas según se describen en esta memoria pueden tener otras configuraciones y/o otros conjuntos de componentes.
Algunas realizaciones de la presente invención pueden consistir en, o pueden incluir, una cápsula autónoma tragable, si bien pueden otras formas y no es necesario que sean autónomas. Las realizaciones son, por lo común, autocontenidas o autoportantes, aunque no es necesario que lo sean. Por ejemplo, un dispositivo de acuerdo con algunas realizaciones puede consistir en una cápsula u otra unidad en la que todos los componentes estén sustancialmente contenidos dentro de un recipiente o carcasa, y en la cual el dispositivo no requiera de alambres o cables para, por ejemplo, recibir energía o transmitir información.
De acuerdo con realizaciones de la presente invención, un dispositivo de formación de imágenes in vivo, por ejemplo, un endoscopio capsular, puede pasar a través del tracto GI por su movimiento peristáltico natural, al tiempo que toma imágenes de la cavidad interna corporal a través de la cual está pasando. Una corriente o flujo de imágenes captadas por un dispositivo in vivo puede incluir imágenes de la actividad contráctil de las paredes de la cavidad interna corporal.
Las configuraciones o pautas de contracción gastrointestinal (GI), por ejemplo, las configuraciones de las contracciones del intestino delgado (SI –“small intestine”), pueden estar entre las configuraciones de motilidad que pueden tener una implicación o significado patológico clínico en cuanto a enfermedades gastrointestinales, por ejemplo, proliferación bacteriana en el ileon, dispepsia funcional y síndrome de colon irritable. Las contracciones GI pueden clasificarse de diversas maneras para ayudar, por ejemplo, al diagnóstico; pueden clasificarse, por ejemplo, basándose en su duración. La anotación visual de las contracciones a partir de un flujo de imágenes captadas por un dispositivo in vivo puede resultar laboriosa, ya que el dispositivo in vivo puede captar un flujo de imágenes que puede incluir un número elevado de tramas de imagen, por ejemplo, 50.000 tramas de imagen, conforme este pasa a través del tracto GI. Un flujo de imágenes puede incluir otros números de tramas diferentes.
De acuerdo con algunas realizaciones de la presente invención, las tramas de imágenes captadas en el curso de la actividad contráctil y/o las tramas de imágenes que incluyen actividad contráctil pueden ser detectadas de forma automática. Por ejemplo, el reconocimiento de configuraciones y/o la extracción de características pueden utilizarse para rastrear tramas de imagen que incluyen contracciones, por ejemplo, contracciones en arrugamiento. Las tramas de imagen que incluyen actividad contráctil y/o sucesos de motilidad pueden ser identificadas y utilizadas, por ejemplo, para el diagnóstico de patología y/o afecciones, por ejemplo, basándose en el número, la frecuencia y la distribución de las contracciones a lo largo del tracto intestinal, en su duración y/o en su configuración geométrica. Pueden inspeccionarse otros aspectos de la actividad contráctil. Las tramas de imagen obtenidas de un flujo de imágenes captadas in vivo y que incluyen actividad contráctil pueden ser etiquetas o indicadas visualmente de otra manera. Por ejemplo, unos marcadores a lo largo de una barra de tiempos o una barra de colores de tejido pueden indicar dónde pueden haberse identificado, a lo largo de un flujo de imágenes, tramas de imagen que incluyen actividad contráctil. Es posible utilizar otros métodos para la identificación de tramas de imagen que incluyen actividad contráctil.
Se hará referencia, a continuación, a las Figuras 1A y 1B, que muestran ejemplos de una imagen típica que incluye
5 una contracción (Figura 1A), por ejemplo, una contracción con una configuración arrugada, es decir, una configuración con pliegues visibles de tejido y una oclusión parcial visible de una cavidad interna, al lado de una imagen típica que puede no incluir una contracción (Figura 1B), de acuerdo con una realización de la presente invención. Una contracción arrugada puede ser un tipo de contracción que se presenta con una oclusión fuerte y relativamente prolongada de la cavidad interna. De acuerdo con un ejemplo, la contracción arrugada puede ser identificada en unas tramas de imagen en virtud de los bordes marcados (arrugas) de la pared intestinal plegada, distribuidos de un modo radial en torno a la cavidad intestinal cerrada.
Se hará referencia seguidamente a la Figura 2, que muestra un método para identificar tramas de imagen que incluyen contracciones, de acuerdo con una realización de la presente invención. En el bloque 210, puede extraerse el esqueleto de, por ejemplo, una pauta o configuración de arrugamiento. En el bloque 220, puede detectarse y/o
15 identificarse el centro del esqueleto, por ejemplo, el centro de la cavidad interna, por ejemplo, identificado como el punto en que convergen los bordes de las arrugas. En el bloque 230, puede evaluarse la orientación radial del esqueleto. Por ejemplo, puede estimarse un conjunto de rasgos descriptivos teniendo en cuenta la organización radial del esqueleto en torno al centro de la cavidad interna intestinal. Es posible utilizar otros métodos y etapas para identificar una imagen que muestra una contracción.
De acuerdo con una realización de la presente invención, la información direccional local del tensor de gradientes de imagen, por ejemplo, una matriz estructural, puede utilizarse para extraer un esqueleto de arrugamiento. El tensor estructural de una imagen puede calcularse como sigue, donde los subíndices indican derivadas de imagen:
J J J
xx xy
J
yx yy
En un ejemplo, la imagen puede ser suavizada antes de estimar la matriz estructural. Por ejemplo, la suavización puede llevarse a cabo con un filtro gaussiano en 2D de la desviación típica sigma. En un ejemplo, el valor de sigma puede establecerse igual a tres, lo que puede, por ejemplo, constituir un compromiso entre la eliminación de bordes con ruido y la retención de información local a la escala de los bordes de las arrugas. Pueden utilizarse otros métodos de suavización y/u otros valores de sigma.
En un ejemplo, los vectores propios y los valores propios de la matriz estructural pueden proporcionar información para la detección de los bordes de las arrugas. Por ejemplo, el vector propio que puede corresponder al valor propio más elevado, puede cruzar el borde de la arruga, por ejemplo, puede apuntar a variaciones de gradiente elevadas. Un segundo vector propio puede, por ejemplo, extenderse según una dirección de borde que apunta hacia
35 variaciones de gradiente menores y/o las más pequeñas. Puesto que la configuración de la contracción es una configuración con un fuerte direccionamiento, o cualidad direccional, de los bordes, puede ser posible utilizar una matriz de grises de los valores propios principales de la matriz estructural para la detección inicial del esqueleto de arrugamiento.
Se hará referencia, a continuación, a la Figura 3 y a las Figuras 4A-4D. La Figura 3 muestra un método proporcionado a modo de ejemplo para extraer el esqueleto de la configuración de arrugamiento, de acuerdo con una realización de la presente invención. Las Figuras 4A-4D muestran resultados de muestra del método de extracción de la configuración de arrugamiento, de acuerdo con realizaciones de la presente invención. En el bloque 310, puede seleccionarse una trama de imagen, por ejemplo, una trama de imagen del tracto GI, que puede incluir una contracción en arrugamiento u otra contracción. La Figura 4A muestra un ejemplo de una trama de imagen con
45 una contracción en arrugamiento. En el bloque 320, puede construirse una matriz de grises de los primeros valores propios del tensor estructural. La Figura 4B muestra un ejemplo de una matriz de grises de los primeros valores propios del tensor estructural, de acuerdo con una realización de la presente invención. En el bloque 33, puede construirse una imagen binaria de umbral. La Figura 4C es un ejemplo de una imagen binaria de umbral de acuerdo con una realización de la presente invención. En el bloque 340, puede extraerse el esqueleto. La Figura 4D muestra un ejemplo de un esqueleto de arrugamiento extraído de una trama de imagen, de acuerdo con una realización de la presente invención.
De acuerdo con algunas realizaciones de la presente invención, el centro de la cavidad interna intestinal puede servir como el centro de simetría para el esqueleto de arrugamiento. En centro de simetría del esqueleto de arrugamiento puede ser análogo a una piscina en cuyo interior convergen o confluyen las corrientes fuertes (los 55 bordes de las arrugas y/o el esqueleto). La detección automática del centro puede ser útil para la extracción de la
pauta o configuración de arrugamiento. El centro puede definir, por ejemplo, el punto de convergencia de los bordes de las arrugas. En un ejemplo, una trama de imagen puede ser suavizada para ayudar a identificar el centro de simetría. Por ejemplo, puede utilizarse un filtro gaussiano en 2D de sigma; por ejemplo, puede utilizarse una sigma de 13. Es posible utilizar otros métodos de suavización y valores de sigma. Pueden implementarse otros métodos para la identificación del centro del esqueleto. En un ejemplo, el hecho de utilizar una sigma grande puede retener información relacionada únicamente con estructuras de escala grande en la imagen, tales como el abultamiento de la cavidad interna intestinal. En un ejemplo, los valores propios del tensor estructural pueden adoptar valores elevados en la zona de la estructura predominante de la cavidad interna intestinal. El uso del punto con el segundo valor propio más alto puede ser una buena aproximación para detectar el centro de la cavidad interna intestinal.
Se hará referencia seguidamente a la Figura 5 y a las Figuras 6A-6C. La Figura 5 muestra un método para determinar el centro de simetría para el esqueleto de arrugamiento, de acuerdo con realizaciones de la presente invención. Las Figuras 6A a 6C presentan resultados de muestra que pueden obtenerse a partir de un método para determinar el centro de simetría para el esqueleto de arrugamiento, de acuerdo con realizaciones de la presente invención. De acuerdo con el bloque 510, puede seleccionarse una trama de imagen, por ejemplo, una trama de imagen del tracto GI que puede incluir una contracción en arrugamiento. En la Figura 6A se muestra un ejemplo de una trama de imagen que incluye una contracción en arrugamiento. En el bloque 520, la matriz de grises de los segundos valores propios del tensor estructural puede determinarse de la forma que se describe en esta memoria. En el bloque 530, puede seleccionarse el punto que tiene el valor propio más alto. En la Figura 6B se muestra una matriz de grises de muestra de los segundos valores propios obtenidos a partir de la imagen de la Figura 6A. Además, en la Figura 6B, una flecha apunta a la zona con el valor propio más alto. De acuerdo con realizaciones de la presente invención, la zona y/o el punto con el valor propio más alto pueden ser el centro del esqueleto y/o el centro de la cavidad interna corporal. En el bloque 540, puede determinarse la posición del centro del esqueleto en la imagen. La Figura 6B muestra un ejemplo de un centro estimado del esqueleto y/o la cavidad interna corporal detectada. Es posible utilizar otros métodos y etapas adecuados. En otros ejemplos, puede utilizarse el valor propio principal más alto.
De acuerdo con una realización de la presente invención, una percepción visual de una fuerte contracción arrugada puede ser un esqueleto de arrugamiento en forma de estrella, concéntrico con la cavidad interna intestinal. En otras palabras, puede haber una presencia de bordes marcados (líneas) dirigidos hacia un punto central y que pueden repartirse uniformemente en torno a ese punto. De acuerdo con una realización de la presente invención, semejante configuración en estrella puede ser identificada y extraída. En un ejemplo, es posible extraer una configuración de rasgos descriptivos, por ejemplo, la extracción de ocho rasgos descriptivos.
Se hará referencia, a continuación, a la Figura 7, que muestra una configuración en forma de estrecha proporcionada a modo de ejemplo, dividida en cuadrantes de acuerdo con un una realización de la presente invención. En un ejemplo, el centro definido de la cavidad interna intestinal, como se describe en la presente memoria, puede ser utilizado para definir los cuadrantes. En cada cuadrante, puede contarse el número de puntos de imagen o píxeles de esqueleto en concatenación, en, por ejemplo, cuatro direcciones [0º, 90º, 135º, 45º]. Así, pues, puede formarse una configuración de cuatro rasgos descriptivos en cada cuadrante. En una realización, por ejemplo, en el caso de la configuración en forma de estrella simétrica, la información direccional en el cuadrante Q1 puede coincidir con la información direccional en el cuadrante Q3. Igualmente, la información direccional en el cuadrante Q2 puede ser similar a la información direccional en el cuadrante Q4. Por lo tanto, pueden resultar para el esqueleto en arrugamiento ocho rasgos descriptivos mediante la suma de la información direccional de, por ejemplo, los cuadrantes Q1 y Q3 (cuatro rasgos descriptivos), y de la información direccional de los cuadrantes Q2 y Q4 (cuatro rasgos descriptivos más). Pueden utilizarse otros métodos y un número diferente de rasgos descriptivos.
De acuerdo con una realización de la presente invención, además del conjunto de los ocho rasgos descriptivos que se han descrito aquí, pueden extraerse cuatro rasgos descriptivos más, por ejemplo, uno para cada cuadrante, por ejemplo, que miden información direccional local de bordes de arrugas.
En un ejemplo, los campos de gradiente de los segundos valores propios pueden seguir la dirección de los bordes de imagen. En un ejemplo, puede extraerse información direccional local sobre los bordes de las arrugas por medio de la estimación de la dirección de los campos de los segundos valores propios para los puntos del esqueleto. Más específicamente, para cada cuadrante, le entropía para una contracción en arrugamiento, en cada cuadrante del esqueleto de arrugamiento, puede ser baja. En un ejemplo, los valores de entropía para una contracción en arrugamiento, en los cuatro cuadrantes [Q1, Q2, Q3, Q4], puede ser, por ejemplo, [0,34, 0,37, 0,42, 0,33]. Pueden encontrarse otros valores de entropía que representen contracciones en arrugamiento. En otro ejemplo, para una trama de imagen que carece de actividad contráctil de la cavidad interna y/o tiene poca, la información direccional local contenida en el esqueleto extraído puede estar menos ordenada y puede dar como resultado valores de alta entropía. Aunque estas tramas de imagen, por ejemplo, pueden tener una rica información de los bordes, pueden estar organizadas de una manera más aleatoria. En un ejemplo, las tramas de imagen con nula contracción y/o poca de esta pueden tener valores de entropía en los cuatro cuadrantes [Q1, Q2, Q3, Q4] de, por ejemplo, [0,46, 0,36, 0,58, 0,48]. En otro ejemplo, los valores de entropía de las tramas de imagen con escasa y/o nula contracción pueden presentar valores de entropía en los cuatro cuadrantes [Q1, Q2, Q3, Q4] de, por ejemplo, [0,47, 0,32, 0,59, 0,55]. Pueden obtenerse otros valores y otros valores pueden representar tramas de imagen con una actividad contráctil escasa y/o nula.
En aún otra realización, pueden estimarse dos rasgos descriptivos más A y B a partir de los puntos del esqueleto. Estos rasgos descriptivos pueden estar definidos por las siguientes relaciones:
A = traza {J}
B = (A2 – 4 J )* raíz cuadrada ( a2 - 4 J )
En un ejemplo, los rasgos descriptivos A y B pueden ser calculados, por ejemplo, en cada punto del esqueleto y, por ejemplo, promediados en todos los puntos. Estos rasgos descriptivos pueden ser utilizados para describir la nitidez o definición de los bordes de las arrugas. Los bordes secos y bien definidos con una cualidad direccional predominante pueden dar como resultado altos valores para las características A y B, en tanto que los esqueletos que resultan de variaciones de gradiente suavizadas pueden tener valores más bajos.
Se hará referencia seguidamente a las Figuras 8A y 8B, las cuales muestran un ejemplo del modo como los rasgos descriptivos de la nitidez de los bordes de las arrugas pueden ayudar a extraer esqueletos de contracción en arrugamiento. La Figura 7A muestra un ejemplo de arrugas secas y bien definidas obtenidas de una trama de contracción. Los rasgos descriptivos A y B pueden ser, para este ejemplo particular, [A, B] = [0,71, 0,82]. La Figura 7B muestra un ejemplo de una trama no contráctil con bordes de arrugas relativamente suaves, con los correspondientes rasgos descriptivos de [A, B] = [0,21, 0,05]. Los rasgos descriptivos [A, B] pueden tener valores similares para tramas de imagen con bordes de arrugas suaves, que pueden ser típicos de tramas de imagen que carecen de actividad contráctil, en comparación con tramas de imagen con bordes de arrugas nítidos, que pueden ser típicos de contracciones en arrugamiento.
De acuerdo con una realización de la presente invención, un esqueleto de arrugamiento puede ser definido utilizando, por ejemplo, 14 características: un conjunto de ocho características direccionales, un conjunto de cuatro características direccionales locales, y dos características de nitidez de borde.
Resultados
Se evaluó la metodología de extracción de características propuesta utilizando un conjunto de 521 imágenes positivas, por ejemplo, tramas de imagen que incluyen contracciones, y 619 imágenes negativas, por ejemplo, tramas de imagen que no incluyen contracciones. Los datos fueron proporcionados por el Departamento de Enfermedades Digestivas del Hospital General de Val d’Hebron, Barcelona, España.
Las imágenes del estudio se han obtenido utilizando cápsulas endoluminales, o interiores a cavidad interna, desarrolladas por la Given Imaging, Ltd., Israel. El comportamiento de la clasificación fue comprobado por medio de un clasificador de máquina vectorial de soporte con una función de base radial de Kernel y empleando el método de validación cruzada de ratificación. El método de validación cruzada de ratificación se simuló 100 veces, utilizando para el adiestramiento, de cada vez, el 50% de los datos obtenidos de cada conjunto de datos, y efectuando el ensayo con los restantes. Se estimó el comportamiento de la clasificación en términos de sensibilidad y especificidad. En promedio, el sistema detectó como correctos el 90,84% de los ejemplos positivos y el 94,43% de los ejemplos negativos (Tabla 1).
Sensibilidad Especificidad
Valor medio 90,84 94,43 Desviación típica 1,8 1,29
En realizaciones de la presente invención se describe un dispositivo, un sistema y un método para la extracción de características con el fin de detectar configuraciones que caractericen las contracciones en arrugamiento por medio del análisis de imágenes obtenidas por endoscopia capsular de vídeo. De acuerdo con realizaciones de la invención, la percepción visual de una contracción en una configuración o pauta con arrugas de los bordes bien definidas, distribuidas de una forma aproximadamente radial en torno a la cavidad interna intestinal, puede ser detectada de forma automática y/o por una máquina.
De acuerdo con algunas realizaciones de la presente invención, puede utilizarse una matriz estructural de imagen para extraer esqueletos informativos, con el fin de obtener el centro de la cavidad interna intestinal y de estimar conjuntos de rasgos descriptivos informativos.
De acuerdo con otra realización de la presente invención, pueden utilizarse uno o más, por ejemplo, tres conjuntos de rasgos descriptivos para detectar una contracción en arrugamiento dentro de una trama de imagen. En un ejemplo, puede extraerse información direccional, por ejemplo, en cuatro direcciones, que puede, por ejemplo, constituir un modelo de configuraciones en estrella simétricas.
De acuerdo con otra realización de la presente invención, puede utilizarse un conjunto de información direccional local para añadir información de bordes homogéneos y bien dirigidos. En aún otra realización de la invención, pueden utilizarse rasgos descriptivos relativos a la nitidez o definición de los bordes de las arrugas extraídos, para identificar imágenes que incluyen contracciones en arrugamiento que incluyen, por lo común, bordes nítidos.
En algunas realizaciones de la presente invención, pueden utilizarse tensores de gradiente para obtener un modelo de la información direccional contenida en imágenes endoluminales, o interiores a una cavidad interna. Los métodos para la extracción de características que se describen en esta memoria pueden utilizarse como herramienta de ayuda para la detección de contracciones en arrugamiento incluidas, por ejemplo, en tramas de imagen captadas dentro de una cavidad interna corporal.
Las contracciones intestinales tónicas pueden ofrecerse en imágenes de endoscopia capsular de vídeo, en forma de una secuencia de tramas de imagen que muestran una pauta o configuración radial de arrugas, correspondientes a los pliegues intestinales. Las contracciones tónicas pueden producirse por el tono muscular y pueden visualizarse, en endoscopia capsular, como una secuencia de tramas de imagen que muestran un cierre continuo de la cavidad interna intestinal tal, que la secuencia puede tener una elevada variabilidad en su longitud. De esta forma, la configuración visual de las contracciones tónicas se corresponde con una secuencia de una cavidad interna intestinal cerrada, en un número indefinido de tramas. Esta configuración puede ser reconocible por la presencia de las arrugas características que el tono muscular continuo produce cuando las paredes intestinales se pliegan.
Un procedimiento manual de anotación de contracciones, por ejemplo, contracciones tónicas en endoscopia capsular, puede consistir en la visualización de la totalidad del vídeo por un especialista y en el etiquetado de las tramas de contracción. Siempre y cuando la duración de las contracciones tónicas pueda no estar restringida y varíe dentro de un amplio intervalo, el especializa puede etiquetar la primera y la última tramas de la secuencia que contiene la contracción. El umbral para la consideración de un suceso de motilidad como una contracción tónica puede ser establecido por el especialista, por ejemplo, en al menos 10 tramas. Este procedimiento puede ser una tarea que lleve su tiempo. Para un estudio típico que abarque, por ejemplo, 2 horas de vídeo y que contenga aproximadamente 40 contracciones tónica, un especialista entrenado puede necesitar al menos 3 horas para una anotación precisa.
De acuerdo con una realización de la presente invención, las tramas de imagen de contracción tónica y las secuencias de imágenes de contracción tónica pueden ser detectadas automáticamente y/o detectadas por una máquina, por ejemplo, sin la intervención humana y/o con una intervención humana mínima. Puede que se detecten contracciones distintas de las contracciones tónicas, por ejemplo, contracciones de fase. En un ejemplo, la detección puede enfocarse en la caracterización de configuraciones lineales radiales por medio del análisis de la información direccional global que rodea el centroide de una configuración lineal dada de la contracción tónica. De acuerdo con realizaciones de la presente invención, la configuración lineal puede estar basada en la detección de los valles y las crestas, como se ha explicado en la presente memoria.
Se hará referencia, a continuación, a la Figura 9, que muestra un diagrama de flujo simplificado para la detección de arrugas intestinales a través del análisis de los valles y las crestas, de acuerdo con una realización de la presente invención. En el bloque 410, puede llevarse a cabo un preprocesamiento o tratamiento preliminar sobre una trama de imagen, por ejemplo, con el fin de suavizar la imagen. En un ejemplo, puede utilizarse un filtro medio, por ejemplo, un filtro medio con una ventana rectangular fija. En otro ejemplo, el tamaño de la ventana del filtro medio puede ser ajustada a la anchura media de las arrugas, por ejemplo, las arrugas de contracciones sostenidas. Puede ajustarse, por ejemplo, una anchura en 6,5 puntos de imagen o píxeles. Es posible utilizar otras anchuras. Las Figuras 10(a) y 10(b) muestran un ejemplo de una trama de imagen antes y después de su suavización con un filtro medio. Es posible implementar otros métodos de suavización además del filtro medio o en lugar de este. Por ejemplo, puede utilizarse la difusión anisótropa u otros métodos.
En el bloque 420 de la Figura 9, puede llevarse a cabo un procedimiento de detección de valles y crestas. En un ejemplo, puede crearse una máscara de filtro, por ejemplo, mediante el cálculo de la segunda derivada de una función de Kernel gaussiana anisótropa. En un ejemplo, la función de Kernel anisótropa implementada puede utilizar
1 = 1 y 2 = 2 para cada dirección. Pueden utilizarse otros valores. En otro ejemplo, pueden obtenerse 4 respuestas de filtro diferentes Fi (n) para una imagen de entrada In, de la forma:
F(n) = In * kern i , i = i /4
donde representa 4 orientaciones diferentes, a 0º, 45º, 90º y 135º, kern
representa un función de Kernel anisótropa rotada i radianes, y * representa el operador de convolución. Las imágenes de valles y crestas, Fval y Frid, pueden ser calculadas como:
10 donde max(x,y) representa el valor máximo de las funciones Fi para el píxel (x, y). La Figura 10(c) muestra un ejemplo de una imagen de valle obtenida a partir de una imagen original mostrada en la Figura 10(a). En el bloque 430 de la Figura 9, puede crearse una imagen binaria. En un ejemplo, la imagen binaria puede construirse, por ejemplo, conservando el percentil del 75% de Fval(n) y Frid(n). Pueden conservarse otras cantidades. La Figura 10(d) muestra una imagen binaria de muestra que puede ser obtenida a partir de la trama de imagen original que se ha mostrado
15 en la Figura 10(a). En el bloque 440 de la Figura 9, puede aplicarse una transformación esquelética morfológica con el fin de obtener, por ejemplo, líneas con una capacidad de conexión o conectividad de un píxel que pueden describir, por ejemplo, los valles y las crestas. En el bloque 450, puede detectarse o marcarse el centro de la cavidad interna intestinal. En un ejemplo, el centro puede ser estimado como el centroide de un abultamiento binario obtenido mediante la aplicación de un umbral mayor que cero en la imagen de respuesta de un detector laplaciano o
20 gaussiano con, por ejemplo, = 6. Pueden emplearse otros métodos para detectar el centro de la cavidad interna. Es posible utilizar otras etapas y métodos para detectar arrugas intestinales a través de, por ejemplo, el análisis de los valles y las crestas.
De acuerdo con una realización de la presente invención, un centro detectado de la cavidad interna que puede corresponder con el medio del esqueleto detectado, puede indicar que puede haberse identificado una imagen de
25 arrugamiento, por ejemplo, una imagen de contracción,
De acuerdo con algunas realizaciones de la presente invención, las configuraciones lineales radiales pueden estar caracterizadas, por ejemplo, por 4 rasgos descriptivos que pueden, por ejemplo, codificar información multidireccional de las arrugas. En otras realizaciones, pueden implementarse 3 rasgos descriptivos que utilizan la transformada en coordenadas polares de los datos de imagen, por ejemplo, los datos de imagen originales. De 30 acuerdo con otra realización de la presente invención, pueden utilizarse únicamente las configuraciones de los valles para detectar contracciones, por ejemplo, una contracción de arrugamiento o tónica. En aún otras realizaciones, pueden utilizarse únicamente las crestas. Se hará referencia, a continuación, a la Figura 11(a), la cual muestra 4 cuadrantes diferentes, que pueden denotarse como cuadrantes 1, 2, 3 y 4, los cuales pueden definirse utilizando el centroide de la cavidad interna como el punto medio de la división en cuadrantes, para una configuración de
35 arrugamiento dada, de acuerdo con una realización de la presente invención. En una realización, la información direccional puede obtenerse, por ejemplo, por medio de 4 derivadas segundas de, por ejemplo, filtros dirigibles gaussianos orientados, por ejemplo, a 45º y a 135º. Para ambos filtros, = 1, de tal manera que pueden funcionar básicamente como detectores en línea según la dirección hacia la que están orientados. En un ejemplo, pueden definirse dos rasgos descriptivos f1 y f2 basándose en el resultado:
o
o
f 1
1,3
1,3
o
o
45
f 2
2,4
2,4
45 donde Gi,jj (n) representa la suma de la respuesta del filtro con la orientación sobre los píxeles, por ejemplo, todos los píxeles, de la imagen In en los cuadrantes i y j. Así, pues, f1 y f2 pueden codificar la cantidad global de información direccional en la dirección radial diagonal para cada cuadrante. En otras realizaciones, pueden definirse otros cuadrantes. Por ejemplo, los cuadrantes que se muestran en la Figura 11(b), etiquetados como 5, 6, 7 y 8, pueden ser, por ejemplo, una versión rotada 45º de los cuadrantes que se muestran en la Figura 11(a).
En otras realizaciones de la presente invención, puede tomarse una solución de transformada a coordenadas polares para la caracterización de la configuración radial lineal. La transformación a coordenadas polares consiste en el establecimiento de una relación de correspondencia, o correlación, desde la imagen cartesiana original, en la que puede hacerse referencia a cada píxel por el par (fila, columna), hasta una imagen transformada en la que puede hacerse referencia a cada píxel por un par (ángulo, distancia). A fin de llevar a cabo una transformación a coordenadas polares, puede fijarse un centro. Para cada píxel con coordenadas cartesianas (fila, columna), el valor distancia puede ser su distancia euclídea al centro, en tanto que el valor ángulo puede ser el ángulo que el vector que une el centro y el píxel, forma con el eje horizontal. El centro de la transformada a coordenadas polares puede ser definido, por ejemplo, como el centroide de la cavidad interna, relacionando el origen de la transformada con el centro de la cavidad interna intestinal. En un ejemplo, dos rasgos descriptivos f1’ y f2’ pueden ser definidos como sigue:
f 1'
polar
f 2' n
900 In
donde f1’(n) y f2’(n) codifican la cantidad global de información direccional en las direcciones horizontal y vertical de la imagen polar Inpolar de la trama n.
De acuerdo con realizaciones de la presente invención, los pliegues y arrugas intestinales de las contracciones tónicas pueden aparecer como líneas radiales en la imagen de coordenadas cartesianas y como líneas casi verticales en la imagen de transformada a coordenadas polares. Sin embargo, puede apreciarse que esta configuración puede experimentar deformaciones que pueden ser más pronunciadas en torno al centro de la cavidad interna y también en puntos alejados del centro; puede ocurrir que las partes distantes de las arrugas estén curvadas y ya no respeten la orientación radial. Estas dos regiones pueden corresponder a las zonas superior e inferior de la representación gráfica polar. A fin de minimizar la influencia de este fenómeno, puede excluirse la zona definida por el detector de cavidad interna a partir del análisis de las arrugas. Además, los píxeles distantes o alejados pueden ser excluidos. En un ejemplo, la exclusión puede llevarse a cabo por un simple procedimiento morfológico de dilatación y sustracción. Por ejemplo, la región de análisis puede ser definida por una máscara en forma de anillo o tórica, la cual puede aplicarse a la configuración de arrugas de valles detectada. Se hará referencia, a continuación, a la Figura 12, que presenta varias tramas de muestra para (a) contracciones tónicas y
(b) contracciones aleatorias con sus abultamientos, máscaras y arrugas de la cavidad interna correspondientes y la transformada a coordenadas polares de la configuración de arrugas de valles, restringida a la máscara tórica.
De acuerdo con realizaciones de la presente invención, es posible categorizar las configuraciones lineales radiales de las contracciones de una trama de imagen. Las configuraciones pueden ser detectadas con un algoritmo de detección de valles y crestas, seguido de una etapa de procesamiento o tratamiento morfológico. Para la caracterización de las configuraciones, puede implementarse un análisis direccional por filtros orientables o dirigibles. En un ejemplo, es posible aplicar información de diferentes divisiones en cuadrantes de la imagen. En un ejemplo alternativo, puede aplicarse la transformada a coordenadas polares. La detección automática de las contracciones, por ejemplo, de las contracciones tónicas, en endoscopia capsular, puede proporcionar a los expertos una herramienta útil con la que puede conseguirse una reducción relevante en el tiempo de inspección del flujo de imágenes.
Realizaciones de la presente invención pueden ser adecuadas para su implementación en un sistema de formación de imágenes in vivo. Dispositivos de formación de imágenes autónomos conocidos, por ejemplo, un dispositivo de formación de imágenes ingerible que tiene la forma de una cápsula, pueden colocarse y/o insertarse in vivo y pueden captar un flujo de tramas de imagen de un espacio interno corporal o cavidad corporal. Es posible captar imágenes que incluyen contracciones de la cavidad interna corporal. En un ejemplo, el dispositivo de formación de imágenes autónomo puede captar tramas de imagen a una velocidad de trama definida. Se explica, a modo de ejemplo, un dispositivo de formación de imágenes autónomo que se desplaza a través de un tracto GI. Pueden utilizarse otros dispositivos de formación de imágenes que requieren iluminación y que pueden no ser autónomos, que pueden no ser ingeribles y/o que pueden no haberse implementado para captar imágenes in vivo.
Por lo común, un dispositivo de obtención de imágenes de estado sólido, por ejemplo, un CCD [Dispositivo de Acoplamiento de Carga –“Charge Coupled Device”] o un dispositivo de formación de imágenes de CMOS [MetalÓxido-Semiconductor Complementario –“Complementary Metal Oxide Semiconductor”] puede utilizarse para captar una corriente o flujo de imágenes in vivo. Es posible utilizar otros dispositivos de obtención de imágenes. El dispositivo de obtención de imágenes puede incluir una rejilla de píxeles.
Se hará referencia, a continuación, a la Figura 13, que muestra un diagrama de bloques de un dispositivo y un sistema de formación de imágenes in vivo, de acuerdo con realizaciones de la presente invención. Pueden utilizarse uno o más componentes del sistema 700 en combinación con, o bien estos pueden estar asociados operativamente con, los dispositivos y/o componentes descritos en esta memoria o con otros dispositivos in vivo, de acuerdo con realizaciones de la invención.
En algunas realizaciones, el sistema 700 puede incluir un dispositivo 740 de formación de imágenes in vivo, por ejemplo, un dispositivo ingerible que tiene un dispositivo 746 de obtención de imágenes, una o más fuentes de iluminación 742, una fuente de energía 745 y un transmisor 741. En algunas realizaciones, el transmisor 741 puede haberse reemplazado por un transceptor, o transmisor-receptor, y/o por un receptor que puede haberse incluido dentro del dispositivo 740 de formación de imágenes con el fin de recibir órdenes desde una fuente externa. En una realización, puede haberse incluido un controlador 770 de velocidad de tramas dentro del dispositivo 740 de formación de imágenes in vivo, el cual puede controlar la velocidad de tramas a la que pueden ser captadas las tramas de imagen. En algunas realizaciones, el dispositivo 740 de formación de imágenes puede ser implementado utilizando una cápsula ingerible.
Fuera del cuerpo del paciente puede encontrarse, por ejemplo, una grabadora externa 712, por ejemplo, un transmisor-receptor / grabadora, la cual puede incluir, o puede estar asociada con, una o más antenas (o elementos de antena), opcionalmente dispuestas como un conjunto geométricamente ordenado de antenas para recibir, así como para transmitir, datos y/u órdenes hacia y desde el dispositivo 740 de formación de imágenes. La grabadora externa 712 puede recibir señales transmitidas por el dispositivo 740 de formación de imágenes, por ejemplo, señales que portan datos de imagen, datos detectados, datos de control o similares. La grabadora externa 712 puede, por ejemplo, almacenar los datos recibidos en una unidad de memoria o en una unidad de almacenamiento. En otras realizaciones, la grabadora externa 712 puede incluir un procesador y unos circuitos para procesar o tratar datos, una unidad de presentación visual para presentar visualmente datos de órdenes y/o imágenes, y un dispositivo de entrada de usuario para introducir órdenes por parte del usuario. La grabadora externa 712 puede incluir cualquier unidad de almacenamiento adecuada que sea conocida en la técnica, por ejemplo, una unidad de memoria de tipo flash o de acceso por impulsos.
De manera adicional, fuera del cuerpo del paciente puede encontrarse, por ejemplo, una unidad de almacenamiento 719, un procesador 714 y un monitor o pantalla 718. En algunas realizaciones, por ejemplo, el procesador 714, la unidad de almacenamiento 719 y/o el monitor pueden haberse implementado como una estación de trabajo 717, por ejemplo, una computadora o una plataforma de computación. De acuerdo con alguna realización de la presente invención, el procesador 714 puede incluir un detector 790 de actividad contráctil destinado a detectar la actividad contráctil contenida en las tramas de imagen captadas por el dispositivo 740 de formación de imágenes in vivo. La estación de trabajo 717 puede ser cualquier unida y/o dispositivo que incluya capacidad de tratamiento, de almacenamiento y de presentación visual. La estación de trabajo 717 puede estar conectada a la grabadora externa 712 a través de un enlace o conexión inalámbrica o por cable. La estación de trabajo 717 puede recibir de la grabadora externa 712 datos que son recibidos y/o grabados por la grabadora externa 712. En algunas realizaciones, la estación de trabajo 717 puede recibir los datos de la grabadora externa 712 sustancialmente en tiempo real y/o mientras la grabadora externa 712 continúa recibiendo y/o grabando datos procedentes del dispositivo 740 de formación de imágenes in vivo. En algunos ejemplos, la estación de trabajo 717 y la grabadora externa 712 pueden haberse integrado en una única unidad.
De acuerdo con otras realizaciones de la presente invención, el detector 790 de actividad contráctil puede haberse incluido y/o integrado parcial y/o totalmente dentro de la grabadora externa 712, por ejemplo, de forma integral con un procesador incluido dentro de la grabadora externa 712. En aún otras realizaciones, el detector 790 de actividad contráctil puede haberse incluido dentro del dispositivo 740 de formación de imágenes in vivo. Por ejemplo, el dispositivo 740 de formación de imágenes puede detectar tramas de imagen captadas que incluyen contracciones con el detector 790 de actividad contráctil, y puede, por ejemplo, transmitir únicamente las tramas de imagen que puedan incluir, y/o que puedan incluir potencialmente, actividad contráctil.
El transmisor 741 puede funcionar utilizando ondas de radio, pero, en algunas realizaciones, tales como en aquellas en las que el dispositivo 740 de formación de imágenes es, o está incluido dentro de, un endoscopio, el transmisor 741 puede transmitir / recibir datos por medio de, por ejemplo, hilos, cables, fibra óptica y/u otros métodos adecuados. Es posible utilizar otros métodos de transmisión inalámbricos conocidos. El transmisor 741 puede incluir, por ejemplo, un módulo o subunidad transmisora y un módulo o subunidad receptora, o bien puede haberse incluido dentro del dispositivo 740 un transmisor-receptor o transmisor integrado 741, o un receptor independiente 796.
El dispositivo 740 de formación de imágenes puede, por lo común, consistir en, o puede incluir, una cápsula ingerible autónoma, si bien el dispositivo 740 de formación de imágenes puede tener otras formas y no es necesario que sea ingerible y/o autónomo. Las realizaciones del dispositivo 740 de formación de imágenes son, por lo común, autónomas y son, típicamente, autocontenidas o autoportantes. Por ejemplo, el dispositivo 740 de formación de imágenes puede ser una cápsula u otra unidad en la que todos los componentes estén sustancialmente contenidos dentro de un recipiente o carcasa, y en la cual el dispositivo 740 de formación de imágenes no requiera de hilos ni cables para, por ejemplo, recibir energía o transmitir información. En algunas realizaciones, el dispositivo 740 de formación de imágenes puede ser autónomo y no ser controlable a distancia; en otra realización, el dispositivo 740 de formación de imágenes puede ser parcial o totalmente controlable a distancia.
En algunas realizaciones, el dispositivo 740 de formación de imágenes puede comunicarse con un sistema externo de recepción y de presentación visual (por ejemplo, la estación de trabajo 717 o la pantalla o monitor 718) con el fin de proporcionar presentación visual de datos, control u otras funciones. Por ejemplo, puede proporcionarse energía al dispositivo 740 de formación de imágenes utilizando una batería interna, un condensador cargado o cualquier otra fuente de energía interna, o bien un sistema inalámbrico capaz de recibir energía. Otras realizaciones pueden tener otras configuraciones y capacidades. Por ejemplo, los componentes pueden estar distribuidos a lo largo de múltiples lugares o unidades, y la información de control u otra información puede ser recibida desde una fuente externa.
En cierta realización de la presente invención, el procesador 747 puede incluir capacidad de control, por ejemplo, un
o más módulos de control, un módulo de procesamiento o tratamiento, circuitos y/o capacidad funcional para controlar el dispositivo 740 de formación de imágenes, para controlar el modo operativo o los ajustes del dispositivo 740 de formación de imágenes, y/o para llevar a cabo operaciones de control u operaciones de tratamiento dentro del dispositivo 740 de formación de imágenes. En un ejemplo, el controlador 770 de velocidad de tramas y/o un regulador 760 del brillo de las tramas, o su capacidad funcional, pueden ser integrales (completamente integrales o parcialmente integrales) con el procesador 747, y/o el controlador 770 de velocidad de tramas y/o el regulador 760 del brillo de las tramas pueden haberse implementado en uno o más componentes independientes. El controlador 770 de velocidad de tramas y/o el regulador 760 del brillo de las tramas pueden incluir capacidad de control, por ejemplo, uno o más módulos de control, un módulo de procesamiento, circuitos y/o capacidad funcional para controlar la velocidad de trama y/o el brillo de trama de las tramas de imagen captadas por el dispositivo 740 de formación de imágenes. El controlador 770 de velocidad de tramas puede controlar y/o ajustar la velocidad de las tramas de la captación de imágenes por parte del dispositivo 740 de formación de imágenes in vivo. La alteración o modificación de la velocidad de las tramas puede ser iniciada en virtud de órdenes recibidas desde una fuente externa, por ejemplo, recibidas con el receptor 796, puede estar basada en el tratamiento de imagen llevado a cabo externamente o dentro del procesador 747, puede estar basada en las lecturas muestreadas por el sensor 743, puede estar basada en una salida de circuito de regulación temporal, o bien puede estar basada en otros parámetros u órdenes.
En algunas realizaciones, el dispositivo 740 de formación de imágenes puede incluir una cámara de vídeo in vivo, por ejemplo, el dispositivo 746 de obtención de imágenes, el cual puede captar y transmitir imágenes de, por ejemplo, el tracto GI al tiempo que el dispositivo 740 de formación de imágenes pasa a través de la cavidad interna GI. Pueden formarse imágenes de, y/o detectarse, otros espacios internos y/o cavidades corporales por parte del dispositivo 740 de formación de imágenes. En algunas realizaciones, el dispositivo 746 de obtención de imágenes puede incluir, por ejemplo, una cámara o captador de imágenes de Dispositivo de Acoplamiento de Carga (CCD – “Charge Coupled Device”), una cámara o captador de imágenes de Metal-Óxido-Semiconductor Complementario (CMOS –“Complementary Metal Oxide Semiconductor”), una cámara o captador de imágenes de estado sólido, un sensor de formación de imágenes lineal, una cámara digital, una cámara de imágenes congeladas, una videocámara u otros dispositivos de obtención de imágenes, cámaras o componentes de captación de imágenes adecuados.
En algunas realizaciones, el dispositivo 746 de obtención de imágenes incluido en el dispositivo 740 de formación de imágenes, puede estar conectado operativamente al transmisor 741. El transmisor 741 puede transmitir imágenes a, por ejemplo, el receptor externo o la grabadora externa 712 (por ejemplo, a través de una o más antenas), los cuales pueden enviar los datos al procesador 714 y/o a la unidad de almacenamiento 719. El transmisor 741 puede también incluir capacidad de control, aunque la capacidad de control puede haberse incluido en un componente independiente, por ejemplo, el procesador 747. El transmisor 741 puede incluir cualquier transmisor adecuado que sea capaz de transmitir datos de imagen, otros datos detectados y/u otros datos (por ejemplo, datos de control) a un dispositivo de recepción. El transmisor 741 puede también ser capaz de recibir señales / órdenes, por ejemplo, desde un transmisor-receptor externo. Por ejemplo, en algunas realizaciones, el transmisor 741 puede incluir un transmisor de radiofrecuencia (RF) de ultrabaja potencia y gran anchura de banda, posiblemente proporcionado en Empaquetamiento a Estala de Chip (CSP –“Chip Scale Package”).
En cierta realización, el transmisor 741 puede transmitir / recibir a través de la antena 748. El transmisor 741 y/u otra unidad existente en el dispositivo 740 de formación de imágenes, por ejemplo, un controlador o procesador 747, puede incluir capacidad de control, por ejemplo, uno o más módulos de control, un módulo de procesamiento o tratamiento, circuitos y/o capacidad funcional para controlar el dispositivo 740 de formación de imágenes, para controlar el modo operativo o los ajustes del dispositivo 740 de formación de imágenes, y/o para llevar a cabo operaciones de control u operaciones de tratamiento dentro del dispositivo 740 de formación de imágenes. De acuerdo con una realización de la presente invención, el detector 790 de actividad contráctil puede ser completa y/o parcialmente integral con el transmisor 741 y/o con el controlador o procesador 747. De acuerdo con algunas realizaciones, el transmisor 741 puede incluir un receptor que puede recibir señales (por ejemplo, procedentes del exterior del cuerpo del paciente), por ejemplo, a través de la antena 748 o a través de una antena o elemento de recepción diferente. De acuerdo con algunas realizaciones, las señales o datos pueden ser recibidos por un dispositivo de recepción independiente existente en el dispositivo 740 de formación de imágenes.
La fuente de energía 745 puede incluir una o más o celdas de alimentación energética. Por ejemplo, la fuente de energía 745 puede incluir baterías de óxido de plata, baterías de litio, otras celdas electroquímicas adecuadas que tengan una alta densidad de energía, o elementos similares. Pueden utilizarse otras fuentes de energía adecuadas. Por ejemplo, la fuente de energía 745 puede recibir potencia o energía de una fuente de energía externa (por ejemplo, un generador de campo electromagnético), el cual puede ser utilizado para transmitir potencia o energía al dispositivo 740 de formación de imágenes in vivo.
En algunas realizaciones, la fuente de energía 745 puede ser interna al dispositivo 740 de formación de imágenes y/o puede no requerir su acoplamiento a una fuente de energía externa, por ejemplo, para recibir energía. La fuente de energía 745 puede proporcionar energía a uno o más componentes del dispositivo 740 de formación de imágenes de forma continua, de forma sustancialmente continua, o de una manera no discreta o según una regulación de secuencia temporal, o de una manera periódica, una manera intermitente o de un modo de otra manera no continuo. En algunas realizaciones, la fuente de energía 745 puede proporcionar energía a uno o más componentes del dispositivo 740 de formación de imágenes, por ejemplo, no necesariamente bajo demanda o no necesariamente por efecto de un suceso de desencadenamiento o disparo o una activación externa o una excitación externa.
Opcionalmente, en algunas realizaciones, el transmisor 741 puede incluir una unidad de procesamiento o un procesador o controlador, por ejemplo, para procesar o tratar señales y/o datos generados por el dispositivo 746 de formación de imágenes. En otra realización, la unidad de procesamiento puede ser implementada utilizando un componente independiente ubicado dentro del dispositivo 740 de formación de imágenes, por ejemplo, el controlador
o procesador 747, o puede implementarse como una parte integral del dispositivo 746 de formación de imágenes, del transmisor 741 o de otro componente, o bien puede no ser necesaria. La unidad de procesamiento puede incluir, por ejemplo, una Unidad Central de Procesamiento (CPU –“Central Processing Unit”), un Procesador de Señal Digital (DSP –“Digital Signal Processor”), un microprocesador, un controlador, un chip, un microchip, un controlador, circuitos, un Circuito Integrado (IC –“Integrated Circuit”), un Circuito Integrado Específico de la Aplicación (ASIC – “Application Specific Integrated Circuit”), o cualquier procesador de múltiples propósitos o específico, controlador,
circuitos o circuito. En algunas realizaciones, por ejemplo, la unidad de procesamiento o controlador puede estar incorporado dentro de, o integrado con, el transmisor 741 y puede ser implementado, por ejemplo, utilizando un ASIC.
En algunas realizaciones, el dispositivo 746 de obtención de imágenes puede captar imágenes in vivo de forma continua, sustancialmente continua o de una manera no discreta, por ejemplo, no necesariamente bajo demanda, o no necesariamente por efecto de un suceso de disparo o una activación externa o una excitación externa, o bien de una manera periódica, una manera intermitente o una manera de otro modo no continua.
En algunas realizaciones, el transmisor 741 puede transmitir datos de imagen de forma continua o de forma sustancialmente continua, por ejemplo, no necesariamente bajo demanda, o no necesariamente por efecto de un suceso de disparo o una activación externa o una excitación externa, o bien de una manera periódica, una manera intermitente o una manera de otro modo no continua.
En algunas realizaciones, el dispositivo 740 de formación de imágenes puede incluir una o más fuentes de iluminación 742, por ejemplo, uno o más Diodos Electroluminiscentes (LEDs –“Light Emitting Diodes”), LEDs “blancos”, LEDs monocromáticos, LEDs orgánicos (O-LEDs –“Organic LEDs”) , LEDs de película delgada, una capa
o componente electroluminiscente emisora, una capa o componente electroluminiscente orgánica (OEL –“Organic Electro-Luminiscence”), u otras fuentes de luz adecuadas. Las fuentes de iluminación 742 pueden, por ejemplo, iluminar un espacio interno o cavidad corporal de la que se están obteniendo imágenes y/o que se está detectando. Puede haberse incluido, opcionalmente, en el dispositivo 740 de formación de imágenes un sistema óptico opcional 750 que incluye, por ejemplo, uno o más elementos ópticos, lentes, conjuntos de lentes compuestas, lentes de aumento, filtros ópticos, prismas, rejillas, espejos planos, espejos curvos, espejos o elementos cóncavos, espejos o elementos convexos, superficies reflectantes, elementos reflectantes, túneles de luz, elementos de desviación de la luz, elementos de enfoque de la luz o cualesquiera otros elementos ópticos adecuados. El sistema óptico 750 puede, por ejemplo, ayudar a enfocar la luz reflejada sobre el dispositivo 746 de obtención de imágenes, a enfocar la luz de iluminación y/o a llevar a cabo otras operaciones de tratamiento de la luz.
En algunas realizaciones, la(s) fuente(s) de iluminación 742 puede(n) iluminar de forma continua o sustancialmente continua, por ejemplo, no necesariamente bajo demanda, o no necesariamente por efecto de un suceso de disparo o una activación externa o una excitación externa. En algunas realizaciones, por ejemplo, la(s) fuente(s) de iluminación 742 puede(n) iluminar un número de veces predefinido por segundo (por ejemplo, dos o cuatro veces), sustancialmente de forma continua, por ejemplo, durante un periodo de tiempo de dos horas, cuatro horas, ocho horas, o similar, o bien de una manera periódica, de una manera intermitente o de una manera de otro modo no continua.
En algunas realizaciones, los componentes del dispositivo 740 de formación de imágenes pueden estar encerrados dentro de un alojamiento o carcasa, por ejemplo, con forma de cápsula, oval o que tenga otras formas adecuadas. El alojamiento o carcasa puede ser sustancialmente transparente o semitransparente, y/o puede incluir una o más porciones, ventanas o cúpulas 701 (por ejemplo, una ventana en forma de cúpula) que pueden ser sustancialmente transparentes o semitransparentes. Por ejemplo, una o más fuentes de iluminación 742 situadas dentro del dispositivo 740 de formación de imágenes pueden iluminar una cavidad interna corporal a través de una porción, ventana o cúpula transparente o semitransparente, y la luz reflejada en la cavidad interna corporal puede entrar en el dispositivo 740 de formación de imágenes, por ejemplo, a través de la misma porción, ventana o cúpula transparente
o semitransparente, u, opcionalmente, a través de otra porción, ventana o cúpula transparente o semitransparente, y puede ser recibida por el sistema óptico 750 y/o el dispositivo 746 de obtención de imágenes. En algunas realizaciones, por ejemplo, el sistema óptico 750 y/o el dispositivo 746 de obtención de imágenes pueden recibir luz reflejada desde una cavidad interna corporal, a través de la misma ventana o cúpula a cuyo través la(s) fuente(s) de iluminación 742 ilumina(n) la cavidad interna corporal.
El procesador 714 de datos puede analizar los datos recibidos a través de la grabadora externa 712, desde el dispositivo 740 de formación de imágenes, y puede estar en comunicación con la unidad de almacenamiento 719, por ejemplo, transfiriendo datos de trama hacia y desde la unidad de almacenamiento 719. El procesador 714 de datos puede proporcionar los datos analizados al monitor o pantalla 718, en la que un usuario (por ejemplo, un profesional médico) puede observar o utilizar de otro modo los datos. En algunas realizaciones, el procesador 714 de datos puede haberse configurado para que un tratamiento en tiempo real y/o un tratamiento ulterior se lleven a cabo y/o se observen en un momento posterior. En el caso de que la capacidad de control (por ejemplo, el retardo, la regulación de secuencia temporal, etc.) sea externa al dispositivo 740 de formación de imágenes, un dispositivo externo adecuado (tal como, por ejemplo, el procesador 714 de datos o la grabadora externa 712 que tiene un transmisor o un receptor) puede transmitir una o más señales de control al dispositivo 740 de formación de imágenes.
El monitor o pantalla 718 puede incluir, por ejemplo, una o más pantallas, monitores o unidades de presentación visual adecuadas. El monitor 718, por ejemplo, puede presentar visualmente una o más imágenes o una corriente o flujo de imágenes captadas y/o transmitidas por el dispositivo 740 de formación de imágenes, por ejemplo, imágenes del tracto GI u otro espacio interior o cavidad corporal de la que se obtengan imágenes. De manera adicional o alternativa, el monitor o pantalla 718 puede presentar visualmente, por ejemplo, datos de control, datos de ubicación
o posición (por ejemplo, datos que describen o indican la ubicación o la ubicación relativa del dispositivo 740 de formación de imágenes), datos de orientación y diversos otros datos adecuados. En algunas realizaciones, por ejemplo, tanto una imagen como su posición (por ejemplo, relativa a la cavidad interna corporal de la que se están obteniendo imágenes) o ubicación pueden ser presentadas utilizando el monitor 718 y/o pueden ser almacenadas utilizando la unidad de almacenamiento 719. Es posible utilizar otros sistemas y métodos para almacenar y/o presentar visualmente datos de imagen recogidos y/u otros datos.
Por lo común, el dispositivo 740 de formación de imágenes puede transmitir información de imagen contenida en porciones discretas. Cada porción puede corresponder, por lo común, a una imagen o a una trama; pueden utilizarse otros métodos de transmisión adecuados. Por ejemplo, en algunas realizaciones, el dispositivo 740 de formación de imágenes puede captar y/o adquirir una imagen una vez cada medio segundo, y puede transmitir los datos de imagen a la grabadora externa 712. Pueden utilizarse otras velocidades de captación y/o velocidades de transmisión constantes y/o variables.
Típicamente, los datos de imagen grabados y transmitidos pueden incluir datos de imagen en color digitales; en realizaciones alternativas, pueden utilizarse otros formatos de imagen (por ejemplo, datos de imagen en blanco y negro). En algunas realizaciones, cada trama de datos de imagen puede incluir 256 filas, de manera que cada fila puede incluir 256 píxeles, y cada píxel puede incluir datos para el color y para el brillo de acuerdo con métodos conocidos. Con arreglo a otras realizaciones, puede utilizarse un dispositivo de obtención de imágenes de 320 x 320 píxeles. El tamaño de los píxeles puede estar comprendido entre 5 y 6 micras; pueden utilizarse otros tamaños adecuados. De acuerdo con algunas realizaciones, los píxeles pueden estar dotados, cada uno de ellos, de una microlente. Por ejemplo, puede aplicarse un filtro de color de Bayer. Pueden utilizarse otros formatos de datos adecuados, así como otros números o tipos adecuados de filas, columnas, matrices o conjuntos ordenados, píxeles, subpíxeles, cajas, superpíxeles y/o colores. Opcionalmente, el dispositivo 740 de formación de imágenes puede incluir uno o más sensores 743 en lugar de, o además de, un sensor tal como el dispositivo 746 de obtención de imágenes. El sensor 743 puede, por ejemplo, apreciar, detectar, determinar y/o medir uno o más valores de propiedades o características del entorno del dispositivo 740 de formación de imágenes. Por ejemplo, el sensor 743 puede incluir un sensor de pH, un sensor de temperatura, un sensor de conductividad eléctrica, un sensor de presión
o cualquier otro sensor conocido que sea adecuado in vivo.
En algunas realizaciones, el dispositivo 740 de formación de imágenes puede ser, por ejemplo, una cápsula oblonga, oval o esférica, y/o puede ser ingerible y/o autónomo; es posible utilizar otras dimensiones y/o configuraciones.
Si bien la presente invención se ha descrito con referencia a una o más realizaciones específicas, la descripción está destinada a ser ilustrativa en su conjunto, y no ha de ser interpretada como limitativa de la invención a las realizaciones mostradas. Se aprecia que pueden concebirse diversas modificaciones por parte de los expertos de la técnica.

Claims (8)

  1. REIVINDICACIONES
    1.-Un método para identificar tramas de imagen que representan actividad contráctil, a partir de una corriente o flujo de imágenes de una cavidad interna intestinal, captadas por un dispositivo in vivo, de manera que dicho método comprende:
    -
    recibir el flujo de imágenes; y, tras la captación de las imágenes,
    -
    utilizar una extracción automática de características para determinar si las tramas de imagen representan actividad contráctil;
    caracterizado por que
    -
    dicha extracción automática de características comprende:
    -
    identificar una pauta o configuración de arrugamiento dentro de una de las tramas de imagen mediante la identificación de bordes de una pared intestinal plegada dentro de dicha una de las tramas de imagen;
    -
    extraer un esqueleto de la configuración de arrugamiento;
    -
    identificar un centro del esqueleto como el punto donde convergen los bordes;
    -
    evaluar la orientación radial del esqueleto; y
    -
    determinar si dicha una de las tramas de imagen representa actividad contráctil basándose en la extracción de características automática.
  2. 2.-El método de acuerdo con la reivindicación 1, en el cual dicha evaluación de la orientación radial comprende identificar si la configuración de arrugamiento está distribuida de una manera radial en torno al centro de la cavidad interna intestinal, mediante la estimación de un conjunto de rasgos descriptivos que tienen en cuenta la orientación radial del esqueleto.
  3. 3.-El método de acuerdo con cualquiera de las reivindicaciones 1 y 2, en el cual identificar el centro del esqueleto comprende detectar automáticamente un centro de la cavidad interna en esa una de las tramas de imagen.
  4. 4.-El método de acuerdo con cualquiera de las reivindicaciones 1 a 3, que comprende adicionalmente suavizar las tramas de imagen.
  5. 5.-El método de acuerdo con la reivindicación 4, en el cual la suavización se lleva a cabo por un filtro gaussiano en 2D de sigma.
  6. 6.-El método de acuerdo con cualquiera de las reivindicaciones 3 a 5, en el cual la identificación de la configuración de arrugamiento comprende:
    -
    seleccionar un valor propio de un tensor estructural de la trama de imagen; e
    -
    identificar bordes mediante el uso de un vector propio que corresponde al valor propio seleccionado. 7.-El método de acuerdo con la reivindicación 6, en el cual el valor propio seleccionado es el valor propio más alto. 8.-Un sistema para identificar automáticamente imágenes que representan actividad contráctil, que comprende:
    -
    un dispositivo de formación de imágenes configurado para captar tramas de imagen in vivo de una cavidad interna intestinal;
    -
    un detector de actividad contráctil para llevar a cabo una extracción de características automática con el fin de determinar actividad contráctil, caracterizado por que dicho detector de actividad contráctil está configurado para:
    -
    identificar una pauta o configuración de arrugamiento dentro de una trama de imagen mediante la identificación de bordes de una pared intestinal plegada dentro la trama de imagen;
    -
    extraer un esqueleto de la configuración de arrugamiento;
    -
    identificar un centro del esqueleto como el punto donde convergen los bordes;
    -
    evaluar la orientación radial del esqueleto; y
    -
    determinar si la imagen representa actividad contráctil. 9.-El sistema de acuerdo con la reivindicación 8, en el cual el dispositivo de formación de imágenes es una cápsula
    ingerible.
  7. 10.-El sistema de acuerdo con cualquiera de las reivindicaciones 8 y 9, que comprende adicionalmente un procesador configurado para determinar el centro de la configuración de arrugamiento.
  8. 11.-El sistema de acuerdo con la reivindicación 10, en el cual el procesador está configurado para determinar el esqueleto de la configuración de arrugamiento.
ES07713342T 2006-03-13 2007-03-13 Dispositivo, sistema y método para la detección automática de actividad contráctil en una trama de imagen Active ES2405879T3 (es)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
US78137106P 2006-03-13 2006-03-13
US781371P 2006-03-13
US80251506P 2006-05-23 2006-05-23
US802515P 2006-05-23
PCT/IL2007/000322 WO2007105213A2 (en) 2006-03-13 2007-03-13 Device, system and method for automatic detection of contractile activity in an image frame

Publications (1)

Publication Number Publication Date
ES2405879T3 true ES2405879T3 (es) 2013-06-04

Family

ID=38509877

Family Applications (1)

Application Number Title Priority Date Filing Date
ES07713342T Active ES2405879T3 (es) 2006-03-13 2007-03-13 Dispositivo, sistema y método para la detección automática de actividad contráctil en una trama de imagen

Country Status (4)

Country Link
US (2) US8396327B2 (es)
EP (1) EP1997074B1 (es)
ES (1) ES2405879T3 (es)
WO (1) WO2007105213A2 (es)

Families Citing this family (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE602007010433D1 (de) * 2006-03-13 2010-12-23 Given Imaging Ltd Kaskadenanalyse zur darmkontraktionsdetektion
WO2007144879A1 (en) * 2006-06-12 2007-12-21 Given Imaging Ltd. Device, system and method for measurement and analysis of contractile activity
US20090100105A1 (en) * 2007-10-12 2009-04-16 3Dr Laboratories, Llc Methods and Systems for Facilitating Image Post-Processing
US8529441B2 (en) * 2008-02-12 2013-09-10 Innurvation, Inc. Ingestible endoscopic optical scanning device
US20100046816A1 (en) * 2008-08-19 2010-02-25 Igual-Munoz Laura Method for automatic classification of in vivo images
US8311298B2 (en) * 2008-12-12 2012-11-13 Intromedic Co., Ltd. Method and system for processing visual images of digestive system
US8422755B2 (en) 2010-06-11 2013-04-16 Given Imaging Ltd. System and method for synchronizing image sequences captured in-vivo for automatic comparison
JP5597049B2 (ja) * 2010-07-07 2014-10-01 オリンパス株式会社 画像処理装置、画像処理方法、および画像処理プログラム
US8611621B2 (en) 2010-09-08 2013-12-17 Given Imaging Ltd. System and method for automatic detection of in vivo contraction video sequences
WO2012090197A1 (en) 2010-12-30 2012-07-05 Given Imaging Ltd. System and method for automatic navigation of a capsule based on image stream captured in-vivo
US20130044927A1 (en) * 2011-08-15 2013-02-21 Ian Poole Image processing method and system
EP2810216B1 (en) * 2012-01-31 2017-11-15 Given Imaging Ltd. System and method for displaying motility events in an in vivo image stream
EP2868100B1 (en) 2012-06-29 2019-01-30 Given Imaging Ltd. System and method for displaying an image stream
US9430706B1 (en) 2013-10-02 2016-08-30 Given Imaging Ltd. System and method for detection of in-vivo pathology sequences
WO2015123646A1 (en) 2014-02-14 2015-08-20 Nant Holdings Ip, Llc Edge-based recognition, systems and methods
WO2015170321A1 (en) * 2014-05-09 2015-11-12 Given Imaging Ltd. System and method for motility analysis of an in vivo image stream
JP2015232746A (ja) * 2014-06-09 2015-12-24 パナソニックIpマネジメント株式会社 皺検出装置および皺検出方法
JP2020505999A (ja) * 2017-02-06 2020-02-27 ボストン サイエンティフィック サイムド,インコーポレイテッドBoston Scientific Scimed,Inc. 膀胱マッピング
US10460446B2 (en) 2017-10-16 2019-10-29 Nant Holdings Ip, Llc Image-based circular plot recognition and interpretation
CA3124747A1 (en) 2017-12-22 2019-06-27 Syddansk Universitet Dual-mode endoscopic capsule with image processing capabilities
CN109741305B (zh) * 2018-12-26 2020-11-27 中国科学院宁波工业技术研究院慈溪生物医学工程研究所 一种胶囊内窥镜成像损坏图像的检测方法
CN110084276B (zh) * 2019-03-29 2021-05-25 广州思德医疗科技有限公司 一种训练集的拆分方法及装置

Family Cites Families (45)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5005559A (en) * 1989-07-27 1991-04-09 Massachusetts Institute Of Technology Video-graphic arthroscopy system
US6095989A (en) * 1993-07-20 2000-08-01 Hay; Sam H. Optical recognition methods for locating eyes
IL108352A (en) * 1994-01-17 2000-02-29 Given Imaging Ltd In vivo video camera system
US5728044A (en) * 1995-03-10 1998-03-17 Shan; Yansong Sensor device for spacial imaging of endoscopes
JP3895400B2 (ja) 1996-04-30 2007-03-22 オリンパス株式会社 診断支援装置
US6459919B1 (en) * 1997-08-26 2002-10-01 Color Kinetics, Incorporated Precision illumination methods and systems
US6240312B1 (en) * 1997-10-23 2001-05-29 Robert R. Alfano Remote-controllable, micro-scale device for use in in vivo medical diagnosis and/or treatment
IL122602A0 (en) * 1997-12-15 1998-08-16 Tally Eitan Zeev Pearl And Co Energy management of a video capsule
US6050960A (en) * 1998-05-20 2000-04-18 Ferzli; George S. Laparoscopic instrument
US6569104B2 (en) * 1998-07-16 2003-05-27 Canon Kabushiki Kaisha Blood vessel detecting apparatus
US7239908B1 (en) * 1998-09-14 2007-07-03 The Board Of Trustees Of The Leland Stanford Junior University Assessing the condition of a joint and devising treatment
IL126727A (en) 1998-10-22 2006-12-31 Given Imaging Ltd A method of bringing a device to the goal
JP4540908B2 (ja) 1999-07-26 2010-09-08 カルディオセンス リミテッド ショックおよびプレショックの医学的状態を検出するための改良された装置
CA2296143A1 (fr) * 2000-01-18 2001-07-18 9071 9410 Quebec Inc. Systeme d'inspection optique
US7039453B2 (en) * 2000-02-08 2006-05-02 Tarun Mullick Miniature ingestible capsule
US6709387B1 (en) * 2000-05-15 2004-03-23 Given Imaging Ltd. System and method for controlling in vivo camera capture and display rate
IL155045A0 (en) * 2000-09-27 2003-10-31 Given Imaging Ltd An immobilizable in vivo sensing device
US6632175B1 (en) * 2000-11-08 2003-10-14 Hewlett-Packard Development Company, L.P. Swallowable data recorder capsule medical device
EP1372474B1 (en) * 2001-03-14 2011-05-11 Given Imaging Ltd. Method and system for detecting colorimetric abnormalities
JP2002336193A (ja) 2001-05-17 2002-11-26 Olympus Optical Co Ltd 診断支援装置
US7724928B2 (en) * 2001-06-20 2010-05-25 Given Imaging, Ltd. Device, system and method for motility measurement and analysis
US6728561B2 (en) * 2001-08-14 2004-04-27 University Of Alabama In Huntsville Multispectral image processing method, apparatus and computer program product for determining the blood oxygen saturation in a vessel
AU2002330139A1 (en) * 2001-10-03 2003-04-14 Vanderbilt University In vivo panning for ligands to radiation-induced molecules
IL148828A (en) * 2002-03-21 2007-10-31 Camtek Ltd A morphological method for detecting changes
JP3697233B2 (ja) * 2002-04-03 2005-09-21 キヤノン株式会社 放射線画像処理方法及び放射線画像処理装置
JP3932110B2 (ja) 2002-04-23 2007-06-20 シャープ株式会社 画像処理装置、画像処理システム、電子情報機器、画像処理方法、制御プログラムおよび可読記録媒体
AU2003303742A1 (en) * 2002-12-24 2004-11-04 Board Of Regents, The University Of Texas System Screening methods using zebrafish to identify thrombotic and anti-thrombotic compounds and genes
US20040204630A1 (en) * 2002-12-30 2004-10-14 Zvika Gilad Device, system and method for in vivo motion detection
WO2005000101A2 (en) * 2003-06-12 2005-01-06 University Of Utah Research Foundation Apparatus, systems and methods for diagnosing carpal tunnel syndrome
US8066973B2 (en) * 2003-09-05 2011-11-29 The Ohio State University Research Foundation Nanoparticulate probe for in vivo monitoring of tissue oxygenation
US20050075537A1 (en) * 2003-10-06 2005-04-07 Eastman Kodak Company Method and system for real-time automatic abnormality detection for in vivo images
US7319781B2 (en) * 2003-10-06 2008-01-15 Carestream Health, Inc. Method and system for multiple passes diagnostic alignment for in vivo images
WO2005077252A1 (ja) 2004-02-16 2005-08-25 Olympus Corporation 内視鏡装置
EP1832223B1 (en) 2004-12-27 2017-10-25 Olympus Corporation Medical image processing apparatus, and medical image processing method
EP1862106A1 (en) * 2005-03-22 2007-12-05 Osaka University Capsule endoscope image display controller
JP4301193B2 (ja) 2005-03-31 2009-07-22 ソニー株式会社 画像比較装置及び方法、画像検索装置及び方法、並びにプログラム及び記録媒体
US7774036B2 (en) * 2005-06-07 2010-08-10 Oxymap Ehf Automatic registration of images
US7577283B2 (en) * 2005-09-30 2009-08-18 Given Imaging Ltd. System and method for detecting content in-vivo
US7567692B2 (en) * 2005-09-30 2009-07-28 Given Imaging Ltd. System and method for detecting content in-vivo
DE602007010433D1 (de) 2006-03-13 2010-12-23 Given Imaging Ltd Kaskadenanalyse zur darmkontraktionsdetektion
WO2007144879A1 (en) 2006-06-12 2007-12-21 Given Imaging Ltd. Device, system and method for measurement and analysis of contractile activity
EP2032229A4 (en) 2006-06-14 2010-09-15 T L X Extraction Technologies Ltd METHOD AND APPARATUS FOR LIQUID-LIQUID EXTRACTION
US7761134B2 (en) * 2006-10-20 2010-07-20 Given Imaging Ltd. System and method for modeling a tracking curve of an in vivo device
EP2169416A1 (en) 2008-09-30 2010-03-31 Siemens Schweiz AG Method for automatic detection of artefacts in in vivo human brain MRI images
US8611621B2 (en) 2010-09-08 2013-12-17 Given Imaging Ltd. System and method for automatic detection of in vivo contraction video sequences

Also Published As

Publication number Publication date
US8396327B2 (en) 2013-03-12
EP1997074A2 (en) 2008-12-03
WO2007105213A2 (en) 2007-09-20
EP1997074A4 (en) 2011-06-01
US20110044515A1 (en) 2011-02-24
US20130188845A1 (en) 2013-07-25
EP1997074B1 (en) 2013-02-06
WO2007105213A9 (en) 2011-03-10
US8582853B2 (en) 2013-11-12

Similar Documents

Publication Publication Date Title
ES2405879T3 (es) Dispositivo, sistema y método para la detección automática de actividad contráctil en una trama de imagen
EP1676522B1 (en) System for locating an in-vivo signal source
US8693754B2 (en) Device, system and method for measurement and analysis of contractile activity
CN105942959A (zh) 胶囊内窥镜系统及其三维成像方法
WO2017030747A1 (en) Reconstruction with object detection for images captured from a capsule camera
US10835113B2 (en) Method and apparatus for travelled distance measuring by a capsule camera in the gastrointestinal tract
CN103732115B (zh) 位置检测装置、胶囊型内窥镜系统以及胶囊型内窥镜的位置检测程序
WO2006035437A2 (en) System and method to detect a transition in an image stream
US20130225981A1 (en) Position detecting apparatus of capsule endoscope, capsule endoscope system and computer readable recording medium
CN102639049B (zh) 信息处理装置以及胶囊型内窥镜系统
KR102010000B1 (ko) 캡슐내시경의 촬영 제어 방법 및 시스템
US20170307373A1 (en) Capsule Endoscope
US20120316392A1 (en) Spherical capsule video endoscopy
Spyrou et al. Homography-based orientation estimation for capsule endoscope tracking
Bao et al. Modeling of the movement of the endoscopy capsule inside gi tract based on the captured endoscopic images
EP1762171B1 (en) Device, system and method for determining spacial measurements of anatomical objects for in-vivo pathology detection
Fan et al. 3D reconstruction of the WCE images by affine SIFT method
Iakovidis et al. Robotic validation of visual odometry for wireless capsule endoscopy
CN114451848B (zh) 内窥镜胶囊轨迹引导方法、装置及系统
KR20180128216A (ko) 지능형 캡슐내시경 및 이를 이용한 촬영 방법
CN202191263U (zh) 胶囊形内窥镜系统
CN111798947A (zh) 一种胶囊内镜智能阅片系统
CN202408818U (zh) 具有电子ccd摄像系统和夜视摄像头的胶囊小肠镜系统
Malagelada Vilarino et a