ES2336577T3 - Formacion de imagenes de estructuras ocultas. - Google Patents
Formacion de imagenes de estructuras ocultas. Download PDFInfo
- Publication number
- ES2336577T3 ES2336577T3 ES05710889T ES05710889T ES2336577T3 ES 2336577 T3 ES2336577 T3 ES 2336577T3 ES 05710889 T ES05710889 T ES 05710889T ES 05710889 T ES05710889 T ES 05710889T ES 2336577 T3 ES2336577 T3 ES 2336577T3
- Authority
- ES
- Spain
- Prior art keywords
- image
- light
- analysis
- images
- visual
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000015572 biosynthetic process Effects 0.000 title claims description 3
- 238000000034 method Methods 0.000 claims abstract description 35
- 230000000007 visual effect Effects 0.000 claims abstract description 20
- 230000001678 irradiating effect Effects 0.000 claims abstract description 6
- 230000000295 complement effect Effects 0.000 claims abstract description 4
- 238000004458 analytical method Methods 0.000 claims description 21
- 229920006395 saturated elastomer Polymers 0.000 claims description 7
- 238000005553 drilling Methods 0.000 claims description 6
- 238000010183 spectrum analysis Methods 0.000 claims description 6
- 239000011159 matrix material Substances 0.000 claims description 2
- 238000012545 processing Methods 0.000 claims description 2
- 230000036387 respiratory rate Effects 0.000 claims description 2
- 239000011248 coating agent Substances 0.000 claims 1
- 238000000576 coating method Methods 0.000 claims 1
- 238000003384 imaging method Methods 0.000 abstract description 7
- 230000002708 enhancing effect Effects 0.000 abstract 1
- 238000001514 detection method Methods 0.000 description 6
- 210000004204 blood vessel Anatomy 0.000 description 5
- 239000006260 foam Substances 0.000 description 5
- 238000005286 illumination Methods 0.000 description 5
- 230000003595 spectral effect Effects 0.000 description 5
- 230000008901 benefit Effects 0.000 description 4
- 230000006872 improvement Effects 0.000 description 4
- 230000004075 alteration Effects 0.000 description 3
- 238000013459 approach Methods 0.000 description 3
- 238000010276 construction Methods 0.000 description 3
- 230000004438 eyesight Effects 0.000 description 3
- 230000010287 polarization Effects 0.000 description 3
- 238000000926 separation method Methods 0.000 description 3
- XUMBMVFBXHLACL-UHFFFAOYSA-N Melanin Chemical compound O=C1C(=O)C(C2=CNC3=C(C(C(=O)C4=C32)=O)C)=C2C4=CNC2=C1C XUMBMVFBXHLACL-UHFFFAOYSA-N 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 230000008569 process Effects 0.000 description 2
- 230000000541 pulsatile effect Effects 0.000 description 2
- 239000000523 sample Substances 0.000 description 2
- 238000012360 testing method Methods 0.000 description 2
- 102000016917 Complement C1 Human genes 0.000 description 1
- 108010028774 Complement C1 Proteins 0.000 description 1
- 206010061218 Inflammation Diseases 0.000 description 1
- 238000002835 absorbance Methods 0.000 description 1
- 206010003246 arthritis Diseases 0.000 description 1
- 239000008280 blood Substances 0.000 description 1
- 210000004369 blood Anatomy 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 239000002131 composite material Substances 0.000 description 1
- 238000005034 decoration Methods 0.000 description 1
- 238000009792 diffusion process Methods 0.000 description 1
- 230000009977 dual effect Effects 0.000 description 1
- 239000004744 fabric Substances 0.000 description 1
- 239000000835 fiber Substances 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 230000004313 glare Effects 0.000 description 1
- 230000004054 inflammatory process Effects 0.000 description 1
- 238000002347 injection Methods 0.000 description 1
- 239000007924 injection Substances 0.000 description 1
- 230000001788 irregular Effects 0.000 description 1
- 230000001795 light effect Effects 0.000 description 1
- 230000014759 maintenance of location Effects 0.000 description 1
- 238000013508 migration Methods 0.000 description 1
- 230000005012 migration Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000010606 normalization Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 239000000049 pigment Substances 0.000 description 1
- 238000002310 reflectometry Methods 0.000 description 1
- 230000000241 respiratory effect Effects 0.000 description 1
- 230000029058 respiratory gaseous exchange Effects 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 238000007920 subcutaneous administration Methods 0.000 description 1
- 238000001356 surgical procedure Methods 0.000 description 1
- 230000001360 synchronised effect Effects 0.000 description 1
- 238000012731 temporal analysis Methods 0.000 description 1
- 230000036962 time dependent Effects 0.000 description 1
- 238000012549 training Methods 0.000 description 1
- 230000002792 vascular Effects 0.000 description 1
- 238000012795 verification Methods 0.000 description 1
- 238000012800 visualization Methods 0.000 description 1
- 230000037303 wrinkles Effects 0.000 description 1
Classifications
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/0059—Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/0059—Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence
- A61B5/0062—Arrangements for scanning
- A61B5/0064—Body surface scanning
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/48—Other medical applications
- A61B5/4887—Locating particular structures in or on the body
- A61B5/489—Blood vessels
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/12—Edge-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/174—Segmentation; Edge detection involving the use of two or more images
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B2562/00—Details of sensors; Constructional details of sensor housings or probes; Accessories for sensors
- A61B2562/02—Details of sensors specially adapted for in-vivo measurements
- A61B2562/0233—Special features of optical sensors or probes classified in A61B5/00
- A61B2562/0242—Special features of optical sensors or probes classified in A61B5/00 for varying or adjusting the optical path length in the tissue
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01N—INVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
- G01N21/00—Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
- G01N21/17—Systems in which incident light is modified in accordance with the properties of the material investigated
- G01N21/25—Colour; Spectral properties, i.e. comparison of effect of material on the light at two or more different wavelengths or wavelength bands
- G01N21/31—Investigating relative effect of material at wavelengths characteristic of specific elements or molecules, e.g. atomic absorption spectrometry
- G01N21/35—Investigating relative effect of material at wavelengths characteristic of specific elements or molecules, e.g. atomic absorption spectrometry using infrared light
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01N—INVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
- G01N21/00—Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
- G01N21/17—Systems in which incident light is modified in accordance with the properties of the material investigated
- G01N21/25—Colour; Spectral properties, i.e. comparison of effect of material on the light at two or more different wavelengths or wavelength bands
- G01N21/31—Investigating relative effect of material at wavelengths characteristic of specific elements or molecules, e.g. atomic absorption spectrometry
- G01N21/35—Investigating relative effect of material at wavelengths characteristic of specific elements or molecules, e.g. atomic absorption spectrometry using infrared light
- G01N21/359—Investigating relative effect of material at wavelengths characteristic of specific elements or molecules, e.g. atomic absorption spectrometry using infrared light using near infrared light
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10048—Infrared image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20212—Image combination
- G06T2207/20224—Image subtraction
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30004—Biomedical image processing
- G06T2207/30076—Plethysmography
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30004—Biomedical image processing
- G06T2207/30101—Blood vessel; Artery; Vein; Vascular
Landscapes
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Public Health (AREA)
- Medical Informatics (AREA)
- Veterinary Medicine (AREA)
- General Health & Medical Sciences (AREA)
- Animal Behavior & Ethology (AREA)
- Biophysics (AREA)
- Pathology (AREA)
- Biomedical Technology (AREA)
- Heart & Thoracic Surgery (AREA)
- Surgery (AREA)
- Molecular Biology (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Radiology & Medical Imaging (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- Vascular Medicine (AREA)
- Investigating Or Analysing Materials By Optical Means (AREA)
- Credit Cards Or The Like (AREA)
- Holo Graphy (AREA)
Abstract
Método de obtención de una imagen de estructuras ocultas (8) en un objeto, que comprende: - disponer una cámara (5) para la formación de imágenes visuales e infrarrojas; - disponer una fuente de luz infrarroja delimitada; - irradiar parcialmente dicho objeto mediante dicha fuente de luz delimitada; - formar imágenes de una zona (2) no irradiada de dicho objeto mediante dicha cámara para formar imágenes de dicha estructura oculta; y - combinar dicha imagen de la estructura oculta con una imagen visual de dicho objeto - alinear dicha fuente de luz infrarroja con una fuente (7) de luz visual; caracterizado porque el método comprende además - proporcionar un primer análisis de contorno de dicha imagen infrarroja; - proporcionar un segundo análisis de contorno de dicha imagen visual; - comparar dichos primer y segundo análisis; y - descartar los contornos en dicha imagen infrarroja que también son detectados en dicha segunda imagen.
Description
Formación de imágenes de estructuras
ocultas.
La invención se refiere a un método de obtención
de una imagen de estructuras ocultas en un objeto, en concreto para
la formación de imágenes de estructuras tales como estructuras
vasculares en tejidos biológicos por medio de la combinación
selectiva de información extraída de imágenes del tejido en el rango
visible y en el rango infrarrojo.
En la solicitud internacional WO0115597 del
mismo inventor se da a conocer un método de este tipo. Se ha
observado que obtener una imagen lo suficientemente clara es
difícil debido a varios problemas. Un problema es que la luz que
procede de las partes ocultas, en concreto de las más profundas del
objeto, es frecuentemente mucho más débil que la luz que es
reflejada directamente por la superficie del objeto. En la práctica,
esto supone que puede ser necesaria una separación de la luz
reflejada especularmente y de la luz que procede de las partes más
profundas del objeto con el fin de identificar estructuras
subyacentes.
Si bien separando estos dos tipos de luz, por
ejemplo mediante un método conocido de utilización de luz
polarizada, y utilizando el hecho de que la luz reflejada
especularmente mantiene su dirección de polarización, de forma que
ésta puede ser filtrada por medio de un filtro polarizado, se pierde
una cantidad sustancial de la luz que procede de las partes
inferiores del objeto, lo que tiene como resultado una pérdida del
brillo y la resolución de la imagen. Esto invita a la utilización
de fuentes de luz potentes para recibir luz suficiente desde las
partes inferiores en el proceso de separar las dos partes. Sin
embargo, especialmente en el campo de la formación de imágenes de
estructuras en objetos vivos, existe una cantidad máxima de luz que
puede ser irradiada sobre el objeto.
El documento WO01/50955 muestra una disposición
reflectante en la que la luz especular es filtrada por un
polarizador. La imagen de una estructura subyacente es combinada con
una imagen visual para presentar una única imagen. Sin embargo, se
ha encontrado que la combinación directa de estas imágenes presenta
problemas, en concreto, debido a que se producen ciertos artefactos
inconvenientes para detectar y localizar con fiabilidad una
estructura subyacente.
El documento US2001/0037811 muestra una sonda
para determinar una circunferencia de un dedo. Adicionalmente, la
articulación es sometida a transluminación para inspeccionar
inflamación de artritis a partir de un análisis de dispersión. Esta
disposición no puede ser utilizada para la formación visual de
imágenes de partes del cuerpo con una libertad comparable al ojo
humano.
La publicación USA 5.699.797 muestra un método
para la grabación secuencial de imágenes en longitudes de onda
visibles y del IR cercano y la posterior superposición de las
imágenes obtenidas de ese modo. La publicación describe el concepto
de dos haces luminosos paralelos, uno de luz visible y el otro de
luz IR. No se describe la eliminación de aberraciones en la imagen
IR.
El documento US 2003/210810-A1
da a conocer restar imágenes obtenidas a longitudes de onda
diferentes.
El documento WO 01/52735-A da a
conocer la detección de estructuras de interés con detección de
contornos.
El documento US 2002/181762-A1
muestra un sistema compuesto de detección de contornos que tiene los
contornos de varias imágenes combinados de modo que son
seleccionados los contornos mejor enfocados de cada imagen. No se
propone la sustracción de contornos.
La invención tiene el objetivo de proporcionar
una técnica de formación de imágenes que no acuse los problemas
descritos anteriormente y que pueda proporcionar una imagen mejorada
de la estructura subyacente. Además, la invención tiene como otro
objetivo proporcionar una técnica mejorada de formación de imágenes
que permita a una persona combinar en una imagen información visual
e información de objetos ocultos.
Para conseguir estos y otros objetivos, en un
aspecto, la invención ofrece un método según las características de
la reivindicación 1. En otro aspecto, la invención ofrece un método
según las características de la reivindicación 13.
En concreto, la invención utiliza la alineación
de dicha fuente de luz infrarroja con una fuente de luz visual;
proporcionando un primer análisis de contornos de dicha imagen
infrarroja; proporcionando un segundo análisis de contornos de
dicha imagen visual; comparando dichos primer y segundo análisis de
contornos; y descartando contornos en dicha imagen infrarroja que
también se detecten en dicha segunda imagen. Esto ofrece la ventaja
de obtener una imagen visual "normal" (vista por el ojo
humano), que se mejora al identificar la estructura subyacente
(detectada utilizando luz infrarroja) dentro de la imagen visual
mientras se descartan contornos falsos formados por artefactos de
ensombrecimiento y solape (por ejemplo, las sombras o reflejos de un
bisturí o de una aguja). Por ejemplo, para fines quirúrgicos, el
método ofrece una herramienta práctica para decidir un punto de
entrada óptimo en el objeto, por ejemplo para cortar tejido o
similar.
Además, proporcionando una cámara para la
formación de imágenes visuales e infrarrojas; proporcionando una
fuente de luz delimitada para irradiar parcialmente dicho objeto con
luz infrarroja; irradiando parcialmente dicho objeto mediante dicha
fuente de luz delimitada; formando imágenes de una zona no irradiada
de dicho objeto mediante dicha cámara para obtener imágenes de
dicha estructura oculta; y combinando dicha imagen de estructura
oculta con una imagen visual de dicho objeto, se filtra
espacialmente desde la imagen la luz infrarroja incidente en la
imagen que es originada por una reflexión directa. Por lo tanto, la
imagen parcial restante no padece efectos de saturación debidos a
la iluminación directa de la luz reflejada especularmente. En una
realización preferente, se obtiene una imagen completa variando
temporalmente dicha irradiación parcial para así proporcionar una
imagen completa mediante la combinación posterior de dichas imágenes
parciales.
En otra realización preferente, dicha imagen
parcial se obtiene por barrido de un haz luminoso sobre dicho
objeto. Adicional o alternativamente, dicha imagen parcial se
obtiene mediante la irradiación posterior de dicho objeto según
modelos predeterminados. Una realización especialmente preferente
comprende obtener dicha imagen parcial irradiando de forma alterna
dicho objeto mediante modelos predeterminados complementarios. Por
ejemplo, en una realización dichos modelos pueden ser modelos
matriciales, modelos lineales, modelos de puntos, o modelos
concéntricos o circulares.
Además, preferentemente dicho objeto es
irradiado solo en posiciones predeterminadas que están separadas. Al
separar la zona de irradiación y la zona de detección de luz, pueden
realzarse partes más profundas de la estructura oculta.
Al iluminar alternativamente dicho objeto, puede
obtenerse una imagen completa, y en la que todas las zonas del
objeto son irradiadas de una forma dependiente del tiempo.
La invención ofrece además ventajas concretas al
utilizar una cámara-CMOS, puesto que esta cámara
tiene un alto grado de decorrelación de píxeles adyacentes. De este
modo, se impide el efecto de "deslumbramiento", de modo que
hay un contraste elevado entre el área reflejada directamente (que
se descarta) y el área restante que recibe luz difusa originada en
capas más profundas.
Preferentemente, dicha detección de contornos se
lleva a cabo mediante un análisis de gradientes de dicha primera
imagen. La invención ofrece una realización práctica cuando dichas
imágenes son proporcionadas de forma estereoscópica. Además, dicha
primera imagen puede ser sometida a análisis espectral, y dicho
análisis espectral se proyecta a dicha segunda imagen. Además,
dicho análisis espectral puede comprender un análisis de
pulsatilidad y/o un análisis de la frecuencia del ritmo cardíaco y/o
un análisis de la frecuencia respiratoria. De este modo, dicho
análisis ofrece una herramienta sin contacto, práctica, para medir
parámetros de interés del cuerpo. Por "análisis de
pulsatilidad" se entiende, como mínimo, una determinación de
partes pulsátiles en el objeto de interés. La invención está además
relacionada con un método de mejora de la formación de imágenes de
estructuras ocultas en un objeto, que comprende lo definido en la
reivindicación 14. Además, la invención está relacionada con un
sistema como el definido en la reivindicación 16.
A partir de los dibujos resultarán evidentes
otras características y ventajas. En los dibujos:
la figura 1 muestra una vista esquemática de un
método de irradiación por barrido de un objeto, según la
invención;
la figura 2 muestra una vista esquemática de la
migración de fotones en tejido vivo debido a la difusión;
la figura 3 muestra un método de iluminación
iluminando un modelo de superposición sobre el objeto;
la figura 4 muestra un método de iluminación al
iluminar modelos circulares sobre el objeto;
la figura 5 muestra un método de iluminación al
iluminar una rejilla de modelos sobre el objeto;
la figura 6 muestra una disposición de
verificación para verificar el aparato, según la invención,
utilizando una longitud de onda visible y dos longitudes de onda
infrarrojas;
la figura 7 muestra una serie de etapas de
análisis para procesar y encaminar los datos adquiridos en la
disposición de la figura 6;
la figura 8 muestra un análisis espectral de los
componentes pulsátiles en dicha imagen, para luz de tres longitudes
de onda diferentes;
la figura 9 muestra una construcción simple de
tipo visor que comprende el aparato de la invención;
la figura 10 muestra la construcción de tipo
visor de la figura 9 durante su utilización;
la figura 11 muestra las imágenes VIS y NIR
recogidas por la pieza ocular de la figura 9;
la figura 12 muestra las etapas según el método
de la invención; y
la figura 13 muestra otra realización del
sistema inventivo que incluye una herramienta de perforación con
emisión de infrarrojos.
La figura 1 muestra una alternativa al método de
filtrado por polarización descrito anteriormente. Este método
comprende la iluminación/barrido complementario dinámico de
secciones de imagen sometidas a modelos alternativos. Este método
no necesita la utilización de filtros de polarización. Se basa en el
hecho de que los fotones que entran en el tejido biológico serán
dispersados fuertemente dentro del tejido, lo que en parte tiene
como resultado retrodispersión.
Además, la zona observada está dividida en zonas
lineales paralelas, que denominaremos "secciones lineales".
Estas secciones lineales pueden estar divididas en secciones
lineales pares e impares (1), (2) respectivamente.
Después, utilizando una cámara con buenas
especificaciones antideslumbramiento y que permita la lectura de
regiones de píxeles rectangulares seleccionables libremente, podemos
adquirir información de la imagen en una secuencia especial.
Durante un cierto período la fuente de luz
delimitada iluminará todas las secciones lineales pares (1) y la
cámara adquirirá información de imágenes desde todas las secciones
lineales impares (2). Aquí, el término "delimitada" abarca la
luz que está limitada espacialmente, de modo que un objeto iluminado
comprende, en la dirección de visión que es también una dirección
de iluminación, zonas no iluminadas que no se alcanzan mediante la
fuente de luz delimitada. Tal delimitación puede conseguirse
típicamente al enfocar, colimar o apantallar la fuente de luz.
También pueden producir iluminaciones delimitadas algunas otras
fuentes de luz, tales como rayos láser (por ejemplo, en combinación
con una rejilla de difracción holográfica) y LED. Durante el
siguiente periodo las secciones lineales impares (2) son iluminadas
y la cámara adquirirá información de imágenes desde las secciones
lineales pares. Esto puede realizarse con una cámara lineal que
barre todo el tejido o bien con una cámara normal que barre todas
las líneas pares simultáneamente y durante el siguiente periodo
todas las líneas impares.
En la figura 2 se muestra cómo la luz difundida
dentro del tejido puede ser utilizada para formar imágenes de
partes más profundas del objeto. La luz entra en el objeto en una
posición (1) y lo abandona en otra posición (2). A partir de la
figura resulta evidente que la luz que entra en posiciones más
alejadas puede reunir información de partes más profundas dentro
del objeto. Aplicando una serie de modelos de iluminación, tal como
se describirá después haciendo referencia a las figuras 3 a 5,
puede conseguirse iluminación desde "dentro" del objeto, de ese
modo formando imágenes de partes más profundas del objeto.
A este respecto, en la figura 3, en lugar de las
líneas paralelas pares e impares mostradas en la figura 1, pueden
ser utilizados modelos alternos de líneas cruzadas desplazadas
espacialmente, como modelo de iluminación, mientras se produce la
adquisición de imágenes dentro de las áreas que están entre las
líneas. También es posible proyectar primero un modelo de puntos
"par" sobre el punto de cruce del modelo lineal (1) y a
continuación proyectar un modelo de puntos "impar" sobre las
secciones de cruce del modelo lineal (2). Asimismo, en la figura 4
se pueden utilizar regiones circulares concéntricas discretas. Se
obtuvieron resultados satisfactorios con una simple prueba de
geometría de irradiación circular que se da a conocer en la figura
4. Se depositó una capa de espuma rosada (Ethafoam 3M) de 6 mm
sobre el conducto de apantallamiento. Sobre esta capa de espuma se
situó una abrazadera de plástico de oficina, con su trozo de
plástico de retención de papel quedando a través de ésta.
Finalmente se depositó en la parte superior una segunda capa de
espuma rosa. Fuera del campo de visión de la cámara, una luz anular
inyectó fotones de 660 nm, 810 nm y 940 nm en la espuma,
perpendiculares a la superficie de la espuma.
La figura 5 muestra otra realización, en la que
dicho objeto es irradiado solo en posiciones predeterminadas que
están separadas espacialmente. Las primeras regiones (3) indicadas
con líneas horizontales son irradiadas en un primer período; las
segundas regiones (4) con líneas verticales son irradiadas en un
segundo período. Esta configuración de separación espacial puede
mostrar partes más profundas de la estructura. Variando la
separación, puede barrerse partes más bajas y profundas del
objeto.
La figura 6 muestra una disposición de prueba,
en la que se comprobó una realización del método inventivo
utilizando marcadores conocidos tales como un pulsómetro SP02, un
dispositivo de registro del ECG y un monitor de la frecuencia
respiratoria. Las señales fueron registradas y muestreadas
utilizando las etapas indicadas en la figura 7. Esto conduce a un
análisis temporal píxel a píxel de la variación de la intensidad.
Los cuadros fueron muestreados a una velocidad de muestreo de 100
Hz y se compararon la respiración, el ECG y el pulso
pletismográfico. En la figura 8 se muestra el resultado para una
variedad de longitudes de onda. Se ilustra claramente cómo la
variación medida de la cámara se ajusta bien a las otras señales de
impulsos.
Una configuración especial mejorada se basa en
dos cámaras (por ejemplo, CCD o CMOS monocromáticas o multibanda)
situadas a cierta distancia entre sí (por ejemplo, la distancia ojo
a ojo), visualizando de ese modo de forma estereoscópica el mismo
objeto (por ejemplo, tejido biológico), un dispositivo electrónico
de procesamiento de imágenes de doble canal y dos dispositivos de
visualización colocados delante de ambos ojos.
Entre cada cámara y el objeto observado puede
situarse (puede hacerse combinando 2 canales) un sistema óptico
adicional (por ejemplo, un microscopio, un endoscopio, un
colposcopio, etc., de dos canales). Es posible incorporar una
construcción (5) simple de tipo visor (véase la figura 9) de modo
que el dispositivo pueda colocarse frente al ojo o bien situarse
fuera del ángulo de visión para permitir la visión normal.
\newpage
La figura 10 muestra, a modo de ejemplo, la
pieza ocular estereoscópica (5) de la figura 9 en uso. Para la
pieza ocular, puede ser aplicada una cámara de color con un modelo
de filtro de color Bayer, en el que todos los filtros de color son
altamente transparentes en el rango NIR. Además puede ser aplicado
un chip de cámara multicapa (patente WO 02/27804 de Foveon Inc. o
patentes previas como 4.238.760 de Carr) o el enfoque de nuestra
patente anterior WO 01 15597 A1. Preferentemente, las imágenes en
ambos rangos espectrales se ajustan píxel a píxel.
La superficie de la región de tejido biológico
(6) observada es irradiada en un ángulo oblicuo desde dos lados
opuestos mediante dos fuentes de luz (7). Estos dos lados no tienen
por qué estar alineados con los ejes izquierdo/derecho de la pieza
ocular (5), sino que pueden ser girados en torno a un plano
perpendicular al eje central de las cámaras unidas.
Las fuentes de luz (7) pueden ser controladas
para enviar de forma independiente luz blanca de banda ancha en el
rango de longitudes de onda del visible (VIS;
400-780 nm) o luz de banda estrecha en el rango del
infrarrojo cercano (NIR; por ejemplo 920 nm) así como en ambos
rangos (VIS y NIR). Las fuentes de luz (7) están construidas
cuidadosamente de manera que los perfiles geométricos de los haces
de VIS y NIR están alineados, lo que tiene como resultado un
sombreado idéntico en las imágenes VIS y NIR. Como alternativa, para
reunir las imágenes también puede utilizarse un microscopio
quirúrgico estereoscópico o una cámara endoscópica de dos canales
(tal como la utilizada en cirugía estereoscópica por robot) con dos
guías de luz de fibra laterales.
La figura 11 muestra el resultado de las
imágenes VIS (figura 11 A) y NIR (figura 11 B) tales como las
recogidas por la pieza ocular (5) ilustrada en la figura 10. Puesto
que los haces NIR y VIS están emparejados, las sombras producidas
por las formas irregulares en la superficie del tejido (por ejemplo
la estructura de la piel, pliegues de la piel, moldes, etc.)
también estarán emparejadas en ambos rangos de longitudes de onda.
En la realización dada a conocer, los haces están orientados en un
pequeño ángulo con respecto a la región (6) de tejido. Como
resultado, los pliegues de la piel producirán sombras de contornos
nítidos. Las zonas brillantes que producen reflejos y/o píxeles
saturados (marcados como una estrella) también coincidirán en ambos
rangos de longitudes de onda. Debido al ángulo pequeño, los objetos
(8) que se acercan a la superficie (6) del tejido (por ejemplo
agujas, bisturís, sondas, etc.) producirán dos sombras separadas.
Estas sombras se encontrarán y formarán típicamente un modelo (9)
en "V" cuando un objeto toque la superficie. Si, por ejemplo,
una aguja perfora la superficie, entonces la punta (10) de la aguja
desaparecerá rápidamente de la imagen VIS (figura 11 A). Sin
embargo, en la imagen NIR (figura 11 B) la punta (10) seguirá siendo
visible dentro del tejido (6) (véase la figura).
En la imagen VIS (figura 11 A), solo serán
visibles vasos sanguíneos muy superficiales, especialmente si la
textura del vaso deforma la piel. Sin embargo, en la imagen NIR, los
vasos sanguíneos se verán mucho mejor (incluso los vasos sanguíneos
a una profundidad de unos pocos milímetros bajo la superficie).
Puesto que el pigmento de la piel (melanina) tiene un absorbancia
muy baja dentro de la región NIR, esta buena visibilidad NIR
también se tendrá con personas de piel oscura (además los moldes
perderán su color oscuro).
Tras la obtención de las imágenes NIR y VIS en
las etapas (11) y (12) respectivamente, se aplica una etapa de
mejora del contorno por gradiente para ambas bandas espectrales, tal
como se mostrará con referencia a la figura 16 (etapas -13- y
-14-). Las imágenes VIS-J y NIR-J se
obtienen filtrando con un filtro de nivelación para eliminar el
ruido procedente de las imágenes NIR y VIS de la cámara. En la
implementación actual esto es un filtro de promedio. A partir de
cada una de las imágenes niveladas VIS-J y
NIR-J, se calculan dos imágenes de diferencia
direccional Ix e Iy por medio de un filtro de gradiente.
Actualmente, esto se lleva a cabo con un filtro Prewitt.
A continuación, se calculan las imágenes de
gradiente del contorno VIS-G y NIR-G
\sqrt{(1x^{2} + Iy^{2})} mediante. Después, VIS-G
y NIR-G son recortadas y normalizadas a 1 para
obtener VIS-G' y NIR-G' (etapas -15-
y -16-). Finalmente las imágenes se complementan a 1 - G' (etapas
-17- y -18-).
Para una región dada de tejido, se obtienen una
imagen VIS y una imagen NIR coincidente píxel a píxel.
Las imágenes de ambas bandas espectrales son
sometidas a un algoritmo de mejora del contorno (véase más arriba)
idéntico, produciendo imágenes normalizadas
NIR-contorno y VIS-contorno en la
escala de grises, de modo que los contornos se codifican en negro (0
= negro y 1 = blanco; se observa que este es el negativo de los
resultados normales de contorno mejorado).
A continuación se determinan los contornos
correspondientes en las imágenes NIR y VIS (etapa -19-), según un
criterio píxel a píxel:
- píxel-contorno-NIR < Umbral_NIR Y píxel-contorno-VIS < Umbral_VIS (ambos umbrales son configurables por soporte lógico).
\vskip1.000000\baselineskip
Combinando información de ambas regiones
espectrales, las coordenadas de píxeles que satisfacen ambos
requisitos son identificadas como aberraciones superficiales y se
descartan mediante poner el valor del píxel a 1 en la imagen de
contorno NIR corregida (etapa -20-).
Haciendo lo mismo en la imagen NIR en bruto tras
la normalización (etapa -21-) (sin mejora de contorno) se define una
imagen NIR normalizada corregida (etapa -22-) descartando regiones
de imágenes saturadas.
A este respecto, se identifican las
localizaciones de todos los píxeles saturados dentro de la imagen
NIR en bruto (por ejemplo, 256 para una imagen de 8 bits). Para
todos los píxeles dentro de la 1ª máscara-NIR que
están saturados o son vecinos directos de un píxel saturado, los
contornos se descartan poniendo el valor del píxel a 1 (y, de ese
modo, ignorando por completo la información de contorno) lo que
tiene como resultado una 2ª máscara-NIR (etapa
-23-).
De ese modo, se retiran los falsos contornos
resultantes de píxeles saturados y la 2ª máscara-NIR
contiene ahora los límites de los vasos sanguíneos subcutáneos (y
eventualmente otras estructuras ocultas con contraste).
Este enfoque puede ser modificado incluyendo
píxeles vecinos segundo, tercero, etc.
En un modo preferente, la imagen IR en bruto se
utiliza para proporcionar vasos sanguíneos "llenos"; por
ejemplo, multiplicando la 2ª máscara-NIR por la 2ª
imagen NIR corregida (etapa -24-). La cantidad de color de relleno
puede ser modificada con un exponente N ajustable por el
usuario:
2ª máscara-NIR x (1ª imagen NIR
corregida)^{N} = máscara mejorada final
Finalmente, en la etapa -25- esta máscara
mejorada final se multiplica ahora por el componente de luminosidad
de la imagen VIS en bruto (que, preferentemente, es una imagen en
color). De este modo, solo se proyecta en la imagen VIS la
información de contraste que realmente se origina desde debajo de la
superficie del tejido. Si miramos los dibujos anteriores con una
aguja insertada en el tejido es evidente que estos criterios
llevarán a superponer sólo la punta de la aguja oculta sobre la
imagen VIS. No se realzarán las sombras, las arrugas, los reflejos y
los contornos de los moldes.
De este modo, la detección de aberraciones
puramente superficiales puede mejorarse adicionalmente cuando, en
lugar de tener en cuenta todos los colores del rango visible, sólo
se utiliza el rango espectral azul para la entrada mejorada de
contorno VIS. Esto se hace para suprimir la visibilidad de los vasos
sanguíneos. Este efecto de luz azul se debe a que, en el rango
visible, la reflectividad de los vasos para la luz azul es la más
próxima a la piel (el contraste máximo visible de los vasos queda
fuera del rango azul). A modo de otra mejora opcional, la máscara
de mejora final puede ser multiplicada selectivamente, por ejemplo,
con sólo la parte roja y/o verde de la imagen visible (en lugar de
la señal de luminosidad de la imagen de color visible total).
Cuando se representa una parte de tejido de
interés, el usuario puede conmutar a un modo que modifica la
secuencia de captación de imágenes y permite la recogida de una
(segunda) imagen NIR adicional dentro de una región seleccionada de
interés (ROI). Esta ROI es iluminada virtualmente mediante inyección
de fotones inmediatamente exteriores a la ROI por medio de una
matriz de LEDs en contacto con el tejido, o bien de un modelo de
puntos de láser o líneas de láser proyectadas sobre el tejido desde
una cierta distancia. Durante la adquisición de esta segunda imagen
NIR, las iluminaciones VIS y primera NIR están desactivadas.
De este modo, puede ser combinada la información
obtenida utilizando dos tipos de geometrías de iluminación para el
mismo rango de longitudes de onda. Esto puede hacerse con y sin
utilizar también VIS e iluminación por punta de aguja parpadeante
tal como se ilustra haciendo referencia a la figura 13.
En la figura 13, se conectan un
láser-NIR o un LED-NIR en una aguja
o un catéter (8). A través de una ventana estéril se proyecta luz a
través del calibre de la aguja o junto a éste. De este modo, la
punta (10) de la aguja ilumina la pared (26) interior del vaso
cuando la aguja está en el vaso (véase la figura 13B). Si la aguja
perfora la pared distal del vaso (véase la figura 13C) se ve un
cambio drástico en la iluminación. La fuente de luz adosada a la
aguja puede estar sincronizada con las cámaras. Puede ser
beneficiosa una iluminación parpadeante en la punta.
Si bien en lo precedente la invención se ha
ilustrado haciendo referencia a los dibujos y a la descripción,
resultará evidente que la invención no está limitada a esto y que
estas realizaciones se dan a conocer solamente con fines
ilustrativos. Las variaciones y modificaciones sobre las mismas
están dentro del ámbito de la invención, tal como se define en las
reivindicaciones anexas.
Claims (18)
1. Método de obtención de una imagen de
estructuras ocultas (8) en un objeto, que comprende:
- -
- disponer una cámara (5) para la formación de imágenes visuales e infrarrojas;
- -
- disponer una fuente de luz infrarroja delimitada;
- -
- irradiar parcialmente dicho objeto mediante dicha fuente de luz delimitada;
- -
- formar imágenes de una zona (2) no irradiada de dicho objeto mediante dicha cámara para formar imágenes de dicha estructura oculta; y
- -
- combinar dicha imagen de la estructura oculta con una imagen visual de dicho objeto
- -
- alinear dicha fuente de luz infrarroja con una fuente (7) de luz visual;
caracterizado porque el método comprende
además
- -
- proporcionar un primer análisis de contorno de dicha imagen infrarroja;
- -
- proporcionar un segundo análisis de contorno de dicha imagen visual;
- -
- comparar dichos primer y segundo análisis; y
- -
- descartar los contornos en dicha imagen infrarroja que también son detectados en dicha segunda imagen.
\vskip1.000000\baselineskip
2. Método, según la reivindicación 1, en el que
dicha irradiación se varía en el tiempo con el fin de proporcionar
una imagen completa mediante la combinación posterior de imágenes
parciales.
3. Método, según la reivindicación 1 ó 2, en el
que dicha imagen se obtiene por barrido de un haz luminoso sobre
dicho objeto.
4. Método, según la reivindicación 1 ó 2, en el
que dicha imagen se obtiene irradiando posteriormente dicho objeto
con modelos predeterminados (1, 2).
5. Método, según la reivindicación 4, en el que
dicha imagen parcial se obtiene irradiando alternativamente dicho
objeto con modelos complementarios predeterminados.
6. Método, según la reivindicación 4 ó 5, en el
que dichos modelos son modelos matriciales, modelos lineales,
modelos de puntos o modelos concéntricos (T1, T2, T3).
7. Método, según cualquiera de las
reivindicaciones 4 a 6, en el que dicho objeto es irradiado sólo en
posiciones predeterminadas que están separadas espacialmente.
8. Método, según cualquiera de las
reivindicaciones 1 a 7, en el que dicha imagen se obtiene mediante
una cámara-CMOS.
9. Método, según la reivindicación 1, que
comprende además:
- -
- corregir dicha primera imagen para descartar las zonas de imagen saturadas.
\vskip1.000000\baselineskip
10. Método, según cualquiera de las
reivindicaciones precedentes, en el que dichas imágenes son
proporcionadas de forma estereoscópica.
11. Método, según cualquiera de las
reivindicaciones precedentes, en el que dicha primera imagen es
analizada espectralmente, y en el que dicho análisis espectral es
proyectado en dicha segunda imagen.
12. Método, según la reivindicación 11, en el
que dicho análisis espectral comprende un análisis de pulsatilidad
y/o un análisis de la frecuencia del ritmo cardiaco y/o un análisis
de la frecuencia respiratoria.
13. Sistema para obtener una imagen de
estructuras ocultas en un objeto, que comprende
- -
- una fuente (7) de luz infrarroja delimitada, la fuente de luz alineada con una fuente (7) de luz visual, para irradiar parcialmente dicho objeto con luz;
- -
- un dispositivo de cámara (5) dispuesto para obtener una primera imagen de la estructura oculta en una zona no irradiada del objeto y para obtener una segunda imagen visual de dicho objeto; y
- -
- un dispositivo de procesamiento dispuesto para:
- \bullet
- proporcionar un análisis de gradiente de dicha primera imagen de la estructura oculta con el objeto de detectar los contornos de dicha estructura oculta; y proporcionar un análisis de gradiente de dicha segunda imagen visual;
- \bullet
- comparar el análisis de gradiente de dicha segunda imagen visual con el análisis de gradiente de dicha primera imagen de la estructura oculta;
- \bullet
- descartar los contornos en dicha primera imagen de la estructura oculta que son también detectados en dicha segunda imagen visual; y
- \bullet
- combinar dichas primer y segunda imágenes para definir los contornos de dicha estructura oculta en dicha imagen visual.
\vskip1.000000\baselineskip
14. Sistema, según la reivindicación 13, que
comprende además:
- -
- un instrumento (8) de perforación para perforar tejido humano; y
- -
- una fuente 10 de luz IR dispuesta en dicho instrumento de perforación.
\vskip1.000000\baselineskip
15. Sistema, según la reivindicación 14, en el
que dicha luz IR está alineada con dicho instrumento de
perforación.
16. Sistema, según la reivindicación 14 o 15, en
el que dicha luz IR está dispuesta en una punta de dicho instrumento
de perforación.
17. Sistema, según cualquiera de las
reivindicaciones 14 a 16, en el que dicho instrumento de perforación
está dotado de un revestimiento que irradia IR.
18. Sistema, según cualquiera de las
reivindicaciones 14 a 17, en el que la fuente de luz IR y la fuente
de luz delimitada son activadas de forma alternativa.
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
EP04075541A EP1566142A1 (en) | 2004-02-19 | 2004-02-19 | Imaging of buried structures |
EP04075541 | 2004-02-19 |
Publications (1)
Publication Number | Publication Date |
---|---|
ES2336577T3 true ES2336577T3 (es) | 2010-04-14 |
Family
ID=34707381
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
ES05710889T Active ES2336577T3 (es) | 2004-02-19 | 2005-02-15 | Formacion de imagenes de estructuras ocultas. |
Country Status (7)
Country | Link |
---|---|
US (1) | US8630465B2 (es) |
EP (2) | EP1566142A1 (es) |
JP (1) | JP4739242B2 (es) |
AT (1) | ATE447880T1 (es) |
DE (1) | DE602005017588D1 (es) |
ES (1) | ES2336577T3 (es) |
WO (1) | WO2005079662A1 (es) |
Families Citing this family (41)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8620410B2 (en) | 2002-03-12 | 2013-12-31 | Beth Israel Deaconess Medical Center | Multi-channel medical imaging system |
AU2003248559A1 (en) | 2002-05-22 | 2003-12-12 | Beth Israel Deaconess Medical Center | Device for wavelength-selective imaging |
US8473035B2 (en) | 2003-09-15 | 2013-06-25 | Beth Israel Deaconess Medical Center | Medical imaging systems |
US9750425B2 (en) | 2004-03-23 | 2017-09-05 | Dune Medical Devices Ltd. | Graphical user interfaces (GUI), methods and apparatus for data presentation |
US20060241495A1 (en) * | 2005-03-23 | 2006-10-26 | Eastman Kodak Company | Wound healing monitoring and treatment |
US8478386B2 (en) | 2006-01-10 | 2013-07-02 | Accuvein Inc. | Practitioner-mounted micro vein enhancer |
US11253198B2 (en) | 2006-01-10 | 2022-02-22 | Accuvein, Inc. | Stand-mounted scanned laser vein contrast enhancer |
US9854977B2 (en) | 2006-01-10 | 2018-01-02 | Accuvein, Inc. | Scanned laser vein contrast enhancer using a single laser, and modulation circuitry |
US10813588B2 (en) | 2006-01-10 | 2020-10-27 | Accuvein, Inc. | Micro vein enhancer |
US8489178B2 (en) | 2006-06-29 | 2013-07-16 | Accuvein Inc. | Enhanced laser vein contrast enhancer with projection of analyzed vein data |
US9492117B2 (en) | 2006-01-10 | 2016-11-15 | Accuvein, Inc. | Practitioner-mounted micro vein enhancer |
US11278240B2 (en) | 2006-01-10 | 2022-03-22 | Accuvein, Inc. | Trigger-actuated laser vein contrast enhancer |
US8838210B2 (en) | 2006-06-29 | 2014-09-16 | AccuView, Inc. | Scanned laser vein contrast enhancer using a single laser |
US7978332B2 (en) | 2006-04-18 | 2011-07-12 | Koninklijke Philips Electronics N.V. | Optical measurement device |
US8730321B2 (en) | 2007-06-28 | 2014-05-20 | Accuvein, Inc. | Automatic alignment of a contrast enhancement system |
US10238294B2 (en) | 2006-06-29 | 2019-03-26 | Accuvein, Inc. | Scanned laser vein contrast enhancer using one laser |
US8594770B2 (en) | 2006-06-29 | 2013-11-26 | Accuvein, Inc. | Multispectral detection and presentation of an object's characteristics |
US8463364B2 (en) | 2009-07-22 | 2013-06-11 | Accuvein Inc. | Vein scanner |
JP5073996B2 (ja) * | 2006-09-20 | 2012-11-14 | オリンパス株式会社 | 画像処理装置 |
IL180469A0 (en) * | 2006-12-31 | 2007-06-03 | Gil Shetrit | Vascular access system and method |
WO2010064202A2 (en) * | 2008-12-05 | 2010-06-10 | Koninklijke Philips Electronics N.V. | Optical detection method and device for optical detection of the condition of joints |
US8503712B2 (en) * | 2008-12-31 | 2013-08-06 | Motorola Mobility Llc | Method and apparatus for determining blood oxygenation using a mobile communication device |
NL2002544C2 (en) * | 2009-02-18 | 2010-08-19 | Bio Photonics Holding B V | Pixel-to-pixel aligned multispectral imaging & spatial light modulation through optical instruments. |
US9061109B2 (en) | 2009-07-22 | 2015-06-23 | Accuvein, Inc. | Vein scanner with user interface |
FR2969292A1 (fr) | 2010-12-17 | 2012-06-22 | Commissariat Energie Atomique | Procede et dispositif pour examen optique en geometrie de reflexion |
WO2012168322A2 (en) * | 2011-06-06 | 2012-12-13 | 3Shape A/S | Dual-resolution 3d scanner |
US8879848B2 (en) * | 2011-07-27 | 2014-11-04 | National Instruments Corporation | Machine vision based automatic maximal clamp measurement tool |
WO2013136231A1 (en) * | 2012-03-13 | 2013-09-19 | Koninklijke Philips N.V. | Cardiopulmonary resuscitation apparatus comprising a physiological sensor |
US8897522B2 (en) * | 2012-05-30 | 2014-11-25 | Xerox Corporation | Processing a video for vascular pattern detection and cardiac function analysis |
US9072426B2 (en) | 2012-08-02 | 2015-07-07 | AccuVein, Inc | Device for detecting and illuminating vasculature using an FPGA |
US10376147B2 (en) | 2012-12-05 | 2019-08-13 | AccuVeiw, Inc. | System and method for multi-color laser imaging and ablation of cancer cells using fluorescence |
CN203289635U (zh) | 2013-05-10 | 2013-11-13 | 瑞声声学科技(深圳)有限公司 | 弹簧板及应用该弹簧板的多功能发声器 |
JP6261994B2 (ja) * | 2014-01-28 | 2018-01-17 | 三菱重工業株式会社 | 画像補正方法、これを用いる検査方法及び検査装置 |
US9990730B2 (en) | 2014-03-21 | 2018-06-05 | Fluke Corporation | Visible light image with edge marking for enhancing IR imagery |
JP6511777B2 (ja) | 2014-11-10 | 2019-05-15 | セイコーエプソン株式会社 | 画像処理装置、画像処理方法およびプログラム |
CN106236060B (zh) * | 2015-06-04 | 2021-04-09 | 松下知识产权经营株式会社 | 生物体信息检测装置 |
US10152811B2 (en) | 2015-08-27 | 2018-12-11 | Fluke Corporation | Edge enhancement for thermal-visible combined images and cameras |
CN116269262A (zh) | 2016-12-01 | 2023-06-23 | 松下知识产权经营株式会社 | 生物体信息检测装置、生物体信息检测方法及存储介质 |
TWI662940B (zh) * | 2018-06-01 | 2019-06-21 | 廣達電腦股份有限公司 | 影像擷取裝置 |
JP7247501B2 (ja) * | 2018-09-21 | 2023-03-29 | 富士フイルムビジネスイノベーション株式会社 | 画像処理装置およびプログラム |
CN111879791B (zh) * | 2020-07-30 | 2023-06-20 | 西湖大学 | 一种图案表面凸起特征增强的机器视觉系统及方法 |
Family Cites Families (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US4555179A (en) * | 1982-11-08 | 1985-11-26 | John Langerholc | Detection and imaging of objects in scattering media by light irradiation |
US5137355A (en) * | 1988-06-08 | 1992-08-11 | The Research Foundation Of State University Of New York | Method of imaging a random medium |
US5699797A (en) * | 1992-10-05 | 1997-12-23 | Dynamics Imaging, Inc. | Method of investigation of microcirculation functional dynamics of physiological liquids in skin and apparatus for its realization |
US6032070A (en) * | 1995-06-07 | 2000-02-29 | University Of Arkansas | Method and apparatus for detecting electro-magnetic reflection from biological tissue |
NL1012943C2 (nl) * | 1999-08-31 | 2001-03-01 | Tno | Detector en beeldvormende inrichting voor het bepalen van concentratieverhoudingen. |
WO2001050955A1 (en) * | 2000-01-14 | 2001-07-19 | Flock Stephen T | Improved endoscopic imaging and treatment of anatomic structures |
WO2001052735A1 (de) * | 2000-01-17 | 2001-07-26 | Stiftung Zur Förderung Der Erforschung Und Behandlung Kindlicher Leukämien (Kinderleukämiestiftung) | Verbesserung der sichtbarkeit von venen-punktionsstellen |
DE10004989B4 (de) * | 2000-02-04 | 2006-11-02 | Siemens Ag | Verfahren und Vorrichtung für die Arthritis-Diagnose |
US20020035317A1 (en) * | 2000-08-04 | 2002-03-21 | Photonify Technologies | Optical imaging system with movable scanning unit |
US7058233B2 (en) * | 2001-05-30 | 2006-06-06 | Mitutoyo Corporation | Systems and methods for constructing an image having an extended depth of field |
US7158660B2 (en) * | 2002-05-08 | 2007-01-02 | Gee Jr James W | Method and apparatus for detecting structures of interest |
US7372985B2 (en) * | 2003-08-15 | 2008-05-13 | Massachusetts Institute Of Technology | Systems and methods for volumetric tissue scanning microscopy |
-
2004
- 2004-02-19 EP EP04075541A patent/EP1566142A1/en not_active Withdrawn
-
2005
- 2005-02-15 EP EP05710889A patent/EP1729629B1/en not_active Not-in-force
- 2005-02-15 DE DE602005017588T patent/DE602005017588D1/de active Active
- 2005-02-15 US US10/598,077 patent/US8630465B2/en not_active Expired - Fee Related
- 2005-02-15 AT AT05710889T patent/ATE447880T1/de active
- 2005-02-15 JP JP2006554039A patent/JP4739242B2/ja not_active Expired - Fee Related
- 2005-02-15 ES ES05710889T patent/ES2336577T3/es active Active
- 2005-02-15 WO PCT/NL2005/000108 patent/WO2005079662A1/en active Application Filing
Also Published As
Publication number | Publication date |
---|---|
US20090028461A1 (en) | 2009-01-29 |
JP2007522869A (ja) | 2007-08-16 |
DE602005017588D1 (de) | 2009-12-24 |
EP1729629A1 (en) | 2006-12-13 |
JP4739242B2 (ja) | 2011-08-03 |
ATE447880T1 (de) | 2009-11-15 |
WO2005079662A1 (en) | 2005-09-01 |
EP1566142A1 (en) | 2005-08-24 |
EP1729629B1 (en) | 2009-11-11 |
US8630465B2 (en) | 2014-01-14 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
ES2336577T3 (es) | Formacion de imagenes de estructuras ocultas. | |
CN105848566B (zh) | 用于预定生物结构的无创检测的设备 | |
ES2341079B1 (es) | Equipo para vision mejorada por infrarrojo de estructuras vasculares,aplicable para asistir intervenciones fetoscopicas, laparoscopicas y endoscopicas y proceso de tratamiento de la señal para mejorar dicha vision. | |
US8948851B2 (en) | Method and apparatus for depth-resolved fluorescence, chromophore, and oximetry imaging for lesion identification during surgery | |
US20100061598A1 (en) | Apparatus and method for recognizing subcutaneous vein pattern | |
CN103491874A (zh) | 定位和分析用于整形和再造外科的穿支皮瓣 | |
US9320437B2 (en) | Intravital observation device | |
KR101710902B1 (ko) | 근적외선 형광 진단용 무영 조명등 및 무영 조명 시스템 | |
US11350826B2 (en) | Device and method for acquisition of medical images for the analysis of ulcers | |
CA3086398A1 (en) | Patterned beam analysis of the iridocorneal angle | |
KR101669411B1 (ko) | 피부 및 치아 검사 시스템 및 방법 | |
JP2012130584A (ja) | 生体内観察装置 | |
KR200481528Y1 (ko) | 간이 조영 영상 획득 장치 | |
Dixon et al. | Toward Development of a Portable System for 3D Fluorescence Lymphography | |
Wieringa et al. | Pulse oxigraphy demonstrated on a phantom with arterial and venous regions | |
CN114041737A (zh) | 应用于内窥镜的成像装置 | |
JP5885386B2 (ja) | 生体内観察装置 | |
CN113974574A (zh) | 基于多模态光学的成像系统及成像方法 | |
AU2014338605A1 (en) | Device for non-invasive detection of predetermined biological structures | |
WO2018055061A1 (en) | Hyperspectral tissue imaging | |
Chen et al. | Spectrum Endoscope System |