ES2950643T3 - Sistemas y métodos para el análisis de afecciones cutáneas - Google Patents

Sistemas y métodos para el análisis de afecciones cutáneas Download PDF

Info

Publication number
ES2950643T3
ES2950643T3 ES18846308T ES18846308T ES2950643T3 ES 2950643 T3 ES2950643 T3 ES 2950643T3 ES 18846308 T ES18846308 T ES 18846308T ES 18846308 T ES18846308 T ES 18846308T ES 2950643 T3 ES2950643 T3 ES 2950643T3
Authority
ES
Spain
Prior art keywords
image
pixel
computing device
skin condition
camera
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
ES18846308T
Other languages
English (en)
Inventor
Jeremy Mark Massey
Syed Haroon Alam
Paul Lorenz Bigliardi
Mei Bigliardi-Qi
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Iko Pte Ltd
Original Assignee
Iko Pte Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Iko Pte Ltd filed Critical Iko Pte Ltd
Application granted granted Critical
Publication of ES2950643T3 publication Critical patent/ES2950643T3/es
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0059Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence
    • A61B5/0062Arrangements for scanning
    • A61B5/0064Body surface scanning
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/44Detecting, measuring or recording for evaluating the integumentary system, e.g. skin, hair or nails
    • A61B5/441Skin evaluation, e.g. for skin disorder diagnosis
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/44Detecting, measuring or recording for evaluating the integumentary system, e.g. skin, hair or nails
    • A61B5/441Skin evaluation, e.g. for skin disorder diagnosis
    • A61B5/444Evaluating skin marks, e.g. mole, nevi, tumour, scar
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0059Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence
    • A61B5/0077Devices for viewing the surface of the body, e.g. camera, magnifying lens
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • G06T17/20Finite element generation, e.g. wire-frame surface description, tesselation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • G06T7/0014Biomedical image inspection using an image reference approach
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0002Remote monitoring of patients using telemetry, e.g. transmission of vital signals via a communication network
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/44Detecting, measuring or recording for evaluating the integumentary system, e.g. skin, hair or nails
    • A61B5/441Skin evaluation, e.g. for skin disorder diagnosis
    • A61B5/442Evaluating skin mechanical properties, e.g. elasticity, hardness, texture, wrinkle assessment
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/74Details of notification to user or communication with user or patient ; user input means
    • A61B5/742Details of notification to user or communication with user or patient ; user input means using visual displays
    • A61B5/743Displaying an image simultaneously with additional graphical information, e.g. symbols, charts, function plots
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • G06T2207/20221Image fusion; Image merging
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30088Skin; Dermal

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Public Health (AREA)
  • Animal Behavior & Ethology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Surgery (AREA)
  • Molecular Biology (AREA)
  • Veterinary Medicine (AREA)
  • Biophysics (AREA)
  • Pathology (AREA)
  • Biomedical Technology (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Radiology & Medical Imaging (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Dermatology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Quality & Reliability (AREA)
  • Geometry (AREA)
  • Computer Graphics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Software Systems (AREA)
  • Image Processing (AREA)
  • Measuring And Recording Apparatus For Diagnosis (AREA)
  • Investigating Or Analysing Biological Materials (AREA)
  • Analysing Materials By The Use Of Radiation (AREA)
  • Image Generation (AREA)
  • Apparatus For Radiation Diagnosis (AREA)

Abstract

La siguiente divulgación analiza sistemas y métodos para detectar y analizar afecciones cutáneas. Según una realización, se capturan una imagen 2D de la afección cutánea y un conjunto de nubes de puntos 3D asociadas con la imagen 2D usando un dispositivo de captura de imágenes. La imagen 2D y el conjunto de nubes de puntos 3D se envían a un dispositivo informático. El dispositivo informático genera una superficie 3D según el conjunto de nubes de puntos 3D. Posteriormente, el dispositivo informático recibe un mapa de profundidad para la imagen 2D basado en la superficie 3D desde otro dispositivo informático de manera que el mapa de profundidad comprenda datos de profundidad para cada píxel de la imagen 2D. Luego se puede medir y analizar la condición cutánea basándose en el mapa de profundidad utilizando el dispositivo informático. (Traducción automática con Google Translate, sin valor legal)

Description

DESCRIPCIÓN
Sistemas y métodos para el análisis de afecciones cutáneas
Campo de la divulgación
La presente divulgación se refiere al procesamiento de imágenes bidimensionales (2D) junto con datos tridimensionales (3D), y más particularmente, a sistemas y métodos para analizar afecciones cutáneas para su diagnóstico y tratamiento.
Antecedentes
Los planteamientos descritos en esta sección podrían aplicarse, pero no son necesariamente planteamientos concebidos o aplicados con anterioridad. Por lo tanto, a menos que se indique lo contrario en el presente documento, los planteamientos descritos en esta sección no constituyen estado de la técnica con respecto a las reivindicaciones de esta solicitud y no se admiten como estado de la técnica por su inclusión en esta sección.
En aplicaciones dermatológicas, el método más común para el registro y diagnóstico de afecciones cutáneas o afecciones es fotografiar la afección con una escala visible en la fotografía (normalmente fotografiando la afección junto a una regla). Esto hace que el proceso de adquisición de imágenes sea lento y tedioso. Así mismo, ya que solo hay una única referencia de medición en la fotografía, las irregularidades de la superficie y las variaciones del ángulo de la cámara dan como resultado una baja precisión de medición. Algunos sistemas pueden capturar un mapa completo de la piel de un sujeto con dispositivos de adquisición de imágenes 2D y 3D, pero estos dispositivos suelen ser grandes, costosos y tienen opciones de medición limitadas. Dichos dispositivos generalmente dependen en gran medida de la percepción gestáltica y siguen requiriendo un examen meticuloso por parte de un médico o dermatólogo. El documento de patente US 2015/150457 A1 describe un sistema y un método para determinar las características de una herida. ARIKAN MURAT ET AL: "Multi-Depth-Map Raytracing for Efficient Large-Scene Reconstruction", IEEE TRANSACTIONS ON VISUALIZATION AND COMPUTER GRAPHICS, IEEE SERVICE CENTER, LOS ALAMITOS, CA, EE. UU., vol. 22, n.° 2, 1 de febrero de 2016 (2016-02-01), páginas 1127-1137 describe un método para romper las dependencias en el número de mapas de profundidad y su resolución mediante la introducción de un trazado de rayos eficiente de múltiples mapas de profundidad.
El documento de patente D3 US 2009/118600 A1 describe un sistema y método para la documentación y análisis del aspecto dermatológico de un cuerpo humano. El documento de patente US 2011/218428 A1 describe un sistema de sensor de imágenes médicas SLI que captura una o más imágenes de una lesión cutánea y genera un mapa superficial en 3D de la lesión cutánea usando técnicas SLI. El documento de patente GB 2389 500 A describe métodos para generar modelos 3D de un cuerpo a partir de datos generados por escáneres 3D.
Sumario
Se proporciona un sistema para analizar una afección cutánea de acuerdo con la reivindicación 1 y un método para analizar una afección cutánea de acuerdo con la reivindicación 13.
Breve descripción de los dibujos
En los dibujos:
la figura 1 ilustra un ejemplo de sistema para analizar afecciones cutáneas de acuerdo con una realización de la presente invención;
la figura 2 ilustra un ejemplo de dispositivo de captura de imágenes de acuerdo con una realización de la presente invención;
la figura 3 ilustra un ejemplo de sistema informático de acuerdo con una realización de la presente invención; la figura 4 ilustra un ejemplo de método para analizar afecciones cutáneas de acuerdo con una realización de la presente invención;
las figuras 5A, 5B y 5C ilustran una vista de arriba a abajo de ejemplos de etapas para generar datos de profundidad por píxel de acuerdo con una realización de la presente invención;
las figuras 6A, 6B, 6C, 6D, 6E y 6F ilustran ejemplos de etapas para filtrar el ruido de datos en un conjunto de nubes de puntos de acuerdo con una realización de la presente invención;
las figuras 7A, 7B y 7C ilustran ejemplos de etapas para generar la posición en el espacio del dispositivo de un píxel de una imagen 2D de acuerdo con una realización de la presente invención;
las figuras 8A, 8B y 8C ilustran ejemplos de etapas para generar dimensiones de píxel de un píxel de una imagen 2D de acuerdo con una realización de la presente invención;
las figuras 9A, 9B y 9C ilustran ejemplos de etapas para medir regiones de subpíxel de una imagen 2D de acuerdo con una realización de la presente invención;
La figura 10 ilustra un ejemplo de vista de la imagen 2D de salida para analizar afecciones cutáneas de acuerdo con una realización de la presente invención.
Descripción detallada de los dibujos
En la siguiente descripción, a efectos explicativos, se exponen numerosos detalles específicos con el fin de proporcionar una comprensión exhaustiva de la presente invención. Será evidente, sin embargo, que la presente invención se puede poner en práctica sin estos detalles específicos. En otros casos, se muestran estructuras y dispositivos bien conocidos en forma de diagrama de bloques, para evitar restar claridad innecesariamente a la presente invención. Las realizaciones de la presente invención se refieren a circuitos integrados. Los circuitos integrados pueden ser cualquier tipo adecuado de circuito integrado, tal como microprocesadores, circuitos integrados de aplicación específica, procesadores de señales digitales, circuitos de memoria u otros circuitos integrados. Si se desea, los circuitos integrados pueden ser circuitos integrados programables que contienen circuitos lógicos programables. En la siguiente descripción, los términos "circuitería" y "circuito" se usan indistintamente.
En los dibujos, disposiciones u órdenes específicos de elementos esquemáticos, tales como los que representan dispositivos, módulos, bloques de instrucciones y elementos de datos, pueden mostrarse para facilitar la descripción. Sin embargo, los expertos en la materia deben entender que el orden específico o la disposición de los elementos esquemáticos en los dibujos no implican que se requiera un orden o secuencia particular de procesamiento, o separación de procesos. Además, la inclusión de un elemento esquemático en un dibujo no implica que dicho elemento sea necesario en todas las realizaciones o que las características representadas por dicho elemento no puedan incluirse o combinarse con otros elementos en algunas realizaciones.
Además, en los dibujos, cuando se utilizan elementos de conexión, tales como líneas continuas o discontinuas o flechas, para ilustrar una conexión, relación o asociación entre dos o más elementos esquemáticos, la ausencia de tales elementos de conexión no implica que no pueda existir conexión, relación o asociación. En otras palabras, algunas conexiones, relaciones o asociaciones entre elementos no pueden mostrarse en los dibujos para no oscurecer la divulgación. Asimismo, para facilitar la ilustración, un solo elemento de conexión puede usarse para representar múltiples conexiones, relaciones o asociaciones entre elementos. Por ejemplo, cuando un elemento de conexión representa una comunicación de señales, datos o instrucciones, los expertos en la materia deben entender que dicho elemento puede representar una o varias trayectorias de señal (por ejemplo, un bus), según sea necesario, que afecten a la comunicación.
A continuación, se describen varias funciones que se pueden usar de forma independiente o con cualquier combinación de otras funciones. Sin embargo, es posible que cualquier característica individual no resuelva ninguno de los problemas mencionados anteriormente o que solo resuelva uno de los problemas mencionados anteriormente. Es posible que algunas de las características descritas en este documento no aborden completamente algunos de los problemas mencionados anteriormente. Aunque se proporcionan títulos, la información relacionada con un título en particular, pero que no se encuentra en la sección que tiene ese título, también se puede encontrar en otra parte de la memoria descriptiva.
La siguiente divulgación analiza sistemas y métodos para detectar y analizar afecciones cutáneas. En una realización, se describe un método para analizar una afección cutánea. Se captura una imagen 2D de la afección cutánea y un conjunto de nubes de puntos 3D asociadas con la imagen 2D usando un dispositivo de captura de imágenes. La imagen 2D y el conjunto de nubes de puntos 3D se envían a un dispositivo informático. El dispositivo informático genera una superficie 3D de acuerdo con el conjunto de nubes de puntos 3D. La superficie 3D se envía a un segundo dispositivo informático. Posteriormente, el segundo dispositivo informático calcula un mapa de profundidad para la imagen 2D basándose en la superficie 3D de manera que el mapa de profundidad comprende datos de profundidad para cada píxel de la imagen 2D. La afección cutánea puede entonces medirse y analizarse basándose en el mapa de profundidad.
Tal y como se usan en el presente documento, "afecciones cutáneas" o "características cutáneas" se refieren a cualquier afección o respuesta médica o cosmética (tal como pruebas de alergia o respuestas de exposición) que afectan al sistema tegumentario, es decir, el sistema de órganos que comprende el cuerpo e incluye la piel, pelo, uñas, membranas mucosas y músculos relacionados, grasa, glándulas y actividad de las glándulas (tal como sudor y sebo) y afecciones tales como piel seca, piel grasa, temperatura de la piel y síntomas, tales como máculas, pápulas, nódulos, vesículas, ampollas, pústulas, absceso, infección, inflamación, urticaria, costras, descamación, erosiones, úlceras, atrofia, hipertrofia, poiquilodermia, liquenificación, lunares (incluyendo melanoma y cáncer de piel), reacciones a pruebas (tales como pruebas de alergia, diagnóstico o ensayos) u otras exposiciones asociadas con dichas afecciones médicas o cosméticas. Las afecciones del sistema tegumentario humano constituyen un amplio espectro de enfermedades, también conocidas como dermatosis, así como muchos estados no patológicos. Clínicamente hablando, el diagnóstico de cualquier afección cutánea en particular se realiza mediante la recopilación de información pertinente sobre la(s) lesión(es) cutánea(s) que se presenta(n), incluida la ubicación (como brazos, cabeza, piernas), síntomas (prurito, dolor), duración (aguda o crónica), disposición (solitaria, generalizada, anular, lineal), morfología (máculas, pápulas, vesículas) y color (rojo, azul, marrón, negro, blanco, amarillo). En las siguientes divulgaciones, los términos "vóxel", "píxel volumétrico" y "píxel 3D" pueden usarse indistintamente. Tal y como se usa en el presente documento, "vóxel" o "elemento de volumen" se refiere a un valor en una cuadrícula regular en un espacio tridimensional. Al igual que con los píxeles en un mapa de bits, los vóxeles en sí no suelen tener su posición, es decir, sus coordenadas, codificadas explícitamente junto con sus valores. En cambio, la posición de un vóxel se infiere basándose en su posición en relación con otros vóxeles, que es la posición de un vóxel en la estructura de datos que constituye un único espacio volumétrico. En una realización, los vóxeles pueden estar basados en diferentes modelos, por ejemplo, modelo de vóxel cuadriculado, modelo de vóxel disperso o modelo de vóxel octree.
La figura 1 ilustra un ejemplo de sistema para analizar afecciones cutáneas de acuerdo con una realización de la presente invención. Haciendo referencia ahora a la figura 1, el dispositivo informático 106 recibe imágenes 2D y nubes de puntos 3D relacionadas de la afección cutánea 103 que afecta al sujeto 102 desde el dispositivo de captura de imágenes 104 y datos adicionales desde el servidor de procesamiento 108.
En una realización, el sujeto 102 es un ser humano afectado de una afección dermatológica, por ejemplo, melanoma, que se presenta en forma de afección cutánea 103, por ejemplo, lunares o lesiones cancerosas. En una realización, el sujeto 102 puede ser un animal, planta u otro espécimen vivo. En otra realización más, el sujeto 102 puede ser un maniquí, cadáver (humano o no), o cualquier otro objeto que pueda ser utilizado con fines de prueba. En una realización, la afección cutánea 103 puede ser un lunar, lesión, corte, abrasión, forúnculo, o alguna otra afección que afecta a una o más capas de la piel del sujeto, pelo o uñas. En una realización, el sujeto 102 yace boca abajo sobre una plataforma. En otra realización, el sujeto 102 está de pie en una plataforma. La plataforma puede ser una mesa de exploración, plataforma metálica, camilla con ruedas, cama, o cualquier otra estructura de varias formas y tamaños y hecha de diferentes materiales que sea capaz de soportar el peso del sujeto 102. En una realización, la plataforma puede ser mecanizada o motorizada, es decir, la plataforma puede ajustarse para modificar la altura (desde el suelo o piso sobre el que se apoya la plataforma), orientación, ángulo de inclinación (respecto al suelo o piso sobre el que se apoya la plataforma). La plataforma motorizada también puede ser capaz de girar.
En una realización, el dispositivo de captura de imágenes 104 gira alrededor del sujeto 102 para capturar una o más imágenes 2D y nubes de puntos 3D relacionadas de la afección cutánea 103. En una realización, el dispositivo de captura de imágenes 104 está conectado a un carro montado sobre rieles que está unido a la plataforma y el dispositivo de captura de imágenes 104 gira alrededor del sujeto 102 a lo largo de una trayectoria fija. De forma similar, el dispositivo de captura de imágenes 104 puede capturar imágenes 2D y puntos 3D de la afección cutánea 103 al girar manualmente alrededor del sujeto 102. En una realización, el dispositivo de captura de imágenes 104 gira alrededor del sujeto 102 mediante un robot que es controlado por un usuario. En una realización, el robot se puede controlar de forma remota. En otra realización, el robot puede ser controlado y manipulado automáticamente por el dispositivo informático 106 para reducir el tiempo de captura de un conjunto de imágenes 2D y nubes de puntos 3D asociadas. En una realización, el dispositivo de captura de imágenes 104 puede acoplarse comunicativamente al dispositivo informático 106 a través de Wi-Fi, Bluetooth, Comunicación de campo cercano (NFC), cable de ethernet, cable de fibra óptica, o algún otro medio de transmisión de datos.
En una realización, el dispositivo informático 106 es similar al sistema informático 300 descrito en relación con la figura 3 a continuación. En una realización, el dispositivo informático 106 puede estar acoplado comunicativamente a un segundo dispositivo informático. El segundo dispositivo informático puede realizar algunas tareas informáticas intensivas y transmitir los resultados al dispositivo informático 106. En una realización, los dos dispositivos informáticos pueden configurarse como un sistema cliente y servidor, de manera que el dispositivo informático 106 es el dispositivo cliente y el otro dispositivo informático es el servidor de procesamiento 108. En una realización, el servidor de procesamiento 108 es similar al sistema informático 300 descrito en relación con la figura 3 a continuación. En una realización, el servidor de procesamiento 108 puede ser un servidor basado en la nube para procesar imágenes y nubes de puntos 3D relacionadas o superficies 3D u otros datos relacionados con imágenes 2D. En una realización, el dispositivo informático 106 y el servidor de procesamiento 108 pueden ser uno o más dispositivos informáticos especializados que implementan las técnicas descritas en el presente documento. Los dispositivos informáticos especializados pueden estar cableados para realizar las técnicas, o pueden incluir dispositivos electrónicos digitales tales como uno o más circuitos integrados para aplicaciones específicas (ASIC), matrices de puertas lógicas programables en campo (FPGA) u otros dispositivos lógicos programables (PLD) que están programados persistentemente para realizar las técnicas, o pueden incluir uno o más procesadores de hardware de propósito general programados para realizar las técnicas de acuerdo con las instrucciones del programa en el firmware, memoria, otro almacenamiento, o una combinación. Dichos dispositivos informáticos especializados también pueden combinar lógica cableada personalizada, ASIC o FPGA con programación personalizada para lograr las técnicas. Los dispositivos informáticos especializados pueden ser sistemas informáticos de sobremesa, sistemas informáticos portátiles, dispositivos portátiles, dispositivos de red o cualquier otro dispositivo que incorpore lógica cableada y/o de programa para implementar las técnicas.
La figura 2 ilustra un ejemplo de dispositivo de captura de imágenes de acuerdo con una realización de la presente invención. Haciendo referencia ahora a la figura 2, el dispositivo de captura de imágenes 104 puede incorporar una cámara 2D 204 acoplada comunicativamente al dispositivo 3D 206. La cámara 2D 204 y el dispositivo 3D 206 pueden compartir el aparato de flash 210. El dispositivo de captura de imágenes 104 puede ser alimentado por la batería 212 y controlado o dirigido por el sistema en chip 208.
En una realización, la cámara 2D 204 es una cámara en color 2D de alta resolución. En una realización, la cámara 2D 204 es una cámara digital. Por ejemplo, la cámara 2D 204 puede ser una cámara compacta, una cámara de teléfono inteligente, cámara sin espejo, una cámara réflex digital de único objetivo, un visor electrónico, cámara de objetivos intercambiables, o una cámara de formato medio. En una realización, la cámara 2D 204 puede tener una resolución entre ocho y doscientos megapíxeles. En una realización, la cámara 2D 204 puede tener más de un objetivo. Por ejemplo, la cámara 2D 204 puede tener un objetivo para capturar imágenes en color y un objetivo para capturar imágenes monocromáticas, que después se unen mediante el sistema en chip 208. En otra realización, la cámara 2D 204 puede ser una cámara analógica. Por ejemplo, la cámara 2D 204 puede ser una cámara de película o una cámara de gran formato.
En una realización, la cámara 2D 204 está comunicativamente acoplada al dispositivo 3D 206. El dispositivo 3D 206 puede ser una cámara de profundidad de luz estructurada que utiliza proyección infrarroja para la generación de nubes de puntos 3D. El dispositivo 3D 206 puede ser un escáner 3D sin contacto. Por ejemplo, el dispositivo 3D 206 puede ser un escáner láser 3D de tiempo de vuelo, un escáner 3D basado en triangulación, un escáner 3D de luz modulada o un escáner 3D volumétrico.
En una realización, la cámara 2D 204 y el dispositivo 3D 206 están acoplados comunicativamente al sistema en chip 208. El sistema en chip 208 puede ser uno o más dispositivos informáticos especializados como se ha descrito anteriormente. En una realización, el sistema en chip 208 puede incluir un microcontrolador, microprocesador, controlador del sistema, procesador de gráficos, memoria, procesador de señales digitales y otros componentes de circuitos integrados. En una realización, el sistema en chip 208 puede ser similar al sistema informático 300 descrito a continuación en relación con la figura 3. En una realización, el sistema en chip 208 se utiliza para el procesamiento en tiempo real de imágenes y datos capturados por el dispositivo de captura de imágenes 104. En una realización, el sistema en chip 208 implementa un entorno operativo y una interfaz de usuario para procesar y responder a los comentarios recibidos de los usuarios del dispositivo de captura de imágenes 104.
En una realización, la batería 212 alimenta el dispositivo de captura de imágenes 104. La batería 212 puede ser una batería secundaria o recargable. Por ejemplo, la batería 212 es una batería de iones de litio, batería de polímero de litio o batería de níquel-cadmio. En una realización, la batería 212 es una batería primaria o no recargable. Por ejemplo, la batería 212 puede ser una batería alcalina o una batería de zinc-carbono. La batería 212 permite a un usuario capturar el conjunto de imágenes 2D y el conjunto de nubes de puntos 3D de forma inalámbrica.
En una realización, el aparato de flash 210 se usa para iluminar la afección cutánea 103. En una realización, el aparato de flash 210 es una matriz de luz LED conectada al sistema en chip 208 en el dispositivo de captura de imágenes 104. En otra realización, el aparato de flash 210 está comunicativamente acoplado pero es distinto del dispositivo de captura de imágenes 104. Por ejemplo, el aparato de flash 210 puede incluir una o más bombillas de flash, aparato de flash electrónico, dispositivo de flash de alta velocidad o dispositivo de flash de espacio de aire. En una realización, el aparato de flash 210 también se usa para iluminar la afección cutánea 103 durante la adquisición de nubes de puntos 3D. En una realización, el dispositivo de captura de imágenes 104 también puede incluir una pantalla táctil que se puede usar para el control, entrada y retroalimentación del usuario. La pantalla táctil puede ser una pantalla táctil capacitiva o una pantalla táctil resistiva. En una realización, el dispositivo de captura de imágenes 104 incluye un dispositivo de almacenamiento de memoria para almacenar imágenes 2D y nubes de puntos 3D relacionadas con la afección cutánea 103. El dispositivo de almacenamiento de memoria puede ser un dispositivo de almacenamiento de flash o un dispositivo de almacenamiento no volátil, por ejemplo, una tarjeta digital segura (SD).
La figura 3 ilustra un sistema informático 300 en el que se puede implementar una realización de la invención. El sistema informático 300 incluye un bus 302 u otro mecanismo de comunicación para comunicar información y un procesador de hardware 304 acoplado con el bus 302 para procesar información. El procesador de hardware 304 puede ser, por ejemplo, un microprocesador especializado.
El sistema informático 300 también incluye una memoria principal 306, tal como una memoria de acceso aleatorio (RAM) u otro dispositivo de almacenamiento dinámico, acoplado al bus 302 para almacenar información e instrucciones para ser ejecutadas por el procesador 304. La memoria principal 306 también se puede usar para almacenar variables temporales u otra información intermedia durante la ejecución de instrucciones para ser ejecutadas por el procesador 304. Tales instrucciones, cuando se almacenan en medios de almacenamiento no transitorios accesibles al procesador 304, convierten el sistema informático 300 en una máquina especializada que se personaliza para realizar las operaciones especificadas en las instrucciones.
El sistema informático 300 puede incluir un bus 302 u otro mecanismo de comunicación para comunicar información y un procesador de hardware 304 acoplado con el bus 302 para procesar información. El procesador de hardware 304 puede ser, por ejemplo, un microprocesador especializado.
El sistema informático 300 también incluye una memoria principal 306, tal como una memoria de acceso aleatorio (RAM) u otro dispositivo de almacenamiento dinámico, acoplado al bus 302 para almacenar información e instrucciones para ser ejecutadas por el procesador 304. La memoria principal 306 también se puede usar para almacenar variables temporales u otra información intermedia durante la ejecución de instrucciones para ser ejecutadas por el procesador 304. Tales instrucciones, cuando se almacenan en medios de almacenamiento no transitorios accesibles al procesador 304, convierten el sistema informático 300 en una máquina especializada que se personaliza para realizar las operaciones especificadas en las instrucciones.
El sistema informático 300 incluye además una memoria de solo lectura (ROM, read only memory) 308 u otro dispositivo de almacenamiento estático acoplado al bus 302 para almacenar información estática e instrucciones para el procesador 304. Se proporciona un dispositivo de almacenamiento 310, tal como un disco magnético, un disco óptico o una unidad de estado sólido y se acopla al bus 302 para almacenar información e instrucciones.
El sistema informático 300 puede acoplarse a través del bus 302 a una pantalla 312, tal como un tubo de rayos catódicos (CRT), una pantalla de cristal líquido (LCD), pantalla de plasma, pantalla de diodo de emisión de luz (LED), o una pantalla de diodo orgánico de emisión de luz (OLED) para mostrar información a un usuario de ordenador. Un dispositivo de entrada 314, incluidas las claves alfanuméricas y de otro tipo, se acopla al bus 302 para comunicar información y selecciones de comandos al procesador 304. Otro tipo de dispositivo de entrada de usuario es el controlador de cursor 316, tal como un ratón, una bola de seguimiento, una pantalla táctil o teclas de dirección del cursor para comunicar información de dirección y selecciones de comando al procesador 304 y para controlar el movimiento del cursor en la pantalla 312. Este dispositivo de entrada normalmente tiene dos grados de libertad en dos ejes, un primer eje (por ejemplo, x) y un segundo eje (por ejemplo, y), que permite al dispositivo especificar posiciones en un plano.
De acuerdo con una realización, las técnicas del presente documento las lleva a cabo el sistema informático 300 en respuesta al procesador 304 ejecutando una o más secuencias de una o más instrucciones contenidas en la memoria principal 306. Tales instrucciones pueden leerse en la memoria principal 306 desde otro medio de almacenamiento, tal como el dispositivo de almacenamiento 310. La ejecución de las secuencias de instrucciones contenidas en la memoria 306 hace que el procesador 304 lleve a cabo las etapas del proceso descrito en el presente documento. En las realizaciones alternativas, los circuitos cableados pueden usarse en lugar de o en combinación con las instrucciones del software.
La expresión "medios de almacenamiento" como se usa en el presente documento se refiere a cualquier medio no transitorio que almacene datos y/o instrucciones que hacen que una máquina funcione de una manera específica. Dichos medios de almacenamiento pueden comprender medios no volátiles y/o medios volátiles. Los medios no volátiles incluyen, por ejemplo, discos ópticos, discos magnéticos o unidades de estado sólido, tal como el dispositivo de almacenamiento 310. Los medios volátiles incluyen memoria dinámica, tal como la memoria principal 306. Las formas comunes de medios de almacenamiento incluyen, por ejemplo, un disquete, un disco flexible, un disco duro, unidades de estado sólido, cinta magnética, o cualquier otro medio magnético de almacenamiento de datos, un CD-ROM, cualquier otro medio de almacenamiento de datos ópticos, cualquier medio físico con patrones de agujeros, una RAM, una PROM, y una EPROM, una FLASH-EPROM, una NV-RAM o cualquier otro chip o cartucho de memoria.
Los medios de almacenamiento son distintos pero pueden usarse junto con los medios de transmisión. Los medios de transmisión participan en la transferencia de información entre medios de almacenamiento. Por ejemplo, los medios de transmisión incluyen cables coaxiales, cables de cobre y fibra óptica, incluyendo los cables que comprenden el bus 302. Los medios de transmisión también pueden tomar la forma de ondas acústicas o de luz, como los generados durante las comunicaciones de datos por ondas de radio e infrarrojos.
Varias formas de medios pueden estar involucradas en llevar una o más secuencias de una o más instrucciones al procesador 304 para su ejecución. Por ejemplo, las instrucciones pueden llevarse inicialmente en un disco magnético o en una unidad de estado sólido de un ordenador remoto. El ordenador remoto puede cargar las instrucciones en su memoria dinámica y enviar las instrucciones a través de una línea telefónica usando un módem. Un módem local del sistema informático 300 puede recibir los datos en la línea telefónica y utilizar un transmisor de infrarrojos para convertir los datos en una señal infrarroja. Un detector de infrarrojos puede recibir los datos transportados en la señal infrarroja y los circuitos apropiados pueden colocar los datos en el bus 302. El bus 302 lleva los datos a la memoria principal 306, desde el cual el procesador 304 recupera y ejecuta las instrucciones. Las instrucciones recibidas por la memoria principal 306 pueden almacenarse opcionalmente en el dispositivo de almacenamiento 310 antes o después de la ejecución por parte del procesador 304.
El sistema informático 300 también incluye una interfaz de comunicación 318 acoplada al bus 302. La interfaz de comunicación 318 proporciona un acoplamiento de comunicación de datos bidireccional a un enlace de red 320 que está conectado a una red local 322. Por ejemplo, la interfaz de comunicación 318 puede ser una tarjeta de red digital de servicios integrados (ISDN), módem por cable, módem satelital, o un módem para proporcionar una conexión de comunicación de datos a un tipo correspondiente de línea telefónica. Como otro ejemplo, la interfaz de comunicación 318 puede ser una tarjeta de red de área local (LAN) para proporcionar una conexión de comunicación de datos a una LAN compatible. También se pueden implementar enlaces inalámbricos. En cualquier implementación de este tipo, la interfaz de comunicación 318 envía y recibe señales eléctricas, electromagnéticas u ópticas que transportan flujos de datos digitales que representan varios tipos de información. Por ejemplo, los enlaces inalámbricos pueden implementarse mediante el uso de tecnologías de red como WiFi, Bluetooth, infrarrojos y comunicación de campo cercano (NFC), entre otros. El enlace de red 320 normalmente proporciona comunicación de datos a través de una o más redes a otros dispositivos de datos. Por ejemplo, el enlace de red 320 puede proporcionar una conexión a través de la red local 322 a un ordenador anfitrión 324 o a un equipo de datos dirigido por un Proveedor de Servicios de Internet (ISP, Internet Service Provider) 326. El ISP 326, a su vez, proporciona servicios de comunicación de datos a través de la red mundial de comunicación de paquetes de datos ahora comúnmente conocida como "Internet" 328. Tanto la red local 322 como Internet 328 usan señales eléctricas, electromagnéticas u ópticas que transportan flujos de datos digitales. Las señales a través de las diversas redes y las señales en el enlace de red 320 y a través de la interfaz de comunicación 318, que transportan los datos digitales hacia y desde el sistema informático 300, son ejemplos de formas de medios de transmisión.
El sistema informático 300 puede enviar mensajes y recibir datos, incluyendo un código de programa, a través de la(s) red(es), del enlace de red 320 y de la interfaz de comunicación 318. En el ejemplo de Internet, un servidor 330 podría transmitir un código solicitado para un programa de aplicación a través de Internet 328, de ISP 326, de la red local 322 y de la interfaz de comunicación 318.
El procesador 304 puede ejecutar el código recibido a medida que se recibe y/o almacena en el dispositivo de almacenamiento 310 u otro almacenamiento no volátil para una ejecución posterior.
La figura 4 ilustra un ejemplo de método para analizar afecciones cutáneas de acuerdo con una realización de la presente invención. A los efectos de ilustrar ejemplos claros, la figura 4 se analizará en relación con la figura 1, la figura 2 y la figura 3.
Haciendo referencia ahora a la figura 4, en el bloque 402, el dispositivo informático 106 recibe una imagen 2D de la afección cutánea 103 y un conjunto de nubes de puntos 3D asociadas con la imagen 2D. En una realización, la imagen 2D y el conjunto de nubes de puntos 3D son capturados por el dispositivo de captura de imágenes 104. En una realización, cada punto 3D de cada nube de puntos 3D del conjunto de nubes de puntos 3D corresponde al menos a un píxel de la imagen 2D. En una realización, cuando el dispositivo de captura de imágenes 104 activa una captura, la cámara 2D captura y almacena una imagen en color 2D en el dispositivo de captura de imágenes 104 usando el sistema en chip 208.
En una realización, el dispositivo 3D 206 captura y almacena múltiples nubes de puntos 3D en el dispositivo 104 de captura de imágenes durante un evento de captura. De manera ideal, cada nube de puntos puede estar compuesta por tantos puntos como píxeles haya en la imagen 2D correspondiente. Sin embargo, en la práctica, solo se capturan los puntos correspondientes a ciertos píxeles debido a las limitaciones en los métodos de imágenes de profundidad causadas por las restricciones de resolución del sensor, limitaciones de resolución y óptica del proyector. En una realización, el dispositivo 3D 206 adquiere múltiples nubes de puntos para cada evento de captura individual para eliminar el ruido en los datos comparando las diferencias en las múltiples nubes de puntos. En una realización, la frecuencia operativa del dispositivo 3D 206 está determinada por el sistema en chip 208. Por ejemplo, el dispositivo 3D 206 puede operar a una frecuencia nominal de sesenta hercios para capturar una cantidad de nubes de puntos con un intervalo de tiempo mínimo para minimizar la posible desalineación causada por el movimiento del dispositivo de captura de imágenes 104 durante el proceso de adquisición de datos mientras proporciona suficientes datos para el filtrado de ruido.
En una realización, el dispositivo de captura de imágenes 104 envía el conjunto de imágenes 2D y el conjunto de nubes de puntos 3D al dispositivo informático 106. En una realización, las imágenes 2D y las nubes de puntos 3D se envían a través de una conexión de red cableada o inalámbrica de alta velocidad, por ejemplo una conexión Wi-Fi, Ethernet o de fibra óptica. En una realización, el dispositivo de captura de imágenes 104 encripta el conjunto de imágenes 2D y el conjunto de nubes de puntos 3D y transmite el conjunto encriptado de imágenes 2D y el conjunto de nubes de puntos 3D al dispositivo informático 106 a través de un canal de comunicación seguro. Por ejemplo, el dispositivo de captura de imágenes 104 puede encriptar el conjunto de imágenes 2D y el conjunto de nubes de puntos 3D usando una función hash criptográfica. En una realización, el dispositivo de captura de imágenes 104 puede comprimir los conjuntos de imágenes 2D y nubes de puntos 3D antes de enviarlas al dispositivo informático 106. Los conjuntos comprimidos de imágenes 2D y nubes de puntos 3D pueden reducir los recursos, por ejemplo tiempo, ancho de banda y ciclos de procesamiento, para transmitir los datos al dispositivo informático 106. El dispositivo de captura de imágenes 104 puede usar técnicas de compresión de datos con pérdida o sin pérdida y estándares de compresión, por ejemplo, grupo de expertos en imágenes en movimiento (MPEG) 1,2,4 o codificación de vídeo de alta eficiencia (HEVC) H.261, H.262, H.264, H.265, grupo conjunto de expertos en fotografía (JPEG), gráficos de red portátiles (PNG), gráficos de red de imágenes múltiples (MNG) o formatos de archivo de imagen etiquetada (TIFF).
En la etapa 404, el dispositivo informático 106 genera una superficie 3D a partir del conjunto de nubes de puntos 3D. En una realización, el dispositivo informático 106 realiza el filtrado de nubes de puntos 3D antes de generar la superficie 3D. El proceso de filtrado de nubes de puntos se analiza más adelante con referencia a las figuras 6A-6F. En una realización, la superficie 3D es una malla 3D triangulada de alta resolución que comprende un conjunto de triángulos que están conectados por sus bordes o esquinas comunes derivados de los datos de nube de puntos 3D filtrada. En una realización, la superficie 3D es una malla 3D interpolada.
En la etapa 406, el dispositivo informático 106 recibe un mapa de profundidad para la imagen 2D basándose en la superficie 3D de manera que el mapa de profundidad comprende datos de profundidad para cada píxel de la imagen 2D. En una realización, el dispositivo informático 106 genera el mapa de profundidad. En una realización, la malla 3D interpolada generada en la etapa 404 se usa después para emisión de rayos para producir datos de profundidad por píxel para cada píxel de la imagen 2D. Tal y como se usan en el presente documento, "emisión de rayos" se refiere a algoritmos de gráficos por ordenador que utilizan el algoritmo geométrico de trazado de rayos. La idea detrás de la emisión de rayos es trazar rayos desde la cámara, uno por píxel y encontrar la superficie más cercana que bloquea la trayectoria de ese rayo. En una realización, los datos de profundidad por píxel también representan la resolución y las propiedades conocidas de la cámara del dispositivo de captura de imágenes 104 o la cámara 2D 204. En otra realización, el dispositivo informático 106 descarga la generación del mapa de profundidad al servidor de procesamiento 108 y recibe el mapa de profundidad del servidor de procesamiento 108 a través de la interfaz de comunicación 318 y el enlace de red 320 descrito anteriormente en relación con la figura 3. En una realización, la superficie 3D generada en la etapa 404 se transmite al servidor de procesamiento 108. El servidor de procesamiento 108 después implementa un algoritmo de emisión de rayos para generar datos de profundidad por píxel para cada píxel de la imagen 2D. Los datos por píxel se transmiten después al dispositivo informático 106. En una realización, el servidor de procesamiento 108 genera datos de profundidad por píxel para cada imagen 2D capturada durante cada evento de captura.
En la etapa 408, la afección cutánea 103 es analizada por el dispositivo informático 106 basándose en el mapa de profundidad. En otra realización, la afección cutánea 103 también puede ser analizada por el servidor de procesamiento 108. En una realización, las mediciones actuales de la afección cutánea 103 pueden compararse con mediciones anteriores de la afección cutánea 103 almacenadas por el dispositivo informático 106 o el servidor de procesamiento 108 con fines de diagnóstico. Por ejemplo, si la afección cutánea 103 es una lesión que anteriormente se midió en dos centímetros de ancho y actualmente mide cuatro centímetros de ancho, entonces un médico puede sospechar que la afección cutánea 103 que está presente en el sujeto 102 se está extendiendo y puede requerir una investigación diagnóstica adicional. En una realización, el dispositivo informático 106 o el servidor de procesamiento 108 genera automáticamente sugerencias basándose en la comparación de las mediciones actuales y previamente almacenadas de la afección cutánea 103. En una realización, el dispositivo informático 106 o el servidor de procesamiento pueden almacenar los mapas de profundidad en dispositivos de almacenamiento similares al dispositivo de almacenamiento 310 descrito anteriormente en relación con la figura 3.
En una realización, el servidor de procesamiento 108 puede combinar la superficie 3D generada para cada imagen 2D para cada evento de captura para generar una superficie 3D que represente alguna parte del cuerpo del sujeto 102. En una realización, el servidor de procesamiento 108 puede calibrarse para detectar ciertas afecciones cutáneas automáticamente. Por ejemplo, el servidor de procesamiento 108 puede detectar automáticamente lunares de un tamaño superior a cinco milímetros y corregir la región de la imagen de la imagen 2D que contiene el lunar detectado basándose en el ángulo de la cámara y la superficie que proporciona una placa limpia para el análisis de la imagen.
En una realización, el servidor de procesamiento 108 puede generar una puntuación de malignidad para cada afección cutánea basándose en criterios preprogramados. Por ejemplo, algunos de los criterios preprogramados pueden incluir: asimetría de la afección cutánea 103 relativa a un eje particular, bordes de la afección cutánea 103 que pueden indicar crecimiento irregular, número, variedad y variación en el color de la afección cutánea 103, diámetro de la afección cutánea 103, elevación de la afección cutánea 103 por encima de la superficie dérmica, y evolución de la afección cutánea 103 a lo largo del tiempo. Los expertos en la materia apreciarán que la lista de criterios preprogramados se pueda ampliar o definir más basándose en la evolución de la comprensión médica con respecto a las afecciones cutáneas y los indicadores de malignidad.
En una realización, el procesamiento del servidor 108 genera una puntuación de malignidad combinada para el sujeto 102 basándose en las puntuaciones de malignidad para las diversas afecciones cutáneas. En una realización, las diversas puntuaciones de malignidad y la puntuación de malignidad combinada son transmitidas por el servidor de procesamiento 108 al dispositivo informático 106 para su posterior análisis por parte de un médico. En una realización, el servidor de procesamiento 108 compara las diversas puntuaciones de malignidad actuales y las puntuaciones de malignidad combinadas con las diversas puntuaciones de malignidad y las puntuaciones de malignidad combinadas previamente almacenadas.
Las figuras 5A, 5B y 5C ilustran una vista desde arriba de ejemplos de etapas para generar datos de profundidad por píxel de acuerdo con una realización de la presente invención. A los efectos de ilustrar ejemplos claros, las figuras 5A, 5B y 5C se analizarán en relación con las figuras 1 -4.
Haciendo referencia ahora a la figura 5A, en una realización, el dispositivo de captura de imágenes 104 captura y almacena una imagen 2D junto con una nube de puntos 3D relacionada del sujeto 102 afectado por la afección cutánea 103. En una realización, la imagen 2D está compuesta por píxeles 2D 504 y la nube de puntos 3D está compuesta por puntos 3D 502. En una realización, el dispositivo de captura de imágenes 104 almacena un conjunto de nubes de puntos 3D asociadas con la imagen 2D antes de enviarla al dispositivo informático 106 para su procesamiento en una etapa posterior. Haciendo referencia ahora a la figura 5B, en una realización, el dispositivo informático 106 utiliza puntos 3D 502 de la nube de puntos 3D para generar una superficie 3D 506. En una realización, la superficie 3D 506 es una malla de superficie 3D interpolada del sujeto 102. En una realización, el dispositivo informático 106 filtra el conjunto de nubes de puntos compuesto por puntos 3D 502 antes de generar la superficie 3D 506 como se describe en las figuras 6A, 6B, 6C, 6D y 6E a continuación. En una realización, el dispositivo informático 106 utiliza una variedad de técnicas de interpolación para producir una geometría de superficie suavizada correspondiente a la geometría superficial del sujeto 102.
Por ejemplo, el dispositivo informático 106 puede utilizar el método spline para interpolar la superficie 3D 506 estimando los valores de las celdas de la cuadrícula ajustando una superficie de curvatura mínima a los puntos 3D 502. De forma similar, el método ponderado de distancia inversa (IDW) para interpolar superficies 3D estima los valores de las celdas promediando los valores de los puntos 3D cercanos 502. Cuanto más cerca esté un punto 3D del centro de la celda que se está estimando, más peso se le da al punto 3D. Otra técnica de interpolación que puede ser utilizada por el dispositivo informático 106 es la técnica de vecinos naturales. Esta técnica usa un promedio ponderado de puntos 3D vecinos y crea una superficie 3D 506 que no excede los valores mínimo o máximo en las nubes de puntos 3D. Otra técnica de interpolación adicional es la técnica de kriging. La técnica de kriging implica formar pesos a partir de valores medidos circundantes para predecir valores en ubicaciones no medidas. Los expertos en la materia apreciarán que la invención descrita se puede implementar junto con una amplia variedad de técnicas para interpolar la superficie 506 en 3D. Haciendo referencia ahora a la figura 5C, en una realización, el dispositivo informático 106 calcula la distancia de los puntos en la superficie 3D 506 correspondiente a cada píxel de los píxeles 504 de la imagen 2D según se observa desde el punto de vista del dispositivo de captura de imágenes 104. En una realización, el dispositivo informático 106 transmite la superficie 3D 506 al servidor de procesamiento 108 y el servidor de procesamiento 108 utiliza varias técnicas para calcular la distancia de los puntos en la superficie 3D 506 correspondiente a cada píxel de los píxeles 504 de la imagen 2D según se observa desde el punto de vista del dispositivo de captura de imágenes 104. En una realización, el dispositivo informático 106 o el servidor de procesamiento 108 utilizan técnicas de emisión de rayos para calcular la distancia de los píxeles 502.
En una realización, el dispositivo informático 106 traza un rayo por cada píxel de imagen 2D de manera que el rayo se origina en un dispositivo de captura de imágenes simulado y pasa a través del píxel. Entonces, el rayo puede intersectar la superficie 3D 506 y producir una medición de profundidad para el píxel. En una realización, el dispositivo informático 106 utiliza un algoritmo de trazado de rayos para generar datos de profundidad para cada píxel de la imagen 2D. Los expertos en la materia apreciarán que los métodos descritos anteriormente para calcular los datos de profundidad no son limitativos. Se pueden utilizar otras técnicas de medición de intersecciones y distancias superficiales. En una realización, los datos de profundidad por píxel generados por el dispositivo informático 106 mediante la aplicación de técnicas de proyección de rayos pueden almacenarse en una estructura de datos. Por ejemplo, la estructura de datos puede ser una matriz o una lista. Los expertos en la materia apreciarán que los datos de profundidad por píxel corresponden a valores de distancia reales. Los valores de distancia reales se basan en unidades de medida (por ejemplo, metros o pulgadas), de modo que un valor de 0,63728 correspondería a 0,63728 metros o a 63,728 cm. Los valores de distancia reales no requieren descodificación ni interpolación adicional. En una realización, los datos de profundidad por píxel pueden ser utilizados por el dispositivo informático 106 o el servidor de procesamiento 108 para una medición, detección y análisis adicional de afecciones cutáneas.
Las figuras 6A, 6B, 6C, 6D, 6E y 6F ilustran un ejemplo de método de filtrado de ruido de datos en un conjunto de nubes de puntos de acuerdo con una realización de la presente invención. A los efectos de formular ejemplos claros, las figuras 6A, 6B, 6C, 6D, 6E y 6F se analizarán con referencia a la figura 1-5. Las figuras 6A, 6B y 6c representan un conjunto de entrada de nubes de puntos 3D 602 que pueden ser capturadas por el dispositivo 3D 206 del dispositivo de captura de imágenes 104. En una realización, cada nube de puntos en el conjunto de nubes está relacionada con un evento de captura y uno o más píxeles de una imagen 2D capturada por la cámara 2D 204.
En una realización, el conjunto de entrada de nubes de puntos 3D 602 está sujeto a mecanismos de eliminación de ruido que utilizan verificación de vecinos basada en vóxeles similar a la técnica de vecinos naturales y promediación de posición de puntos similar a IDW como se describe anteriormente en relación con las figuras 5A-5C.
Haciendo referencia ahora a la figura 6D, en una realización, el dispositivo informático 106 combina un conjunto de entrada de nubes de puntos 602 para generar una nube de puntos 3D compuesta 604. En una realización, la nube de puntos 3D compuesta 604 se genera basándose en la comparación de la variación a través de las regiones del conjunto de entrada de nubes de puntos 602 usando la división de nubes basada en vóxeles a través de los límites del conjunto de entrada de nubes de puntos 602.
Haciendo referencia ahora a las figuras 6E y 6F, en una realización, el dispositivo informático 106 genera una nube de puntos 3D filtrada 608 usando la técnica de posicionamiento de vóxeles vecinos 606. Por ejemplo, por cada vóxel, se requiere que un punto esté presente en un número mínimo de nubes de puntos antes de que se determine que los puntos en el vóxel son válidos y se use un promedio de sus posiciones para esa región. Esto elimina los puntos 3D que pueden considerarse ruido de datos, ya que el ruido normalmente solo existe en nubes individuales y es poco probable que persista en todas las nubes de puntos en el conjunto de entrada de nubes de puntos 602. En una realización, el dispositivo informático 106 puede realizar un filtrado adicional en la nube de puntos 3D filtrada 608 para eliminar los segmentos atípicos, suavizar el pequeño ruido que no se eliminó en la eliminación de ruido de múltiples cuadros y estructurar los datos de puntos 3D de una manera más adecuada para la triangulación. Por ejemplo, algunas técnicas para realizar un filtrado adicional pueden incluir la estimación normal del punto de ajuste del plano, simplificación y filtrado bilateral. Las figuras 7A, 7B y 7C ilustran ejemplos de etapas para generar la posición en el espacio del dispositivo de un píxel de una imagen 2D de acuerdo con una realización de la presente invención. A los efectos de ilustrar ejemplos claros, las figuras 7A-7C se analizarán en relación con las figuras 1 -4. Tal y como se usan en el presente documento, "espacio del dispositivo" se refiere a una posición 3D en un sistema de coordenadas relativo al dispositivo de tal manera que el dispositivo tiene una posición y orientación en el origen (0, 0, 0). Por ejemplo, para las figuras 7A-C el dispositivo de captura de imágenes 104 está en el origen.
Haciendo referencia ahora a las figuras 7A-7C, en una realización, los datos de profundidad por píxel o el mapa de profundidad generado por el dispositivo informático 106 o el servidor de procesamiento 108 en la etapa 406 como se describe en relación con la figura 4 puede utilizarse para calcular las dimensiones de un píxel determinado en la imagen 2D mediante el dispositivo informático 106 o el servidor de procesamiento 108. Las dimensiones de píxel de los píxeles que capturan la afección cutánea 103 pueden ser útiles para analizar la afección cutánea 103.
En una realización, las dimensiones de un píxel dado pueden calcularse de acuerdo con el valor de profundidad del píxel dado y cuatro píxeles vecinos. En una realización, los valores de profundidad de los cuatro píxeles vecinos ayudan a establecer las ubicaciones reales o del mundo real de las cuatro esquinas del píxel. Por ejemplo, con referencia a la figura 7A, las dimensiones del píxel p se pueden calcular basándose en el valor de profundidad de los cuatro píxeles vecinos p1N, p2N, p3N y p4N.
Para calcular las posiciones en el espacio del dispositivo de los píxeles p, p1N, p2N, p3N y p4N primero se asignan coordenadas bidimensionales a los píxeles. Por ejemplo, con referencia a la figura 7B, a los pixeles p, p1N, p2N, p3N y p4N se les asignan coordenadas (1, 1), (0, 2), (2, 2), (0, 0) y (2, 0) respectivamente. Otras realizaciones pueden usar otras coordenadas. Se puede usar cualquier coordenada arbitraria siempre que se use el mismo esquema de coordenadas para todos los píxeles en la imagen 2D.
Con referencia a la figura 7C, en una realización, el método para calcular las dimensiones del píxel p dado utiliza el campo de visión horizontal 0 h conocido y el campo de visión vertical 0 v de la cámara 2D 204 para calcular la posición en el espacio de la cámara de cada píxel en 3 dimensiones. En una realización, el dispositivo informático 106 o el servidor de procesamiento 108 determina la posición en el espacio del dispositivo de los píxeles p, p1N, p2N, p3N y p4N basándose en los parámetros anteriores. En una realización, las posiciones en el espacio del dispositivo de los píxeles p, p1N, p2N, p3N y p4N se calculan de acuerdo con la siguiente fórmula:
Figure imgf000010_0001
En la fórmula anterior, D representa la profundidad del píxel dado, C representa las coordenadas del píxel como se comentó anteriormente en referencia a la figura 7B, representando Ch y Cv el valor de las coordenadas horizontal y vertical respectivamente y representando R la resolución de la imagen total, representando Rh y Rv la resolución horizontal y vertical respectivamente. 0 h y 0 v representan ángulos de campo de visión horizontal y vertical de la cámara 2D 204. Las posiciones en el espacio del dispositivo así calculadas por el dispositivo informático 106 para los píxeles p, p1N, p2N, p3N y p4N permite realizar otras mediciones del píxel p basándose en la medición del área o de la trayectoria deseada. Los expertos en la materia apreciarán que utilizar una evaluación por píxeles permite una medición precisa de las características de la superficie independientemente del contorno y el ángulo de la cámara o dispositivo. Así mismo, al calcular las dimensiones de una región que abarca múltiples píxeles, por ejemplo, dimensiones de la afección cutánea 103, se usa el mismo proceso en todos los píxeles relevantes con una suma del resultado de cada píxel que representa el resultado de la región que se mide.
Las figuras 8A, 8B y 8C ilustran ejemplos de etapas para generar dimensiones de píxel de un píxel de una imagen 2D de acuerdo con una realización de la presente invención. A los efectos de ilustrar ejemplos claros, los ejemplos 8A-C se analizarán en relación con las figuras 7A-7C.
Haciendo referencia ahora a las figuras 8A-8C, en una realización, el dispositivo informático 106 o el servidor de procesamiento 108 calcula las dimensiones de píxel de un píxel dado basándose en la posición en el espacio del dispositivo previamente determinada del píxel dado y sus píxeles vecinos en las figuras 7A-7C. Continuando con el ejemplo anterior, después de determinar las posiciones en el espacio de la cámara de los píxeles p, p1N, p2N, p3N y p4N, el dispositivo informático 106 o el servidor de procesamiento 108 genera vectores de esquina en el espacio del píxel usando la sustracción de vectores. Tal y como se usan en el presente documento, "espacio del píxel" se refiere a una posición 3D relativa a la posición 3D correspondiente de un píxel de referencia de modo que la posición 3D del píxel de referencia está en el origen (0, 0, 0).
Así mismo, "vector de esquina" se refiere a la ubicación 3D de cada esquina del píxel dado en el espacio del píxel. Con referencia a la figura 8A, Pos. y Posf_4 se refieren a los vectores de posición de los píxeles p y pf_4 respectivamente. Con referencia a la figura 8B, V 1-4 se refieren a los vectores de esquina para un píxel p dado. Los vectores de esquina se calculan de acuerdo con la siguiente fórmula:
Figure imgf000011_0003
Por tanto, si Pos = X 0 , y0, Z0 y Pos" = Xi,yi,zi, entonces:
Figure imgf000011_0002
Haciendo referencia ahora a la figura 8C, en una realización, el dispositivo informático 106 o el servidor de procesamiento 108 utilizan los vectores de esquina para calcular las dimensiones horizontal y vertical del píxel. En una realización, las dimensiones se calculan de acuerdo con las siguientes fórmulas:
hvt =V2 - V 1
Figure imgf000011_0001
Los vectores de esquina se calculan en pares para dimensiones horizontales y verticales, representando ht la dimensión horizontal superior, representando hb la dimensión horizontal inferior, representando vi la dimensión vertical izquierda y representando vr la dimensión vertical derecha. X0 , y0 , Z0 representan el vector de posición para el píxel dado. En una realización, solo se requieren dos de las cuatro dimensiones para una mayor medición o análisis de la afección cutánea 103. Por ejemplo, solo se puede requerir la anchura de píxel agregado y la altura de píxel agregado para calcular el área superficial de la afección cutánea 103 y el dispositivo informático 106 o el servidor de procesamiento 108 pueden utilizar un promedio de los bordes correspondientes para proporcionar una combinación de valores de anchura/altura de píxel único.
Las figuras 9A, 9B y 9C ilustran ejemplos de etapas para medir regiones de subpíxel de una imagen 2D de acuerdo con una realización de la presente invención. Para ilustrar ejemplos claros, las figuras 9A-9C se analizarán con referencia a las figuras anteriormente analizadas. Las dimensiones de píxel de uno o más píxeles generados por el dispositivo informático 106 o el servidor de procesamiento 108 como se ha descrito anteriormente en relación con las figuras 8A-8C se pueden utilizar para medir regiones de subpíxel de un píxel dado en la imagen 2D mediante el dispositivo informático 106 o el servidor de procesamiento 108. Las mediciones de subpíxel para regiones de una imagen 2D pueden ser útiles para analizar la afección cutánea 103 donde la afección cutánea 103 no está representada por un número entero de píxeles, es decir, la afección cutánea 103 está incluida en porciones de ciertos píxeles.
Haciendo referencia ahora a las figuras 9A-9C, en una realización, un campo de medición en el espacio del píxel puede representar una región de subpíxel, por ejemplo, una línea como se representa en la figura 9A, o un área de píxel parcial, por ejemplo, la figura 9B y la figura 9C. En una realización, las intersecciones de borde de píxel normalizadas se usan para deducir nuevos vectores en el espacio de cámara a través de la interpolación lineal de los vectores de esquina que se comentaron anteriormente en relación con las figuras 8A-8C. En una realización, una longitud se calcula calculando la distancia entre un par de vectores de puntos de intersección. Por ejemplo en la figura 9A, los dos vectores de punto de intersección /1 y /2 se utilizan para determinar la longitud de la línea que se muestra en la figura 9A. De forma similar, cuando se requiere un área parcial, se determina el "interior" del píxel y se calculan tres vectores de puntos triangulares usando el opuesto de la intersección del borde relevante y funciones trigonométricas para calcular las propiedades del triángulo. Por ejemplo, en la figura 9B, el triángulo formado por vectores de intersección /2 , , y /1 se utiliza para calcular el área de píxel parcial. En el caso de un triángulo de intersección que no represente el píxel completo "interior", se utiliza un rectángulo para calcular las dimensiones del área restante si es necesario. Por ejemplo, en la figura 9C, el rectángulo formado por vectores de intersección /2 , 1°, V3 , y V4 se utiliza para calcular el área de la región de subpíxel delimitada por los vectores de intersección.
En una realización, las intersecciones de borde se calculan usando una fórmula de intersección de línea infinita 2D estándar que se proporciona a continuación y las intersecciones resultantes que ocurren fuera del espacio del píxel normalizado se descartan.
Figure imgf000012_0001
En la fórmula anterior, LS representa las coordenadas de inicio de la línea 1, LS representa las coordenadas finales de la línea 1. De forma similar, L| representa las coordenadas de inicio de la línea 2, L| representa las coordenadas finales de la línea 2. En una realización, los cálculos descritos en las figuras 5A-5C, 6A-6F, 7A-7C, 8A-8C y 9A-9C son llevados a cabo por un módulo especializado de cálculo y análisis del dispositivo informático 106 o servidor de procesamiento 108.
La figura 10 ilustra un ejemplo de vista de la imagen 2D de salida para analizar afecciones cutáneas de acuerdo con una realización de la presente invención. A los efectos de ilustrar ejemplos claros, la figura 10 se analizará en relación con las figuras 1-4.
En la figura 10, el sujeto 102 y al menos una afección cutánea 103 es visible a través de una interfaz gráfica de usuario (GUI). En una realización, la GUI se implementa mediante una aplicación independiente que se ejecuta en el dispositivo informático 106 o en el servidor de procesamiento 108. En una realización, la GUI es una extensión de la interfaz de usuario implementada en el dispositivo de captura de imágenes 104 que puede ser manipulada por un usuario del dispositivo de captura de imágenes 104 a través de una pantalla táctil como se describe anteriormente. En una realización, la GUI puede permitir que un usuario interactúe con la imagen 2D final del sujeto 102 junto con los datos de profundidad incrustados para cada píxel de la imagen 2D usando el dispositivo de entrada 314 como se describe en referencia al sistema informático 300 de la figura 3. En una realización, el usuario puede manipular la imagen 2D final del sujeto 102 para medir y analizar la afección cutánea 103. Por ejemplo, el usuario puede rotar, acercar o alejar, cambiar de perspectiva, tomar capturas de pantalla, medir los cambios para la afección cutánea 103. En una realización, el usuario puede iniciar una comparación lado a lado en la GUI de la imagen 2D final y una imagen 2D final anterior almacenada por el servidor de procesamiento 108. En una realización, la GUI permite al usuario ver la afección cutánea 103 con diferentes aumentos, que también es útil en la detección de otras afecciones cutáneas de diferentes tamaños.

Claims (13)

REIVINDICACIONES
1. Un sistema para analizar una afección cutánea (103) que comprende:
un dispositivo de captura de imágenes (104) que captura una imagen bidimensional, 2D, de la afección cutánea (103) y un conjunto de nubes de puntos tridimensionales, 3D, asociadas a la imagen 2D;
un dispositivo informático (108) acoplado comunicativamente al dispositivo de captura de imágenes (104) y un segundo dispositivo informático, en donde el dispositivo informático (108) está configurado para:
recibir la imagen 2D y el conjunto de nubes de puntos 3D (602) desde el dispositivo de captura de imágenes (104);
generar una superficie 3D (506) de acuerdo con el conjunto de nubes de puntos 3D (602);
generar un mapa de profundidad para la imagen 2D basado en la superficie 3D (506) usando el segundo dispositivo informático, en donde el mapa de profundidad comprende datos de profundidad para cada píxel de la imagen 2D; y
analizar la afección cutánea (103) basándose en el mapa de profundidad;
en donde para el análisis se calculan las dimensiones de cada píxel en un área o trayectoria deseados en la imagen 2D;
caracterizado por que las dimensiones horizontales y verticales de cada píxel en el área o trayectoria deseados en la imagen 2D se calculan usando vectores de esquina en el espacio del píxel para cada píxel en el área o trayectoria deseados en la imagen 2D, de acuerdo con las siguientes fórmulas:
Figure imgf000013_0001
en donde,
V1, V2 , V3 , V4 representan vectores de esquina en el espacio del píxel para un píxel dado
X0 , y0 , Z0 representan el vector de posición del píxel dado ht representa la dimensión horizontal superior del píxel dado
hb representa la dimensión horizontal inferior del píxel dado
vi representa la dimensión vertical izquierda del píxel dado
vr representa la dimensión vertical derecha del píxel dado;
en donde los vectores de esquina en el espacio del píxel para cada píxel en el área o trayectoria deseada en la imagen 2D se calculan usando la posición en el espacio de la cámara 3D de cada píxel en el área o trayectoria deseada en la imagen 2D de acuerdo con la siguiente fórmula:
Figure imgf000013_0002
en donde,
Pos representa el vector de posición del píxel dado
Pos" representa vectores de posición de píxeles ubicados en las esquinas del píxel dado
Vn representa vectores de esquina en el espacio del píxel para el píxel dado
n es 1,2, 3 o 4;
en donde la posición en el espacio de la cámara 3D de cada píxel en el área o trayectoria deseada en la imagen 2D se calcula de acuerdo con las siguientes fórmulas:
Figure imgf000014_0001
en donde,
D representa la profundidad del píxel dado
C representa las coordenadas del píxel dado, y Ch y
Cv representan el valor de las coordenadas horizontal y vertical respectivamente
R representa la resolución de la imagen total, y Rh y Rv representan la resolución horizontal y vertical respectivamente
0 h y 0 v representan ángulos de campo de visión horizontal y vertical de la cámara 2D.
2. El sistema como se define en la reivindicación 1, en donde cada punto 3D (502) en cada nube de puntos 3D en el conjunto de nubes de puntos 3D (602) corresponde a al menos un píxel de la imagen 2D.
3. El sistema como se define en la reivindicación 1, en donde el segundo dispositivo informático está configurado para calcular el mapa de profundidad implementando un algoritmo de emisión de rayos o un algoritmo de trazado de rayos de acuerdo con la imagen 2D y la superficie 3D (506).
4. El sistema como se define en la reivindicación 1, en donde el dispositivo de captura de imágenes está configurado para capturar la imagen 2D y el conjunto de nubes de puntos 3D (602).
5. El sistema como se define en la reivindicación 4, en donde el dispositivo de captura de imágenes (104) está configurado para girar a lo largo de al menos un eje alrededor de un sujeto (102) con la afección cutánea (103) para capturar un conjunto de imágenes 2D y conjuntos asociados de nubes de puntos 3D (602).
6. El sistema como se define en la reivindicación 4 que comprende además un dispositivo de memoria, acoplado comunicativamente al dispositivo de captura de imágenes, configurado para almacenar la imagen 2D y el conjunto de nubes de puntos 3D y almacenar el mapa de profundidad.
7. El sistema como se define en la reivindicación 4, en donde el dispositivo de captura de imágenes (104) comprende una cámara bidimensional, 2D, configurada para:
capturar una imagen 2D en color de la afección cutánea (103), y
capturar una imagen 2D monocromática de la afección cutánea (103).
8. El sistema como se define en la reivindicación 7, en donde el dispositivo informático (108) está configurado para generar un conjunto de dimensiones de píxel para cada píxel de la imagen 2D basándose en el valor de profundidad de cada píxel, un ángulo de campo de visión horizontal de la cámara 2D y un ángulo de campo de visión vertical de la cámara 2D.
9. El sistema como se define en la reivindicación 4, en donde el dispositivo de captura de imágenes (104) comprende una cámara tridimensional, 3D, y en donde la cámara 3D captura el conjunto de nubes de puntos 3D (602) correspondientes a la imagen 2D.
10. El sistema como se define en la reivindicación 1, en donde la superficie 3D (506) es una malla de superficie 3D interpolada, y en donde la superficie 3D (506) representa los contornos de la afección cutánea (103).
11. El sistema como se define en la reivindicación 1, en donde el dispositivo informático (108) está configurado para generar la superficie 3D (506) filtrando un conjunto de aberraciones en al menos una nube de puntos 3D del conjunto de nubes de puntos 3D (602), y en donde la superficie 3D (506) se genera usando al menos un algoritmo de interpolación usando el dispositivo informático (108).
12. El sistema como se define en la reivindicación 1, en donde el dispositivo informático (108) está configurado para analizar la afección cutánea (103) midiendo un tamaño de la afección cutánea (103), determinar una variación en el tamaño de la afección cutánea (103), y diagnosticar automáticamente la afección cutánea (103) de acuerdo con la variación en el tamaño de la afección cutánea (103).
13. Un método implementado por ordenador para analizar una afección cutánea (103) que comprende:
recibir (402) desde un dispositivo de captura de imágenes (104) una imagen bidimensional, 2D, de la afección cutánea (103) y un conjunto de nubes de puntos tridimensionales, 3D, asociadas con la imagen 2D usando un dispositivo informático (108);
generar (404) una superficie 3D (506) de acuerdo con el conjunto de nubes de puntos 3D (602) usando el dispositivo informático (108);
generar (406) un mapa de profundidad para la imagen 2D basado en la superficie 3D (506) usando un segundo dispositivo informático, en donde el mapa de profundidad comprende un valor de profundidad para cada píxel de la imagen 2D; y
analizar (408) la afección cutánea (103) basándose en la imagen 2D y el mapa de profundidad usando el dispositivo informático (108);
en donde para el análisis se calculan las dimensiones de cada píxel en un área o trayectoria deseados en la imagen 2D;
caracterizado por que las dimensiones horizontales y verticales de cada píxel en el área o trayectoria deseados en la imagen 2D se calculan usando vectores de esquina en el espacio del píxel para cada píxel en el área o trayectoria deseados en la imagen 2D, de acuerdo con las siguientes fórmulas:
Figure imgf000015_0001
en donde,
V1, V2 , V3 , V4 representan vectores de esquina en el espacio del píxel para un píxel dado
X0 , y0 , Z0 representan el vector de posición del píxel dado ht representa la dimensión horizontal superior del píxel dado
hb representa la dimensión horizontal inferior del píxel dado
vi representa la dimensión vertical izquierda del píxel dado
vr representa la dimensión vertical derecha del píxel dado;
en donde los vectores de esquina en el espacio del píxel para cada píxel en el área o trayectoria deseada en la imagen 2D se calculan usando la posición en el espacio de la cámara 3D de cada píxel en el área o trayectoria deseada en la imagen 2D de acuerdo con la siguiente fórmula:
Figure imgf000015_0002
en donde,
Pos representa el vector de posición del píxel dado
Pos" representa vectores de posición de píxeles ubicados en las esquinas del píxel dado
Vn representa vectores de esquina en el espacio del píxel para el píxel dado
n es 1,2, 3 o 4;
en donde la posición en el espacio de la cámara 3D de cada píxel en el área o trayectoria deseada en la imagen 2D se calcula de acuerdo con las siguientes fórmulas:
Figure imgf000016_0001
en donde,
D representa la profundidad del píxel dado
C representa las coordenadas del píxel dado, y Ch y Cv representan el valor de las coordenadas horizontal y vertical respectivamente
R representa la resolución de la imagen total, y Rh y Rv representan la resolución horizontal y vertical respectivamente
0 h y ©v representan ángulos de campo de visión horizontal y vertical de la cámara 2D.
ES18846308T 2017-08-17 2018-08-15 Sistemas y métodos para el análisis de afecciones cutáneas Active ES2950643T3 (es)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
SG10201706752XA SG10201706752XA (en) 2017-08-17 2017-08-17 Systems and methods for analyzing cutaneous conditions
PCT/SG2018/050414 WO2019035768A1 (en) 2017-08-17 2018-08-15 SYSTEMS AND METHODS FOR THE ANALYSIS OF SKIN DISORDERS

Publications (1)

Publication Number Publication Date
ES2950643T3 true ES2950643T3 (es) 2023-10-11

Family

ID=65362686

Family Applications (1)

Application Number Title Priority Date Filing Date
ES18846308T Active ES2950643T3 (es) 2017-08-17 2018-08-15 Sistemas y métodos para el análisis de afecciones cutáneas

Country Status (12)

Country Link
US (1) US11504055B2 (es)
EP (1) EP3668387B1 (es)
KR (1) KR102635541B1 (es)
CN (1) CN111031897B (es)
AU (1) AU2018316381A1 (es)
BR (1) BR112020003278A2 (es)
CA (1) CA3073259A1 (es)
ES (1) ES2950643T3 (es)
NZ (1) NZ761745A (es)
SG (1) SG10201706752XA (es)
TW (1) TWI804506B (es)
WO (1) WO2019035768A1 (es)

Families Citing this family (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11087523B2 (en) * 2018-10-26 2021-08-10 Autodesk, Inc. Production ray tracing of feature lines
CN112085846A (zh) * 2019-06-14 2020-12-15 通用电气精准医疗有限责任公司 用于在成像系统中生成对象3d点云的方法和系统
CN111461980B (zh) * 2020-03-30 2023-08-29 北京百度网讯科技有限公司 点云拼接算法的性能估计方法和装置
US10853955B1 (en) 2020-05-29 2020-12-01 Illuscio, Inc. Systems and methods for point cloud encryption
WO2022108067A1 (en) * 2020-11-19 2022-05-27 Samsung Electronics Co., Ltd. Method for rendering relighted 3d portrait of person and computing device for the same
US11823327B2 (en) 2020-11-19 2023-11-21 Samsung Electronics Co., Ltd. Method for rendering relighted 3D portrait of person and computing device for the same
KR102492692B1 (ko) * 2020-12-01 2023-01-27 (주)와이즈콘 머신러닝을 이용한 피부 이미지 분석 시스템 및 방법과 이를 위한 컴퓨터 프로그램
TWI775229B (zh) * 2020-12-02 2022-08-21 碁曄科技股份有限公司 美膚檢測系統及其方法
KR102472583B1 (ko) 2021-01-28 2022-11-30 한림대학교 산학협력단 찰과상에 대한 진단 정보를 제공하는 인공지능 모델 기반의 전자 장치, 제어 방법, 및 컴퓨터 프로그램
US11386235B1 (en) 2021-11-12 2022-07-12 Illuscio, Inc. Systems and methods for dynamic checksum generation and validation with customizable levels of integrity verification
WO2023199357A1 (en) * 2022-04-13 2023-10-19 Garg Dr Suruchi A system of identifying plurality of parameters of a subject's skin and a method thereof
US11527017B1 (en) 2022-05-03 2022-12-13 Illuscio, Inc. Systems and methods for dynamic decimation of point clouds and data points in a three-dimensional space
US11468583B1 (en) 2022-05-26 2022-10-11 Illuscio, Inc. Systems and methods for detecting and correcting data density during point cloud generation
CN116320199B (zh) * 2023-05-19 2023-10-31 科大乾延科技有限公司 一种元宇宙全息显示信息智能管理系统

Family Cites Families (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6278460B1 (en) * 1998-12-15 2001-08-21 Point Cloud, Inc. Creating a three-dimensional model from two-dimensional images
CN1218282C (zh) * 2001-11-27 2005-09-07 三星电子株式会社 用深度图像表示三维物体的节点结构
GB0209080D0 (en) * 2002-04-20 2002-05-29 Virtual Mirrors Ltd Methods of generating body models from scanned data
US7546156B2 (en) * 2003-05-09 2009-06-09 University Of Rochester Medical Center Method of indexing biological imaging data using a three-dimensional body representation
US20090118600A1 (en) * 2007-11-02 2009-05-07 Ortiz Joseph L Method and apparatus for skin documentation and analysis
US20110218428A1 (en) * 2010-03-04 2011-09-08 Medical Scan Technologies, Inc. System and Method for Three Dimensional Medical Imaging with Structured Light
CN101966083B (zh) * 2010-04-08 2013-02-13 太阳系美容事业有限公司 异常皮肤面积计算系统及其计算方法
US20130235233A1 (en) * 2012-03-09 2013-09-12 Research In Motion Limited Methods and devices for capturing images
CA2930184C (en) * 2013-12-03 2024-04-23 Children's National Medical Center Method and system for wound assessment and management
SG10201405182WA (en) * 2014-08-25 2016-03-30 Univ Singapore Technology & Design Method and system
US10004403B2 (en) * 2014-08-28 2018-06-26 Mela Sciences, Inc. Three dimensional tissue imaging system and method
US10455134B2 (en) * 2014-10-26 2019-10-22 Galileo Group, Inc. Temporal processes for aggregating multi dimensional data from discrete and distributed collectors to provide enhanced space-time perspective
KR101718868B1 (ko) * 2015-09-21 2017-03-22 한국과학기술연구원 자동 의료영상 분할에 의한 3차원 악안면 모델 형성 방법, 이를 수행하는 자동 영상 분할과 모델 형성 서버 및 이를 저장하는 기록매체
US10007971B2 (en) * 2016-03-14 2018-06-26 Sensors Unlimited, Inc. Systems and methods for user machine interaction for image-based metrology
TWI573100B (zh) * 2016-06-02 2017-03-01 Zong Jing Investment Inc 自動臉部化妝方法
WO2018185560A2 (en) * 2017-04-04 2018-10-11 Aranz Healthcare Limited Anatomical surface assessment methods, devices and systems
CN110305140B (zh) * 2019-07-30 2020-08-04 上海勋和医药科技有限公司 二氢吡咯并嘧啶类选择性jak2抑制剂

Also Published As

Publication number Publication date
EP3668387A1 (en) 2020-06-24
TW201922163A (zh) 2019-06-16
SG10201706752XA (en) 2019-03-28
AU2018316381A1 (en) 2020-03-12
CN111031897A (zh) 2020-04-17
KR20200042509A (ko) 2020-04-23
CN111031897B (zh) 2023-09-29
BR112020003278A2 (pt) 2020-09-01
TWI804506B (zh) 2023-06-11
WO2019035768A1 (en) 2019-02-21
KR102635541B1 (ko) 2024-02-08
US20200205723A1 (en) 2020-07-02
EP3668387A4 (en) 2021-05-12
NZ761745A (en) 2022-07-01
CA3073259A1 (en) 2019-02-21
EP3668387B1 (en) 2023-05-24
US11504055B2 (en) 2022-11-22

Similar Documents

Publication Publication Date Title
ES2950643T3 (es) Sistemas y métodos para el análisis de afecciones cutáneas
WO2019015154A1 (zh) 基于单目三维扫描系统的三维重构方法和装置
US10186080B2 (en) Image processing
ES2686517T3 (es) Sistema para análisis de tratamiento de la piel usando datos de imágenes espectrales para generar un modelo 3D RGB
ES2696198T3 (es) Sistema de procesamiento de imágenes y método de procesamiento de imágenes
Hong et al. 3D reconstruction of virtual colon structures from colonoscopy images
US20220351388A1 (en) Method and terminal for detecting protrusion in intestinal tract, and computer-readable storage medium
JP6304970B2 (ja) 画像処理装置、画像処理方法
WO2019085392A1 (zh) 牙齿三维数据重建方法、装置和系统
US20220012954A1 (en) Generation of synthetic three-dimensional imaging from partial depth maps
Reichinger et al. Evaluation of methods for optical 3-D scanning of human pinnas
JP2018524039A (ja) 咬合用歯科模型のx線走査のための方法及び装置
ES2920598T3 (es) Sistema generador de representación tridimensional
ES2894935T3 (es) Aparato de medición de distancias tridimensionales y procedimiento para el mismo
BR112016030027B1 (pt) Método e terminal para obter dados de sinal de um objeto alvo
WO2022078440A1 (zh) 一种包含运动物体的空间占用率采集判断设备及方法
ES2625729T3 (es) Sistema y método de medición estereoscópica
BR112013019253B1 (pt) Sistema de visão de máquina para a extração de descontinuidade de profundidade de imagem
TW202027090A (zh) 醫療矢面影像的取得方法、神經網路的訓練方法及計算機裝置
Yao et al. Employing topographical height map in colonic polyp measurement and false positive reduction
Ben-Hamadou et al. Construction of extended 3D field of views of the internal bladder wall surface: A proof of concept
ES2625730T3 (es) Sistema y método de medición estereoscópica
Lacher 3D breast surface reconstructions from consumer-grade RGB-D cameras
EP3185813A1 (en) Method and apparatus for dental virtual model base
Noble et al. Arm-Volume Measurement for Early Lymphedema Detection using Kinect Sensor in Post-Surgical Oncology Patients