BR112021011132A2 - Sistemas de aprendizado por máquina e métodos para avaliação, predição de cicatrização e tratamento de feridas - Google Patents

Sistemas de aprendizado por máquina e métodos para avaliação, predição de cicatrização e tratamento de feridas Download PDF

Info

Publication number
BR112021011132A2
BR112021011132A2 BR112021011132-8A BR112021011132A BR112021011132A2 BR 112021011132 A2 BR112021011132 A2 BR 112021011132A2 BR 112021011132 A BR112021011132 A BR 112021011132A BR 112021011132 A2 BR112021011132 A2 BR 112021011132A2
Authority
BR
Brazil
Prior art keywords
pixels
wound
image
healing
subset
Prior art date
Application number
BR112021011132-8A
Other languages
English (en)
Inventor
Wensheng Fan
Jason Dwight
John Michael DiMaio
Jeffrey E. Thatcher
Peiran Quan
Faliu Yi
Kevin Plant
Ronald Baxter
Brian McCall
Zhicun Gao
Original Assignee
Spectral Md, Inc.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Spectral Md, Inc. filed Critical Spectral Md, Inc.
Publication of BR112021011132A2 publication Critical patent/BR112021011132A2/pt

Links

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/44Detecting, measuring or recording for evaluating the integumentary system, e.g. skin, hair or nails
    • A61B5/441Skin evaluation, e.g. for skin disorder diagnosis
    • A61B5/445Evaluating skin irritation or skin trauma, e.g. rash, eczema, wound, bed sore
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0059Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence
    • A61B5/0075Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence by spectroscopy, i.e. measuring spectra, e.g. Raman spectroscopy, infrared absorption spectroscopy
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/02Detecting, measuring or recording pulse, heart rate, blood pressure or blood flow; Combined pulse/heart-rate/blood pressure determination; Evaluating a cardiovascular condition not otherwise provided for, e.g. using combinations of techniques provided for in this group with electrocardiography or electroauscultation; Heart catheters for measuring blood pressure
    • A61B5/026Measuring blood flow
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/145Measuring characteristics of blood in vivo, e.g. gas concentration, pH value; Measuring characteristics of body fluids or tissues, e.g. interstitial fluid, cerebral tissue
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/145Measuring characteristics of blood in vivo, e.g. gas concentration, pH value; Measuring characteristics of body fluids or tissues, e.g. interstitial fluid, cerebral tissue
    • A61B5/1455Measuring characteristics of blood in vivo, e.g. gas concentration, pH value; Measuring characteristics of body fluids or tissues, e.g. interstitial fluid, cerebral tissue using optical sensors, e.g. spectral photometrical oximeters
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/44Detecting, measuring or recording for evaluating the integumentary system, e.g. skin, hair or nails
    • A61B5/441Skin evaluation, e.g. for skin disorder diagnosis
    • A61B5/444Evaluating skin marks, e.g. mole, nevi, tumour, scar
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/48Other medical applications
    • A61B5/4842Monitoring progression or stage of a disease
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/72Signal processing specially adapted for physiological signals or for diagnostic purposes
    • A61B5/7271Specific aspects of physiological measurement analysis
    • A61B5/7275Determining trends in physiological measurement data; Predicting development of a medical condition based on physiological measurements, e.g. determining a risk factor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/088Non-supervised learning, e.g. competitive learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • G06V10/443Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
    • G06V10/449Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters
    • G06V10/451Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters with interaction between the filter responses, e.g. cortical complex cells
    • G06V10/454Integrating the filters into a hierarchical structure, e.g. convolutional neural networks [CNN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/40ICT specially adapted for the handling or processing of medical images for processing medical images, e.g. editing
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/20ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/30ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for calculating health indices; for individual health risk assessment
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/50ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for simulation or modelling of medical disorders
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0059Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence
    • A61B5/0077Devices for viewing the surface of the body, e.g. camera, magnifying lens
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • G06N20/20Ensemble learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N5/00Computing arrangements using knowledge-based models
    • G06N5/01Dynamic search techniques; Heuristics; Dynamic trees; Branch-and-bound
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10048Infrared image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30088Skin; Dermal
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30096Tumor; Lesion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/03Recognition of patterns in medical or anatomical images

Landscapes

  • Health & Medical Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Medical Informatics (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Biomedical Technology (AREA)
  • Pathology (AREA)
  • Molecular Biology (AREA)
  • Biophysics (AREA)
  • Veterinary Medicine (AREA)
  • Animal Behavior & Ethology (AREA)
  • Surgery (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Physics & Mathematics (AREA)
  • Artificial Intelligence (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Epidemiology (AREA)
  • Primary Health Care (AREA)
  • Databases & Information Systems (AREA)
  • Dermatology (AREA)
  • Physiology (AREA)
  • Spectroscopy & Molecular Physics (AREA)
  • Radiology & Medical Imaging (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Optics & Photonics (AREA)
  • Software Systems (AREA)
  • Computing Systems (AREA)
  • Signal Processing (AREA)
  • Psychiatry (AREA)
  • Quality & Reliability (AREA)
  • Hematology (AREA)
  • Cardiology (AREA)
  • Computational Linguistics (AREA)
  • Multimedia (AREA)
  • General Engineering & Computer Science (AREA)

Abstract

istemas de aprendizado por máquina e métodos para avaliação, predição de cicatrização e tratamento de feridas. trata-se de sistemas e métodos de aprendizado por máquina para predição de cicatrização de ferida, tais como para úlceras de pé diabético ou outras feridas, e para implementações de avaliação, tais como segmentação de imagens em regiões de ferida e regiões de não ferida. sistemas para avaliar ou prever cicatrização de ferida podem incluir um elemento de detecção de luz configurado para coletar luz de pelo menos um primeiro comprimento de onda refletido de uma região de tecido que inclui uma ferida, e um ou mais processadores configurados para gerar uma imagem com base em um sinal a partir do elemento de detecção de luz que tem pixels que retratam a região de tecido, determinar valores de intensidade de refletância para pelo menos um subconjunto dos pixels, determinar um ou mais recursos quantitativos do subconjunto da pluralidade de pixels com base nos valores de intensidade de refletância e gerar um parâmetro de cicatrização previsto ou avaliado associado à ferida por um intervalo de tempo predeterminado.

Description

Relatório Descritivo da Patente de Invenção para “SISTEMAS DE APRENDIZADO POR MÁQUINA E MÉTODOS PARA AVALIAÇÃO, PREDIÇÃO DE CICATRIZAÇÃO E TRATAMENTO DE FERIDAS” Referência Cruzada a Pedidos Relacionados
[001] Este pedido reivindica o benefício do Pedido Provisório de nº de Série U.S. 62/780.854, depositado em 17 de dezembro 2018, intitulado “PREDICTION OF DIABETIC FOOT
ULCER HEALING UPON INITIAL VISIT USING ARTIFICIAL INTELLIGENCE,” Pedido Provisório de nº de Série U.S.
62/780.121, depositado em 14 de dezembro de 2018, intitulado “SYSTEM AND METHOD FOR HIGH PRECISION MULTI-APERTURE SPECTRAL IMAGING,” e Pedido Provisório de nº de Série U.S.
62/818.375, depositado em 14 de março de 2019, intitulado “SYSTEM AND METHOD FOR HIGH PRECISION MULTI-APERTURE SPECTRAL IMAGING,” dos quais todos são expressamente incorporados por meio deste a título de referência em sua totalidade e para todos os fins.
Declaração relacionada a R&D com patrocínio do governo federal
[002] Uma parte do trabalho descrito nesta revelação foi feito com apoio do Governo dos Estados Unidos sob Contrato No. HHSO100201300022C, concedido pela Autoridade de Pesquisa e Desenvolvimento em Biomédica (BARDA), dentro do Escritório da Secretaria de Assistência para Preparação e Resposta no Departamento Americano de
Serviços de Saúde e Humano. Uma parte do trabalho descrito nesta revelação foi realizado com suporte do Governo Unido sob Contrato Nº. W81XWH-17-C-0170 e/ou W81XWH-18-C-0114, concedido pela Agência de Saúde de Defesa dos E.U.A (DHA).
O governo dos E.U.A pode ter determinados direitos nesta invenção.
Campo da Técnica
[003] Os sistemas e métodos revelados no presente documento são direcionados a imageamento médico, e, mais particularmente, à avaliação de ferida, predição de cicatrização, e tratamento com uso de técnicas de aprendizado por máquina.
Fundamentos
[004] Imageamento óptico é uma tecnologia emergente com potencial para aprimorar prevenção de doença, diagnóstico, e tratamento na situação de uma emergência, no escritório médico, na cabeceira, ou na sala de operação. As tecnologias de imageamento óptico podem diferenciar de modo não invasivo dentre tecido, e entre tecidos nativos e tecido rotulado com meios de contraste tanto endógeno como exógeno, medir sua diferentes perfis de absorção e dispersão de fóton em diferentes comprimentos de onda. Tais diferenças de absorção e dispersão de fóton oferece potencial para fornecer contrastes de tecido específicos, e possibilita estudar atividades de nível funcional e molecular que são a base para saúde e doença.
[005] O espectro eletromagnético é a faixa de comprimentos de onda ou frequências através pelas quais a radiação eletromagnética (por exemplo, luz) se estende. Na ordem de comprimentos de onda maiores a comprimentos de onda menores, o espectro eletromagnético inclui ondas de rádio, micro-ondas, luz infravermelha (IR), luz visível (ou seja, luz que é detectável pelas estruturas do olho humano), luz ultravioleta (UV), raios X, e raios gama. Imageamento espectral se refere a uma ramificação de espectroscopia e fotografia na qual algumas informações espectrais ou um espectro completo é coletado em localizações em um plano de imagem. Alguns sistemas de imageamento espectral pode capturar uma ou mais bandas espectrais. Sistemas de imageamento multiespectrais podem capturar múltiplas bandas espectrais (na ordem de uma dúzia ou menos e tipicamente em regiões espectrais distintas), para os quais medições de banda espectral são coletadas em cada pixel, e pode se referir a larguras de banda de cerca de dezenas de nanômetros por canal espectral. Sistemas de imageamento hiperespectral medem um número maior de bandas espectrais, por exemplo, tanto quanto 200 ou mais, com alguns fornecendo uma amostragem contínua de bandas estreitas (por exemplo, larguras de banda espectrais na ordem de nanômetros ou menos) ao longo de uma porção do espectro eletromagnético.
Sumário
[006] Aspectos da tecnologia descrita no presente documento se referem a dispositivos e métodos que podem ser usados para avaliar e/ou classificar regiões de tecido em uma ferida ou próximo da mesma com uso de imageamento óptico sem contato, não invasivo e sem radiação. Tais dispositivos e métodos pode, por exemplo, identificar regiões de tecido correspondente a diferentes classificações de saúde de tecido relacionadas a feridas e/ou determinar parâmetros de cicatrização previstos para uma ferida ou uma porção dos mesmos, e pode emitir uma representação visual das regiões identificadas e/ou parâmetros para uso por um médico ao determinar um prognóstico de cicatrização de ferida ou selecionar uma terapia apropriada de cuidados com a ferida ou ambos. Em algumas modalidades, os dispositivos e métodos da presente tecnologia pode fornecer tal classificação e/ou predição com base em imageamento em um comprimento de onda único ou em uma pluralidade de comprimentos de onda. Houve uma necessidade a muito sentida de técnicas de imageamento não invasivas que podem fornecer aos médicos informações para prever de modo quantitativo cicatrização para feridas ou porções da mesma.
[007] Em um aspecto, um sistema para avaliar ou prever cicatrização de ferida compreende pelo menos um elemento de detecção de luz configurado para coletar luz de pelo menos um primeiro comprimento de onda depois de ser refletido de uma região de tecido que compreende uma ferida, e um ou mais processadores em comunicação com o pelo menos um elemento de detecção de luz. O um ou mais processadores são configurados para receber um sinal do pelo menos um elemento de detecção de luz, sendo que o sinal representa luz do primeiro comprimento de onda refletido da região de tecido; gerar, com base no sinal, uma imagem que tem uma pluralidade de pixels que retratam a região de tecido; determine, com base no sinal, um valor de intensidade de refletância no primeiro comprimento de onda para cada pixel de pelo menos um subconjunto da pluralidade de pixels; determinar um ou mais recursos quantitativos do subconjunto da pluralidade de pixels com base nos valores de intensidade de refletância de cada pixel do subconjunto; e gerar, com uso de um ou mais algoritmos de aprendizado por máquina, pelo menos um valor escalar com base no um ou mais recursos quantitativos do subconjunto da pluralidade de pixels, o pelo menos um valor escalar correspondente a um parâmetro de cicatrização previsto ou avaliado por um intervalo de tempo predeterminado.
[008] Em algumas modalidades, a ferida é uma úlcera de pé diabético. Em algumas modalidades, o parâmetro de cicatrização previsto é uma quantidade prevista de cicatrização da ferida. Em algumas modalidades, o parâmetro de cicatrização previsto é uma porcentagem prevista de redução de área da ferida.
Em algumas modalidades, o pelo menos um valor escalar compreende uma pluralidade de valores escalares, cada valor escalar da pluralidade de valores escalares correspondente a uma probabilidade de cicatrização de um pixel individual do subconjunto ou de um subgrupo de pixels individuais do subconjunto.
Em algumas modalidades,
o um ou mais processadores são adicionalmente configurados para emitir uma representação visual da pluralidade de valores escalares para exibição a um usuário.
Em algumas modalidades, a representação visual compreende a imagem que tem cada pixel do subconjunto exibido com uma representação visual particular selecionado com base na probabilidade de cicatrização correspondente ao pixel, em que pixels associados a diferentes probabilidades de cicatrização são exibidos em diferentes representações visuais.
Em algumas modalidades, o um ou mais algoritmos de aprendizado por máquina compreendem um SegNet pré-treinado com uso de um banco de dados de imagem de ferida, queimadura ou úlcera.
Em algumas modalidades, a banco de dados de imagem de ferida compreende um banco de dados de imagem de úlcera de pé diabético.
Em algumas modalidades, a banco de dados de imagem de ferida compreende um banco de dados de imagem de queimadura.
Em algumas modalidades, o intervalo de tempo predeterminado é de 30 dias.
Em algumas modalidades, o um ou mais processadores são adicionalmente configurados para identificar pelo menos um valor de métrica de saúde do paciente correspondente a um paciente que tem a região de tecido, e em que o pelo menos um valor escalar é gerado com base no um ou mais recursos quantitativos do subconjunto da pluralidade de pixels e no pelo menos um valor de métrica de saúde do paciente. Em algumas modalidades, o pelo menos um valor de métrica de saúde do paciente compreende pelo menos uma variável selecionada a partir do grupo que consiste em variáveis demográficas, variáveis de histórico de úlcera de pé diabético, variáveis de conformidade, variáveis endócrinas, variáveis cardiovasculares, variáveis muscoesqueléticas, variáveis de nutrição, variáveis de doença infecciosa, variáveis renais, variáveis de obstetrícia e ginecologia, variáveis de uso de fármaco, outras variáveis de doença ou valores laboratoriais. Em algumas modalidades, o pelo menos um valor de métrica de saúde do paciente compreende um ou mais recursos clínicos.
Em algumas modalidades, o um ou mais recursos clínicos compreendem pelo menos um recurso selecionado a partir do grupo que consiste em uma idade do paciente, um nível de doença renal crônica do paciente, um comprimento da ferida em um dia em que a imagem é gerada, e uma largura da ferida no dia em que a imagem é gerada. Em algumas modalidades, o primeiro comprimento de onda está dentro da faixa de 420 nm
± 20 nm, 525 nm ± 35 nm, 581 nm ± 20 nm, 620 nm ± 20 nm, 660 nm ± 20 nm, 726 nm ± 41 nm, 820 nm ± 20 nm, ou 855 nm ± 30 nm.
Em algumas modalidades, o primeiro comprimento de onda está dentro da faixa de 620 nm ± 20 nm, 660 nm ± 20 nm, ou
420 nm ± 20 nm.
Em algumas modalidades, o um ou mais algoritmos de aprendizado por máquina compreendem um conjunto de floresta aleatória.
Em algumas modalidades, o primeiro comprimento de onda está dentro da faixa de 726 nm
± 41 nm, 855 nm ± 30 nm, 525 nm ± 35 nm, 581 nm ± 20 nm, ou
820 nm ± 20 nm.
Em algumas modalidades, o um ou mais algoritmos de aprendizado por máquina compreendem um conjunto de classificadores.
Em algumas modalidades, o sistema compreende adicionalmente um filtro de passagem de banda óptica configurado para passar luz pelo menos do primeiro comprimento de onda.
Em algumas modalidades, o um ou mais processadores são adicionalmente configurados para segmentar automaticamente a pluralidade de pixels da imagem em pixels de ferida e pixels de não ferida, e selecionar o subconjunto da pluralidade de pixels para compreender a pixels de ferida.
Em algumas modalidades, o um ou mais processadores são adicionalmente configurados para segmentar automaticamente os pixels de não ferida em pixels de calo e pixels de fundo.
Em algumas modalidades, o um ou mais processadores são adicionalmente configurados para segmentar automaticamente os pixels de não ferida em pixels de calo,
pixels de pele normal e pixels de fundo. Em algumas modalidades, o um ou mais processadores segmentam automaticamente a pluralidade de pixels com uso de um algoritmo de segmentação que compreende uma rede neural convolucional. Em algumas modalidades, o algoritmo de segmentação é pelo menos um de uma rede em U que compreende uma pluralidade de redes convolucionais e um SegNet que compreende uma pluralidade de redes convolucionais. Em algumas modalidades, o um ou mais recursos quantitativos do subconjunto da pluralidade de pixels compreendem um ou mais recursos quantitativos agregados da pluralidade de pixels.
Em algumas modalidades, o um ou mais recursos quantitativos agregados do subconjunto da pluralidade de pixels são selecionados a partir do grupo que consiste em uma média dos valores de intensidade de refletância dos pixels do subconjunto, um desvio padrão dos valores de intensidade de refletância dos pixels do subconjunto, e um valor de mediana de intensidade de refletância dos pixels do subconjunto. Em algumas modalidades, o um ou mais processadores são adicionalmente configurados para aplicar individualmente uma pluralidade de núcleos de filtro à imagem por convolução para gerar uma pluralidade de transformações de imagem; construir uma matriz 3D a partir da pluralidade de transformações de imagem; e determinar um ou mais recursos quantitativos da matriz 3D, em que o pelo menos um valor escalar é gerada com base no um ou mais recursos quantitativos do subconjunto da pluralidade de pixels e no um ou mais recursos quantitativos da matriz 3D.
Em algumas modalidades, o um ou mais recursos quantitativos da matriz
3D são selecionados a partir do grupo que consiste em uma média dos valores da matriz 3D, um desvio padrão dos valores da matriz 3D, um valor de mediana da matriz 3D, e um produto da média e a mediana da matriz 3D.
Em algumas modalidades,
o pelo menos um valor escalar é gerado com base na média dos valores de intensidade de refletância dos pixels do subconjunto, o desvio padrão dos valores de intensidade de refletância dos pixels do subconjunto, o valor de mediana de intensidade de refletância dos pixels do subconjunto, a média dos valores da matriz 3D, o desvio padrão dos valores da matriz 3D, e o valor de mediana da matriz 3D.
Em algumas modalidades, o pelo menos um elemento de detecção de luz é adicionalmente configurado para coletar luz de pelo menos um segundo comprimento de onda depois de ser refletido da região de tecido, e o um ou mais processadores são adicionalmente configurados para receber um segundo sinal do pelo menos um elemento de detecção de luz, sendo que o segundo sinal representa luz do segundo comprimento de onda refletido da região de tecido; determinar, com base no segundo sinal, um valor de intensidade de refletância no segundo comprimento de onda para cada pixel pelo menos do subconjunto da pluralidade de pixels; e determinar um ou mais recursos quantitativos adicionais do subconjunto da pluralidade de pixels com base nos valores de intensidade de refletância de cada pixel no segundo comprimento de onda, em que o pelo menos um valor escalar é gerado com base, pelo menos em parte, no um ou mais recursos quantitativos adicionais do subconjunto da pluralidade de pixels.
[009] Em um segundo aspecto, um sistema para avaliação de ferida compreende pelo menos um elemento de detecção de luz configurado para coletar luz de pelo menos um primeiro comprimento de onda depois de ser refletido formam uma região de tecido que compreende uma ferida, e um ou mais processadores em comunicação com o pelo menos um elemento de detecção de luz. O um ou mais processadores são configurados para receber um sinal do pelo menos um elemento de detecção de luz, sendo que o sinal representa luz do primeiro comprimento de onda refletido da região de tecido; gerar, com base no sinal, uma imagem que tem uma pluralidade de pixels que retratam a região de tecido; determine, com base no sinal, um valor de intensidade de refletância no primeiro comprimento de onda para cada pixel da pluralidade de pixels; e segmentar automaticamente, com uso de um algoritmo de aprendizado por máquina, pixels individuais da pluralidade de pixels em pelo menos um primeiro subconjunto da pluralidade de pixels que compreende pixels de ferida e um segundo subconjunto da pluralidade de pixels que compreende pixels de não ferida, com base em valores de intensidade de refletância individuais da pluralidade de pixels.
[0010] Em algumas modalidades, o um ou mais processadores são adicionalmente configurados para segmentar automaticamente o segundo subconjunto da pluralidade de pixels em pelo menos duas categorias de pixels de não ferida, as pelo menos duas categorias selecionadas a partir do grupo que consiste em pixels de calo, pixels de pele normal e pixels de fundo. Em algumas modalidades, o algoritmo de aprendizado por máquina compreende uma rede neural convolucional. Em algumas modalidades, o algoritmo de aprendizado por máquina é pelo menos um dentre uma rede em U que compreende uma pluralidade de redes convolucionais e um SegNet que compreende uma pluralidade de redes convolucionais. Em algumas modalidades, o algoritmo de aprendizado por máquina é treinado com base em um conjunto de dados que compreende uma pluralidade de imagens segmentadas de feridas, úlceras ou queimaduras. Em algumas modalidades, a ferida é uma úlcera de pé diabético. Em algumas modalidades, o um ou mais processadores são adicionalmente configurados para emitir uma representação visual da pluralidade segmentada de pixels para exibição a um usuário. Em algumas modalidades, a representação visual compreende a imagem que tem cada pixel exibido com uma representação visual particular selecionada com base na segmentação do pixel, em que pixels de ferida e pixels de não ferida são exibidos em diferentes representações visuais.
[0011] Em outro aspecto, um método de predição de cicatrização de ferida com uso de um sistema para avaliar ou prever cicatrização de ferida compreende iluminar a região de tecido com luz pelo menos do primeiro comprimento de onda de modo que a região de tecido reflita pelo menos uma porção da luz ao pelo menos um elemento de detecção de luz, com uso do sistema para gerar o pelo menos um valor escalar, e determinar o parâmetro de cicatrização previsto pelo intervalo de tempo predeterminado.
[0012] Em algumas modalidades, iluminar a região de tecido compreende ativar um ou mais emissores de luz configurados para emitir luz pelo menos do primeiro comprimento de onda. Em algumas modalidades, iluminar a região de tecido compreende expor a região de tecido à luz ambiente. Em algumas modalidades, determinar o parâmetro de cicatrização previsto compreende determinar uma porcentagem esperada de redução de área da ferida pelo intervalo de tempo predeterminado. Em algumas modalidades, o método compreende adicionalmente medir uma ou mais dimensões da ferida depois que o intervalo de tempo predeterminado transcorreu seguindo a determinação da quantidade prevista de cicatrização da ferida, determinar uma quantidade real de cicatrização da ferida pelo intervalo de tempo predeterminado, e atualizar pelo menos um algoritmo de aprendizado por máquina do um ou mais algoritmos de aprendizado por máquina fornecendo-se pelo menos a imagem e a quantidade real de cicatrização da ferida como dados de treinamento.
Em algumas modalidades, o método compreende adicionalmente selecionar entre uma terapia padrão de cuidados com a ferida e uma terapia avançada de cuidados com a ferida com base, pelo menos em parte, no parâmetro de cicatrização previsto.
Em algumas modalidades, selecionar entre a terapia padrão de cuidados com a ferida e a terapia avançada de cuidados com a ferida compreende, quando o parâmetro de cicatrização previsto indica que a ferida, preferencialmente uma DFU, cicatrizará ou se fechará em mais do que 50% em 30 dias, indicar ou aplicar uma ou mais terapias padrão selecionadas a partir do grupo que consiste em otimização de estado nutricional,
desbridamento por qualquer meio para remover tecido desvitalizado, manutenção de um leito úmido limpo de tecido de granulação com curativos úmidos apropriados, terapia necessária para solucionar qualquer infecção que pode estar presente, abordar quaisquer deficiências em perfusão vascular à extremidade com a DFU, descarregamento de pressão da DFU, e controle de glicose apropriado; e quando o parâmetro de cicatrização previsto indica que a ferida, preferencialmente uma DFU, não cicatrizará ou se fechará em mais do que 50% em 30 dias, indicar ou aplicar uma ou mais terapias de cuidado avançadas selecionadas a partir do grupo que consiste em terapias de oxigênio hiperbárico, terapia de ferida de pressão negativa, substitutos de pele biomanipulados, fatores de crescimento sintético, proteínas de matriz extracelular, moduladores de metaloproteinase de matriz e terapia de estímulo elétrico.
Breve descrição dos Desenhos
[0013] A Figura 1A ilustra um exemplo de luz incidente em um filtro em diferentes ângulos de raio principal.
[0014] A Figura 1B é um gráfico que ilustra eficiências de transmissão exemplificativas fornecidas pelo filtro da Figura 1A para vários ângulos de raio principal.
[0015] A Figura 2A ilustra um exemplo de um bubo de dados de imagem multiespectral.
[0016] A Figura 2B ilustra exemplos de como determinadas tecnologias de imagem multiespectral geram o cubo de dados da Figura 2A.
[0017] A Figura 2C representa um exemplo de sistema de imageamento de imagem instantânea que pode gerar o cubo de dados da Figura 2A.
[0018] A Figura 3A representa uma vista esquemática em corte transversal de um projeto óptico de um sistema de imageamento de abertura múltipla exemplificativo com filtros multi-passa-faixa curvos, de acordo com a presente revelação.
[0019] As Figuras 3B a 3D representam exemplos de projetos ópticos para componentes ópticos de uma trajetória de luz do sistema de imageamento de abertura múltipla da Figura 3A.
[0020] As Figuras 4A a 4E representam uma modalidade de um sistema de imageamento de abertura múltipla multiespectral, com um design óptico conforme descrito em relação às Figuras 3A e 3B.
[0021] A Figura 5 representa outra modalidade de um sistema de imageamento de abertura múltipla multiespectral, com um design óptico conforme descrito em relação às Figuras 3A e 3B.
[0022] As Figuras 6A a 6C representam outra modalidade de um sistema de imageamento de abertura múltipla multiespectral, com um design óptico conforme descrito em relação às Figuras 3A e 3B.
[0023] As Figuras 7A a 7B representam outra modalidade de um sistema de imageamento de abertura múltipla multiespectral, com um design óptico conforme descrito em relação às Figuras 3A e 3B.
[0024] As Figuras 8A a 8B representam outra modalidade de um sistema de imageamento de abertura múltipla multiespectral, com um design óptico conforme descrito em relação às Figuras 3A e 3B.
[0025] As Figuras 9A a 9C representam outra modalidade de um sistema de imageamento de abertura múltipla multiespectral, com um design óptico conforme descrito em relação às Figuras 3A e 3B.
[0026] As Figuras 10A a 10B representam outra modalidade de um sistema de imageamento de abertura múltipla multiespectral, com um design óptico conforme descrito em relação às Figuras 3A e 3B.
[0027] As Figuras 11A a 11B representam um conjunto de bandas de onda exemplificativo que pode ser passado pelos filtros dos sistemas de imageamento de abertura múltipla multiespectral das Figuras 3A a 10B.
[0028] A Figura 12 representa um diagrama em bloco esquemático de um sistema de imageamento que pode ser usado para os sistemas de abertura múltipla multiespectrais das Figuras 3A-10B.
[0029] A Figura 13 é um fluxograma de um processo exemplificativo para capturar os dados da imagem usando os sistemas de imageamento de abertura múltipla multiespectral das Figuras 3A a 10B.
[0030] A Figura 14 representa um diagrama de bloco esquemático de um fluxo de dados para o processamento de dados de imagem, por exemplo dados da imagem capturada usando o processo da Figura 13 e/ou usando os sistemas de imageamento de abertura múltipla multiespectral das Figuras 3A-10B.
[0031] A Figura 15 representa graficamente a disparidade e correção de disparidade para o processamento de dados de imagem, por exemplo dados da imagem capturada usando o processo da Figura 13 e/ou usando os sistemas de imageamento de abertura múltipla multiespectral das Figuras 3A-10B.
[0032] A Figura 16 representa um fluxo de trabalho para realizar a classificação pixel por pixel nos dados de imagem multiespectral, por exemplo dados da imagem capturada usando o processo da Figura 13, processados de acordo com as Figuras 14 e 15, e/ou usando os sistemas de imageamento de abertura múltipla multiespectral das Figuras 3A-10B.
[0033] A Figura 17 representa um diagrama em bloco esquemático de um sistema de computação distribuído que inclui os sistemas de imageamento de abertura múltipla multiespectrais das Figuras 3A-10B.
[0034] As Figuras 18A a 18C ilustram uma modalidade portátil exemplificativa de um sistema de imageamento de múltipla abertura multiespectral.
[0035] As Figuras 19A e 19B ilustram uma modalidade portátil exemplificativa de um sistema de imageamento de múltipla abertura multiespectral.
[0036] As Figuras 20A e 20B ilustram um sistema de imageamento de abertura múltipla multiespectral exemplificativo para um pequeno USB 3.0 embutido em um compartimento de câmera comum.
[0037] A Figura 21 ilustra um sistema de imageamento de abertura múltipla multiespectral exemplificativo que incluindo um iluminante adicional para registro de imagem aprimorado.
[0038] A Figura 22 mostra uma progressão de tempo exemplificativa de uma úlcera de pé diabético (DFU) em cicatrização com a área, volume e medidas de desbridamento correspondentes.
[0039] A Figura 23 mostra uma progressão de tempo exemplificativa de uma DFU que não cicatriza com a área, volume e medidas de desbridamento correspondentes.
[0040] A Figura 24 ilustra esquematicamente um sistema de aprendizado de máquina exemplificativo para gerar uma predição de cura com base em uma ou mais imagens de um DFU.
[0041] A Figura 25 ilustra esquematicamente um sistema de aprendizado de máquina exemplificativo para gerar uma predição de cura com base em uma ou mais imagens de um DFU e uma ou mais medidas de saúde do paciente.
[0042] A Figura 26 ilustra um conjunto exemplificativo de bandas de comprimento de onda usado para imagem espectral e/ou multiespectral para segmentação de imagem e/ou geração de parâmetros de cura previstos de acordo com a presente tecnologia.
[0043] A Figura 27 é um histograma que ilustra os efeitos da inclusão de variáveis clínicas em métodos de avaliação de feridas exemplificativos da presente tecnologia.
[0044] A Figura 28 ilustra esquematicamente um autocodificador exemplificativo de acordo com os sistemas e métodos de aprendizado por máquina da presente tecnologia.
[0045] A Figura 29 ilustra esquematicamente um algoritmo de aprendizagem por máquina supervisionado exemplificativo de acordo com os sistemas e métodos de aprendizado por máquina da presente tecnologia.
[0046] A Figura 30 ilustra esquematicamente um algoritmo de aprendizagem por máquina de ponta a ponta exemplificativo de acordo com os sistemas e métodos de aprendizado por máquina da presente tecnologia.
[0047] A Figura 31 é um gráfico de barras que ilustra a precisão demonstrada de vários exemplos de algoritmos de aprendizado por máquina de acordo com a presente tecnologia.
[0048] A Figura 32 é um gráfico de barras que ilustra a precisão demonstrada de vários exemplos de algoritmos de aprendizado por máquina de acordo com a presente tecnologia.
[0049] A Figura 33 ilustra esquematicamente um exemplo de processo de predição e geração de cura de uma representação visual de um mapeamento de probabilidade condicional de acordo com os sistemas de aprendizado por máquina e métodos da presente tecnologia.
[0050] A Figura 34 ilustra esquematicamente um algoritmo de mapeamento de probabilidade condicional exemplificativo que inclui uma ou mais camadas de transformada linear com base em recursos (FiLM).
[0051] A Figura 35 ilustra a precisão demonstrada de várias abordagens de segmentação de imagem para gerar um mapa de probabilidade de cura condicional de acordo com a tecnologia atual.
[0052] A Figura 36 ilustra um conjunto exemplificativo de núcleos de filtro convolucional usados em um método de análise de comprimento de onda individual exemplificativo para predição de cura de acordo com os sistemas de aprendizado por máquina e métodos da tecnologia atual.
[0053] A Figura 37 ilustra uma máscara de região real exemplificativa gerada com base em uma imagem DFU para segmentação de imagem de acordo com os sistemas e métodos de aprendizado por máquina da tecnologia atual.
[0054] A Figura 38 ilustra a precisão demonstrada de uma segmentação de imagem de ferida exemplificativa de acordo com os sistemas e métodos de aprendizado por máquina da presente tecnologia.
Descrição Detalhada
[0055] Aproximadamente 15 a 25% dos 26 milhões de americanos com diabetes desenvolverão uma úlcera do pé diabético (DFU). Essas feridas levam à perda de mobilidade e menor qualidade de vida. Até 40% daqueles que desenvolvem uma DFU desenvolverão uma infecção da ferida que aumenta o risco de amputação e morte. A mortalidade relacionada apenas às DFUs é tão alta quanto 5% durante o primeiro ano e tão alta quanto 42% dentro de cinco anos. Isso é agravado por um alto risco anual de amputação maior (4,7%) e amputação menor (39,8%). Além disso, o custo para tratar uma DFU anualmente é de aproximadamente $ 22.000 a $ 44.000, e o encargo geral para o sistema de saúde dos EUA devido às DFUs está na faixa de $ 9 bilhões a $ 13 bilhões por ano.
[0056] Geralmente aceita-se que as DFUs com mais de 50% de redução de área (PAR) após 30 dias cicatrizarão em 12 semanas com terapia de tratamento padrão. No entanto, o uso dessa métrica requer quatro semanas de tratamento da ferida antes que se possa determinar se uma terapia mais eficaz (por exemplo, uma terapia de cuidado avançado) deve ser usada. Em uma abordagem clínica típica para tratamento de feridas para apresentação inicial não urgente, como para uma DFU, um paciente recebe terapia de tratamento de feridas padrão (por exemplo, correção de problemas vasculares, otimização da nutrição, controle de glicose, desbridamento, curativos e/ou alívio de pressão) por aproximadamente 30 dias após a apresentação e avaliação inicial da ferida.
Aproximadamente no dia 30, a ferida é avaliada para determinar se está cicatrizando (por exemplo, redução da área percentual superior a 50%). Se a ferida não estiver cicatrizando o suficiente, o tratamento é suplementado com uma ou mais terapias avançadas de gerenciamento de feridas, que podem incluir fatores de crescimento, tecidos de bioengenharia, oxigênio hiperbárico, pressão negativa, amputação, fator de crescimento derivado de plaquetas humano recombinante (por exemplo, Regranex™ Gel), substitutos dérmicos humanos modificados por bioengenharia (por exemplo, Dermagraft™) e/ou substitutos de pele em duas camadas (por exemplo, Apligraf™). No entanto, aproximadamente 60% das DFUs não mostram cicatrização suficiente após 30 dias de terapia padrão para tratamento de feridas. Além disso, aproximadamente 40% das DFUs com cicatrização precoce ainda não cicatrizam em 12 semanas, e o tempo médio de cicatrização das DFU foi estimado em 147 dias, 188 dias e 237 dias para úlceras do dedo do pé, médio-pé e calcanhar, respectivamente.
[0057] As DFUs que não conseguem atingir a cura desejável após 30 dias de tratamento convencional ou padrão de tratamento de feridas se beneficiariam do fornecimento de terapias avançadas de tratamento de feridas o mais cedo possível, por exemplo, durante os primeiros 30 dias de terapia de feridas. No entanto, com o uso de métodos de avaliação convencionais, os médicos normalmente não conseguem identificar com precisão uma DFU que não responderá a 30 dias de terapia padrão de tratamento de feridas. Muitas estratégias bem-sucedidas que melhoram a terapia de DFU estão disponíveis, mas não são prescritas até que a terapia padrão para tratamento de feridas seja descartada empiricamente.
Dispositivos de medição fisiológica têm sido usados para tentar diagnosticar o potencial de cura de uma DFU, como medição transcutânea de oxigênio, imagem Doppler a laser e videoangiografia com indocianina verde. No entanto, esses dispositivos sofreram com a imprecisão, falta de dados úteis, falta de sensibilidade e custo proibitivamente alto e, portanto, não foram adequados para uso generalizado na avaliação de DFUs e outras feridas. Claramente, um meio mais precoce e preciso de prever DFU ou outra cicatrização de feridas é importante para determinar rapidamente a melhor terapia e reduzir o tempo para o fechamento da ferida.
[0058] Descrita de modo geral, a presente tecnologia fornece dispositivos de imageamento não invasivos e de ponto de atendimento, capazes de diagnosticar o potencial de cura de DFUs, queimaduras e outras feridas. Em várias modalidades, os sistemas e métodos da presente tecnologia podem permitir que um clínico determine, no momento ou logo após o momento da apresentação ou avaliação inicial, o potencial de cura da ferida. Em algumas modalidades, a presente tecnologia pode permitir a determinação do potencial de cura de seções individuais de uma ferida, como uma DFU ou queimadura. Com base no potencial de cura previsto, uma decisão entre as terapias de tratamento de feridas padrão e avançada pode ser feita no dia 0 ou próximo a ele, em vez de ser adiada por mais de 4 semanas a partir da apresentação inicial.
Consequentemente, a tecnologia atual pode resultar em tempos de cura reduzidos e menos amputações.
Sistemas de Imageamento Espectral e Multiespectral
[0059] Vários sistemas de imageamento espectral e multiespectral serão agora descritos, cada um dos quais pode ser usado de acordo com a DFU e outros métodos de avaliação, predição e de terapia de feridas aqui revelados. Em algumas modalidades, as imagens para avaliação de feridas podem ser capturadas com sistemas de imageamento espectral configurados para iluminar a imagem dentro de uma única banda de comprimento de onda. Em outras modalidades, as imagens podem ser capturadas com sistemas de imageamento espectral configurados para capturar duas ou mais bandas de comprimento de onda. Em um exemplo específico, as imagens podem ser capturadas com um dispositivo de imagem monocromática, RGB e/ou infravermelho, como aqueles incluídos em dispositivos móveis disponíveis comercialmente. Modalidades adicionais referem-se à imagem espectral que usa um sistema de abertura múltipla com filtros de multifaixa de passagem curvos posicionados sobre cada abertura. No entanto, será entendido que a avaliação de feridas, predição e métodos terapêuticos da presente tecnologia não estão limitados aos dispositivos de aquisição de imagem específicos aqui revelados e podem igualmente ser implementados com qualquer dispositivo de imagem capaz de adquirir dados de imagem em uma ou mais bandas de comprimento de onda conhecidas.
[0060] A presente revelação se refere ainda a técnicas para a implementação de desmistura espectral e registro de imagem para gerar um cubo de dados espectral usando informações de imagem recebidas de tais sistemas de imageamento. A tecnologia revelada aborda uma série de desafios que estão normalmente presentes no imageamento espectral, descritos abaixo, a fim de produzir dados de imagem que representam informações precisas sobre bandas de comprimento de onda que foram refletidas de um objeto de imageado. Em algumas modalidades, os sistemas e métodos descritos neste documento adquirem imagens de uma ampla área de tecido (por exemplo, 5,9 x 7,9 polegadas) em um curto período de tempo (por exemplo, dentro de 6 segundos ou menos) e podem fazer isso sem exigir a injeção de agentes de contraste de imageamento. Em alguns aspectos, por exemplo,
o sistema de imagem multiespectral aqui descrito é configurado para adquirir imagens de uma ampla área de tecido, por exemplo, 5,9 x 7,9 polegadas, dentro de 6 segundos ou menos e, em que o dito sistema de imagem multiespectral também está configurado para fornecer informações de análise de tecido, como a identificação de uma pluralidade de estados de queimadura, estados de ferida,
estados de úlcera, potencial de cura, uma característica clínica incluindo um estado canceroso ou não canceroso do tecido de imagem, profundidade da ferida, volume da ferida,
uma margem para desbridamento ou a presença de úlcera diabética, não diabética ou crônica na ausência de agentes de contraste de imageamento.
De modo similar, em alguns dos métodos descritos no presente documento, o sistema de imagem multiespectral adquire imagens de uma ampla área de tecido,
por exemplo, 5,9 x 7,9 polegadas, dentro de 6 segundos ou menos e o dito sistema de imagem multiespectral produz informações de análise de tecido, como a identificação de uma pluralidade de estados de queimadura, estados de ferida,
potencial de cura, uma característica clínica incluindo um estado canceroso ou não canceroso do tecido de imagem,
profundidade da ferida, volume da ferida, uma margem para desbridamento ou a presença de úlcera diabética, não diabética ou crônica na ausência de agentes de contraste de imageamento.
[0061] Um desses desafios nas soluções existentes é que as imagens capturadas podem sofrer distorções de cores ou disparidades que comprometem a qualidade dos dados da imagem. Isso pode ser particularmente problemático para aplicações que dependem da detecção e análise precisas de certos comprimentos de onda de luz que usam filtros ópticos.
Especificamente, o sombreamento de cor é uma variação dependente da posição no comprimento de onda da luz através da área do sensor de imagem, devido ao fato de que a transmitância de um filtro de cor muda para comprimentos de onda mais curtos conforme o ângulo de luz incidente no filtro aumenta. Normalmente, esse efeito é observado em filtros baseados em interferência, que são fabricados por meio da deposição de camadas finas com índices de refração variáveis em um substrato transparente. Consequentemente, comprimentos de onda mais longos (como luz vermelha) podem ser bloqueados mais nas bordas do sensor de imagem devido a ângulos de raios de luz incidentes maiores, resultando no mesmo comprimento de onda de luz de entrada sendo detectado como uma cor espacialmente não uniforme através do sensor de imagem. Se não for corrigido, o sombreamento de cor se manifesta como mudança na cor perto das bordas da imagem capturada.
[0062] A tecnologia da presente revelação fornece muitos outros benefícios com relação a outros sistemas de imageamento multiespectrais no mercado porque não é restritivo na configuração de sensores de lente e/ou de imagem e seus respectivos campos de visão ou tamanhos de abertura. Será entendido que mudanças em lentes, sensores de imagem, tamanhos de abertura, ou outros componentes dos sistemas de imageamento presentemente revelados podem envolver outros ajustes para o sistema de imageamento como seria conhecido por aqueles versados na técnica. A tecnologia da presente revelação também provê aperfeiçoamentos sobre outros sistemas de imageamento multiespectral pelo fato de que os componentes que realizam a função de solucionar os comprimentos de onda ou fazer com que o sistema como um todo seja capaz de resolver os comprimentos de onda (por exemplo, filtros ópticos ou similares) podem ser separados dos componentes que transformam a energia luminosa em saídas digitais (por exemplo, sensores de imagem ou similares).
Isto reduz o custo, a complexidade, e/ou o tempo de desenvolvimento para reconfigurar sistemas de imageamento para diferentes comprimentos de onda multiespectrais. A tecnologia da presente revelação pode ser mais robusta do que outros sistemas de imageamento multiespectral pelo fato de que pode realizar as mesmas características de imageamento que outros sistemas de imageamento multiespectrais no mercado em um fator de forma menor e mais leve. A tecnologia da presente revelação é também benéfica em relação a outros sistemas de imageamento multiespectral pelo fato de que pode adquirir imagens multiespectrais em um instantâneo, taxa de vídeo, ou taxa de vídeo de alta velocidade. A tecnologia da presente revelação também provê uma implementação mais robusta de sistemas de imageamento multiespectral com base em tecnologia de múltiplas aberturas como a capacidade de multiplexar várias bandas espectrais em cada abertura reduz o número de aberturas necessárias para adquirir qualquer número específico de bandas espectrais em um conjunto de dados de imageamento, reduzindo assim os custos através de um número reduzido de aberturas e coleta de luz melhorada (por exemplo, como aberturas maiores podem ser usadas dentro do tamanho e dimensões fixas de arranjos de sensor comercialmente disponíveis). Finalmente, a tecnologia da presente revelação pode fornecer todos estes benefícios sem uma contrapartida com relação à resolução ou qualidade de imagem.
[0063] A Figura 1A ilustra um exemplo de um filtro 108 posicionado ao longo da trajetória da luz em direção a um sensor de imagem 110, e também ilustra a luz incidente no filtro 108 em ângulos de raio diferentes. Os raios 102A, 104A, 106A são representados como linhas que, após passar através do filtro 108, são refratados sobre o sensor 110 por uma lente 112, que também pode ser substituída por qualquer outra óptica de imageamento, incluindo sem limitação um espelho e/ou uma abertura. A luz para cada raio é presumida na Figura 1A para ser de banda larga, por exemplo, tendo uma composição espectral que se estende sobre uma grande faixa de comprimento de onda a ser seletivamente filtrada pelo filtro 108. Os três raios 102A, 104A, 106A, cada um, chegam ao filtro 108 em um ângulo diferente. Para fins ilustrativos, o raio de luz 102A é mostrado como sendo incidente substancialmente normal ao filtro 108, o raio de luz 104A tem um maior ângulo de incidência do que o raio de luz 102A, e o raio de luz 106A tem um ângulo de incidência maior do que o raio de luz 104A. Os raios filtrados resultantes 102B, 104B, 106B exibem um espectro único devido à dependência angular das propriedades de transmitância do filtro 108 como visto pelo sensor 110. O efeito desta dependência causa uma mudança na banda de passagem do filtro 108 para comprimentos de onda mais curtos à medida que o ângulo de incidência aumenta. Adicionalmente, a dependência pode causar uma redução na eficiência de transmissão do filtro 108 e uma alteração do formato espectral da banda de passagem do filtro
108. Estes efeitos combinados são referidos como a transmissão espectral dependente de angular. A Figura 1B ilustra o espectro de cada raio de luz na Figura 1A como visto por um espectrômetro hipotético na localização do sensor 110 para ilustrar o deslocamento da banda de passagem espectral do filtro 108 em resposta ao aumento do ângulo de incidência. As curvas 102C, 104C e 106C demonstram o encurtamento do comprimento de onda central da banda de passagem; consequentemente, a redução dos comprimentos de onda da luz passada pelo sistema óptico no exemplo. Também mostrado, o formato da banda de passagem e a transmissão de pico são alteradas devido à incidência de ângulo, também.
Para certas aplicações de consumidor, o processamento de imagem pode ser aplicado para remover os efeitos visíveis desta transmissão espectral dependente de angular.
Entretanto, essas técnicas de pós-processamento não permitem a recuperação de informações precisas com relação às quais o comprimento de onda da luz foi realmente incidente sobre o filtro 108. Consequentemente, os dados de imagem resultantes podem ser inutilizáveis para certas aplicações de alta precisão.
[0064] Outro desafio enfrentado por certos sistemas de imageamento espectral existentes é o tempo necessário para a captura de um conjunto completo de dados de imagem espectral, conforme discutido em relação às Figuras 2A e 2B.
Os sensores de imageamento espectral amostram a irradiação espectral I(x,y,λ) de uma cena e assim coletam um conjunto de dados tridimensional (3D) tipicamente chamado de cubo de dados. A Figura 2A ilustra um exemplo de um bubo de dados de imagem espectral 120. Conforme ilustrado, o cubo de dados 120 representa três dimensões de dados de imagem: duas dimensões espaciais (x e y) correspondentes à superfície bidimensional (2D) do sensor de imagem, e uma dimensão espectral (λ) correspondente a uma banda de comprimento de onda específica. As dimensões do cubo de dados 120 pode ser dada por NxNyNλ, onde 𝑁 , 𝑁 , e 𝑁 são o número de elementos de amostra ao longo das (x, y) dimensões espaciais e eixos geométricos espectrais λ, respectivamente. Como os pontos de dados são de uma dimensionalidade mais alta do que os arranjos de detector 2D (por exemplo, sensores de imagem) que estão atualmente disponíveis, sistemas de imageamento espectral típicos capturam fatias 2D sequenciais em tempo, ou planos, dos cubos de dados 120 (referidos aqui como sistemas de imageamento de “varredura”), ou simultaneamente medem todos os elementos do cubo de dados pela divisão do mesmo em múltiplos elementos 2D que podem ser recombinados no cubo de dados 120 no processamento (referido aqui como sistemas de imageamento de “instantâneo”).
[0065] A Figura 2B ilustra exemplos de como determinadas tecnologias de imageamento espectral de varredura geram o cubo de dados 120. Especificamente, a Figura 2B ilustra as porções 132, 134 e 136 dos cubos de dados 120 que podem ser coletadas durante um período de integração de detector único. Um espectrômetro de varredura de ponto, por exemplo, pode capturar uma porção 132 que se estende através de todos os planos espectrais λ em uma posição espacial única (x, y). Um espectrômetro de varredura de ponto pode ser usado para construir o cubo de dados 120 pela realização de várias integrações que correspondem a cada posição (x, y) através das dimensões espaciais. Um sistema de imageamento de roda de filtro, por exemplo, pode capturar uma porção 134 que se estende através da totalidade de ambas as dimensões espaciais x e y, mas apenas um único plano espectral λ. Um sistema de imageamento de varredura de comprimento de onda, tal como um sistema de imageamento de roda de filtro, pode ser usado para construir o cubo de dados 120 pela realização de várias integrações correspondentes ao número de planos espectrais λ. Um espectrômetro de varredura de linha, por exemplo, pode capturar uma porção 136 que se estende através de todas as dimensões espectrais λ e todas de uma das dimensões espaciais (x ou y), mas apenas um único ponto ao longo da outra dimensão espacial (y ou x). Um espectrômetro de varredura de linha pode ser usado para construir o cubo de dados 120 pela realização de um número de integrações correspondentes a cada posição desta outra dimensão espacial (y ou x).
[0066] Para aplicações nas quais o objeto alvo e o sistema de imageamento são ambos imóveis (ou permanecem relativamente imóveis durante os tempos de exposição), esses sistemas de imageamento de varredura proporcionam o benefício de produzir um cubo de dado de alta resolução 120.
Para sistemas de imageamento de varredura de linha e de varredura de comprimento de onda, isto pode ser devido ao fato de que cada imagem espectral ou espacial é capturada usando toda a área do sensor de imagem. Entretanto, o movimento do sistema de imageamento e/ou objeto entre as exposições pode causar artefatos nos dados de imagem resultantes. Por exemplo, a mesma posição (x, y) no elemento de dados 120 pode realmente representar uma localização física diferente no objeto imageado através da dimensão espectral λ. Isto pode levar a erros na análise a jusante e/ou impor um requisito adicional para executar o registro (por exemplo, alinhando a dimensão espectral λ de modo que uma posição específica (x, y) corresponde à mesma localização física no objeto).
[0067] Em comparação, um sistema de imageamento de instantâneo 140 pode capturar um cubo de dado inteiro 120 em um único período ou exposição de integração, desse modo evitando tais problemas de qualidade de imagem induzidos por movimento. A Figura 2C ilustra um sensor de imagem exemplar 142 e um arranjo de filtro óptico, tal como um arranjo de filtro de cor (CFA) 144 que pode ser usado para criar um sistema de imageamento de instantâneo. O CFA 144 neste exemplo é um padrão repetitivo de unidades de filtro de cor 146 através da superfície do sensor de imagem 142. Este método de adquirir informação espectral também pode ser referido como um arranjo de filtro multiespectral (MSFA) ou um arranjo de detector espectralmente resolvido (SRDA). No exemplo ilustrado, a unidade de filtro de cor 146 inclui um arranjo 5x5 de filtros de cor diferentes, que geram 25 canais espectrais nos dados de imagem resultantes.
Por meio desses filtros de cor diferentes, o CFA pode dividir a luz de entrada nas bandas dos filtros, e direcionar a luz dividida para fotorreceptores dedicados no sensor de imagem.
Deste modo, para uma dada cor 148, somente l/25° dos fotorreceptores realmente detectam um sinal que representa a luz daquele comprimento de onda.
Desse modo, embora 25 canais de cor diferentes possam ser gerados em uma única exposição com este sistema de imageamento de instantâneo
140, cada canal de cor representa uma quantidade menor de dados medidos do que a saída total do sensor 142. Em algumas modalidades, um CFA pode incluir um ou mais de um arranjo de filtro (MSFA), um arranjo de detector espectralmente resolvido (SRDA), e/ou pode incluir um filtro Bayer convencional, filtro CMYK, ou qualquer outro filtro baseado em absorção ou baseado em interferência.
Um tipo de filtro baseado em interferência seria um arranjo de filtros de película fina dispostos em uma grade com cada elemento da grade correspondendo a um ou mais elementos sensores.
Outro tipo de filtro baseado em interferência é um filtro Fabry-
Perot.
Os filtros Fabry-Perot de interferência nanocauterizada, que exibem largura a meia altura da banda de passagem típica (FWHM) da ordem de 20 a 50 nm, são vantajosos porque eles podem ser usados em algumas modalidades devido ao roll-off lento da banda de passagem do filtro vista na transição de seu comprimento de onda central para sua banda de bloqueio. Estes filtros também exibem um baixo OD nessas bandas de bloqueio, permitindo ainda maior sensibilidade à luz fora das suas passagens. Estes efeitos combinados tornam estes filtros específicos sensíveis a regiões espectrais que de outra forma seriam bloqueadas pelo roll-off rápido de um filtro de alta interferência de OD com uma FWHM similar feita com muitas camadas de filme fino em um processo de deposição de revestimento tal como na deposição evaporativa ou na crepitação de feixe de íons. Em modalidades com configurações de filtro CMYK ou RGB (Bayer) à base de corante, o roll-off espectral lento e o FWHM grande de faixas de passagem de filtro individuais são preferidos e fornecem uma porcentagem de transmissão espectral única para comprimentos de onda individuais por todo o espectro observado.
[0068] Consequentemente, o cubo de dados 120 que resulta de um sistema de imageamento de instantâneo terá uma de duas propriedades que podem ser problemáticas para aplicações de imageamento de precisão. Como uma primeira opção, o dispositivo de imageamento 120 que resulta de um sistema de imageamento de instantâneo pode ter menores tamanhos 𝑁 e 𝑁 do que o tamanho (x, y) do arranjo de detector e, assim, ser de menor resolução do que o cubo de dados 120, que seria gerado por um sistema de imageamento de varredura que tem o mesmo sensor de imagem. Como uma segunda opção, o cubo de dados 120 que resulta de um sistema de imageamento de instantâneo pode ter os mesmos tamanhos 𝑁 e 𝑁 que o tamanho (x, y) do arranjo de detector devido a valores de interpolação para certas posições (x, y).
Entretanto, a interpolação usada para gerar tal cubo de dados significa que certos valores no cubo de dados não são medições reais do comprimento de onda da luz incidente sobre o sensor, mas, ao invés disso, as estimativas do que a medição real pode ser baseada em valores circundantes.
[0069] Outra opção existente para o imageamento multiespectral de exposição única é o divisor de feixe multiespectral. Em tais sistemas de imageamento, os cubos de divisor de feixe dividem a luz incidente em faixas de cor distintas, com cada banda observada por sensores de imagem independentes. Embora se possa mudar os projetos de divisor de feixe para ajustar as bandas espectrais medidas, não é fácil dividir a luz incidente em mais de quatro feixes sem comprometer o desempenho do sistema. Assim, quatro canais espectrais parecem ser o limite prático desta abordagem. Um método estritamente relacionado é usar filtros de filme fino em vez de cubos/prismas de divisor de feixe mais volumosos para dividir a luz, entretanto, esta abordagem é ainda limitada a cerca de seis canais espectrais devido a limitações de espaço e perdas de transmissão cumulativa através de filtros sucessivos.
[0070] Os problemas acima mencionados, entre outros, são abordados em algumas modalidades pelo sistema de imageamento espectral de múltiplas aberturas revelado com filtros multi-passa-faixa, de preferência filtros multi- passa-faixa curvos, para filtrar a luz que chega através de cada abertura, e as técnicas de processamento de dados de imagem associadas. Esta configuração específica é capaz de alcançar todos os objetivos de projeto de velocidades de imageamento rápidas, imagens de alta resolução, e fidelidade precisa de comprimentos de onda detectados.
Consequentemente, o projeto óptico revelado e as técnicas de processamento de dados de imagem associadas podem ser usadas em sistemas de imageamento espectral portáteis e/ou para alvos móveis de imagem, enquanto ainda produz um cubo de dados adequado para aplicações de alta precisão (por exemplo, análise de tecido clínico, reconhecimento biométrico, eventos clínicos transitórios). Essas aplicações de maior precisão podem incluir o diagnóstico de melanoma nos estágios iniciais (0 a 3) antes da metástase, a classificação de um ferimento ou gravidade de queimadura sobre o tecido da pele,
ou o diagnóstico de tecido da gravidade da úlcera do pé diabético. Consequentemente, o pequeno fator de forma e a aquisição espectral do instantâneo, conforme descrito em algumas modalidades, permitirão o uso desta invenção em ambientes clínicos com eventos transientes, que incluem o diagnóstico de várias retinopatias diferentes (por exemplo, retinopatia diabética não proliferativa, retinopatia diabética proliferativa, e degeneração macular relacionada à idade) e o imageamento de pacientes pediátricos móveis.
Consequentemente, será apreciado por aqueles versados na técnica que o uso de um sistema de múltiplas aberturas com filtros multi-passa-faixa planos ou curvos, como descrito aqui, representa um avanço tecnológico significativo em relação às implementações de imageamento espectral anteriores. Especificamente, o sistema de múltiplas aberturas pode permitir a coleta de imagens espaciais 3D de ou relacionadas com a curvatura de objeto, profundidade, volume e/ou área com base na disparidade calculada das diferenças de perspectiva entre cada abertura. No entanto, as estratégias de múltiplas aberturas aqui apresentadas não são limitadas a qualquer filtro específico e podem incluir filtros planos e/ou finos, com base em filtragem de interferência ou absorção. Esta invenção, conforme aqui revelada, pode ser modificada para incluir filtros planos no espaço de imagem do sistema de imageamento no caso de lentes ou aberturas adequadas que usam uma faixa pequena ou aceitável de ângulos de incidência. Filtros também podem ser colocados no batente de abertura ou na pupila de entrada/saída das lentes de imageamento como um versado na técnica de engenharia óptica pode ver se adaptar para fazê- lo.
[0071] Vários aspectos da revelação serão agora descritos com relação a certos exemplos e modalidades, os quais pretendem ilustrar, mas não limitar a revelação. Embora os exemplos e modalidades aqui descritos foquem, com o propósito de ilustração, em cálculos e algoritmos específicos, alguém versado na técnica apreciará que os exemplos devem ilustrar apenas, e não se destinam a ser limitantes. Por exemplo, embora alguns exemplos sejam apresentados no contexto de uma imagem multiespectral, o sistema de imageamento de múltiplas aberturas descrito e filtros associados podem ser configurados para obter imageamento hiperespectral em outras implementações.
Adicionalmente, embora certos exemplos sejam apresentados para se obter benefícios para aplicações alvos portáteis e/ou móveis, será apreciado que o design do sistema de imageamento revelado e as técnicas de processamento associadas podem produzir um cubo de dados de alta precisão adequado para sistemas de imageamento fixos e/ou para análise de alvos relativamente imóveis.
Visão Geral de Faixas Eletromagnéticas e Sensores de Imagem
[0072] Certas cores ou porções do espectro eletromagnético são referidas aqui, e serão agora discutidas com relação ao seu comprimento de onda como definido pelas definições ISO 21348 das categorias espectrais de irradiação. Conforme descrito adicionalmente abaixo, em certas aplicações de imageamento, as faixas de comprimento de onda para cores específicas podem ser agrupadas para passar através de um determinado filtro.
[0073] Radiação eletromagnética que varia de comprimentos de onda de ou aproximadamente 760 nm a comprimentos de onda de ou aproximadamente 380 nm são tipicamente consideradas como o espectro de luz visível, isto é, a porção do espectro reconhecível pelos receptores de cor do olho humano. Dentro do espectro visível, a luz vermelha tipicamente é considerada como tendo um comprimento de onda de ou aproximadamente 700 nanômetros (nm), ou estar na faixa de ou aproximadamente 760 nm a 610 nm ou aproximadamente 610 nm. A luz laranja normalmente é considerada como tendo um comprimento de onda de ou aproximadamente 600 nm, ou estar na faixa de ou aproximadamente 610 nm a aproximadamente 591 nm ou 591 nm.
A luz amarela normalmente é considerada como tendo um comprimento de onda de ou aproximadamente 580 nm, ou estar na faixa de ou aproximadamente 591 nm a aproximadamente 570 nm ou 570 nm. A luz verde normalmente é considerada como tendo um comprimento de onda de ou aproximadamente 550 nm, ou estar na faixa de ou aproximadamente 570 nm a aproximadamente 500 nm ou 500 nm. A luz azul normalmente é considerada como tendo um comprimento de onda de ou aproximadamente 475 nm, ou estar na faixa de ou aproximadamente 500 nm a aproximadamente 450 nm ou 450 nm.
A luz violeta (roxa) normalmente é considerada como tendo um comprimento de onda de ou aproximadamente 400 nm, ou estar na faixa de ou aproximadamente 450 nm a aproximadamente 360 nm ou 360 nm.
[0074] Voltando para as faixas fora do espectro visível, o infravermelho (IR) refere-se à radiação eletromagnética com comprimentos de onda mais longos do que aqueles da luz visível, e é geralmente invisível ao olho humano. Os comprimentos de onda de IR se estendem a partir da borda vermelha nominal do espectro visível a aproximadamente 760 nm ou 760 nm a aproximadamente 1 milímetro (mm) ou 1 mm. Dentro desta faixa, o infravermelho próximo (NIR) refere-se à porção do espectro que é adjacente à faixa vermelha, variando de comprimentos de onda entre aproximadamente 760 nm ou 760 nm a aproximadamente 1400 nm ou 1400 nm.
[0075] Radiação ultravioleta (UV) se refere a alguma radiação eletromagnética com comprimentos de onda mais curtos do que aqueles de luz visível, e é geralmente invisível ao olho humano. Os comprimentos de onda UV se estendem a partir da borda violeta nominal do espectro visível a aproximadamente 40 nm ou 40 nm a aproximadamente 400 nm. Dentro desta faixa, quase ultravioleta (NUV) refere- se à porção do espectro que é adjacente à faixa violeta, variando de comprimentos de onda entre aproximadamente 400 nm ou 400 nm a aproximadamente 300 nm ou 300 nm, luz ultravioleta média (MUV) varia de comprimentos de onda entre aproximadamente 300 nm ou 300 nm a aproximadamente 200 nm ou 200 nm, e luz ultravioleta (FUV) varia de comprimentos de onda entre aproximadamente 200 nm ou 200 nm a aproximadamente 122 nm ou 122 nm.
[0076] Os sensores de imagem aqui descritos podem ser configurados para detectar radiação eletromagnética em qualquer uma das faixas acima descritas, dependendo das faixas de comprimento de onda específicas que são adequadas para um aplicativo específico. A sensibilidade espectral de um dispositivo acoplado com carga baseada em silício (CCD) ou sensor de óxido de metal-semicondutor complementar (CMOS) típico se estende consideravelmente através do espectro visível, e também se estende consideravelmente para o espectro quase infravermelho (IR) e às vezes para dentro do espectro UV. Algumas implementações podem alternativamente ou adicionalmente usar arranjos de CCD ou CMOS iluminados ou não iluminados. Para aplicações que requerem medições de alta SNR e de grau científico, algumas implementações podem alternativamente ou adicionalmente usar câmeras de óxido de metal-semicondutoras complementares científicas (sCMOS) ou câmeras CCD de multiplicação de elétron (EDAC). Outras implementações podem alternativamente ou adicionalmente usar sensores conhecidos para operar em faixas de cor específicas (por exemplo, infravermelho de onda curta (SWIR), infravermelho de onda média (MWIR), ou infravermelho de onda longa (LWIR)) e arranjos ópticos correspondentes, com base nas aplicações pretendidas. Estes podem alternativa ou adicionalmente incluir câmeras baseadas em materiais detectores incluindo arseneto de gálio-índio (InGaAs) ou antimoneto de índio (InSb) ou com base em arranjos de microbolômetro.
[0077] Os sensores de imagem usados nas técnicas de imageamento multiespectral descritas podem ser usados em conjunto com um arranjo de filtro óptico, como um arranjo de filtro de cor (CFA). Alguns CFAs podem dividir a luz de entrada na faixa visível em categorias de vermelho (R), verde (G) e azul (B) para direcionar a luz visível dividida para os receptores de fotodiodo vermelho, verde ou azul dedicados no sensor de imagem. Um exemplo comum para um CFA é o padrão Bayer, que é um padrão específico para dispor filtros de cor
RGB em uma grade retangular de fotosensores. O padrão Bayer é 50% verde, 25% vermelho e 25% azul com fileiras de filtros de cor vermelho e verde repetidos alternando com fileiras de filtros de cor azul e verde repetidos. Alguns CFAs (por exemplo, para sensores RGB-NIR) também podem separar a luz NIR e direcionar a luz NIR dividida para os receptores de fotodiodo dedicados no sensor de imagem.
[0078] Dessa forma, as faixas de comprimento de onda dos componentes de filtro do CFA podem determinar as faixas de comprimento de onda representadas por cada canal de imagem em uma imagem capturada. Consequentemente, um canal vermelho de uma imagem pode corresponder às regiões de comprimento de onda vermelho do filtro de cor e pode incluir alguma luz amarela e laranja, variando de aproximadamente 570 nm ou 570 nm a aproximadamente 760 nm ou 760 nm em várias modalidades.
Um canal verde de uma imagem pode corresponder a uma região de comprimento de onda verde de um filtro de cor e pode incluir alguma luz amarela, variando de aproximadamente 570 nm ou 570 nm a aproximadamente 480 nm ou 480 nm em várias modalidades. Um canal azul de uma imagem pode corresponder a uma região de comprimento de onda azul de um filtro de cor e pode incluir alguma luz violeta, variando de aproximadamente 490 nm ou 490 nm a aproximadamente 400 nm ou 400 nm em várias modalidades. Como uma pessoa versada na técnica apreciará, os comprimentos de onda de início e final exatos (ou porções do espectro eletromagnético) que definem cores de um CFA (por exemplo, vermelho, verde e azul) podem variar dependendo da implementação de CFA.
[0079] Além disso, os CFAs de luz visível típicos são transparentes à luz fora do espectro visível. Portanto, em muitos sensores de imagem, a sensibilidade a IR é limitada por um filtro de IR reflexivo de filme fino na face do sensor que bloqueia o comprimento de onda infravermelho enquanto passa luz visível. Entretanto, isto pode ser omitido em alguns dos sistemas de imageamento descritos para permitir a passagem de luz IV. Assim, os canais vermelho, verde e/ou azul também podem ser usados para coletar bandas de comprimento de onda de IR. Em algumas implementações, o canal azul também pode ser usado para coletar certas faixas de comprimento de onda NUV. As respostas espectrais distintas dos canais vermelho, verde e azul com relação às suas eficiências de transmissão únicas em cada comprimento de onda em uma pilha de imagem espectral podem fornecer uma resposta unicamente ponderada de bandas espectrais a serem desmisturadas usando os perfis de transmissão conhecidos.
Por exemplo, isto pode incluir a resposta de transmissão conhecida em regiões de comprimento de onda de IR e UV para os canais vermelho, azul e verde, permitindo seu uso na coleta de faixas dessas regiões.
[0080] Conforme descrito em maiores detalhes abaixo,
filtros de cor adicionais podem ser colocados antes do CFA ao longo da trajetória de luz em direção ao sensor de imagem a fim de refinar seletivamente as bandas específicas de luz que se tornam incidentes no sensor de imagem.
Alguns dos filtros revelados podem ser uma combinação de filtros dicroicos (filme fino) e/ou absorvente ou um único filtro dicroico e/ou absorvente.
Alguns dos filtros de cor descritos podem ser filtros passa-faixa que passam frequências dentro de uma certa faixa (em uma faixa de passagem) e rejeitam
(atenuam) frequências fora daquela faixa (em uma faixa de bloqueio). Alguns dos filtros de cor descritos podem ser filtros multi-passa-faixa que passam por múltiplas faixas descontínuas de comprimentos de onda.
Estas faixas de onda de luz podem ter faixas de faixa de passagem menores,
atenuação de faixa de bloqueio maior, e roll-off espectral mais agudo, que é definido como a inclinação da resposta espectral à medida que o filtro transita da faixa de passagem para a faixa de bloqueio, do que a faixa de cor maior do filtro CFA.
Por exemplo, estes filtros de cor revelados podem cobrir uma faixa de passagem de aproximadamente 20 nm ou 20 nm ou aproximadamente 40 nm ou 40 nm.
A configuração específica de tais filtros de cor pode determinar as faixas de comprimento de onda reais que são incidentes sobre o sensor, o que pode aumentar a precisão das técnicas de imageamento reveladas.
Os filtros de cor revelados no presente documento podem ser configurados para bloquear ou passar seletivamente bandas específicas de radiação eletromagnética em qualquer uma das faixas acima descritas, dependendo das bandas de comprimento de onda específicas que são adequadas para um aplicativo específico.
[0081] Conforme descrito aqui, uma representação de pixel 2D pode ser usada para descrever a saída gerada por um elemento do arranjo de detector 2D. Em comparação, um fotodiodo, um único elemento fotossensível neste arranjo, se comporta como um transdutor capaz de converter fótons em elétrons através do efeito fotoelétrico, que é então por sua vez convertido em um sinal utilizável usado para determinar o valor de pixel. Um único elemento do elemento do cubo de dados pode ser referido como um “voxel” (por exemplo, um elemento de volume). Um “vetor espectral” refere-se a um vetor que descreve os dados espectrais em uma posição específica (x, y) em um cubo de dados (por exemplo, o espectro de luz recebido de um ponto específico no espaço de objeto). Um único plano horizontal do cubo de dados (por exemplo, uma imagem que representa uma única dimensão espectral), é referido aqui como um “canal de imagem”. Certas modalidades descritas aqui podem capturar informação de vídeo espectral, e as dimensões de dados resultantes podem assumir a forma de imagem “hipercubo” N N N N , onde 𝑁 é o número de quadros capturados durante uma sequência de vídeo.
Visão geral de Exemplo de Sistemas de Imageamento de Múltiplas Aberturas com Filtros Multi-Passa-Faixa Curvos
[0082] A Figura 3A representa uma vista esquemática em sistema de imageamento de abertura múltipla exemplificativo 200 com filtros multi-passa-faixa curvos, de acordo com a presente revelação. A vista ilustrada inclui uma primeira região de sensor de imagem 225A (fotodiodos PD1-PD3) e uma segunda região de sensor de imagem 225B (fotodiodos PD4-PD6). Os fotodiodos PD1-PD6 podem ser, por exemplo, os fotodiodos formados em um substrato semicondutor, por exemplo, em um sensor de imagem CMOS.
Geralmente, cada um dos fotodiodos PD1-PD6 pode ser uma unidade simples de qualquer material, semicondutor, elemento sensor ou outro dispositivo que converte luz incidente em corrente. Será apreciado que uma pequena porção do sistema geral é ilustrada com a finalidade de explicar a sua estrutura e operação, e que na implementação as regiões de sensor de imagem de podem ter centenas ou milhares de fotodiodos (e filtros de cor correspondentes). As regiões de sensor de imagem 225A e 225B podem ser implementadas como sensores separados, ou como regiões separadas do mesmo sensor de imagem, dependendo da implementação. Embora a Figura 3A represente duas aberturas e trajetórias de luz correspondentes e regiões de sensor, será apreciado que os princípios de design óptico ilustrados pela Figura 3A podem ser estendidos a três ou mais aberturas e trajetórias de luz correspondentes e regiões de sensor, dependendo da implementação.
[0083] O sistema de imageamento de múltiplas aberturas 200 inclui uma primeira abertura 210A que provê uma primeira trajetória de luz em direção à primeira região de sensor 225A, e uma segunda abertura 210B que provê uma primeira trajetória de luz em direção à segunda região de sensor 225B. Essas aberturas podem ser ajustáveis para aumentar ou diminuir o brilho da luz que cai na imagem, ou de modo que a duração das exposições de imagem específicas possa ser mudada e o brilho da luz que cai nas regiões do sensor de imagem não muda. Essas aberturas também podem estar localizadas em qualquer posição ao longo dos eixos ópticos deste sistema de múltiplas aberturas como julgado razoável por alguém versado na técnica de design óptico. O eixo geométrico óptico dos componentes ópticos posicionados ao longo da primeira trajetória de luz é ilustrado pela linha tracejada 230A e o eixo geométrico óptico dos componentes ópticos posicionados ao longo da segunda trajetória de luz é ilustrado pela linha tracejada 230B, e será apreciado que estas linhas tracejadas não representam uma estrutura física do sistema de imageamento de múltiplas aberturas 200. Os eixos geométricos ópticos 230A, 230B são separados por uma distância D, que pode resultar em disparidade entre as imagens capturadas pelas primeira e segunda regiões de sensor 225A, 225B. A disparidade refere-se à distância entre dois pontos correspondentes nas imagens esquerda e direita (ou superior e inferior) de um par estereoscópico, de modo que o mesmo ponto físico no espaço do objeto pode aparecer em diferentes localizações em cada imagem. As técnicas de processamento para compensar e alavancar esta disparidade são descritas em maiores detalhes abaixo.
[0084] Cada eixo óptico 230A, 230B passa através de um Centro C da abertura correspondente, e os componentes ópticos também podem ser centralizados ao longo desses eixos ópticos (por exemplo, o ponto de simetria rotacional de um componente óptico pode ser posicionado ao longo do eixo óptico). Para o primeiro filtro multi-passa-faixa curvo 205A e a primeira lente de imageamento 215A podem ser centralizados ao longo do primeiro eixo geométrico óptico 230A, e o segundo filtro multi-passa-faixa curvo 205B e a segunda lente de imageamento 215B podem ser centralizados ao longo do segundo eixo geométrico óptico 230B.
[0085] Conforme usado aqui com relação ao posicionamento de elementos ópticos, “sobre” e “acima” referem-se à posição de uma estrutura (por exemplo, um filtro ou lente de cor) de modo que a luz que entra no sistema de imageamento 200 a partir do espaço de objeto se propaga através da estrutura antes de alcançá-la (ou é incidente sobre) outra estrutura.
Para ilustrar, ao longo da primeira trajetória de luz, o filtro multi-passa-faixa curvo 205A é posicionado acima da abertura 210A, a abertura 210A é posicionada acima da lente de imageamento 215A, a lente de imageamento 215A é posicionada acima do espaço CFA 220 a, e a lente CFA 220A é posicionada acima da primeira região de sensor de imagem 225A.
Consequentemente, a luz do espaço de objeto (por exemploo espaço físico sendo imageado)
primeiramente passa através do filtro multi-passa-faixa curvo 205A, depois pela abertura 210A, depois pela lente de imageamento 215A, depois pela lente de imageamento 215A, e finalmente é incidente sobre a primeira região de sensor de imagem 225A.
A segunda trajetória de luz (por exemplo, o filtro multi-passa-faixa curvo 205B, a abertura 210B, a lente de imageamento 215B, o CFA 220B, a segunda região de sensor de imagem 225B) segue uma disposição similar.
Em outras implementações, a abertura 210A, 210B e/ou as lentes de imageamento 215A, 215B podem ser posicionadas acima do filtro multi-passa-faixa curvo 205A, 205B.
Adicionalmente, outras implementações podem não usar uma abertura física e podem se basear na abertura clara da óptica para controlar o brilho da luz que é formado na imagem sobre a região de sensor 225A,
225B.
Consequentemente, as lentes 215A, 215B podem ser colocadas acima da abertura 210A, 210B e filtro multi-passa-
faixa curvo 205A, 205B.
Nesta implementação, a abertura 210A,
210B e as lentes 215A, 215B também podem ser colocadas sobre ou sob a outra, conforme é considerado necessário por alguém versado na técnica de design óptico.
[0086] O primeiro CFA 220A posicionado sobre a primeira região de sensor 225A e o segundo CFA 220B posicionado sobre a segunda região de sensor 225B pode atuar como filtros de passagem seletivos de comprimento de onda e dividir a luz de entrada na faixa visível em faixas de vermelho, verde e azul (conforme indicado pela notação R, G e B). A luz é facilmente dividida, permitindo que apenas certos comprimentos de onda selecionados passem através de cada um dos filtros de cor nos primeiro e segundo CFAs 220A, 220B. A luz dividida é recebida por diodos vermelho, verde ou azul dedicados no sensor de imagem. Embora filtros de cor vermelha, azul e verde sejam comumente usados, em outras modalidades, os filtros de cor podem variar de acordo com os requisitos de canal de cor dos dados de imagem capturados, por exemplo, incluindo filtros de passagem ultravioleta, infravermelho, ou quase infravermelho, como com um RGB-IR CFA.
[0087] Conforme ilustrado, cada filtro do CFA é posicionado sobre um único fotodiodo PD1-PD6. A Figura 3A também ilustra microlentes exemplificativas (indicadas por ML) que podem ser formadas sobre ou de outro modo posicionadas sobre cada filtro de cor, a fim de focalizar a luz que chega sobre as regiões do detector ativas. Outras implementações podem ter múltiplos fotodiodos sob um único filtro (por exemplo, agrupamentos de 2, 4 ou mais fotodiodos adjacentes). No exemplo ilustrado, o fotodiodo PD1 e o Fotodiodo PD4 estão sob filtros de cor vermelha e, assim, transmitiriam informação de pixel de canal vermelho; o fotodiodo PD2 e o fotodiodo PD5 estão sob filtros de cor verde e, assim, enviariam informação de pixel de canal verde; e o fotodiodo PD3 e o fotodiodo PD6 estão sob filtros de cor azul e assim seriam as informações de pixel de canal azul.
Adicionalmente, conforme descrito em mais detalhes abaixo, os canais de cor específicos emitidos por determinados fotodiodos podem ser adicionalmente limitados a bandas de onda mais estreitas com base em iluminantes ativados e/ou bandas de onda específicas passadas pelos filtros multi- passa-faixa 205A, 205B, de modo que um dado fotodiodo possa emitir diferentes informações de canal de imagem durante diferentes exposições.
[0088] As lentes de imageamento 215A, 215B podem ser conformadas para focalizar uma imagem da cena de objeto sobre as regiões de sensor 225A, 225B. Cada lente de imageamento 215A, 215B pode ser composta de muitos elementos ópticos e superfícies necessárias para imageamento e não são limitadas a lentes convexas únicas como apresentado na Figura 3A, permitindo o uso de uma ampla variedade de lentes de imageamento ou conjuntos de lente que seriam disponíveis comercialmente ou por design personalizado.
Cada elemento ou conjunto de lente pode ser formado ou ligado em conjunto em uma pilha ou mantido em série usando um cilindro optomecânico com um anel de retenção ou bisel.
Em algumas modalidades, os elementos ou conjuntos de lente podem incluir um ou mais grupos de lente ligados, tais como dois ou mais componentes ópticos cimentados ou de outra forma ligados juntos.
Em várias modalidades, qualquer um dos filtros multi-passa-faixa aqui descritos pode ser posicionado em frente de um conjunto de lente do sistema de imagem multiespectral, em frente de um singleto do sistema de imagem multiespectral, atrás de um conjunto de lente do sistema de imagem multiespectral, atrás de um singleto do sistema de imagem multiespectral, dentro de um conjunto de lente do sistema de imagem multiespectral,
dentro de um grupo de lente ligada do sistema de imagem multiespectral, diretamente sobre uma superfície de um singleto do sistema de imagem multiespectral, ou diretamente sobre uma superfície de um elemento de um conjunto de lente do sistema de imagem multiespectral.
Adicionalmente, as aberturas 210A e 210B podem ser removidas, e as lentes 215A,
215B podem ser da variedade tipicamente usada em fotografia com câmeras digitais-monofocais-reflexo (DSLR) ou sem espelho.
Adicionalmente, essas lentes podem ser da variedade usada na visão da máquina usando-se roscas em de montagem-C ou de montagem-S para montagem. O ajuste do foco pode ser provido pelo movimento das lentes de imageamento 215A, 215B em relação às regiões de sensor 225A, 225B ou movimento das regiões de sensor 225A, 225B em relação às lentes de imageamento 215 A, 215B, por exemplo, com base na focalização manual, foco de contraste com base em contraste, ou outras técnicas de foco automático adequadas.
[0089] Os filtros multi-passa-faixa 205A, 205B podem ser cada um configurado para seletivamente passar múltiplas bandas de onda estreitas de luz, por exemplo, bandas de onda de 10-50 nm em algumas modalidades (ou bandas de onda mais largas ou mais estreitas em outras modalidades). Conforme ilustrado na Figura 3A, ambos os filtros multi-passa-faixa 205A, 205B podem passar a banda de onda λc (a “banda de onda comum”). Em implementações com três ou mais trajetórias de luz, cada filtro multi-passa-faixa pode passar esta banda de onda comum. Desta maneira, cada região de sensor captura informação de imagem na mesma banda de onda (o “canal comum”). Esta informação de imagem neste canal comum pode ser usada para registrar os conjuntos de imagens capturadas por cada região de sensor, conforme descrito em mais detalhes abaixo. Algumas implementações podem ter uma banda de onda comum e canal comum correspondente, ou podem ter múltiplas bandas de onda comuns e canais comuns correspondentes.
[0090] Além da banda de onda comum λc, cada filtro multi-passa-faixa 205A, 205B pode ser cada um configurado para passar seletivamente uma ou mais bandas de onda únicas.
Desta maneira, o sistema de imageamento 200 é capaz de aumentar o número de canais espectrais distintos capturados coletivamente pelas regiões de sensor 205A, 205B além das quais podem ser capturados por uma única região de sensor.
Isto é ilustrado na Figura 3A pelos filtros multi-passa- faixa 205A passando a banda de onda única λu1, e os filtros multi-passa-faixa 205B passando a banda de onda única λu2, onde λu1 e λu2 representam diferentes bandas de onda uma da outra. Embora representada como passando duas bandas de onda, a multi-passa-faixa revelada pode, cada, passar um conjunto de duas ou mais bandas de onda. Por exemplo, algumas implementações podem passar quatro bandas de onda cada, conforme descrito com relação às Figuras 11A e 11B. Em várias modalidades, um número maior de bandas de onda pode ser passado. Por exemplo, algumas implementações de quatro câmeras podem incluir filtros multi-passa-faixa configurados para passar 8 bandas de onda. Em algumas modalidades, o número de bandas de onda pode ser, por exemplo, 4, 5, 6, 7, 8, 9, 10, 12, 15, 16 ou mais bandas de onda.
[0091] Os filtros multi-passa-faixa 205A, 205B têm uma curvatura selecionada para reduzir a transmissão espectral dependente de angular através das respectivas regiões de sensor 225A, 225B. Como resultado, ao receber iluminação de banda estreita a partir do espaço de objeto, cada fotodiodo através da área das regiões de sensor 225A, 225B que é sensível ao comprimento de onda (por exemplo, o filtro de cor sobrejacente passa aquele comprimento de onda) deve receber substancialmente o mesmo comprimento de onda de luz, ao invés de fotodiodos próximos à borda do sensor que experimenta o deslocamento de comprimento de onda descrito acima com relação à Figura 1A. Isto pode gerar dados de imagem espectral mais precisos do que com o uso de filtros planos.
[0092] A Figura 3B ilustra um design óptico exemplar para componentes ópticos de uma trajetória de luz do sistema de imageamento de múltiplas aberturas da Figura 3A.
Especificamente, a Figura 3B ilustra um dublete acromático personalizado 240 que pode ser usado para fornecer os filtros multi-passa-faixa 205A, 205B. O feixe acromático personalizado 240 passa a luz através de um alojamento 250 para um sensor de imagem 225. O alojamento 250 pode incluir as aberturas 210A, 210B e as lentes de imageamento 215A, 215B descritas acima.
[0093] O dublete acromático 240 é configurado para corrigir as aberrações ópticas conforme introduzida pela incorporação de superfícies necessárias para os revestimentos de filtros multi-passa-faixa 205A, 205B. O dublete acromático ilustrado 240 inclui duas lentes individuais, que podem ser produzidas a partir de vidros ou outros materiais ópticos tendo diferentes quantidades de dispersão e diferentes índices refrativos. Outras implementações podem usar três ou mais lentes. Essas lentes de dubletes acromáticos podem ser projetadas para incorporar os revestimentos de filtro multi-passa-faixa 205A, 205B na superfície frontal curva 242 enquanto elimina aberrações ópticas introduzidas que estariam de outro modo presentes através da incorporação de uma superfície óptica de singleto curva com os revestimentos de filtro depositados 205A, 205B enquanto ainda limitam a energia óptica e de foco fornecida pelo dublete acromático 240 devido ao efeito combinatório da superfície frontal curva 242 e da superfície traseira curva de 244 enquanto ainda mantém os elementos primários para luz de foco restrita às lentes alojadas no alojamento 250. Assim, o duble-te acromático 240 pode contribuir para a alta precisão dos dados de imagem capturados pelo sistema 200.
Essas lentes individuais podem ser montadas próximas umas das outras, por exemplo, sendo ligadas ou cimentadas juntas, e moldadas de modo que a aberração de uma das lentes seja contrabalançada por aquela da outra. A superfície frontal curvada 242 do dublete acromático 240 ou a superfície traseira curva 244 pode ser revestida com o revestimento de filtros multi-passa-faixa 205A, 205B. Outros designs de dubletes podem ser implementados com os sistemas aqui descritos.
[0094] Variações adicionais dos designs ópticos aqui descritos podem ser implementadas. Por exemplo, em algumas modalidades, uma trajetória de luz pode incluir um singleto ou outro singleto óptico tal como da variedade de menisco positivo ou negativo como representado na Figura 3A em vez da dublete 240 representada na Figura 3B. A Figura 3C ilustra uma implementação exemplificativa na qual um filtro plano 252 é incluído entre o invólucro das lentes 250 e o sensor
225. O dublete acromático 240 na Figura 3C provê correção de aberração óptica como introduzida pela inclusão do filtro plano 252 contendo um perfil de transmissão de multi-passa- faixa enquanto não contribui significativamente para a potência ótica como proporcionada pelas lentes contidas no alojamento 250. A Figura 3D ilustra um outro exemplo de uma implementação na qual o revestimento de multi-passa-faixa é implementado por meio de um revestimento de multi-passa- faixa 254 aplicado à superfície frontal do conjunto de lente contido dentro do alojamento 250. Dessa forma, este revestimento de multi-passa-faixa 254 pode ser aplicado a qualquer superfície curva de qualquer elemento óptico residindo no alojamento 250.
[0095] As Figuras 4A a 4E representam uma modalidade de um sistema de imageamento de abertura múltipla multiespectral 300, com um design óptico conforme descrito em relação às Figuras 3A e 3B. Especificamente, a Figura 4A ilustra uma vista em perspectiva do sistema de imageamento 300 com o alojamento 305 ilustrado com a translucidez para revelar os componentes internos. O alojamento 305 pode ser maior ou menor em relação ao alojamento ilustrado 305, por exemplo, com base em uma quantidade desejada de recursos de computação embutidos. A Figura 4B representa uma vista frontal do sistema de imageamento 300. A Figura 4C representa uma vista lateral cortada do sistema de imageamento 300, cortada ao longo da linha C-C ilustrada na Figura 4B. A Figura 4D representa uma vista inferior do sistema de imageamento 300 que representa a placa de processamento 335.
As Figuras 4A a 4D são descritas juntas abaixo.
[0096] O alojamento 305 do sistema de imageamento 300 pode estar embutido em um outro alojamento. Por exemplo, as implementações portáteis podem embutir o sistema dentro de um alojamento opcionalmente com um ou mais cabos formados para facilitar a manutenção estável do sistema de imageamento
300. As implementações portáteis são descritas em maiores detalhes nas Figuras 18A a 18 C e nas Figuras 19A a 19B. A superfície superior do alojamento 305 inclui quatro aberturas 320A a 320D. Um filtro de passagem de banda diferente 325A a 325D é posicionado sobre cada abertura 320A a 320D e mantido no lugar por uma tampa de filtro 330A a 330B. Os filtros multi-passa-faixa 325A a 325D podem ou não ser curvos, e cada um passa uma banda de onda comum e pelo menos uma banda de onda única, como descrito aqui, a fim de obter imagem multiespectral de alta precisão através de um maior número de canais espectrais do que seria de outra forma capturado pelo sensor de imagem devido ao seu arranjo de filtro de cor sobrejacente. O sensor de imagem, lentes de imageamento e filtros de cor descritos acima são posicionados dentro dos alojamentos de câmera 345A a 345D. Em algumas modalidades, um único alojamento de câmera pode encerrar os sensores de imagem, lentes de imageamento, e filtros de cor descritos acima, por exemplo, conforme mostrado nas Figuras 20A a 20B. Na implementação descrita, sensores separados são assim usados (por exemplo, um sensor dentro de cada alojamento de câmera 345A a 345D), mas será apreciado que um único sensor de imagem que se estende através de todas as regiões expostas através das aberturas 320A a 320D poderia ser usado em outras implementações. Os alojamentos de câmera 345A A 3445 D são presos ao alojamento do sistema 305 usando os suportes 340 nesta modalidade, e podem ser presos usando outros suportes em várias implementações.
[0097] A superfície superior do alojamento 305 suporta um painel de iluminação opcional 310 coberto por um elemento difusor óptico 315. O painel de iluminação 310 é descrito em maiores detalhes com relação à Figura 4E, abaixo.
O elemento difusor 315 pode ser composto de vidro, plástico,
ou outro material óptico para difundir luz emitida a partir do painel de iluminação 310 de modo que o espaço de objeto receba iluminação substancialmente uniforme. Mesmo a iluminação do objeto alvo pode ser benéfica em certas aplicações de imageamento, por exemplo, análise clínica do tecido imageado, porque ela provê, dentro de cada comprimento de onda, uma quantidade substancialmente uniforme de iluminação através da superfície do objeto. Em algumas modalidades, os sistemas de imageamento aqui descritos podem utilizar luz ambiente ao invés de ou em adição à luz a partir do painel de iluminação opcional.
[0098] Devido ao calor gerado pela placa de iluminação 310 em uso, o sistema de imageamento 300 inclui um dissipador de calor 350 que inclui um número de aletas de dissipação de calor 355. As aletas de dissipação de calor 355 podem se estender para dentro do espaço entre os alojamentos de câmera 345A a 345D, e a porção superior do dissipador de calor 350 pode extrair calor do painel de iluminação 310 para as aletas 355. O dissipador de calor 350 pode ser feito de materiais termicamente condutores adequados. O dissipador de calor 350 pode ajudar adicionalmente a dissipar o calor de outros componentes, de modo que algumas implementações de sistemas de imageamento possam ser sem ventoinha.
[0099] Uma série de suportes 365 no alojamento 305 segura uma placa de processamento 335 em comunicação com as câmeras 345A a 345D. A placa de processamento 335 pode controlar a operação do sistema de imageamento 300. Embora não ilustrado, o sistema de imageamento 300 também pode ser configurado com uma ou mais memórias, por exemplo, que armazenam dados gerados pelo uso do sistema de imageamento e/ou módulos de instruções executáveis por computador para controle do sistema. A placa de processamento 335 pode ser configurada de várias maneiras, dependendo dos objetivos do projeto do sistema. Por exemplo, a placa de processamento pode ser configurada (por exemplo, por um módulo de instruções executáveis por computador) para controlar a ativação de LEDs específicos da placa de iluminação 310.
Algumas implementações podem usar um driver de LED redutor síncrono altamente estável, que pode permitir controle de software de corrente de LED analógico e também detecção de falha de LED. Algumas implementações podem fornecer adicionalmente funcionalidade de análise de dados de imagem para a placa de processamento (por exemplo, por módulos de instruções executáveis por computador) 335 ou para uma placa de processamento separada. Embora não ilustrado, o sistema de imageamento 300 pode incluir interconexões de dados entre os sensores e a placa de processamento 335 de modo que a placa de processamento 335 possa receber e processar dados dos sensores e entre a placa de iluminação 310 e a placa de processamento 335 de modo que o placa de processamento possa conduzir a ativação de LEDs específicos da placa de iluminação 310.
[00100] A Figura 4E ilustra uma placa de iluminação exemplificadora 310 que pode ser incluída no sistema de imageamento 300, em isolamento dos outros componentes. O painel de iluminação 310 inclui quatro braços se estendendo de uma região central, com LEDs posicionados ao longo de cada braço em três colunas. Os espaços entre LEDs em colunas adjacentes são lateralmente deslocados um do outro para criar a separação entre LEDs adjacentes. Cada coluna de LEDs inclui um número de fileiras tendo diferentes cores de LEDs. Quatro LEDs verdes 371 são posicionados na região central, com um LED verde em cada canto da região central. Partindo da fileira mais interna (por exemplo, mais próxima do centro), cada coluna inclui uma fileira de dois LEDs vermelhos profundos 372 (para um total de oito LEDs vermelhos profundos). Continuando radialmente para fora, cada braço tem uma fileira de um LED âmbar 374 na coluna central, uma fileira de dois LEDs azuis curtos 376 nas colunas mais externas (para um total de oito LEDs azuis curtos), uma outra fileira de um LED âmbar 374 na coluna central (para um total de oito LEDs âmbar), uma fileira tendo um LED NIR não PPG 373 e um LED vermelho 375 nas colunas mais externas (para um total de quatro de cada), e um LED de PPG NIR 377 na coluna central (para um total de quatro LEDs de PPG NIR). Um termo "LED" refere-se a um LED ativado durante um número de exposição sequencial para capturar a informação fotopletismográfica (PPG) representando o fluxo sanguíneo pulsátil no tecido vivo. Será entendido que uma variedade de outras cores e/ou disposições das mesmas pode ser usada em placas de iluminação de outras modalidades.
[00101] A Figura 5 representa outra modalidade de um sistema de imageamento de abertura múltipla multiespectral, com um design óptico conforme descrito em relação às Figuras 3A e 3B. Similar ao design do sistema de imageamento 300, o sistema de imageamento 400 inclui quatro trajetórias de luz, aqui mostradas como aberturas 420A a 420D tendo grupos de lentes de filtro multi-passa-faixa 425A a 425 D, os quais são presos ao alojamento 405 pelos anéis de retenção 430A a 430D. O sistema de imageamento 400 também inclui um painel de iluminação 410 preso à face frontal do alojamento 405 entre os anéis de retenção 430A a 430D, e um difusor 415 posicionado sobre o painel de iluminação 410 para ajudar a emitir luz espacialmente uniforme sobre o objeto alvo.
[00102] O painel de iluminação 410 do sistema 400 inclui quatro ramificações de LEDs em um formato transversal, com cada ramificação incluindo duas colunas de LEDs proximamente espaçados. Assim, o painel de iluminação 410 é mais compacto do que o painel de iluminação 310 descrito acima, e pode ser adequado para uso com sistemas de imageamento tendo requisitos de fator de forma menor. Nesta configuração exemplificativa, cada ramificação inclui uma fileira mais externa tendo um LED verde e um LED azul, e movendo para dentro inclui duas fileiras de LEDs amarelos, uma fileira de LEDs laranja, uma fileira tendo um LED vermelho e um LED vermelho profundo, e uma fileira tendo um LED âmbar e um LED NIR. Consequentemente, nesta implementação, os LEDs são dispostos de modo que LEDs que emitem luz de comprimentos de onda mais longos estão no centro da placa de iluminação 410, enquanto os LEDs que emitem luz de comprimentos de onda mais curtos estão nas bordas da placa de iluminação 410.
[00103] As Figuras 6A a 6C representam outra modalidade de um sistema de imageamento de abertura múltipla multiespectral 500, com um design óptico conforme descrito em relação às Figuras 3A e 3B. Especificamente, a Figure 6A representa uma vista em perspectiva do sistema de imageamento 500, a Figure 6B representa uma vista frontal do sistema de imageamento 500, e a Figura 6C representa uma vista lateral cortada do sistema de imageamento 500, cortado ao longo da linha C-C ilustrada na Figura 6B. O sistema de imageamento 500 inclui componentes similares àqueles descritos acima com relação ao sistema de imageamento 300 (por exemplo, um alojamento 505, placa de iluminação 510, placa de difusão
515, filtros multi-passa-faixa 525A a 525D presos sobre aberturas por meio de anéis de retenção 530A a 530D), mas representa um fator de forma mais curto (por exemplo, em uma modalidade com menos e/ou menores componentes de computação embutidos). O sistema 500 também inclui uma montagem direta de câmara para estrutura 540 para rigidez e robustez adicionais do alinhamento da câmera.
[00104] As Figuras 7A a 7B representam outra modalidade de um sistema de imageamento de abertura múltipla multiespectral 600. As Figuras 7A-7B ilustram outro arranjo possível de fontes de luz 610A-610C ao redor de um sistema de imageamento de múltiplas aberturas 600. Conforme descrito, quatro conjuntos de lente com filtro multi-passa- faixa 625A a 625D com um design óptico conforme descrito com relação às figuras 3A a 3D podem ser dispostos em uma configuração retangular ou quadrada para fornecer luz para quatro câmeras 630A a 630D (incluindo sensores de imagem).
Três elementos de emissão de luz retangulares 610A a 610C podem ser dispostos paralelos um ao outro fora de e entre os conjuntos de lente com filtros multi-passa-faixa 625A a 625D.
Estes podem ser painéis de emissão de luz de amplo espectro ou arranjos de LEDs que emitem bandas de onda de luz distintas.
[00105] As Figuras 8A a 8B representam outra modalidade de um sistema de imageamento de abertura múltipla multiespectral 700. As Figuras 8A-8B ilustram outro arranjo possível de fontes de luz 710A-710D ao redor de um sistema de imageamento de múltiplas aberturas 700. Como descrito, quatro conjuntos de lente com filtros multi-passa-faixa 725A a 725D, empregando um design óptico como descrito com relação às Figuras 3A a 3D, podem ser dispostos em uma configuração retangular ou quadrada para fornecer luz a quatro câmeras 730A a 730D (incluindo sensores de imagem). As quatro câmeras 730A a 730D são ilustradas em uma configuração exemplificativa mais próxima que pode minimizar as diferenças de perspectiva entre as lentes. Quatro elementos de emissão de luz retangulares 710A a 710D podem ser posicionados em um quadrado circundando os conjuntos de lente com filtros multi-passa-faixa 725A a 725D. Estes podem ser painéis de emissão de luz de amplo espectro ou arranjos de LEDs que emitem bandas de onda de luz distintas.
[00106] As Figuras 9A a 8C representam outra modalidade de um sistema de imageamento de abertura múltipla multiespectral 800. O sistema de imageamento 800 inclui uma estrutura 805 acoplada a uma frente de estrutura de agrupamento de lente 830 que inclui aberturas 820 e estruturas de suporte para lentes de microvídeo 825, que podem ser providas com filtros multi-passa-faixa usando um design óptico como descrito com relação às Figuras 3A a 3D.
As lentes de microvídeo 825 fornecem luz para quatro câmeras
845 (incluindo lentes de imageamento e regiões de sensor de imagem) montadas em uma estrutura de agrupamento de lente
840. Quatro arranjos lineares de LEDs 811 são dispostos ao longo dos quatro lados da frente de estrutura de agrupamento de lente 830, cada um provido com seu próprio elemento difusor 815. As Figuras 9B e 9C representam dimensões exemplificativas em polegadas para mostrar um tamanho possível do sistema de imageamento de múltiplas aberturas
800.
[00107] A Figura 10A representa outra modalidade de um sistema de imageamento de abertura múltipla multiespectral 900, com um design óptico conforme descrito em relação às Figuras 3A a 3D. O sistema de imageamento 900 pode ser implementado como um conjunto de filtros multi- passa-faixa 905 que são fixáveis sobre uma câmera de múltiplas aberturas 915 de um dispositivo móvel 910. Por exemplo, certos dispositivos móveis 910, tais como smartphones, podem ser equipados com sistemas de imageamento estereoscópicos tendo duas aberturas levando a duas regiões de sensor de imagem. As técnicas de imageamento espectral de múltiplas aberturas descritas podem ser implementadas em tais dispositivos provendo-as com um conjunto adequado de filtros multi-passa-faixa 905 para passar múltiplas bandas de onda mais estreitas de luz para as regiões de sensor.
Opcionalmente, o conjunto de filtros multi-passa-faixa 905 pode ser equipado com um iluminante (como um arranjo LED e difusor) que fornece luz nessas bandas de onda para o espaço de objeto.
[00108] O sistema 900 também pode incluir um aplicativo móvel que configura o dispositivo móvel para realizar o processamento que gera os dados multiespectrais, bem como processar os dados multiespectrais (por exemplo, para classificação de tecido clínico, reconhecimento biométrico, análise de materiais ou outros aplicativos).
Alternativamente, o aplicativo móvel pode configurar o dispositivo 910 para enviar o cubo de dados multiespectral sobre uma rede para um sistema de processamento remoto, e então receber e exibir um resultado da análise. Uma interface de usuário exemplificativa 910 para tal aplicativo é mostrada na Figura 10B.
[00109] As Figuras 11A -11B representam um conjunto exemplar de bandas de onda que podem ser passadas pelos filtros de implementações de quatro filtros dos sistemas de imageamento de múltiplas aberturas multiespectrais das Figuras 3A a 10B, por exemplo, a um sensor de imagem tendo a CFA Bayer (ou outro RGB ou CFA RGB-IR). A resposta de transmissão espectral de bandas de onda como passada pelos filtros multi-passa-faixa é mostrada pelas linhas sólidas nos gráficos 1000 da figura 11A e são denotadas por 𝑇 ʎ , onde n representa o número de câmera, variando de 1 a 4. As linhas tracejadas representam a resposta espectral combinada de 𝑇 ʎ com a transmissão espectral de um pixel verde, 𝑄 ʎ , um pixel vermelho, 𝑄 ʎ , ou um pixel azul, 𝑄 ʎ , que estaria presente em uma CFA Bayer típica. Estas curvas de transmissão também incluem os efeitos da eficiência quântica devido ao sensor usado neste exemplo. Conforme ilustrado, este conjunto de quatro câmeras captura coletivamente oito canais únicos ou bandas de onda. Cada filtro passa duas bandas de onda comuns (os dois picos mais à esquerda) para as respectivas câmeras, bem como duas bandas de onda adicionais. Nesta implementação, a primeira e a terceira câmeras recebem luz em uma primeira banda de onda NIR compartilhada (o pico mais à direita), e a segunda e quarta câmeras recebem luz em uma segunda banda de onda NIR compartilhada (o segundo pico mais à direita).
Cada uma das câmeras também recebe uma banda de onda única que varia de aproximadamente 550 nm ou 550 nm a aproximadamente 800 nm ou 800 nm. Assim, a câmera pode capturar oito canais espectrais únicos usando uma configuração compacta. Um gráfico 1010 na Figura 11B ilustra a irradiação espectral de um painel LED como descrito na Figura 4E que pode ser usado como iluminação para as 4 câmeras mostradas na Figura 11A.
[00110] Nesta implementação, as oito bandas de onda foram selecionadas com base na produção de canais espectrais adequados para a classificação de tecido clínico, e também podem ser otimizadas com relação à relação sinal-ruído (SNR)
e taxa de quadro enquanto limita o número de LEDs (que introduzem calor no sistema de imageamento). As oito bandas de onda incluem uma banda de onda comum de luz azul (o pico mais à esquerda nos gráficos 1000) que é passada por todos os quatro filtros, porque o tecido (por exemplo, tecido animal incluindo tecido humano) exibe contraste maior em comprimentos de onda azuis do que em comprimentos de onda verde ou vermelho.
Especificamente, o tecido humano exibe seu contraste mais alto quando imageado em uma banda de onda centralizada em torno de 420 nm, conforme mostrado nos gráficos 1000. Porque o canal correspondente à banda de onda comum é usado para correção de disparidade, este contraste maior pode produzir correção mais precisa.
Por exemplo, na correção de disparidade, o processador de imagem pode empregar métodos locais ou globais para encontrar um conjunto de disparidades de modo que uma figura de mérito correspondente à similaridade entre os patches de imagem local ou as imagens seja maximizada.
Alternativamente, o processador de imagem pode empregar métodos similares que minimizam uma figura de mérito correspondente à dissimilaridade.
Estas figuras de mérito podem ser baseadas em entropia, correlação, diferenças absolutas, ou em métodos de aprendizado profundos.
Os métodos globais de cálculo de disparidade podem operar iterativamente, terminando quando a figura de mérito é estável.
Os métodos locais podem ser usados para calcular a disparidade ponto a ponto, usando um patch fixo em uma imagem como uma entrada na figura de mérito e um número de diferentes patches, cada um determinado por um valor diferente de disparidade sob teste, a partir da outra imagem.
Todos esses métodos podem ter restrições impostas na faixa de disparidades que são consideradas.
Estas restrições podem ser baseadas no conhecimento da profundidade e distância do objeto, por exemplo.
As restrições também poderiam ser impostas com base em uma faixa de gradientes esperadas em um objeto.
As restrições sobre as disparidades calculadas também podem ser impostas pela geometria projetiva, como a restrição epipolar.
A disparidade pode ser calculada em múltiplas resoluções, com a saída de disparidades calculadas em resoluções mais baixas atuando como valores iniciais ou restrições nas disparidades calculadas no nível seguinte de resolução.
Por exemplo, uma disparidade calculada em um nível de resolução de 4 pixels em um cálculo pode ser usada para ajustar restrições de ± 4 pixels em um próximo cálculo de disparidade em resolução mais alta.
Todos os algoritmos que calculam a partir da disparidade se beneficiarão de contraste mais alto,
especificamente se essa fonte de contraste for correlacionada para todos os pontos de vista.
De modo geral,
a banda de onda comum pode ser selecionada com base em correspondente ao imageamento de contraste mais alto do material que se espera ter a imagem formada para um aplicativo específico.
[00111] Após a captura de imagem, a separação de cor entre canais adjacentes pode não ser perfeita, e assim esta implementação também tem uma banda de onda comum adicional passada por todos os filtros ilustrados nos gráficos 1000 como a banda de onda verde adjacente à banda de onda azul.
Isto é porque os pixels de filtro de cor azul são sensíveis a reações do espectro verde devido à sua faixa de faixa espectral ampla. Isto tipicamente se manifesta como sobreposição espectral, que também pode ser caracterizada como diafonia intencional, entre pixels RGB adjacentes. Esta sobreposição permite que a sensibilidade espectral de câmeras de cor seja similar à sensibilidade espectral de uma retina humana, de modo que o espaço de cor resultante seja qualitativamente similar à visão humana. Consequentemente, ter um canal verde comum pode permitir a separação da porção do sinal gerado pelos fotodiodos azuis que verdadeiramente corresponde à luz azul recebida, separando a porção do sinal devido à luz verde. Isto pode ser realizado usando algoritmos de desmistura espectral que é um fator na transmitância (mostrado na legenda por T com uma linha preta sólida) do filtro multi-passa-faixa, a transmitância do filtro de cor
CFA correspondente (mostrado na legenda por Q com linhas tracejadas, verdes e azuis). Será apreciado que algumas implementações podem usar luz vermelha como uma banda de onda comum, e em tais casos um segundo canal comum pode não ser necessário.
[00112] A Figura 12 ilustra um diagrama de blocos de alto nível de um exemplo de sistema de imageamento compacto 1100 com capacidades de imageamento espectral de alta resolução, o sistema 1100 tendo um conjunto de componentes incluindo um processador 1120 ligado a uma câmera espectral de múltiplas aberturas 1160 e iluminante (ou iluminantes)
1165. Uma memória de trabalho 1105, armazenamento 1110, monitor eletrônico 1125, e memória 1130 também estão em comunicação com o processador 1120. Como descrito aqui, o sistema 1100 pode capturar um maior número de canais de imagem do que existem diferentes cores de filtros no CFA do sensor de imagem usando filtros multi-passa-faixa diferentes colocados sobre diferentes aberturas da câmera espectral de múltiplas aberturas 1160.
[00113] O sistema 1100 pode ser um dispositivo tal como um telefone celular, uma câmera digital, um computador de mesa, um assistente digital pessoal, ou similar. O sistema 1100 também pode ser um dispositivo mais estacionário, como um computador pessoal de mesa, uma estação de videoconferência, ou similar, que utiliza uma câmera interna ou externa para capturar imagens. O sistema 1100 também pode ser uma combinação de um dispositivo de captura de imagem e um dispositivo de processamento separado recebendo dados de imagem do dispositivo de captura de imagem. Uma pluralidade de aplicações pode estar disponível para o usuário no sistema
1100. Estas aplicações podem incluir aplicações fotográficas tradicionais, captura de imagens e vídeo imóveis, aplicações de correção de cor dinâmica, e aplicações de correção de sombreamento de brilho, entre outras.
[00114] O sistema de captura de imagem 1100 inclui a câmera espectral de múltiplas aberturas 1160 para capturar imagens. A câmera espectral de múltiplas aberturas 1160 pode ser, por exemplo, qualquer um dos dispositivos das Figuras 3A a 10B a câmera espectral de múltiplas aberturas 1160 pode ser acoplada ao processador 1120 para transmitir imagens capturadas em diferentes canais espectrais e de diferentes regiões de sensor para o processador de imagem 1120. O iluminante (ou iluminantes) 1165 também pode ser controlado pelo processador para emitir luz em certos comprimentos de onda durante certas exposições, conforme descrito em mais detalhes abaixo. O processador de imagem 1120 pode ser configurado para executar várias operações em uma imagem capturada recebida a fim de produzir uma imagem multiespectral corrigida de disparidade de alta qualidade.
[00115] O processador 1120 pode ser uma unidade de processamento de uso geral ou um processador especialmente projetado para aplicações de imageamento. Conforme mostrado, o processador 1120 é conectado a uma memória 1130 e a uma memória de trabalho 1105. Na modalidade ilustrada, a memória 1130 armazena um módulo de controle de captura 1135, um módulo de geração de cubo de dados 1140, um módulo de análise de cubo de dados 1145, e um sistema operacional 1150. Estes módulos incluem instruções que configuram o processador para realizar várias tarefas de processamento de imagem e gerenciamento de dispositivo. A memória de trabalho 1105 pode ser usada pelo processador 1120 para armazenar um conjunto de trabalho de instruções de processador contidas nos módulos da memória 1130. Alternativamente, a memória de trabalho 1105 também pode ser usada pelo processador 1120 para armazenar dados dinâmicos criados durante a operação do dispositivo 1100.
[00116] Como mencionado acima, o processador 1120 é configurado por vários módulos armazenados na memória 1130.
O módulo de controle de captura 1135 inclui instruções que configuram o processador 1120 para ajustar a posição de foco da câmera espectral de múltiplas aberturas 1160, em algumas implementações. O módulo de controle de captura 1135 também inclui instruções que configuram o processador 1120 para capturar imagens com a câmera espectral de múltiplas aberturas 1160, por exemplo, imagens multiespectrais capturadas em diferentes canais espectrais bem como imagens de PPG capturadas no mesmo canal espectral (por exemplo, um canal NIR). O imageamento de PPG sem contato normalmente usa comprimentos de onda quase infravermelho (NIR) como iluminação para tirar vantagem da penetração aumentada de fóton no tecido neste comprimento de onda. Portanto, o processador 1120, juntamente com o módulo de controle de captura 1135, a câmera espectral de múltiplas aberturas 1160, e a memória de trabalho 1105 representam um meio para capturar um conjunto de imagens espectrais e/ou uma sequência de imagens.
[00117] O módulo de geração de cubo de dados 1140 inclui instruções que configuram o processador 1120 para gerar um cubo de dados multiespectral com base nos sinais de intensidade recebidos dos fotodiodos de diferentes regiões de sensor. Por exemplo, o módulo de geração de cubo de dados 1140 pode estimar uma disparidade entre as mesmas regiões de um objeto formado com imagem com base em um canal espectral correspondente à banda de onda comum passada por todos os filtros multi-passa-faixa e pode usar esta disparidade para registrar todas as imagens espectrais através de todos os canais capturados entre si (por exemplo, de modo que o mesmo ponto no objeto seja representado pela mesma localização de pixel (x,y) através de todos os canais espectrais). As imagens registradas coletivamente formam o cubo de dados multiespectral, e a informação de disparidade pode ser usada para determinar as profundidades de objetos de imagem diferentes, por exemplo, uma diferença de profundidade entre o tecido saudável e um local mais profundo dentro de um local do ferimento. Em algumas modalidades, o módulo de geração de cubo de dados 1140 também pode efetuar a desmistura espectral para identificar quais porções dos sinais de intensidade de fotodiodo correspondem às quais passam as bandas de onda, por exemplo, com base em algoritmos de desmistura espectral, que resultam em transmitâncias de filtro e eficiência quântica de sensor.
[00118] O módulo de análise de cubo de dados 1145 pode implementar várias técnicas para analisar o cubo de dados multiespectral gerado pelo módulo de geração de cubo de dados 1140, dependendo do aplicativo. Por exemplo, algumas implementações do módulo de análise de cubo de dados 1145 podem prover o cubo de dados multiespectral (e opcionalmente informação de profundidade) para um modelo de aprendizado por máquina treinado para classificar cada pixel de acordo com um certo estado. Estes estados podem ser estados clínicos no caso de imageamento de tecido, por exemplo, estados de queimadura (por exemplo, queimadura de primeiro grau, queimadura de segundo grau, queimadura de terceiro grau, ou categorias de tecido saudável), estados de ferimento (por exemplo, hemostasia, inflamação, proliferação, remodelagem ou categorias de pele saudáveis), potencial de cura (por exemplo, uma pontuação que reflete a probabilidade de que o tecido endureça a partir de um estado ferido, com ou sem uma terapia específica), estados de perfusão, estados cancerosos, ou outros estados de tecido relacionados ao ferimento. O módulo de análise de cubo de dados 1145 também pode analisar os dados multiespectrais para reconhecimento biométrico e/ou análise de materiais.
[00119] O módulo de sistema operacional 1150 configura o processador 1120 para gerenciar os recursos de memória e processamento do sistema 1100. Por exemplo, o módulo de sistema operacional 1150 pode incluir acionadores de dispositivo para gerenciar recursos de hardware tais como o monitor eletrônico 1125, armazenamento 1110, câmera espectral de múltiplas aberturas 1160, ou iluminante (ou iluminantes) 1165. Portanto, em algumas modalidades, as instruções contidas nos módulos de processamento de imagem discutidos acima podem não interagir com estes recursos de hardware diretamente, mas em vez disso interagem através de sub-rotinas padrão ou APIs localizadas no componente de sistema operacional 1150. Instruções dentro do sistema operacional 1150 podem então interagir diretamente com estes componentes de hardware.
[00120] O processador 1120 pode ser adicionalmente configurado para controlar o visor 1125 para exibir as imagens capturadas e/ou um resultado da análise do cubo de dados multiespectral (por exemplo, uma imagem classificada) para um usuário. O visor 1125 pode ser externo a um dispositivo de imageamento incluindo a câmera espectral de múltiplas aberturas 1160 ou pode ser parte do dispositivo de imageamento. O visor 1125 também pode ser configurado para fornecer um visor para um usuário antes de capturar uma imagem. O visor 1125 pode compreender uma tela LCD ou LED, e pode implementar tecnologias sensíveis ao toque.
[00121] O processador 1120 pode gravar dados no módulo de armazenamento 1110, por exemplo, dados representando imagens capturadas, dados multiespectrais e resultados de análise de dados. Embora o módulo de armazenamento 1110 seja representado graficamente como um dispositivo de disco tradicional, aqueles versados na técnica compreenderiam que o módulo de armazenamento 1110 pode ser configurado como qualquer dispositivo de mídia de armazenamento. Por exemplo, o módulo de armazenamento 1110 pode incluir uma unidade de disco, tal como uma unidade de disco flexível, unidade de disco rígido, unidade de disco ótico ou unidade de disco magneto-ótico, ou uma memória de estado sólido como uma memória FLASH, RAM, ROM e/ou EEPROM. O módulo de armazenamento 1110 também pode incluir múltiplas unidades de memória, e qualquer uma das unidades de memória pode ser configurada para estar dentro do dispositivo de captura de imagem 1100, ou pode ser externa ao sistema de captura de imagem 1100. Por exemplo, o módulo de armazenamento 1110 pode incluir uma memória ROM contendo instruções de programa de sistema armazenadas dentro do sistema de captura de imagem
1100. O módulo de armazenamento 1110 também pode incluir cartões de memória ou memórias de alta velocidade configuradas para armazenar imagens capturadas que podem ser removíveis da câmera.
[00122] Embora a Figura 12 represente um sistema que compreende componentes separados para incluir um processador, um sensor de imageamento, e uma memória, uma pessoa versada na técnica reconheceria que estes componentes separados podem ser combinados em uma variedade de modos para atingir objetivos específicos de projeto. Por exemplo, em uma modalidade alternativa, os componentes de memória podem ser combinados com componentes de processador para economizar custos e melhorar o desempenho.
[00123] Adicionalmente, embora a Figura 12 ilustre dois componentes de memória - componente de memória 1130 que compreende vários módulos e uma memória separada 1105 que compreende uma memória de trabalho - uma pessoa versada na técnica reconheceria várias modalidades utilizando diferentes arquiteturas de memória. Por exemplo, um projeto pode utilizar ROM ou memória RAM estática para o armazenamento de instruções de processador implementando os módulos contidos na memória 1130. Alternativamente, as instruções do processador podem ser lidas no início do sistema a partir de um dispositivo de armazenamento de disco que é integrado no sistema 1100 ou conectado através de uma porta do dispositivo externo. As instruções do processador podem então ser carregadas na RAM para facilitar a execução pelo processador. Por exemplo, a memória de trabalho 1105 pode ser uma memória RAM, com instruções carregadas na memória de trabalho 1105 antes da execução pelo processador
1120.
Visão Geral de Técnicas de Processamento de Imagem Exemplificativos
[00124] A Figura 13 é um fluxograma de um processo exemplificativo 1200 para capturar os dados da imagem usando os sistemas de imageamento de abertura múltipla multiespectral das Figuras 3A a 10B e 12. A Figura 13 ilustra quatro exposições exemplificativas que podem ser usadas para gerar uma imagem multiespectral como descrito aqui-uma exposição visível 1205, uma exposição visível adicional 1210, uma exposição não visível 1215, e uma exposição ambiental 1220. Será apreciado que estas podem ser capturadas em qualquer ordem, e algumas exposições podem ser opcionalmente removidas ou adicionadas a um fluxo de trabalho específico conforme descrito abaixo. Adicionalmente, o processo 1200 é descrito com referência às bandas de onda das Figuras 11A e 11B, entretanto, fluxos de trabalho similares podem ser implementados usando dados de imagem gerados com base em outros conjuntos de bandas de onda.
Adicionalmente, a correção de campo plano pode ainda ser implementada de acordo com várias técnicas de correção de campo plano conhecidas, para melhorar a aquisição de imagem e/ou correção de disparidade em várias modalidades.
[00125] Para a exposição visível 1205, LEDs de primeiros cinco picos (os cinco picos da esquerda correspondendo à luz visível nos gráficos 1000 da Figura 11A) podem ser ligados por um sinal de controle à placa de iluminação. A onda de saída de luz pode precisar estabilizar, em um tempo específico para LEDs específicos, por exemplo, 10 ms, o módulo de controle de captura 1135 pode começar a exposição das quatro câmeras após este tempo e pode continuar esta exposição por uma duração de cerca de 30 ms, por exemplo.Depois disso, o módulo de controle de captura 1135 pode cessar a exposição e puxar os dados fora das regiões de sensor (por exemplo, pela transferência de sinais de intensidade de fotodiodo brutos para a memória de trabalho 1105 e/ou armazenamento de dados 1110). Estes dados podem incluir um canal espectral comum para uso em correção de disparidade como descrito aqui.
[00126] A fim de aumentar a SNR, algumas implementações podem capturar a exposição visível adicional
1210 usando o mesmo processo descrito para a exposição visível 1205. Ter duas exposições idênticas ou quase idênticas pode aumentar a SNR para produzir uma análise mais precisa dos dados de imagem. Entretanto, isto pode ser omitido em implementações onde a SNR de uma única imagem é aceitável. Uma exposição em duplicata com o canal espectral comum também pode permitir correção de disparidade mais precisa em algumas implementações.
[00127] Algumas implementações também podem capturar uma exposição não visível 1215 correspondente à luz NIR ou IR. Por exemplo, o módulo de controle de captura 1135 pode ativar dois LEDs NIR diferentes correspondentes aos dois canais NIR mostrados na Figura 11, uma onda de saída de luz pode precisar estabilizar, em um tempo específico para LEDs específicos, por exemplo, 10 ms. O módulo de controle de captura 1135 pode começar a exposição das quatro câmeras após este tempo e continuar esta exposição por uma duração de cerca de 30 ms, por exemplo. Depois disso, o módulo de controle de captura 1135 pode cessar a exposição e puxar os dados fora das regiões de sensor (por exemplo, pela transferência de sinais de intensidade de fotodiodo brutos para a memória de trabalho 1105 e/ou armazenamento de dados 1110). Nesta exposição, pode não haver uma banda de onda comum passada para todas as regiões de sensor, já que pode ser considerado de forma segura que não há mudança no formato ou no posicionamento do objeto em relação às exposições 1205, 1210 e, assim, valores de disparidade previamente computados podem ser usados para registrar os canais NIR.
[00128] Em algumas implementações, múltiplas exposições podem ser capturadas sequencialmente para gerar dados de PPG que representam a mudança na forma de um sítio de tecido devido ao fluxo sanguíneo pulsátil. Essas exposições de PPG podem ser capturadas em um comprimento de onda não visível em algumas implementações. Embora a combinação de dados de PPG com dados multiespectrais possa aumentar a precisão de certas análises de imageamento médica, a captura de dados de PPG também pode introduzir tempo adicional no processo de captura de imagem. Este tempo adicional pode introduzir erros devido ao movimento do formador de imagem portátil e/ou objeto, em algumas implementações. Assim, certas implementações podem omitir a captura de dados de PPG.
[00129] Algumas implementações podem adicionalmente capturar a exposição ambiente 1220. Para esta exposição, todos os LEDs podem ser desligados para capturar uma imagem usando iluminação ambiente (por exemplo, luz solar, luz de outras fontes iluminadoras). O módulo de controle de captura 1135 pode começar a exposição das quatro câmeras após este tempo e pode manter a exposição contínua por uma duração desejada, por exemplo, em torno de 30 ms. Depois disso, o módulo de controle de captura 1135 pode cessar a exposição e puxar os dados fora das regiões de sensor (por exemplo, pela transferência de sinais de intensidade de fotodiodo brutos para a memória de trabalho 1105 e/ou armazenamento de dados 1110). Os valores de intensidade da exposição ambiente 1220 podem ser subtraídos dos valores da exposição visível 1205 (ou da exposição visível 1205 corrigida para a SNR pela segunda exposição 1210) e também da exposição não visível 1215 para remover a influência da temperatura ambiente a partir do cubo de dados multiespectral. Isto pode aumentar a precisão da análise a jusante isolando a porção dos sinais gerados que representam luz emitida pelos iluminadores e refletida a partir do sítio de objeto/tecido. Algumas implementações podem omitir esta etapa se a precisão analítica for suficiente usando apenas as exposições visíveis 1205, 1210 e não visíveis 1215.
[00130] Será apreciado que os tempos de exposição específicos listados acima são exemplos de uma implementação, e que em outras implementações o tempo de exposição pode variar dependendo do sensor de imagem, da intensidade de iluminante e do objeto imageado.
[00131] A Figura 14 representa um diagrama de bloco esquemático de um fluxo de trabalho 1300 para o processamento de dados de imagem, por exemplo dados da imagem capturada usando o processo 1200 da Figura 13 e/ou usando os sistemas de imageamento de abertura múltipla multiespectral das Figuras 3A-10B e 12. O fluxo de trabalho 1300 mostra a saída de duas regiões de sensor RGB 1301A, 1301B, entretanto, o fluxo de trabalho 1300 pode ser estendido para números maiores de regiões de sensor e regiões de sensor correspondendo a diferentes canais de cor CFA.
[00132] As saídas de sensor RGB das duas regiões de sensor 1301A, 1301B são armazenadas nos módulos de saída de sensor 2D 1305A, 1305B, respectivamente. Os valores de ambas as regiões de sensor são enviados para os módulos de mapeamento não-lineares 1310A, 1310B, que podem realizar correção de disparidade pela identificação da disparidade entre as imagens capturadas usando o canal comum e então aplicando esta disparidade determinada através de todos os canais para registrar todas as imagens espectrais umas às outras.
[00133] As saídas de ambos os módulos de mapeamento não-lineares 1310A, 1310B são então providas ao módulo de cálculo de profundidade 1335, que pode computar uma profundidade de uma região específica de interesse nos dados de imagem. Por exemplo, a profundidade pode representar a distância entre o objeto e o sensor de imagem. Em algumas implementações, múltiplos valores de profundidade podem ser computados e comparados para determinar a profundidade do objeto em relação a algo diferente do sensor de imagem. Por exemplo, uma maior profundidade de um leito de ferida pode ser determinada, bem como uma profundidade (maior, menor ou média) de tecido saudável que circunda o leito de ferida.
Pela subtração da profundidade do tecido saudável a partir da profundidade do leito de ferida, a profundidade mais profunda do ferimento pode ser determinada. Esta comparação de profundidade pode adicionalmente ser realizada em outros pontos no leito de ferimento (por exemplo, toda ou alguma amostragem predeterminada) a fim de construir um mapa 3D da profundidade do ferimento em vários pontos (mostrados na Figura 14 como z(x,y) onde z seria um valor de profundidade).
Em algumas modalidades, uma maior disparidade pode melhorar o cálculo de profundidade, embora maior disparidade também possa resultar em algoritmos mais computacionalmente intensivos para tais cálculos de profundidade.
[00134] As saídas de ambos os módulos de mapeamento não-lineares 1310A, 1310B são também providas ao módulo de equações lineares 1320, que pode tratar os valores detectados como conjunto de equações lineares para desmistura espectral. Uma implementação pode usar a equação pseudoinversa de Moore-Penrose como uma função de pelo menos eficiência quântica de sensor e valores de transmitância de filtro para computar valores espectrais reais (por exemplo, intensidade de luz em comprimentos de onda específicos que foram incidentes em cada ponto de imagem (x,y)). Isto pode ser usado em implementações que requerem alta precisão, tais como diagnósticos clínicos e outras aplicações biológicas.
O aplicativo de desmistura espectral também pode fornecer uma estimativa de fluxo de fótons e SNR.
[00135] Com base nas imagens de canal espectral corrigidas por disparidade e na desmistura espectral, o fluxo de trabalho 1300 pode gerar uma imagem espectral 1325, por exemplo, no formato ilustrado de F(x,y,λ) onde F representa a intensidade de luz em uma localização de imagem específica (x,y) em um comprimento de onda específico ou faixa de onda λ.
[00136] A Figura 15 representa graficamente a disparidade e correção de disparidade para o processamento de dados de imagem, por exemplo dados da imagem capturada usando o processo da Figura 13 e/ou usando os sistemas de imageamento de abertura múltipla multiespectral das Figuras 3A-10B e 12. O primeiro conjunto de imagens 1410 mostra os dados de imagem da mesma localização física em um objeto como capturado por quatro diferentes regiões de sensor.
Conforme ilustrado, este local de objeto não está na mesma localização através das imagens brutas, com base nos quadros de coordenadas (x,y) das grades de fotodiodo das regiões de sensor de imagem. O segundo conjunto de imagens 1420 mostra que o mesmo local de objeto após correção de disparidade, que está agora na mesma localização (x,y) no quadro de coordenadas das imagens registradas. Será apreciado que tal registro pode envolver o acúmulo de certos dados das regiões de borda das imagens que não se sobrepõem inteiramente umas com as outras.
[00137] A Figura 16 representa um fluxo de trabalho 1500 para realizar a classificação pixel por pixel nos dados de imagem multiespectral, por exemplo dados da imagem capturada usando o processo da Figura 13, processados de acordo com as Figuras 14 e 15, e/ou usando os sistemas de imageamento de abertura múltipla multiespectral das Figuras 3A a 10B e 12.
[00138] No bloco 1510, o sistema de imageamento de abertura múltipla multiespectral 1513 pode capturar dados de imagem que representam pontos físicos 1512 em um objeto 1511.
Neste exemplo, o objeto 1511 inclui tecido de um paciente que tem uma ferida. Uma ferida pode compreender uma queimadura, uma úlcera diabética (por exemplo, uma úlcera de pé diabético), uma úlcera não diabética (por exemplo, úlceras de pressão ou feridas de cicatrização lenta), uma úlcera crônica, uma incisão pós-cirúrgica, um local de amputação (antes ou depois do procedimento de amputação), uma lesão cancerosa ou tecido danificado. Quando as informações de PPG são incluídas, os sistemas de imageamento revelados fornecem um método para avaliar patologias que envolvem alterações no fluxo sanguíneo do tecido e na taxa de pulso, incluindo:
perfusão de tecido; saúde cardiovascular; feridas como úlceras; doença arterial periférica e saúde respiratória.
[00139] No bloco 1520, os dados capturados pelo sistema de imageamento de abertura múltipla multiespectral 1513 podem ser processados em um cubo de dados multiespectral 1525 tendo uma série de comprimentos de onda diferentes 1523 e, opcionalmente, uma série de imagens diferentes no mesmo comprimento de onda correspondendo a tempos diferentes (Dados de PPG 1522). Por exemplo, o processador de imagem 1120 pode ser configurado pelo módulo de geração de cubo de dados 1140 para gerar o cubo de dados multiespectral 1525 de acordo com o fluxo de trabalho 1300. Algumas implementações também podem associar valores de profundidade a vários pontos ao longo das dimensões espaciais, conforme descrito acima.
[00140] No bloco 1530, o cubo de dados multiespectral 1525 pode ser analisado como dados de entrada 1525 em um modelo de aprendizado de máquina 1532 para gerar um mapeamento classificado 1535 do tecido imageado. O mapeamento classificado pode atribuir cada pixel nos dados de imagem (que, após o registro, representam pontos específicos no objeto imageado 1511) a uma determinada classificação de tecido ou a uma determinada pontuação de potencial de cicatrização. As diferentes classificações e pontuações podem ser representadas usando cores ou padrões visualmente distintos na imagem classificada de saída.
Assim, embora várias imagens sejam capturadas do objeto 1511, a saída pode ser uma única imagem do objeto (por exemplo, uma imagem de RGB típica) sobreposta com representações visuais de classificação em pixel-wise.
[00141] O modelo de aprendizado de máquina 1532 pode ser uma rede neural artificial em algumas implementações.
Redes neurais artificiais são artificiais no sentido de que são entidades computacionais, inspiradas por redes neurais biológicas, mas modificadas para implementação por dispositivos de computação. Redes neurais artificiais são usadas para modelar relacionamentos complexos entre entradas e saídas ou para encontrar padrões nos dados, onde a dependência entre as entradas e as saídas não pode ser facilmente verificada. Uma rede neural normalmente inclui uma camada de entrada, uma ou mais camadas intermediárias ("ocultas") e uma camada de saída, com cada camada incluindo um número de nós. O número de nós pode variar entre as camadas. Uma rede neural é considerada “profunda” quando inclui duas ou mais camadas ocultas. Os nós em cada camada se conectam a alguns ou todos os nós na camada subsequente e os pesos dessas conexões são normalmente aprendidos a partir dos dados durante o processo de treinamento, por exemplo, por meio de retropropagação em que os parâmetros de rede são ajustados para produzir saídas esperadas dadas as entradas correspondentes em dados de treinamento rotulados.
Assim, uma rede neural artificial é um sistema adaptativo que é configurado para mudar sua estrutura (por exemplo, a configuração da conexão e/ou pesos) com base nas informações que fluem através da rede durante o treinamento, e os pesos das camadas ocultas podem ser considerados como uma codificação de padrões significativos nos dados.
[00142] Uma rede neural totalmente conectada é aquela em que cada nó na camada de entrada está conectado a cada nó na camada subsequente (a primeira camada oculta), cada nó nessa primeira camada oculta é conectado por sua vez a cada nó na camada oculta subsequente e assim por diante, até que cada nó na camada oculta final seja conectado a cada nó na camada de saída.
[00143] Uma CNN é um tipo de rede neural artificial e, como a rede neural artificial descrita acima, uma CNN é composta de nós e tem pesos aprendíveis. No entanto, as camadas de uma CNN podem ter nós dispostos em três dimensões: largura, altura e profundidade, correspondendo à matriz 2x2 de valores de pixel em cada quadro de vídeo (por exemplo, a largura e altura) e ao número de quadros de vídeo em a sequência (por exemplo, a profundidade). Os nós de uma camada podem estar conectados apenas localmente a uma pequena região da camada de largura e altura anterior a ela, chamada de campo receptivo. Os pesos das camadas ocultas podem assumir a forma de um filtro convolucional aplicado ao campo receptivo. Em algumas modalidades, os filtros convolucionais podem ser bidimensionais e, assim, convoluções com o mesmo filtro podem ser repetidas para cada quadro (ou transformação convolvida de uma imagem) no volume de entrada ou para o subconjunto designado dos quadros. Em outras modalidades, os filtros convolucionais podem ser tridimensionais e, assim, se estender por toda a profundidade dos nós do volume de entrada. Os nós em cada camada convolucional de uma CNN podem compartilhar pesos de modo que o filtro convolucional de uma determinada camada seja replicado em toda a largura e altura do volume de entrada (por exemplo, em um quadro inteiro), reduzindo o número geral de pesos treináveis e aumentando a aplicabilidade da CNN a conjuntos de dados fora dos dados de treinamento. Os valores de uma camada podem ser agrupados para reduzir o número de cálculos em uma camada subsequente (por exemplo, valores que representam certos pixels podem ser passados para frente enquanto outros são descartados), e mais adiante ao longo da profundidade das máscaras de pool CNN podem reintroduzir quaisquer valores descartados para retorna o número de pontos de dados ao tamanho anterior.
Várias camadas, opcionalmente com algumas totalmente conectadas, podem ser empilhadas para formar a arquitetura de CNN.
[00144] Durante o treinamento, uma rede neural artificial pode ser exposta a pares em seus dados de treinamento e pode modificar seus parâmetros para ser capaz de prever a saída de um par quando fornecida com a entrada.
Por exemplo, os dados de treinamento podem incluir cubo de dados multiespectrais (a entrada) e mapeamentos classificados (a saída esperada) que foram rotulados, por exemplo, por um médico que designou áreas da ferida que correspondem a certos estados clínicos e/ou com rótulos de cicatrização (1) ou sem cicatrização (0) em algum momento após a imagem inicial da ferida, quando a cicatrização real é conhecida. Outras implementações do modelo de aprendizado de máquina 1532 podem ser treinadas para fazer outros tipos de previsões, por exemplo, a probabilidade de cicatrização de uma ferida para uma redução de área percentual específica ao longo de um período de tempo especificado (por exemplo, redução de área de pelo menos 50% em 30 dias) ou estados de feridas, tais como hemostasia, inflamação, colonização de patógenos, proliferação, remodelação ou categorias de pele saudável. Algumas implementações também podem incorporar métricas do paciente nos dados de entrada para aumentar ainda mais a precisão da classificação ou podem segmentar os dados de treinamento com base nas métricas do paciente para treinar diferentes instâncias do modelo de aprendizado de máquina 1532 para uso com outros pacientes com as mesmas métricas do paciente. As métricas do paciente podem incluir informações textuais ou histórico médico ou aspectos dos mesmos que descrevem as características do paciente ou o estado de saúde do paciente, por exemplo, a área de uma ferida, lesão ou úlcera, o índice de massa corporal (BMI) do paciente, o estado diabético do paciente, a existência de doença vascular periférica ou inflamação crônica no paciente, o número de outras feridas que o paciente tem ou teve, se o paciente já tomou ou tomou recentemente fármacos imunossupressores (por exemplo, quimioterapia) ou outras fármacos que afetam positiva ou adversamente a taxa de cicatrização de feridas, HbA1c, insuficiência renal crônica de estágio IV, diabetes tipo II vs tipo I, anemia crônica, asma, uso de fármacos, tabagismo, neuropatia diabética, trombose venosa profunda, infarto do miocárdio anterior, ataques isquêmicos transitórios ou apneia do sono ou qualquer combinação dos mesmos. Essas métricas podem ser convertidas em uma representação vetorial por meio de processamento apropriado, por exemplo, através de word-to-vec embeddings, um vetor com valores binários que representam se o paciente tem ou não a métrica do paciente (por exemplo, tem ou não o diabetes tipo I), ou valores numéricos que representam o grau em que o paciente tem a métrica de cada paciente.
[00145] No bloco 1540, o mapeamento classificado 1535 pode ser enviado a um usuário. Neste exemplo, o mapeamento classificado 1535 usa uma primeira cor 1541 para denotar pixels classificados de acordo com um primeiro estado e usa uma segunda cor 1542 para denotar pixels classificados de acordo com um segundo estado. A classificação e o mapeamento classificado resultante 1535 podem excluir pixels de fundo, por exemplo, com base no reconhecimento de objeto, identificação de cor de fundo e/ou valores de profundidade.
Conforme ilustrado, algumas implementações do sistema de imageamento de abertura múltipla multiespectral 1513 podem projetar o mapeamento classificado 1535 de volta para o local do tecido. Isso pode ser particularmente benéfico quando o mapeamento classificado inclui uma representação visual de uma margem recomendada e/ou profundidade de excisão.
[00146] Esses métodos e sistemas podem fornecer assistência a médicos e cirurgiões no processo de tratamento de feridas dérmicas, como excisão de queimaduras, nível de amputação, remoção de lesões e decisões de triagem de feridas. As alternativas aqui descritas podem ser usadas para identificar e/ou classificar a gravidade das úlceras de decúbito, hiperemia, deterioração dos membros, fenômeno de Raynaud, esclerodermia, feridas crônicas, abrasões, lacerações, hemorragia, lesões por ruptura, punções, feridas penetrantes, câncer de pele, tais como carcinoma de células basais, carcinoma de células escamosas, melanoma, ceratose actínica ou qualquer tipo de alteração de tecido, em que a natureza e a qualidade do tecido difere de um estado normal.
Os dispositivos aqui descritos também podem ser usados para monitorar o tecido saudável, facilitar e melhorar os procedimentos de tratamento de feridas, por exemplo, permitindo uma abordagem mais rápida e refinada para determinar a margem de desbridamento, e avaliar o progresso da recuperação de uma ferida ou doença, especialmente após a aplicação de um tratamento. Em algumas alternativas aqui descritas, são fornecidos dispositivos que permitem a identificação de tecido saudável adjacente ao tecido ferido, a determinação de uma margem de excisão e/ou profundidade, o monitoramento do processo de recuperação após o implante de uma prótese, como um dispositivo auxiliar de ventrículo esquerdo, a avaliação da viabilidade de um enxerto de tecido ou implante celular regenerativo, ou o monitoramento da recuperação cirúrgica, especialmente após procedimentos reconstrutivos. Além disso, alternativas aqui descritas podem ser usadas para avaliar a mudança em uma ferida ou a geração de tecido saudável após uma ferida, em particular, após a introdução de um agente terapêutico, como um esteroide, fator de crescimento de hepatócitos, fator de crescimento de fibroblastos, um antibiótico, ou células regenerativas, como uma população de células isoladas ou concentradas que compreende células-tronco, células endoteliais e/ou células precursoras endoteliais.
Visão geral do ambiente de computação distribuída exemplificativo
[00147] A Figura 17 representa um diagrama de blocos esquemático de um sistema de computação distribuído exemplificativo 1600 incluindo um sistema de imageamento de abertura múltipla multiespectral 1605, que pode ser qualquer um dos sistemas de imageamento de abertura múltipla multiespectral das Figuras 3A-10B e 12. Conforme representado, os servidores de análise de cubo de dados 1615 podem incluir um ou mais computadores, talvez organizados em um cluster de servidores ou como um server farm. A memória e os processadores que constituem esses computadores podem estar localizados dentro de um computador ou distribuídos por vários computadores (incluindo computadores remotos uns dos outros).
[00148] O sistema de imageamento de abertura múltipla multiespectral 1605 pode incluir hardware de rede (por exemplo, uma Internet sem fio, satélite, Bluetooth ou outro transceptor) para comunicação pela rede 1610 com dispositivos de usuário 1620 e servidores de análise de cubo de dados 1615. Por exemplo, em algumas implementações, o processador do sistema de imageamento de abertura múltipla multiespectral 1605 pode ser configurado para controlar a captura de imagem e, em seguida, enviar dados brutos para os servidores de análise de cubo de dados 1615. Outras implementações do processador do sistema de imageamento de abertura múltipla multiespectral 1605 podem ser configuradas para controlar a captura de imagem e realizar a desmistura espectral e correção de disparidade para gerar um cubo de dados multiespectral, que é então enviado para os servidores de análise de cubo de dados 1615. Algumas implementações podem realizar processamento completo e análise localmente no sistema de imageamento de abertura múltipla multiespectral 1605 e podem enviar o cubo de dados multiespectral e a análise resultante para os servidores de análise de cubo de dados 1615 para análise de agregado e/ou uso em treinamento ou retreinamento de modelos de aprendizado de máquina. Como tal, os servidores de análise de cubo de dados 1615 podem fornecer modelos de aprendizado de máquina atualizados para o sistema de imageamento de abertura múltipla multiespectral 1605. A carga de processamento de geração do resultado final da análise de cubo de dados multiespectral pode ser dividida entre o sistema de imageamento de abertura múltipla 1605 e os servidores de análise de cubo de dados 1615 de várias maneiras, dependendo do poder de processamento do sistema de imageamento de abertura múltipla 1605.
[00149] A rede 1610 pode compreender qualquer rede apropriada, incluindo uma intranet, a Internet, uma rede celular, uma rede de área local ou qualquer outra rede ou combinação das mesmas. Os dispositivos de usuário 1620 podem incluir qualquer dispositivo de computação equipado com rede, por exemplo, computadores desktop, laptops, smartphones, tablets, leitores eletrônicos ou consoles de jogos e semelhantes. Por exemplo, os resultados (por exemplo, imagens classificadas) determinados pelo sistema de imageamento de abertura múltipla 1605 e os servidores de análise de cubo de dados 1615 podem ser enviados para dispositivos de usuários designados de pacientes, médicos, sistemas de informação hospitalar que armazenam registros médicos eletrônicos de pacientes e/ou bancos de dados de saúde centralizados (por exemplo, do Center for Disease Control) em cenários de classificação de tecidos.
Resultados da Implementação Exemplificativa
[00150] Fundamentos: A morbidade e mortalidade resultantes de queimaduras são um grande problema para os combatentes feridos e seus prestadores de cuidados. A incidência de queimaduras entre vítimas de combate tem sido historicamente de 5 a 20%, com aproximadamente 20% dessas vítimas exigindo cirurgia de queimadura complexa no centro de queimados do US Army Institute of Surgical Research (ISR) (Instituto de Pesquisa Cirúrgica do Exército dos EUA) ou equivalente. A cirurgia de queimaduras requer treinamento especializado e, portanto, é fornecida pela equipe do ISR em vez da equipe do Hospital Militar dos EUA. O número limitado de especialistas em queimaduras leva a uma alta complexidade logística no atendimento aos soldados queimados. Portanto,
um novo método objetivo de detecção pré-operatória e intraoperatória da profundidade da queimadura poderia permitir que um grupo mais amplo de equipe médica, incluindo pessoal não-ISR, fosse alistado no cuidado de pacientes com queimaduras sofridas em combate. Esse conjunto ampliado de prestadores de cuidados poderia então ser aproveitado para fornecer cuidados mais complexos para queimaduras, mais adiante, no papel de cuidados de combatentes com feridas de queimaduras.
[00151] Para começar a atender a essa necessidade, foi desenvolvido um novo dispositivo de imageamento baseado em carrinho que usa imagem multiespectral (MSI) e algoritmos de inteligência artificial (AI) para auxiliar na determinação pré-operatória do potencial de cicatrização de queimaduras. Este dispositivo adquire imagens de uma ampla área de tecido (por exemplo, 5,9 x 7,9 pol2) em um curto período de tempo (por exemplo, dentro de 6, 5, 4, 3, 2 ou 1 segundo(s)) e não requer a injeção de agentes de contraste de imagem. Este estudo baseado em uma população civil mostra que a precisão deste dispositivo na determinação do potencial de cicatrização de queimaduras excede o julgamento clínico por especialistas em queimaduras (por exemplo, 70-80%).
[00152] Métodos de indivíduos civis com várias gravidades de queimaduras foram fotografados dentro de 72 horas de sua queimadura e depois, em vários pontos de tempo subsequentes até 7 dias após a queimadura. A verdadeira gravidade da queimadura em cada imagem foi determinada usando avaliações de cicatrização de 3 semanas ou biópsias por punção. A precisão do dispositivo para identificar e diferenciar tecido cicatricial e não cicatrizante em queimaduras de primeiro, segundo e terceiro grau foi analisada em uma base de pixel por imagem.
[00153] Resultados: Os dados foram coletados de 38 indivíduos civis com 58 queimaduras no total e 393 imagens.
O algoritmo de AI alcançou 87,5% de sensibilidade e 90,7% de especificidade na previsão de tecido queimado que não cicatriza.
[00154] Conclusões O dispositivo e seu algoritmo de AI demonstraram precisão na determinação do potencial de cicatrização de queimaduras que ultrapassa a precisão do julgamento clínico de especialistas em queimaduras. O trabalho futuro está focado em redesenhar o dispositivo para portabilidade e avaliar seu uso em um ambiente intraoperatório. Mudanças de design para portabilidade incluem reduzir o tamanho do dispositivo para um sistema portátil, aumentar o campo de visão, reduzir o tempo de aquisição para um único instantâneo e avaliar o dispositivo para uso em um ambiente intraoperatório usando um modelo porcino. Esses desenvolvimentos foram implementados em um subsistema de MSI de bancada que mostra equivalência em testes básicos de imagem.
Iluminantes adicionais para registro de imagem
[00155] Em várias modalidades, um ou mais iluminantes adicionais podem ser usados em conjunto com qualquer uma das modalidades aqui reveladas a fim de melhorar a precisão do registro de imagem. A Figura 21 ilustra um exemplo de modalidade de um imageador espectral de abertura múltipla 2100 incluindo um projetor 2105. Em algumas modalidades, o projetor 2105 ou outro iluminante adequado pode ser, por exemplo, um dos iluminantes 1165 descritos com referência à Figura 12 acima. Em modalidades que incluem um iluminante adicional, como um projetor 2105 para registro, o método pode incluir ainda uma exposição adicional. O iluminante adicional, como o projetor 2105, pode projetar, no campo de visão do imageador 2100, um ou mais pontos, franjas, grades, manchas aleatórias ou qualquer outro padrão espacial adequado em uma banda espectral, várias bandas espectrais ou em uma banda larga, que são individualmente ou cumulativamente visíveis em todas as câmeras do imageador
2100. Por exemplo, o projetor 2105 pode projetar luz do canal compartilhado ou comum, iluminação de banda larga ou iluminação cumulativamente visível que pode ser usada para confirmar a precisão do registro da imagem calculada com base na abordagem de banda comum acima mencionada. Como usado aqui, "iluminação cumulativamente visível" se refere a uma pluralidade de comprimentos de onda selecionados de modo que o padrão seja transduzido por cada um dos sensores de imagem no sistema de imageamento multiespectral.
Por exemplo, a iluminação cumulativamente visível pode incluir uma pluralidade de comprimentos de onda de modo que cada canal transduza pelo menos um dentre a pluralidade de comprimentos de onda, mesmo se nenhum dentre a pluralidade de comprimentos de onda for comum a todos os canais.
Em algumas modalidades,
o tipo de padrão projetado pelo projetor 2105 pode ser selecionado com base no número de aberturas nas quais o padrão será gerado.
Por exemplo, se o padrão for visto por apenas uma abertura, o padrão pode de preferência ser relativamente denso (por exemplo, pode ter uma autocorrelação relativamente estreita, como na ordem de 1-
10 pixels, 20 pixels, menos de 50 pixels, menos de 100 pixels, etc.), enquanto os padrões menos densos ou menos estreitamente autocorrelacionados podem ser úteis onde o padrão será visualizado por uma pluralidade de aberturas.
Em algumas modalidades, a exposição adicional que é capturada com o padrão espacial projetado é incluída no cálculo da disparidade, a fim de melhorar a precisão do registro em comparação com as modalidades sem a exposição capturada com um padrão espacial de projetado.
Em algumas modalidades, o iluminante adicional projeta, no campo de visão do imageador,
franjas em uma banda espectral, várias bandas espectrais ou em uma banda larga, que são individualmente ou cumulativamente visíveis em todas as câmeras, tais como no compartilhamento ou canal comum, ou iluminação de banda larga que pode ser utilizada para melhorar o registro de imagens com base na fase das franjas. Em algumas modalidades, o iluminante adicional projeta, no campo de visão do imageador, uma pluralidade de arranjos espaciais únicos de pontos, grades e/ou manchas em uma banda espectral, várias bandas espectrais ou em uma banda larga, que são visíveis individualmente ou cumulativamente em todas as câmeras, como no canal compartilhado ou comum, ou iluminação de banda larga que pode ser utilizada para melhorar o registro das imagens.
Em algumas modalidades, o método inclui ainda um sensor adicional com uma única abertura ou uma pluralidade de aberturas, que pode detectar a forma do objeto ou objetos no campo de visão. Por exemplo, o sensor pode usar LIDAR, campo de luz ou técnicas de ultrassom para melhorar ainda mais a precisão do registro das imagens usando a abordagem de banda comum mencionada acima. Este sensor adicional pode ser um sensor de abertura única ou de abertura múltipla, sensível às informações do campo de luz, ou pode ser sensível a outros sinais, como ultrassom ou lasers pulsados.
Implementações de aprendizado de máquina para avaliação de feridas, previsão de cicatrização e tratamento
[00156] Modalidades exemplificativas de sistemas de aprendizado de máquina e métodos para avaliação de feridas, previsão de cicatrização e terapia serão agora descritas.
Qualquer um dos vários dispositivos, sistemas, métodos, técnicas e algoritmos de imagem aqui descritos pode ser aplicado no campo de análise e imageamento de feridas. As seguintes implementações podem incluir a aquisição de uma ou mais imagens de uma ferida em uma ou mais bandas de comprimento de onda conhecidas e podem incluir, com base em uma ou mais imagens, qualquer uma ou mais das seguintes: segmentação da imagem em uma porção de ferida e uma porção não ferida da imagem, previsão da porcentagem de redução de área da ferida após um período de tempo predeterminado, previsão do potencial de cicatrização de seções individuais da ferida após um período de tempo predeterminado, exibição de uma representação visual associada a qualquer segmentação ou previsão, indicação de uma seleção entre uma terapia padrão para cuidados de feridas e uma terapia avançada para cuidados de feridas e semelhantes.
[00157] Em várias modalidades, um sistema de avaliação de feridas ou um médico pode determinar um nível apropriado de terapia de tratamento de feridas com base nos resultados dos algoritmos de aprendizado de máquina revelados aqui. Por exemplo, se uma saída de um sistema de previsão de cicatrização de feridas indica que uma ferida com imagem fechará em mais de 50% dentro de 30 dias, o sistema pode aplicar ou informar um médico ou paciente para aplicar um padrão de terapia de cuidado; se a saída indicar que a ferida não fechará em mais de 50% em 30 dias, o sistema pode aplicar ou informar o médico ou paciente para usar uma ou mais terapias avançadas de tratamento de feridas.
[00158] Sob o tratamento de feridas existente, uma ferida como uma úlcera de pé diabético (DFU) pode receber inicialmente uma ou mais terapias de cuidado de feridas padrão para os primeiros 30 dias de tratamento, como a terapia Padrão de Cuidado (Standard of Care, SOC), conforme definido pelos Centros de Medicare e Medicaid. Como um exemplo de um regime de tratamento de feridas padrão, a terapia SOC pode incluir um ou mais dos seguintes: otimização do estado nutricional; desbridamento por qualquer meio para remover tecido desvitalizado; manutenção de um leito limpo e úmido de tecido de granulação com curativos úmidos apropriados; tratamento necessário para resolver qualquer infecção que possa estar presente; abordar quaisquer deficiências na perfusão vascular para a extremidade com o DFU; descarga de pressão do DFU; e controle adequado da glicose. Durante este período inicial de 30 dias de terapia SOC, sinais mensuráveis de cicatrização de DFU são definidos como: diminuição no tamanho de DFU (área de superfície da ferida ou volume da ferida), diminuição na quantidade de exsudato de DFU e diminuição na quantidade de tecido necrótico dentro de DFU. Um exemplo de progressão de uma DFU de cicatrização é ilustrado na Figura 22.
[00159] Se a cicatrização não for observada durante este período inicial de 30 dias de terapia SOC, as terapias Tratamento Avançado de Feridas (Advanced Wound Care, AWC) são geralmente indicadas. Os Centros de Medicare e Medicaid não têm resumo ou definição de terapias AWC, mas são considerados como qualquer terapia fora da terapia SOC, conforme definido acima. As terapias AWC são uma área de intensa pesquisa e inovação com a introdução quase constante de novas opções para serem usadas na prática clínica.
Portanto, a cobertura das terapias AWC é determinada individualmente e um tratamento considerado AWC pode não ser coberto para reembolso para alguns pacientes. Com base neste entendimento, as terapias AWC incluem, porém sem limitação, qualquer um ou mais dos seguintes: oxigenoterapia hiperbárica; terapia de feridas com pressão negativa; substitutos da pele produzidos por bioengenharia; fatores de crescimento sintéticos; proteínas da matriz extracelular; moduladores de metaloproteinase de matriz; e terapia de estimulação elétrica. Um exemplo de progressão de uma DFU sem cura é ilustrado na Figura 23.
[00160] Em várias modalidades, a avaliação da ferida e/ou previsões de cicatrização aqui descritas podem ser realizadas com base em uma ou mais imagens da ferida,
sozinhas ou com base em uma combinação de ambos os dados de saúde do paciente (por exemplo, um ou mais valores métricos de saúde, características clínicas, etc.) e imagens da ferida.
As técnicas descritas podem capturar imagens únicas ou um conjunto de imagens multiespectrais (MSI) de um local de tecido do paciente incluindo uma úlcera ou outra ferida,
processar a(s) imagem(ns) usando um sistema de aprendizado de máquina como descrito aqui e produzir um ou mais parâmetros de cicatrização previstos.
Uma variedade de parâmetros de cicatrização pode ser prevista pela presente tecnologia.
A título de exemplo não limitativo, alguns parâmetros de cicatrização previstos podem incluir (1) um binário sim/não sobre se a úlcera irá curar em mais de 50%
de redução de área (ou outra porcentagem de limiar, conforme desejado de acordo com os padrões clínicos) dentro de um prazo de 30 dias (ou outro prazo, conforme desejado de acordo com os padrões clínicos); (2) uma porcentagem de probabilidade de que a úlcera cicatrize em uma redução de área superior a 50% (ou outra porcentagem de limiar, conforme desejado de acordo com os padrões clínicos) dentro de um período de 30 dias (ou outro período de tempo, conforme desejado de acordo com os padrões clínicos); ou (3) uma previsão sobre a redução real da área que é esperada dentro de 30 dias (ou outro período de tempo, conforme desejado de acordo com os padrões clínicos) devido à cicatrização da úlcera. Em outros exemplos, os sistemas da presente tecnologia podem fornecer um binário sim/não ou uma porcentagem de probabilidade de cicatrização em relação a porções menores de uma ferida, como para pixels individuais ou subconjuntos de pixels de uma imagem de ferida, com o binário sim/não ou a porcentagem de probabilidade que indica se cada porção individual da ferida é provavelmente tecido em cicatrização ou tecido que não cicatriza após o período de tempo predeterminado.
[00161] A Figura 24 apresenta uma abordagem exemplificativa para fornecer tais previsões de cicatrização. Conforme ilustrado, uma imagem de uma ferida ou um conjunto de imagens multiespectrais da ferida capturada em diferentes comprimentos de onda, seja em momentos diferentes ou simultaneamente usando um sensor de imagem multiespectral, pode ser usada para fornecer os valores de entrada e saída para uma rede neural como uma rede neural autoencoder, que é um tipo de rede neural artificial conforme descrito em mais detalhes abaixo. Este tipo de rede neural é capaz de gerar uma representação reduzida de característica da entrada, aqui um número reduzido de valores (por exemplo, valores numéricos) representando os valores de pixel na(s) imagem(ns) de entrada. Isso pode, por sua vez, ser fornecido a um classificador de aprendizado de máquina, por exemplo, uma rede neural artificial feedforward totalmente conectada ou o sistema mostrado na Figura 25, a fim de produzir uma previsão de cicatrização para a úlcera imageada ou outra ferida.
[00162] A Figura 25 apresenta outra abordagem para fornecer tais previsões de cicatrização. Conforme ilustrado, uma imagem (ou conjunto de imagens multiespectrais capturadas em diferentes comprimentos de onda, seja em momentos diferentes ou simultaneamente usando um sensor de imagem multiespectral) é fornecida como entrada em uma rede neural, como uma rede neural convolucional ("CNN"). A CNN pega esta matriz bidimensional (“2D”) de valores de pixel (por exemplo, valores ao longo da altura e largura do sensor de imagem usado para capturar os dados de imagem) e produz uma representação unidimensional (“1D) da imagem. Esses valores podem representar classificações de cada pixel na imagem de entrada, por exemplo, de acordo com um ou mais estados fisiológicos relativos a úlceras ou outras feridas.
[00163] Conforme mostrado na Figura 25, um repositório de dados métricos do paciente pode armazenar outros tipos de informações sobre o paciente, aqui referidos como métricas do paciente, variáveis clínicas ou valores métricos de saúde. As métricas do paciente podem incluir informações textuais que descrevem as características do paciente, por exemplo, a área da úlcera, o índice de massa corporal (BMI) do paciente, o número de outras feridas que o paciente tem ou teve, estado diabético, se o paciente já tomou ou tomou recentemente fármacos imunossupressores (por exemplo, quimioterapia) ou outros fármacos que afetam positivamente ou adversamente a taxa de cicatrização de feridas, HbA1c, insuficiência renal crônica de estágio IV, diabetes tipo II vs. tipo I, anemia crônica, asma, uso de fármacos, tabagismo, neuropatia diabética, trombose venosa profunda, infarto do miocárdio anterior, ataques isquêmicos transitórios ou apneia do sono ou qualquer combinação dos mesmos. No entanto, uma variedade de outras métricas pode ser usada. Vários exemplos de métricas são fornecidos na Tabela 1 abaixo.
Variável Descrição Dados de demográficos gerais Idade Idade do paciente. Sexo: Sexo do paciente. Etnia Etnia do paciente. Etnicidade Etnicidade do paciente. Altura Altura do paciente. Peso Peso do paciente. IMC Índice de massa corporal do paciente. Histórico de DFU DFU Anterior Número de DFUs anteriores Cura de DFU Anterior Taxas e tempos de cura das DFUs anteriores Local da DFU Anterior Locais das DFUs anteriores Tamanho da DFU Tamanhos das DFUs anteriores Anterior DFU Atual Número de DFUs atuais Local da DFU Atual Local das DFUs atuais Tamanho da DFU Atual Tamanho das DFUs atuais Duração do Tratamento Duração das DFUs das DFUs atuais antes da DFU de procurar tratamento.
Tratamento da DFU Tratamentos anteriores e duração dos Anterior tratamentos realizados nas DFUs atuais.
Tratamento Planejado Tratamento planejado das DFUs atuais. da DFU Cura Atual da DFU Resposta de cura das DFUs atuais aos tratamentos anteriores.
Estágio da DFU Classe e/ou estágio de DFUs atuais com uso de esquemas de pontuação amplamente aceitos incluindo a classificação de Wagner.
Causa da DFU Evento causador das DFUs atuais.
Infecção da DFU Situação da infecção das DFUs atuais.
Causa da infecção da Microrganismo causador das infecções DFU de DFU atuais e anteriores.
CFU da DFU Contagem de unidade de formação de colônia das infecções de DFU atuais.
Conformidade Socioeconômica Situação socioeconômica do paciente.
Não-Conformidade Histórico de não conformidade com cuidados de saúde.
Situação Funcional Situação funcional atual do paciente.
Endócrina Duração do Diabetes Duração do diagnóstico do diabetes Mellitus mellitus para o paciente.
Tipo do Diabetes Tipo do diabetes mellitus Mellitus diagnosticado no paciente.
Hemoglobina A1C % Valor % da hemoglobina A1C atual ou mais recente para o paciente.
Glicose Sérica Valor % da glicose sérica atual ou mais recente para o paciente.
Medicamentos para Medicamentos atuais de controle Diabetes Mellitus glicêmico, incluindo insulina, tomados pelo paciente.
Neuropatia por Presença de neuropatia periférica Diabetes Mellitus diabética.
Pé de Diabetes Presença de malformações nos pés por Mellitus diabetes mellitus e/ou neuropatia periférica.
Esteroides Uso atual ou anterior de medicamentos glicocorticoides.
Outras Variáveis Diagnóstico médico atual ou anterior Endócrinas que altera direta ou indiretamente os sistemas endócrino ou metabólico.
Outros Medicamentos Medicamentos atuais ou anteriores que Endócrinos alteram direta ou indiretamente os sistemas endócrino ou metabólico.
Cardiovascular Doença Vascular Presença de doença vascular Periférica periférica.
Índice tornozelo- Índice tornozelo-braquial atual ou braquial mais recente para as extremidades disponíveis.
Procedimentos Histórico e localizações de Endovasculares angioplastia endovascular de extremidade anterior, colocação de stent ou outro procedimento para tratar doença vascular periférica.
Procedimentos de Histórico e localizações de desvio procedimentos de desvio cirúrgicos de extremidade anteriores para tratar doença vascular periférica.
Cura do Desvio Taxas e tempos de cura de procedimentos de desvio cirúrgico de extremidades anteriores.
Endocardite Endocardite atual ou anterior.
Acidentes Acidentes vasculares cerebrais Cerebrovasculares (derrames) atuais ou anteriores.
Déficits Neurológicos Déficits neurológicos remanescentes de acidentes cerebrovasculares anteriores.
Anemia Diagnóstico atual ou anterior de anemia Valores atuais ou mais recentes de Hemoglobina/Hematócri hemoglobina e hematócrito séricos. to Trombose venosa Diagnóstico atual ou prévio de trombose venosa profunda ou superficial.
Medicamentos Uso atual ou anterior de medicamentos anticoagulantes anticoagulantes.
Fibrilação Atrial Diagnóstico atual ou anterior de fibrilação atrial Insuficiência Diagnóstico atual ou anterior de cardíaca insuficiência cardíaca de qualquer tipo.
Ataque cardíaco Diagnóstico atual ou prévio de infarto do miocárdio (ataque cardíaco). Stent Cardíaco História prévia de procedimentos de implante de stent cardíaco.
Medicamentos para Antiplaquetários atuais ou anteriores plaquetas ou medicamentos que alteram as plaquetas.
Medicamentos Uso atual de medicamentos bloqueadores de cálcio bloqueadores de cálcio.
Medicamentos Uso atual de medicamentos Simpáticos modificadores do simpático, incluindo medicamentos que induzem o betabloqueio.
Medicamentos Uso atual de medicamentos indutores diuréticos de diurese.
Medicamentos para Uso atual de medicamentos que alteram Renina-Aldosterona a via renina-aldosterona.
Medicamentos Uso atual de medicamentos que alteram Dromotrópicos a inotropia, cronotropia ou dromotropia do coração.
Medicamentos para Uso atual de medicamentos que alteram Colesterol Lipídico as vias de lipídios ou colesterol.
Musculoesqueletal Outras Deformidades Presença de malformações nos pés não do Pé por diabetes mellitus e/ou neuropatia periférica.
Amputações Anteriores Histórico e localizações de amputações de extremidade anteriores.
Cura de Amputação Taxas e tempos de cura das amputações Anterior anteriores.
Nutrição Déficit de Nutrição Diagnóstico atual de desnutrição ou desnutrição de qualquer tipo, incluindo deficiências de calorias, gorduras, proteínas, vitaminas e minerais.
Doença nutricional Presença de qualquer doença médica que altere direta ou indiretamente o estado nutricional de qualquer tipo.
Marcadores de Albumina sérica, pré-albumina ou Nutrição valores de transferrina abaixo da faixa normal definida pelo sistema de medição.
Sintomas de sinais Presença de achados de exame físico nutricionais ou história do paciente sabidamente indicativos de desnutrição.
Tratamento Tratamento atual para desnutrição ou nutricional desnutrição de qualquer tipo, incluindo nutrição enteral, nutrição parenteral e suplementação de calorias, gorduras, proteínas, vitaminas e minerais.
Doença Infeciosa Ferida por Infecções Infecções atuais ou anteriores de quaisquer feridas.
Infecções profundas Diagnóstico atual ou prévio de infecções de tecidos profundos, incluindo osteomielite.
Causa das Infecções Microrganismo causador principal das infecções de ferida atuais e anteriores.
Infecções Sistêmicas Diagnóstico atual de infecção localizada em qualquer lugar.
Uso de antibióticos Uso atual ou anterior de tratamento com antibióticos definido como prolongado.
Renal Doença Renal Crônica Diagnóstico atual ou prévio de doença renal crônica.
Estágio da Doença Estágio ou gravidade da doença renal Renal crônica.
Diálise Necessidade atual de diálise de qualquer tipo.
Creatinina Valor de creatinina sérica atual ou mais recente.
Depuração de Valor de depuração de creatinina creatinina sérica atual ou mais recente.
Lesão Renal Aguda Presença de lesão renal aguda.
Ob/Gin Gravidez Estado de gravidez atual da paciente.
Gravidez Passada História de gravidez da paciente.
Menopausa Estado de pré ou pós-menopausa da paciente.
Medicamentos Medicamentos hormonais atuais tomados hormonais pela paciente.
Outros Uso do tabaco Situação de uso de tabaco atual e anterior do paciente.
Método do Tabaco Método de uso atual ou anterior do tabaco.
Quantidade de Tabaco Quantidade de uso atual ou anterior de tabaco.
Uso de álcool Uso atual e prévio de álcool do paciente.
Abuso de Álcool Abuso de álcool atual ou anterior.
Uso de drogas Uso atual ou anterior de drogas ilícitas ilícitas, incluindo maconha.
Situação do Câncer Diagnóstico atual ou anterior de cânceres.
Locais do Câncer Locais e tipos de cânceres anteriores.
Recidiva de Câncer Presença e localização de recidivas de câncer.
Radiação de Tratamento atual ou anterior com quimioterapia medicamentos de quimioterapia, radioterapia ou outros tratamentos utilizados para o câncer.
Doença Autoimune Diagnóstico atual ou anterior de doenças autoimunes.
Tratamentos Tratamentos atuais ou anteriores para autoimunes doenças autoimunes, incluindo imunossupressores.
Situação do Histórico prévio de cirurgia de transplante transplante de órgãos.
Medicamentos para Medicamentos atuais ou anteriores transplante para o manejo de órgãos transplantados, incluindo imunossupressores.
Asma Histórico atual ou prévio de asma.
Tratamentos para asma Tratamentos atuais ou anteriores para asma, incluindo corticosteroides.
Cirrose hepática Diagnóstico atual ou anterior de cirrose hepática.
Pontuação MELD Pontuação MELD ou MELD XI atual ou mais recente.
Pontuação de Child- Pontuação de Child-Pugh atual ou mais Pugh recente.
Outros valores laboratoriais Sódio Valor de sódio do soro atual ou mais recente.
Potássio Valor de potássio do soro atual ou mais recente.
Cloreto Valor de cloreto do soro atual ou mais recente.
Bicarbonato Valor de bicarbonato do soro atual ou mais recente.
Bilirrubina Valores de bilirrubina no soro total e diretos atuais ou mais recentes.
Aspartato Valor de aspartato transaminase do Transaminase soro atual ou mais recente. Alanina Transaminase Valor de alanina transaminase do soro atual ou mais recente. Proteína Total Valor de proteína total do soro atual ou mais recente. Leucócito Contagem de leucócito atual ou mais recente. Plaqueta Contagem de plaqueta do soro atual ou mais recente. Lactato Valor de lactato do soro atual ou mais recente. Lactato Desidrogenase Valor de lactato desidrogenase do soro atual ou mais recente. Cálcio Valor de cálcio do soro atual ou mais recente. Magnésio Valor de magnésio do soro atual ou mais recente. Fósforo Valor de fósforo do soro atual ou mais recente. Procalcitonina Valor de procalcitonina do soro atual ou mais recente. Outros medicamentos Tabela 1. Variáveis Clínicas Exemplificativas para Análise de Ferida por Imagem
[00164] Essas métricas podem ser convertidas em uma representação vetorial por meio de processamento apropriado, por exemplo, através de word-to-vec embeddings, um vetor com valores binários que representam se o paciente tem ou não a métrica do paciente (por exemplo, tem ou não o diabetes tipo I), ou valores numéricos que representam o grau em que o paciente tem a métrica de cada paciente. Várias modalidades podem usar qualquer uma dessas métricas do paciente ou uma combinação de algumas ou todas as métricas do paciente para melhorar a precisão dos parâmetros de cicatrização previstos gerados pelos sistemas e métodos da presente tecnologia. Em um exemplo de ensaio, foi determinado que os dados de imagem obtidos durante a visita clínica inicial para uma DFU, analisados isoladamente sem considerar as variáveis clínicas, poderiam prever com precisão a porcentagem de redução de área de DFU com aproximadamente 67% de precisão.
As previsões baseadas apenas no histórico médico do paciente foram aproximadamente 76% precisas, com as características mais importantes sendo: área da ferida, BMI, número de feridas anteriores, HbA1c, insuficiência renal crônica de estágio IV, diabetes tipo II vs tipo I, anemia crônica, asma, uso de fármacos, tabagismo, neuropatia diabética, trombose venosa profunda, infarto do miocárdio anterior, ataques isquêmicos transitórios e apneia do sono. Ao combinar essas variáveis médicas com dados de imagem, observamos um aumento na precisão da previsão para aproximadamente 78%.
[00165] Em um exemplo de modalidade, como mostrado na Figura 25, a representação 1D dos dados de imagem pode ser concatenada com a representação vetorial das métricas do paciente. Este valor concatenado pode então ser fornecido como uma entrada em uma rede neural totalmente conectada, que emite um parâmetro de cicatrização previsto.
[00166] O sistema mostrado na Figura 25 pode ser considerado como um único sistema de aprendizado de máquina com vários modelos de aprendizado de máquina, bem como o gerador de vetor métrico do paciente. Em algumas modalidades, todo este sistema pode ser treinado de ponta a ponta, de modo que a CNN e a rede totalmente conectada sintonizem seus parâmetros por retropropagação, a fim de ser capaz de gerar parâmetros de cicatrização previstos a partir de imagens de entrada, com o vetor métrico do paciente adicionado aos valores passados entre a CNN e a rede totalmente conectada.
Modelos de aprendizado de máquina exemplificativos
[00167] Redes neurais artificiais são artificiais no sentido de que são entidades computacionais, inspiradas por redes neurais biológicas, mas modificadas para implementação por dispositivos de computação. Redes neurais artificiais são usadas para modelar relacionamentos complexos entre entradas e saídas ou para encontrar padrões nos dados, onde a dependência entre as entradas e as saídas não pode ser facilmente verificada. Uma rede neural normalmente inclui uma camada de entrada, uma ou mais camadas intermediárias ("ocultas") e uma camada de saída, com cada camada incluindo um número de nós. O número de nós pode variar entre as camadas. Uma rede neural é considerada “profunda” quando inclui duas ou mais camadas ocultas. Os nós em cada camada se conectam a alguns ou todos os nós na camada subsequente e os pesos dessas conexões são normalmente aprendidos com base nos dados de treinamento durante o processo de treinamento, por exemplo, por meio de retropropagação em que os parâmetros de rede são ajustados para produzir saídas esperadas dadas as entradas correspondentes em dados de treinamento rotulados. Assim, uma rede neural artificial pode ser um sistema adaptativo que é configurado para mudar sua estrutura (por exemplo, a configuração da conexão e/ou pesos) com base nas informações que fluem através da rede durante o treinamento, e os pesos das camadas ocultas podem ser considerados como uma codificação de padrões significativos nos dados.
[00168] Uma rede neural totalmente conectada é aquela em que cada nó na camada de entrada está conectado a cada nó na camada subsequente (a primeira camada oculta), cada nó nessa primeira camada oculta é conectado por sua vez a cada nó na camada oculta subsequente e assim por diante, até que cada nó na camada oculta final seja conectado a cada nó na camada de saída.
[00169] Autoencoders são redes neurais que incluem um codificador e um decodificador. O objetivo de certos codificadores automáticos é compactar os dados de entrada com o codificador e, em seguida, descompactar esses dados codificados com o decodificador de forma que a saída seja uma reconstrução boa/perfeita dos dados de entrada originais. Redes neurais autoencoder exemplificativas descritas aqui, como a rede neural autoencoder ilustrada na Figura 24, podem tomar os valores de pixel da imagem de uma imagem de uma ferida (por exemplo, estruturada em vetor ou forma de matriz) como entradas em sua camada de entrada.
A uma ou mais camadas subsequentes, ou "camadas do codificador", codificam essas informações diminuindo sua dimensionalidade (por exemplo, representando a entrada usando menos dimensões do que suas n-dimensões originais),
e uma ou mais camadas ocultas adicionais subsequentes ao codificador camadas ("camadas decodificadoras") decodificam essas informações para gerar um vetor de características de saída na camada de saída.
Um exemplo de processo de treinamento para a rede neural do codificador automático pode não ser supervisionado, pois o codificador automático aprende os parâmetros de suas camadas ocultas que produzem a mesma saída que a entrada fornecida.
Como tal, o número de nós nas camadas de entrada e saída é normalmente o mesmo.
A redução de dimensionalidade permite que a rede neural autoencoder aprenda as características mais salientes das imagens de entrada, onde a camada mais interna (ou outra camada interna) do autoencoder representa uma versão de
“redução de característica” da entrada.
Em alguns exemplos,
isso pode servir para reduzir uma imagem tendo, por exemplo,
aproximadamente 1 milhão de pixels (onde cada valor de pixel pode ser considerado como uma característica separada da imagem) a um conjunto de características de cerca de 50 valores.
Esta representação de dimensionalidade reduzida das imagens pode ser usada por outro modelo de aprendizado de máquina, por exemplo, o classificador da Figura 25 ou uma CNN adequada ou outra rede neural, a fim de produzir um parâmetro de cicatrização previsto.
[00170] Uma CNN é um tipo de rede neural artificial e, como as redes neurais artificiais descritas acima, uma CNN é composta de nós e tem pesos aprendíveis entre nós. No entanto, as camadas de uma CNN podem ter nós dispostos em três dimensões: largura, altura e profundidade, correspondendo à matriz 2x2 de valores de pixel em cada quadro de imagem (por exemplo, a largura e altura) e ao número de quadros de imagem em uma sequência de imagens (por exemplo, a profundidade). Em algumas modalidades, os nós de uma camada podem ser conectados apenas localmente a uma pequena região da largura e altura da camada anterior, chamada de campo receptivo. Os pesos das camadas ocultas podem assumir a forma de um filtro convolucional aplicado ao campo receptivo. Em algumas modalidades, os filtros convolucionais podem ser bidimensionais e, assim, convoluções com o mesmo filtro podem ser repetidas para cada quadro (ou transformação convolvida de uma imagem) no volume de entrada ou para o subconjunto designado dos quadros. Em outras modalidades, os filtros convolucionais podem ser tridimensionais e, assim, se estender por toda a profundidade dos nós do volume de entrada. Os nós em cada camada convolucional de uma CNN podem compartilhar pesos de modo que o filtro convolucional de uma determinada camada seja replicado em toda a largura e altura do volume de entrada (por exemplo, em um quadro inteiro), reduzindo o número geral de pesos treináveis e aumentando a aplicabilidade da CNN a conjuntos de dados fora dos dados de treinamento. Os valores de uma camada podem ser agrupados para reduzir o número de cálculos em uma camada subsequente (por exemplo, valores que representam certos pixels podem ser passados para frente enquanto outros são descartados), e mais adiante ao longo da profundidade das máscaras de pool CNN podem reintroduzir quaisquer valores descartados para retorna o número de pontos de dados ao tamanho anterior. Várias camadas, opcionalmente com algumas totalmente conectadas, podem ser empilhadas para formar a arquitetura de CNN. Durante o treinamento, uma rede neural artificial pode ser exposta a pares em seus dados de treinamento e pode modificar seus parâmetros para ser capaz de prever a saída de um par quando fornecida com a entrada.
[00171] A inteligência artificial descreve sistemas computadorizados que podem realizar tarefas normalmente consideradas como exigindo inteligência humana. Aqui, os sistemas de inteligência artificial revelados podem realizar análise de imagem (e outros dados) que, sem a tecnologia revelada, podem de outra forma exigir a habilidade e inteligência de um médico humano. Vantajosamente, os sistemas de inteligência artificial revelados podem fazer tais previsões na visita inicial do paciente, em vez de exigir um tempo de espera de 30 dias para avaliar a cicatrização da ferida.
[00172] A capacidade de aprender é um aspecto importante da inteligência, pois um sistema sem essa capacidade geralmente não pode se tornar mais inteligente com a experiência. O aprendizado de máquina é um campo da ciência da computação que dá aos computadores a capacidade de aprender sem serem explicitamente programados, por exemplo, permitindo que sistemas de inteligência artificial aprendam tarefas complexas ou se adaptem a ambientes em mudança. Os sistemas de aprendizado de máquina revelados podem aprender a determinar o potencial de cicatrização de feridas por meio da exposição a grandes volumes de dados de treinamento rotulados. Por meio desse aprendizado de máquina, os sistemas artificialmente inteligentes revelados podem aprender novas relações entre a aparência de feridas (conforme capturado em dados de imagem, como MSI) e o potencial de cicatrização da ferida.
[00173] Os sistemas de aprendizado de máquina artificialmente inteligentes revelados incluem hardware de computador, uma ou mais memórias e um ou mais processadores, por exemplo, conforme descrito com referência aos vários sistemas de imageamento neste documento. Qualquer um dos sistemas de aprendizado de máquina e/ou métodos da presente tecnologia pode ser implementado com ou em comunicação com processadores e/ou memória dos vários sistemas e dispositivos de imageamento da presente revelação.
Exemplo de implementação de imagens multiespectrais de
DFU
[00174] Em um exemplo de aplicação dos sistemas e métodos de aprendizado de máquina revelados neste documento, algoritmos de aprendizado de máquina consistentes com aqueles descritos acima foram usados para prever a porcentagem de redução de área (PAR) de uma ferida com imagem no dia 30, após a imagem no dia 0. Para realizar essa previsão, um algoritmo de aprendizado de máquina foi treinado para tomar dados de MSI e variáveis clínicas como entradas e para gerar um valor escalar representando a PAR prevista.
Após 30 dias, cada ferida foi avaliada para medir sua verdadeira PAR. A PAR prevista foi comparada com a PAR verdadeira medida durante uma avaliação de cicatrização de 30 dias realizada na ferida. O desempenho do algoritmo foi avaliado usando um coeficiente de determinação (𝑅 )
[00175] O algoritmo de aprendizado de máquina para este aplicativo exemplificativo era um conjunto de classificadores de árvore de decisão, ajustado usando dados de um banco de dados de imagem de DFU. Outros conjuntos de classificadores adequados podem ser igualmente implementados, como o algoritmo XGBoost ou semelhantes. O banco de dados de imagens de DFU continha 29 imagens individuais de úlceras de pé diabético obtidas de 15 indivíduos. Para cada imagem, a verdadeira PAR medida no dia 30 era conhecida. O treinamento do algoritmo foi conduzido usando o procedimento de validação cruzada leave-one-out (LOOCV). A 𝑅 pontuação foi calculada após combinar os resultados previstos na imagem de teste de cada dobra de LOOCV.
[00176] Os dados de MSI consistiam em 8 canais de imagens 2D, onde cada um dos 8 canais representava a refletância difusa da luz do tecido em um filtro de comprimento de onda específico. O campo de visão de cada canal era de 15 cm x 20 cm com resolução de 1044 pixels x 1408 pixels. As 8 bandas de comprimento de onda incluem: 420 nm ± 20 nm; 525 nm ± 35 nm; 581 nm ± 20 nm; 620 nm ± 20 nm; 660 nm ± 20 nm; 726 nm ± 41 nm; 820 nm ± 20 nm; e 855 nm ± 30 nm, em que “±” representa a largura total na metade do máximo de cada canal espectral. As 8 bandas de comprimento de onda são ilustradas na Figura 26. De cada canal, as seguintes características quantitativas foram calculadas: a média de todos os valores de pixel, a mediana de todos os valores de pixel e o desvio padrão de todos os valores de pixel.
[00177] Além disso, de cada indivíduo, foram obtidas as seguintes variáveis clínicas: idade, grau de doença renal crônica, comprimento de DFU no dia 0 e largura de DFU no dia
0.
[00178] Algoritmos separados foram gerados usando características extraídas de todas as combinações possíveis dos 8 canais (bandas de comprimento de onda) no cubo de dados de MSI usando 1 canal para 8 canais, totalizando 𝐶 (8) + 𝐶 (8) + . . . + 𝐶 (8) = 255 conjuntos de características diferentes.
Os valores 𝑅 de cada combinação foram calculados e ordenados do menor para o maior. O intervalo de confiança de 95% do valor 𝑅 foi calculado a partir dos resultados de previsão do algoritmo treinado em cada conjunto de características.
Para determinar se um conjunto de características poderia fornecer uma melhoria em relação ao acaso, conjuntos de características foram identificados em que o valor de 0,0 não estava contido no CI de 95% dos resultados do algoritmo treinado naquele conjunto de características. Além disso, a mesma análise foi realizada mais 255 vezes com a inclusão de todas as variáveis clínicas em cada conjunto de características. A fim de determinar se as variáveis clínicas tiveram um impacto no desempenho do algoritmo, o valor médio 𝑅 dos 255 algoritmos treinados com as variáveis clínicas foi comparado com os 255 algoritmos treinados sem as variáveis clínicas usando um teste t. Os resultados da análise são ilustrados nas Tabelas 2 e 3, a seguir. A Tabela 2 ilustra o desempenho dos conjuntos de características, incluindo apenas dados de imagem, sem incluir variáveis clínicas.
O CI CI Conjunto de rdena R2 de 95% de 95% características ção inferior superior 0,3 0,7 1 420, 726, 855 0,53 4 2 0,4 0,6 2 420, 525, 660, 726820 0,51 0 3 420, 581, 660, 726, 0,3 0,5 3 0,48 820855 7 8 420, 525, 581, 581, 0,3 0,5 4 0,48 620660, 726 8 7 0,2 0,6 5 660, 726, 855 0,46 6 7 … … … … … 2 - 0,3
581. 0,11 51 0,07 0 2 - 0,2
525. 0,11 52 0,07 9
O CI CI Conjunto de rdena R2 de 95% de 95% características ção inferior superior 2 - 0,2
620. 0,10 53 0,08 8 2 - 0,1
820. 0,05 54 0,09 8 2 - 0,1
726. 0,04 55 0,08 6 Tabela 2. Algoritmos de melhor desempenho desenvolvidos em conjuntos de características que não incluíam dados clínicos
[00179] Conforme mostrado na Tabela 2, entre os conjuntos de características que não incluíram as características clínicas, o conjunto de características de melhor desempenho continha apenas 3 dos 8 canais possíveis nos dados de MSI. Foi observado que a banda de comprimento de onda de 726 nm aparece em todos os 5 principais conjuntos de características. Apenas uma banda de comprimento de onda aparece em cada um dos cinco conjuntos de características inferiores. Foi ainda observado que, embora a banda de comprimento de onda de 726 nm tenha aparecido em cada um dos 5 principais conjuntos de características, a banda de comprimento de onda de 726 nm teve o pior desempenho quando usada sozinha. A Tabela 3 abaixo ilustra o desempenho dos conjuntos de características, incluindo dados de imagem, bem como as variáveis clínicas de idade, nível de doença renal crônica, comprimento de DFU no dia 0 e largura de DFU no dia
0.
O CI CI Conjunto de rdena R2 de 95% de 95% características ção inferior superior [CFs, 420, 525, 581, 0,5 0,4 0,6 1 620, 660, 726, 820, 855] 6 7 5 [CFs, 420, 581, 660, 0,5 0,4 0,6 2 820, 855] 5 4 5 [CFs, 420, 581, 660, 0,5 0,4 0,6 3 726, 855] 2 1 3 0,4 0,3 0,6 4 [CFs, 660, 726, 855] 9 1 7 [CFs, 525, 581, 620, 0,4 0,2 0,6 5 820, 855] 6 4 8 … … … … … 2 0,1 - 0,3 [CFs, 420, 620, 660] 51 7 0,04 7
O CI CI Conjunto de rdena R2 de 95% de 95% características ção inferior superior 2 0,1 - 0,3 [CFs, 820] 52 6 0,04 6 2 0,1 - 0,3 [CFs, 420, 820, 855] 53 5 0,02 2 2 0,1 - 0,3 [CFs, 620] 54 4 0,04 3 2 0,1 - 0,2 [CFs, 420] 55 1 0,07 9 Tabela 3. Algoritmos de melhor desempenho desenvolvidos em conjuntos de características que incluíram dados clínicos
[00180] Dos conjuntos de características que incluíram as variáveis clínicas, o conjunto de características de melhor desempenho continha todos os 8 canais possíveis nos dados de MSI. A banda de comprimento de onda de 855 nm aparece em todos os 5 principais conjuntos de características. Histogramas de modelos com e sem a inclusão de variáveis clínicas são ilustrados em Figura 27, junto com linhas verticais que representam a média de cada distribuição.
[00181] Ao comparar a importância das características clínicas, foi determinado se a média 𝑅 entre todos os conjuntos de características sem variáveis clínicas foi igual à média 𝑅 de todos os conjuntos de características que incluíram variáveis clínicas. Foi determinado que a média 𝑅 de modelos treinados em conjuntos de características sem variáveis clínicas foi de 0,31 e de 0,32 de modelo treinado com variáveis clínicas. No cálculo do teste t para a diferença entre as médias, o valor de p foi 0,0443. Portanto, determinou-se que os modelos treinados com variáveis clínicas eram significativamente mais precisos do que os modelos treinados sem características clínicas.
Extração de características de dados de imagem
[00182] Embora o aplicativo exemplificativo descrito acima extraia a média, o desvio padrão e os valores de mediana de pixel, será entendido que uma variedade de outras características pode ser extraída dos dados de imagem para uso na geração de parâmetros de cicatrização previstos. As categorias de características incluem características locais, semilocais e globais. As características locais podem representar a textura em um patch de imagem, enquanto as características globais podem incluir representações de contorno, descritores de forma e características de textura.
As características de textura global e características locais fornecem informações diferentes sobre a imagem devido ao suporte sobre o qual a textura é calculada varia. Em alguns casos, as características globais têm a capacidade de generalizar um objeto inteiro com um único vetor. As características locais, por outro lado, são calculadas em vários pontos da imagem e, consequentemente, são mais robustas à oclusão e desordem. No entanto, elas podem exigir algoritmos de classificação especializados para lidar com casos em que há um número variável de vetores de características por imagem.
[00183] As características locais podem incluir, por exemplo, transformação de característica invariante de escala (SIFT), características robustas aceleradas (SURF), características de teste de segmento acelerado (FAST), pontos-chave escaláveis invariáveis robustos binários (BRISK), operador de detecção de canto de Harris, características elementares independentes robustas binárias (BRIEF), FAST orientado e BRIEF girado (ORB) e características de KAZE. As características semilocais podem incluir, por exemplo, arestas, estrias, linhas e momentos em pequenas janelas. As características globais podem incluir, por exemplo, cor, características de Gabor, características de ondeleta, características de Fourier, características de textura (por exemplo, 1º, 2º e altos momentos), características de rede neural de convoluções 1D, 2D e 3D ou camadas ocultas e análise de componente principal (PCA).
Exemplo de aplicativo de imageamento de RGB DFU
[00184] Como outro exemplo de geração de parâmetro de cicatrização previsto, métodos de MSI semelhantes podem ser usados com base em dados de RGB, como de uma câmera digital fotográfica. Nesse cenário, o algoritmo pode obter dados de uma imagem de RGB e, opcionalmente, o histórico médico do indivíduo ou outras variáveis clínicas e gerar um parâmetro de cicatrização previsto, como uma probabilidade condicional que indica se a DFU responderá a 30 dias de terapia de cuidado de ferida padrão. Em algumas modalidades, a probabilidade condicional é a probabilidade de que a DFU em questão não seja cicatrizada dado os dados de entrada, 𝒙, para um modelo parametrizado por 𝜽; escrito como: 𝑃 (𝑦 = "𝑛ã𝑜 𝑐𝑖𝑐𝑎𝑡𝑟𝑖𝑧𝑎çã𝑜"|𝒙; 𝜽).
[00185] Os métodos de pontuação para dados de RGB podem ser semelhantes aos do aplicativo de MSI exemplificador descrito acima. Em um exemplo, a região sem cicatrização prevista pode ser comparada com a região sem cicatrização verdadeira medida durante uma avaliação de cicatrização de 30 dias realizada em uma ferida, como uma DFU. Esta comparação representa o desempenho do algoritmo. O método aplicado para realizar essa comparação pode ser baseado no resultado clínico dessas imagens de saída.
[00186] Neste aplicativo exemplificativo, quatro resultados são possíveis para cada parâmetro de previsão de cicatrização gerado pelo algoritmo de previsão de cicatrização. Em um resultado verdadeiro positivo (TP), a ferida demonstra redução de área inferior a 50% (por exemplo, a DFU não cicatriza), e o algoritmo prevê redução de área inferior a 50% (por exemplo, o dispositivo produz uma previsão sem cicatrização). Em um resultado Verdadeiro Negativo (TN), a ferida demonstra pelo menos 50% de redução de área (por exemplo, a DFU está cicatrizando), e o algoritmo prevê pelo menos 50% de redução de área (por exemplo, o dispositivo produz uma previsão de cicatrização). Em um resultado de falso positivo (FP), a ferida demonstra no mínimo 50% de redução de área, mas o algoritmo prevê menos de 50% de redução de área. Em um resultado falso negativo (FN), o ferimento demonstra menos de 50% de redução de área, mas o algoritmo prevê pelo menos 50% de redução de área.
Após a previsão e a avaliação da cura real, esses resultados podem ser resumidos usando as métricas de desempenho de precisão, sensibilidade e especificidade, conforme mostrado na Tabela 4, abaixo.
Métrica Computação Precisão  eq. 1 Taxa de verdadeiro positivo (TPR; também conhecido  TPR = eq. 2 como Sensibilidade)
Métrica Computação Taxa Negativa Verdadeira (TNR; também conhecido  TNR = eq. 3 como Especificidade) Tabela 4. Métricas de desempenho padrão usadas para avaliar previsões em imagens.
[00187] Um banco de dados de imagens de DFU foi obtido retrospectivamente e incluiu 149 imagens individuais de úlceras de pé diabético de 82 indivíduos. Das DFUs neste conjunto de dados, 69% foram consideradas “cicatrizando” porque atingiram a meta de 50% de PAR no dia 30. A área média da ferida foi 3,7 cm2, e a área mediana da ferida foi de 0,6 cm2.
[00188] Imagens fotográficas coloridas (imagens de RGB) foram utilizadas como dados de entrada para os modelos desenvolvidos. A imagem de RGB consistia em 3 canais de imagens 2D, onde cada um dos 3 canais representava a refletância difusa da luz do tecido nos comprimentos de onda utilizados em um sensor de câmera colorida tradicional. As imagens foram capturadas por um clínico usando uma câmera digital portátil. A escolha do imageador, distância de trabalho e campo de visão (FOV) variou entre as imagens.
Antes do treinamento do algoritmo, as imagens foram cortadas manualmente para garantir que a úlcera estava no centro de FOV. Após o recorte, as imagens foram interpoladas para um tamanho de imagem de 3 canais x 256 pixels x 256 pixels. A manutenção da razão de aspecto da imagem original não foi controlada durante esta etapa de interpolação. No entanto, a razão de aspecto pode ser mantida ao longo dessas etapas de pré-processamento, se desejado. De cada indivíduo, um conjunto de dados clínicos (por exemplo, variáveis clínicas ou valores métricos de saúde) também foi obtido incluindo seu histórico médico, feridas anteriores e exames de sangue.
[00189] Dois tipos de algoritmo foram desenvolvidos para esta análise. O objetivo de cada algoritmo era identificar inicialmente uma nova representação para os dados de imagem que pudesse ser combinada com as métricas de saúde do paciente em uma abordagem de classificação de aprendizado de máquina tradicional. Existem muitos métodos disponíveis para produzir esta representação de imagem, como análise de componente principal (PCA) ou transformação de característica invariante de escala (SIFT). Neste exemplo, redes neurais convolucionais (CNN) foram usadas para transformar as imagens de uma matriz (com dimensões de 3 canais x 265 pixels x 256 pixels) em um vetor em ℝ . Em um exemplo, uma abordagem não supervisionada treinada separadamente foi usada para compactar as imagens, seguida de aprendizado de máquina para fazer previsões sobre a cura de DFU. Em um segundo exemplo, uma abordagem supervisionada ponta a ponta foi usada para prever a cura da DFU.
[00190] Na abordagem de extração de características não supervisionadas, um algoritmo autoencoder foi usado, por exemplo, consistente com o método da Figura 24. Um exemplo de autoencoder é esquematicamente ilustrado na Figura 28. O autoencoder inclui um módulo codificador e um módulo decodificador. O módulo codificador era uma rede convolucional VGG de 16 camadas. A 16º camada representou a representação da imagem compactada. O módulo decodificador era uma rede VGG de 16 camadas com funções de sobreamostragem adicionadas e funções pooling eliminadas. Para cada valor de pixel previsto (em ℝ ) da saída da camada do decodificador, a perda foi calculada com o erro quadrático médio (MSE) em que os valores alvos eram os valores de pixel da imagem original.
[00191] O autoencoder foi pré-treinado usando dados de classes de objetos visuais (VOC) PASCAL e ajustado usando as imagens de DFU no conjunto de dados presente. Imagens individuais compreendendo 3 canais x 265 pixels x 256 pixels (total de 65.536 pixels) foram compactadas em vetores únicos de 50 pontos de dados. Uma vez treinado, o algoritmo codificador-decodificador idêntico foi usado para todas as imagens no conjunto de dados.
[00192] Após a extração do vetor de imagem compactado, o vetor de imagem compactado foi usado como uma entrada para um segundo algoritmo de aprendizado de máquina supervisionado. A combinação de características de imagem e características do paciente foi testada usando uma variedade de algoritmos de aprendizado de máquina, incluindo regressão logística, vizinhos-K mais próximos, máquina de vetor de suporte e uma variedade de modelos de árvore de decisão. Um exemplo de algoritmo de aprendizado de máquina supervisionado, usando o vetor de imagem compactada e variáveis clínicas do paciente como entradas para prever a cura de DFU, é esquematicamente ilustrado na Figura 29. O algoritmo de aprendizado de máquina pode ser um de vários algoritmos de aprendizado de máquina conhecidos, como um perceptron de múltiplas camadas, análise discriminante quadrática, de naïve Bayes ou um conjunto de tais algoritmos.
[00193] A abordagem de aprendizado de máquina ponta a ponta, investigada como uma alternativa para a abordagem de extração de características não supervisionada descrita acima, é esquematicamente ilustrada na Figura 30. Na abordagem ponta a ponta, a CNN VGG de 16 camadas foi modificada na primeira camada totalmente conectada pela concatenação dos dados de métricas de saúde do paciente ao vetor de imagem. Desse modo, o módulo codificador e o algoritmo de aprendizado de máquina subsequente podem ser treinados simultaneamente. Outros métodos de inclusão de variáveis globais (por exemplo, métricas de saúde do paciente ou variáveis clínicas) para melhorar o desempenho ou alterar o propósito de uma CNN foram propostos. O método mais amplamente usado é o gerador de modulação linear com base em características (FiLM). Para os algoritmos de aprendizado de máquina supervisionado, o treinamento foi realizado usando um procedimento de validação cruzada k-fold. Os resultados de cada imagem foram calculados como Verdadeiro Positivo, Verdadeiro Negativo, Falso Positivo ou Falso Negativo. Esses resultados foram resumidos usando as métricas de desempenho descritas na Tabela 4, acima.
[00194] A precisão das previsões da extração de características não supervisionados (autoencoder) e a abordagem de aprendizado de máquina das Figuras 28 e 29 foram obtidas usando sete algoritmos de aprendizado de máquina diferentes e três combinações de características de entrada diferentes, como mostrado na Figura 31. Cada algoritmo foi treinado usando validação cruzada de 3 vezes e a precisão média (intervalo de confiança de ± 95%) é relatada. Apenas dois algoritmos treinados no uso dessa abordagem excederam a precisão da linha de base. A precisão da linha de base ocorreu quando um classificador naïve simplesmente previu todas as DFUs como cicatrizando. Os dois algoritmos que excederam a linha de base foram regressão logística e máquinas de vetores de suporte, incluindo uma combinação de dados de imagem e dados do paciente. As importantes métricas de saúde do paciente que eram preditivas da cicatrização de
DFU e usadas nesses modelos incluíam: área da ferida; índice de massa corporal (BMI); número de feridas anteriores; hemoglobina A1c (HbA1c); falência renal; diabetes tipo II vs tipo I; anemia; asma; uso de fármacos; condição de fumante; neuropatia diabética; trombose venosa profunda (DVT); ou infarto do miocárdio anterior (MI) e combinações dos mesmos.
[00195] Os resultados usando a abordagem de aprendizado de máquina ponta a ponta da Figura 30 demonstraram um desempenho significativamente melhor do que a linha de base, conforme mostrado na Figura 32. Embora esta abordagem não tenha sido significativamente melhor do que a abordagem não supervisionada, a precisão média foi maior do que qualquer outro método tentado.
Previsão de cicatrização de um subconjunto de área de ferida
[00196] Em outras modalidades exemplificativas, além de gerar uma probabilidade de cicatrização única para uma ferida inteira, os sistemas e métodos da presente tecnologia são ainda capazes de prever a área de tecido dentro de uma ferida individual que não será cicatrizada após 30 dias de cuidado padrão da ferida. Para realizar essa saída, um algoritmo de aprendizado de máquina foi treinado para tomar dados de MSI ou de RGB como entrada e gerar parâmetros de cicatrização previstos para partes da ferida (por exemplo, para pixels individuais ou subconjuntos de pixels em uma imagem de ferida). A presente tecnologia pode ser treinada para produzir uma representação visual, como uma imagem que destaca a área do tecido da úlcera que não deve cicatrizar em 30 dias.
[00197] A Figura 33 ilustra um exemplo de processo de previsão e geração de cicatrização de uma representação visual. Conforme mostrado na Figura 33, um cubo de dados espectral é obtido, conforme descrito em outro lugar neste documento. Este cubo de dados é passado para o software de aprendizado de máquina para processamento. O software de aprendizado de máquina pode implementar algumas ou todas as etapas a seguir: pré-processamento, um modelo de avaliação de feridas de aprendizado de máquina e pós-processamento. O módulo de aprendizado de máquina produz um mapa de probabilidade condicional que é processado pelo módulo de pós-processamento (por exemplo, limite de probabilidades) para gerar os resultados que podem ser enviados visualmente ao usuário na forma de uma imagem classificada. Conforme mostrado na saída da imagem para o usuário na Figura 33, o sistema pode fazer com que uma imagem da ferida seja exibida para o usuário de forma que os pixels de cicatrização e os pixels sem cicatrização sejam exibidos em diferentes representações visuais.
[00198] O processo da Figura 33 foi aplicado a um conjunto de imagens de DFU, e a região sem cicatrização prevista foi comparada com a região sem cicatrização verdadeira medida durante uma avaliação de cicatrização de 30 dias conduzida na DFU. Esta comparação representa o desempenho do algoritmo. O método aplicado para realizar essa comparação foi baseado no resultado clínico dessas imagens de saída. O banco de dados de imagens de DFU continha 28 imagens individuais de úlceras de pé diabético obtidas de 19 indivíduos. Para cada imagem, a verdadeira área da ferida que não cicatrizou após 30 dias de cuidado padrão da ferida era conhecida. O treinamento do algoritmo foi conduzido usando o procedimento de validação cruzada leave-one-out (LOOCV). Os resultados de cada imagem foram calculados como Verdadeiro Positivo, Verdadeiro Negativo, Falso Positivo ou Falso Negativo. Esses resultados foram resumidos usando as métricas de desempenho descritas na Tabela 4 acima.
[00199] Uma rede neural convolucional foi usada para gerar o mapa de probabilidade condicional para cada imagem de entrada. O algoritmo inclui uma camada de entrada, camadas convolucionais, camadas deconvolucionais e camada de saída.
Os dados de MSI ou de RGB são normalmente inseridos em uma camada convolucional. A camada convolucional normalmente consiste em um estágio de convolução (por exemplo, transformação affine), cuja saída é, por sua vez, usada como entrada para um estágio de detector (por exemplo, transformação não linear, como linear retificada [ReLU]),
cujos resultados podem sofrer outras convoluções e estágios do detector. Esses resultados podem ser amostrados por uma função pooling ou ser usados diretamente como os resultados da camada convolucional. Os resultados da camada de convolução são fornecidos como entrada para a próxima camada.
As camadas de deconvolução normalmente começam com uma camada de pooling reversa seguida por estágios de convolução e detector. Normalmente, essas camadas são organizadas na ordem de camada de entrada, camadas de convolução e, a seguir, camadas de deconvolução. Essa organização é frequentemente referida como tendo primeiro as camadas codificadoras seguidas pelas camadas decodificadoras. A camada de saída normalmente consiste em várias redes neurais totalmente conectadas aplicadas a cada vetor em uma das dimensões do tensor emitido da camada anterior. A agregação dos resultados dessas redes neurais totalmente conectadas é uma matriz chamada mapa de probabilidade condicional.
[00200] Cada entrada no mapa de probabilidade condicional representa uma região da imagem de DFU original.
Esta região pode ser um mapeamento de 1-para-1 com os pixels na imagem de MSI de entrada, ou um mapeamento de n-para-1 onde n é alguma agregação de pixels na imagem original. Os valores de probabilidade condicional neste mapa representam a probabilidade de que o tecido nessa área da imagem não responda ao cuidado de ferida padrão. O resultado é uma segmentação dos pixels na imagem original em que as regiões sem cicatrização previstas são segmentadas das regiões de cicatrização previstas.
[00201] Os resultados de uma camada dentro da rede neural convolucional podem ser modificados por informações de outra fonte. Neste exemplo, os dados clínicos do histórico médico ou plano de tratamento de um indivíduo (por exemplo, métricas de saúde do paciente ou variáveis clínicas conforme descrito neste documento) podem ser usados como a fonte desta modificação. Assim, os resultados da rede neural convolucional podem ser condicionados ao nível de uma variável sem imageamento. Para fazer isso, camadas de transformação linear com base em características (FiLM) podem ser incorporadas à arquitetura de rede, conforme mostrado na Figura 34. A camada FiLM é um algoritmo de aprendizado de máquina treinado para aprender os parâmetros de uma transformação affine que é aplicada a uma das camadas da rede neural convolucional. A entrada para este algoritmo de aprendizado de máquina é um vetor de valores, neste caso, o histórico médico do paciente clinicamente relevante na forma de valores métricos de saúde do paciente ou variáveis clínicas. O treinamento desse algoritmo de aprendizado de máquina pode ser realizado simultaneamente ao treinamento da rede neural convolucional. Uma ou mais camadas FiLM com entradas e algoritmos de aprendizado de máquina variáveis podem ser aplicadas a várias camadas da rede neural convolucional.
[00202] Os dados de entrada para o mapeamento de probabilidade condicional incluem dados de imageamento multiespectral (MSI) e imagens fotográficas coloridas (imagens de RGB). Os dados de MSI consistiam em 8 canais de imagens 2D, onde cada um dos 8 canais representava a refletância difusa da luz do tecido em um filtro de comprimento de onda específico. O campo de visão de cada canal era de 15 cm x 20 cm com resolução de 1044 pixels x 1408 pixels. Os 8 comprimentos de onda incluídos: 420 nm ± 20 nm, 525 nm ± 35 nm, 581 nm ± 20 nm, 620 nm ± 20 nm, 660 nm ± 20 nm, 726 nm ± 41 nm, 820 nm ± 20 nm e 855 nm ± 30 nm, como ilustrado na Figura 26. As imagens de RGB incluíram 3 canais de imagens 2D, onde cada um dos 3 canais representou a refletância difusa da luz do tecido nos comprimentos de onda utilizados em um sensor de câmera colorida tradicional.
O campo de visão de cada canal era de 15 cm x 20 cm com resolução de 1044 pixels x 1408 pixels.
[00203] Para realizar a segmentação da imagem com base na probabilidade de cicatrização, foi usada a arquitetura de CNN chamada SegNet. Este modelo foi usado conforme descrito pelos autores originais para obter imagens de RGB como entrada e saída do mapa de probabilidade condicional. Além disso, o mesmo foi modificado para utilizar as imagens de
MSI de 8 canais na camada de entrada. Por último, a arquitetura SegNet foi modificada para incluir uma camada FiLM.
[00204] Para demonstrar que a segmentação de imagens de DFU em regiões de cicatrização e sem cicatrização pode ser realizada, uma variedade de modelos de aprendizado profundo foi desenvolvida, cada uma utilizando entradas diferentes. Esses modelos usaram as duas categorias de características de entrada a seguir: Apenas dados de MSI e apenas imagens de RGB. Além de variar as características de entrada, vários aspectos do treinamento do algoritmo foram variados. Algumas dessas variações incluíram pré-treinar o modelo com o conjunto de dados de classes de objeto visual PASCAL (VOC), pré-treinar o modelo com um banco de dados de imagens de outro tipo de ferida de tecido, pré-especificando os grãos da camada de entrada com um banco de filtro, parada precoce, aumentos de imagem aleatórios durante o treinamento do algoritmo e a média dos resultados de aumentos de imagem aleatórios durante a inferência para produzir um único mapa de probabilidade condicional agregado.
[00205] Os dois modelos de melhor desempenho de cada uma das duas categorias de entrada de características foram identificados como tendo um desempenho melhor do que o acaso.
Os resultados melhoraram à medida que os dados de RGB foram substituídos por dados de MSI. O número de erros baseados em imagem foi reduzido de 9 para 7. No entanto, foi determinado que os métodos de MSI e de RGB são viáveis para a produção de um mapa de probabilidade condicional para o potencial de cicatrização de DFU.
[00206] Além de determinar que uma arquitetura SegNet pode render a precisão de segmentação desejável para imagens de feridas, também foi determinado que outros tipos de imagens de feridas podem ser inesperadamente adequados para uso em sistemas de treinamento para segmentar imagens de DFU ou outras imagens de feridas com base na probabilidade condicional mapeamento para cicatrização. Conforme descrito acima, uma arquitetura de CNN SegNet pode ser adequada para segmentação de imagem de DFU quando pré-treinada usando dados de imagem de DFU como dados de treinamento. No entanto, em alguns casos, um conjunto grande de imagens de treinamento pode não estar disponível para certos tipos de feridas. A Figura 35 ilustra um exemplo de imagem de DFU colorida (A) e quatro exemplos de segmentação da DFU em regiões de cicatrização e sem cicatrização previstas por diferentes algoritmos de segmentação. Na imagem (A), que foi capturada no dia da avaliação inicial, a linha tracejada indica a porção da ferida que foi identificada como não cicatrizando em uma avaliação subsequente quatro semanas depois. Nas imagens (B) a (E), cada algoritmo de segmentação correspondente produz uma seção de tecido não cicatrizado previsto indicado por sombreamento. Conforme mostrado na imagem (E), um algoritmo SegNet, que foi pré-treinado usando um banco de dados de imagens de queima em vez de um banco de dados de imagens de DFU, no entanto, produziu uma previsão altamente precisa de uma região de tecido que não cicatriza que corresponde ao contorno da linha tracejada na imagem (A) correspondendo a uma área não cicatrizante determinada empiricamente. Em contraste, um modelo linear de naïve Bayes treinado com dados de imagem de DFU (imagem (B)), um modelo de regressão logística treinado com dados de imagem de DFU (imagem (C) e um SegNet pré-treinado usando dados de PACAL VOC (imagem (D)) todos mostraram resultados inferiores, com cada uma das imagens (B) a (D) indicando uma área muito maior e de formato impreciso de tecido que não cicatriza.
Exemplo de análise individual de comprimento de onda de imagens de DFU
[00207] Em outras implementações de exemplo, verificou-se que a porcentagem de redução de área (PAR) de uma ferida no dia 30 e/ou segmentação na forma de um mapa de probabilidade condicional pode ainda ser realizada com base em dados de imagem de uma única banda de comprimento de onda, em vez de usar dados de imagem de MSI ou de RGB. Para realizar este método, um algoritmo de aprendizado de máquina foi treinado para obter características extraídas de uma única imagem de banda de comprimento de onda como entrada e saída de um valor escalar que representa a PAR prevista.
[00208] Todas as imagens foram obtidas de indivíduos sob um protocolo de estudo clínico aprovado pelo conselho de revisão institucional (IRB). O conjunto de dados continha 28 imagens individuais de úlceras de pé diabético obtidas de 17 indivíduos. Cada indivíduo foi fotografado em sua visita inicial para tratamento das feridas. As feridas tinham pelo menos 1,0 cm de largura em sua dimensão mais longa. Apenas indivíduos prescritos com terapia de cuidado de ferida padrão foram incluídos no estudo. Para determinar a verdadeira PAR após 30 dias de tratamento, uma avaliação de cicatrização de DFU foi realizada pelo médico durante uma visita de acompanhamento de rotina. Nesta avaliação de cicatrização, uma imagem da ferida foi coletada e comparada com a imagem tirada no dia 0 para quantificar com precisão a PAR.
[00209] Vários algoritmos de aprendizado de máquina, como conjuntos de classificadores ou semelhantes, podem ser usados. Dois algoritmos de aprendizado de máquina para regressão foram empregados nesta análise. Um algoritmo era um conjunto de ensacamento de classificadores de árvore de decisão (árvores ensacadas) e o segundo era um conjunto de floresta aleatório. Todas as características usadas para treinar os modelos de regressão de aprendizado de máquina foram obtidas a partir da imagem de DFU obtida antes do tratamento na visita inicial para a DFU incluída no estudo.
[00210] Oito imagens em tons de cinza de cada DFU foram obtidas de comprimentos de onda únicos no espectro visível e infravermelho próximo. O campo de visão de cada imagem era de aproximadamente 15 cm x 20 cm com resolução de 1044 pixels x 1408 pixels. Os oito comprimentos de onda exclusivos foram selecionados usando um conjunto de filtros passa-banda ópticos com as seguintes bandas de comprimento de onda: 420 nm ± 20 nm, 525 nm ± 35 nm, 581 nm ± 20 nm, 620 nm ± 20 nm, 660 nm ± 20 nm, 726 nm ± 41 nm, 820 nm ± 20 nm e 855 nm ± 30 nm, como ilustrado na Figura 26.
[00211] Cada imagem bruta de 1044 pixels x 1408 pixels incluía, para cada pixel, um valor de intensidade de refletância para o pixel. As características quantitativas foram calculadas com base nos valores de intensidade de refletância, incluindo o primeiro e o segundo momentos (por exemplo, média e desvio padrão) dos valores de intensidade de refletância. Além disso, a mediana também foi calculada.
[00212] Após esses cálculos, um conjunto de filtros pode, opcionalmente, ser aplicado individualmente à imagem bruta para gerar múltiplas transformações de imagem. Em um exemplo particular, um total de 512 filtros pode ser usado, cada um com dimensões de 7 pixels x 7 pixels ou outro tamanho de núcleo adequado. A Figura 36 ilustra um conjunto exemplificativo de núcleos de filtro 512 7x7 que podem ser usados em uma implementação exemplificativa. Este exemplo não limitativo de conjunto de filtros pode ser obtido através do treinamento de uma rede neural convolucional (CNN) para segmentação de DFU. Os 512 filtros ilustrados na Figura 36 foram obtidos a partir do primeiro conjunto de núcleos da camada de entrada da CNN. O “aprendizado” desses filtros foi regularizado restringindo suas atualizações de peso para evitar grandes desvios dos filtros deGabor contidos em um banco de filtros.
[00213] Os filtros podem ser aplicados à imagem bruta por convolução. A partir das 512 imagens que resultam dessas convoluções de filtro, uma única matriz 3D pode ser construída com dimensões de 512 canais x 1044 pixels x 1408 pixels. As características adicionais podem então ser calculadas a partir desta matriz 3D. Por exemplo, em algumas modalidades, a média, a mediana e o desvio padrão dos valores de intensidade da matriz 3D podem ser calculados como características adicionais para entrada no algoritmo de aprendizado de máquina.
[00214] Além das seis características descritas acima (por exemplo, média, mediana e desvio padrão dos valores de pixel da imagem bruta e da matriz 3D construída a partir da aplicação de filtros convolucionais à imagem bruta), características adicionais e/ou lineares ou combinações não lineares de tais características podem ainda ser incluídas conforme desejado. Por exemplo, o produto ou a razão de duas características pode ser usado como novas características de entrada para o algoritmo. Em um exemplo, o produto de uma média e uma mediana pode ser usado como uma característica de entrada adicional.
[00215] O treinamento do algoritmo foi conduzido usando o procedimento de validação cruzada leave-one-out (LOOCV). Uma DFU foi selecionada para o conjunto de teste e as imagens de DFU restantes usadas como o conjunto de treinamento. Após o treinamento, o modelo foi usado para prever a porcentagem de redução de área para a imagem de DFU retida. Feito isso, a imagem retida foi retornada ao conjunto completo de imagens de DFU para que esse processo pudesse ser repetido com uma imagem retida diferente. O LOOCV foi repetido até que cada imagem de DFU fizesse parte do conjunto retido uma vez. Depois de acumular os resultados do conjunto de testes em todas as dobras da validação cruzada, o desempenho geral do modelo foi calculado.
[00216] A porcentagem de redução de área prevista para cada imagem de DFU foi comparada com a porcentagem de redução real da área medida durante uma avaliação de cicatrização de 30 dias conduzida na DFU. O desempenho do algoritmo foi avaliado usando o coeficiente de determinação (𝑅 ) O valor de 𝑅 foi usado para determinar a utilidade de cada comprimento de onda individual, que é uma medida da proporção da variância na porcentagem de redução da área de DFU que foi explicada pelas características extraídas da imagem de DFU. O valor de 𝑅 é definido como: ∑ ( ) 𝑅 = 1 − ∑( ) , em que 𝑦 é a PAR verdadeira para DFU𝑖, 𝑦 é a PAR média em todas as DFUs no conjunto de dados, e 𝑓(𝑥 ) é a PAR prevista para a DFU 𝑖. O intervalo de confiança de 95% do valor de 𝑅 foi calculado a partir dos resultados de previsão do algoritmo treinado em cada conjunto de características. O CI de 95% foi calculado usando a seguinte equação: 𝑅 ± 2 ∗ 𝑆𝐸 , Em que 4𝑅 (1 − 𝑅 ) (𝑛 − 𝑘 − 1) 𝑆𝐸 = (𝑛 − 1)(𝑛 + 3) Nesta equação 𝑛 é o número total de imagens de DFU no conjunto de dados e 𝑘 é o número total de preditores no modelo.
[00217] O objetivo era determinar que cada um dos oito comprimentos de onda individuais poderia ser usado independentemente em um modelo de regressão para obter resultados que fossem significativamente melhores do que o acaso. Para determinar se um conjunto de características poderia fornecer uma melhoria em relação ao acaso, os conjuntos de características foram identificados em que zero não estava contido dentro do CI de 95% de 𝑅 para o algoritmo treinado nesse conjunto de características. Para fazer isso, oito experimentos separados foram conduzidos em que os modelos foram treinados com as seguintes seis características originais: a média, a mediana e o desvio padrão da imagem bruta; e a média, a mediana e o desvio padrão da matriz 3D gerada a partir das transformações da imagem bruta pela aplicação dos filtros convolucionais. Os modelos de floresta aleatória e árvores ensacadas foram treinados. Os resultados foram relatados para o algoritmo com desempenho superior na validação cruzada. Os resultados desses oito modelos foram revisados para determinar se o limite inferior do CI de 95% estava acima de zero. Caso contrário, as características adicionais geradas por combinações não lineares das seis características originais foram empregadas.
[00218] Usando as seis características originais, sete dos oito comprimentos de onda examinados poderiam ser usados para gerar modelos de regressão que explicassem uma quantidade significativa da variação na porcentagem de redução de área do conjunto de dados de DFU. Na ordem do mais eficaz para o menos eficaz, os sete comprimentos de onda foram: 660 nm; 620 nm; 726 nm; 855 nm; 525 nm; 581 nm; e 420 nm. O comprimento de onda final, 820 nm, foi considerado significativo se o produto da média e da mediana da matriz 3D fosse incluído como uma característica adicional. Os resultados da sorologia de PCV2 estão resumidos na Tabela 5.
CI de Comprime Característi 95% Parâmetros de nto de R2 cas de Algoritmo infer Algoritmo onda entrada ior 0,41 Seis Floresta 660 0,210 n_estimators =1 0 originais aleatória 0,34 Seis Floresta 620 0,137 n_estimators =1 0 originais aleatória n_estimators = 1 0,27 Seis Árvores 726 0,060 max_features = 5 0 originais ensacadas max_samples = 19 n_estimators = 1 0,23 Seis Árvores 855 0,026 max_features = 5 0 originais ensacadas max_samples = 15 n_estimators = 1 0,21 Seis Árvores 525 0,010 max_features = 5 0 originais ensacadas max_samples = 25 n_estimators = 2 0,20 Seis Árvores 581 0,002 max_features = 5 0 originais ensacadas max_samples = 24 0,19 Seis Floresta 420 0,003 n_estimators = 2 0 originais aleatória Seis originais e o produto de Média n_estimators = 2 0,18 Árvores 820 0,007 (transformad max_features = 7 3 ensacadas a) com max_samples = 5 mediana (transformad a) Tabela 5 Resultados dos modelos de regressão desenvolvidos para as oito imagens únicas de comprimento de onda
[00219] Assim, foi mostrado que os sistemas e métodos de imagem e análise aqui descritos podem ser capazes de gerar com precisão um ou mais parâmetros de cicatrização previstos com base em uma única imagem de banda de comprimento de onda.
Em algumas modalidades, o uso de uma única banda de comprimento de onda pode ser facilitado no cálculo de uma ou mais características quantitativas agregadas da imagem, como uma média, mediana ou desvio padrão de dados de imagem brutos e/ou de um conjunto de imagens ou matriz 3D gerada pela aplicação de um ou mais filtros aos dados brutos da imagem.
Sistemas e métodos de segmentação de imagem de ferida exemplificativos
[00220] Conforme descrito acima, imagens espectrais incluindo dados de refletância em um comprimento de onda individual ou uma pluralidade de comprimentos de onda podem ser analisadas usando as técnicas de aprendizado de máquina aqui descritas, para prever com segurança os parâmetros associados à cicatrização de feridas, como a cicatrização geral de feridas (por exemplo, porcentagem de redução de área) e/ou cicatrização associada a porções de uma ferida (por exemplo, uma probabilidade de cicatrização associada a um pixel individual ou subconjunto de pixels de uma imagem de ferida). Além disso, alguns dos métodos revelados neste documento preveem parâmetros de cicatrização de feridas com base, pelo menos em parte, em características quantitativas agregadas, por exemplo, quantidades estatísticas, tais como médias, desvios padrão, valores de mediana ou semelhantes, calculados com base em um subconjunto de pixels de uma imagem da ferida que são determinados como os “pixels da ferida” ou os pixels que correspondem à região do tecido da ferida em vez de calo, pele normal, plano de fundo ou outras regiões do tecido não ferido. Consequentemente, a fim de melhorar ou otimizar a precisão de tais previsões com base em um conjunto de pixels de ferida, é preferível selecionar com precisão o subconjunto de pixels de ferida em uma imagem de uma ferida.
[00221] Convencionalmente, a segmentação de uma imagem, como uma imagem de uma DFU em pixels de ferida e pixels sem ferida, foi realizada manualmente, por exemplo, por um médico ou outro clínico que examina a imagem e seleciona o conjunto de pixels de ferida com base na imagem.
No entanto, essa segmentação manual pode ser demorada, ineficiente e potencialmente sujeita a erro humano. Por exemplo, as fórmulas usadas para calcular a área e o volume não têm a exatidão e a precisão necessárias para medir a forma convexa de feridas. Além disso, identificar os verdadeiros limites da ferida e classificar os tecidos dentro da ferida, como o crescimento epitelial, requer um alto nível de competência. Uma vez que as alterações nas medições da ferida são frequentemente as informações críticas usadas para determinar a eficácia do tratamento, erros nas medições iniciais da ferida podem resultar em determinações de tratamento incorretas.
[00222] Para este fim, os sistemas e métodos da presente tecnologia são adequados para a detecção automatizada das margens da ferida e identificação de tipos de tecido na área da ferida. Em algumas modalidades, os sistemas e métodos da presente tecnologia podem ser configurados para segmentação automatizada de imagens de feridas em pelo menos pixels de ferida e pixels sem feridas, de modo que quaisquer características quantitativas agregadas calculadas com base no subconjunto de pixels de ferida atinjam um nível desejável de precisão. Além disso, pode ser desejável implementar sistemas ou métodos capazes de segmentar uma imagem de ferida em pixels de ferida e sem ferida e/ou em uma ou mais subclasses de pixels de ferida ou sem ferida, sem necessariamente gerar parâmetros de cicatrização previstos.
[00223] Um conjunto de dados de imagens de úlceras de pé diabético pode ser desenvolvido usando fotografias coloridas de feridas. Vários sistemas de câmeras coloridas podem ser usados na aquisição desses dados. Em uma implementação de exemplo, 349 imagens totais foram usadas.
Um médico treinado ou outro clínico pode usar um programa de software para identificar e rotular a ferida, calo, pele normal, fundo e/ou quaisquer outros tipos de categorias de pixel em cada imagem da ferida. As imagens rotuladas resultantes, conhecidas como máscaras de verdade terrestre, podem incluir várias cores correspondentes ao número de categorias rotuladas na imagem. A Figura 37 ilustra uma imagem de exemplo de uma DFU (à esquerda) e a máscara de verdade terrestre do terreno correspondente (à direita). O exemplo de máscara de verdade terrestre da Figura 37 inclui uma região roxa correspondendo aos pixels de fundo, uma região amarela correspondendo a pixels de calo e uma região ciana correspondendo a pixels de ferida.
[00224] Com base em um conjunto de imagens de verdade terrestre, uma rede neural convolucional (CNN) pode ser usada para a segmentação automatizada dessas categorias de tecido.
Em algumas modalidades, a estrutura do algoritmo pode ser uma rede U rasa com uma pluralidade de camadas convolucionais. Em uma implementação de exemplo, os resultados de segmentação desejáveis foram alcançados com 31 camadas convolucionais. No entanto, muitos outros algoritmos de segmentação de imagem podem ser aplicados para obter a saída desejada.
[00225] Na implementação de segmentação de exemplo, o banco de dados de imagens de DFU foi dividido aleatoriamente em três conjuntos, de modo que 269 imagens de conjunto de treinamento foram usadas para treinamento de algoritmo, 40 imagens de conjunto de teste para seleção de hiperparâmetro e 40 imagens de conjunto de validação para validação. O algoritmo foi treinado com gradiente descendente e a precisão das imagens do conjunto de teste foi monitorada. O treinamento do algoritmo foi interrompido quando a precisão do conjunto de teste foi maximizada. Os resultados desse algoritmo foram então determinados usando o conjunto de validação.
[00226] Os resultados do algoritmo U-net para cada imagem no conjunto de validação foram comparados com sua máscara de verdade terrestre correspondente. Essa comparação foi feita pixel a pixel. Dentro de cada um dos três tipos de tecido, esta comparação foi resumida usando as seguintes categorias. Uma categoria de Verdadeiro Positivo (TP) incluiu o número total de pixels para os quais o tipo de tecido de interesse estava presente em um pixel na máscara de verdade terrestre, e o modelo previu que o tipo de tecido estava presente neste pixel. Uma categoria Verdadeiro Negativo (TN) incluiu o número total de pixels para os quais o tipo de tecido de interesse não estava presente em um pixel na máscara de verdade terrestre, e o modelo previu que o tipo de tecido não estava presente neste pixel. Uma categoria de Falso Positivo (FP) incluiu o número total de pixels para os quais o tipo de tecido de interesse não estava presente em um pixel na máscara de verdade terrestre e o modelo previu que o tipo de tecido estava presente neste pixel. Uma categoria Falso Negativo (FN) incluiu o número total de pixels para os quais o tipo de tecido de interesse estava presente em um pixel na máscara de verdade terrestre e o modelo previu que o tipo de tecido não estava presente neste pixel. Esses resultados foram resumidos usando as seguintes métricas: Precisão: 𝐴𝑐𝑐 = ∑ [𝑇𝑃 + 𝑇𝑃 + 𝑇𝑃 ] + [𝑇𝑁 + 𝑇𝑁 + 𝑇𝑁 ], em que 𝑁 é o número total de pixels no conjunto de validação.
Pontuação média dos dados: 𝐴𝑣𝑒𝐷𝑆𝐶 = ∑ , em que 𝐶 representa os três tipos de tecido.
Interseção média sobre a união (IOU): 𝐴𝑣𝑒𝐷𝑆𝐶 = ∑ , em que 𝐶 representa os três tipos de tecido.
[00227] Em algumas modalidades, o treinamento de algoritmo pode ser conduzido ao longo de uma pluralidade de épocas, e um número intermediário de épocas pode ser determinado em que a precisão é otimizada. No exemplo de implementação aqui descrito, o treinamento do algoritmo para segmentação de imagem foi conduzido ao longo de 80 épocas.
Conforme o treinamento foi monitorado, foi determinado que a época 73 alcançou a melhor precisão para o conjunto de dados de teste.
[00228] O desempenho do algoritmo de segmentação U-
net foi calculado com a precisão sendo melhor do que o acaso.
O U-net também superou todas as três abordagens de naïve possíveis, em que um classificador de naïve é usado para sempre prever uma classe de tecido. Independentemente do possível problema de sobreajuste, o desempenho do modelo no conjunto de validação foi capaz de demonstrar a viabilidade com base nessas métricas resumidas.
[00229] A Figura 38 ilustra três resultados exemplificadores de segmentação de imagem de ferida usando o algoritmo de segmentação U-net em combinação com os métodos aqui descritos. Para cada uma das três imagens de DFU exemplificativas na coluna da direita, o algoritmo de segmentação U-net, treinado conforme descrito neste documento, gerou as saídas de segmentação de imagem automatizadas mostradas na coluna do meio. As máscaras de verdade terrestre geradas manualmente correspondentes a cada imagem de DFU são mostradas na coluna esquerda da Figura 38, ilustrando visualmente a alta precisão de segmentação que pode ser obtida usando os métodos descritos neste documento.
Terminologia
[00230] Todos os métodos e tarefas descritos neste documento podem ser executados e totalmente automatizados por um sistema de computador. O sistema de computador pode, em alguns casos, incluir vários computadores ou dispositivos de computação distintos (por exemplo, servidores físicos,
estações de trabalho, matrizes de armazenamento, características de computação em nuvem, etc.) que se comunicam e interoperam em uma rede para executar as funções descritas. Cada um desses dispositivos de computação inclui tipicamente um processador (ou múltiplos processadores) que executa instruções de programa ou módulos armazenados em uma memória ou outro meio ou dispositivo de armazenamento legível por computador não transitório (por exemplo, dispositivos de armazenamento de estado sólido, unidades de disco, etc.). As várias funções aqui reveladas podem ser incorporadas em tais instruções de programa ou podem ser implementadas em circuitos específicos de aplicativo (por exemplo, ASICs ou FPGAs) do sistema de computador. Quando o sistema de computador inclui vários dispositivos de computação, esses dispositivos podem, mas não precisam, ser colocalizados. Os resultados dos métodos e tarefas revelados podem ser armazenados de forma persistente, transformando dispositivos de armazenamento físico, como chips de memória de estado sólido ou discos magnéticos, em um estado diferente. Em algumas modalidades, o sistema de computador pode ser um sistema de computação baseado em nuvem cujas características de processamento são compartilhadas por várias entidades de negócios distintas ou outros usuários.
[00231] Os processos revelados podem começar em resposta a um evento, tal como em uma programação predeterminada ou determinada dinamicamente, sob demanda quando iniciada por um usuário ou administrador do sistema, ou em resposta a algum outro evento. Quando o processo é iniciado, um conjunto de instruções do programa executável armazenado em um ou mais meios legíveis por computador não transitórios (por exemplo, disco rígido, memória flash, meio removível, etc.) pode ser carregado na memória (por exemplo, RAM) de um servidor ou outro dispositivo de computação. As instruções executáveis podem então ser executadas por um processador de computador baseado em hardware no dispositivo de computação. Em algumas modalidades, o processo ou porções do mesmo pode ser implementado em vários dispositivos de computação e/ou vários processadores, em série ou em paralelo.
[00232] Dependendo da modalidade, certos atos, eventos ou funções de qualquer um dos processos ou algoritmos aqui descritos pode ser executado em uma sequência diferente, podem ser adicionados, fundidos ou deixados de lado (por exemplo, nem todas as operações ou eventos descritos são necessários para a prática do algoritmo). Além disso, em certas modalidades, operações ou eventos podem ser executados concorrentemente, por exemplo, através de processamento multiencadeado, processamento de interrupção ou múltiplos processadores ou núcleos de processador ou em outras arquiteturas paralelas, em vez de sequencialmente.
[00233] Os vários blocos lógicos ilustrativos,
módulos, rotinas e etapas de algoritmo descritos em conexão com as modalidades aqui reveladas podem ser implementados como hardware eletrônico (por exemplo, dispositivos ASICs ou
FPGA), software de computador que é executado em hardware de computador ou combinações de ambos.
Os vários blocos e módulos lógicos ilustrativos descritos em relação às modalidades aqui descritas podem ser implementados ou executados por uma máquina, tal como um dispositivo de processo, um processador de sinal digital (“DSP”), um circuito integrado específico de aplicativo (“ASIC”), um arranjo de portas programável em campo (“FPGA”) ou outro dispositivo lógico programável, porta discreta ou lógica de transistor, componentes de hardware discretos, ou qualquer combinação dos mesmos projetada para executar as funções descritas aqui.
Um dispositivo de processador pode ser um microprocessador, mas, em alternativa, o dispositivo de processador pode ser um controlador, microcontrolador ou máquina de estado, combinações dos mesmos ou semelhantes.
Um dispositivo de processador pode incluir circuitos elétricos configurados para processar instruções executáveis por computador.
Em outra modalidade, um dispositivo processador inclui um FPGA ou outro dispositivo programável que executa operações lógicas sem processar instruções executáveis por computador.
Um dispositivo de processador pode também ser implementado como uma combinação de dispositivos de computação, por exemplo, uma combinação de um DSP e um microprocessador, uma pluralidade de microprocessadores, um ou mais microprocessadores em conjunto com um núcleo de DSP, ou qualquer outra configuração deste tipo. Embora aqui descrito principalmente com respeito à tecnologia digital, um dispositivo de processador também pode incluir componentes principalmente analógicos. Por exemplo, algumas ou todas as técnicas de renderização aqui descritas podem ser implementadas em circuitos analógicos ou circuitos analógicos e digitais mistos. Um ambiente de computação pode incluir qualquer tipo de sistema de computador, incluindo, mas não se limitando a, um sistema de computador baseado em um microprocessador, um computador mainframe, um processador de sinal digital, um dispositivo de computação portátil, um controlador de dispositivo ou um motor computacional dentro de um aparelho, para citar alguns.
[00234] Os elementos de um método, processo, rotina ou algoritmo descritos em relação às modalidades aqui reveladas podem ser incorporados diretamente no hardware, em um módulo de software executado por um dispositivo de processador ou em uma combinação dos dois. Um módulo de software pode residir na memória RAM, memória flash, memória ROM, memória EPROM, memória EEPROM, registros, disco rígido, um disco removível, um CD-ROM ou qualquer outra forma de um meio de armazenamento legível por computador não transitório. Um meio de armazenamento exemplificador pode ser acoplado ao dispositivo de processador de modo que o dispositivo de processador possa ler informações e gravar informações no meio de armazenamento. Em alternativa, o meio de armazenamento pode ser parte integrante do dispositivo de processador. O dispositivo de processador e o meio de armazenamento podem residir em um ASIC. O ASIC pode residir em um terminal de usuário. Em alternativa, o dispositivo de processador e o meio de armazenamento podem residir como componentes discretos em um terminal de usuário.
[00235] A linguagem condicional usada aqui, como, entre outras, “pode”, “podia”, “podem”, “deve”, “por exemplo” e semelhantes, a menos que especificamente indicado de outra forma, ou de outra forma entendida no contexto usado, geralmente se destina a transmitir que certas modalidades incluem, enquanto outras modalidades não incluem, certas características, elementos e/ou etapas.
Assim, tal linguagem condicional não pretende geralmente implicar que características, elementos e/ou etapas sejam de qualquer modo requeridos para uma ou mais modalidades ou que uma ou mais modalidades necessariamente incluam lógica para decidir, com ou sem introdução ou solicitação de outro, quer estas características, elementos e/ou etapas estejam incluídos ou devam ser executados em qualquer modalidade particular. Os termos “compreendendo”, “incluindo”, “tendo” e semelhantes são sinônimos e são usados inclusive, de forma aberta, e não excluem elementos adicionais, características, atos, operações e assim por diante. Além disso, o termo “ou” é usado em seu sentido inclusivo (e não em seu sentido exclusivo) para que, quando usado, por exemplo, para conectar uma lista de elementos, o termo “ou” signifique um, alguns ou todos os elementos na lista.
[00236] A linguagem disjuntiva, como a frase “pelo menos um dentre X, Y ou Z”, a menos que especificamente indicado de outra forma, é entendida com o contexto usado em geral para apresentar que um item, termo, etc., pode ser X, Y ou Z, ou qualquer combinação dos mesmos (por exemplo, X, Y ou Z). Assim, tal linguagem disjuntiva não é geralmente pretendida e não deve implicar que certas modalidades requeiram pelo menos um de X, pelo menos um de Y ou pelo menos um de Z para cada estar presente.
[00237] Embora a descrição detalhada acima tenha mostrado, descrito e apontado novas características como aplicadas a várias modalidades, será entendido que várias omissões, substituições e alterações na forma e detalhes dos dispositivos ou algoritmos ilustrados podem ser feitas sem se distanciar do escopo da revelação. Como será reconhecido, certas modalidades aqui descritas podem ser incorporadas dentro de uma forma que não fornece todas as características e benefícios aqui estabelecidos, uma vez que algumas características podem ser usadas ou praticadas separadamente de outras.
Todas as mudanças que estão dentro do significado e alcance da equivalência das reivindicações devem ser abrangidas por seu escopo.

Claims (45)

REIVINDICAÇÕES
1. Sistema para avaliar ou prever cicatrização de ferida, sendo que o sistema é caracterizado pelo fato de que compreende: pelo menos um elemento de detecção de luz configurado para coletar luz de pelo menos um primeiro comprimento de onda depois de ser refletido de uma região de tecido que compreende uma úlcera de pé diabético; e um ou mais processadores em comunicação com o pelo menos um elemento de detecção de luz e configurados para: receber um sinal do pelo menos um elemento de detecção de luz, sendo que o sinal representa luz do primeiro comprimento de onda refletido da região de tecido; gerar, com base no sinal, uma imagem que tem uma pluralidade de pixels que retratam a região de tecido; determinar, com base no sinal, um valor de intensidade de refletância no primeiro comprimento de onda para cada pixel de pelo menos um subconjunto da pluralidade de pixels; determinar um ou mais recursos quantitativos do subconjunto da pluralidade de pixels com base nos valores de intensidade de refletância de cada pixel do subconjunto; e gerar, com uso de um ou mais algoritmos de aprendizado por máquina, pelo menos um valor escalar com base no um ou mais recursos quantitativos do subconjunto da pluralidade de pixels, o pelo menos um valor escalar correspondente a uma quantidade prevista de cura da úlcera do pé diabético ao longo de um intervalo de tempo predeterminado após a geração da imagem.
2. Sistema, de acordo com a reivindicação 1, caracterizado pelo fato de que a quantidade prevista de cura é uma redução de área percentual prevista da úlcera do pé diabético.
3. Sistema, de acordo com qualquer uma das reivindicações 1 ou 2, caracterizado pelo fato de que o pelo menos um valor escalar compreende uma pluralidade de valores escalares, sendo que cada valor escalar da pluralidade de valores escalares é correspondente a uma probabilidade de cicatrização de um pixel individual do subconjunto ou de um subgrupo de pixels individuais do subconjunto.
4. Sistema, de acordo com a reivindicação 3, caracterizado pelo fato de que o um ou mais processadores são adicionalmente configurados para emitir uma representação visual da pluralidade de valores escalares para exibição a um usuário.
5. Sistema, de acordo com a reivindicação 4, caracterizado pelo fato de que a representação visual compreende a imagem que tem cada pixel do subconjunto exibido com uma representação visual particular selecionado com base na probabilidade de cicatrização correspondente ao pixel, em que pixels associados a diferentes probabilidades de cicatrização são exibidos em diferentes representações visuais.
6. Sistema, de acordo com qualquer uma das reivindicações 3 a 5, caracterizado pelo fato de que o um ou mais algoritmos de aprendizado por máquina compreendem um SegNet pré-treinado com uso de um banco de dados de imagem de ferida, queimadura ou úlcera.
7. Sistema, de acordo com a reivindicação 6, caracterizado pelo fato de que o banco de dados de imagem de ferida compreende um banco de dados de imagem de úlcera de pé diabético.
8. Sistema, de acordo com a reivindicação 6 ou 7, caracterizado pelo fato de que o banco de dados de imagem de ferida compreende um banco de dados de imagem de queimadura.
9. Sistema, de acordo com qualquer uma das reivindicações 1 a 8, caracterizado pelo fato de que o intervalo de tempo predeterminado é de 30 dias.
10. Sistema, de acordo com qualquer uma das reivindicações 1 a 9, caracterizado pelo fato de que o um ou mais processadores são adicionalmente configurados para identificar pelo menos um valor de métrica de saúde do paciente correspondente a um paciente que tem a região de tecido, e em que o pelo menos um valor escalar é gerado com base no um ou mais recursos quantitativos do subconjunto da pluralidade de pixels e no pelo menos um valor de métrica de saúde do paciente.
11. Sistema, de acordo com a reivindicação 10, caracterizado pelo fato de que o pelo menos um valor de métrica de saúde do paciente compreende pelo menos uma variável selecionada a partir do grupo que consiste em variáveis demográficas, variáveis de histórico de úlcera de pé diabético, variáveis de conformidade, variáveis endócrinas, variáveis cardiovasculares, variáveis muscoesqueléticas, variáveis de nutrição, variáveis de doença infecciosa, variáveis renais, variáveis de obstetrícia e ginecologia, variáveis de uso de fármaco, outras variáveis de doença ou valores laboratoriais.
12. Sistema, de acordo com a reivindicação 10, caracterizado pelo fato de que o pelo menos um valor de métrica de saúde do paciente compreende um ou mais recursos clínicos.
13. Sistema, de acordo com a reivindicação 12, caracterizado pelo fato de que o um ou mais recursos clínicos compreendem pelo menos um recurso selecionado a partir do grupo que consiste em uma idade do paciente, um nível de doença renal crônica do paciente, um comprimento da úlcera de pé diabético em um dia em que a imagem é gerada e uma largura da úlcera de pé diabético no dia em que a imagem é gerada.
14. Sistema, de acordo com qualquer uma das reivindicações 1 a 13, caracterizado pelo fato de que o primeiro comprimento de onda está dentro da faixa de 420 nm ± 20 nm, 525 nm ± 35 nm, 581 nm ± 20 nm, 620 nm ± 20 nm, 660 nm ± 20 nm, 726 nm ± 41 nm, 820 nm ± 20 nm, ou 855 nm ± 30 nm.
15. Sistema, de acordo com qualquer uma das reivindicações 1 a 14, caracterizado pelo fato de que o primeiro comprimento de onda está dentro da faixa de 620 nm ± 20 nm, 660 nm ± 20 nm, ou 420 nm ± 20 nm.
16. Sistema, de acordo com a reivindicação 15, caracterizado pelo fato de que o um ou mais algoritmos de aprendizado por máquina compreendem um conjunto de floresta aleatória.
17. Sistema, de acordo com qualquer uma das reivindicações 1 a 14, caracterizado pelo fato de que o primeiro comprimento de onda está dentro da faixa de 726 nm ± 41 nm, 855 nm ± 30 nm, 525 nm ± 35 nm, 581 nm ± 20 nm, ou 820 nm ± 20 nm.
18. Sistema, de acordo com a reivindicação 17, caracterizado pelo fato de que o um ou mais algoritmos de aprendizado por máquina compreendem um conjunto de classificadores.
19. Sistema, de acordo com qualquer uma das reivindicações 1 a 18, caracterizado pelo fato de que compreende adicionalmente um filtro de passagem de banda óptica configurada para passar luz pelo menos do primeiro comprimento de onda.
20. Sistema, de acordo com qualquer uma das reivindicações 1 a 19, caracterizado pelo fato de que o um ou mais processadores são adicionalmente configurados para: segmentar automaticamente a pluralidade de pixels da imagem em pixels de ferida e pixels de não ferida; e selecionar o subconjunto da pluralidade de pixels para compreender os pixels de ferida.
21. Sistema, de acordo com a reivindicação 20, caracterizado pelo fato de que o um ou mais processadores são adicionalmente configurados para segmentar automaticamente os pixels de não ferida em pixels de calo e pixels de fundo.
22. Sistema, de acordo com a reivindicação 20, caracterizado pelo fato de que o um ou mais processadores são adicionalmente configurados para segmentar automaticamente os pixels de não ferida em pixels de calo, pixels de pele normal e pixels de fundo.
23. Sistema, de acordo com qualquer uma das reivindicações 20 a 22, caracterizado pelo fato de que o um ou mais processadores segmentam automaticamente a pluralidade de pixels com uso de um algoritmo de segmentação que compreendem uma rede neural convolucional.
24. Sistema, de acordo com a reivindicação 23,
caracterizado pelo fato de que o algoritmo de segmentação é pelo menos um dentre uma rede em U que compreende uma pluralidade de redes convolucionais e um SegNet que compreende uma pluralidade de redes convolucionais.
25. Sistema, de acordo com qualquer uma das reivindicações 1 a 24, caracterizado pelo fato de que o um ou mais recursos quantitativos do subconjunto da pluralidade de pixels compreendem um ou mais recursos quantitativos agregados da pluralidade de pixels.
26. Sistema, de acordo com a reivindicação 25, caracterizado pelo fato de que o um ou mais recursos quantitativos agregados do subconjunto da pluralidade de pixels são selecionados a partir do grupo que consiste em uma média dos valores de intensidade de refletância dos pixels do subconjunto, um desvio padrão dos valores de intensidade de refletância dos pixels do subconjunto, e um valor de mediana de intensidade de refletância dos pixels do subconjunto.
27. Sistema, de acordo com qualquer uma das reivindicações 1 a 26, caracterizado pelo fato de que o um ou mais processadores são adicionalmente configurados para: aplicar individualmente uma pluralidade de núcleos de filtro à imagem por convolução para gerar uma pluralidade de transformações de imagem; construir uma matriz 3D da pluralidade de transformações de imagem; e determinar um ou mais recursos quantitativos da matriz 3D, em que o pelo menos um valor escalar é gerado com base no um ou mais recursos quantitativos do subconjunto da pluralidade de pixels e no um ou mais recursos quantitativos da matriz 3D.
28. Sistema, de acordo com a reivindicação 27, caracterizado pelo fato de que o um ou mais recursos quantitativos da matriz 3D são selecionados a partir do grupo que consiste em uma média dos valores da matriz 3D, um desvio padrão dos valores da matriz 3D, um valor de mediana da matriz 3D e um produto da média e a mediana da matriz 3D.
29. Sistema, de acordo com a reivindicação 28, caracterizado pelo fato de que o pelo menos um valor escalar é gerado com base na média dos valores de intensidade de refletância dos pixels do subconjunto, o desvio padrão dos valores de intensidade de refletância dos pixels do subconjunto, o valor de mediana de intensidade de refletância dos pixels do subconjunto, a média dos valores da matriz 3D, o desvio padrão dos valores da matriz 3D, e o valor de mediana da matriz 3D.
30. Sistema, de acordo com qualquer uma das reivindicações 1 a 29, caracterizado pelo fato de que o pelo menos um elemento de detecção de luz é adicionalmente configurado para coletar luz de pelo menos um segundo comprimento de onda depois de ser refletido da região de tecido, e em que o um ou mais processadores são adicionalmente configurados para: receber um segundo sinal do pelo menos um elemento de detecção de luz, sendo que o segundo sinal representa luz do segundo comprimento de onda refletido da região de tecido; determinar, com base no segundo sinal, um valor de intensidade de refletância no segundo comprimento de onda para cada pixel pelo menos do subconjunto da pluralidade de pixels; e determinar um ou mais recursos quantitativos adicionais do subconjunto da pluralidade de pixels com base nos valores de intensidade de refletância de cada pixel no segundo comprimento de onda; em que o pelo menos um valor escalar é gerado com base, pelo menos em parte, no um ou mais recursos quantitativos adicionais do subconjunto da pluralidade de pixels.
31. Sistema para avaliação de ferida, sendo que o sistema é caracterizado pelo fato de que compreende: pelo menos um elemento de detecção de luz configurado para coletar luz de pelo menos um primeiro comprimento de onda depois de ser refletido de uma região de tecido que compreende uma ferida; e um ou mais processadores em comunicação com o pelo menos um elemento de detecção de luz e configurado para:
receber um sinal do pelo menos um elemento de detecção de luz, sendo que o sinal representa luz do primeiro comprimento de onda refletido da região de tecido; gerar, com base no sinal, uma imagem que tem uma pluralidade de pixels que retratam a região de tecido; determinar, com base no sinal, um valor de intensidade de refletância no primeiro comprimento de onda para cada pixel da pluralidade de pixels; e segmentar automaticamente, com uso de um algoritmo de aprendizado por máquina, pixels individuais da pluralidade de pixels em pelo menos um primeiro subconjunto da pluralidade de pixels que compreende pixels de ferida e um segundo subconjunto da pluralidade de pixels que compreende pixels de não ferida, com base em valores de intensidade de refletância individuais da pluralidade de pixels.
32. Sistema, de acordo com a reivindicação 31, caracterizado pelo fato de que o um ou mais processadores são adicionalmente configurados para segmentar automaticamente o segundo subconjunto da pluralidade de pixels em pelo menos duas categorias de pixels de não ferida, sendo que as pelo menos duas categorias são selecionadas a partir do grupo que consiste em pixels de calo, pixels de pele normal e pixels de fundo.
33. Sistema, de acordo com a reivindicação 31 ou 32, caracterizado pelo fato de que o algoritmo de aprendizado por máquina compreende uma rede neural convolucional.
34. Sistema, de acordo com a reivindicação 33, caracterizado pelo fato de que o algoritmo de aprendizado por máquina é pelo menos um dentre uma rede em U que compreende uma pluralidade de redes convolucionais e um SegNet que compreende uma pluralidade de redes convolucionais.
35. Sistema, de acordo com qualquer uma das reivindicações 31 a 34, caracterizado pelo fato de que o algoritmo de aprendizado por máquina é treinado com base em um conjunto de dados que compreende uma pluralidade de imagens segmentadas de feridas, úlceras ou queimaduras.
36. Sistema, de acordo com qualquer uma das reivindicações 31 a 35, caracterizado pelo fato de que a ferida é uma úlcera de pé diabético.
37. Sistema, de acordo com qualquer uma das reivindicações 31 a 36, caracterizado pelo fato de que o um ou mais processadores são adicionalmente configurados para emitir uma representação visual da pluralidade segmentada de pixels para exibição a um usuário.
38. Sistema, de acordo com a reivindicação 37, caracterizado pelo fato de que a representação visual compreende a imagem que tem cada pixel exibido com uma representação visual particular selecionada com base na segmentação do pixel, em que pixels de ferida e pixels de não ferida são exibidos em diferentes representações visuais.
39. Método de predição de cicatrização de ferida que usa o sistema, conforme definido em qualquer uma das reivindicações 1 a 30, sendo que o método é caracterizado pelo fato de que compreende: iluminar a região de tecido com luz pelo menos do primeiro comprimento de onda, de modo que a região de tecido reflita pelo menos uma porção da luz ao pelo menos um elemento de detecção de luz; usar o sistema para gerar o pelo menos um valor escalar; e determinar o parâmetro de cicatrização previsto pelo intervalo de tempo predeterminado.
40. Método, de acordo com a reivindicação 39, caracterizado pelo fato de que iluminar a região de tecido compreende ativar um ou mais emissores de luz configurados para emitir luz pelo menos do primeiro comprimento de onda.
41. Método, de acordo com a reivindicação 39, caracterizado pelo fato de que iluminar a região de tecido compreende expor a região de tecido à luz ambiente.
42. Método, de acordo com qualquer uma das reivindicações 39 a 41, caracterizado pelo fato de que determinar o parâmetro de cicatrização previsto compreende determinar uma porcentagem esperada de redução de área da ferida pelo intervalo de tempo predeterminado.
43. Método, de acordo com qualquer uma das reivindicações 39 a 42, caracterizado pelo fato de que compreende adicionalmente: medir uma ou mais dimensões da ferida depois que o intervalo de tempo predeterminado transcorreu seguindo a determinação da quantidade prevista de cicatrização da ferida; determinar uma quantidade real de cicatrização da ferida pelo intervalo de tempo predeterminado; e atualizar pelo menos um algoritmo de aprendizado por máquina do um ou mais algoritmos de aprendizado por máquina fornecendo-se pelo menos a imagem e a quantidade real de cicatrização da ferida como dados de treinamento.
44. Método, de acordo com qualquer uma das reivindicações 39 a 43, caracterizado pelo fato de que compreende adicionalmente selecionar entre uma terapia padrão de cuidados com a ferida e uma terapia avançada de cuidados com a ferida com base, pelo menos em parte, no parâmetro de cicatrização previsto.
45. Método, de acordo com a reivindicação 44, caracterizado pelo fato de que selecionar entre a terapia padrão de cuidados com a ferida e a terapia avançada de cuidados com a ferida compreende: quando o parâmetro de cicatrização previsto indica que a ferida, preferencialmente uma DFU, cicatrizará ou se fechará em mais do que 50% em 30 dias, indicar ou aplicar uma ou mais terapias padrão selecionadas a partir do grupo que consiste em otimização de estado nutricional,
desbridamento por qualquer meio para remover tecido desvitalizado, manutenção de um leito úmido limpo de tecido de granulação com curativos úmidos apropriados, terapia necessária para solucionar qualquer infecção que pode estar presente, abordar quaisquer deficiências em perfusão vascular à extremidade com a DFU, descarregamento de pressão da DFU, e controle de glicose apropriado; e quando o parâmetro de cicatrização previsto indica que a ferida, preferencialmente uma DFU, não cicatrizará ou se fechará em mais do que 50% em 30 dias, indicar ou aplicar uma ou mais terapias de cuidado avançadas selecionadas a partir do grupo que consiste em terapias de oxigênio hiperbárico, terapia de ferida de pressão negativa,
substitutos de pele biomanipulados, fatores de crescimento sintético, proteínas de matriz extracelular, moduladores de metaloproteinase de matriz e terapia de estímulo elétrico.
BR112021011132-8A 2018-12-14 2019-12-11 Sistemas de aprendizado por máquina e métodos para avaliação, predição de cicatrização e tratamento de feridas BR112021011132A2 (pt)

Applications Claiming Priority (7)

Application Number Priority Date Filing Date Title
US201862780121P 2018-12-14 2018-12-14
US62/780,121 2018-12-14
US201862780854P 2018-12-17 2018-12-17
US62/780,854 2018-12-17
US201962818375P 2019-03-14 2019-03-14
US62/818,375 2019-03-14
PCT/US2019/065820 WO2020123724A1 (en) 2018-12-14 2019-12-11 Machine learning systems and methods for assessment, healing prediction, and treatment of wounds

Publications (1)

Publication Number Publication Date
BR112021011132A2 true BR112021011132A2 (pt) 2021-08-31

Family

ID=71075815

Family Applications (1)

Application Number Title Priority Date Filing Date
BR112021011132-8A BR112021011132A2 (pt) 2018-12-14 2019-12-11 Sistemas de aprendizado por máquina e métodos para avaliação, predição de cicatrização e tratamento de feridas

Country Status (7)

Country Link
US (1) US11948300B2 (pt)
EP (1) EP3893733A4 (pt)
JP (2) JP7261883B2 (pt)
KR (1) KR20210101285A (pt)
CN (1) CN113260303B (pt)
BR (1) BR112021011132A2 (pt)
WO (1) WO2020123724A1 (pt)

Families Citing this family (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107205624B (zh) 2014-10-29 2019-08-06 光谱Md公司 用于组织分类的反射式多光谱时间分辨光学成像方法和装备
US20220240783A1 (en) 2017-03-02 2022-08-04 Spectral Md, Inc. Machine learning systems and techniques for multispectral amputation site analysis
US10783632B2 (en) 2018-12-14 2020-09-22 Spectral Md, Inc. Machine learning systems and method for assessment, healing prediction, and treatment of wounds
CN113260835A (zh) 2018-12-14 2021-08-13 光谱Md公司 用于高精度多孔径光谱成像的系统和方法
US10740884B2 (en) 2018-12-14 2020-08-11 Spectral Md, Inc. System and method for high precision multi-aperture spectral imaging
EP3893733A4 (en) 2018-12-14 2022-10-12 Spectral MD, Inc. MACHINE LEARNING SYSTEMS AND METHODS FOR WOUND ASSESSMENT, HEALING PREDICTION AND TREATMENT
WO2020163539A1 (en) * 2019-02-05 2020-08-13 University Of Virginia Patent Foundation System and method for fully automatic lv segmentation of myocardial first-pass perfusion images
US20210398676A1 (en) * 2020-06-19 2021-12-23 Neil Reza Shadbeh Evans Machine learning algorithms for detecting medical conditions, related systems, and related methods
WO2022197826A1 (en) * 2021-03-16 2022-09-22 Cornell University Systems and methods for using deep-learning algorithms to facilitate decision making in gynecologic practice
DE102021113153A1 (de) * 2021-05-20 2022-11-24 cureVision GmbH Mobile Dokumentationsvorrichtung für die Erfassung von Hautläsionen
US20220398820A1 (en) * 2021-06-11 2022-12-15 University Of Southern California Multispectral biometrics system
CN113729638A (zh) * 2021-09-30 2021-12-03 广州尚衡信息科技有限公司 一种双光谱手面诊健康评估设备
WO2023054768A1 (ko) * 2021-09-30 2023-04-06 주식회사 피플앤드테크놀러지 욕창질환 포착과 단계결정을 위한 딥러닝 모델 시스템, 생성방법 및 이를 이용한 욕창진단 방법
CN113827234B (zh) * 2021-11-25 2022-03-18 之江实验室 一种基于高光谱人脸视频的远程脉搏波重建方法
KR20230111468A (ko) 2022-01-18 2023-07-25 부경대학교 산학협력단 기계학습을 이용한 흉터 조직 영역 검출을 위한 장치 및 방법
ES2948438A1 (es) * 2022-02-16 2023-09-12 Woom Fertility S L Método implementado por computador para obtener el estado de fertilidad de una mujer
KR20230144797A (ko) * 2022-04-08 2023-10-17 (주)파인헬스케어 병원에서 욕창 상태를 결정하고 치료하기 위한 장치 및 장치의 동작 방법
WO2023242673A1 (en) * 2022-06-14 2023-12-21 3M Innovative Properties Company Artificial intelligence techniques for generating a predicted future image of a wound
CN117274242B (zh) * 2023-11-17 2024-01-26 简阳市人民医院 一种基于图像识别的创面检测方法和系统
CN117854731B (zh) * 2024-03-07 2024-05-17 简阳市人民医院 针对腋臭术后伤口延期愈合影响因素的预测方法和系统
CN117877691B (zh) * 2024-03-13 2024-05-07 四川省医学科学院·四川省人民医院 一种基于图像识别的智能化伤口信息采集系统

Family Cites Families (160)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4170987A (en) 1977-11-28 1979-10-16 California Institute Of Technology Medical diagnosis system and method with multispectral imaging
US4693255A (en) 1985-04-22 1987-09-15 Beall Harry C Medical apparatus method for assessing the severity of certain skin traumas
WO1991008793A1 (en) 1989-12-14 1991-06-27 Brigham And Women's Hospital A treatment system for wounds and other disorders and a method for treating wounds and other skin disorders
US5074306A (en) 1990-02-22 1991-12-24 The General Hospital Corporation Measurement of burn depth in skin
US5701902A (en) 1994-09-14 1997-12-30 Cedars-Sinai Medical Center Spectroscopic burn injury evaluation apparatus and method
GB9521784D0 (en) 1995-10-24 1996-01-03 Rosslyn Medical Ltd Diagnostic apparatus
US6081612A (en) 1997-02-28 2000-06-27 Electro Optical Sciences Inc. Systems and methods for the multispectral imaging and characterization of skin tissue
US6008889A (en) 1997-04-16 1999-12-28 Zeng; Haishan Spectrometer system for diagnosis of skin disease
US6058352A (en) 1997-07-25 2000-05-02 Physical Optics Corporation Accurate tissue injury assessment using hybrid neural network analysis
US6353753B1 (en) 1998-05-05 2002-03-05 Stephen Thomas Flock Optical imaging of deep anatomic structures
US6352517B1 (en) 1998-06-02 2002-03-05 Stephen Thomas Flock Optical monitor of anatomical movement and uses thereof
US5982497A (en) 1998-07-09 1999-11-09 Optical Insights, Llc Multi-spectral two-dimensional imaging spectrometer
DE19850350C1 (de) 1998-11-02 2000-09-28 Jena Optronik Gmbh Verfahren und Vorrichtung zur Erzeugung von Daten für die Diagnose des Schädigungsgrades von Hautgewebe eines Patienten
US6381488B1 (en) 1999-06-15 2002-04-30 Sandia Corporation Method and apparatus to measure the depth of skin burns
US6640132B1 (en) 1999-11-17 2003-10-28 Hypermed, Inc. Forensic hyperspectral apparatus and method
CA2398278C (en) 2000-01-27 2012-05-15 National Research Council Of Canada Visible-near infrared spectroscopy in burn injury assessment
AU2001259435A1 (en) 2000-05-03 2001-11-12 Stephen T Flock Optical imaging of subsurface anatomical structures and biomolecules
US6638668B2 (en) 2000-05-12 2003-10-28 Ocean Optics, Inc. Method for making monolithic patterned dichroic filter detector arrays for spectroscopic imaging
EP1411824A2 (en) 2001-07-16 2004-04-28 Art Advanced Research Technologies Inc. Multi-wavelength imaging of highly turbid media
BR0212668A (pt) 2001-09-19 2004-08-24 Joule Microsystems Canada Inc Um espectrÈmetro incorporando filtragem combinada de sinal
US20060072109A1 (en) 2004-09-03 2006-04-06 Andrew Bodkin Hyperspectral imaging systems
TW512058B (en) 2001-12-24 2002-12-01 Yung-Jian Yang Spectral analysis system for burning and scalding injuries and device used in the system
WO2004005895A1 (en) 2002-07-09 2004-01-15 Medispectra, Inc. Methods and apparatus for characterization of tissue samples
WO2004051242A1 (en) 2002-12-02 2004-06-17 Erasmus Universiteit Rotterdam Use of high wavenumber raman spectroscopy for measuring tissue
WO2005002425A2 (en) 2003-07-02 2005-01-13 U.S. Government As Represented By The Secretary Of The Army Wearable tissue viability diagnostic unit
US7693069B2 (en) 2003-07-28 2010-04-06 Alcatel-Lucent Usa Inc. Method, apparatus and system for improved inter-domain routing convergence
RU2372117C2 (ru) 2003-09-18 2009-11-10 Аркюо Медикал, Инк. Способ опто-термо-механического воздействия на биологическую ткань и устройство для его осуществления
US7920908B2 (en) 2003-10-16 2011-04-05 David Hattery Multispectral imaging for quantitative contrast of functional and structural features of layers inside optically dense media such as tissue
JP4118916B2 (ja) 2003-11-11 2008-07-16 オリンパス株式会社 マルチスペクトル画像撮影装置
US7433042B1 (en) 2003-12-05 2008-10-07 Surface Optics Corporation Spatially corrected full-cubed hyperspectral imager
US7648808B2 (en) 2004-01-12 2010-01-19 Ocean Thin Films, Inc. Patterned coated dichroic filter
US8583216B2 (en) 2004-04-27 2013-11-12 University Of Utah Research Foundation Skin type assessment and nevi screening for skin cancer with a noninvasive, portable reflectance spectrophotometer
US20070179482A1 (en) 2004-05-07 2007-08-02 Anderson Robert S Apparatuses and methods to treat biological external tissue
SE0402576D0 (sv) 2004-10-25 2004-10-25 Forskarpatent I Uppsala Ab Multispectral and hyperspectral imaging
US8548570B2 (en) 2004-11-29 2013-10-01 Hypermed Imaging, Inc. Hyperspectral imaging of angiogenesis
US8224425B2 (en) 2005-04-04 2012-07-17 Hypermed Imaging, Inc. Hyperspectral imaging in diabetes and peripheral vascular disease
US9078619B2 (en) 2004-12-28 2015-07-14 Hypermed Imaging, Inc. Hyperspectral/multispectral imaging in determination, assessment and monitoring of systemic physiology and shock
US7729750B2 (en) 2005-01-20 2010-06-01 The Regents Of The University Of California Method and apparatus for high resolution spatially modulated fluorescence imaging and tomography
US20060241495A1 (en) 2005-03-23 2006-10-26 Eastman Kodak Company Wound healing monitoring and treatment
CA2604829C (en) 2005-04-04 2018-05-15 Hypermed, Inc. Hyperspectral imaging in diabetes and peripheral vascular disease
US8971984B2 (en) 2005-04-04 2015-03-03 Hypermed Imaging, Inc. Hyperspectral technology for assessing and treating diabetic foot and tissue disease
US8106956B2 (en) 2005-06-27 2012-01-31 Nokia Corporation Digital camera devices and methods for implementing digital zoom in digital camera devices and corresponding program products
EP1952106B1 (en) 2005-11-04 2014-08-27 George Themelis System for multispectral imaging
BRPI0706415A2 (pt) 2006-01-05 2011-03-29 Univ Virginia método, sistema e produto de programa de computador para avaliação de variabilidade de glicose no sangue em diabetes de dados de automonitoramento
JP4655991B2 (ja) 2006-04-21 2011-03-23 カシオ計算機株式会社 撮像装置及び電子ズーム方法と、プログラム
WO2008033909A2 (en) 2006-09-12 2008-03-20 The General Hospital Corporation Apparatus, probe and method for providing depth assessment in an anatomical structure
US20120321759A1 (en) 2007-01-05 2012-12-20 Myskin, Inc. Characterization of food materials by optomagnetic fingerprinting
SG10201914077TA (en) 2007-01-05 2020-03-30 Myskin Inc System, device and method for dermal imaging
US8639309B2 (en) 2007-07-31 2014-01-28 J&M Shuler, Inc. Method and system for monitoring oxygenation levels of compartments and tissue
US7857803B1 (en) 2007-03-19 2010-12-28 The United States Of America As Represented By The Secretary Of The Army Burn patient resuscitation system and method
JP2008283442A (ja) 2007-05-10 2008-11-20 Olympus Corp 撮像装置
CN101784227B (zh) 2007-07-06 2013-12-04 工业研究有限公司 激光散斑成像系统和方法
US20090072142A1 (en) 2007-09-14 2009-03-19 Forensicare Incorporated Scanning system and techniques for medical and/or forensic assessment using the same
US20090118600A1 (en) 2007-11-02 2009-05-07 Ortiz Joseph L Method and apparatus for skin documentation and analysis
US8509879B2 (en) 2007-11-06 2013-08-13 The Regents Of The University Of California Apparatus and method for widefield functional imaging (WiFI) using integrated structured illumination and laser speckle imaging
US20100210931A1 (en) 2008-04-04 2010-08-19 Modulate Imaging Inc. Method for performing qualitative and quantitative analysis of wounds using spatially structured illumination
WO2009131989A2 (en) * 2008-04-21 2009-10-29 Drexel University Methods for measuring changes in optical properties of wound tissue and correlating near infrared absorption (fnir) and diffuse reflectance spectroscopy scattering (drs) with tissue neovascularization and collagen concentration to determine whether wound is healing
EP2384182A4 (en) 2008-04-30 2016-10-19 Univ Texas DEVICE AND METHOD FOR NON-INVASIVE EVALUATION OF A TARGET COMPARED TO A NON-TARGET
EP2285272A4 (en) 2008-04-30 2017-01-04 Board of Regents, The University of Texas System Integrated patient bed system
US9042967B2 (en) 2008-05-20 2015-05-26 University Health Network Device and method for wound imaging and monitoring
US20090318815A1 (en) 2008-05-23 2009-12-24 Michael Barnes Systems and methods for hyperspectral medical imaging
US8694266B2 (en) 2008-06-05 2014-04-08 The Regents Of The University Of Michigan Multimodal spectroscopic systems and methods for classifying biological tissue
US9572494B2 (en) 2008-08-12 2017-02-21 New Jersy Institute of Technology Method and apparatus for multi-spectral imaging and analysis of skin lesions and biological tissues
JP2010043979A (ja) 2008-08-13 2010-02-25 Yuichi Kamata 分光画像計測装置
US8488863B2 (en) 2008-11-06 2013-07-16 Los Alamos National Security, Llc Combinational pixel-by-pixel and object-level classifying, segmenting, and agglomerating in performing quantitative image analysis that distinguishes between healthy non-cancerous and cancerous cell nuclei and delineates nuclear, cytoplasm, and stromal material objects from stained biological tissue materials
CA2753916C (en) 2009-04-29 2020-08-25 Genomedx Biosciences Inc. Systems and methods for expression-based classification of thyroid tissue
EP2267654A1 (en) 2009-06-23 2010-12-29 Research in Motion Limited Adjustment of sharpness during digital zoom in digital photography
CN101627902B (zh) 2009-07-15 2011-12-28 深圳先进技术研究院 基于环境光的低功耗、高精度光电容积描记信号前端处理模块
JP5715132B2 (ja) 2009-08-20 2015-05-07 コーニンクレッカ フィリップス エヌ ヴェ 画像解析に関する方法及びシステム
JP5856960B2 (ja) 2009-10-06 2016-02-10 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. 第1の信号の少なくとも一つの周期的成分を特徴付けるための分析のため第1の信号を得るための方法及びシステム
WO2011063306A1 (en) 2009-11-19 2011-05-26 Modulated Imaging Inc. Method and apparatus for analysis of turbid media via single-element detection using structured illumination
US9823127B2 (en) 2010-01-22 2017-11-21 Duke University Systems and methods for deep spectroscopic imaging of biological samples with use of an interferometer and spectrometer
US8692912B2 (en) 2010-01-25 2014-04-08 Pixelteq, Inc. Multi-spectral camera
US8488024B2 (en) 2010-02-10 2013-07-16 Panasonic Corporation Image capture device
US8294570B2 (en) 2010-02-24 2012-10-23 Clawson Jeffrey J Burn diagnostic and intervention tool for emergency dispatch
WO2011140536A1 (en) 2010-05-07 2011-11-10 Purdue Research Foundation Quantitative image analysis for wound healing assay
US20120078088A1 (en) 2010-09-28 2012-03-29 Point of Contact, LLC. Medical image projection and tracking system
EP2665417A4 (en) 2011-01-19 2015-12-02 Univ California APPARATUS, SYSTEMS, AND METHODS FOR TISSUE OXIMETRY AND PERFUSION IMAGING
US8761853B2 (en) 2011-01-20 2014-06-24 Nitto Denko Corporation Devices and methods for non-invasive optical physiological measurements
US8994819B2 (en) 2011-02-04 2015-03-31 Raytheon Company Integrated optical detection system
US8694067B2 (en) 2011-02-15 2014-04-08 General Electric Company Sensor, apparatus and method for non-invasively monitoring blood characteristics of a subject
US9372118B1 (en) 2011-03-07 2016-06-21 Fluxdata, Inc. Apparatus and method for multispectral based detection
AU2012225644B2 (en) 2011-03-07 2017-05-04 Wake Forest University Health Sciences Delivery system
JP5704984B2 (ja) 2011-03-22 2015-04-22 キヤノン株式会社 撮像装置
US20120288230A1 (en) 2011-05-13 2012-11-15 Kestrel Labs, Inc. Non-Reflective Optical Connections in Laser-Based Photoplethysmography
WO2012170963A1 (en) 2011-06-08 2012-12-13 Digital Light Innovations System and method for hyperspectral imaging
US9638741B2 (en) 2011-06-24 2017-05-02 Kla-Tencor Corporation Method and apparatus for inspection of light emitting semiconductor devices using photoluminescence imaging
KR101134770B1 (ko) 2011-07-22 2012-04-13 양완석 휴대용 인체외시경 영상장치
US8942459B2 (en) 2011-09-12 2015-01-27 Perkinelmer Cellular Technologies Germany Gmbh Methods and apparatus for fast identification of relevant features for classification or regression
US9295402B1 (en) 2012-01-17 2016-03-29 University Of Washington Through Its Center For Commercialization Methods and systems for assessing a burn injury
US20150011892A1 (en) 2012-01-20 2015-01-08 Harvard Apparatus Regenerative Technology, Inc. Methods for evaluating tissue injuries
WO2013116316A1 (en) * 2012-01-30 2013-08-08 Scanadu Incorporated Hyperspectral imaging systems, units, and methods
EP2840957B1 (en) 2012-04-27 2024-01-03 Stryker European Operations Limited Optical coherent imaging medical device and method
US9031306B2 (en) 2012-05-02 2015-05-12 The Regents Of The University Of California Diagnostic and prognostic histopathology system using morphometric indices
US9593982B2 (en) 2012-05-21 2017-03-14 Digimarc Corporation Sensor-synchronized spectrally-structured-light imaging
US9766382B2 (en) 2012-06-05 2017-09-19 Hypermed Imaging, Inc. Single-sensor hyperspectral imaging device
RU2616653C2 (ru) 2012-06-05 2017-04-18 Хайпермед Имэджинг, Инк. Способы и устройство для соосного формирования изображения с множеством длин волн
US9036877B2 (en) 2012-06-20 2015-05-19 Xerox Corporation Continuous cardiac pulse rate estimation from multi-channel source video data with mid-point stitching
US9547178B2 (en) 2012-08-15 2017-01-17 Semrock. Inc. Dichroic image splitter
ES2748805T3 (es) 2012-09-13 2020-03-18 Polyheal Ltd Composiciones de cicatrizacion de heridas mejoradas que comprenden microesferas
MX2018016101A (es) 2012-11-07 2022-05-19 Modulated Imaging Inc Eficiente formacion modulada de imagenes.
WO2014110027A1 (en) 2013-01-10 2014-07-17 Caliper Life Sciences, Inc. Multispectral imaging system and methods
US20140213910A1 (en) 2013-01-25 2014-07-31 The Regents Of The University Of California Method and apparatus for performing qualitative and quantitative analysis of burn extent and severity using spatially structured illumination
CA3053060C (en) 2013-01-31 2022-04-19 Ventana Medical Systems, Inc. Systems and methods for calibrating, configuring and validating an imaging device or system for multiplex tissue assays
US11653874B2 (en) * 2013-02-01 2023-05-23 Acceleritas Corporation Method and system for characterizing tissue in three dimensions using multimode optical measurements
EP2951301A4 (en) 2013-02-01 2016-11-02 Daniel Farkas METHOD AND SYSTEM FOR CHARACTERIZING THREE-DIMENSIONAL FABRIC USING MULTIMODAL OPTICAL MEASUREMENTS
GB201302451D0 (en) 2013-02-12 2013-03-27 Isis Innovation Method and system for signal analysis
EP2964093A4 (en) * 2013-03-06 2016-12-07 Marika Pty Ltd EVALUATION OF OPTICAL DENSITY GRADIENTS AND VARIATIONS
WO2014143235A1 (en) 2013-03-14 2014-09-18 Integrated Plasmonics Corporation Ambient light assisted spectroscopy
SG11201601019TA (en) 2013-08-14 2016-03-30 Univ Nanyang Tech Systems and methods for revascularization assessment
CN103815875B (zh) 2013-10-28 2015-06-03 重庆西南医院 一种用于烧伤皮肤坏死深度和面积诊断的近红外光谱成像系统
US10032287B2 (en) * 2013-10-30 2018-07-24 Worcester Polytechnic Institute System and method for assessing wound
EP3091897A4 (en) 2014-01-06 2017-12-27 The Florida International University Board of Trustees Near infrared optical imaging system for hemodynamic imaging, pulse monitoring, and mapping spatio-temporal features
US20150208950A1 (en) 2014-01-28 2015-07-30 The Texas A&M University System Arterial and Venous Oxygenation Method and Apparatus
WO2015116823A1 (en) 2014-01-29 2015-08-06 The Johns Hopkins University System and method for wound imaging and debridement
DE102014002514B4 (de) 2014-02-21 2015-10-29 Universität Stuttgart Vorrichtung und Verfahren zur multi- oder hyperspektralen Bildgebung und / oder zur Distanz- und / oder 2-D oder 3-D Profilmessung eines Objekts mittels Spektrometrie
WO2015143415A1 (en) 2014-03-21 2015-09-24 Hypermed Imaging, Inc. Compact light sensor
CA3204935A1 (en) 2014-05-01 2015-11-01 Rebellion Photonics, Inc. Dual-band divided-aperture infra-red spectral imaging system
DE102014106974A1 (de) 2014-05-16 2015-11-19 Cubert GmbH Räumlich und spektral auflösende Hyperspektralkamera und Verfahren
WO2015187489A1 (en) 2014-06-04 2015-12-10 University Of Massachusetts Medical School Hyperspectral imaging for prediction of skin injury after exposure to thermal energy or ionizing radiation
CN115919256A (zh) 2014-07-24 2023-04-07 大学健康网络 用于诊断目的的数据的收集和分析
US10117617B2 (en) 2014-10-08 2018-11-06 Revealix, Inc. Automated systems and methods for skin assessment and early detection of a latent pathogenic bio-signal anomaly
US9717417B2 (en) 2014-10-29 2017-08-01 Spectral Md, Inc. Reflective mode multi-spectral time-resolved optical imaging methods and apparatuses for tissue classification
US20220142484A1 (en) 2014-10-29 2022-05-12 Spectral Md, Inc. Reflective mode multi-spectral time-resolved optical imaging methods and apparatuses for tissue classification
CN107205624B (zh) * 2014-10-29 2019-08-06 光谱Md公司 用于组织分类的反射式多光谱时间分辨光学成像方法和装备
US11206388B2 (en) 2014-12-01 2021-12-21 Sony Corporation Image processing apparatus and image processing method for aligning polarized images based on a depth map and acquiring a polarization characteristic using the aligned polarized images
AU2015357088A1 (en) 2014-12-03 2017-05-18 Oregon Health & Science University Methods, systems, and apparatuses for quantitative analysis of heterogeneous biomarker distribution
US9990472B2 (en) 2015-03-23 2018-06-05 Ohio State Innovation Foundation System and method for segmentation and automated measurement of chronic wound images
US11037070B2 (en) 2015-04-29 2021-06-15 Siemens Healthcare Gmbh Diagnostic test planning using machine learning techniques
CA3241702A1 (en) 2015-05-29 2016-12-08 Rebellion Photonics, Inc. Hydrogen sulfide imaging system
ES2812225T3 (es) 2015-06-15 2021-03-16 Agrowing Ltd Aparato de obtención de imágenes multiespectrales
WO2017026296A1 (ja) 2015-08-10 2017-02-16 株式会社リコー 試料測定装置
EP3334436A4 (en) 2015-08-13 2019-05-29 SomaGenics Inc. PROCESSES AND COMPOSITIONS OF SHORT-SMALL-HAIRPIN-RNAS AND MICRO-RNAS FOR WOUND HEALING
US10921186B2 (en) 2015-09-22 2021-02-16 Hypermed Imaging, Inc. Methods and apparatus for imaging discrete wavelength bands using a mobile device
AU2016325592B2 (en) * 2015-09-23 2019-06-27 Novadaq Technologies Inc. Methods and systems for assessing healing of tissue
EP3367887A4 (en) 2015-10-28 2019-05-22 Spectral MD Inc. TIME-RESOLVED MULTISPECTRAL OPTICAL IMAGING METHODS, REFLECTIVE MODE AND FABRIC CLASSIFICATION APPARATUSES
NL2015804B1 (en) 2015-11-17 2017-06-02 Quest Photonic Devices B V Hyperspectral 2D imaging device.
US10572997B2 (en) 2015-12-18 2020-02-25 Given Imaging Ltd. System and method for detecting anomalies in an image captured in-vivo using color histogram association
WO2017181200A1 (en) 2016-04-15 2017-10-19 The Regents Of The University Of California Assessment of wound status and tissue viability via analysis of spatially resolved thz reflectometry maps
GB2550582B (en) * 2016-05-23 2020-07-15 Bluedrop Medical Ltd A skin inspection device identifying abnormalities
US10013811B2 (en) 2016-06-13 2018-07-03 Umm-Al-Qura University Hyperspectral image visualization in patients with medical conditions
WO2017223206A1 (en) 2016-06-21 2017-12-28 Sri International Hyperspectral imaging methods and apparatuses
US11096602B2 (en) * 2016-07-29 2021-08-24 Stryker European Operations Limited Methods and systems for characterizing tissue of a subject utilizing a machine learning
US10223788B2 (en) 2016-08-31 2019-03-05 International Business Machines Corporation Skin lesion segmentation using deep convolution networks guided by local unsupervised learning
US10248713B2 (en) 2016-11-30 2019-04-02 Business Objects Software Ltd. Time series analysis using a clustering based symbolic representation
CN110114645B (zh) 2016-12-27 2021-11-26 优鲁格斯股份有限公司 在被观察物体静止时的超光谱成像
US10145740B2 (en) 2017-02-27 2018-12-04 Visera Technologies Company Limited Sensing multiple peak wavelengths using combination of dual-band filters
US10806334B2 (en) 2017-02-28 2020-10-20 Verily Life Sciences Llc System and method for multiclass classification of images using a programmable light source
US20220240783A1 (en) 2017-03-02 2022-08-04 Spectral Md, Inc. Machine learning systems and techniques for multispectral amputation site analysis
US11003933B2 (en) 2017-08-15 2021-05-11 Noblis, Inc. Multispectral anomaly detection
AU2017415626B2 (en) 2017-10-17 2020-08-06 Kronikare Pte Ltd System and method for facilitating analysis of a wound in a target subject
US10371627B2 (en) 2017-11-16 2019-08-06 MultiSensor Scientific, Inc. Systems and methods for multispectral imaging and gas detection using a scanning illuminator and optical sensor
US20190290117A1 (en) 2018-03-22 2019-09-26 Kabushiki Kaisha Topcon Interferometric fundus imaging method
EP3893733A4 (en) 2018-12-14 2022-10-12 Spectral MD, Inc. MACHINE LEARNING SYSTEMS AND METHODS FOR WOUND ASSESSMENT, HEALING PREDICTION AND TREATMENT
US10740884B2 (en) 2018-12-14 2020-08-11 Spectral Md, Inc. System and method for high precision multi-aperture spectral imaging
CN113260835A (zh) 2018-12-14 2021-08-13 光谱Md公司 用于高精度多孔径光谱成像的系统和方法
US10783632B2 (en) 2018-12-14 2020-09-22 Spectral Md, Inc. Machine learning systems and method for assessment, healing prediction, and treatment of wounds
CN115426939A (zh) 2020-02-28 2022-12-02 光谱Md公司 用于伤口的评估、愈合预测和治疗的机器学习系统和方法
EP4178426A1 (en) 2020-07-13 2023-05-17 Spectral MD, Inc. Spectral imaging systems and methods for histological assessment of wounds
CN117321394A (zh) 2021-03-30 2023-12-29 光谱Md公司 基于多路照明的高精度快照多光谱成像系统和方法

Also Published As

Publication number Publication date
CN113260303B (zh) 2024-07-05
JP2023085517A (ja) 2023-06-20
CN113260303A (zh) 2021-08-13
US11948300B2 (en) 2024-04-02
KR20210101285A (ko) 2021-08-18
EP3893733A1 (en) 2021-10-20
JP2022513486A (ja) 2022-02-08
US20230222654A1 (en) 2023-07-13
EP3893733A4 (en) 2022-10-12
JP7261883B2 (ja) 2023-04-20
WO2020123724A1 (en) 2020-06-18
WO2020123724A4 (en) 2020-08-06

Similar Documents

Publication Publication Date Title
US11599998B2 (en) Machine learning systems and methods for assessment, healing prediction, and treatment of wounds
US11948300B2 (en) Machine learning systems and methods for assessment, healing prediction, and treatment of wounds
US20230181042A1 (en) Machine learning systems and methods for assessment, healing prediction, and treatment of wounds
US11182888B2 (en) System and method for high precision multi-aperture spectral imaging
US11989860B2 (en) System and method for high precision multi-aperture spectral imaging
US20230148951A1 (en) Spectral imaging systems and methods for histological assessment of wounds
EP3212057B1 (en) Reflective mode multi-spectral time-resolved optical imaging methods and apparatuses for tissue classification
US9619883B2 (en) Systems and methods for evaluating hyperspectral imaging data using a two layer media model of human tissue
US11686618B2 (en) Hyperspectral imaging method and device
WO2023141216A2 (en) System and method for topological characterization of tissue
Prajapati et al. iFlick: Smartphone-based anemia screening in rural healthcare paradigm
Misra A REVIEW OF DEEP LEARNING-BASED SMART IOT HEALTH SYSTEM FOR BLINDNESS DETECTION USING RETINAL IMAGES