BR112016019924B1 - Aparelho para monitorar um paciente - Google Patents

Aparelho para monitorar um paciente Download PDF

Info

Publication number
BR112016019924B1
BR112016019924B1 BR112016019924-3A BR112016019924A BR112016019924B1 BR 112016019924 B1 BR112016019924 B1 BR 112016019924B1 BR 112016019924 A BR112016019924 A BR 112016019924A BR 112016019924 B1 BR112016019924 B1 BR 112016019924B1
Authority
BR
Brazil
Prior art keywords
image
patient
processing unit
points
depth
Prior art date
Application number
BR112016019924-3A
Other languages
English (en)
Other versions
BR112016019924A2 (pt
Inventor
Hassan Mostafavi
Original Assignee
Varian Medical Systems, Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Varian Medical Systems, Inc filed Critical Varian Medical Systems, Inc
Publication of BR112016019924A2 publication Critical patent/BR112016019924A2/pt
Publication of BR112016019924B1 publication Critical patent/BR112016019924B1/pt

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0033Features or image-related aspects of imaging apparatus classified in A61B5/00, e.g. for MRI, optical tomography or impedance tomography apparatus; arrangements of imaging apparatus in a room
    • A61B5/0037Performing a preliminary scan, e.g. a prescan for identifying a region of interest
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/05Detecting, measuring or recording for diagnosis by means of electric currents or magnetic fields; Measuring using microwaves or radio waves 
    • A61B5/055Detecting, measuring or recording for diagnosis by means of electric currents or magnetic fields; Measuring using microwaves or radio waves  involving electronic [EMR] or nuclear [NMR] magnetic resonance, e.g. magnetic resonance imaging
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/11Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
    • A61B5/1113Local tracking of patients, e.g. in a hospital or private home
    • A61B5/1114Tracking parts of the body
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/11Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
    • A61B5/1126Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb using a particular sensing technique
    • A61B5/1128Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb using a particular sensing technique using image analysis
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/02Arrangements for diagnosis sequentially in different planes; Stereoscopic radiation diagnosis
    • A61B6/03Computed tomography [CT]
    • A61B6/032Transmission computed tomography [CT]
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/02Arrangements for diagnosis sequentially in different planes; Stereoscopic radiation diagnosis
    • A61B6/03Computed tomography [CT]
    • A61B6/037Emission tomography
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/10Safety means specially adapted therefor
    • A61B6/102Protection against mechanical damage, e.g. anti-collision devices
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/52Devices using data or image processing specially adapted for radiation diagnosis
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/52Devices using data or image processing specially adapted for radiation diagnosis
    • A61B6/5258Devices using data or image processing specially adapted for radiation diagnosis involving detection or reduction of artifacts or noise
    • A61B6/5264Devices using data or image processing specially adapted for radiation diagnosis involving detection or reduction of artifacts or noise due to motion
    • A61B6/527Devices using data or image processing specially adapted for radiation diagnosis involving detection or reduction of artifacts or noise due to motion using data from a motion artifact sensor
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61NELECTROTHERAPY; MAGNETOTHERAPY; RADIATION THERAPY; ULTRASOUND THERAPY
    • A61N5/00Radiation therapy
    • A61N5/10X-ray therapy; Gamma-ray therapy; Particle-irradiation therapy
    • A61N5/1048Monitoring, verifying, controlling systems and methods
    • A61N5/1049Monitoring, verifying, controlling systems and methods for verifying the position of the patient with respect to the radiation beam
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61NELECTROTHERAPY; MAGNETOTHERAPY; RADIATION THERAPY; ULTRASOUND THERAPY
    • A61N5/00Radiation therapy
    • A61N5/10X-ray therapy; Gamma-ray therapy; Particle-irradiation therapy
    • A61N5/1048Monitoring, verifying, controlling systems and methods
    • A61N5/1064Monitoring, verifying, controlling systems and methods for adjusting radiation treatment in response to monitoring
    • A61N5/1069Target adjustment, e.g. moving the patient support
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61NELECTROTHERAPY; MAGNETOTHERAPY; RADIATION THERAPY; ULTRASOUND THERAPY
    • A61N5/00Radiation therapy
    • A61N5/10X-ray therapy; Gamma-ray therapy; Particle-irradiation therapy
    • A61N5/1077Beam delivery systems
    • A61N5/1081Rotating beam systems with a specific mechanical construction, e.g. gantries
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/74Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61NELECTROTHERAPY; MAGNETOTHERAPY; RADIATION THERAPY; ULTRASOUND THERAPY
    • A61N5/00Radiation therapy
    • A61N5/10X-ray therapy; Gamma-ray therapy; Particle-irradiation therapy
    • A61N2005/1085X-ray therapy; Gamma-ray therapy; Particle-irradiation therapy characterised by the type of particles applied to the patient
    • A61N2005/1087Ions; Protons
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • G06T2207/10081Computed x-ray tomography [CT]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Biomedical Technology (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Medical Informatics (AREA)
  • General Health & Medical Sciences (AREA)
  • Animal Behavior & Ethology (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Radiology & Medical Imaging (AREA)
  • Pathology (AREA)
  • Physics & Mathematics (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Surgery (AREA)
  • Biophysics (AREA)
  • Molecular Biology (AREA)
  • High Energy & Nuclear Physics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Optics & Photonics (AREA)
  • Physiology (AREA)
  • Dentistry (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Theoretical Computer Science (AREA)
  • Pulmonology (AREA)
  • General Physics & Mathematics (AREA)
  • Apparatus For Radiation Diagnosis (AREA)
  • Measuring And Recording Apparatus For Diagnosis (AREA)

Abstract

SISTEMAS E MÉTODOS PARA MONITORAMENTO POSIÇÃO DO PACIENTE. A presente invenção refere-se a um método de monitorar um paciente incluindo: obter uma imagem de entrada tendo uma pluralidade de regiões de interesse por uma unidade de processamento; e determinar uma pluralidade de posições para a respectiva pluralidade de regiões de interesse pela unidade de processamento; em que o ato de determinar a pluralidade de posições compreende: acessar uma pluralidade de moldes; comparar a pluralidade de moldes com respectivas áreas na imagem de entrada utilizando um comparador na unidade de processamento; e determinar a pluralidade de posições com base, pelo menos em parte, em um resultado do ato de comparar.

Description

DADOS DE PEDIDO RELACIONADO
[001] Este pedido reivindica a prioridade de e para o benefício de Pedido de Patente Provisório US 61/947.402, depositado em 3 de março de 2014, pendente. A descrição completa do pedido acima é expressamente aqui incorporada por referência.
CAMPO
[002] O campo do pedido se refere aos sistemas e métodos para o monitoramento de um paciente.
ANTECEDENTES
[003] A radioterapia envolve procedimentos médicos que expõem seletivamente certas áreas de um corpo humano, tais como tumores cancerígenos, a altas doses de radiação. A intenção da radioterapia é irradiar o tecido biológico alvo de tal modo que o tecido nocivo seja destruído. Durante a radioterapia, uma fonte de radiação pode ser girada em torno de um paciente para administrar radiação a partir de diferentes ângulos na região alvo no interior do paciente. A fonte de radiação pode ser montada sobre um braço ou uma torre anelar.
[004] Além disso, a radiação pode ser utilizada para fins de imagiologia. Por exemplo, uma máquina de tomografia computadorizada (CT) tem uma fonte de radiação configurada para girar em torno de um paciente ao mesmo tempo fornecendo uma radiação de imagiologia a partir de diferentes ângulos da torre em torno do paciente.
[005] Em ambos os procedimentos de tratamento e imagiologia, pode ser desejável monitorar as posições das diferentes partes do paciente. Assim, o requerente do pedido objeto determina que pode ser desejável proporcionar um sistema de monitoramento de pacientes que pode monitorar simultaneamente diferentes partes de um paciente.
SUMÁRIO
[006] Um método de monitoramento de um paciente incluindo: obter uma imagem de entrada tendo uma pluralidade de regiões de interesse por uma unidade de processamento; e determinar uma pluralidade de posições para a respectiva pluralidade de regiões de interesse pela unidade de processamento; em que o ato de determinar a pluralidade de posições compreende: acessar uma pluralidade de moldes; comparar a pluralidade de moldes com respectivas áreas na imagem de entrada utilizando um comparador na unidade de processamento; e determinar a pluralidade de posições baseadas, pelo menos em parte, em um resultado do ato de comparação.
[007] Opcionalmente, o ato de comparar compreende realizar a combinação de modelo usando a imagem de entrada e uma pluralidade de moldes para as respectivas regiões de interesse.
[008] Opcionalmente, o ato de comparar compreende realizar uma pluralidade de correlações cruzadas entre as áreas na imagem de entrada e a pluralidade de moldes.
[009] Opcionalmente, o método inclui ainda a criação da pluralidade de moldes.
[0010] Opcionalmente, o ato de criar a pluralidade de moldes compreende: obter uma imagem de referência; determinar uma pluralidade de pontos na imagem de referência; e gerar a pluralidade de moldes usando pixels na imagem de referência, de tal modo que os moldes têm respectivas coordenadas que correspondem com as posições respectivas dos pontos determinados na imagem de referência.
[0011] Opcionalmente, o ato de determinar a pluralidade de pontos na imagem de referência compreende: determinar um plano acima de um suporte do paciente suportando o paciente; determinar pontos no plano; e transferir a pluralidade de pontos no plano a um domínio de pixel da imagem de referência.
[0012] Opcionalmente, o ato de determinar a pluralidade de pontos na imagem de referência compreende: obter uma imagem de profundidade; processar a imagem de profundidade para determinar uma pluralidade de pontos na imagem de profundidade; e transferir a pluralidade de pontos na imagem de profundidade a um domínio de pixel da imagem de referência.
[0013] Opcionalmente, o ato de processar a imagem de profundi dade compreende valores de profundidade limiares na imagem de profundidade para que pixels com profundidades correspondentes aos pontos dentro de uma caixa virtual em torno do paciente estejam incluídos como candidatos para a pluralidade de pontos na imagem de profundidade.
[0014] Opcionalmente, o ato de determinar a pluralidade de pontos na imagem de referência compreende: obter múltiplas imagens de profundidade a partir de diferentes direções; processar as imagens de profundidade para determinar um modelo de superfície tridimensional; determinar uma pluralidade de pontos a partir do modelo de superfície tridimensional; e transferir a pluralidade de pontos a partir do modelo de superfície tridimensional a um domínio de pixel da imagem de referência.
[0015] Opcionalmente, o método inclui ainda determinar um vetor de deslocamento utilizando uma das posições determinadas.
[0016] Opcionalmente, o método inclui ainda projetar de volta o vetor de deslocamento a um plano acima de um suporte do paciente suportando o paciente.
[0017] Opcionalmente, o método também inclui determinar um deslocamento vertical e um deslocamento lateral com base no vetor de deslocamento projetado para trás.
[0018] Opcionalmente, a imagem de entrada compreende uma imagem da câmera.
[0019] Opcionalmente, a pluralidade de moldes é gerada usando uma imagem de raios X, uma imagem de CT, uma imagem de CBCT, uma imagem de tomossíntese, uma imagem de PET, uma imagem SPECT, uma imagem de MRI, uma imagem PET-CT, ou uma imagem SPECT-CT.
[0020] Opcionalmente, as posições são determinadas substancial mente em tempo real, para permitir o monitoramento em tempo real do paciente.
[0021] Opcionalmente, o método inclui ainda gerar um sinal em resposta a pelo menos uma das posições determinadas desviando de uma posição de referência.
[0022] Opcionalmente, o método inclui ainda apresentar gráficos em uma tela que representam as posições determinadas.
[0023] Opcionalmente, o ato de determinar a pluralidade de posições é realizado durante uma liberação de radiação.
[0024] Opcionalmente, a liberação de radiação compreende a liberação de radiação de tratamento.
[0025] Opcionalmente, a liberação de radiação compreende uma liberação de radiação de imagem.
[0026] Um aparelho para monitoramento de um paciente inclui: uma unidade de processamento configurada para: obter uma imagem de entrada tendo uma pluralidade de regiões de interesse; e determinar uma pluralidade de posições para a respectiva pluralidade de regiões de interesse; em que a unidade de processamento está configurada para determinar uma pluralidade de posições por: acessar uma pluralidade de moldes; comparar a pluralidade de moldes com respectivas áreas na imagem de entrada utilizando um comparador na unidade de processamento; e determinar a pluralidade de posições com base, pelo menos em parte, no resultado do ato de comparar.
[0027] Opcionalmente, a unidade de processamento está configu rada para executar o ato de comparar realizando a correspondência de molde utilizando a imagem de entrada e uma pluralidade de moldes para as respectivas regiões de interesse.
[0028] Opcionalmente, a unidade de processamento é configurada para realizar o ato de comparar através da realização de uma pluralidade de correlações cruzadas entre as áreas na imagem de entrada e a pluralidade de moldes.
[0029] Opcionalmente, a unidade de processamento é configurada adicionalmente para criar a pluralidade de moldes, e em que o aparelho compreende ainda um meio não transitório para armazenar os moldes.
[0030] Opcionalmente, a unidade de processamento é configurada para realizar o ato de criar a pluralidade de moldes por: obter uma imagem de referência; determinar uma pluralidade de pontos na imagem de referência; e gerar a pluralidade de moldes usando pixels na imagem de referência, de tal modo que os moldes têm respectivas coordenadas que correspondem com as posições respectivas dos pontos determinados na imagem de referência.
[0031] Opcionalmente, a unidade de processamento é configurada para realizar o ato de determinar a pluralidade de pontos na imagem de referência por: determinar um plano acima de um suporte do paciente suportando o paciente; determinar pontos no plano; e transferir a pluralidade de pontos no plano a um domínio de pixel da imagem de referência.
[0032] Opcionalmente, a unidade de processamento é configurada para realizar o ato de determinar a pluralidade de pontos na imagem de referência por: obter uma imagem de profundidade; processar a imagem de profundidade para determinar uma pluralidade de pontos na imagem de profundidade; e transferir a pluralidade de pontos na imagem de profundidade a um domínio de pixel da imagem de referência.
[0033] Opcionalmente, a unidade de processamento é configurada para realizar o ato de processar a imagem de profundidade por limitar valores de profundidade na imagem de profundidade de modo que pixels com profundidades correspondentes aos pontos dentro de uma caixa virtual em torno do paciente estão incluídos como candidatos para a pluralidade de pontos na imagem de profundidade.
[0034] Opcionalmente, a unidade de processamento é configurada para realizar o ato de determinar a pluralidade de pontos na imagem de referência por: obter imagens múltiplas de profundidade a partir de diferentes direções; processar as imagens de profundidade para determinar um modelo de superfície de imagem tridimensional; determinar uma pluralidade de pontos a partir do modelo de superfície tridimensional; e transferir a pluralidade de pontos a partir do modelo de superfície tridimensional a um domínio de pixel da imagem de referência.
[0035] Opcionalmente, a unidade de processamento é configurada ainda para determinar um vetor de deslocamento utilizando uma das posições determinadas.
[0036] Opcionalmente, a unidade de processamento é configurada ainda para a parte projetar de volta o vetor de deslocamento de um plano acima de um suporte de paciente suportando o paciente.
[0037] Opcionalmente, a unidade de processamento é configurada ainda para determinar um deslocamento vertical e um deslocamento lateral com base no vetor de deslocamento projetado de volta.
[0038] Opcionalmente, a imagem de entrada compreende uma imagem da câmera.
[0039] Opcionalmente, a pluralidade de moldes é gerada usando uma imagem de raios X, uma imagem de CT, uma imagem de CBCT, uma imagem de tomossíntese, uma imagem de PET, uma imagem de SPECT, uma imagem de MRI, uma imagem de PET-CT, ou uma imagem de SPECT-CT.
[0040] Opcionalmente, a unidade de processamento é configurada para determinar as posições substancialmente em tempo real, para permitir o controle em tempo real do paciente.
[0041] Opcionalmente, a unidade de processamento é ainda configurada para gerar um sinal em resposta a pelo menos uma das posições determinadas desviando de uma posição de referência.
[0042] Opcionalmente, o aparelho inclui ainda uma tela para a exibição de gráficos que representam as posições determinadas.
[0043] Opcionalmente, a unidade de processamento é uma parte de, ou um acessório para, um sistema de liberação de radiação.
[0044] Opcionalmente, o sistema de liberação de radiação compreende um sistema de tratamento de liberação de radiação.
[0045] Opcionalmente, o sistema de liberação de radiação compreende um sistema de liberação de radiação de imagiologia.
[0046] Opcionalmente, o aparelho ainda inclui uma primeira câmera óptica e uma segunda câmera óptica acoplada de modo comunicativo à unidade de processamento.
[0047] Um produto inclui um meio não transitório de armazenamento de um conjunto de instruções, uma execução da qual por uma unidade de processamento faz com que um método para monitorar um paciente em um procedimento médico seja realizado, o método compreendendo: obter uma imagem de entrada tendo uma pluralidade de regiões de interesse; e determinar uma pluralidade de posições para a respectiva pluralidade de regiões de interesse; em que o ato de determinar a pluralidade de posições compreende: acessar uma pluralidade de moldes; comparar a pluralidade de moldes com respectivas áreas na imagem de entrada; e determinar a pluralidade de posições com base, pelo menos em parte, em um resultado do ato de comparar.
[0048] Outros e diferentes aspectos, características, detalhes e formas de realização serão evidentes a partir da leitura da seguinte descrição detalhada.
DESCRIÇÃO DOS DESENHOS
[0049] Os desenhos ilustram o desenho e utilidade de modalidades, em que elementos semelhantes são designados por números de referência comuns. Estes desenhos não estão necessariamente em escala. A fim de melhor apreciar o modo como as vantagens e objetos acima mencionados são obtidos, uma descrição mais particular das modalidades será processada, que são ilustrados nos desenhos anexos. Estes desenhos descrevem apenas modalidades exemplares e, portanto, não devem considerados como limitativos no escopo das reivindicações.
[0050] A Figura 1 ilustra um sistema de tratamento com radiação tendo um sistema de monitoramento de pacientes, de acordo com algumas modalidades.
[0051] A Figura 2 ilustra um sistema de monitoramento de pacientes.
[0052] A Figura 3 ilustra um outro sistema de monitoramento de pacientes.
[0053] A Figura 4 ilustra um método para monitorar um paciente, de acordo com algumas modalidades.
[0054] A Figura 5 ilustra um método para a geração de moldes para o monitoramento do paciente, de acordo com algumas modalidades.
[0055] A Figura 6 ilustra um exemplo de moldes sendo gerados a partir de uma imagem de referência.
[0056] A Figura 7 ilustra uma técnica para designar pontos para a geração do modelo.
[0057] A Figura 8 ilustra outra técnica para designar pontos para a geração do modelo.
[0058] A Figura 9 ilustra uma pluralidade de posições sendo determinada para as respectivas regiões de interesse.
[0059] A Figura 10 ilustra projetar o vetor de deslocamento em um plano.
[0060] A Figura 11A ilustra um outro sistema de monitoramento de pacientes, de acordo com outras modalidades.
[0061] A Figura 11B ilustra uma técnica para calibrar uma câmera.
[0062] A Figura 12 ilustra um sistema de computador com os quais as modalidades aqui descritas podem ser implementadas.
DESCRIÇÃO DETALHADA
[0063] Diversas modalidades são descritas a seguir com referência às figuras. Deve notar-se que as Figuras não estão desenhadas em escala e que os elementos de estruturas e funções semelhantes são representados por números de referência idênticos ao longo das figuras. Também deve ser notado que as Figuras se destinam apenas a facilitar a descrição das modalidades. Estas não pretendem ser uma descrição exaustiva da presente invenção ou como uma limitação sobre o escopo da invenção. Além disso, uma modalidade ilustrada não precisa ter todos os aspectos ou vantagens mostrados. Um aspecto ou uma vantagem descrito em conjunto com uma modalidade particular não está necessariamente limitado a essa modalidade e pode ser praticado em quaisquer outras modalidades, mesmo se não assim ilustrado, ou, se assim não explicitamente descrito.
Sistemas de Radiação
[0064] A Figura 1 ilustra um sistema de tratamento com radiação 10. O sistema 10 inclui uma torre de braço 12, um suporte do paciente 14 para suportar um paciente 20, e um sistema de controle 18 para controlar uma operação da torre 12 e liberação de radiação. O sistema 10 também inclui uma fonte de radiação 22, que projeta um feixe de radiação 26 para o paciente 20, enquanto o paciente 20 está apoiado sobre o suporte 14, e um sistema de colimação 24 para alterar uma forma de seção transversal do feixe de radiação 26. A fonte de radiação 22 pode ser configurada para gerar um feixe em cone, um feixe em leque, ou outros tipos de feixes de radiação em diferentes modalidades. Além disso, em outras modalidades, a fonte 22 pode ser configurada para gerar feixe de prótons como uma forma de radiação para fins de tratamento. Além disso, em outras modalidades, o sistema 10 pode ter outra forma e/ou configuração. Por exemplo, em outras modalidades, em vez de uma torre de braço 12, o sistema 10 pode ter uma torre em 12.
[0065] Nas modalidades ilustradas, a fonte de radiação 22 é uma fonte de radiação de tratamento para o fornecimento de energia de tratamento. Em outras modalidades, além de ser uma fonte de radiação de tratamento, a fonte de radiação 22 pode também ser uma fonte de radiação de diagnóstico para o fornecimento de energia para fins de imagiologia. Em tais casos, o sistema 10 irá incluir um gerador de imagens, tal como o gerador de imagens 80, localizado em posição operativa em relação à fonte 22 (por exemplo, sob do suporte 14). Em outras modalidades, a fonte de radiação 22 pode ser uma fonte de radiação de tratamento para o fornecimento de energia de tratamento, em que a energia de tratamento pode ser utilizada para obter imagens. Em tais casos, a fim de se obter imagiologia utilizando energias de tratamento, o gerador de imagens 80 é configurado para gerar imagens em resposta à radiação tendo energias de tratamento (por exemplo, gerador de imagens MV). Em algumas modalidades, a energia de tratamento é geralmente essas energias de 160 quilo-elétron-volt (keV) ou maior, e mais tipicamente de 1 mega-elétron-volt (MeV) ou maior, e a energia de diagnóstico é geralmente aquelas energias abaixo da faixa de energia elevada, e mais tipicamente, abaixo de 160 keV. Em outras modalidades, a energia de tratamento e a energia de diagnóstico podem ter outros níveis de energia, e se referem as energias que são utilizadas para fins de tratamento e diagnóstico, respectivamente. Em algumas modalidades, a fonte de radiação 22 é capaz de gerar radiação de raios X, com uma pluralidade de níveis de energia de fótons dentro de uma faixa em qualquer lugar entre aproximadamente 10 keV e aproximadamente 20 MeV. Em outras modalidades, a fonte de radiação 22 pode ser uma fonte de radiação de diagnóstico. Em tais casos, o sistema 10 pode ser um sistema de diagnóstico com uma ou mais partes móveis. Nas modalidades ilustradas, a fonte de radiação 22 é transportada pela torre de braço 12. Alternativamente, a fonte de radiação 22 pode ser localizada dentro de um orifício (por exemplo, acoplado a uma torre em anel).
[0066] Nas modalidades ilustradas, o sistema de controle 18 inclui uma unidade de processamento 54, tal como um processador, acoplado a um controle 40. O sistema de controle 18 pode também incluir um monitor 56 para exibir dados e um dispositivo de entrada 58, tal como um teclado ou um mouse, para a introdução de dados. A operação da fonte de radiação 22 e a torre 12 são controladas pelo controle 40, o qual fornece potência e sinais de tempo para a fonte de radiação 22, e controla a velocidade de rotação e a posição da torre 12, com base nos sinais recebidos a partir da unidade de processamento 54. Embora o controle 40 seja mostrado como um componente separado a partir da torre 12 e a unidade de processamento 54, em modalidades alternativas, o controle 40 pode ser uma parte da torre 12 ou a unidade de processamento 54.
[0067] Em algumas modalidades, o sistema 10 pode ser um sistema de tratamento configurado para liberara feixe de radiação do tratamento para o paciente 20 em diferentes ângulos da torre. Durante um procedimento do tratamento, a fonte 22 gira em torno do paciente 20 e libera o feixe de radiação do tratamento a partir de diferentes ângulos da torre em relação ao paciente 20. Enquanto a fonte 22 está em ângulos de torre diferentes, o colimador 24 é operado para alterar a forma do feixe para corresponder a uma forma da estrutura do tecido alvo. Por exemplo, o colimador 24 pode ser operado de modo que a forma do feixe seja semelhante a uma forma em corte transversal da estrutura do tecido alvo. Em outro exemplo, o colimador 24 pode ser operado de modo que diferentes partes da estrutura de tecido alvo recebam uma quantidade diferente de radiação (como em um procedimento de IMRT).
[0068] Em outras modalidades, o sistema 10 pode não ser um sistema de tratamento com radiação. Em vez disso, o sistema 10 pode ser um sistema de radiação de diagnóstico. Em tais casos, a fonte de radiação 22 é uma fonte de radiação de diagnóstico configurada para fornecer radiação com energia adequada para fins de imagiologia.
Monitoramento do Paciente
[0069] Como mostrado nas Figuras 1 e 2, o sistema de radiação 10 também inclui um sistema de monitoramento de paciente 100. Em algumas modalidades, o sistema de monitoramento de paciente 100 pode ser considerado como sendo uma parte do sistema de radiação 10. Em outras modalidades, o sistema de monitoramento de paciente 100 pode ser um acessório para o sistema de radiação 10.
[0070] O sistema de monitoramento de paciente 100 é configurado para monitorar as posições das várias partes do paciente durante uma operação sendo executada pelo sistema de radiação 10. O sistema de monitoramento de paciente 100 inclui uma câmera 130, um mecanismo de fixação 132, um suporte 134, e uma unidade de processamento 140. A câmera 130 é configurada para capturar imagens do paciente sendo monitorado.
[0071] O suporte 134 pode ser um poste, um suporte, um feixe, um braço, etc., para suportar a câmera 130. O mecanismo de fixação 132 pode estar localizado no suporte 134. Além disso, em algumas modalidades, o suporte 134 pode, opcionalmente, ter uma ou mais partes móveis para permitir uma posição e/ou orientação da câmera 130 a ser ajustada em relação ao suporte 14 (ou em relação ao paciente 20 ou outro local de referência). Em algumas modalidades, o suporte 134 pode ele próprio ser móvel em relação ao suporte 14, a fim de ajustar a posição da câmera (por exemplo, longitudinalmente) em relação ao paciente. Em outras modalidades, o suporte 134 pode ser uma base com um motor de inclinação, o qual permite que a câmera 130 seja inclinada em um, dois, ou três graus de movimento em relação à base. Em outras modalidades, o suporte 134 não é necessário, e o sistema de monitoramento de paciente 100 pode não incluir o suporte 134.
[0072] Nas modalidades ilustradas, o mecanismo de fixação 132 é configurado para fixar a câmera 130 a um suporte 136, no pé do suporte 14. O suporte 136 pode ser considerado como uma parte do sistema de monitoramento de paciente 100 em algumas modalidades. Em alternativa, o suporte 136 pode ser considerado como uma parte do suporte do paciente 14. Em algumas modalidades, o suporte 136 pode ter uma abertura para permitir que os pés do paciente passem por esta, se necessário (figura 3). Por exemplo, o suporte 136 pode ter uma altura de abertura que é mais do que 8 polegadas, como 10 polegadas, 12 polegadas, 14 polegadas, etc., a fim de permitir que os pés do paciente entrem através da mesma.
[0073] Em outras modalidades, o suporte 136 é opcional, e o mecanismo de fixação 132 pode ser configurado para fixar a câmera 130 diretamente para o suporte do paciente 14, ou a outros componentes do sistema médico 10. Em outras modalidades, o mecanismo de fixação 132 pode ser configurado para fixar a câmera 130 a uma sala, tal como a um teto, uma parede, ou um piso. Em ainda outras modalidades, o mecanismo de fixação 132 pode ser configurado para fixar a câmera 130 a uma estrutura que não é uma parte do sistema médico 10. O mecanismo de fixação 132 pode ser um grampo para agarrar um objeto, um parafuso para inserção numa ranhura para parafuso localizada num objeto ao qual a câmera 130 deve ser protegida contra, um conector tipo fecho-e-encaixe, um conector do tipo gancho e laço, ou qualquer um dos outros tipos de mecanismos de fixação. Em ainda outras modalidades, o mecanismo de fixação 132 não é necessário, e o sistema de monitoramento de paciente 100 não inclui o mecanismo de fixação 132. Por exemplo, em outras modalidades, o suporte 134 pode ser uma base, e a base pode ser colocada em uma superfície plana que suporta a câmera 130 durante a utilização.
[0074] Nas modalidades ilustradas, a câmera 130 está montada por cima da superfície superior do suporte 14. A altura da câmera 130 pode ser ajustável de modo que a cabeça do paciente 20 seja visível sobre sua barriga. Além disso, a orientação da câmera 130 pode ser ajustável para ajustar um ângulo de visão (por exemplo, em relação a uma superfície horizontal). Deve notar-se que a montagem da câmera 130 de modo a que a sua posição seja fixa em relação ao suporte 14 é vantajosa, pois a referida configuração permite que a câmera 130 se mova com o suporte do paciente 14 (e, por conseguinte, o paciente 20), independentemente do movimento do suporte 14.
[0075] A unidade de processamento 140 é acoplada de forma comunicativa à câmera 130. A unidade de processamento 140 é configurada para processar os sinais transmitidos a partir da câmera 130, e para determinar se existe movimento do paciente com base nos sinais. A unidade de processamento 140 pode se comunicar com a câmera 130 através de um fio, ou utilizando um dispositivo sem fios. Em algumas modalidades, a unidade de processamento 140 pode ser um processador, tal como um processador ASIC, um processador FPGA, um processador de uso geral, ou qualquer um dos outros tipos de processadores. Além disso, a unidade de processamento 140 pode incluir hardware, software, ou uma combinação de ambos. Além disso, em algumas modalidades, a unidade de processamento 140 pode ser a mesma que a unidade de processamento 54, ou um componente da unidade de processamento 54. Em outras modalidades, a unidade de processamento 140 pode ser considerada como sendo uma parte do sistema de radiação 10, e não uma parte do sistema de monitoramento de pacientes 100.
[0076] A Figura 4 ilustra um método 400 de monitorar um paciente, de acordo com algumas modalidades. O método 400 será descrito como sendo realizado por meio do sistema de monitoramento de paciente 100. Além disso, o método 400 será descrito com referência ao monitoramento do paciente durante um procedimento médico que está sendo executada pelo sistema de radiação 10 da Figura 1. No entanto, deve notar-se que o método 400 pode ser realizado para monitorar um paciente durante outros tipos de procedimentos médicos, que podem ou não envolver a utilização de radiação.
[0077] Antes de realizar o método 400, o paciente é configurado e é suportado com o suporte paciente 14 do sistema de radiação 10. Depois que o paciente é suportado, uma pluralidade de moldes é obtida (artigo 402).
[0078] Em algumas modalidades, os moldes foram já previamente os, por exemplo, em uma sessão anterior (que pode ocorrer no mesmo dia ou um dia diferente para o método 400), ou na mesma sessão que aquela descrita para o método 400. Em tais casos, o ato de obtenção dos moldes pode ser realizado pela unidade de processamento 140 recuperando os moldes a partir de um meio não transitório que armazena os moldes. Em alternativa, o ato de obtenção dos moldes pode ser realizado pela unidade de processamento 140 acessando o meio não transitório armazenando os moldes.
[0079] Em outras modalidades, o ato de obter os moldes pode envolver a geração dos moldes. Em tais casos, a geração dos moldes pode ser realizada pela câmera 130 capturando uma imagem de referência do paciente. Em seguida, a unidade de processamento 140 processa a imagem de referência para criar o conjunto de moldes.
[0080] A Figura 5 ilustra um processo 500 de criar uma pluralidade de moldes, de acordo com algumas modalidades. Em primeiro lugar, uma imagem de referência é obtida (item 502). Isto pode ser realizado pela unidade de processamento 140 recebendo a imagem de referência a partir da câmera 130. Como alternativa, o item 502 pode ser realizada pela câmera 130 gerando a imagem de referência, e transmitindo a imagem de referência para recepção pela unidade de processamento 140. Em seguida, uma pluralidade de pontos (pontos de monitoramento) é determinada (item 504). Os pontos são determinados com relação ao quadro de coordenadas da imagem de referência. Em seguida, os moldes são gerados usando os pixels na imagem de referência com base nos pontos determinados (item 506). Em algumas modalidades, os moldes são gerados de tal modo que os moldes têm respectivas coordenadas (no quadro de coordenadas da imagem de referência) que correspondem com as posições respectivas dos pontos determinados em relação à imagem de referência.
[0081] A Figura 6 ilustra graficamente o conceito de itens 504 e 506. Como mostrado na Figura 6, vários pontos 602a-602c na imagem de referência 604 correspondendo as respectivas regiões de interesse 606a-606c são mostrados. Uma vez que os pontos 602a-602c no quadro de coordenadas da imagem de referência 604 foram determinados, uma pluralidade de moldes 610a-610c pode ser gerada usando os pixels da imagem de referência 604, de tal forma que os moldes 610a-610c têm respectivas posições do molde que correspondem às posições dos pontos 602a-602c. Nas modalidades ilustradas, cada molde 610 é uma região retangular que constitui um subconjunto da imagem de referência 604 que centraliza a um respectivo ponto 602. Em outras modalidades, os moldes 610 podem ser criados de modo que podem corresponder às posições dos respectivos pontos 602. Por exemplo, cantos ou arestas dos respectivos moldes 610 podem ser alinhados com os respectivos pontos 602. Além disso, em outras modalidades, cada molde 610 pode ter uma forma que é diferente de um retângulo (por exemplo, um molde pode ter uma forma quadrada, uma forma triangular, uma forma circular, uma forma oval, ou uma forma personalizada). A forma personalizada pode ser uma que está de acordo com uma parte específica do corpo (tal como a face ou parte superior do tronco, ou braço, etc.) como pode ser visto na imagem. Além disso, em algumas modalidades, um molde pode ter uma forma irregular. Além disso, nas modalidades ilustradas, os moldes 610 têm a mesma forma e tamanho. Em outras modalidades, dois ou mais dos moldes 610 podem ter diferentes formas e/ou tamanhos. Além disso, em algumas modalidades dois ou mais dos moldes 610 podem ter regiões sobrepostas. Em outras modalidades, os moldes 610 podem não se sobrepor. Embora apenas três moldes 610a-610c sejam mostrados no exemplo, em outras modalidades, pode haver menos do que três moldes (por exemplo, dois moldes), ou mais do que três moldes.
[0082] Após os moldes terem sido gerados, os moldes podem então ser armazenados em um meio não transitório para uso posterior.
[0083] Várias técnicas podem ser empregadas para determinar os pontos com relação ao quadro de coordenadas da imagem de referência para gerar os moldes. Em algumas modalidades, uma interface gráfica de usuário pode ser fornecida para permitir que um usuário designe manualmente determinados pontos no quadro de coordenadas da imagem de referência para gerar os moldes. Em outras modalidades, como mostrado na Figura 7, a pluralidade de pontos no quadro de coordenadas da imagem de referência pode ser determinada por: determinar um plano 700 acima do suporte do paciente 14 para suportar o paciente; determinar pontos 702a-702c no plano 700; e transferir a pluralidade de pontos no plano 700 a um domínio de pixel da imagem de referência. Como mostrado na Figura 7, em algumas modalidades, o plano 700 acima do suporte do paciente 14 pode ser um plano horizontal, ou pode ser um plano formando um ângulo em relação à superfície do suporte do paciente 14, ou um plano que aproxima o contorno do corpo do paciente ao longo de uma área especificada, tal como o peito do paciente. Em uma modalidade, a resolução de pixels da câmera (radianos por pixel) mais os seus ângulos de orientação e posição relativamente ao suporte do paciente 14 podem ser calibradas. Em seguida, a superfície paciente pode ser aproximada como um plano 700 que é paralelo à superfície de suporte do paciente 14, e que está posicionada a uma altura igual à espessura do paciente acima da mesma. Isso permite que um usuário manualmente designe, ou a unidade de processamento 140 para designar automaticamente, pontos 702 neste plano 700 que estão perto da posição alvo do tratamento. Usando a posição e orientação da câmera 130 em relação ao plano 700 (ou os pontos 702 no plano 700), a unidade de processamento 140, em seguida, projeta para a frente estes pontos de monitoramento 702 ao domínio de pixel da câmera óptica 130 (por exemplo, a imagem de referência). A partir da imagem de referência, um modelo para cada posição de pixel projetada para a frente é determinado (por exemplo, o modelo pode ser centralizado no pixel projetado para frente) e salvo em um meio não transitório. Deve notar-se que a posição (por exemplo, altura) do plano 700 pode ser selecionada com base em uma espessura ou o paciente. Por exemplo, quanto maior for o paciente, a maior altura do suporte do paciente 14 pode ser selecionada.
[0084] Em algumas modalidades, a geração dos moldes é conseguida utilizando uma ou mais câmeras que geram a imagem da superfície real do paciente. Em outras modalidades, uma câmera de detecção de profundidade pode ser empregada para auxiliar na determinação dos pontos no quadro de coordenadas da imagem de referência para gerar os moldes. Em uma implementação, o ato de determinar a pluralidade de pontos na imagem de referência compreende: obter uma imagem de profundidade; processar a imagem de profundidade para determinar uma pluralidade de pontos na imagem de profundidade; e transferir a pluralidade de pontos na imagem de profundidade a um domínio de pixel da imagem de referência. Opcionalmente, o ato de processar a imagem profundidade pode compreender limitar valores de profundidade na imagem de profundidade de modo que pixels com profundidades correspondentes aos pontos dentro de uma caixa virtual ao redor do paciente estão incluídos como candidatos para a pluralidade de pontos na imagem profundidade. Em algumas modalidades, a unidade de processamento 140 pode utilizar a imagem profundidade para criar um mapa da superfície 3D (plano curvilíneo) 800 da cena imageada pela câmera (figura 8). Esta é então utilizada para segmentar (isolar) o paciente de outros objetos que o circundam, por exemplo, excluindo todos os pontos 3D fora de uma caixa virtual que está centralizada em relação ao suporte do paciente 14. Assim, a utilização de uma imagem de profundidade pode permitir a designação dos pontos de monitoramento 702a-702c na superfície 3D do paciente 800 sem a aproximação planar acima mencionada. Também por segmentação automática de partes do corpo do paciente, por exemplo, braços versus tronco, os pontos de monitoramento podem ser colocados em partes anatômicas específicas do paciente. Após os pontos 702 a partir da superfície 3D 800 foram designados, os pontos podem ser projetados para a frente para o domínio do pixel da câmera óptica utilizando uma transformação entre a câmera de profundidade e a câmera óptica. As modalidades com câmera de detecção de profundidade serão descritas em maiores detalhes abaixo.
[0085] Em algumas modalidades, os moldes podem ser obtidos quando uma respiração de um paciente está em um pico da fase de inspiração. Em outras modalidades, os moldes podem ser obtidos quando uma respiração do paciente está na fase de exalação. Em outras modalidades, os moldes podem ser obtidos em qualquer fase de respiração desejada. Em uma implementação, o sistema de monitoramento de paciente 100 pode adquirir moldes em qualquer tempo de partida, e assim que o fim exalação, ou outra fase desejada, de um movimento de respiração é atingido, o sistema de monitoramento de paciente 100 pode então adquirir um novo conjunto de moldes. Em alguns casos, a detecção da fase desejada de um movimento de respiração pode ser detectada através do processamento do sinal de movimento correspondente ao modelo inicial, porque um modelo adquirido em um ponto arbitrário no ciclo de respiração ainda gera um sinal de respiração a partir do qual os fins da exalação e inalação podem ser detectados.
[0086] Voltando à Figura 4, depois de os moldes terem sido obtidos no item 402, em seguida, uma imagem de entrada possuindo uma pluralidade de regiões de interesse é obtida (ponto 404). Em algumas modalidades, o ato de se obter a imagem de entrada pode ser realizado pela unidade de processamento 140 que recebe uma imagem da câmera (sinais de imagem) a partir da câmera 130. A imagem da câmera pode ser uma imagem de vídeo em tempo real a partir de uma sequência de imagens de vídeo gerada pela câmera 130. Em outras modalidades, o ato de obter a imagem de entrada pode ser realizado pela câmera 130 capturando uma imagem do paciente, e transmitindo a imagem para a unidade de processamento 140 para recepção pela unidade de processamento 140.
[0087] Em seguida, a unidade de processamento 140 determina uma pluralidade de posições para a respectiva pluralidade de regiões de interesse (item 406). Nas modalidades ilustradas, o ato de determinar a pluralidade de posições inclui: acessar uma pluralidade de moldes do meio não transitório armazenando os moldes; comparar a pluralidade de moldes com respectivas áreas na imagem de entrada; e determinar a pluralidade de posições baseadas, pelo menos em parte, em um resultado do ato de comparar. Em uma implementação, a unidade de processamento 140 pode incluir um módulo de determinação de posição configurado para acessar os moldes. O módulo de determinação de posição pode incluir um comparador configurado para comparar os moldes com respectivas áreas na imagem de entrada. Em algumas modalidades, o ato de comparação pode incluir a realização combinação de molde utilizando a imagem de entrada e uma pluralidade de moldes para as respectivas regiões de interesse. Em outras modalidades, o ato de comparar pode incluir realizar correlações cruzadas (por exemplo, relação correlações normalizadas) entre as áreas na imagem de entrada e a pluralidade de moldes. As posições determinadas são para os respectivos pontos de monitoramento (que correspondem às respectivas diferentes regiões de interesse na imagem de entrada em tempo real). O módulo de determinação de posição pode incluir uma saída para produzir as posições determinadas. Em algumas modalidades, o comparador no módulo de determinação de posição pode ser configurado para processar diferentes partes da imagem de entrada em relação aos moldes sequencialmente, mas fazê-lo a uma velocidade suficiente de modo que as posições possam ser determinadas pela unidade de processamento 140 em substancialmente tempo real. Em outras modalidades, o comparador no módulo de determinação de posição pode ser configurado para processar diferentes partes da imagem de entrada em relação aos moldes em paralelo, e fazê-lo a uma velocidade suficiente de modo que as posições possam ser determinadas pela unidade de processamento 140 em tempo substancialmente real.
[0088] Um exemplo do conceito de item 406 é mostrado na Figura 9. Como se mostra na figura, uma imagem de entrada 900 é processada pela unidade de processamento 140 para identificar as regiões de combinação de interesse 902a-902c. Isso pode ser realizado pela unidade de processamento 140 realizando a combinação de molde entre as diferentes áreas de pesquisa 904a-904c na imagem de entrada com os respectivos moldes 610a-610c. As regiões correspondentes combinadas de interesse 902a-902c têm respectivas posições (X, Y) que são determinadas com base em uma identificação das regiões de interesse 902a-902c (por exemplo, uma combinação entre as áreas 904a-904c e os moldes 610a-610c, respectivamente). No exemplo, as três posições determinadas são representadas como três pontos de 920a-920c sobrepostos na imagem de entrada 900. Em algumas modalidades, os pontos 920a-920c podem ser centralizados nas respectivas regiões identificadas de interesse na imagem de entrada, e podem representar as posições em tempo real das respectivas regiões de interesse. Os três pontos 920a-920c têm posições (X10, Y10), (X20, Y20), e (X30, Y30). Assim, a técnica de combinação de molde permite que os pontos de monitoramento correspondentes às diferentes partes do paciente sejam determinados e rastreados em tempo real durante o procedimento médico. Durante o item 406, a unidade de processamento 140 pode ser configurada para procurar áreas combinadas com os moldes 610 na imagem de entrada atual 900 utilizando os pontos anteriormente identificados 920 a partir da última imagem de entrada como estimativas. As três posições determinadas (X1, Y1), (X2, Y2), (X3, Y3) para as três áreas combinadas (regiões de interesse 902a- 902c) podem ser armazenadas em um meio não transitório. Alternativamente, ou adicionalmente, as posições determinadas podem ser apresentadas em um monitor (por exemplo, na forma de números ou gráficos) para ser visualizado por um usuário. Além disso, em algumas modalidades, os gráficos como aquele mostrado na Figura 9 também podem ser exibidos na tela para visualização pelo usuário.
[0089] Deve notar-se que a utilização da câmera de imagem para monitorar regiões reais no paciente é vantajosa em relação à técnica que gera um "mapa de relevo" sobre uma superfície paciente. Luz estruturada pode ser utilizada para o mapeamento de relevo de superfície. Por exemplo, a luz refletida estruturada a partir de uma superfície pode ser utilizada para o mapeamento de relevo de superfície. Varredura de tempo de voo e a laser (uma forma de luz estruturada) são outros métodos possíveis. Em uma técnica, um padrão (por exemplo, um padrão aleatório de pontos, um padrão pré- determinado de pontos, etc.) pode ser projetado usando luz estruturada sobre a superfície de um paciente. Duas ou mais câmeras estéreos que são sensíveis à cor deste padrão são então utilizadas para a imagem da superfície. Em seguida, combinação de moldes é realizada utilizando as imagens da câmera, e triangulação estéreo é realizada para determinar uma solução de pontos 3D. No entanto, imagiologia do mapa de relevo sobre o paciente pode não ser tão desejável como a imagiologia da superfície real (por exemplo, a pele do paciente, vestimenta, pano, cobertor, etc.) do paciente. Isso ocorre porque uma imagem óptica do paciente (por exemplo, pele do paciente, vestimenta, pano, cobertor, etc.) contém textura rica que é visível. O método acima fornece muito alta sensibilidade e precisão porque a textura imageada tem informações muito mais espacial do que um mapa de relevo. Por exemplo, superfície de relevo de um torso típico incluindo até mesmo a mama da mulher quase não têm a mesma quantidade de informações espaciais que um pedaço de vestimenta do hospital tem. Isto tem importantes consequências para o desempenho de qualquer algoritmo de combinação (por exemplo, o algoritmo de combinação que utiliza correlação cruzada).
[0090] Em algumas modalidades, depois de as posições serem determinadas no item 406, as posições determinadas podem ser transformadas a partir do quadro de coordenadas da imagem para um quadro de coordenadas associado com o sistema de radiação 10. Isto permite que as várias posições dos pontos de monitoramento sejam expressas em relação ao sistema de radiação 10. Em uma modalidade, a unidade de processamento 140 pode incluir um módulo de transformação da posição tendo uma entrada para receber as posições determinadas, e uma saída para produzir posições transformadas em um quadro de coordenadas que está associado com o sistema de radiação 10. O módulo de transformação de posição pode ser configurado para calcular as posições transformadas utilizando um algoritmo de transformação de posição que usa as posições determinados como entrada.
[0091] Além disso, em algumas modalidades, depois de as posições serem determinadas, o método 400 pode ainda incluir determinar um ou mais vetores de deslocamento, utilizando uma ou mais das posições determinadas, respectivamente. O vetor de deslocamento pode ser calculado como a diferença entre a posição determinada e uma posição de referência. A posição de referência pode ser o ponto 602 como sobreposto na imagem de entrada. Seguindo o exemplo acima, os vetores de deslocamento para as três regiões de interesse 902 podem ser calculados como (X1-X10, Y1-Y10), (X2-X20, Y2-Y20), e (X3X30, Y3-Y30). Os vetores de deslocamento podem ser armazenados em um meio não transitório. Alternativamente, ou adicionalmente, os vetores de deslocamento podem ser apresentados em uma tela (por exemplo, em uma forma de números ou gráficos) para ser vistos por um usuário. Em alguns casos, a unidade de processamento 140 pode incluir um módulo de determinação de vetor de deslocamento para o cálculo dos vetores de deslocamento.
[0092] Em outras modalidades, se o sistema de monitoramento de paciente 100 possui um recurso de detecção de profundidade (por exemplo, uma câmera de detecção de profundidade separada, ou um dispositivo de detecção de profundidade integrado com a câmera de imagem óptica 130), então imagem de profundidade em tempo real pode ser obtida para determinar os deslocamentos. Em uma implementação, um conjunto de moldes, cada um dos quais tendo um pedaço de um mapa da superfície 3D, pode ser gerado e obtido pela unidade de processamento 140. Em seguida, durante monitoramento do paciente, a unidade de processamento 140 pode determinar as posições e os deslocamentos de certos pontos (os pontos de monitoramento) no mapa da superfície 3D (gerado a partir de imagem de profundidade de entrada em tempo real) por combinação de moldes utilizando os moldes.
[0093] Deve notar-se que os vetores de deslocamento descritos anteriormente estão no quadro de coordenadas da imagem de entrada. Em algumas modalidades, o método 400 pode incluir ainda projetar (por exemplo, transformando) os vetores de deslocamento para outro quadro de coordenadas. Por exemplo, em algumas modalidades, os vetores de deslocamento podem ser projetados pela unidade de processamento 140 a um plano que está acima do suporte do paciente suportando 140 o paciente. Por exemplo, como mostrado na Figura 10, o plano 1000 pode ser um plano horizontal (para aproximar a superfície do paciente) que é paralelo a uma superfície de suporte do paciente 140 suportando o paciente. O plano 1000 pode ser o mesmo plano 700 que o utilizado para a estimativa da superfície do paciente para a designação dos pontos de monitoramento. Em outras modalidades, o plano 1000 pode ser qualquer plano arbitrário (que pode ou não ser horizontal). Por exemplo, em modalidades, o plano pode ser não paralelo, e pode formar um ângulo diferente de zero com relação à superfície de suporte da paciente 140.
[0094] Deve notar-se que o vetor de deslocamento do domínio de pixel bidimensional (2D) pode ser projetado de volta para qualquer plano definido em relação às coordenadas à base da máquina, produzindo, assim, dois componentes de movimento estimados que podem ser interpretados, por exemplo, em relação ao feixe de radiação. Assim, este plano ao qual o vetor de deslocamento do domínio do pixel 2D é projetado de volta pode ser qualquer plano arbitrário definido por um usuário. Para ângulos look-down da câmera menores, um plano vertical pode ser mais desejável (mas o plano pode ser não vertical em outras modalidades). Para ângulos look-down maiores (por exemplo, uma câmera olhando quase diretamente para baixo no paciente), um plano horizontal pode ser mais desejável (mas o plano pode ser não horizontal em outras modalidades). Em uma implementação, o módulo de processamento 140 pode incluir um módulo de projeção de volta para realizar as funções acima. O módulo de projeção de volta toma o vetor de deslocamento 2D como entrada, e realiza um cálculo de projeção de volta para projetar o vetor a um plano definido. Em algumas modalidades, se o sistema de monitoramento de paciente 100 inclui uma câmera de detecção de profundidade para proporcionar uma imagem de profundidade associada, em seguida, o plano tangente à superfície do paciente no ponto de referência pode ser desejável para a projeção de volta. Se a imagem de profundidade é maior precisão (tal como a obtida usando uma câmera de profundidade de tempo de voo), em seguida, o vetor 2D de domínio de pixel pode ser de projetado de volta para a superfície do paciente, o que não é necessariamente planar, produzindo assim um vetor de deslocamento real 3D não limitado para estar situada em um plano.
[0095] Em algumas modalidades, a projeção de um vetor de deslocamento 1001 (no quadro de coordenadas da imagem de entrada) para o plano 1000 (por exemplo, o plano 700 aproximando da superfície do paciente) pode ser realizada utilizando a distância entre a câmera 130 e o ponto monitorado no plano/superfície do paciente, e uma orientação da câmera 130. Em algumas modalidades, se o sistema de monitoramento de paciente 100 inclui uma câmera de detecção de profundidade proporcionando uma imagem de profundidade, o vetor de deslocamento do domínio de pixel pode ser convertido de forma mais precisa a partir do domínio de pixel (ou seja, as coordenadas da imagem de entrada) para uma de coordenada associada com o paciente por ao projetar de volta o vetor de deslocamento para o ponto de referência 3D real no paciente (ou seja, o ponto na superfície 3D gerado a partir da imagem de profundidade) em oposição ao ponto de uma plano se aproximando (que é o caso se nenhuma câmera de detecção de profundidade é fornecida). Como mostrado na Figura 10, opcionalmente, para cada vetor de deslocamento projetado 1002, o método pode ainda incluir determinar um deslocamento vertical 1004 e um deslocamento lateral 1006 com base no vetor de deslocamento projetado 1002. Isso pode ser realizado pela unidade de processamento 140. Os vetores de deslocamento projetados 1002 e/ou os correspondentes deslocamentos verticais e laterais 1004, 1006 podem ser armazenados em um meio não transitório. Alternativamente, ou adicionalmente, podem ser apresentados em uma tela (por exemplo, na forma de números ou gráficos) para ser visto por um usuário.
[0096] Em outras modalidades, se o sistema de monitoramento de pacientes 100 possui um recurso de detecção de profundidade (por exemplo, uma câmera de detecção de profundidade separada, ou um dispositivo de detecção de profundidade integrado com a câmera de imagem óptica 130), então, a imagem de profundidade em tempo real pode ser obtida para permitir uma projeção/conversão mais precisa do deslocamento de domínio de pixel (por exemplo, a partir do quadro de coordenadas da imagem para o quadro de coordenadas associado com o paciente). Por exemplo, em algumas modalidades, uma imagem de profundidade em tempo real pode ser fornecida a partir do dispositivo de detecção de profundidade para a unidade de processamento 140 para a geração de superfície em 3D. A superfície em 3D pode então ser utilizada pela unidade de processamento 140 para calcular as distâncias reais entre a câmera 130 e os respectivos pontos de monitoramento no paciente. A unidade de processamento 140 pode então usar as distâncias reais para calcular os vetores de deslocamento projetados.
[0097] Além disso, em algumas modalidades, o sistema de monitoramento de paciente 100 pode opcionalmente incluir ainda uma tela para a exibição de informação. Em tais casos, o método 400 pode opcionalmente incluir ainda apresentar gráficos em uma tela representado as posições determinadas (X, Y), as posições de referência (X0, Y0), os vetores de deslocamento, vetores de deslocamento projetados, deslocamentos verticais e horizontais dos respectivos vetores de deslocamento projetados, ou qualquer combinação dos anteriores.
[0098] Em algumas modalidades, a unidade de processamento 140 pode gerar um sinal em resposta a pelo menos uma das posições determinadas se desviando a partir de uma posição de referência. Em tal caso, o método 400 pode, opcionalmente, incluir ainda a geração de um sinal em resposta a uma posição determinada desviando a partir de uma posição de referência. Por exemplo, se a unidade de processamento 140 determina que um vetor de deslocamento ou um vetor de deslocamento projetado tem um valor diferente de zero, ou tem um valor que excede um limiar máximo prescrito, em seguida, a unidade de processamento 140 pode gerar um sinal. O sinal pode fazer com que um sinal gráfico seja apresentado em uma tela para visualização pelo usuário. Alternativamente, ou adicionalmente, o sinal pode ativar um alarme e/ou interromper uma operação do sistema de radiação 10.
[0099] Em adição, ou em alternativa, em algumas modalidades, a unidade de processamento 140 pode ser configurada para analisar um padrão das posições para um determinado ponto de controle. Por exemplo, um dos pontos de monitoramento pode ser no peito de um paciente, e por isso, isto pode corresponder com uma respiração do paciente. Em tais casos, a unidade de processamento 140 pode monitorar o padrão de respiração do paciente, considerando as posições determinadas do ponto de monitoramento que foram determinadas durante um período prescrito (por exemplo, dentro dos últimos 15 segundos). Se a respiração do paciente se torna não periódica ou irregular, então, a unidade de processamento 140 pode parar a operação do sistema de radiação 10.
[00100] De acordo com outras modalidades, as posições determinadas nos diferentes pontos de monitoramento podem ser usadas pela unidade de processamento 140 para confinar um funcionamento do sistema de radiação 10. Por exemplo, a unidade de processamento 140 pode ser configurado para controlar o sistema de radiação de 10 para liberação radiação se uma posição determinada para um dos pontos de monitoramento está dentro de uma faixa de amplitude, e/ou para parar a liberação de radiação, se a posição determinada está fora da faixa de amplitude.
[00101] Em ainda outras modalidades, as posições determinadas podem ser usadas pela unidade de processamento 140 para determinar uma fase de um ciclo respiratório para o paciente. Por exemplo, a unidade de processamento 140 pode incluir um módulo de determinação de fase para realizar tal função. A fase de um ciclo respiratório representa um grau de completude do ciclo de respiração. Em algumas modalidades, a fase de um ciclo respiratório pode variar de 0° a 360°, em que a fase = 0° representa um começo de um ciclo respiratório, e a fase = 360° representa um fim de um ciclo de respiração. A fase determinada pode ser utilizada pela unidade de processamento 140 para confinar um funcionamento do sistema de radiação 10. Por exemplo, a unidade de processamento 140 pode ser configurada para controlar o sistema de radiação 10 para liberar a radiação se uma fase determinada satisfaz um requisito de fase (por exemplo, está dentro de uma faixa de fase prescrita) e/ou para parar a liberação de radiação se a fase determinada falha no requisito de fase (por exemplo, está fora de uma fase prescrita). Em uma modalidade, a unidade de processamento 140 pode incluir um módulo de geração de sinal de controle que inclui uma entrada para receber uma determinada fase de um ciclo respiratório. O módulo de geração de sinal de controle pode também incluir um módulo de análise de fase para analisar a fase determinada para determinar se a mesma satisfaz um requisito (por exemplo, fora de uma faixa de fase definida, dentro de uma faixa de fase definida, atendendo a um valor de fase, etc.). Se o requisito é satisfeito, o módulo de geração de sinal de controle, em seguida, envia um sinal de controle para controlar um componente de um sistema de radiação.
[00102] Além disso, em algumas modalidades, os itens no método 400 podem ser repetidos conforme o procedimento médico é continuado a ser executado pelo sistema de radiação 10. Assim, a unidade de processamento 140 processa as imagens em tempo real em momentos diferentes para monitorar continuamente as posições do paciente.
[00103] Deve notar-se que a técnica acima para o monitoramento do paciente pode ser realizada durante uma liberação de radiação. Assim, o ato de determinar a pluralidade de posições no método 400 pode ser realizado durante uma liberação de radiação. Em algumas modalidades, a liberação de radiação compreende a liberação de radiação de tratamento. Em outras modalidades, a liberação de radiação compreende uma liberação de radiação de imagem. Em outras modalidades, o método 400 pode ser realizado durante outros procedimentos médicos que podem não envolver o uso de radiação. Além disso, em algumas modalidades, a imagem de referência e os moldes podem ser obtidos imediatamente após o paciente ser estabelecido para um procedimento médico. O procedimento médico pode ser um que requer que o paciente não se mova, tal como a aquisição de CBCT antes do tratamento, ou liberação de doses de radiação durante o tratamento. Em outras modalidades, o procedimento médico pode ser uma que requer que o paciente se mova (por exemplo, a respiração em um determinado padrão).
[00104] Em algumas modalidades, o método 400 pode ser realizado substancialmente em tempo real para permitir o monitoramento em tempo real do paciente, enquanto que um procedimento médico está sendo realizado no paciente (por exemplo, enquanto o sistema de radiação 10 libera a radiação ao paciente). Assim, as posições das respectivas regiões de interesse na imagem de entrada em tempo real podem ser determinadas substancialmente em tempo real, em algumas modalidades. Tal como utilizado na presente especificação, o termo "substancialmente tempo real" ou "tempo real" se refere a um item que ocorre rapidamente (por exemplo, dentro de 1 segundo, e de preferência dentro de 0,5 segundo, e mais preferencialmente dentro de 0,1 segundo) depois de um evento. Por exemplo, uma imagem de entrada em "tempo real" pode ser uma imagem que é obtida pela unidade de processamento 140 imediatamente após a imagem ser gerada. Como outro exemplo, uma posição que é determinada em "substancialmente tempo real" pode ser uma posição que é determinada imediatamente após uma imagem de entrada capturando a posição é gerada. Em outras modalidades, o método 400 pode não ser executado substancialmente em tempo real. Por exemplo, em outras modalidades, uma sequência de imagens de entrada pode ser gerada e registrada para posterior processamento pela unidade de processamento 140.
[00105] Deve notar-se que o sistema de monitoramento de paciente 100 é vantajoso porque permite o monitoramento de múltiplos pontos associados com o paciente simultaneamente. Em algumas modalidades, diferentes pontos podem ser monitorados com relação aos diferentes critérios de monitoramento. Por exemplo, pode haver um ponto de monitoramento no peito de um paciente, e um outro ponto de monitoramento no braço do paciente. Durante um procedimento de tratamento realizado pelo sistema 10, a unidade de processamento 140 pode controlar o ponto do "peito" para se certificar de que o paciente está respirando de acordo com um padrão desejado de respiração. Ao mesmo tempo, a unidade de processamento 140 também pode monitorar simultaneamente o ponto do "braço" para se certificar de que o braço do paciente permanece estacionário, ou não se move em excesso (isto é, além de um limite prescrito) durante o procedimento de tratamento. Assim, os diferentes critérios de monitoramento podem ser prescritos para monitorar os diferentes pontos associados com o paciente.
[00106] Além disso, em outras modalidades, pode-se permitir que uma parte do paciente se mova mais em relação a uma outra parte do paciente. Por exemplo, o movimento máximo permissível para um braço pode ser de 3 cm, enquanto que o movimento máximo permissível para uma perna pode ser de 5 cm. Durante o procedimento, o tratamento pode continuar quando o movimento da perna do paciente é de 4 cm. Isto é melhor do que ter um critério para todas as partes do corpo do paciente. Por exemplo, se houver apenas um critério (por exemplo, o movimento máximo = 3 cm) para todas as partes do corpo, no exemplo acima, o tratamento pode parar quando o movimento da perna do paciente é de 4 cm. No entanto, isso pode não ser desejável porque às vezes um movimento por uma determinada parte do corpo do paciente pode não impactar o tratamento. Assim, o monitoramento de múltiplos pontos associados com o corpo do paciente com relação a diferentes critérios de monitoramento é vantajoso.
[00107] Além disso, em outras modalidades, um paciente pode respirar normalmente usando o seu diafragma em um ciclo de respiração, mas pode estar respirando usando seu abdômen em outro ciclo de respiração. Em tais casos, se um ponto de monitoramento está no peito do paciente, e um outro ponto de monitoramento está no abdômen da paciente, em seguida, ambos os pontos de monitoramento podem ser monitorados para determinar simultaneamente as fases de respiração do paciente. Desta forma, quando o paciente está respirando usando o diafragma, o ponto de monitoramento no peito pode não variar muito em posição, e o ponto de monitoramento no peito pode ser usado para determinar as fases de respiração. Por outro lado, quando o paciente está respirando usando o abdômen, o ponto de monitoramento no peito pode não variar muito em posição, e o ponto de monitoramento no abdômen pode então ser utilizado para determinar as fases de respiração.
[00108] De acordo com outras modalidades, as posições determinadas podem ser analisadas pelo sistema de monitoramento de paciente 100 ao longo do tempo para ver quão estável os diversos pontos de monitoramento estão. Por exemplo, o sistema de monitoramento do paciente 100 pode incluir um módulo de monitoramento de posição de longo prazo que é configurado para receber determinadas posições ao longo do tempo. O módulo de monitoramento de posição de longo prazo pode então calcular uma posição representativa, utilizando as posições determinadas. Por meio de exemplos não limitativos, a posição pode ser representativa por uma posição média, uma posição mediana, uma posição média ponderada, etc. Um pequeno movimento do paciente pode ser perceptível ao comparar a posição do paciente com relação à posição representativa calculada.
[00109] Nos exemplos acima, os moldes e a imagem de entrada são descritos conforme sendo gerados utilizando a câmera 130. Em outras modalidades, os moldes e a imagem de entrada podem ser outros tipos de imagens. Por exemplo, em outras modalidades, os moldes podem ser gerados utilizando uma imagem de raios X, uma imagem de CT, uma imagem de CBCT, uma imagem de tomossíntese, uma imagem de PET, uma imagem de SPECT, uma imagem de MRI, uma imagem PET- CT, ou uma imagem SPECT-CT. Da mesma forma, a imagem de entrada pode ser uma imagem de raios X, uma imagem de CT, uma imagem de CBCT, uma imagem de tomossíntese, uma imagem de PET, uma imagem de SPECT, uma imagem de MRI, uma imagem de PET-CT, ou uma imagem de SPECT-CT. Em algumas modalidades, os moldes e a imagem de entrada podem ser o mesmo tipo de imagem (por exemplo, imagem da câmera). Em outras modalidades, os moldes e a imagem de entrada podem ser de diferentes tipos de imagem (por exemplo, os moldes podem ser gerados usando uma imagem CT, e a imagem de entrada pode ser uma imagem de raios X).
Modalidades com câmera de detecção de profundidade
[00110] Em algumas modalidades, o sistema de monitoramento de paciente 100 pode opcionalmente incluir uma câmera de detecção de profundidade. A Figura11A mostra um sistema de monitoramento de paciente 100 que tem uma câmera de detecção de profundidade 1100. O sistema de monitoramento do paciente 100 é o mesmo que o da Figura 2 ou Figura 3, na medida em que também tem a câmera 130 e a unidade de processamento 140, exceto que esta tem adicionalmente a câmera de detecção de profundidade 1100. A câmera de detecção de profundidade 1100 é configurada para detectar profundidades e para gerar sinais que representam as profundidades. Em algumas modalidades, a câmera de detecção de profundidade 1100 pode utilizar luz estruturada para medição de profundidade (por exemplo, uma câmera Kinect). Em outras modalidades, a câmera de detecção de profundidade 1100 pode usar o método de tempo de voo para medição de profundidade (por exemplo, Mesa SR4000, ou a nova câmera Microsoft Kinect2). Em outras modalidades, a câmera de detecção 1100 uma profundidade pode ser qualquer dispositivo que seja capaz de detecção de profundidade utilizando quaisquer técnicas conhecidas. Deve notar-se que o termo "câmera", tal como utilizado na presente especificação, pode ser qualquer dispositivo, e não deve ser limitado a um dispositivo que fornece sinais de "imagem". Por exemplo, em algumas modalidades, a câmera de detecção de profundidade pode ser configurada para fornecer sinais de profundidade, que podem ou não ser considerados sinais de imagem, independentemente do fato de que tais sinais de profundidade são apresentados na forma de imagem ou não. Um sinal de profundidade pode ser qualquer sinal, que indica uma profundidade ou distância, ou qualquer sinal a partir do qual uma profundidade ou distância pode ser derivada. Por meio de exemplos não limitativos, o sinal pode ser um sinal de infravermelhos, um sinal de ultrassom, etc. Em algumas modalidades, as dimensões da câmera de detecção de profundidade podem ser suficientemente pequenas para serem não intrusivas para o processo de tratamento quando montada durante a utilização. Por exemplo, em algumas modalidades, a câmera 1100 pode ter uma dimensão de 11 polegadas x 2,5 polegadas x 1,5 polegadas. Em outras modalidades, a câmera pode ter outras dimensões, tais como aqueles maiores ou menores do que o exemplo fornecido acima, contanto que a utilização de uma câmera 1100 não interfira com o procedimento médico.
[00111] Além disso, em algumas modalidades, a câmera de detecção de profundidade 1100 pode ser baseado em infravermelho, em cujos casos, a profundidade pode ser detectada pela câmera através de infravermelho. Em algumas modalidades, a referida câmera de detecção de profundidade 1100 pode ser configurada para emitir imagens de vídeo de infravermelho a partir da qual são formadas as imagens de profundidade. Em algumas modalidades, estas imagens de vídeo de infravermelho podem ter exatamente o mesmo campo de visão que as imagens de profundidade. Deste modo, as imagens de vídeo de infravermelho podem ser utilizadas juntamente com as imagens de profundidade.
[00112] Além disso, em algumas modalidades, a câmera de detecção de profundidade 1100 e a câmera óptica 130 podem ser integradas. Por exemplo, em algumas modalidades, a câmera pode incluir um emissor de infravermelho, um detector de cor, um detector de profundidade e infravermelho. O detector de profundidade de infravermelho é configurado para detectar a profundidade com base em sinais de infravermelho emitidos pelo emissor de infravermelho. O detector de cor é configurado para detectar imagem visível.
[00113] Durante o uso, a câmera de detecção de profundidade 1100 pode ser utilizada para segmentar uma superfície paciente para a colocação de pontos, de modo que uma pluralidade de moldes possa ser criada com base nos pontos, como discutido de forma semelhante. Em algumas modalidades, os valores de profundidade obtidos a partir da câmera de detecção de profundidade 1100 podem ser limitados de tal modo que pixels com profundidades correspondentes a pontos dentro de uma caixa virtual envolvendo o paciente criam candidatos de regiões de interesse. Em seguida, por meio de análise característica, estas regiões podem ser triadas de modo que aquelas associadas com o paciente são mantidas, e outras podem ser ignoradas. Dentro desta região de interesse, uma grade de pontos pode ser configurada para monitoramento de posição do paciente.
[00114] A câmera óptica 130 pode ser posicionada em relação à câmera de detecção de profundidade 1100 de modo que esta tenha aproximadamente o mesmo campo de visão que a câmera de detecção de profundidade 1100. Em seguida, a câmera óptica 130 pode ser utilizada para monitoramento de posição. Em algumas modalidades, a grade de pontos estabelecida na imagem profundidade pode ser transferida (por exemplo, com base em uma transformação usando a distância relativa e orientação entre a câmera óptica 130 e a câmera de detecção de profundidade 1100) para as coordenadas de pixel de imagem da câmera óptica. Em seguida, moldes de referência, uma centralizada em cada ponto de grade na imagem óptica, podem ser capturadas e salvas em um meio não transitório. Durante o monitoramento da posição do paciente, a posição de cada ponto de grade é rastreada nos quadros da câmera de vídeo subsequentes, combinando cada modelo de referência a uma região de busca local centralizada no ponto de grade correspondente.
[00115] Em algumas modalidades, a posição determinada para um ponto da grade pode ser comparada a uma posição de referência do mesmo ponto de grade para determinar um vetor de deslocamento.
[00116] Em algumas modalidades, o vetor de deslocamento do domínio de pixel pode ser convertido de forma mais precisa a partir do domínio de pixel (ou seja, as coordenadas da imagem de entrada) para uma das coordenadas associadas com o paciente projetando de volta o vetor de deslocamento para o ponto de referência em 3D real do paciente (isto é, o ponto na superfície 3D gerado a partir da imagem de profundidade).
[00117] Além disso, como discutido de forma semelhante, em algumas modalidades, a posição determinada pode ser utilizada pela unidade de processamento 140 para determinar se uma determinada parte do paciente se moveu, para monitorar um padrão de respiração o paciente, para determinar se gerar um sinal para parar uma operação do sistema de radiação 10, para confinar um funcionamento do sistema de radiação 10, etc.
[00118] Durante um procedimento médico (tratamento e/ou imagiologia), imagens de entrada óptica em tempo real e imagens de profundidade em tempo real são fornecidas pelas câmeras, e são transmitidas para a unidade de processamento 140. Conforme o processo continua, a unidade de processamento 140 processa as imagens em diferentes tempos para monitorar continuamente as posições do paciente.
[00119] Em algumas modalidades, o sistema de monitoramento de paciente 100 pode incluir várias câmeras Kinect para obter um modelo de superfície mais completa do paciente (por exemplo, mais completa do que a configuração em que uma câmera é montada na base do suporte do paciente, com um ângulo voltado para baixo de aproximadamente 30 graus, o que produz um modelo de superfície 3D parcial, com áreas não modeladas ao redor do pescoço e tronco superior). Um modelo de superfície completo com as imagens ópticas correspondentes permitirá uma imagem visível de referência 3D da superfície do paciente a ser determinada. Esta por sua vez pode ser utilizada para gerar moldes que correspondam a qualquer ângulo de visão da câmera arbitrária durante o monitoramento. Esses moldes podem então ser usados para a monitoramento por câmeras somente ópticas colocadas em várias posições em relação ao paciente. Por exemplo, duas câmeras Kinect (ou uma câmera Kinect utilizada sequencialmente em diferentes posições para gerar dados a partir de diferentes direções) podem ser usadas para gerar a imagem visível de referência 3D completa. Depois que a imagem visível de referência 3D completa é obtida, em seguida, várias câmeras somente ópticas para monitoramento de pacientes podem ser usadas. Quando uma câmera óptica é bloqueada por uma parte da máquina, uma ou mais outras câmeras ópticas podem ainda monitorar a posição do paciente.
[00120] Em algumas modalidades, a fim segmentar pontos de segmento que estão acima de certa altura acima do suporte do paciente 14, a altura da câmera e orientação em relação ao suporte do paciente 14 podem ser calibradas. Figura 11 B ilustra uma técnica para calibrar a câmera, de acordo com algumas modalidades. Tal como mostrado pelo diagrama e equações na figura, o valor da profundidade para as linhas da câmera pode ser utilizado para estimar a altura da câmera acima do suporte do paciente 14, e o ângulo para baixo de uma linha de referência dos pixels da imagem de profundidade. Com esta informação, uma tabela de valores de limiar pode ser criada que pode ser usada para identificar os pontos na superfície paciente cuja altura em relação ao suporte do paciente 14 excede determinado valor, δh. Os parâmetros estimados de calibração da câmera podem ser salvos em um meio não transitório para cada montagem da câmera, e podem ser reutilizados para gerar os parâmetros de transformação que convertem o deslocamento do domínio do pixel ao espaço físico em vários pontos relativos ao suporte ao paciente 14.
[00121] Em uma ou mais modalidades, a profundidade de imagem e a imagem óptica podem ser sobrepostas/sobrepostas para se obter uma imagem compósita que mostra ambas a imagem visível e a de profundidade. Alternativamente, a imagem de profundidade e a imagem óptica podem ser colocados lado-a-lado para mostrar ambas as imagens.
[00122] Nas modalidades acima, o sistema de monitoramento de paciente 100 é descrito como tendo uma câmera 130. Em outras modalidades, o sistema de monitoramento de paciente 100 pode incluir várias câmeras 130 para proporcionar uma melhor cobertura do paciente.
[00123] Em outras modalidades, em vez de usar a câmera de detecção de profundidade, o sistema de monitoramento do paciente 100 pode incluir múltiplas câmeras ópticas separadas em uma distância para obter a informação da profundidade utilizando uma imagiologia estéreo. Em uma implementação, as imagens ópticas a partir das diferentes câmeras ópticas podem ser obtidas pela unidade de processamento 140, que, em seguida, calcula a distância a um objeto a ser fotografado usando as imagens com base em triangulação.
Sistema de processamento especializado
[00124] A Figura 12 é um diagrama de blocos que ilustra uma modalidade de um sistema de processamento especializado 1600 que pode ser utilizado para implementar várias modalidades descritas aqui. Por exemplo, o sistema de processamento 1600 pode ser configurado para implementar o método da Figura 4 e/ou o método da Figura 5, de acordo com algumas modalidades. Além disso, em algumas modalidades, o sistema de processamento 1600 pode ser utilizado para implementar a unidade de processamento 140 da Figura 2 e/ou a unidade de processamento 54 da Figura 1. Sistema de Processamento 1600 inclui um barramento 1602 ou outro mecanismo de comunicação para comunicar informações, e um processador 1604 acoplado com o barramento 1602 para processamento de informação. O processador 1604 pode ser um exemplo do processador 54 da Figura 1, um exemplo da unidade de processamento 140 da Figura 2, ou um exemplo de qualquer unidade de processamento aqui descrita. O sistema de processamento 1600 também inclui uma memória principal 1606, tal como uma memória de acesso aleatório (RAM) ou outro dispositivo de armazenamento dinâmico, acoplado ao barramento 1602 para armazenar informações e instruções para serem executadas pelo processador 1604. A memória principal 1606 também pode ser usada para armazenar variáveis temporárias ou outras informações intermediárias durante a execução de instruções a serem executadas pelo processador 1604. O sistema de processamento 1600 inclui ainda uma memória apenas de leitura (ROM) 1608 ou outro dispositivo de armazenamento estático acoplado ao barramento 1602 para armazenar informações estáticas e instruções para o processador 1604. Um dispositivo de armazenamento de dados 1610, tal como um disco magnético ou um disco óptico, é fornecido e acoplado ao barramento 1602 para armazenar informações e instruções.
[00125] O sistema de processamento 1600 pode ser acoplado através do barramento 1602 para um visor 167, tal como um tubo de raios catódicos (CRT), para exibir informações a um usuário. Um dispositivo de entrada 1614, incluindo alfanumérico e outras teclas, é acoplado ao barramento 1602 para a comunicação de informação e comando de seleções ao processador 1604. Outro tipo de dispositivo de entrada do usuário é o controle de cursor 1616, como um mouse, um trackball ou as teclas de direção do cursor para comunicar a informação de direção e seleções de comandos ao processador 1604 e para controlar o movimento do cursor no visor 167. Este dispositivo de entrada tipicamente tem dois graus de liberdade em dois eixos, um primeiro eixo (por exemplo, x) e um segundo eixo (por exemplo, y), que permite que o dispositivo especifique as posições em um plano.
[00126] Em algumas modalidades, o sistema de processamento 1600 pode ser utilizado para efetuar várias funções aqui descritas. De acordo com algumas modalidades, tal utilização é fornecida pelo sistema de processamento 1600 em resposta ao processador 1604 realizando uma ou mais sequências de uma ou mais instruções contidas na memória principal 1606. Os especialistas na técnica saberão como preparar tais instruções baseadas nas funções e métodos aqui descritos. Tais instruções podem ser lidas na memória principal 1606 a partir de outro meio legível por computador, tal como o dispositivo de armazenamento 1610. A execução das sequências de instruções contidas na memória principal 1606 faz com que o processador 1604 realize as etapas de processo aqui descritas. Um ou mais processadores em uma disposição de multiprocessamento podem também ser empregados para realizar as sequências de instruções contidas na memória principal 1606. Em modalidades alternativas, circuitos de hard-wired podem ser utilizados em lugar de ou em combinação com instruções de software para implementar as várias modalidades aqui descritas. Assim, modalidades não estão limitadas a qualquer combinação específica de circuitos de hardware e de software.
[00127] O termo "meio legível por computador", como aqui utilizado refere-se a qualquer meio que participe no fornecimento de instruções ao processador 1604 para execução. Tal meio pode assumir muitas formas, incluindo, mas não limitadas aos meios não voláteis, meios voláteis, e meios de transmissão. Meios não voláteis incluem, por exemplo, discos ópticos ou magnéticos, tais como o dispositivo de armazenamento 1610. Um meio não volátil pode ser considerado um exemplo de meio não transitório. Meios voláteis incluem a memória dinâmica, tal como a memória 1606. Um meio volátil principal pode ser considerado um exemplo de meio não transitório. Meios de transmissão incluem cabos coaxiais, fios de cobre e fibra óptica, incluindo os fios que compõem o barramento 1602. Meios de transmissão também podem assumir a forma de ondas acústicas ou leves, tais como aquelas geradas durante ondas de rádio e comunicações de dados infravermelhos.
[00128] As formas mais comuns de meios legíveis por computador incluem, por exemplo, um disquete, um disco flexível, disco rígido, fita magnética, ou qualquer outra forma magnética, um CD-ROM, qualquer outro meio óptico, cartões perfurados, fita de papel, qualquer outro meio físico com padrões de furos, uma RAM, uma PROM, EPROM, uma FLASH-EPROM, qualquer outro chip de memória ou cartucho, uma onda carreadora, tal como descrito a seguir, ou qualquer outro meio a partir do qual um computador pode ler.
[00129] Várias formas de meios legíveis por computador podem estar envolvidas na realização de uma ou mais sequências de uma ou mais instruções para o processador 1604 para execução. Por exemplo, as instruções podem inicialmente ser transportadas em um disco magnético de um computador remoto. O computador remoto pode carregar as instruções para a memória dinâmica e enviar as instruções através de uma linha telefônica usando um modem. Um modem local para o sistema de processamento 1600 pode receber os dados na linha telefônica e usar um transmissor de infravermelho para converter os dados em um sinal de infravermelho. Um detector de infravermelho acoplado ao barramento 1602 pode receber os dados transportados no sinal infravermelho e colocar os dados no barramento 1602. O barramento 1602 transporta os dados para a memória principal 1606, da qual o processador 1604 recupera e executa as instruções. As instruções recebidas pela memória principal 1606 podem, opcionalmente, ser armazenadas no dispositivo de armazenamento 1610 antes ou após a execução pelo processador 1604.
[00130] O sistema de processamento 1600 também inclui uma interface de comunicação 1618 acoplada ao barramento 1602. A interface de comunicação 1618 fornece um acoplamento de comunicação de dados de duas vias a uma ligação de rede 1620 que está ligada a uma rede local 1622. Por exemplo, a interface de comunicação 1618 pode ser um cartão de rede digital de serviços integrados (ISDN) ou um modem para fornecer uma conexão de comunicação de dados para um tipo correspondente de linha telefônica. Como outro exemplo, a interface de comunicação 1618 pode ser um cartão de rede de área local (LAN), para proporcionar uma ligação de comunicação de dados a uma rede LAN compatível. Ligações sem fios podem ser implementadas. Em qualquer aplicação, a interface de comunicação 1618 envia e recebe sinais eléctricos, eletromagnéticos ou ópticos que transportam correntes de dados representando vários tipos de informações.
[00131] A ligação de rede 1620 normalmente fornece comunicação de dados através de uma ou mais redes para outros dispositivos. Por exemplo, a ligação de rede 1620 pode proporcionar uma conexão através de rede local 1622 a um computador hospedeiro 1624 ou para equipamentos 1626 tal como uma fonte de feixe de radiação ou um interruptor acoplado funcionalmente a uma fonte do feixe de radiação. Os fluxos de dados transportados através da ligação de rede 1620 podem compreender sinais elétricos, eletromagnéticos ou ópticos. Os sinais através das várias redes e os sinais na ligação de rede 1620 e através da interface de comunicação 1618, que transportam os dados de e para o sistema de processamento 1600, são formas exemplifi- cativas de ondas transportadoras que transportam as informações. O sistema de processamento 1600 pode enviar mensagens e receber dados, incluindo o código do programa, através das redes, a ligação de rede 1620, e a interface de comunicação 1618.
[00132] Embora modalidades particulares tenham sido mostradas e descritas, deverá ser entendido que não se pretende limitar as invenções reivindicadas às modalidades preferidas, e será óbvio para os especialistas na técnica que várias alterações e modificações podem ser feitas sem se afastar do espírito e escopo das invenções reivindicadas. O relatório descritivo e os desenhos, por conseguinte, devem ser considerados em um exemplo ilustrativo em vez de sentido restritivo. As invenções reivindicadas pretendem cobrir alternativas, modificações e equivalentes.

Claims (21)

1. Aparelho para monitorar um paciente (20), caracterizado pelo fato de que compreende: uma unidade de processamento (140) configurada para: obter uma imagem de entrada (900) tendo uma pluralidade de regiões de interesse (902); e determinar uma pluralidade de posições para a respectiva pluralidade de regiões de interesse (902); em que a unidade de processamento (140) é configurada para determinar uma pluralidade de posições por: acessar uma pluralidade de moldes (610), em que os moldes indicam as respectivas características fora do paciente (20) que são diferentes umas das outras; comparar a pluralidade de moldes (610) com respectivas áreas na imagem de entrada (900) utilizando um comparador na unidade de processamento (140); e determinar a pluralidade de posições com base, pelo menos em parte, em um resultado do ato de comparar; em que a unidade de processamento (140) também está configurada para monitorar, durante um procedimento médico, diferentes partes do paciente (20) que correspondem respectivamente às regiões de interesse (902) na imagem de entrada com base na pluralidade de posições determinada.
2. Aparelho, de acordo com a reivindicação 1, caracterizado pelo fato de que a unidade de processamento (140) é configurada para realizar o ato de comparar por realizar a combinação de moldes utilizando a imagem de entrada (900) e uma pluralidade de moldes (610) para as respectivas regiões de interesse (902).
3. Aparelho, de acordo com reivindicação 1, caracterizado pelo fato de que a unidade de processamento (140) é configurada para realizar o ato de comparar através da realização de uma pluralidade de correlações cruzadas entre as áreas na imagem de entrada (900) e a pluralidade de moldes (610).
4. Aparelho, de acordo com a reivindicação 1, caracterizado pelo fato de que a unidade de processamento (140) é configurada adicionalmente para criar a pluralidade de moldes (610), e em que o aparelho compreende ainda um meio não transitório para armazenar os moldes (610).
5. Aparelho, de acordo com a reivindicação 4, caracterizado pelo fato de que a unidade de processamento (140) é configurada para realizar o ato de criar a pluralidade de moldes (610) por: obter uma imagem de referência (604); determinar uma pluralidade de pontos (602) na imagem de referência (604); e gerar a pluralidade de moldes (610) usando pixels na imagem de referência (604), de tal modo que os moldes (610) têm respectivas coordenadas que correspondem com as posições respectivas dos pontos (602) determinados na imagem de referência (604).
6. Aparelho, de acordo com a reivindicação 5, caracterizado pelo fato de que a unidade de processamento (140) é configurada para realizar o ato de determinar a pluralidade de pontos na imagem de referência (604) por: determinar um plano (700, 1000) acima de um suporte ao paciente (14) suportando o paciente (20); determinar pontos no plano (700, 1000) depois do plano ser determinado; e transferir os pontos no plano (700, 1000) a um domínio de pixel da imagem de referência (604).
7. Aparelho, de acordo com a reivindicação 5, caracterizado pelo fato de que a unidade de processamento (140) é configurada para realizar o ato de determinar a pluralidade de pontos na imagem de referência (604) por: obter uma imagem de profundidade; processar a imagem de profundidade para determinar uma pluralidade de pontos na imagem de profundidade; e transferir a pluralidade de pontos na imagem de profundidade a um domínio de pixel da imagem de referência (604).
8. Aparelho, de acordo com a reivindicação 7, caracterizado pelo fato de que a unidade de processamento (140) é configurada para realizar o ato de processamento da imagem de profundidade por limitar valores de profundidade na imagem de profundidade de modo que pixels com profundidades correspondentes aos pontos dentro de uma caixa virtual ao redor do paciente (20) estão incluídos como candidatos para a pluralidade de pontos na imagem de profundidade.
9. Aparelho, de acordo com a reivindicação 5, caracterizado pelo fato de que a unidade de processamento (140) é configurada para realizar o ato de determinar a pluralidade de pontos na imagem de referência (604) por: obter várias imagens de profundidade de diferentes direções; processar as imagens de profundidade para determinar um modelo de superfície tridimensional; determinar uma pluralidade de pontos a partir do modelo de superfície tridimensional; e transferir a pluralidade de pontos a partir do modelo de superfície tridimensional a um domínio de pixel da imagem de referência (604).
10. Aparelho, de acordo com a reivindicação 1, caracterizado pelo fato de que a unidade de processamento (140) é configurada adicionalmente para determinar um vetor de deslocamento utilizando uma das posições determinadas.
11. Aparelho, de acordo com a reivindicação 10, caracterizado pelo fato de que a unidade de processamento (140) é configurada adicionalmente para projetar de volta o vetor de deslocamento a um plano (700, 1000) acima de um suporte do paciente (14) suportando o paciente (20).
12. Aparelho, de acordo com a reivindicação 11, caracterizado pelo fato de que a unidade de processamento (140) está ainda configurada para determinar um deslocamento vertical (1004) e um deslocamento lateral (1006) com base no deslocamento do vetor projetado (1002) de volta.
13. Aparelho, de acordo com a reivindicação 1, caracterizado pelo fato de que a imagem de entrada (900) compreende uma imagem da câmera (130).
14. Aparelho, de acordo com a reivindicação 1, caracterizado pelo fato de que a pluralidade de moldes (610) de imagem é gerado usando uma imagem de raios X, uma imagem de CT, uma imagem de CBCT, uma imagem de tomossíntese, uma imagem de PET, uma imagem de SPECT, uma imagem de MRI, uma imagem de PET- CT, ou uma imagem de SPECT-CT.
15. Aparelho, de acordo com a reivindicação 1, caracterizado pelo fato de que a unidade de processamento (140) é configurada para determinar as posições substancialmente em tempo real, para permitir o controle em tempo real do paciente (20).
16. Aparelho, de acordo com a reivindicação 1, caracterizado pelo fato de que a unidade de processamento (140) está ainda configurada para gerar um sinal em resposta a pelo menos uma das posições determinadas se desviando de uma posição de referência.
17. Aparelho, de acordo com a reivindicação 1, caracterizado pelo fato de que compreende ainda uma tela para a exibição de gráficos que representam as posições determinadas.
18. Aparelho, de acordo com a reivindicação 1, caracterizado pelo fato de que a unidade de processamento (140) é uma parte de, ou um acessório para, um sistema de liberação de radiação.
19. Aparelho, de acordo com a reivindicação 17, caracterizado pelo fato de que o sistema de liberação de radiação compreende um sistema de liberação de radiação de tratamento.
20. Aparelho, de acordo com a reivindicação 17, caracterizado pelo fato de que o sistema de liberação de radiação compreende um sistema de liberação de radiação de imagiologia.
21. Aparelho, de acordo com a reivindicação 1, caracterizado pelo fato de que compreende ainda uma primeira câmera óptica e uma segunda câmera óptica acoplada de modo comunicativo à unidade de processamento (140).
BR112016019924-3A 2014-03-03 2015-03-03 Aparelho para monitorar um paciente BR112016019924B1 (pt)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US201461947402P 2014-03-03 2014-03-03
US61/947,402 2014-03-03
PCT/US2015/018520 WO2015134521A1 (en) 2014-03-03 2015-03-03 Systems and methods for patient position monitoring

Publications (2)

Publication Number Publication Date
BR112016019924A2 BR112016019924A2 (pt) 2017-08-15
BR112016019924B1 true BR112016019924B1 (pt) 2023-01-31

Family

ID=54055802

Family Applications (1)

Application Number Title Priority Date Filing Date
BR112016019924-3A BR112016019924B1 (pt) 2014-03-03 2015-03-03 Aparelho para monitorar um paciente

Country Status (5)

Country Link
US (1) US10737118B2 (pt)
EP (1) EP3113681B1 (pt)
CN (1) CN106061376B (pt)
BR (1) BR112016019924B1 (pt)
WO (1) WO2015134521A1 (pt)

Families Citing this family (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8017915B2 (en) 2008-03-14 2011-09-13 Reflexion Medical, Inc. Method and apparatus for emission guided radiation therapy
EP3072554A4 (en) * 2013-11-21 2017-07-19 Mitsubishi Electric Corporation Particle therapy device
US10489661B1 (en) 2016-03-08 2019-11-26 Ocuvera LLC Medical environment monitoring system
US20170281976A1 (en) * 2016-04-01 2017-10-05 Varian Medical Systems International Ag Systems and methods for detecting and/or measuring motion and position associated with a patient
EP3988017A1 (en) 2016-11-15 2022-04-27 RefleXion Medical, Inc. System for emission-guided high-energy photon delivery
CN110248604B (zh) 2016-11-15 2023-07-21 反射医疗公司 放射治疗患者平台
US10600204B1 (en) 2016-12-28 2020-03-24 Ocuvera Medical environment bedsore detection and prevention system
WO2018161123A1 (en) * 2017-03-09 2018-09-13 The University Of Sydney Guided radiation therapy
WO2018183748A1 (en) 2017-03-30 2018-10-04 Reflexion Medical, Inc. Radiation therapy systems and methods with tumor tracking
US11273326B2 (en) * 2017-06-29 2022-03-15 Canon Medical Systems Corporation Radiotherapy system and treatment support apparatus
CN111050849B (zh) 2017-07-11 2022-04-08 反射医疗公司 用于pet检测器余辉管理的方法
CN117085263A (zh) 2017-08-09 2023-11-21 反射医疗公司 用于发射引导放射治疗中的故障检测的系统和方法
CN109745060B (zh) * 2017-11-06 2023-03-28 上海西门子医疗器械有限公司 X-射线成像的自动曝光控制方法、存储介质和医疗设备
US11369806B2 (en) * 2017-11-14 2022-06-28 Reflexion Medical, Inc. Systems and methods for patient monitoring for radiotherapy
JP7090889B2 (ja) * 2018-05-31 2022-06-27 キング通信工業株式会社 見守り装置
WO2020150505A1 (en) * 2019-01-16 2020-07-23 Reflexion Medical, Inc. Methods for setup corrections in radiation therapy
WO2021011207A1 (en) 2019-07-12 2021-01-21 Reflexion Medical, Inc. Multi-target treatment planning and delivery and virtual localization for radiation therapy
GB2585887B (en) * 2019-07-19 2021-11-03 Elekta ltd Collision avoidance in radiotherapy
US11288841B2 (en) * 2019-10-17 2022-03-29 Shanghai United Imaging Intelligence Co., Ltd. Systems and methods for patient positioning
CN110807483B (zh) * 2019-10-30 2022-08-16 易思维(杭州)科技有限公司 基于fpga的模板匹配实现装置及方法
US12113951B2 (en) * 2021-10-08 2024-10-08 Google Llc High-resolution pseudo-random dots projector module for depth sensing

Family Cites Families (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0599345B1 (en) * 1992-11-27 2002-06-05 Fuji Photo Film Co., Ltd. Method for adjusting positions of radiation images
US7158610B2 (en) * 2003-09-05 2007-01-02 Varian Medical Systems Technologies, Inc. Systems and methods for processing x-ray images
CA2347944A1 (en) * 1998-10-23 2000-05-04 Varian Medical Systems, Inc. Method and system for physiological gating of radiation therapy
US6621889B1 (en) * 1998-10-23 2003-09-16 Varian Medical Systems, Inc. Method and system for predictive physiological gating of radiation therapy
US7133537B1 (en) * 1999-05-28 2006-11-07 It Brokerage Services Pty Limited Method and apparatus for tracking a moving object
US7236622B2 (en) * 1999-08-25 2007-06-26 Eastman Kodak Company Method for forming a depth image
EP2311527B1 (en) * 2000-02-18 2019-08-28 William Beaumont Hospital Cone-beam computerized tomography with a flat-panel imager
US6782287B2 (en) * 2000-06-27 2004-08-24 The Board Of Trustees Of The Leland Stanford Junior University Method and apparatus for tracking a medical instrument based on image registration
JP2002119502A (ja) * 2000-10-17 2002-04-23 Toshiba Corp 医用装置
CA2334495A1 (en) * 2001-02-06 2002-08-06 Surgical Navigation Specialists, Inc. Computer-aided positioning method and system
US20030086596A1 (en) * 2001-11-07 2003-05-08 Medical Metrics, Inc. Method, computer software, and system for tracking, stabilizing, and reporting motion between vertebrae
JP4426297B2 (ja) * 2001-11-30 2010-03-03 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ ノイズの多い画像中の構造を強調する医用ビューイングシステム及び方法
GB2390792B (en) * 2002-07-08 2005-08-31 Vision Rt Ltd Image processing system for use with a patient positioning device
US20040218792A1 (en) * 2003-04-29 2004-11-04 Eastman Kodak Company Probe position measurement to facilitate image registration and image manipulation in a medical application
US20050031176A1 (en) * 2003-08-08 2005-02-10 Hertel Sarah R. Method and apparatus of multi-modality image fusion
US8571639B2 (en) * 2003-09-05 2013-10-29 Varian Medical Systems, Inc. Systems and methods for gating medical procedures
TWI355615B (en) * 2007-05-11 2012-01-01 Ind Tech Res Inst Moving object detection apparatus and method by us
EP2170206B1 (en) * 2007-07-13 2018-03-07 C-rad Positioning Ab Patient monitoring at radiation machines
DE102007059602A1 (de) * 2007-12-11 2009-06-18 Siemens Ag Bewegungskorrektur von tomographischen medizinischen Bilddaten eines Patienten
US20100061596A1 (en) * 2008-09-05 2010-03-11 Varian Medical Systems Technologies, Inc. Video-Based Breathing Monitoring Without Fiducial Tracking
US8358696B2 (en) * 2008-12-31 2013-01-22 Intel Corporation Motion estimation techniques
JP6351017B2 (ja) * 2014-02-24 2018-07-04 国立研究開発法人量子科学技術研究開発機構 放射線治療用動体追跡装置、放射線治療用照射領域決定装置および放射線治療装置

Also Published As

Publication number Publication date
BR112016019924A2 (pt) 2017-08-15
US20170014648A1 (en) 2017-01-19
EP3113681B1 (en) 2020-02-26
CN106061376B (zh) 2020-07-28
CN106061376A (zh) 2016-10-26
EP3113681A1 (en) 2017-01-11
US10737118B2 (en) 2020-08-11
WO2015134521A1 (en) 2015-09-11
EP3113681A4 (en) 2017-11-29

Similar Documents

Publication Publication Date Title
BR112016019924B1 (pt) Aparelho para monitorar um paciente
US20190105514A1 (en) Optical system for radiation treatment
JP5323058B2 (ja) マーカーシステムおよびその使用方法
US10172574B2 (en) Interventional X-ray system with automatic iso-centering
US9886534B2 (en) System and method for collision avoidance in medical systems
EP2887876B1 (en) Patient-specific and automatic x-ray system adjustment based on optical 3d scene detection and interpretation
JP6964309B2 (ja) 放射線治療用追跡装置
JP5801717B2 (ja) 軌道推定および標的位置監視のための連続立体撮像方法及びシステム、コンピュータ製品
JP2002177406A (ja) 放射線照射システム及びその照射ターゲット動きモニタ方法並びに照射ターゲット定位化方法
US10742956B2 (en) System and method for determining position and orientation of depth cameras
KR20150112830A (ko) 환자를 위치결정하기 위한 위치결정 유닛, 영상 획득 장치, 및 위치결정 보조물을 광학적으로 생성하기 위한 방법
US10074199B2 (en) Systems and methods for tissue mapping
KR20140148247A (ko) 모바일 x 선 장치의 x 선 튜브와 디텍터를 정렬하기 위한 정보 제공 방법 및 정보 제공 장치, 및 무선 디텍터
JP6895757B2 (ja) 放射線治療システム及び患者位置確認システム
KR102476832B1 (ko) 증강현실 의료영상을 제공하기 위한 사용자 단말기 및 증강현실 의료영상 제공 방법
US20170281976A1 (en) Systems and methods for detecting and/or measuring motion and position associated with a patient
EP4298994A1 (en) Methods, systems and computer readable mediums for evaluating and displaying a breathing motion
US20190236804A1 (en) Patient-mounted or patient support-mounted camera for position monitoring during medical procedures
JP2011072457A (ja) 放射線治療システム
KR102469141B1 (ko) 의료용 화상 처리 장치, 의료용 화상 처리 방법, 및 프로그램
Hoisak et al. A history of surface guidance methods in radiation therapy
KR101342186B1 (ko) 다각도 x선 촬영 영상 데이터를 이용한 움직이는 타겟의 3차원 궤적 추정방법 및, 그 장치
CN111615413B (zh) 摆位方法、装置及放射治疗系统

Legal Events

Date Code Title Description
B06U Preliminary requirement: requests with searches performed by other patent offices: procedure suspended [chapter 6.21 patent gazette]
B350 Update of information on the portal [chapter 15.35 patent gazette]
B350 Update of information on the portal [chapter 15.35 patent gazette]
B06A Patent application procedure suspended [chapter 6.1 patent gazette]
B09A Decision: intention to grant [chapter 9.1 patent gazette]
B16A Patent or certificate of addition of invention granted [chapter 16.1 patent gazette]

Free format text: PRAZO DE VALIDADE: 20 (VINTE) ANOS CONTADOS A PARTIR DE 03/03/2015, OBSERVADAS AS CONDICOES LEGAIS