BR112015020425B1 - Sistema de imageamento por ultrassom inspecionar um objeto em um volume e método para fornecer uma imagem de ultrassom de um objeto em um volume - Google Patents

Sistema de imageamento por ultrassom inspecionar um objeto em um volume e método para fornecer uma imagem de ultrassom de um objeto em um volume Download PDF

Info

Publication number
BR112015020425B1
BR112015020425B1 BR112015020425-2A BR112015020425A BR112015020425B1 BR 112015020425 B1 BR112015020425 B1 BR 112015020425B1 BR 112015020425 A BR112015020425 A BR 112015020425A BR 112015020425 B1 BR112015020425 B1 BR 112015020425B1
Authority
BR
Brazil
Prior art keywords
ultrasound
dimensional
image
images
imaging system
Prior art date
Application number
BR112015020425-2A
Other languages
English (en)
Other versions
BR112015020425A2 (pt
Inventor
Cecile Dufour
Raphael Manua Michel Prevost
Benoit Jean-Dominique Bertrand Maurice Mory
Roberto José Ardon
Original Assignee
Koninklijke Philips N.V.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Koninklijke Philips N.V. filed Critical Koninklijke Philips N.V.
Publication of BR112015020425A2 publication Critical patent/BR112015020425A2/pt
Publication of BR112015020425B1 publication Critical patent/BR112015020425B1/pt

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/08Detecting organic movements or changes, e.g. tumours, cysts, swellings
    • A61B8/0833Detecting organic movements or changes, e.g. tumours, cysts, swellings involving detecting or locating foreign bodies or organic structures
    • A61B8/085Detecting organic movements or changes, e.g. tumours, cysts, swellings involving detecting or locating foreign bodies or organic structures for locating body or organic structures, e.g. tumours, calculi, blood vessels, nodules
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/52Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/5215Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of medical diagnostic data
    • A61B8/523Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of medical diagnostic data for generating planar views from image data in a user selectable plane not corresponding to the acquisition plane
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/13Tomography
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/42Details of probe positioning or probe attachment to the patient
    • A61B8/4245Details of probe positioning or probe attachment to the patient involving determining the position of the probe, e.g. with respect to an external reference frame or to the patient
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/42Details of probe positioning or probe attachment to the patient
    • A61B8/4245Details of probe positioning or probe attachment to the patient involving determining the position of the probe, e.g. with respect to an external reference frame or to the patient
    • A61B8/4254Details of probe positioning or probe attachment to the patient involving determining the position of the probe, e.g. with respect to an external reference frame or to the patient using sensors mounted on the probe
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/42Details of probe positioning or probe attachment to the patient
    • A61B8/4245Details of probe positioning or probe attachment to the patient involving determining the position of the probe, e.g. with respect to an external reference frame or to the patient
    • A61B8/4263Details of probe positioning or probe attachment to the patient involving determining the position of the probe, e.g. with respect to an external reference frame or to the patient using sensors not mounted on the probe, e.g. mounted on an external reference frame
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/46Ultrasonic, sonic or infrasonic diagnostic devices with special arrangements for interfacing with the operator or the patient
    • A61B8/461Displaying means of special interest
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/46Ultrasonic, sonic or infrasonic diagnostic devices with special arrangements for interfacing with the operator or the patient
    • A61B8/467Ultrasonic, sonic or infrasonic diagnostic devices with special arrangements for interfacing with the operator or the patient characterised by special input means
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/48Diagnostic techniques
    • A61B8/483Diagnostic techniques involving the acquisition of a 3D volume of data
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/52Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/5207Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of raw data to produce diagnostic data, e.g. for generating an image
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/52Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/5215Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of medical diagnostic data
    • A61B8/5238Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of medical diagnostic data for combining image data of patient, e.g. merging several images from different acquisition modes into one image
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/52Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/5215Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of medical diagnostic data
    • A61B8/5238Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of medical diagnostic data for combining image data of patient, e.g. merging several images from different acquisition modes into one image
    • A61B8/5261Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of medical diagnostic data for combining image data of patient, e.g. merging several images from different acquisition modes into one image combining images from different diagnostic modalities, e.g. ultrasound and X-ray
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/58Testing, adjusting or calibrating the diagnostic device
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/149Segmentation; Edge detection involving deformable models, e.g. active contour models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/52Devices using data or image processing specially adapted for radiation diagnosis
    • A61B6/5211Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data
    • A61B6/5229Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data combining image data of a patient, e.g. combining a functional image with an anatomical image
    • A61B6/5247Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data combining image data of a patient, e.g. combining a functional image with an anatomical image combining images from an ionising-radiation diagnostic technique and a non-ionising radiation diagnostic technique, e.g. X-ray and ultrasound
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/52Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/5215Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of medical diagnostic data
    • A61B8/5223Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of medical diagnostic data for extracting a diagnostic or physiological parameter from medical diagnostic data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10132Ultrasound image
    • G06T2207/101363D ultrasound image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30048Heart; Cardiac

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Medical Informatics (AREA)
  • Animal Behavior & Ethology (AREA)
  • Radiology & Medical Imaging (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Biophysics (AREA)
  • Molecular Biology (AREA)
  • Surgery (AREA)
  • Pathology (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Vascular Medicine (AREA)
  • Software Systems (AREA)
  • Ultra Sonic Daignosis Equipment (AREA)

Abstract

SISTEMA DE IMAGEAMENTO POR ULTRASSOM INSPECIONAR UM OBJETO EM UM VOLUME, MÉTODO PARA FORNECER UMA IMAGEM DE ULTRASSOM DE UM OBJETO EM UM VOLUME, E, PROGRAMA DE COMPUTADOR A presente invenção refere-se a um sistema de imageamento por ultrassom (10) para inspecionar um objeto (33) em um volume (32). O sistema de imageamento por ultrassom compreende uma sonda de captura de imagens por ultrassom (14) para capturar imagens de ultrassom tridimensionais e fornecer dados de imagem de ultrassom tridimensional compreendendo um dispositivo de rastreamento (25, 27) para rastrear uma posição da sonda de captura de imagens por ultrassom (14) e fornecer uma posição de ponto de vista (128, 130) das imagens de ultrassom tridimensionais. Por meio disso, possibilta-se uma inicialização aprimorada e corregistro e cossegmentação aprimorados ao se fornecer uma pluralidade de imagens de ultrassom tridimensionais e as posições de ponto de vista respectivas das mesmas (128, 130) e conduzir uma segmentação (80) do objeto (33) simultaneamente a partir da pluralidade de imagens de ultrassom tridimensionais e que leva em conta as posições de ponto de vista (128, 130).

Description

CAMPO DA INVENÇÃO
[001] A presente invenção refere-se a imageamento por ultrassom tridimensional. Em particular, a presente invenção se refere a processamento de imagem e à segmentação de objetos em um volume varrido.
ANTECEDENTES DA INVENÇÃO
[002] No imageamento por ultrassom tridimensional ou imageamento de volume, a captura de uma imagem tridimensional pode ser realizada de forma diferente, de acordo com a sonda. Por exemplo, com o uso de uma sonda xMatrix, por exemplo, a X6-1 da Philips, uma captura 3D genuína pode ser realizada. Com o uso de uma sonda mecânica, por exemplo, a V6-2 da Philips, o volume 3D é obtido a partir da captura de múltiplas fatias bidimensionais cujas calibrações são acionadas mecanicamente. Com o uso de uma sonda bidimensional, um volume tridimensional é produzido mediante a condução de muitas varreduras bidimensionais que fatiam através do volume de interesse. Portanto, são capturadasmúltiplas imagens bidimensionais que repousam em posição adjacente. Adicionalmente, por meio do processamento de imagem adequado, uma imagem tridimensional do volume de interesse pode ser construída a partir de múltiplas imagens bidimensionais. Em todos os casos listados acima, as informações tridimensionais são exibidas de maneira adequada em um visor para o usuário do sistema de ultrassom.
[003] Adicionalmente, o assim chamado imageamento tridimensional ao vivo ou imageamento 4D é, frequentemente, usado em aplicações clínicas. No imageamento tridimensional ao vivo, uma visualização em tempo real do volume pode ser capturada, o que possibilita a um usuário visualizar partes móveis do sítio anatômico, por exemplo, um coração pulsante ou outra coisa. Na aplicação clínica do imageamento tridimensional ao vivo, existe, algumas vezes, uma necessidade de formar a imagem de uma área relativamente pequena do coração, tal como uma única válvula ou um defeito septal e existe, algumas vezes, a necessidade de ima gear uma grande área do coração, tal como um ventrículo inteiro.
[004] Uma segmentação de imagem bidimensional é uma tarefa comum para radiologistas. A segmentação de imagem de objetos tridimensionais é realizada frequentemente a partir de múltiplas segmentações bidimensionais empilhadas. A segmentação de imagem tridimensional é menos comum. Uma superfície extraída pode ser usada, ou para quantificar o volume de um órgão ou de um tumor, ou como um ponto de referência para realizar registro de imagem com base em recurso. Entretanto, é frequentemente tedioso segmentar manualmente um órgão em uma imagem 3D. Embora as ferramentas para quantificação e visualização estejam relativamente disponíveis para imagens 2D, uma análise de volumes 3D é frequentemente feita a mão através de procedimentos tediosos difíceis de realizar na prática clínica. Portanto, tais métodos são bem inconvenientes. Segmentações precisas e conduzidas automaticamente são, portanto, necessárias, porém difíceis de obter, especificamente em imagens de ultrassom que são corrompidas por muito ruído e vários artefatos.
[005] O documento no US 2008/0139938 mostra um sistema para capturar, processar e apresentar contornos de uma interface de cavidade-tecido dentro de uma região de interesse em uma imagem de ultrassom com base na intensidade de sinais de ecos de ultrassom que retornam das estruturas dentro de uma região de interesse (ROI - region-of-interest). A segmentação de contornos de formatos de cavidade que ocupa a região de interesse utiliza uma análise de funções de custo de conjuntos de pixel que ocupem a interface de cavidade-tecido. Os formatos segmentados são adicionalmente processados em imagem para determinar áreas e volumes do órgão ou estrutura que contém a cavidade dentro da região de interesse.
[006] Adicionalmente, o ultrassom é uma modalidade amplamente usada, especificamente durante intervenções minimamente invasivas, por exemplo, no fígado, uma vez que é inofensivo ao paciente. As imagens de ultrassom não fornecem as mesmas informações médicas em comparação, por exemplo, com a modalidade de tomografia computadorizada (TC) ou de ressonância magnética (RM). Todas essas modalidades se complementam no fornecimento de visualizações internas abrangentes do corpo. Entretanto, os ultrassons podem ter problemas na visualização entre as costelas, já que as costelas produzem uma sombra que esconde informações. Além disso, as imagens de ultrassom têm um campo de visão limitado em comparação à tomografia computadorizada ou à tomografia por ressonância magnética. Tornou-se um tópico alinhar os dados de tomografia computadorizada ou de tomografia por ressonância magnética de um objeto dentro de um corpo humano com dados de imagem de ultrassom. A TC ou a RM são normalmente capturadas anteriormente ao uso do ultrassom e contêm informações precisas sobre, por exemplo, um formato e localização de tumor. Durante o uso de imageamento por ultrassom, é desejado que se mantenha o tempo todo os dados anotados, por exemplo, formato e localização de tumor capturados através de TC e/ou RM, alinhados com os dados de ultrassom.
[007] Adicionalmente, mesmo que nenhuma modalidade adicional seja usada, as imagens de ultrassom podem ser capturadas a partir de diferentes pontos de vista. Portanto, é um tópico adicional registrar múltiplas imagens de ultrassom em direção uma à outra.
[008] Existe uma necessidade por ferramentas de segmentação e de registro automáticas aprimoradas ou pelo menos auxiliadas por computador.
SUMÁRIO DA INVENÇÃO
[009] É um objetivo da invenção fornecer um sistema de imageamento por ultrassom para inspecionar um objeto em um volume que seja mais conveniente para calibrar e que possa exibir imagens de ultrassom segmentadas registradas entre si ou a qualquer referência alternativa, por exemplo, uma imagem tomada através de uma modalidade diferente.
[010] Em um primeiro aspecto da presente invenção, é apresentado um sistema de imageamento por ultrassom para inspecionar um objeto em um volume que compreende uma sonda de captura de imagens por ultrassom para capturar imagens de ultrassom tridimensionais e fornecer ou emitir dados de imagem de ultrassom tridimensional que compreende um dispositivo de rastreamento para rastrear uma posição da sonda de captura de imagens por ultrassom e fornecer uma posição de ponto de vista das imagens de ultrassom tridimensionais e um processador de imagem configurado para receber os dados de imagem de ultrassom tridimensional e para fornecer dados de exibição, sendo que o processador de imagem é configurado para receber uma pluralidade de imagens de ultrassom tridimensionais e suas respectivas posições de ponto de vista das mesmas e conduzir uma segmentação dos objetos simultaneamente a partir da pluralidade de imagens de ultrassom tridimensionais.
[011] Em um aspecto adicional da presente invenção, é apresentado um método para fornecer uma imagem de ultrassom de um objeto em um volume, o método compreendendo as etapas de fornecimento, em particular captura, de dados de imagem de ultrassom do volume compreendendo uma pluralidade de imagens de ultrassom tridimensionais e posições de ponto de vista de cada uma das imagens de ultrassom tridimensionais, processamento dos dados de imagem de ultrassom para segmentar e registrar os objetos simultaneamente a partir de uma primeira imagem de ultrassom e pelo menos uma imagem de ultrassom adicional para fornecer dados de imagem de ultrassom segmentada e registrada e exibir uma imagem de ultrassom com base nos dados de imagem de ultrassom segmentada e registrada.
[012] Em um aspecto adicional da presente invenção, é apresentado um programa de computador que compreende meios de código de programa para fazer com que um computador execute etapas do método para fornecer uma imagem de ultrassom de um objeto em um volume, sendo que o método compreende as etapas de fornecer, em particular capturar, dados de imagem de ultrassom do volume que compreende uma pluralidade de imagens de ultrassom tridimensionais e posições de ponto de vista de cada imagem de ultrassom, processar os dados de imagem de ultrassom para segmentar e registrar os objetos simultaneamente a partir de uma primeira imagem de ultrassom e pelo menos uma imagem de ultrassom adicional para fornecer dados de imagem de ultrassom segmentada e registrada e exibir uma imagem de ultrassom com base nos dados de imagem de ultrassom segmentada e registrada quando o dito programa de computador é executado em um computador.
[013] É uma ideia básica da invenção usar um dispositivo de rastreamento, em particular um dispositivo de rastreamento eletromagnético, para facilitar um registro e cossegmentação das imagens de ultrassom. Através das posições de ponto de vista associadas a cada imagem de ultrassom e rastreadas com o dispositivo de rastreamento, é possível inicializar, a grosso modo, um espaço de busca de registro. Resultados exatos adicionais encontrados através da cossegmentação e do registro podem ser usados para calibrar precisamente o dispositivo de rastreamento.
[014] Por isso, é adicionalmente facilitado manter as imagens de ultrassom registradas com uma imagem tridimensional capturada previamente do mesmo volume, por exemplo, uma imagem de tomografia computadorizada (TC) ou uma imagem de ressonância magnética (RM) alinhada com os dados de ultrassom. Para possibilitar isso, um dispositivo de rastreamento é fixado à sonda de captura de imagens por ultrassom que atua como um tipo de sistema de posicionamento global (GPS) para a visualização de ultrassom. Uma vez que o dispositivo de rastreamento esteja calibrado, especificamente contra uma referência, por exemplo, um volume de TC, uma captura de volume de ultrassom subsequente é alinhada com o volume de TC.
[015] Uma calibração do dispositivo de rastreamento, em particular um dispositivo de rastreamento eletromagnético, pode ser feita de modo geral de formas diferentes, por exemplo, fiduciais, localizados em um peito do paciente podem ser usados. Adicionalmente, pode ser usado um registro manual que localiza características salientes (pontos de referência) nas visualizações de TC ou RM nas visualizações de ultrassom. Obviamente, podem ser usadas técnicas com base em processamento imageado que identificam automaticamente, ou pontos de referência (por exemplo, vasos do fígado) presentes tanto na TC quanto nas visualizações de ultrassom ou superfícies de formato, para alinhar as imagens. Entretanto, além disso, a invenção atual sugere processos de calibração adicionais.
[016] Isso é devido a pontos de referência, tais como vasos do fígado, não poderem ser sempre visualizados nos dados de TC se não for injetado nenhum contraste. Portanto, são dadas algumas restrições às técnicas de ponto de referência nos dados de TC. Nem sempre um registro com o uso de fiduciais colocados, por exemplo, no peito do paciente, pode ser implementado, por várias razões. Por exemplo, esse tipo de registro e calibração exigem que fiduciais permaneçam no lugar durante essas varreduras por TC e durante uma captura de ultrassom adicional. Entretanto, isso impõe restrições no tempo entre a captura de imagens por TC (ou captura de imagens por RM) e a captura do sistema de imageamento por ultrassom. Adicionalmente, alguns objetos ou órgãos podem ser muito grandes para serem capturados inteiramente com o uso de sondas de captura de imagens por ultrassom. Então, a correspondência de um subconjunto do órgão respectivo pode não fornecer um registro preciso de toda a superfície. Além disso, um volume de ultrassom pode ser gravemente prejudicado devido a efeitos de sombra inerentes à ecografia. Adicionalmente, uma segmentação de um órgão como o fígado também pode ser extraída, por exemplo, a partir de dados de TC de forma muito precisa. Entretanto, esse resultado pode não corresponder necessariamente ao formato e volume respectivos do paciente no momento de uma captura de ultrassom. O paciente pode ter alterado a própria pose e/ou o paciente pode apresentar uma fase respiratória diferente daquela durante a captura por TC. Entretanto, com o dispositivo de captura de imagens de ultrassom de acordo com a invenção atual, a própria solução fornecida para a segmentação e o registro precisos pode ser robusta contra artefatos de ultrassom e ser bem precisa. Adicionalmente, a invenção proposta lida com diferentes poses e fases respiratórias de paciente. Por último, órgãos grandes como o fígado também podem ser cuidados com conveniência.
[017] Portanto, essencialmente, a invenção atual sugere um sistema de rastreamento de posição, por exemplo, um dispositivo de rastreamento eletromagnético (EM) fixado à sonda de captura de ultrassom. Os dados do dispositivo de rastreamento são processados e levados em conta pelo processador de imagem ao processar os dados de imagem fornecidos pela sonda de captura de imagens por ultrassom. Portanto, uma captura de uma pluralidade de imagens de ultrassom com diferentes posições de ponto de vista que também são gravadas pelo dispositivo de rastreamento, pode ser processada pelo sistema de captura de imagens de ultrassom. A segmentação do objeto e o registro da pluralidade de imagens de ultrassom podem ser conduzidos através de um processo de cossegmentação e registro com base em modelo.
[018] As modalidades preferenciais da invenção são definidas nas reivindicações dependentes. Deve ser compreendido que o método reivindicado tem modalidades preferenciais similares e/ou idênticas ao dispositivo reivindicado e como definido nas reivindicações dependentes.
[019] Em uma modalidade do sistema de imageamento por ultrassom, o processador de imagem é configurado para conduzir a segmentação pela minimização de um termo de energia, de modo que um formato geométrico inicial deformado corresponda ao contorno do objeto tão bem quanto possível.
[020] Descobriu-se que um método com base em modelo que usa um formato geométrico inicial especificado previamente que é transformado durante o processo de segmentação, fornece um método de convergência robusto para encontrar e segmentar o objeto em todas as imagens de ultrassom simultaneamente. Conforme será explicado em detalhes adicionais abaixo, a segmentação compreende deformar um modelo inicial, por exemplo, um modelo inicial que representa aproximadamente o formato do objeto alvo. Em uma modalidade adicional, o termo de energia compreende um primeiro termo que representa uma primeira imagem de ultrassom tridimensional e pelo menos um adicional, que representa uma imagem de ultrassom tridimensional adicional, sendoque o formato geométrico inicial deformado é o mesmo tanto no primeiro e quanto no pelo menos um termo adicional e sendo que termos de fidelidade de dados ou pelo menos um dentre o primeiro e o pelo menos um termo adicional compreende, cada um, uma transformação de registro que registra a imagem de ultrassom tridimensional e a pelo menos uma imagem de ultrassom tridimensional.
[021] A primeira e a pelo menos uma imagem de ultrassom adicional podem ser registradas com uma referência comum. A referência comum pode ser, por exemplo, uma dentre as imagens de ultrassom, por exemplo, a primeira imagem de ultrassom ou possivelmente uma imagem tridimensional capturada através de uma modalidade diferente, por exemplo, através de TC ou RM. É claro, a referência comum também pode ser qualquer posição dentro de um sistema de coordenadas comum. É importante finalmente conhecer todas as posições em relação uma à outra. Por meio disso, ao segmentar o objeto a partir dos dados de imagem de ultrassom tridimensional, ao mesmo tempo, a transformação de registro pode ser encontrada. Não há necessidade de pré-registrar precisamente os dados de imagem de ultrassom tridimensional e o pelo menos um dado de imagem de ultrassom tridimensional adicional antes da segmentação. Ao invés disso, o registro dos pelo menos dois conjuntos de dados de imagem é realizado simultaneamente à segmentação. A transformação geométrica que alinha os mesmos está, portanto, disponível como um resultado secundário. Isso possibilita registrar a pluralidade de dados de imagem de ultrassom tridimensional e fornecer imagens registradas do sistema de imageamento por ultrassom simultaneamente.
[022] Em uma modalidade adicional, uma deformação do formato geométrico inicial é conduzida pela aplicação de uma transformação global e de uma transformação local não rígida no formato geométrico inicial, em particular em que a transformação global translada, gira e escalona o formato geométrico inicial e em que a transformação local não rígida aplica um campo de deslocamento no formato geométrico inicial.
[023] Em particular, o campo de deslocamento pode ter uma constituição suave. Adicionalmente, o termo de energia pode compreender adicionalmente um terceiro termo que restringe a transformação local não rígida. Essa construção do termo de energia fornece a vantagem de que a deformação do formato geométrico inicial, que corresponde aproximadamente ao objeto a ser segmentado, pode não ser muito deformada durante a transformação. Isso é alcançado pela separação da deformação do formato geométrico inicial em uma transformação global que translada e gira e escalona o formato geométrico inicial e uma transformação local separada que deforma o formato geométrico inicial. Por isso, o método pode aplicar adicionalmente um terceiro termo que penaliza a transformação local, de modo que o formato do objeto não desvie muito do formato geométrico inicial. Por isso, segmentações que são próximas ao formato geométrico inicial são favorecidas pelo processo.
[024] Em uma modalidade adicional, o processador de imagem é configurado para determinar o formato geométrico inicial com base em uma segmentação do objeto em dados de imagem tridimensional capturados através de uma modalidade diferente, por exemplo, tomografia computadorizada.
[025] Por isso, uma modalidade diferente, por exemplo, TC, pode ser usada para encontrar e segmentar precisamente o objeto, em particular se for muito grande, e para usar esse formato segmentado como um formato geométrico inicial durante segmentação e registro de ultrassom.
[026] Em uma modalidade adicional, o processador de imagem é configurado para receber o formato geométrico inicial como uma definição por um usuário.
[027] Portanto, um usuário define um formato geométrico inicial de matriz geométrica básica, por exemplo, um elipsoide ou esfera, no caso da segmentação de um fígado. É claro, outras formas geométricas básicas, como cilindros ou formatos médios (por exemplo, o formato médio do fígado), também podem ser usadas.
[028] Em uma modalidade adicional, o processador de imagem é configurado para determinar a transformação de registro para cada imagem de ultrassom tridimensional a uma referência comum, por exemplo, dados de imagem tridimensional capturada através de uma modalidade diferente ou de uma dentre a pluralidade de imagens de ultrassom tridimensionais.
[029] Por isso, por exemplo, durante uma intervenção sob o controle do sistema de captura de imagens de ultrassom, imagens registradas podem ser apresentadas a um usuário, por exemplo, com uma visualização lado a lado no objeto capturado através de uma modalidade diferente, por exemplo, TC ou RM.
[030] Em uma modalidade adicional, o processador de imagem é configurado adicionalmente para conduzir a segmentação com base em uma inicialização do espaço de busca de registro, sendoque a inicialização do espaço de busca de registro é conduzida pelo posicionamento aproximado de um formato geométrico inicial em cada uma das imagens de ultrassom tridimensionais pela minimização de um termo de energia, de modo que o formato geométrico inicial corresponda a um contorno do objeto dentro da imagem de ultrassom tridimensional tão bem quanto possível.
[031] Por essa inicialização, o espaço de busca para o registro pode ser significativamente reduzido. Como uma estimativa aproximada, não somente o formato geométrico inicial do objeto, mas também a posição de ponto de vista a partir da qual a imagem de ultrassom foi capturada, podem ser entregues. Uma otimização do termo de energia é buscada somente ao redor dessas posições iniciais.
[032] Em uma modalidade adicional, o termo de energia é minimizado pela otimização meramente de uma transformação por translação tridimensional e que leva em conta uma posição de ponto de vista da sonda de captura de imagens por ultrassom ao capturar uma imagem tridimensional respectiva, e sendo que uma calibração da orientação tridimensional da sonda de captura de imagens rastreada pelo dispositivo de rastreamento é levada em conta.
[033] Por isso, um fluxograma pré-calibração pode ser conduzido primeiro para fornecer informações de posicionamento iniciais. Por exemplo, o mesmo consiste na captura e na gravação de duas posições de rastreamento através do dispositivo de rastreamento eletromagnético (EM) posicionado de forma aproximada no esterno do paciente e que dá uma dica do eixo geométrico craniocaudal do paciente. Então, uma inicialização automática do espaço de busca de registro pode ser conduzida com base no conhecimento desse fluxo de trabalho pré-calibração.
[034] Por isso, a inicialização é convenientemente acelerada. Uma vez que somente uma transformação de translação deve ser buscada conforme as posições de ponto de vista capturadas com um dispositivo de rastreamento podem ser levados em conta, a inicialização pode ser capturada muito rápido. Adicionalmente, ao lidar com objetos apenas parcialmente capturados, a cossegmentação e o registro podem ser inicializados de uma maneira bem robusta.
[035] Em uma modalidade adicional, o sistema de imageamento por ultrassom é configurado adicionalmente para ser dotado de um refinamento de solicitação da segmentação e transformação de registro pelo uso de uma outra pluralidade das imagens de ultrassom tridimensionais capturadas através da sonda de captura de imagens por ultrassom e da inicialização já conduzida.
[036] Durante o refinamento, é feita uma captura de pelo menos um volume de ultrassom do objeto. Então, uma segmentação e uma localização das imagens de ultrassom são conduzidas novamente com base no processo de cossegmentação e registro com base em modelo. Entretanto, a inicialização conduzida anteriormente é usada.
[037] Em uma modalidade adicional, o sistema de imageamento por ultrassom compreende um dispositivo de rastreamento que é um dispositivo de rastreamento eletromagnético.
[038] Por meio disso, pode ser usada tecnologia de navegação e rastreamento eletromagnéticos que não tem requisitos secundários e que usa sensores de dimensionamento muito pequenos que são particularmente úteis para integração em dispositivos pequenos como sondas.
[039] Em uma modalidade adicional do método, sendo que o método compreende a etapa adicional de fornecimento, em particular captura, de uma imagem tridimensional do objeto do volume capturado com o uso de uma modalidade diferente antes da etapa de fornecimento de dados de imagem de ultrassom como entrada.
[040] Conforme já explicado acima, a imagem tridimensional do objeto capturada com o uso de uma modalidade diferente pode ser usada para segmentar o objeto, em particular, no caso de um objeto muito grande, no preenchimento da imagem capturado com o uso da modalidade diferente para adquirir o formato geométrico inicial e usado para inicializar o processo de segmentação nas imagens de ultrassom.
[041] Em uma modalidade adicional, o método compreende a primeira etapa de calibração de um dispositivo de rastreamento para capturar as posições de ponto de vista pelo movimento da sonda de captura de imagens para pelo menos duas localizações diferentes em um eixo geométrico conhecido ou orientação da sonda em uma relação predefinida, isto é, paralela ou perpendicular a um eixo geométrico conhecido, por exemplo, para um eixo geométrico craniocaudal de um paciente.
[042] Em uma modalidade particular, a invenção atual pode ser usada com um dispositivo de rastreamento eletromagnético e durante uma intervenção minimamente invasiva. Portanto, um sistema de ecografia ou um sistema de ultrassom equipado com um sensor de localização se beneficia desta invenção específica. A invenção atual pode ser usada em um sistema em que o formato do objeto é, na verdade, conhecido a partir de uma segmentação conduzida anteriormente nas imagens capturadas para uma modalidade diferente. Entretanto, a invenção também soluciona o corregistro e segmentação de um objeto alvo para o qual uma estimativa aproximada do formato do objeto é dada, por exemplo, apenas uma esfera ou um formato médio. Ainda, a invenção também encontra aplicação em sistemas de ultrassom apenas, que são equipados com um dispositivo de rastreamento e para os quais, entretanto, nenhuma TC ou RM está disponível. Para essa aplicação, a invenção serve para segmentar o objeto dentro de múltiplas imagens de ultrassom com diferentes posições de ponto de vista.
[043] Em uma modalidade adicional, o processador de imagem é configurado adicionalmente em que a transformação de registro é afim.
[044] Em geral, a transformação de registro aplicada em um dentre o primeiro e o segundo termos do termo de energia ou, em outras palavras, os termos de similaridade de dados da energia, pode ser transformações rígidas ou transformações não rígidas. A transformação de registro pode ser qualquer tipo de transformação linear global. Em particular, pode ser uma transformação afim. Uma transformação afim é uma transformação que preserva linhas retas e razões de distâncias entre pontos que repousam em uma linha reta. Uma transformação afim é equivalente a uma transformação linear seguida por uma translação. Em particular, a transformação afim pode ser uma transformação linear com até doze parâmetros.
[045] Entretanto, deve ser enfatizado que o sistema e os métodos sugeridos também podem ser aplicados para a inspeção de qualquer outro órgão de um paciente ou objeto dentro de um paciente. Outros formatos geométricos básicos adequados também podem ser encontrados para o baço, o intestino, o pâncreas, o fígado ou um coração de um paciente. Adicionalmente, a aorta pode ser um objeto que pode ser inspecionado através dos sistemas e métodos sugeridos. Para uma aorta, um cilindro alongado pode ser o formato geométrico básico.
[046] Em uma modalidade adicional, o sistema de imageamento por ultrassom compreende adicionalmente uma matriz de transdutor configurada para fornecer um sinal de recepção de ultrassom, um formador de feixe configurado para controlar a matriz de transdutor para varrer o volume e configurado adicionalmente para receber o sinal de recepção de ultrassom e para fornecer uma sinal de imagem, um controlador para controlar o formador de feixe e um processador de sinal configurado para receber o sinal de imagem e para fornecer dados de imagem tridimensional e dados de imagem tridimensional de contraste melhorado.
[047] Por meio disso, é fornecido um sistema de imageamento por ultrassom completamente funcional que pode capturar múltiplas imagens tridimensionais e fornecer as mesmas ao processador de imagem e que fornece as mesmas para o processador de imagem. Os dados de imagem tridimensional de contraste melhorado podem, então, ser usados como dados de uma modalidade diferente para suportar segmentação e registro.
BREVE DESCRIÇÃO DOS DESENHOS
[048] Esses e outros aspectos da invenção serão evidentes e elucidados em referência à(s) modalidade(s) descrita(s) mais adiante neste documento. Nos desenhos a seguir:
[049] A Figura 1 mostra uma visão geral de um sistema de imagem de ultrassom,
[050] A Figura 2 mostra um diagrama de blocos que mostra os elementos essenciais do sistema de ultrassom,
[051] A Figura 3 mostra um desenho esquemático para explicar o volume da captura,
[052] A Figura 4 mostra um diagrama de blocos para ilustrar o processo de cossegmentação e registro,
[053] As Figuras 5a a 5c mostram exemplos para explicar as transformações conduzidas em um formato geométrico inicial durante a segmentação,
[054] A Figura 6 mostra um diagrama de blocos adicional que ilustra uma modalidade do processo de captura de imagens inteira,
[055] A Figura 7 mostra uma nova ilustração esquemática de eixo geométrico e posições relevantes em um paciente durante uma captura de imagens,
[056] A Figura 8 mostra um diagrama de blocos de uma modalidade do método, e
[057] As Figuras 9a a 9d mostram exemplos de imagem para explicar a captura de imagens em andamento.
DESCRIÇÃO DETALHADA DA INVENÇÃO
[058] A Figura 1 mostra uma ilustração esquemática de um sistema de ultrassom 10 de acordo com uma modalidade, em particular um sistema de imageamento tridimensional por ultrassom para uso clínico. O sistema de imageamento por ultrassom 10 é aplicado para inspecionar um volume de um sítio anatômico, em particular um sítio anatômico de um paciente 12. O sistema de ultrassom 10 compreende uma sonda de captura de imagens por ultrassom 14 que tem pelo menos uma matriz de transdutor que tem múltiplos elementos transdutores para transmitir e/ou receber ondas de ultrassom. Em um exemplo, os elementos transdutores podem transmitir, cada um, ondas de ultrassom na forma de pelo menos um impulso de transmissão de uma duração de pulso específica, em particular, uma pluralidade de pulsos de transmissão subsequentes. Os elementos transdutores podem ser dispostos, por exemplo, em uma linha unidimensional, por exemplo, para fornecer uma imagem bidimensional que pode ser movida ou girada ao redor de um eixo geométrico mecanicamente. Adicionalmente, os elementos transdutores podem ser dispostos em uma matriz bidimensional, em particular para fornecer uma imagem multiplana ou tridimensional.
[059] Em geral, as múltiplas imagens bidimensionais, cada uma ao longo de uma linha acústica ou linha de varredura específica, em particular uma linha de recepção de varredura, podem ser obtidas de três formas diferentes. Primeiro, o usuário pode obter as múltiplas imagens através de varredura manual. Nesse caso, a sonda de captura de imagens por ultrassom pode compreender dispositivos de detecção de posição que podem rastrear uma localização e uma orientação das linhas de varredura ou planos de varredura. Entretanto, isso não é contemplado atualmente. Segundo, o transdutor pode ser varrido automaticamente de forma mecânica dentro da sonda de captura de imagens por ultrassom. Esse pode ser o caso se uma matriz de transdutor unidimensional for usada. Terceiro e, preferencialmente, uma matriz bidimensional faseada de transdutores está localizada dentro da sonda de captura de imagens por ultrassom e os feixes de ultrassom são varridos eletronicamente. A sonda de captura de imagens por ultrassom pode ser portada pelo usuário do sistema, por exemplo, equipe médica ou um doutor. A sonda de captura de imagens por ultrassom 14 é aplicada ao corpo do paciente 12 de modo que uma imagem de um sítio anatômico no paciente 12 seja fornecida.
[060] Adicionalmente, o sistema de ultrassom 10 tem uma unidade controladora 16 que controla o fornecimento de uma imagem tridimensional através do sistema de ultrassom 10. Conforme será explicado em detalhes adicionais abaixo, a unidade controladora 16 controla não somente a captura de dados através da matriz de transdutor da sonda de captura de imagens por ultrassom 14, mas também do processamento de sinal e de imagem que forma as imagens tridimensionais a partir dos ecos dos feixes de ultrassom recebidos pela matriz de transdutor da sonda de captura de imagens por ultrassom 14.
[061] O sistema de ultrassom 10 compreende, adicionalmente, um visor 18 para exibir as imagens tridimensionais para o usuário. Adicionalmente, é fornecido um dispositivo de entrada 20 que pode compreender teclas ou um teclado 22 e dispositivos de entrada adicionais, por exemplo, um trackball 24. O dispositivo de entrada 20 pode ser conectado ao visor 18 ou diretamente à unidade controladora 16.
[062] Adicionalmente, o sistema de ultrassom 10 compreende um dispositivo de rastreamento, por exemplo, um dispositivo de rastreamento eletromagnético. Partes do dispositivo de rastreamento estão situadas dentro da sonda 14 ou podem ser associadas à sonda através de uma presilha. As partes adicionais 25, 25’, por exemplo, sensores similares a sensores magnetorresistivos, podem ser colocadas na circunferência do sistema de ultrassom. Preferencialmente, as coordenadas espaciais das partes adicionais 25, 25’ são conhecidas.
[063] A Figura 2 mostra um diagrama de blocos esquemático do sistema de ultrassom 10. Conforme já apresentado acima, o sistema de ultrassom 10 compreende uma sonda de captura de imagens por ultrassom (PR) 14, a unidade controladora (CU) 16, o visor (DI) 18 e o dispositivo de entrada (ID) 20. Conforme apresentado adicionalmente acima, a sonda (PR) 14 compreende uma matriz de transdutor 26, por exemplo, uma matriz de transdutor bidimensional faseada ou matriz de transdutor unidimensional varrida automaticamente. Adicionalmente, a sonda compreende uma parte 27 do dispositivo de rastreamento, por exemplo, uma bobina que gera um campo eletromagnético que é detectado através dos sensores 25, 25’. Em geral, a unidade controladora (CU) 16 pode compreender uma unidade de processamento central que pode incluir circuitos eletrônicos analógicos e/ou digitais, um processador, microprocessador ou similares para coordenar toda a captura e fornecimento de imagens. Adicionalmente, a unidade controladora 16 compreende uma unidade, denominada no presente documento, unidade de processamento central 28. Entretanto, deve ser compreendido que a unidade de processamento central 28 não precisa ser uma entidade ou unidade separada dentro do sistema de ultrassom 10. A mesma pode ser uma parte da unidade controladora 16 e, em geral, ser um hardware ou um software implementado. A distinção atual é feita apenas para propósitos ilustrativos. A unidade de processamento central (CPU) 28, como parte da unidade controladora 16, pode controlar um formador de feixe e, por meio disso, controlar quais imagens do volume 32 são tomadas e como essas imagens são tomadas. O formador de feixe (BF) 30 gera as tensões que acionam a matriz de transdutor (TR) 26, determina frequências de repetição de partes, o mesmo pode varrer, focar e apodizar o feixe transmitido e o feixe(s) de recepção ou recebimento e pode amplificar, filtrar e digitalizar adicionalmente o fluxo de tensão de eco retornado pela matriz de transdutor 26. Adicionalmente, a unidade de processamento central 28 da unidade controladora 16 pode determinar estratégias de varredura gerais. Tais estratégias gerais podem incluir uma taxa de captura de volume desejada, extensão lateral do volume, uma extensão de elevação do volume, densidades de linha máxima e mínima, tempos de linha de varredura e a densidade de linha conforme já explicado acima. O formador de feixe 30 recebe adicionalmente os sinais de ultrassom a partir da matriz de transdutor 26 e encaminha os mesmos como sinais de imagem.
[064] Adicionalmente, o sistema de ultrassom 10 compreende um processador de sinal (SP) 34 que recebe os sinais de imagem. O processador de sinal 34 é fornecido geralmente para conversão de analógico para digital, filtragem digital, por exemplo, filtragem por passagem de banda, assim como a detecção e compressão, por exemplo, uma redução de faixa dinâmica dos ecos de ultrassom ou sinais de imagem recebidos. O processador de sinal encaminha dados de imagem.
[065] Adicionalmente, o sistema de ultrassom 10 compreende um processador de imagem (IP) 36 que converte dados de imagem recebidos do processador de sinal 34 em dados de exibição finalmente mostrados no visor 18. Em particular, o processador de imagem 36 recebe os dados de imagem, pré-processa os dados de imagem e pode armazenar os mesmos em uma memória de imagem. Esses dados de imagem são, então, pré-processados adicionalmente para fornecer imagens mais convenientes para o usuário através do visor 18. No caso atual, em particular, o processador de imagem 36 pode formar as imagens tridimensionais a partir de múltiplas imagens bidimensionais em cada fatia.
[066] Uma interface de usuário é mostrada de modo geral com a referência numérica 38 e compreende o visor 18 e o dispositivo de entrada 20. A mesma também pode compreender dispositivos de entrada adicionais, por exemplo, um mouse ou botões adicionais que podem até mesmo ser fornecidos na própria sonda de captura de imagens por ultrassom 14.
[067] Um exemplo específico para um sistema de ultrassom tridimensional que pode aplicar a invenção atual é o sistema de ultrassom CX32 CompactXtreme, vendido pelo depositante, em particular junto com um transdutor X6-1 ou X7-2t TEE do depositante ou um outro transdutor com o uso da tecnologia xMATRIX do depositante. Em geral, sistemas de transdutor de matriz, conforme encontrados em sistemas Philips iE33 ou tecnologia de transdutor 3D/4D mecânica, conforme encontrada, por exemplo, nos sistemas Philips iU22 e HD15, podem aplicar a invenção atual.
[068] A Figura 3 mostra um exemplo de um volume 32 em relação à sonda de captura de imagens por ultrassom 14. O volume exemplificador 32 mostrado nesse exemplo é de um tipo de setor, devido à matriz de transdutor da sonda de captura de imagens por ultrassom 14 estar disposta como uma matriz varrida eletronicamente bidimensional faseada. Portanto, o tamanho do volume 32 pode ser expresso por um ângulo de elevação 42 e um ângulo lateral 44. Uma profundidade 46 do volume 32 pode ser expressa por uma, assim chamada, tempo de linha em segundos por linha. Que equivale ao tempo de varredura gasto para varrer uma linha de varredura específica.
[069] O volume 32 pode ser dividido em múltiplas fatias 48, 50 ou imagens bidimensionais. Somente duas fatias 48, 50 são mostradas para propósitos ilustrativos. De fato, múltiplas fatias 48, 50, tendo diferentes ângulos de elevação 40, são espalhadas no volume 32. É claro, as fatias 48, 50 também podem ser orientadas na direção de elevação e espalhadas pelo volume 32 na direção lateral. Durante a captura de imagens, a matriz de transdutor bidimensional da sonda de captura de imagens por ultrassom 14 é operada por um formador de feixe de maneira que o volume 32 seja varrido ao longo de múltiplas dessas linhas de varredura dentro de cada uma das fatias 48, 50 sequencialmente. No processamento de recepção de múltiplas linhas, um único feixe de transmissão pode iluminar múltiplas linhas, por exemplo, quatro linhas de varredura de recepção ao longo das quais sinais são capturados em paralelo. Assim, tais conjuntos de linhas de recepção são, então, varridos eletronicamente pelo volume 32 sequencialmente.
[070] Na aplicação atual, o alvo é segmentar exatamente o mesmo objeto, por exemplo, um fígado, a partir de pelo menos duas imagens diferentes. A segmentação compreende deformar um modelo inicial, por exemplo, um modelo inicial que representa aproximadamente o formato do objeto alvo. Como exemplo, no caso em que o objeto alvo é um fígado, o formato inicial pode ser uma esfera ou um formato médio de fígado. Esse formato é representado por uma função implícita, isto é, uma função Φ definida no espaço inteiro que é positiva dentro do formato e negativa fora. O formato é, então, o conjunto de nível zero de tal função. A função implícita inteira será deformada por uma transformação de espaço . . Em particular, o conjunto de nível zero será alterado e, assim, o objeto correspondente também. Essa transformação é decomposta em duas transformações de diferentes tipos
Figure img0001
[071] G é uma transformação global que pode transladar, girar ou reescalonar ou o formato inicial.
[072] Irá basicamente corrigir a pose inicial do modelo.
[073] £ é uma deformação local que irá realmente deformar o objeto de modo que o mesmo corresponda mais precisamente ao objeto a ser segmentado na imagem.
[074] O objetivo do método é, então, encontrar os melhores £ e com o uso das informações de imagem I. Isso é feito pela minimização da seguinte energia:
Figure img0002
[075] No primeiro termo, também chamado de fidelidade de dados, H é a função de Heaviside (H(x) = 1 se x>0 e 0 se x<0) o que significa que o número integral na verdade está somente dentro do objeto deformado. r(^) é uma função com base em imagem que retorna em cada ponto um valor negativo (respectivamente positivo) se o voxel possivelmente está fora (respectivamente dentro) do objeto de interesse. Para regiões ambíguas, r'(é) é definido para zero. O segundo termo, é a assim chamada regularização. O segundo termo é a norma entre £ e a função identidade. A amplitude da deformação é penalizada devido ao formato do objeto não poder desviar muito do formato anterior. Deve ser enfatizado que esse segundo termo é independente da posição e da orientação do objeto que foi o propósito da decomposição da transformação. A minimização de tal energia é realizada com o uso de um gradiente descendente tanto em £ quanto em £ ao mesmo tempo.
[076] Em um mero exemplo de apenas duas imagens e se as duas imagens já foram perfeitamente registradas, então a equação descrita anteriormente pode ser facilmente estendida pela adição de um outro termo de fidelidade de dados:
Figure img0003
[077] Entretanto, uma captura registrada pode ocorrer apenas se ambas as imagens de US forem capturadas simultaneamente ou rapidamente após a outra. É bem improvável que as imagens de US sejam registradas se forem capturadas subsequentemente. Portanto, isso é levado em conta com uma outra transformação. Em geral, essa transformação pode não ser rígida e ser de qualquer tipo. Entretanto, se uma suposição de procura pelo mesmo objeto puder ser feita, essa transformação (denotada ^12) pode ser rígida, isto é, permitir alterações globais de posição e orientação, mas apenas com o mesmo tamanho. A transformação ^12 também poderia ser definida para qualquer transformação afim, por exemplo, para levar em conta alterações de volume, sem perda de eficiência computacional. A energia, então, se torna
Figure img0004
[078] Basicamente, a mesma corrige as informações de imagem provenientes do segundo termo pela No caso de mais imagens, termos adicionais para cada imagem que compreendesse a própria transformação, teriam de ser adicionados.
[079] O terceiro termo, que é opcional, é construído como uma restrição à deformação local. O mesmo penaliza se a deformação local fizer com que o formato do objeto desvie muito do formato geométrico inicial. Portanto, conforme se busca um mínimo, no caso em que o primeiro e o segundo termo levam aos mesmos resultados, a solução que menos transforma o formato geométrico inicial que as outras soluções será considerada a melhor. O parâmetro “À” pode ser definido para determinar a relevância dessa restrição.
[080] A otimização é realizada pela descida do gradiente simultaneamente em £ e ^12. No final, uma segmentação como o conjunto de nível zero da função <A°£°í? é mais precisa devido a ter usado as informações das duas imagens. Adicionalmente, a estimativa da transformação ^12 que permite o registro das imagens entre elas, é obtida.
[081] A Figura 4 mostra uma modalidade em que a segmentação deve ser conduzida. Nessa modalidade, também é feito um registro dos dados de imagem de ultrassom tridimensional e dos dados de imagem de ultrassom tridimensional adicionais.
[082] A segmentação real é obtida pela deformação de um formato geométrico inicial com duas transformações, uma global que leva em consideração rotação, translação e escalonamento e uma local que realmente modifica o formato geométrico inicial. As duas transformações são encontradas pela minimização de uma energia de competição de região de modo que o formato deformado corresponda ao contorno do objeto alvo nos dados de imagem. Nessa modalidade, dois termos com base em imagem são usados no termo de energia de modo que a pluralidade de imagens de US seja levada em conta. No caso de mais de duas imagens de ultrassom, mais termos com base em imagem de energia podem ser adicionados, um para cada imagem. Como os dois (ou mais) conjuntos de dados de imagem não são necessariamente registrados, um dos dois termos com base em imagem deve ser corrigido por uma transformação. Se, por exemplo, o fígado precisar ser varrido e um paciente segurar a respiração, pode ser feita uma suposição de que um fígado não está deformado durante a captura dos dados de imagem de ultrassom normais e dos dados de imagem de ultrassom adicionais de modo que uma transformação rígida possa ser aplicada apenas pela translação e rotação. Então, a energia em relação à transformação global, à transformação local e à transformação rígida entre as imagens de US pode ser otimizada.
[083] Em primeiro lugar, a segmentação pode ser inicializada ao encontrar ou definir um formato geométrico inicial 64. Isso também pode ser conduzido manualmente. A inicialização do registro pode ser conduzida pela busca pelo formato geométrico inicial 64 também nos dados de imagem de ultrassom tridimensional normais apenas pela translação e rotação do formato geométrico inicial. Por meio disso, pode ser fornecida uma transformação geométrica inicial entre os dados de imagem de ultrassom tridimensional normais e os dados de imagem de ultrassom tridimensional adicionais. Essa transformação geométrica pode ser estimada por uma busca exaustiva (em translações e rotações) na imagem de ultrassom tridimensional normal do formato inicial estimado previamente, por exemplo, um elipsoide, uma esfera ou um cilindro. Adicionalmente, uma inicialização pode ser encontrada através do dispositivo de rastreamento, conforme explicado em detalhes adicionais abaixo.
[084] Então, após fornecer inicializações para bloco 64 e 76 e fornecer os dados de imagem de ultrassom tridimensional 62 e os dados de imagem de ultrassom tridimensional adicionais 60, a segmentação real pode ocorrer. A segmentação funciona conforme a seguir.
[085] O formato geométrico inicial previamente definido será deformado, agora de acordo com a estrutura descrita previamente para segmentar o objeto ou fígado mais precisamente. Na aplicação específica, o termo com base em imagem pode ser definido para r(a;) = ±21.r(s), em qUe o operador Δ denota o operador Laplaciano. Matematicamente, minimizar o Laplaciano da imagem dentro de Um objeto significa qUe os vetores normais da sUperfície do objeto devem corresponder ao gradiente de imagem; isto é, o método de segmentação bUscará bordas de claro para escUro (oU de escUro para claro dependendo do sinal de mUltiplicação).
[086] Na FigUra 4, é mostrado qUe a transformação global dos dados de imagem de Ultrassom 70 e a transformação global dos dados de imagem de Ultrassom adicionais 68 são conduzidas pela transformação dos dados de imagem de todas as imagens em um sistema de referência. Os dados de imagem de ultrassom tridimensional normais em um bloco 74 e os dados de imagem de ultrassom adicionais são transformados em um bloco 72. Entretanto, é claro, pode ser o caso em que o sistema de coordenadas de qualquer um dos dados de imagem de ultrassom tridimensional ou dos dados de imagem de ultrassom adicionais pode ser usado como o sistema referencial de modo que apenas um dos dados de imagem de ultrassom tridimensional normais e dos dados de imagem de ultrassom tridimensional adicionais precisam ser realmente transformados. Adicionalmente, todos os dados de imagem de ultrassom também podem ser transformados para um sistema de referência de dados capturados previamente através de uma modalidade adicional, por exemplo, tomografia por ressonância magnética ou outro. Simultaneamente, uma deformação local 78 é conduzida, conforme explicado acima. Isso leva ao modelo deformado de 66 do formato geométrico inicial 64 conforme explicado acima. Por meio da aplicação desse modelo deformado do formato geométrico inicial, o objeto pode ser segmentado a partir dos dados de imagem de ultrassom tridimensional normais e dos dados de imagem de ultrassom tridimensional adicionais no bloco 80. Como um resultado secundário, como os dados de imagem de ultrassom tridimensional normais e os dados de imagem de ultrassom tridimensional adicionais têm de ser deformados globalmente e localmente no mesmo sistema de referência, uma transformação que registra os dados de imagem de ultrassom tridimensional normais e os dados de imagem de ultrassom tridimensional é encontrada como o bloco 76.
[087] Novamente, para propósitos ilustrativos, a Figura 5a mostra a função de exemplo Φ 84 em uma imagem 82.
[088] Na Figura 5b, é mostrado que o formato geométrico inicial 64 encontrado no processo de inicialização explicado acima a partir do formato geométrico básico 84 é fornecido. É buscada uma transformação Φ que leve a um modelo deformado 86 que segmenta o objeto a partir dos dados de imagem de ultrassom tridimensional normais e dos dados de imagem de ultrassom tridimensional adicionais.
[089] Na Figura 5c é mostrado, novamente, em detalhes, como a transformação a partir do formato geométrico inicial 64 para o modelo deformado 86 é dividida entre a deformação local 78 e a deformação global 68, 70. Conforme explicado acima, é fornecida uma função de transformação local 90 que deforma localmente o formato geométrico inicial em um formato deformado 92. Então, uma função de transformação global 88 é suprida para transladar, girar e escalonar o formato deformado 92.
[090] A Figura 6 mostra um fluxograma que ilustra como o processo de cossegmentação e registro mostrado na Figura 4 é incorporado na inicialização aprimorada e calibração, de acordo com a invenção atual. O processo mostrado na Figura 4 também está presente na Figura 6 como um único bloco designado com referência numérica 112. O formato geométrico inicial 64 que, no caso do objeto alvo 33 é um fígado, por exemplo, é um formato médio de um fígado que é inserido no processo de cossegmentação e registro 112, assim como a primeira e imagens de ultrassom capturadas adicionais 60, 62. Entretanto, para inicializar o processo de cossegmentação e registro, é conduzido um protocolo de captura. Primeiro, no bloco 102, dados de calibração são obtidos, conforme será explicado em mais detalhes abaixo com referência à Figura 7. No mesmo, a sonda de ultrassom é movida para localizações predefinidas no corpo do paciente em certas posições. Por meio disso, o dispositivo de rastreamento 25, 27 é inicializado. É claro, podem ser fornecidas outras maneiras de inicialização, por exemplo, pode ser suficiente meramente capturar uma única captura transversal de linha mediana para calibrar o dispositivo de rastreamento. Adicionalmente, um protocolo de captura poderia ser usado, por exemplo, para guiar várias capturas de acordo com pontos de vista conhecidos no corpo humano, por exemplo, sagital mediano, coronal axial mediano, etc.
[091] Então, é conduzida uma calibração no bloco 104. Uma pluralidade de imagens de ultrassom é capturada através da sonda, que é dotada do dispositivo de rastreamento. Pelo menos duas capturas são feitas a partir de dois pontos de vista diferentes. Preferencialmente, as capturas são feitas em fases de respiração idênticas. Para cada captura de imagem, os pontos de vista são gravados através do dispositivo de rastreamento. Então, um primeiro registro aproximado das imagens de ultrassom para uma referência comum é conduzido. Isso leva em conta o formato geométrico inicial, sendo que a calibração indica o eixo geométrico craniocaudal do paciente ou qualquer outra visualização definida no corpo do paciente e as imagens e as coordenadas de ponto de vista correspondentes. Por isso, é possível registrar aproximadamente todas as visualizações de ultrassom com uma mera matriz de transformação translacional pelo uso dos dados do dispositivo de rastreamento. Agora, o formato geométrico do objeto e a estimativa aproximada para a posição de ponto de vista podem ser inseridos no processo de cossegmentação e registro conforme explicado acima. Como um registro aproximado já é conduzido, o espaço de busca de registro para a solução ótima pode ser reduzido significativamente, o que leva a resultados mais rápidos e mais precisos.
[092] O processo conforme explicado junto com a Figura 4, então, emite um formato preciso do objeto segmentado 108 e uma matriz de transformação precisa e registro que leva a posições de ponto de vista exatas de cada imagem de ultrassom.
[093] A Figura 7 mostra uma ilustração esquemática do corpo de um paciente 12. É dada uma visão geral aproximada sobre um processo de calibração possível 120. O eixo geométrico craniocaudal é designado com a referência numérica 122. O eixo geométrico anterior-posterior é designado com a referência numérica 124. O eixo geométrico esquerdo- direito é designado com a referência numérica 126. Durante a calibração 102, o usuário move a sonda para uma primeira posição 128 e, então, para uma segunda posição 130 no esterno do paciente. Nenhuma captura de imagem precisa ser feita durante isso, entretanto, uma primeira inicialização do dispositivo de rastreamento, especificamente de um dispositivo de rastreamento eletromagnético 25, 27, é conduzida. Alternativamente, uma captura de imagens poderia ter sido conduzida e as imagens usadas subsequentemente. Após isso, pode ocorrer a captura de imagens do objeto 33, como usual e o objeto é varrido através da sonda de captura de imagens por ultrassom 14 em uma posição de captura normal 132.
[094] Uma modalidade de um método será descrita agora com referência à Figura 8 que mostra um fluxograma de um método 140. O método será explicado em conexão com as Figuras 9a a 9d, que mostram imagens capturadas durante as diferentes etapas do método.
[095] O método começa em uma etapa 142. Então, em uma etapa 144, o paciente pode ser varrido através de uma modalidade diferente. No exemplo atual, supõe-se que o propósito seja examinar o fígado de um paciente. Portanto, na etapa 144, o fígado do paciente é varrido através de um sistema de tomografia computadorizada. O fígado é segmentado a partir dos dados de TC. É especificado o formato do fígado segmentado a partir das imagens de TC que pode formar o formato geométrico inicial que é usado depois no processo de cossegmentação e registro das imagens de ultrassom. Entretanto, a etapa 144 é meramente opcional. Também pode ser possível escolher um formato geométrico básico, por exemplo, uma esfera ou um cilindro, como o formato geométrico inicial.
[096] Algum tempo após o exame por TC, por exemplo, uma ou algumas semanas, pode ser o caso de o paciente ser examinado através de um sistema de imageamento por ultrassom, por exemplo, durante uma intervenção minimamente invasiva. O sistema de ultrassom usado é um de acordo com a revelação atual e é equipado com um dispositivo de rastreamento, especificamente a sonda de captura de imagens por ultrassom é equipada com um dispositivo de rastreamento eletromagnético. O paciente repousa dentro do campo eletromagnético do dispositivo de rastreamento eletromagnético.
[097] Agora, na etapa 146, uma primeira calibração ou inicialização do dispositivo de rastreamento eletromagnético, é conduzida. Durante isso, nenhuma captura de imagens precisa ocorrer. Conforme explicado em conexão com a Figura 7, duas posições diferentes definidas 128 e 130 são tocadas com a sonda de captura de imagens por ultrassom. Já que as posições são bem definidas, o eixo geométrico craniocaudal do paciente é inicializado no dispositivo de rastreamento eletromagnético. Essa inicialização também é fornecida para o processo de cossegmentação e registro.
[098] Então, é conduzido um processo de inicialização 148 para o processo de cossegmentação e registro. Nesse, em uma etapa 150, a pluralidade de imagens de ultrassom é capturada. Para cada posição, as coordenadas de ponto de vista são gravadas através do dispositivo de rastreamento eletromagnético. O paciente pode respirar livremente, mas as capturas são feitas preferencialmente em fases de respiração idênticas. Por exemplo, duas capturas de ultrassom podem ser feitas a partir de dois pontos de vista diferentes conforme ilustrado na Figura 9a. Na mesma, uma primeira captura de ultrassom 160 e uma segunda captura de ultrassom 162 são mostradas. Um indicador de visualização 164 para razões de orientação também é mostrado.
[099] Então, em uma etapa 152, o processo de cossegmentação e registro é iniciado conforme foi explicado em detalhes com referência à Figura 4. Nesse processo, o formato do fígado adquirido através da varredura por TC pode ser levado em conta como o formato geométrico inicial 64 pelo processo. Adicionalmente, as posições 128 e 130 são fornecidas como uma indicação do eixo geométrico craniocaudal do paciente e todas as imagens de ultrassom capturadas e as coordenadas de pontos de vista correspondentes das mesmas gravadas através do dispositivo de rastreamento eletromagnético são inseridas. A saída do processo fornece posicionamento preciso para o dispositivo de rastreamento eletromagnético, isto é, a sonda de captura de imagens por ultrassom e o rastreador eletromagnético da mesma, para cada ponto de vista, adicionalmente, portanto, cada posição de sonda em relação a uma referência comum, por exemplo, as varreduras por TC e, por fim, uma segmentação de fígado precisa em todas as capturas de ultrassom.
[0100] A saída do algoritmo pode, então, ser usada para exibir imagens registradas com precisão com o objeto segmentado, por exemplo, o fígado. Adicionalmente, como a posição precisa da sonda é conhecida, a saída do algoritmo também pode ser usada para calibrar precisamente o dispositivo de rastreamento eletromagnético para a referência comum.
[0101] A Figura 9b mostra posições de sonda estimadas com base na entrada do dispositivo de rastreamento eletromagnético no processo de cossegmentação e registro. Os indicadores de visualização 164 ilustram o ponto de vista da sonda de captura de imagens por ultrassom 14 em relação ao fígado segmentado capturado através das varreduras por TC. Conforme mostrado na Figura 9c, a imagem capturada através da captura de ultrassom pode, então, ser registrada com a visualização de TC e exibida correspondentemente conforme mostrado na Figura 9c. A Figura 9c mostra imagens de ultrassom alinhadas 170, 172 registradas para as varreduras por TC.
[0102] A Figura 9d mostra, então, uma possibilidade adicional de como a saída do processo de uso de cossegmentação e registro. A imagem 174 mostra uma varredura por ultrassom na qual o fígado segmentado é destacado. A imagem 176 mostra as varreduras por TC também com o fígado segmentado destacado. Uma lesão dentro do fígado que pode ser buscada, é indicada através de uma seta 178 e pode ser localizada na varredura por ultrassom.
[0103] Um exemplo adicional de uso pode ser aquele em que a varredura por ultrassom ou uma intervenção minimamente invasiva seja perseguida. Para cada nova captura de ultrassom, o formato de fígado já segmentado pode ser sobreposto na imagem de ultrassom. Adicionalmente, especificamente conforme o dispositivo de rastreamento eletromagnético está calibrado e inicializado de forma adequada agora, os dados entregues e gravados pelo dispositivo de rastreamento eletromagnético podem ser usados para exibir, de forma muito precisa, uma vida de imagem de ultrassom registrada e durante o uso. Adicionalmente, é sempre possível fornecer visualização por TC correspondente em paralelo.
[0104] Durante a intervenção, no caso de divergências visuais entre a TC e as visualizações de ultrassom ou entre diferentes visualizações de ultrassom devem ocorrer, por exemplo, devido a um movimento no dispositivo de rastreamento eletromagnético, sendo que o processo de cossegmentação e registro pode ser executado como um “refinamento” da calibração e alinhamento. Novamente, uma pluralidade de imagens de ultrassom é capturada a partir de diferentes pontos de vista. O processo de cossegmentação e registro pode ser executado novamente com o uso desses novos dados de imagem capturados. Entretanto, como um sistema apenas se moveu, o sistema pode ser considerado como já inicializado. Portanto, não há a necessidade de um fluxograma de pré- calibração conforme explicado na etapa 146 e junto com a Figura 7.
[0105] A modalidade específica da invenção foi descrita no campo da calibração e no refinamento de solicitação de um rastreador eletromagnético durante uma intervenção minimamente invasiva. Portanto, um sistema de imagem de ultrassom equipado com um sensor de localização, por exemplo, um rastreador de um dispositivo de rastreamento eletromagnético, se beneficia a partir dessa invenção. Para a modalidade específica descrita acima, o formato do fígado em TC é preciso. Entretanto, a invenção também soluciona a cossegmentação e registro de um objeto alvo para o qual apenas uma estimativa aproximada do formato do objeto é dada, por exemplo, um formato médio. Assim, a invenção também encontra aplicação para sistemas de ultrassom que são equipados apenas com um dispositivo de rastreamento e para os quais nenhuma varredura por TC está disponível. Para essa aplicação, a invenção, então, pode servir para segmentar o objeto dentro de múltiplas visualizações de ultrassom. Adicionalmente, a cossegmentação e o registro podem ser conduzidos e suportados por dados de RM e com uma pluralidade de visualizações de ultrassom. Portanto, estações de trabalho de múltiplas modalidades também podem ter os benefícios desta invenção.
[0106] Embora a invenção tenha sido ilustrada e descrita em detalhes nos desenhos e na descrição precedente, tal ilustração e descrição devem ser consideradas ilustrativas ou exemplificadoras e não restritivas; a invenção não é limitada às modalidades reveladas. Outras variações para as modalidades reveladas podem ser compreendidas e efetuadas pelos versados na técnica na prática da invenção reivindicada a partir de um estudo dos desenhos, da revelação e das reivindicações anexas.
[0107] Nas reivindicações, a palavra “que compreende” não exclui outros elementos ou etapas e o artigo indefinido “um” ou “uma” não exclui uma pluralidade. Um único elemento ou outra unidade pode preencher as funções de diversos itens recitados nas reivindicações. O simples fato de que certas medições são citadas em reivindicações dependentes mutuamente diferentes não indica que uma combinação dessas medições não possa ser usada para vantagem.
[0108] Um programa de computador pode ser armazenado/distribuído em um meio adequado, tal como uma mídia de armazenamento óptico ou uma mídia de estado sólido suprida juntamente com ou como parte de outro hardware, mas também pode ser distribuído de outras formas tais como através da Internet ou de outros sistemas de telecomunicação sem fio ou com fio.
[0109] Nenhum símbolo de referência nas reivindicações deve ser interpretado como limitante do escopo.

Claims (14)

1. SISTEMA DE IMAGEAMENTO POR ULTRASSOM (10) PARA INSPECIONAR UM OBJETO (33) EM UM VOLUME (32), sendo o sistema de imageamento por ultrassom compreendendo: uma sonda de captura de imagens por ultrassom (14) para capturar imagens de ultrassom tridimensionais e fornecer dados de imagem de ultrassom tridimensional, compreendendo um dispositivo de rastreamento (25, 27) para rastrear uma posição da sonda de captura de imagens por ultrassom (14) e fornecer uma posição de ponto de vista (128, 130) das imagens de ultrassom tridimensionais, e um processador de imagem (36) configurado para receber os dados de imagem de ultrassom tridimensional e para fornecer dados de exibição, sendo que o processador de imagem é configurado para receber uma pluralidade de imagens de ultrassom tridimensionais e as respectivas posições de ponto de vista das mesmas (128, 130), caracterizado pelo processador de imagem (36) ser configurado adicionalmente para conduzir uma segmentação (80) do objeto (33) simultaneamente a partir da pluralidade de imagens de ultrassom tridimensionais.
2. SISTEMA DE IMAGEAMENTO POR ULTRASSOM, de acordo com a reivindicação 1, caracterizado pelo processador de imagem (36) ser configurado para conduzir a segmentação (80) pela minimização de um termo de energia de modo que um formato geométrico inicial deformado (64) corresponda ao contorno do objeto tão bem quanto possível.
3. SISTEMA DE IMAGEAMENTO POR ULTRASSOM, de acordo com a reivindicação 2, caracterizado pelo termo de energia compreender um primeiro termo que representa uma primeira imagem de ultrassom tridimensional (62) e pelo menos um termo adicional que representa uma imagem de ultrassom tridimensional adicional (60), sendo que o formato geométrico inicial deformado (64) é o mesmo tanto no primeiro quanto no pelo menos um termo adicional e sendo que pelo menos um dentre o primeiro e o pelo menos um termo adicional compreende, cada um, uma transformação de registro (76) que registra a imagem de ultrassom tridimensional (62) e a pelo menos uma imagem de ultrassom tridimensional adicional (60) ou, sendo que os termos de fidelidade de dados compreendem, cada um, uma transformação de registro (76) que registra a imagem de ultrassom tridimensional (62) e a pelo menos uma imagem de ultrassom tridimensional adicional (60).
4. SISTEMA DE IMAGEAMENTO POR ULTRASSOM, de acordo com a reivindicação 3, caracterizado por uma deformação do formato geométrico inicial (64) ser conduzida pela aplicação de uma transformação global (88) e uma transformação local não rígida (90) no formato geométrico inicial (64) e sendo que a transformação local não rígida (90) aplica um campo de deslocamento no formato geométrico inicial (64).
5. SISTEMA DE IMAGEAMENTO POR ULTRASSOM, de acordo com a reivindicação 2, caracterizado pelo processador de imagem ser configurado para determinar o formato geométrico inicial (64) com base em uma segmentação do objeto (33) em dados de imagem tridimensional capturados através de uma modalidade diferente, por exemplo, uma tomografia computadorizada.
6. SISTEMA DE IMAGEAMENTO POR ULTRASSOM, de acordo com a reivindicação 2, caracterizado pelo processador de imagem (36) ser configurado para receber o formato geométrico inicial (64) conforme uma definição por um usuário.
7. SISTEMA DE IMAGEAMENTO POR ULTRASSOM, de acordo com a reivindicação 3, caracterizado pelo processador de imagem ser configurado para determinar a transformação de registro (76) para cada imagem de ultrassom tridimensional para uma referência comum, por exemplo, dados de imagem tridimensional capturados através de uma modalidade diferente ou de uma dentre a pluralidade de imagens de ultrassom tridimensionais.
8. SISTEMA DE IMAGEAMENTO POR ULTRASSOM, de acordo com a reivindicação 1, caracterizado pelo processador de imagem ser configurado adicionalmente para conduzir a segmentação com base em uma inicialização de um espaço de busca de registro, sendo que a inicialização do espaço de busca de registro é conduzida pelo posicionamento aproximado de um formato geométrico inicial (64) em cada uma das imagens de ultrassom tridimensionais pela minimização de um termo de energia de modo que o formato geométrico inicial (64) corresponda a um contorno do objeto dentro da imagem de ultrassom tridimensional tão bem quanto possível.
9. SISTEMA DE IMAGEAMENTO POR ULTRASSOM, de acordo com a reivindicação 8, caracterizado pelo termo de energia ser minimizado pela otimização meramente de uma transformação de translação tridimensional, enquanto se leva em conta uma posição de ponto de vista (128, 130) da sonda de captura de imagens por ultrassom (14) ao capturar uma imagem tridimensional respectiva, e sendo que uma calibração da orientação tridimensional da sonda de captura de imagens rastreada pelo dispositivo de rastreamento é levada em conta.
10. SISTEMA DE IMAGEAMENTO POR ULTRASSOM, de acordo com a reivindicação 8, caracterizado pelo sistema de imageamento por ultrassom ser configurado adicionalmente para fornecer um refinamento sob solicitação da segmentação (80) e transformação de registro (76) por meio do uso de uma outra pluralidade de imagens de ultrassom tridimensionais capturada através da sonda de captura de imagens por ultrassom (14) e a inicialização já conduzida.
11. SISTEMA DE IMAGEAMENTO POR ULTRASSOM, de acordo com a reivindicação 1, caracterizado pelo dispositivo de rastreamento (25, 27) ser um dispositivo de rastreamento eletromagnético.
12. MÉTODO (140) PARA FORNECER UMA IMAGEM DE ULTRASSOM DE UM OBJETO (33) EM UM VOLUME (32), sendo o método caracterizado por compreender as seguintes etapas: fornecer (150) dados de imagem de ultrassom (62) do volume (32) que compreendem uma pluralidade de imagens de ultrassom tridimensionais e posições de ponto de vista (128, 130) de cada imagem de ultrassom tridimensional, processar (152) os dados de imagem de ultrassom (62) para segmentar e registrar o objeto simultaneamente a partir de uma primeira imagem de ultrassom e pelo menos uma imagem de ultrassom adicional para fornecer dados de imagem de ultrassom segmentada e registrada, e exibir (156) uma imagem de ultrassom com base nos dados de imagem de ultrassom segmentada e registrada.
13. MÉTODO, de acordo com a reivindicação 12, sendo o método caracterizado por compreender a etapa adicional de inserir (144) uma imagem tridimensional do objeto capturada com o uso de uma modalidade diferente, antes da etapa de fornecer (150) os dados de imagem de ultrassom.
14. MÉTODO, de acordo com a reivindicação 13, sendo o método caracterizado por compreender a etapa adicional de calibrar (146) um dispositivo de rastreamento para capturar as posições de ponto de vista (128, 130) pelo movimento da sonda de captura de imagens para pelo menos duas localizações diferentes em um eixo geométrico conhecido ou orientação da sonda em uma relação predefinida, isto é, paralela ou perpendicular a um eixo geométrico conhecido, por exemplo, o eixo geométrico craniocaudal de um paciente.
BR112015020425-2A 2013-02-28 2014-02-27 Sistema de imageamento por ultrassom inspecionar um objeto em um volume e método para fornecer uma imagem de ultrassom de um objeto em um volume BR112015020425B1 (pt)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
EP13305228.2 2013-02-28
EP13305228 2013-02-28
PCT/IB2014/059286 WO2014132209A1 (en) 2013-02-28 2014-02-27 Segmentation of large objects from multiple three-dimensional views

Publications (2)

Publication Number Publication Date
BR112015020425A2 BR112015020425A2 (pt) 2017-07-18
BR112015020425B1 true BR112015020425B1 (pt) 2022-06-21

Family

ID=47843216

Family Applications (1)

Application Number Title Priority Date Filing Date
BR112015020425-2A BR112015020425B1 (pt) 2013-02-28 2014-02-27 Sistema de imageamento por ultrassom inspecionar um objeto em um volume e método para fornecer uma imagem de ultrassom de um objeto em um volume

Country Status (7)

Country Link
US (1) US10631829B2 (pt)
EP (1) EP2961322B1 (pt)
JP (1) JP6537981B2 (pt)
CN (1) CN105025803B (pt)
BR (1) BR112015020425B1 (pt)
RU (1) RU2663649C2 (pt)
WO (1) WO2014132209A1 (pt)

Families Citing this family (36)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3108456B1 (en) * 2014-02-19 2020-06-24 Koninklijke Philips N.V. Motion adaptive visualization in medical 4d imaging
EP3155590B1 (en) * 2014-06-12 2019-12-04 Koninklijke Philips N.V. Medical image processing device and method
CN106456084B (zh) * 2014-06-18 2021-01-22 皇家飞利浦有限公司 超声成像装置
EP3190973A1 (en) * 2014-09-08 2017-07-19 Koninklijke Philips N.V. Medical imaging apparatus
CN108765438B (zh) 2014-10-21 2020-10-30 无锡海斯凯尔医学技术有限公司 一种肝脏边界的识别方法及系统
US10977787B2 (en) 2014-12-09 2021-04-13 Koninklijke Philips N.V. Feedback for multi-modality auto-registration
JP5949977B1 (ja) * 2015-02-19 2016-07-13 日本電気株式会社 情報処理装置、情報処理方法、メインプロセッサコア、プログラム、情報処理方法、サブプロセッサコア
RU2017134276A (ru) * 2015-03-31 2019-04-03 Конинклейке Филипс Н.В. Аппарат медицинской визуализации
US10675006B2 (en) * 2015-05-15 2020-06-09 Siemens Medical Solutions Usa, Inc. Registration for multi-modality medical imaging fusion with narrow field of view
JP6574531B2 (ja) * 2016-04-19 2019-09-11 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. 体内及び体外超音波プローブの音響的位置合わせ
US20190117190A1 (en) * 2016-04-19 2019-04-25 Koninklijke Philips N.V. Ultrasound imaging probe positioning
EP3463097B1 (en) * 2016-05-23 2019-10-09 Koninklijke Philips N.V. Correcting probe induced deformation in an ultrasound fusing imaging system
CN109310399B (zh) * 2016-06-06 2022-12-06 皇家飞利浦有限公司 医学超声图像处理设备
US9947102B2 (en) * 2016-08-26 2018-04-17 Elekta, Inc. Image segmentation using neural network method
JP6873647B2 (ja) * 2016-09-30 2021-05-19 キヤノンメディカルシステムズ株式会社 超音波診断装置および超音波診断支援プログラム
US10152786B2 (en) * 2016-10-11 2018-12-11 Biosense Webster (Israel) Ltd. Registration of a magnetic tracking system with an imaging device
GB201617444D0 (en) 2016-10-14 2016-11-30 Fujitsu Ltd Processing digital image to remove unwanted portion
JP6745998B2 (ja) * 2016-12-16 2020-08-26 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. 手術を誘導する画像を提供するシステム
CN108335336B (zh) * 2017-01-20 2024-04-02 深圳市恩普电子技术有限公司 超声成像方法和装置
EP3381512A1 (en) 2017-03-30 2018-10-03 Koninklijke Philips N.V. Determining at least one final two-dimensional image for visualizing an object of interest in a three-dimensional ultrasound volume
BR112019023740A2 (pt) * 2017-05-11 2020-05-26 Koninklijke Philips N.V. Dispositivo de imageamento interventivo, e mídia de armazenamento não transitório
US10980509B2 (en) * 2017-05-11 2021-04-20 Siemens Medical Solutions Usa, Inc. Deformable registration of preoperative volumes and intraoperative ultrasound images from a tracked transducer
EP3432262A1 (en) * 2017-07-18 2019-01-23 Koninklijke Philips N.V. Method and system for dynamic multi dimensional images of an object
EP3721411B1 (en) * 2017-12-04 2021-04-21 Koninklijke Philips N.V. Image data processing method, device and system
EP3496038A1 (en) * 2017-12-08 2019-06-12 Koninklijke Philips N.V. Registration of static pre-procedural planning data to dynamic intra-procedural segmentation data
EP3727158B1 (en) * 2017-12-19 2022-02-09 Koninklijke Philips N.V. Combining image based and inertial probe tracking
EP3528210A1 (en) * 2018-02-14 2019-08-21 Koninklijke Philips N.V. An imaging system and method with stitching of multiple images
US10872449B2 (en) * 2018-05-02 2020-12-22 Covidien Lp System and method for constructing virtual radial ultrasound images from CT data and performing a surgical navigation procedure using virtual ultrasound images
EP3590436A1 (en) * 2018-07-06 2020-01-08 Koninklijke Philips N.V. Identifying an optimal image from a number of ultrasound images
CN110772280B (zh) 2018-07-31 2023-05-23 佳能医疗系统株式会社 超声波诊断装置和方法以及图像处理装置和方法
EP3639750A1 (en) * 2018-10-15 2020-04-22 Koninklijke Philips N.V. Systems and methods for tracking a tool in an ultrasound image
CN110428506B (zh) * 2019-08-09 2023-04-25 成都景中教育软件有限公司 一种基于参数的动态几何三维图形切割实现方法
JP2023521466A (ja) * 2020-04-16 2023-05-24 コーニンクレッカ フィリップス エヌ ヴェ ロードマップ画像を生成するためのバイプレーン及び3次元超音波画像取得、並びに関連づけられたシステム及びデバイス
CN114190972B (zh) * 2020-09-18 2024-03-22 苏州佳世达电通有限公司 超声波影像物件的体积计算方法及应用其的超声波系统
US20220409167A1 (en) * 2021-06-24 2022-12-29 Biosense Webster (Israel) Ltd. Visualization of 4d ultrasound maps
WO2023245505A1 (en) * 2022-06-22 2023-12-28 Syngular Technology Limited A system and a method for 3d image processing, and a method for rendering a 3d image

Family Cites Families (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE69332042T2 (de) 1992-12-18 2003-01-02 Koninkl Philips Electronics Nv Ortungszurückstellung von relativ elastisch verformten räumlichen Bildern durch übereinstimmende Flächen
AU3950595A (en) 1994-10-07 1996-05-06 St. Louis University Surgical navigation systems including reference and localization frames
WO2002061689A1 (en) * 2001-01-30 2002-08-08 Koninklijke Philips Electronics N.V. Image processing method for displaying an image sequence of a deformable 3-d object with indications of the object wall motion
US6733458B1 (en) * 2001-09-25 2004-05-11 Acuson Corporation Diagnostic medical ultrasound systems and methods using image based freehand needle guidance
US20080139938A1 (en) 2002-06-07 2008-06-12 Fuxing Yang System and method to identify and measure organ wall boundaries
US20050137477A1 (en) * 2003-12-22 2005-06-23 Volume Interactions Pte. Ltd. Dynamic display of three dimensional ultrasound ("ultrasonar")
CN101541230B (zh) * 2006-11-21 2013-01-16 皇家飞利浦电子股份有限公司 用于对解剖结构中的组织进行体内成像的系统、设备
CN101681504A (zh) * 2006-11-27 2010-03-24 皇家飞利浦电子股份有限公司 用于将实时超声图像与预先获取的医学图像进行融合的系统和方法
US8520932B2 (en) * 2007-05-28 2013-08-27 The University Of Western Ontario 3D tissue model formation from non-parallel 2D images
US8771188B2 (en) * 2007-06-20 2014-07-08 Perception Raisonnement Action En Medecine Ultrasonic bone motion tracking system
US8057394B2 (en) * 2007-06-30 2011-11-15 St. Jude Medical, Atrial Fibrillation Division, Inc. Ultrasound image processing to render three-dimensional images from two-dimensional images
JP5179812B2 (ja) * 2007-09-07 2013-04-10 株式会社東芝 超音波診断装置、超音波画像処理装置、及び超音波画像処理プログラム
WO2009052497A2 (en) * 2007-10-18 2009-04-23 The University Of North Carolina At Chapel Hill Methods, systems, and computer readable media for mapping regions in a model of an object comprising an anatomical structure from one image data set to images used in a diagnostic or therapeutic intervention
WO2009095837A2 (en) * 2008-01-31 2009-08-06 Koninklijke Philips Electronics N.V. Automatic 3-d segmentation of the short-axis late-enhancement cardiac mri
RU2520369C2 (ru) * 2008-06-25 2014-06-27 Конинклейке Филипс Электроникс Н.В. Устройство и способ локализации представляющего интерес объекта у субъекта
EP2373241B1 (en) * 2008-12-03 2015-01-07 Koninklijke Philips N.V. Feedback system for integrating interventional planning and navigation
CN102308320B (zh) 2009-02-06 2013-05-29 香港科技大学 从图像生成三维模型
WO2012117381A1 (en) * 2011-03-03 2012-09-07 Koninklijke Philips Electronics N.V. System and method for automated initialization and registration of navigation system
US8358823B2 (en) 2011-03-30 2013-01-22 Mitsubishi Electric Research Laboratories, Inc. Method for tracking tumors in bi-plane images
RU2011119290A (ru) * 2011-05-16 2012-11-27 Андрей Александрович Рязанцев Способ применения метода трехмерной реконструкции ультразвукового изображения в выявлении причины билиарной обструкции
RU2653274C2 (ru) * 2012-08-30 2018-05-07 Конинклейке Филипс Н.В. Связанная сегментация в стандартных и контрастных ультразвуковых 3d-изображениях
US9147258B2 (en) * 2013-02-19 2015-09-29 General Electric Company Methods and systems for segmentation in echocardiography
CN106456084B (zh) * 2014-06-18 2021-01-22 皇家飞利浦有限公司 超声成像装置
JP6689253B2 (ja) * 2014-07-29 2020-04-28 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. 超音波撮像装置

Also Published As

Publication number Publication date
US10631829B2 (en) 2020-04-28
WO2014132209A1 (en) 2014-09-04
BR112015020425A2 (pt) 2017-07-18
RU2663649C2 (ru) 2018-08-07
CN105025803A (zh) 2015-11-04
JP6537981B2 (ja) 2019-07-03
RU2015141083A (ru) 2017-03-31
JP2016508406A (ja) 2016-03-22
EP2961322B1 (en) 2022-09-28
US20160007970A1 (en) 2016-01-14
CN105025803B (zh) 2018-02-23
EP2961322A1 (en) 2016-01-06

Similar Documents

Publication Publication Date Title
US10631829B2 (en) Segmentation of large objects from multiple three-dimensional views
US10242450B2 (en) Coupled segmentation in 3D conventional ultrasound and contrast-enhanced ultrasound images
KR101932721B1 (ko) 의료 영상들의 정합 방법 및 장치
JP5027922B2 (ja) 超音波診断装置
US11963826B2 (en) Reconstruction-free automatic multi-modality ultrasound registration
CN109152566B (zh) 校正超声融合成像系统中的探头引起的变形
WO2012117381A1 (en) System and method for automated initialization and registration of navigation system
KR20140096919A (ko) 의료 영상 정합 방법 및 장치
KR20140127635A (ko) 영상 정합 방법 및 장치
KR102114417B1 (ko) 영상 정합 방법 및 장치
US9020215B2 (en) Systems and methods for detecting and visualizing correspondence corridors on two-dimensional and volumetric medical images
US10945709B2 (en) Systems, methods and computer readable storage media storing instructions for image-guided interventions based on patient-specific models
Xiao et al. User-friendly freehand ultrasound calibration using Lego bricks and automatic registration
US11341661B2 (en) Method and apparatus for registering live medical image with anatomical model
JP6991354B2 (ja) 画像データ処理方法、デバイス及びシステム
Liu et al. CT-ultrasound registration for electromagnetic navigation of cardiac intervention
JP2017108992A (ja) 画像処理装置、画像処理システム、画像処理方法、及びプログラム

Legal Events

Date Code Title Description
B06F Objections, documents and/or translations needed after an examination request according [chapter 6.6 patent gazette]
B06U Preliminary requirement: requests with searches performed by other patent offices: procedure suspended [chapter 6.21 patent gazette]
B09A Decision: intention to grant [chapter 9.1 patent gazette]
B16A Patent or certificate of addition of invention granted [chapter 16.1 patent gazette]

Free format text: PRAZO DE VALIDADE: 20 (VINTE) ANOS CONTADOS A PARTIR DE 27/02/2014, OBSERVADAS AS CONDICOES LEGAIS