BR112019011375A2 - método para segmentar um objeto 3d em uma imagem de radiação médica - Google Patents

método para segmentar um objeto 3d em uma imagem de radiação médica Download PDF

Info

Publication number
BR112019011375A2
BR112019011375A2 BR112019011375A BR112019011375A BR112019011375A2 BR 112019011375 A2 BR112019011375 A2 BR 112019011375A2 BR 112019011375 A BR112019011375 A BR 112019011375A BR 112019011375 A BR112019011375 A BR 112019011375A BR 112019011375 A2 BR112019011375 A2 BR 112019011375A2
Authority
BR
Brazil
Prior art keywords
segmentation
convex hull
pixels
classified
voxels
Prior art date
Application number
BR112019011375A
Other languages
English (en)
Other versions
BR112019011375A8 (pt
Inventor
Ouji Asma
Original Assignee
Agfa Healthcare
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Agfa Healthcare filed Critical Agfa Healthcare
Publication of BR112019011375A2 publication Critical patent/BR112019011375A2/pt
Publication of BR112019011375A8 publication Critical patent/BR112019011375A8/pt

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/174Segmentation; Edge detection involving the use of two or more images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/12Edge-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/13Edge detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/187Segmentation; Edge detection involving region growing; involving region merging; involving connected component labelling
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • G06T2207/10081Computed x-ray tomography [CT]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20092Interactive image processing based on input by user
    • G06T2207/20104Interactive definition of region of interest [ROI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Quality & Reliability (AREA)
  • Medical Informatics (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Radiology & Medical Imaging (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Artificial Intelligence (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • General Engineering & Computer Science (AREA)
  • Apparatus For Radiation Diagnosis (AREA)
  • Magnetic Resonance Imaging Apparatus (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

com base na entrada de usuário um conjunto de pontos de contorno do objeto em 3d é detectado em um número de imagens de fatias em 2d que representam o objeto 3d. em seguida um objeto 2d é segmentado em cada uma das imagens de fatia por meio do conjunto de pontos de contorno de modo a serem obtidas máscaras de segmentação. finalmente por meio de interpolação entre máscaras de segmentação computadas, o objeto em 3d é segmentado.

Description

MÉTODO PARA SEGMENTAR UM OBJETO 3D EM UMA IMAGEM DE RADIAÇÃO MÉDICA
CAMPO DA INVENÇÃO [001] Refere-se a presente invenção a um método para segmentar um objeto em 3D em uma imagem de radiação médica tal como uma tomografia computadorizada (CT) ou uma imagem de ressonância magnética.
[002] Objetos tipicos que necessitam de ser segmentados em uma imagem são pequenos órgãos (por exemplo, rins) e tumores (por exemplo, tumor cerebral, tumor do figado, e outros assemelhados).
[003] A invenção é valiosa para diagnóstico, avaliação médica e acompanhamento. É realmente importante segmentar um tumor ou um órgão para medir seu tamanho e compará-lo com as medições anteriores ao longo do tempo. Também é importante segmentar esses objetos para melhor visualizar e analisar sua forma e aspectos morfológicos.
ANTECEDENTES DA INVENÇÃO [004] Conhecem-se na técnica métodos para a segmentação de objetos em imagens em 3D.
[005] Já se descreveram várias ferramentas de segmentação para órgãos dedicados ou tumores específicos.
[006] Com relação aos tumores cerebrais, a seguinte publicação descreve um método de segmentação: 3D brain tumor segmentation in multimodal MR images based on learning population- and patient-specific feature sets by Jun Jiang, Yao Wu, Meiyan Huang,Wei Yang,Wufan Chen,Qianjin Feng, in Computerized Medical Imaging and Graphics Volume 37, Issues 7-8, October-December 2013, Pages 512-521.
[007] Outra publicação refere-se à
Petição 870190051687, de 03/06/2019, pág. 4/21
2/9 segmentação de tumores do fígado: 3D Fuzzy Liver Tumor
Segmentation by Pawel Badura and Ewa Pietka in Information
Technologies in Biomedicine, Volume 7339 of the series
Lecture Notes in Computer Science pp 47-57.
[008] Ainda outra publicação refere-se à
segmentação de nódulos pulmonares: Segmentation of
pulmonary nodules in computed tomography using a regression neural network approach and its application to the Lung Image Database Consortium and Image Database Resource Initiative dataset por Temesguen Messay, Russell C. Hardie and Timothy R. Tuinstra, Medical Image Analysis, Volume 22, Issue 1, May 2015, Pages 48-62.
[009] Não obstante, são bastante raras ferramentas genéricas capazes de segmentar qualquer objeto dentro de uma reconstrução do corpo em 3D.
[0010] Existem algumas ferramentas de segmentação genérica semi-automáticas, tais como o produtor regional descrito no pedido de patente européia da Agfa HealthCare's EP 3063735 publicado em 7 de setembro de 2016.
[0011] A maior parte destas ferramentas é dedicada a tipos de objetos específicos.
[0012] Além disso, de um modo geral esses métodos exigem muita interação por parte do usuário.
[0013] A interação por parte do usuário pode conduzir a resultados imprecisos, uma vez que o usuário pode não ser útil o suficiente para executar operações de segmentação muito precisas.
[0014] Constitui um aspecto da presente invenção proporcionar um método aperfeiçoado para segmentar um objeto em 3D em uma imagem de radiação médica que supera
Petição 870190051687, de 03/06/2019, pág. 5/21
3/9 as desvantagens mencionadas anteriormente neste contexto.
SUMÁRIO DA INVENÇÃO [0015] Os aspectos mencionados anteriormente no presente caso são realizados por meio de um método tal como se encontra estabelecido na reivindicação 1.
[0016] Aspectos específicos para concretizações preferidas da invenção encontram-se estabelecidos nas reivindicações dependentes.
[0017] Outras vantagens e concretizações da
presente invenção tornar-se-ão evidentes a partir da
descrição seguinte e desenhos em anexo.
[0018] 0 método da invenção compreende de um
modo geral as seguintes etapas:
1. Com base na interação do usuário, o
contorno do obj eto é detectado em várias imagens de fatia
2D selecionadas a partir de uma representação de fatia de uma imagem de radiação em 3D que compreende o objeto em 3D,
2. Em cada uma destas fatias uma mascara de segmentação de objeto em 2D é gerada com base nos pontos de contorno resultantes da etapa anterior,
3. Finalmente, as mascaras de segmentação geradas são submetidas a interpelação de modo a gerar um volume em 3D segmentado.
[0019] O método proposto requer interação por parte do usuário limitada e intuitiva. Apenas alguns poucos contornos têm de ser desenhados pelo usuário, as outras etapas são executadas automaticamente aplicando-se o processamento de imagem às imagens de fatia 2D que constituem o volume em 3D.
[0020] De um modo geral a presente invenção é
Petição 870190051687, de 03/06/2019, pág. 6/21
4/9 [0021] concretizada na forma de um produto de programa de computador adaptado para realizar as etapas de processo da presente invenção quando executadas em um computador combinado com interação de usuário para definir alguns dos pontos de semente necessários. O produto de programa de computador é comumente armazenado em um meio de transporte capaz de ser lido por computador, tal como um DVD. De forma alternativa, o produto de programa de computador toma a forma de um sinal elétrico e pode ser comunicado a um usuário por meio de comunicação eletrônica.
DESCRIÇÃO BREVE DOS DESENHOS [0022] A Figura 1 mostra a detecção de contorno com base na entrada de usuário de uma imagem de 2D. A Figura la mostra um contorno traçado por um usuário.
[0023] A Figura 1b mostra que o contorno é ajustado automaticamente.
[0024] A Figura 2 mostra uma interpelação de máscara de 3D a partir de máscaras de 2D.
[0025] Na figura à esquerda, são mostradas
máscaras de 2D nas vistas axial e sagital. Na foto à
direita, está ilust rada uma máscara em 3D.
DESCRIÇÃO DETALHADA DA INVENÇÃO
[0026] As imagens de radiação de obj etos em
3D são tipicamente geradas pela aplicação de técnicas de
gravação de imagens, tais como Computer Tomography or
Magnetic Resonance Imaging.
[0027] A representação da imagem médica
gerada por meio dessas técnicas é um número de imagens de fatia 2D (também chamadas de planos) obtidas pela digitalização do objeto.
Petição 870190051687, de 03/06/2019, pág. 7/21
5/9 [0028] Na formação de imagens de tomografia computadorizada (CT), as imagens de fatia são geradas expondo o objeto e gravando imagens sob diferentes ângulos, de modo a produzir imagens transversais (tomográficas) (fatias virtuais) de áreas especificas de um objeto
digitalizado. de imagem de RM, os
[0029] Na formação
resultados formam uma exposição que também são imagens de
fatia.
[0030] A radiação usada para formação de
imagens pode, portanto, ser de diferentes tipos, tais como raios X, ondas de rádio e outros assemelhados.
[0031] A invenção é de um modo geral aplicável a técnicas de imagens de 3D que produzem imagens de fatia. A entrada para o método da presente invenção é compreendida por um conjunto de imagens de fatia, pelo menos duas, de uma representação de imagem 3D de um objeto.
[0032] Normalmente, essas imagens de fatia não apenas compreendem o objeto, mas também incluem pixels ao redor do objeto. Um processo de segmentação para separar o objeto do restante da imagem é desejado para algumas aplicações, tais como diagnóstico, avaliação médica e acompanhamento.
[0033] A fim de executar o método de segmentação da presente invenção, o usuário realiza uma primeira e única ação na exibição de um número de imagens de fatias fora da representação de imagem adquirida da imagem de 3D. Esta etapa é a única interativa (a única etapa que requer interação do usuário) . Os resultados da ação do usuário são introduzidos em um dispositivo de
Petição 870190051687, de 03/06/2019, pág. 8/21
6/9 processamento de imagem que executa uma aplicação de software do método da presente invenção, tal como se encontra exposto mais adiante.
[0034] Em uma primeira etapa, as imagens da fatia que serão consideradas serão exibidas em um monitor.
[0035] O usuário traça alguns contornos grosseiros (Figura l.a) em torno do objeto (tumor, órgão, ou outro assemelhado) a serem segmentados. Os contornos são traçados nas imagens de fatia 2D exibidas (planos).
[0036] Em seguida, cada contorno é ajustado automaticamente para se ajustar ao contorno do objeto. (Figura 1.b).
[0037] O contorno é detectado procurando-se um gradiente máximo na vizinhança dos pixels de entrada calculando-se a magnitude da imagem gradiente e selecionando-se os seus valores máximos em uma sub-região que circunda os pontos de entrada do usuário (o tamanho da região está descrito na concretização).
[0038] Também pode ser usado um Canny Edge Detector para este propósito, mas ele é mais demorado. Um exemplo no qual é utilizado um Canny Edge Detector encontra-se descrito na seção da concretização detalhada.
SEGMENTAÇÃO DA IMAGEM 2D [0039] Para cada plano onde foi traçado um contorno, todos os pixels dentro do contorno são considerados parte do objeto.
[0040] Todos os pixels fora do contorno no mesmo plano são considerados fora do objeto (por exemplo, na Figura 2, imagens do lado esquerdo, pixels listrados nos planos axial e sagital fazem parte da máscara de
Petição 870190051687, de 03/06/2019, pág. 9/21
Ί/°>
segmentação e os pixels restantes estão situados fora
dela). [0041] Deste modo, cada pixel dentro de um
plano onde foi traçado um contorno é atribuído a um dos
tipos: dentro do objeto ou fora do mesmo.
INTERPOLAÇÃO DA MÁSCARA 3D
[0042] 0 algoritmo de interpolação é
alimentado com os pixels de entrada / saida das máscaras de segmentação criadas na etapa anterior.
[0043] O algoritmo de interpolação podería ser, por exemplo, um caminhante aleatório (Random Walker) (Ref. L. Grady: Random Walks for Image Segmentation, IEEE Trans, on Pattern Analysis and Machine Intelligence, Vol. 28, No. 11, pp. 1768-1783, Nov., 2006.), gerador de região, casco convexo ou limiar de mapa de distância.
CONCRETIZAÇÃO DETALHADA [0044] O usuário traça uns poucos contornos, tipicamente dois (ou mais se necessários) contornos em duas fatias paralelas, ou três contornos em três planos perpendiculares (axial, coronal e sagital, por exemplo).
[0045] Cada contorno é ajustado em tempo real (enquanto é traçado), no mesmo plano (imagem) sobre o qual é traçado, usando-se o detector Canny Edge (Ref. Canny, J., A Abordagem Computacional à Detecção de Arestas, IEEE Trans. Pattern Analysis e Machine Intelligence, 8 (6): 679698, 1986) da seguinte maneira:
[0046] Inicialmente (quando o usuário começa a traçar o contorno), o detector Canny Edge é computado localmente na proximidade do pixel de entrada (em uma janela 32x32 em torno do pixel).
Petição 870190051687, de 03/06/2019, pág. 10/21
8/9 [0047] O primeiro ponto de contorno ajustado é o mais próximo entre as arestas detectadas para o ponto de entrada.
[0048] Os próximos pixels são calculados de forma semelhante a partir do último ponto computado de cada vez, isto é, Canny Edges são computados localmente na vizinhança do último ponto de contorno ajustado, e o próximo ponto ajustado é o mais próximo do último ponto computado entre os pontos de borda detectados. O algoritmo pára quando o contorno está fechado.
[0049] Quando todos os contornos estiverem concluídos, a segmentação da imagem em 2D é executada da seguinte forma:
[0050] Para cada plano em que foi traçado um contorno, cada pixel é classificado como dentro ou fora do objeto de segmentação final. Pertence ao objeto de segmentação se ele estiver circundado por pontos de contorno e, fora dele, de outra forma. Os pixels internos e externos serão usados pela próxima etapa de segmentação 3D.
[0051] A segmentação de 3D consiste de duas etapas principais:
[0052] Calcular o casco convexo 3D (Ref. Preparata, Shamos, Computational Geometry, Chapter Convex Hulls: Basic Algorithms) contendo todos os pixels classificados como dentro do objeto de segmentação na etapa anterior.
[0053] A máscara de casco convexa é refinada para produzir a máscara de segmentação final, usando-se o seguinte algoritmo de refinamento de casco convexo.
Petição 870190051687, de 03/06/2019, pág. 11/21
9/9
ALGORITMO DE REFINAMENTO DE CASCO CONVEXO [0054] As etapas a seguir são repetidas iterativamente até que sejam processados todos os pixels dentro da máscara de casco convexa.
[0055] l)Encontrar todos os voxels no casco convexo ainda não classificados e adjacentes a pelo menos um voxel já classificado (dentro ou fora do voxel).
[0056] Seja V o conjunto desses voxels candidatos [0057] 2)Cada voxel v em V é classificado como dentro/fora no objeto final de segmentação da seguinte forma:
[0058] a. Se o número de voxels adjacentes e do voxels já classificados for exatamente um, então v obtém o mesmo tipo que este vizinho;
[0059] b. Caso contrário, v obtém o tipo do vizinho com o valor de intensidade mais semelhante.
[0060] 3) Se todos os voxels na máscara de casco convexo forem classificados, o algoritmo termina; caso contrário, segue para a etapa 1).

Claims (2)

    REIVINDICAÇÕES
  1. -1) encontrar um conjunto V de voxels candidatos, sendo todos os voxels no casco convexo ainda não
    Petição 870190051687, de 03/06/2019, pág. 13/21
    2/2 classificados como dentro ou fora e adjacentes a pelo menos um voxel já classificado como dentro ou fora,
    -2) classificar cada voxel v em V dentro ou fora do objeto de segmentação final como se segue:
    - se o número de voxels adjacentes e já classificados for exatamente um, então v terá o mesmo tipo que este vizinho;
    - de outro modo v obtém o tipo de um vizinho com o valor de intensidade que mais se assemelha,
    -3) se todos os voxels na máscara de casco convexo forem classificados, finalizar o algoritmo; caso contrário, seguir para a etapa 1.
    1. Método para segmentar um objeto 3D em uma imagem de radiação médica representada por um número de imagens de fatia 2D que compreende as etapas de:
    a) exibir pelo menos duas das ditas imagens de fatia,
    b) traçar manualmente uma linha de contorno delineando uma região de interesse pertencente ao dito objeto 3D nas imagens de fatias 2D exibidas,
    c) alimentar pixels da linha de contorno traçada em um dispositivo de processamento de sinal executando um algoritmo de ajuste e ajustando a linha de contorno traçada ao objeto aplicando-se o referido algoritmo de ajuste aos ditos pixels,
    d) gerar máscaras de segmentação por meio da segmentação, em cada uma das imagens da referida fatia, um objeto 2D baseado em pixels do contorno ajustado computado na etapa 3,
    e) executar interpelação nas referidas máscaras de segmentação de modo a gerar um objeto 3D segmentado, em que a interpelação nas máscaras de segmentação é executada por meio de calcular o casco convexo 3D que contém todos os pixels classificados dentro do objeto na máscara de segmentação, e
    - refinar o dito casco convexo para produzir uma máscara de segmentação final realizando iterativamente as seguintes etapas dentro da máscara de casco convexa
  2. 2. Método de acordo com a reivindicação 1, em que o referido algoritmo de ajuste é baseado em um algoritmo Canny Edge Detector.
BR112019011375A 2016-12-13 2017-12-01 Método para segmentar um objeto 3d em uma imagem de radiação médica BR112019011375A8 (pt)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
EP16203673 2016-12-13
PCT/EP2017/081111 WO2018108569A1 (en) 2016-12-13 2017-12-01 Method of segmenting a 3d object in a medical radiation image

Publications (2)

Publication Number Publication Date
BR112019011375A2 true BR112019011375A2 (pt) 2019-10-15
BR112019011375A8 BR112019011375A8 (pt) 2023-04-04

Family

ID=57569908

Family Applications (1)

Application Number Title Priority Date Filing Date
BR112019011375A BR112019011375A8 (pt) 2016-12-13 2017-12-01 Método para segmentar um objeto 3d em uma imagem de radiação médica

Country Status (5)

Country Link
US (1) US10902603B2 (pt)
EP (1) EP3555852B1 (pt)
CN (1) CN110050293A (pt)
BR (1) BR112019011375A8 (pt)
WO (1) WO2018108569A1 (pt)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107480673B (zh) * 2017-06-30 2021-01-26 上海联影医疗科技股份有限公司 确定医学图像中感兴趣区域的方法、装置及图像编辑系统
NL2019905B1 (en) * 2017-11-14 2019-05-20 Mat Systems and methods for segmenting images
EP3832596A1 (en) * 2019-12-06 2021-06-09 Microsoft Technology Licensing, LLC 3d image segmentation
CN113506314B (zh) * 2021-06-25 2024-04-09 北京精密机电控制设备研究所 一种复杂背景下对称四边形工件的自动抓取方法及装置

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1301494C (zh) * 2004-06-07 2007-02-21 东软飞利浦医疗设备系统有限责任公司 一种医学图像的三维分割方法
US7702153B2 (en) * 2005-10-07 2010-04-20 Siemens Medical Solutions Usa, Inc. Systems and methods for segmenting object of interest from medical image
US7773786B2 (en) * 2005-11-22 2010-08-10 General Electric Company Method and apparatus for three-dimensional interactive tools for semi-automatic segmentation and editing of image objects
CN103049907B (zh) * 2012-12-11 2016-06-29 深圳市旭东数字医学影像技术有限公司 交互式图像分割方法
WO2015063054A1 (en) 2013-10-30 2015-05-07 Agfa Healthcare Vessel segmentation method
CN104091365B (zh) * 2014-07-12 2017-11-10 大连理工大学 面向序列化髋关节ct图像的髋臼组织模型重建方法
US9875581B2 (en) * 2014-10-31 2018-01-23 The Regents Of The University Of California Automated 3D reconstruction of the cardiac chambers from MRI or ultrasound
US10769481B2 (en) * 2017-09-07 2020-09-08 Myntra Design Private Limited System and method for extraction of design elements of fashion products

Also Published As

Publication number Publication date
WO2018108569A1 (en) 2018-06-21
EP3555852B1 (en) 2020-08-12
EP3555852A1 (en) 2019-10-23
US10902603B2 (en) 2021-01-26
CN110050293A (zh) 2019-07-23
US20200074636A1 (en) 2020-03-05
BR112019011375A8 (pt) 2023-04-04

Similar Documents

Publication Publication Date Title
EP3108445B1 (en) Sparse appearance learning-based segmentation
CN109074639B (zh) 医学成像系统中的图像配准系统和方法
EP2916738B1 (en) Lung, lobe, and fissure imaging systems and methods
US11443433B2 (en) Quantification and staging of body-wide tissue composition and of abnormal states on medical images via automatic anatomy recognition
US11250601B2 (en) Learning-assisted multi-modality dielectric imaging
BR112019011375A2 (pt) método para segmentar um objeto 3d em uma imagem de radiação médica
Lee et al. Segmentation of individual ribs from low-dose chest CT
Liu et al. An ITK implementation of a physics-based non-rigid registration method for brain deformation in image-guided neurosurgery
Cha et al. Segmentation and tracking of lung nodules via graph‐cuts incorporating shape prior and motion from 4D CT
Park et al. Deformable registration of CT and cone-beam CT with local intensity matching
Li et al. Medical image segmentation in oral-maxillofacial surgery
Thirumaran et al. Medical image processing–an introduction
Tan et al. An approach for pulmonary vascular extraction from chest CT images
Sakellarios et al. Novel methodology for 3D reconstruction of carotid arteries and plaque characterization based upon magnetic resonance imaging carotid angiography data
Cheng et al. Deep learning with orthogonal volumetric HED segmentation and 3D surface reconstruction model of prostate MRI
Tong et al. Disease quantification on PET/CT images without explicit object delineation
Hemmati et al. Semi-automatic 3D segmentation of carotid lumen in contrast-enhanced computed tomography angiography images
Ukwatta et al. Myocardial infarct segmentation and reconstruction from 2D late-gadolinium enhanced magnetic resonance images
US20240078669A1 (en) System and methods for inferring thickness of object classes of interest in two-dimensional medical images using deep neural networks
Talat et al. A novel enhanced normalization technique for a mandible bones segmentation using deep learning: batch normalization with the dropout
Jain et al. Automatic Multi-organ Segmentation on Abdominal CT scans using Deep U-Net Model
Tan et al. Automatic extraction of 3d airway tree from multislice computed tomography images
Kockelkorn et al. Interactive lung segmentation in abnormal human and animal chest CT scans
Ayari et al. Analysis of regional deformation of the heart's left ventricle using invariant SPHARM descriptors
Lacerda et al. A parallel method for anatomical structure segmentation based on 3d seeded region growing

Legal Events

Date Code Title Description
B350 Update of information on the portal [chapter 15.35 patent gazette]
B06W Patent application suspended after preliminary examination (for patents with searches from other patent authorities) chapter 6.23 patent gazette]
B15K Others concerning applications: alteration of classification

Free format text: AS CLASSIFICACOES ANTERIORES ERAM: G06T 7/174 , G06T 7/11

Ipc: G06T 7/174 (2017.01)