WO2018002782A1 - Método para geração de representações vetoriais de movimento baseado em visão computacional e uso - Google Patents

Método para geração de representações vetoriais de movimento baseado em visão computacional e uso Download PDF

Info

Publication number
WO2018002782A1
WO2018002782A1 PCT/IB2017/053738 IB2017053738W WO2018002782A1 WO 2018002782 A1 WO2018002782 A1 WO 2018002782A1 IB 2017053738 W IB2017053738 W IB 2017053738W WO 2018002782 A1 WO2018002782 A1 WO 2018002782A1
Authority
WO
WIPO (PCT)
Prior art keywords
phase
steps
generating
map
generated
Prior art date
Application number
PCT/IB2017/053738
Other languages
English (en)
French (fr)
Inventor
Hudson Luiz SILVA DE MIRANDA
Luiz Fernando ETRUSCO MOREIRA
Marco Aurélio ROMANO SILVA
Ado Jório DE VASCONCELOS
Manuel SCHUTZE
Original Assignee
Universidade Federal De Minas Gerais - Ufmg
Ivision Sistemas De Imagem E Visão S.A
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Universidade Federal De Minas Gerais - Ufmg, Ivision Sistemas De Imagem E Visão S.A filed Critical Universidade Federal De Minas Gerais - Ufmg
Publication of WO2018002782A1 publication Critical patent/WO2018002782A1/pt

Links

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/05Detecting, measuring or recording for diagnosis by means of electric currents or magnetic fields; Measuring using microwaves or radio waves 
    • A61B5/055Detecting, measuring or recording for diagnosis by means of electric currents or magnetic fields; Measuring using microwaves or radio waves  involving electronic [EMR] or nuclear [NMR] magnetic resonance, e.g. magnetic resonance imaging
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/11Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/02Arrangements for diagnosis sequentially in different planes; Stereoscopic radiation diagnosis
    • A61B6/03Computed tomography [CT]
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/52Devices using data or image processing specially adapted for radiation diagnosis
    • A61B6/5258Devices using data or image processing specially adapted for radiation diagnosis involving detection or reduction of artifacts or noise
    • A61B6/5264Devices using data or image processing specially adapted for radiation diagnosis involving detection or reduction of artifacts or noise due to motion
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • G01B11/25Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01RMEASURING ELECTRIC VARIABLES; MEASURING MAGNETIC VARIABLES
    • G01R33/00Arrangements or instruments for measuring magnetic variables
    • G01R33/20Arrangements or instruments for measuring magnetic variables involving magnetic resonance
    • G01R33/28Details of apparatus provided for in groups G01R33/44 - G01R33/64
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01RMEASURING ELECTRIC VARIABLES; MEASURING MAGNETIC VARIABLES
    • G01R33/00Arrangements or instruments for measuring magnetic variables
    • G01R33/20Arrangements or instruments for measuring magnetic variables involving magnetic resonance
    • G01R33/44Arrangements or instruments for measuring magnetic variables involving magnetic resonance using nuclear magnetic resonance [NMR]
    • G01R33/48NMR imaging systems
    • G01R33/54Signal processing systems, e.g. using pulse sequences ; Generation or control of pulse sequences; Operator console
    • G01R33/56Image enhancement or correction, e.g. subtraction or averaging techniques, e.g. improvement of signal-to-noise ratio and resolution
    • G01R33/565Correction of image distortions, e.g. due to magnetic field inhomogeneities
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/593Depth or shape recovery from multiple images from stereo images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods

Definitions

  • the present invention describes a method for generating coordinate information relating to motion artifacts.
  • the technology uses structured lighting techniques based on multiple projection patterns applied to the three-dimensional image reconstruction steps associated with data processing (shadow removal, background removal, random noise filtering and data sampling).
  • the technology also allows to provide a temporal sequence of three-dimensional data related to the movement of an object of interest subjected to image capture. It can be applied to diagnostic imaging equipment such as magnetic resonance imaging, as well as tomography equipment such as x-ray computed tomography or positron emission.
  • the proposed method is able to track the patient's movements in six degrees of freedom (three rotational and three linearly independent translational) during data acquisition and, from this information, provide position tracking data over time for prospective correction. of motion artifacts.
  • the advantages are: elimination of fiducial markers, reduction of time and expenses related to diagnostic imaging procedures, as well as comfort and preservation of the patient's health, especially in procedures involving radiation exposure.
  • the present invention describes an apparatus capable of tracking patient movements in six degrees of freedom (three rotational and three linearly independent translational) during data acquisition and, from this information, is able to provide position tracking data over time. for prospective correction of motion artifacts.
  • the present invention employs structured lighting and computer vision techniques to eliminate the need for fiducial markers to be attached to the patient.
  • Prospective image correction techniques are of particular interest in the medical context. Movement of patients during the acquisition of diagnostic equipment may cause artifacts that degrade data quality and hinder subsequent diagnostic processes, decision making, and monitoring. Established alternatives to solve the artifacts caused by movement are, in their most direct form, the mechanical immobilization of the patient. Alternatively, fiducial markers are attached to the patient so that an acquisition system obtains, from the marker positions, the position information necessary to perform the correction of the artifacts in question.
  • US 201 10230755 entitled “ Single camera motion measurement and monitoring for magnetic resonance applications” presents a solution for generating a camera and projector based correction coordinate system, but utilizes patient-fixed markers to obtain the information needed for data generation for tracking.
  • US 8121361 entitled “ Motion tracking system for real time adaptive imaging and spectroscopy” generates data for prospective correction using a camera, but uses a reflective retro-grate as a marker.
  • WO 2009129457 entitled “ Movement correction in mri using a camera” proposes equipment capable of performing artifact correction using computer vision and without the use of markers. However, the methodology and equipment presented do not incorporate a solution based on structured lighting.
  • EP 1524626 and WO 20141 16868 entitled “ Optical image-based position tracking for magnetic resonance imaging” and " Systems, devices, and methods for tracking and compensating for patient motion during a medical imaging scan, " respectively, provide for The use of cameras for position tracking in diagnostic imaging systems, but also make use of markers to accomplish this goal.
  • WO 2014120734 entitled “ Motion tracking system for real time adaptive motion compensation in biomedical imaging” proposes the use of a pattern projected on the subject as a fiducial marker, but does not provide for the use of multiple temporally multiplexed patterns for marker coding. . However, it also does not provide for the use of patterns projected in bands outside the spectrum visible to the human eye (between 400 nm and 700 nm).
  • FIGURE 1 - Figure 1 shows the result of the controlled tracking test.
  • the dotted line indicates the desired value for the measurement, the points indicate the measured value and the crosses indicate the non-linearity corrected measurement values.
  • the second graph shows the angle estimation error.
  • FIGURE 2 - Figure 2 shows a possible embodiment of an embodiment of the equipment associated with the invention which is a method.
  • (8) represents a camcorder filming the object of interest
  • (9) represents the structured lighting projector
  • (10) and (11) represent the fields of view of the camera and projector respectively
  • (12) represents an object Of interest, in this case a patient
  • (13) represents the mechanical structure of the diagnostic equipment
  • (14) represents a mechanical structure to guarantee the physical stability of the system.
  • the present invention describes a method for generating coordinate information relating to motion artifacts.
  • the technology uses structured lighting techniques based on multiple projection patterns applied to the three-dimensional image reconstruction steps associated with data processing (shadow removal, background removal, random noise filtering and data sampling).
  • the technology also allows to provide a temporal sequence of three-dimensional data related to the movement of an object of interest subjected to image capture.
  • the proposed method is able to track the patient's movements in six degrees of freedom (three rotational and three linearly independent translational) during data acquisition and, from this information, provide position tracking data over time for prospective correction. of motion artifacts.
  • the advantages are: elimination of fiducial markers, reduction of time and expenses related to diagnostic imaging procedures, as well as comfort and preservation of the patient's health, especially in procedures involving radiation exposure.
  • a device may be used consisting of: a visible or infrared spectrum image projector (9), characterized by an optical or optoelectronic system capable of projecting one-dimensional or two-dimensional images; an image capture system (8), usually characterized by a camera; and a processing and control system.
  • the apparatus associated with the invention may comprise optical and mechanical elements for adapting the invention to a plurality of medical diagnostic imaging equipment such as magnetic resonance imaging (NMRI), positron emission (PET) and x-ray computed tomography ( CT).
  • NMRI magnetic resonance imaging
  • PET positron emission
  • CT x-ray computed tomography
  • Figure 2 shows a possible configuration of such equipment.
  • the method for generating computational vision-based motion vector representations consists of a three-dimensional reconstruction and is based on the structural illumination technique with temporal multiplexing coding of sine waves.
  • the waveform set is used to encode the image pixels according to the projected wave phase map.
  • the phase map obtained is then compared with a calibration map and from the comparison the depth of the scene can be obtained (Song Zhang. High-resolution, Real-time 3-D Shape Measurement. Physical Review Letters, 107 ( May): 021802, 201 1 ).
  • Structured illumination is encoded from a set of three 120 Q lagged sinusoidal patterns, generating a unique encoding of the pixels within each line of the image.
  • the projected sinusoidals are generated according to Equation 1.
  • i, 2 H - ⁇ ⁇ ⁇ im ⁇
  • 1D_ represents a constant compensation
  • 7 ⁇ the amplitude of the sinusoid
  • (i; j) is the position of a pixel in the structured illumination pattern.
  • the proposed method there is a synchronous loop between projected pattern change and camera image capture. This loop is perpetuated while the diagnostic system data acquisition procedure is being performed.
  • the image stream can then be processed to generate information for prospective correction of motion artifacts.
  • the image sequence of this stream is processed by a method module capable of interpreting the pattern encoded by the sequence of images projected onto the object of interest: the reconstruction module. From three images Subsequent to the phase of the projected pattern, it is possible to construct a phase map of the image. In real situations in which the phase map is obtained, however, there may be nonlinearities introduced by the projection equipment used. However, as the error introduced by nonlinearity for each phase value is fixed, a simple Lookup Table or LUT can be used to correct this phenomenon. To increase the efficiency of this operation, the nonlinearity correction data is stored in an ordered list and during the query, a binary search of the key whose value is closest to that of the search request is made.
  • the phase map individually does not provide enough information to perform three-dimensional reconstruction as it is just a set of encodings for the image pixels. It is still necessary to have a reference condition for the proposed coding.
  • the first step in obtaining a three-dimensional point cloud is the comparative analysis of the map obtained with a calibration map. This calibration map is obtained from the reference plane in the equipment's working field only (region within the field of view of the camera and projector). To obtain the depth map it is necessary to calculate the relative phase between the calibration map and the phase map. Actual dimensions can be obtained by calibration constants for each of the quantities. These parameters can be obtained by using a calibration object whose dimensions are known. The conversion is applied individually to all points in the set, obtaining a cloud in which the coordinates of the points represent their actual positions in space.
  • Shadow Removal By projecting the structured lighting pattern onto an object, its topology can cast projection shadows on the image captured by the camera. Since in these regions there are no patterns being actually projected, the phase measurement in these areas are artifacts to be removed from the point cloud. To detect shadow regions simply analyze three subsequent grayscale images and evaluate the intensity variation of each pixel along the sequence. Equation (2) describes a metric developed to quantify this variation.
  • Equation (2) where ⁇ ( ⁇ ; j) is the average of the pixels at position (i; j) in the three images.
  • the numerator will be as large as the variability of pixel intensities relative to the mean.
  • the mean in the denominator acts as a normalizing factor that reduces the effect of the object's local reflectivity and ambient light from index calculation.
  • the index calculation is done for all pixels of the image, then the index map is binarized using an experimentally defined threshold, as it varies according to external characteristics, such as intensity of external light sources. In the binarization process the data corresponding to the indices whose values are below the threshold are deleted. That is, the pixels in which the expected intensity range is not reached are eliminated.
  • Random Noise Filtering The phase map obtained by the presented method carries noise from the acquisition noise of the images used in its calculation. In order to filter out random noise in the phase map without losing topological information of the object being measured, an appropriate filtering process should be used.
  • the bilateral filtering process was adopted (C. Tomasi and R. Manduchi. Bilateral Filtering for Gray and Color Images. International Conference on Computer Vision, pages 839 " 846, 1998.) This strategy performs a weighted average within a neighborhood of points, taking into account their spatial distance and their pixel phase value distance, so the bilateral filter is able to filter out random noise at high while conserving topological information with high spatial frequency.
  • the point cloud obtained as a result of the reconstruction module may be oversampled, a sample larger than that demanded by the spatial frequency spectrum of the measured topology.
  • a voxel grid filtering (voxelgrid) was used. This method consists of segmenting the point cloud within predefined size voxels and, for each voxel, calculating the centroid of the points contained within it. The resulting point cloud is composed only of the centroids calculated for each voxel.
  • the process simultaneously performs noise sampling and filtering, since the calculation involves the average of the points in the voxel (insert voxelgrid bibliography).
  • the data generated in the steps corresponding to the presented reconstruction module that underwent the treatments, as in the examples described above, are then used in the three-dimensional position information generation step in the form of a three-dimensional cloud of points representing the object. of interest in space.
  • the subsequent step provides a temporal sequence of three-dimensional data of the object of interest and processes it considering temporal position variations, and may result in a coordinate system representing an object in space (in the case of rigid bodies) or a field map. vector (in the case of objects that may present significant deformation, such as the thoracic region and the neck of the human body).
  • R 3x3 is an orthonormal rotation matrix and t 3x1 is a vector representing three-dimensional translation.
  • M model point cloud
  • ⁇ (R, t) which, applied to M, best aligns it with the cloud C that represents the object at its current position. This criterion is equivalent to minimizing the objective function (3):
  • Function (3) is analogous to that used in point cloud registration problems where you want to align a given set of points to a model set as described in function (4):
  • FANNS Fast Approximate Nearest Neightbor Search
  • This technique consists of searching for approximate results using data structures such as random kd-trees or hierarchical k-based trees. Muja and Lowe (2009) propose these structures as well as a methodology for choosing the data structure and its parameters that best fit the characteristics of the data used (Marius Muja and David G. Lowe. Fast Approximate Nearest Neighbors with Automatic Algorithm Configuration International Conference on Computer Vision Theory and Applications (VISAPP ⁇ 9), pages 1 " 10, 2009.).
  • FANNS Fast Approximate Nearest Neightbor Search
  • Equation (5) For a least squares solution of Equation (5), the centroids of the two sets of points must be equal (DW Eggert, A Lorusso, and RB Fisher. Estimating 3-D rigid body transformations: a comparison of four major algorithms Machine Vision and Applications, 9: 272 " 290, 1997.). Given this restriction, the centroids of sets M and C are removed so that the two new sets Mc (centroids of set M) and Cc (centroids of set C). ) have their centroids at their origin, so Equation (5) can be rewritten as (6), which is minimized by maximizing the Trace (RH), where H is the correlation matrix between the corresponding positions in M and C , as represented by the relationship described in (7):
  • the optimal t translation vector can be calculated according to expression (8), where 1J and ⁇ are the centroids of the two sets.
  • the first convergence criterion is the number of iterations performed by the algorithm that cannot exceed a priori value.
  • the second criterion concerns the variation between the previous and the current iteration of the error defined by the sum of Equation (6).
  • the relative error variance must be above a threshold that establishes a minimum variance between two iterations.
  • the last criterion defines a minimum variation limit in the Rotation and translation values that must occur for the algorithm to continue the iterative process. If none of the stopping criteria is met, the algorithm returns to the first step.
  • Equation (5) a matrix ⁇ reg (R, t) describing motion C "M is defined.
  • motion M which describes the position and orientation variation of the current state, is of interest. relative to the initial state.
  • Equation (5) just use Equation (5).
  • the ICP procedure is performed for each new set of points generated by the Reconstruction Module.
  • every iteration has the initial estimate of ⁇ reg (R, t) as the result of the previous iteration. Assuming that the object of interest does not move significantly between two acquisitions, the estimate made will be very close to the actual value, reducing the number of iterations for the method convergence.
  • RGB color space image red, green and blue
  • step a_ of the proposed method is preferably based on temporal multiplexing.
  • the sampling technique used in step p_ of the proposed method is preferably the voxel grid_ technique.
  • Steps g ⁇ ⁇ _, p_ and q_ can be performed in parallel to optimize the algorithm corresponding to the presented method.
  • the proposed method can be used for prospective correction of motion artifacts, imaging diagnostic applications or both.
  • the result provided by the method can be a coordinate system that represents an object in space (for rigid bodies) or a vector field map (for objects that may exhibit significant deformation, such as the thoracic region and the neck of the human body).
  • the system is capable of detecting artifact-generating phenomena such as swallowing and respiration, issuing appropriate notifications of great use in imaging diagnostic applications. This end result of the method is then made available for direct communication interface with diagnostic imaging equipment or for an offline image analysis system.
  • the invention may be better understood by way of the non-limiting example below.

Landscapes

  • Health & Medical Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Medical Informatics (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • General Health & Medical Sciences (AREA)
  • General Physics & Mathematics (AREA)
  • Veterinary Medicine (AREA)
  • Biophysics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Public Health (AREA)
  • Pathology (AREA)
  • Radiology & Medical Imaging (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Molecular Biology (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • High Energy & Nuclear Physics (AREA)
  • Theoretical Computer Science (AREA)
  • Optics & Photonics (AREA)
  • Condensed Matter Physics & Semiconductors (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Physiology (AREA)
  • Dentistry (AREA)
  • Signal Processing (AREA)
  • Quality & Reliability (AREA)
  • Multimedia (AREA)
  • Magnetic Resonance Imaging Apparatus (AREA)
  • Nuclear Medicine (AREA)
  • Image Processing (AREA)
  • Apparatus For Radiation Diagnosis (AREA)

Abstract

A presente invenção descreve um método para geração de informações de coordenadas referentes a artefatos de movimento. A tecnologia utiliza técnicas de iluminação estruturada, baseadas em múltiplos padrões de projeção, aplicadas às etapas de reconstrução tridimensional de imagem, associada a tratamento de dados (remoção de sombras, remoção de plano de fundo, filtragem de ruído aleatório e amostragem de dados). A tecnologia ainda permite fornecer uma sequência temporal de dados tridimensionais referentes ao movimento de um objeto de interesse submetido à captura de imagens. Pode ser aplicada em equipamentos de diagnóstico por imagem, como ressonância magnética, além de equipamentos de tomografia, como tomografia computadorizada por raio-X ou emissão de pósitrons. O método proposto é capaz de rastrear os movimentos do paciente em seis graus de liberdade (três rotacionais e três translacionais linearmente independentes) durante a aquisição de dados e, a partir dessas informações, fornecer dados de rastreamento de posição ao longo do tempo para correção prospectiva de artefatos de movimento. As vantagens são: eliminação de marcadores fiduciais, redução de tempo e gastos referentes aos procedimentos de diagnóstico por imagem, além de conforto e preservação da saúde do paciente, sobretudo em procedimentos que envolvam exposição à radiação.

Description

MÉTODO PARA GERAÇÃO DE REPRESENTAÇÕES VETORIAIS DE MOVIMENTO BASEADO EM VISÃO COMPUTACIONAL E USO
[001 ] A presente invenção descreve um método para geração de informações de coordenadas referentes a artefatos de movimento. A tecnologia utiliza técnicas de iluminação estruturada, baseadas em múltiplos padrões de projeção, aplicadas às etapas de reconstrução tridimensional de imagem, associada a tratamento de dados (remoção de sombras, remoção de plano de fundo, filtragem de ruído aleatório e amostragem de dados). A tecnologia ainda permite fornecer uma sequência temporal de dados tridimensionais referentes ao movimento de um objeto de interesse submetido à captura de imagens. Pode ser aplicada em equipamentos de diagnóstico por imagem, como ressonância magnética, além de equipamentos de tomografia, como tomografia computadorizada por raio-x ou emissão de pósitrons. O método proposto é capaz de rastrear os movimentos do paciente em seis graus de liberdade (três rotacionais e três translacionais linearmente independentes) durante a aquisição de dados e, a partir dessas informações, fornecer dados de rastreamento de posição ao longo do tempo para correção prospectiva de artefatos de movimento. As vantagens são: eliminação de marcadores fiduciais, redução de tempo e gastos referentes aos procedimentos de diagnóstico por imagem, além de conforto e preservação da saúde do paciente, sobretudo em procedimentos que envolvam exposição à radiação.
[002] Normalmente, durante o processo de aquisição de dados para as técnicas listadas acima, o paciente deve permanecer imóvel ao longo de todo o procedimento, que pode durar dezenas de minutos, para que não sejam gerados artefatos no resultado final. Caso isso ocorra, a atual alternativa é repetir o procedimento, causando diversos prejuízos financeiros e, em alguns casos, expondo o paciente a consequências graves à saúde causadas por exposição excessiva à radiação. A presente invenção descreve um equipamento capaz de rastrear os movimentos do paciente em seis graus de liberdade (três rotacionais e três translacionais linearmente independentes) durante a aquisição de dados e, a partir dessas informações, é capaz de fornecer dados de rastreamento de posição ao longo do tempo para correção prospectiva de artefatos de movimento. A presente invenção emprega técnicas de iluminação estruturada e visão computacional para eliminar a necessidade de que marcadores fiduciais sejam anexados ao paciente.
[003] Técnicas de correção prospectiva de imagens são de particular interesse no contexto médico. O movimento de pacientes durante o período de aquisição de equipamentos de diagnóstico pode causar artefatos que prejudicam a qualidade dos dados e dificultam processos posteriores de diagnóstico, a tomada de decisão e o monitoramento. Alternativas estabelecidas para solucionar os artefatos causados pelo movimento consistem, em sua forma mais direta, na imobilização mecânica do paciente. Alternativamente, são fixados marcadores fiduciais no paciente para que um sistema de aquisição obtenha, a partir das posições dos marcadores, as informações de posição necessárias para realizar a correção dos artefatos em questão.
[004] O documento US 201 10230755 intitulado "Single camera motion measurement and monitoring for magnetic resonance applications" apresenta uma solução para a geração de um sistema de coordenadas para correção baseado em câmera e projetor, porém utiliza de marcadores fixados ao paciente para obtenção das informações necessárias para geração de dados para rastreamento.
[005] O documento US 8121361 intitulado "Motion tracking system for real time adaptive imaging and spectroscopy" gera dados para correção prospectiva utilizando uma câmera, porém faz uso de um retro-grate reflector como marcador. [006] O documento WO 2009129457 intitulado "Movement correction in mri using a camera" propõe um equipamento capaz de realizar correção de artefatos utilizando visão computacional e sem utilização de marcadores. Contudo, a metodologia e o equipamento apresentados não incorporam uma solução baseada em iluminação estruturada.
[007] Os documentos EP 1524626 e WO 20141 16868, intitulado "Optical image-based position tracking for magnetic resonance imaging" e "Systems, devices, and methods for tracking and compensating for patient motion during a medicai imaging scan", respectivamente, prevêm a utilização de câmeras para rastreamento de posição em sistemas diagnóstico por imagem, porém também fazem o uso de marcadores para realizar esse objetivo.
[008] O documento WO 2014120734 intitulado "Motion tracking system for real time adaptive motion compensation in biomedical imaging" propõe a utilização de um padrão projetado sobre o sujeito como marcador fiducial, porém não prevê o uso de múltiplos padrões multiplexados temporalmente para codificação de marcadores. Porém, também não prevê a utilização de padrões projetados em faixas fora do espectro visível ao olho humano (entre 400 nm e 700 nm).
[009] O trabalho intitulado Hecent progresses on real-time 3D shape measurement using digital fringe projection techniques, e a dissertação intitulada 'High-resolution, Real-time 3-D Shape Measurement^ ambas do autor Song Zhang, tratam de princípios gerais de iluminação estruturada baseados em padrões senoidais, mas não há nenhum desenvolvimento específico referente a artefatos de movimentos e possibilidade de correção dos mesmos empregando tal técnica.
[010] Dessa forma, o método para geração de representações vetoriais de movimento baseado em visão computacional proposto na presente apresenta uma solução não descrita no estado da técnica para gerar informações referentes a artefatos de movimento.
BREVE DESCRIÇÃO DAS FIGURAS
[01 1 ] FIGURA 1 - A Figura 1 exibe o resultado do teste controlado de rastreamento. A linha pontilhada indica o valor desejado para a medição, os pontos indicam o valor medido e as cruzes indicam os valores de medição com correção de não-linearidade. No segundo gráfico é apresentado o erro de estimativa do ângulo.
[012] FIGURA 2 - A Figura 2 exibe uma possível configuração de uma realização do equipamento associado à invenção que é um método. (8) representa uma câmera de vídeo que filma o objeto de interesse, (9) representa o projetor de iluminação estruturada, (10) e (1 1 ) representam os campos de visão da câmera e projetor respectivamente, (12) representa um objeto de interesse, no caso um paciente, (13) representa a estrutura mecânica do equipamento de diagnóstico e (14) representa uma estrutura mecânica para garantia de estabilidade física do sistema.
DESCRIÇÃO DETALHADA DA TECNOLOGIA
[013] A presente invenção descreve um método para geração de informações de coordenadas referentes a artefatos de movimento. A tecnologia utiliza técnicas de iluminação estruturada, baseadas em múltiplos padrões de projeção, aplicadas às etapas de reconstrução tridimensional de imagem, associada a tratamento de dados (remoção de sombras, remoção de plano de fundo, filtragem de ruído aleatório e amostragem de dados). A tecnologia ainda permite fornecer uma sequência temporal de dados tridimensionais referentes ao movimento de um objeto de interesse submetido à captura de imagens. Pode ser aplicada em equipamentos de diagnóstico por imagem, como ressonância magnética, além de equipamentos de tomografia, como tomografia computadorizada por raio-X ou emissão de pósitrons. O método proposto é capaz de rastrear os movimentos do paciente em seis graus de liberdade (três rotacionais e três translacionais linearmente independentes) durante a aquisição de dados e, a partir dessas informações, fornecer dados de rastreamento de posição ao longo do tempo para correção prospectiva de artefatos de movimento. As vantagens são: eliminação de marcadores fiduciais, redução de tempo e gastos referentes aos procedimentos de diagnóstico por imagem, além de conforto e preservação da saúde do paciente, sobretudo em procedimentos que envolvam exposição à radiação.
[014] Para a execução do método proposto na presente invenção pode-se usar um dispositivo consistindo em: um projetor de imagens no espectro visível ou infravermelho (9), caracterizado por sistema óptico ou optoeletrônico capaz de projetar imagens unidimensionais ou bidimensionais; um sistema de captura de imagem (8), usualmente caracterizado por uma câmera; e um sistema de processamento e controle. O equipamento associado à invenção pode compreender elementos ópticos e mecânicos para adaptação da invenção a uma pluralidade de equipamentos médicos de diagnóstico por imagem como, por exemplo, ressonância magnética (NMRI), emissão de pósitrons (PET) e tomografia computadorizada por raio-x (CT). A Figura 2 mostra uma possível configuração de tal equipamento.
[015] O método para geração de representações vetoriais de movimento baseado em visão computacional consiste em uma reconstrução tridimensional e se baseia na técnica de iluminação estruturada com codificação por multiplexação temporal de ondas senoidais. O conjunto de padrões de ondas é utilizado para codificar os pixels da imagem de acordo com o mapa de fase da onda projetada. O mapa de fase obtido é então comparado com um mapa de calibração e, a partir da comparação, a profundidade da cena pode ser obtida (Song Zhang. High-resolution, Real- time 3-D Shape Measurement. Physical Review Letters, 107(May):021802, 201 1 ).
[016] A iluminação estruturada codifica-se a partir de um conjunto de três padrões senoidais defasados em 120Q entre si, gerando uma codificação única dos pixels dentro de cada linha da imagem. As senoides projetadas são geradas conforme a Equação 1 . ik(i ) = b ÷ Â{t + εο, ΐ ÷ <¾}]t k = o; i, 2 H = -ί \ ϊ im\
[017] em que 1D_ representa uma compensação constante, 7\_ a amplitude da senoide e (i; j) é a posição de um pixel no padrão de iluminação estruturada. Esses parâmetros devem ser escolhidos considerando-se características de não-linearidade do projetor, que são acentuadas nos limites da faixa de operação. O parâmetro que representa a frequência espacial da onda, é limitado pela resolução do projetor e da câmera e aumenta o número de descontinuidades no mapa de fase. Como o padrão se repete para cada linha da imagem, a Equação (1 ) depende apenas da direção 1_ (horizontal), não sendo necessário considerar a direção j _ (vertical).
[018] No método proposto há um laço síncrono entre troca de padrão projetado e captura de imagens pela câmera. Esse laço se perpetua enquanto o procedimento de aquisição de dados pelo sistema de diagnóstico estiver sendo executado. O fluxo de imagens pode ser então processado para geração de informações para correção prospectiva de artefatos causados por movimentos. A sequência de imagens deste fluxo é processada por um módulo do método capaz de interpretar o padrão codificado pela sequência de imagens projetadas sobre o objeto de interesse: o módulo de reconstrução. A partir de três imagens subsequentes ordenadas de acordo com a fase do padrão projetado, é possível construir um mapa de fase da imagem. Em situações reais em que se realiza a obtenção do mapa de fase, no entanto, pode haver não- linearidades introduzidas pelo equipamento de projeção utilizado. Todavia, como o erro introduzido pela não-linearidade para cada valor de fase é fixo, uma simples tabela de consulta (do inglês Lookup Table ou LUT) pode ser utilizada para corrigir esse fenómeno. Para aumentar a eficiência dessa operação, os dados de correção das não-linearidades são armazenados em uma lista ordenada e, durante a consulta, é feita uma pesquisa binária da chave cujo valor é o mais próximo ao da requisição de busca.
[019] O mapa de fase individualmente não oferece informação suficiente para realizar a reconstrução tridimensional, pois é apenas um conjunto de codificações para os pixels da imagem. Ainda se faz necessário ter uma condição de referência para a codificação proposta. O primeiro passo para obtenção de uma nuvem de pontos tridimensionais é a análise comparativa do mapa obtido com um mapa de calibração. Este mapa de calibração é obtido a partir apenas do plano de referência no campo de trabalho do equipamento (região dentro do campo de visão da câmera e do projetor). Para se obter o mapa de profundidade é preciso calcular a fase relativa entre o mapa de calibração e o mapa de fase. As dimensões reais podem ser obtidas através de constantes de calibração para cada uma das grandezas. Esses parâmetros podem ser obtidos através do uso de um objeto de calibração cujas dimensões são conhecidas. A conversão é aplicada individualmente a todos os pontos do conjunto, obtendo-se uma nuvem em que as coordenadas dos pontos representam suas posições reais no espaço.
[020] Antes de ser enviada para as etapas do método responsáveis pela caracterização de movimentos, a nuvem de pontos gerada pelas etapas descritas acima precisa ser tratada, pois o desempenho do módulo seguinte depende intimamente da qualidade dos dados de entrada.
[021 ] Para exemplificar o tratamento de nuvem de pontos, serão descritos a seguir algoritmos que podem ser utilizados para tratar os dados gerados pelo módulo de reconstrução tridimensional, referentes à remoção de sombras, remoção de plano de fundo, filtragem de ruído aleatório e amostragem de dados.
[022] Remoção de Sombras. Ao projetar o padrão de iluminação estruturada sobre um objeto, a sua topologia pode gerar sombras de projeção na imagem capturada pela câmera. Como nessas regiões não existem padrões sendo projetados de fato, a medida de fase nessas áreas são artefatos a serem removidos da nuvem de pontos. Para detectar as regiões de sombra basta analisar três imagens subsequentes em tons de cinza e avaliar a variação de intensidade de cada pixel ao longo da sequência. A Equação (2) descreve uma métrica desenvolvida para quantificar essa variação.
, , - ,„ .
Figure imgf000010_0001
[023] em que μ(ί; j) é a média dos pixels na posição (i; j) nas três imagens. Na Equação (2), o numerador será tão maior quanto for a variabilidade das intensidades dos pixels em relação à média. A média no denominador atua como um fator normalizador que reduz o efeito da refletividade local do objeto e da luz ambiente do cálculo do índice. O cálculo do índice é feito para todos os pixels da imagem, em seguida o mapa de índices é binarizado utilizando um limiar definido experimentalmente, pois varia de acordo com características externas, como intensidade de fontes luminosas externas. No processo de binarização são eliminados os dados correspondentes aos índices cujos valores se encontram abaixo do limiar. Ou seja, são eliminados os pixels nos quais a variação de intensidade esperada não é atingida.
[024] Remoção de Plano de Fundo. Em uma situação típica de aquisição, é esperado que a imagem esteja separada em duas regiões: primeiro plano (foreground) e plano de fundo (background). Uma etapa necessária é remover o plano de fundo presente na nuvem gerada pelo módulo de reconstrução. Assumindo-se que o plano de fundo tenha uma profundidade aproximadamente constante em relação ao plano de referência, ou seja, que os dois planos sejam aproximadamente paralelos, um processo de limiarização pode ser utilizado para separar o plano de fundo dos objetos de interesse. Para se obter automaticamente um limiar ótimo de separação entre background e foreground, é utilizado o método de Otsu (Nobuyuki Otsu. A threshold selection method from gray-level histograms. IEEE Transactions on Systems, Man, and Cybernetics, 9(1 ):62"66, 1979.). Em condições normais de operação, a nuvem de pontos obtida apresenta uma distribuição bimodal de profundidade e o dado método é capaz de definir o separador ideal para essa distribuição.
[025] Filtragem de Ruído Aleatório. O mapa de fase obtido pelo método apresentado carrega ruído proveniente do ruído de aquisição das imagens utilizadas em seu cálculo. Com o objetivo de filtrar ruído aleatório no mapa de fase sem perder informações topológicas do objeto sendo medido, um processo de filtragem adequado deve ser utilizado. Nesse contexto, foi adotado o processo de filtragem bilateral (C. Tomasi and R. Manduchi. Bilateral Filtering for Gray and Color Images. International Conference on Computer Vision, pages 839"846, 1998.). Essa estratégia realiza uma média ponderada dentro de uma vizinhança de pontos, levando em consideração sua distância espacial e sua distância em valor de fase de pixel. Dessa forma, o filtro bilateral é capaz filtrar ruído aleatório em alta frequência enquanto conserva informações topológicas com alta frequência espacial.
[026] Amostragem de Dados. A nuvem de pontos obtida como resultado do módulo de reconstrução, dependendo da resolução do sistema e das características do objeto reconstruído, pode apresentar superamostragem, uma amostragem acima da demandada pelo espectro de frequência espacial da topologia medida. Com o objetivo de amostrar os dados utilizando toda a informação disponível no conjunto de pontos superamostrado, uma filtragem por grade de voxels foi utilizada (voxelgrid). Esse método consiste em segmentar a nuvem de pontos dentro de voxels de tamanhos predefinidos e, para cada voxel, calcular o centroide dos pontos contidos em seu interior. A nuvem de pontos resultante é composta apenas dos centroides calculados para cada voxel. Dessa forma, utilizando o cálculo de centroide para cada voxel, o processo realiza simultaneamente a amostragem e filtragem de ruído, uma vez que o cálculo envolve a média dos pontos no voxel (inserir bibliografia de voxelgrid).
[027] Os dados gerados nas etapas correspondentes ao módulo de reconstrução apresentado que foram submetidos aos tratamentos, como nos exemplos descritos acima, são então utilizados na etapa de geração de informação sobre posição tridimensional na forma de uma nuvem tridimensional de pontos que representam o objeto de interesse no espaço. A etapa subsequente fornece uma sequência temporal de dados tridimensionais do objeto de interesse e os processa considerando as variações temporais de posição, podendo fornecer como resultado um sistema de coordenadas que representa um objeto no espaço (no caso de corpos rígidos) ou um mapa de campo vetorial (no caso de objetos que podem apresentar deformação significativa, como a região toráxica e do pescoço do corpo humano). [028] Após obter-se uma nuvem tridimensional que representa o objeto analisado, é feita uma análise do comportamento desse conjunto de pontos no tempo, com o objetivo de caracterizar os movimentos do objeto. Assumindo que a classe de objetos de interesse são corpos rígidos, uma matriz de transformação (E) contendo translação (t) e rotação (R) para pontos representados em coordenadas homogéneas foi utilizada:
Figure imgf000013_0001
[029] Onde R3x3 é uma matriz ortonormal de rotação e t3x1 é um vetor representando translação tridimensional. Essas transformações são definidas tendo como referência a nuvem de pontos modelo, M, que representa o objeto de interesse em uma posição inicial arbitrária. O problema de caracterização de movimentos consiste em encontrar a matriz de transformação Ê(R, t) que, aplicada a M, melhor a alinha com a nuvem C que representa o objeto na posição atual. Esse critério equivale à minimização da função objetivo (3):
Figure imgf000013_0002
[030] em que c, e m, são pontos correspondentes (que representam uma mesma seção real do objeto) nos dois conjuntos de pontos e Ê(R, t) é a estimativa de transformação ótima a ser encontrada. [031 ] A função (3) é análoga à utilizada em problemas de registro de nuvens de pontos em que se deseja alinhar um dado conjunto de pontos a um conjunto modelo, conforme descrito na função (4):
Figure imgf000014_0001
[032] Para converter o resultado obtido por esse método, basta, ao obter Êreg(R, t), realizar a transformação representada na equação (5):
Figure imgf000014_0002
[033] A solução para esse problema foi encontrada utilizando-se técnicas de casamento de superfície, especificamente o algorítimo Iterative Closest Point (ICP). O método aqui utilizado recebe como parâmetros principais de entrada os conjuntos M e C, além de uma hipótese inicial de Ê(R, t) para aceleração de convergência do algoritmo (Radu Bogdan Rusu and Steve Cousins. 3D is here: Point Cloud Library (PCL). Proceedings - IEEE International Conference on Robotics and Automation, 201 1 .). O algoritmo para ICP se dá através de um processo iterativo constituído pelas seguintes etapas:
1- Geração de Correspondências
[034] Obter as correspondências entre vizinhos mais próximos nas duas nuvens. Para cada ponto ci encontra-se o ponto mais próximo em M que ainda não tenha nenhuma correspondência. Como essa operação de busca baseada em distância para cada ponto é computacionalmente exigente, a técnica de Busca Rápida e Aproximada por Vizinho mais Próximo é utilizada (FANNS, do inglês Fast Approximate Nearest Neightbor Search). Essa técnica consiste em realizar uma busca por resultados aproximados utilizando estruturas de dados como kd-trees aleatórias ou árvores hierárquicas baseadas em k-médias. Muja e Lowe (2009) propõem essas estruturas, bem como uma metodologia para se escolher a estrutura de dados e seus respectivos parâmetros que melhor se adequam às características dos dados utilizados (Marius Muja and David G Lowe. Fast Approximate Nearest Neighbors with Automatic Algorithm Configuration. International Conference on Computer Vision Theory and Applications (VISAPP Ό9), pages 1 " 10, 2009.). Dessa forma, para cada ponto ci é encontrado o ponto mi mais próximo com uma taxa de sucesso determinada pelo FANNS. As correspondências entre pontos são registradas e as que apresentam uma distância maior que um dado limiar são eliminadas das próximas etapas da iteração corrente.
2- Cálculo da Matriz R
[035] Para uma solução de mínimos quadrados da Equação (5), os centroides dos dois conjuntos de pontos devem ser iguais (D W Eggert, A Lorusso, and R B Fisher. Estimating 3-D rigid body transformations: a comparison of four major algorithms. Machine Vision and Applications, 9:272"290, 1997.). Dada essa restrição, os centroides dos conjuntos M e C são removidos de modo que os dois novos conjuntos Mc (centroides do conjunto M) e Cc (centroides do conjunto C) tenham seus centroides na origem. Logo, a Equação (5) pode ser reescrita conforme (6), que é minimizada ao maximizar-se o Trace(RH), onde H é a matriz de correlação entre as posições correspondentes em M e C, conforme representado pela relação descrita em (7):
Figure imgf000015_0001
Figure imgf000016_0001
[036] Dado que a decomposição em valores singulares (SVD, do inglês Singular Value Decomposition) da matriz de correlação H pode ser escrita da forma H = UPS/T, a matriz R que minimiza o traço é R=VUT (Peter H. Schõnemann. A generalized solution of the orthogonal procrustes problem, 1966.).
3- Cálculo do vetor de translação t
[037] Obtida a matriz de rotação, o vetor de translação t ótimo pode ser calculado conforme expressão (8), em que 1J e† são os centroides dos dois conjuntos.
I = - ÀC? ( 8
4- Obtenção da matriz de transformação Ê (R, t)
[038] Estimados os valores de R e t, a matriz de transformação Êiter(R,t) para a iteração atual pode ser obtida pela matriz E (R,t) apresentada inicialmente. Em seguida, essa matriz deve ser concatenada às transformações calculadas nas iterações anteriores, conforme a Equação Ek = Eiter x Ek-1. A matriz Êiter(R, t) também é aplicada ao conjunto C. Essa operação é necessária para que, na próxima iteração, as duas superfícies estejam mais bem alinhadas, fazendo com que as correspondências encontradas entre os dois conjuntos sejam gradativamente refinadas.
5- Verificação de critérios de parada
[039] O primeiro critério de convergência é o número de iterações executadas pelo algoritmo que não pode exceder um valor definido a priori. O segundo critério diz respeito à variação entre a iteração anterior e a atual do erro definido pelo somatório da Equação (6). A variação relativa do erro deve estar acima de um limiar que estabelece uma variação mínima entre duas iterações. O último critério define um limite de variação mínima nos valores de rotação e translação que deve ocorrer para que o algoritmo continue o processo iterativo. Caso nenhum dos critérios de parada seja atingido, o algoritmo retorna para a primeira etapa.
[040] Ao final do procedimento iterativo, uma matriz Êreg(R, t) que descreve o movimento C" M é definida. Porém, é de interesse o movimento M " C, que descreve a variação de posição e orientação do estado atual em relação ao estado inicial. Para obter essa transformação, basta utilizar a Equação (5). O procedimento do ICP é realizado para cada novo conjunto de pontos gerado pelo Módulo de Reconstrução. Para tornar o processo mais eficiente, toda iteração tem como estimativa inicial de Êreg(R,t) o resultado da iteração anterior. Assumindo-se que o objeto de interesse não se move significativamente entre duas aquisições, a estimativa realizada será bem próxima do valor real, reduzindo o número de iterações para a convergência do método.
[041 ] Dessa forma, as etapas detalhadamente descritas acima, referentes à iluminação estruturada, baseada em múltiplos padrões de projeção, aplicada às etapas de reconstrução tridimensional de imagem com respectivo tratamento de dados (remoção de sombras, remoção de plano de fundo, filtragem de ruído aleatório e amostragem de dados), somadas ao procedimento desenvolvido para fornecer uma sequência temporal de dados tridimensionais referentes ao movimento de um objeto de interesse submetido à captura de imagens compõem o método proposto, que é caracterizado por compreender as seguintes etapas:
a) efetuar a multiplexação temporal de padrão de iluminação estruturada; b) requisitar captura de imagem;
c) converter imagem do espaço de cor RGB (vermelho, verde e azul) para tons de cinza;
d) armazenar imagem em dispositivo de memória;
e) realizar as etapas a_, c_, cl_ de forma iterativa; f) calcular mapa de fase a partir das imagens geradas pela etapa e_ e extrair mapa de sombras de projeção a partir das imagens geradas pela etapa e_, simultaneamente;
g) filtrar ruído aleatório de cada uma das imagens geradas pela etapa _; h) remover não linearidades de fase de cada um dos mapas de fase gerados pela etapa g _;
i) calcular fase relativa de cada um dos mapas de fase gerados pela etapa ;
j) extrair plano de fundo de cada uma das imagens geradas pela etapa 1 _; k) realizar as etapas g ^ ΊΊ_, Ί _, j _ de forma iterativa;
I) remover sombras e plano de fundo dos mapas de fase gerados pela etapa j _ utilizando o mapa de sombras de projeção extraído a partir da etapa a_;
m) verificar estabilidade do mapa resultante da etapa Ί j
n) disponibilizar mapas estáveis;
o) converter cada um dos mapas disponibilizados na etapa n_ para coordenadas reais;
p) amostrar mapa de fase;
q) estimar correspondências entre C e M;
r) estimar matriz R;
s) estimar vetor T;
t) aplicar transformação em C
u) compor com matriz de transformação total;
v) avaliar convergência;
x) realizara as etapas s_, \_, u_, v_ de forma iterativa;
z) disponibilizar coordenadas e nuvens referentes aos artefatos de movimento, geradas a partir da matriz que convergiu conforme etapas u_ e V . [042] A estratégia de iluminação estruturada descrita na etapa a_ do método proposto é preferencialmente baseada em multiplexação temporal.
[043] A técnica de amostragem utilizada na etapa p_ do método proposto é preferencialmente a técnica voxel grid_.
[044] As etapa g ^ ΊΊ_, p_ e q_ podem ser realizadas paralelamente de modo a otimizar o algoritmo correspondente ao método apresentado.
[045] O método proposto pode ser usado para correção prospectiva de artefatos de movimento, para aplicações em diagnóstico por imagens ou em ambas aplicações.
[046] O resultado fornecido pelo método pode ser um sistema de coordenadas que representa um objeto no espaço (no caso de corpos rígidos) ou um mapa de campo vetorial (no caso de objetos que podem apresentar deformação significativa, como a região toráxica e do pescoço do corpo humano).
[047] Para mapas de campo vetorial, o sistema é capaz de detectar fenómenos geradores de artefato como deglutição e respiração, emitindo notificações adequadas de muita utilidade em aplicações de diagnóstico por imagem. Este resultado final do método é então disponibilizado para interface de comunicação direta com equipamento de diagnóstico por imagem ou para um sistema de análise de imagens offline.
[048] A invenção pode ser mais bem compreendida através do exemplo abaixo, não limitante.
Exemplo 1 " Resultados experimentais do protótipo " Teste de Rastreamento
[049] Para avaliar a acurácia referente ao rastreamento da posição do objeto de interesse por meio do método proposto, foi realizado um teste controlado em bancada. O ensaio consistiu na utilização de uma superfície plana fixa a um goniómetro para medição de ângulo real. O ângulo de inclinação da superfície foi variado de 0 a 50Q em incrementos de 5Q . A Figura 1 mostra os resultados desse experimento em que é possível perceber o resultado da estratégia de correção de não-linearidades. É possível notar que tal correção proporciona aproximações com erro quadrático médio de 3,77%, que é um erro aceitável para aplicações que trabalham nessa faixa.

Claims

REIVINDICAÇÕES
1. MÉTODO PARA GERAÇÃO DE REPRESENTAÇÕES VETORIAIS DE MOVIMENTO BASEADO EM VISÃO COMPUTACIONAL caracterizado por compreender as seguintes etapas:
a) efetuar a multiplexação temporal de padrão de iluminação estruturada; b) requisitar captura de imagem;
c) converter imagem do espaço de cor RGB para tons de cinza;
d) armazenar imagem em dispositivo de memória;
e) realizar as etapas a^ C_, cl_ de forma iterativa;
f) calcular mapa de fase a partir das imagens geradas pela etapa e_ e extrair mapa de sombras de projeção a partir das imagens geradas pela etapa e_, simultaneamente;
g) filtrar ruído aleatório de cada uma das imagens geradas pela etapa _; h) remover não linearidades de fase de cada um dos mapas de fase gerados pela etapa g_;
i) calcular fase relativa de cada um dos mapas de fase gerados pela etapa ;
j) extrair plano de fundo de cada uma das imagens geradas pela etapa 1 _; k) realizar as etapas g^ ΊΊ_, Ί _, J _ de forma iterativa;
I) remover sombras e plano de fundo dos mapas de fase gerados pela etapa j _ utilizando o mapa de sombras de projeção extraído a partir da etapa a_;
m) verificar estabilidade do mapa resultante da etapa Ί j
n) disponibilizar mapas estáveis;
o) converter cada um dos mapas disponibilizados na etapa n_ para coordenadas reais;
p) amostrar mapa de fase;
q) estimar correspondências entre C e M ;
r) estimar matriz R; s) estimar vetor T;
t) aplicar transformação em C
u) compor com matriz de transformação total;
v) avaliar convergência;
x) realizara as etapas s^ \_, u_, v_ de forma iterativa;
z) disponibilizar coordenadas e nuvens referentes aos artefatos de movimento, geradas a partir da matriz que convergiu conforme etapas u_ e v_.
2. MÉTODO PARA GERAÇÃO DE REPRESENTAÇÕES VETORIAIS DE MOVIMENTO BASEADO EM VISÃO COMPUTACIONAL, de acordo com a reivindicação 1 , caracterizado pela estratégia de iluminação estruturada descrita na etapa a_ do método proposto ser preferencialmente baseada em multiplexação temporal.
3. MÉTODO PARA GERAÇÃO DE REPRESENTAÇÕES VETORIAIS DE MOVIMENTO BASEADO EM VISÃO COMPUTACIONAL, de acordo com a reivindicação 1 , caracterizado pela técnica de amostragem utilizada na etapa p_ do método proposto ser preferencialmente a técnica voxel grid_.
4. MÉTODO PARA GERAÇÃO DE REPRESENTAÇÕES VETORIAIS DE MOVIMENTO BASEADO EM VISÃO COMPUTACIONAL, de acordo com a reivindicação 1 , caracterizado pelas etapa g _, ΊΊ_, p_ e q_ serem realizadas paralelamente de modo a otimizar o algoritmo correspondente ao método apresentado.
5. USO DO MÉTODO PARA GERAÇÃO DE REPRESENTAÇÕES VETORIAIS DE MOVIMENTO BASEADO EM VISÃO COMPUTACIONAL
definido pelas reivindicações 1 a 4, caracterizado por ser para correção prospectiva de artefatos de movimento e/ou para aplicações em diagnóstico por imagens.
PCT/IB2017/053738 2016-06-28 2017-06-22 Método para geração de representações vetoriais de movimento baseado em visão computacional e uso WO2018002782A1 (pt)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
BR102016015226-7A BR102016015226B1 (pt) 2016-06-28 2016-06-28 Método para geração de representações vetoriais de movimento baseado em visão computacional e uso
BRBR1020160152267 2016-06-28

Publications (1)

Publication Number Publication Date
WO2018002782A1 true WO2018002782A1 (pt) 2018-01-04

Family

ID=60785427

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/IB2017/053738 WO2018002782A1 (pt) 2016-06-28 2017-06-22 Método para geração de representações vetoriais de movimento baseado em visão computacional e uso

Country Status (2)

Country Link
BR (1) BR102016015226B1 (pt)
WO (1) WO2018002782A1 (pt)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109188489A (zh) * 2018-06-20 2019-01-11 江苏赛诺格兰医疗科技有限公司 随机事例的估计方法、装置及计算机可读存储介质
CN112162328A (zh) * 2020-08-18 2021-01-01 欧必翼太赫兹科技(北京)有限公司 用于柱面孔径的三维成像方法及装置

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2009129457A1 (en) * 2008-04-17 2009-10-22 The Government Of The United States Of America, As Represented By The Secretary, Department Of Health And Human Services Services, National Institutes Of Health Movement correction in mri using a camera
WO2014120734A1 (en) * 2013-02-01 2014-08-07 Kineticor, Inc. Motion tracking system for real time adaptive motion compensation in biomedical imaging

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2009129457A1 (en) * 2008-04-17 2009-10-22 The Government Of The United States Of America, As Represented By The Secretary, Department Of Health And Human Services Services, National Institutes Of Health Movement correction in mri using a camera
WO2014120734A1 (en) * 2013-02-01 2014-08-07 Kineticor, Inc. Motion tracking system for real time adaptive motion compensation in biomedical imaging

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
J. GENG: "Structured-light 3D surface imaging: a tutorial", ADVANCES IN OPTICS PHOTONNICS, vol. 3, no. 2, 31 March 2011 (2011-03-31), pages 128 - 160, XP055033088 *
O. V. OLESEN ET AL.: "Motion Tracking for Medical Imaging: A Nonvisible Structured Light Tracking Approach", IEEE TRANSACTIONS ON MEDICAL IMAGING, vol. 31, no. 1, January 2012 (2012-01-01), pages 79 - 87, XP011391090 *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109188489A (zh) * 2018-06-20 2019-01-11 江苏赛诺格兰医疗科技有限公司 随机事例的估计方法、装置及计算机可读存储介质
CN112162328A (zh) * 2020-08-18 2021-01-01 欧必翼太赫兹科技(北京)有限公司 用于柱面孔径的三维成像方法及装置

Also Published As

Publication number Publication date
BR102016015226A2 (pt) 2018-01-16
BR102016015226B1 (pt) 2022-11-01

Similar Documents

Publication Publication Date Title
TWI569229B (zh) 資料之登錄方法
Song et al. Dynamic reconstruction of deformable soft-tissue with stereo scope in minimal invasive surgery
EP3655924B1 (en) Method and apparatus to generate and track standardized anatomical regions automatically
JP5749735B2 (ja) X線放射線写真における骨抑制
BR112014029372B1 (pt) Medição do corpo
US20130187919A1 (en) 3D Body Modeling, from a Single or Multiple 3D Cameras, in the Presence of Motion
Zheng Statistical shape model‐based reconstruction of a scaled, patient‐specific surface model of the pelvis from a single standard AP x‐ray radiograph
US20140192046A1 (en) Method and device for elastic registration between a two-dimensional digital image and a slice of a three-dimensional volume with overlapping content
BRPI0919448B1 (pt) método para o rastreamento de uma unidade folicular e sistema para o rastreamento de uma unidade folicular.
WO2014144019A1 (en) Methods, systems, and computer readable media for real-time 2d/3d deformable registration using metric learning
Nejati et al. Multiresolution image registration in digital X-ray angiography with intensity variation modeling
Crispell et al. Pix2face: Direct 3d face model estimation
Sarkar et al. Structured low-rank matrix factorization for point-cloud denoising
Kyme et al. Markerless motion estimation for motion-compensated clinical brain imaging
Bui et al. X-ray posenet: 6 dof pose estimation for mobile x-ray devices
KR101767005B1 (ko) 표면정합을 이용한 영상정합방법 및 영상정합장치
CN111260702B (zh) 激光三维点云与ct三维点云配准方法
Yang et al. 3D soft-tissue tracking using spatial-color joint probability distribution and thin-plate spline model
Furukawa et al. Fully auto-calibrated active-stereo-based 3d endoscopic system using correspondence estimation with graph convolutional network
CN114792326A (zh) 一种基于结构光的手术导航点云分割与配准方法
WO2018002782A1 (pt) Método para geração de representações vetoriais de movimento baseado em visão computacional e uso
Singh et al. Estimating a patient surface model for optimizing the medical scanning workflow
Miao et al. Convolutional neural networks for robust and real-time 2-D/3-D registration
Zhong et al. Triple screening point cloud registration method based on image and geometric features
Staib et al. Intermodality 3D medical image registration with global search

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 17819448

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 17819448

Country of ref document: EP

Kind code of ref document: A1