BRPI1101511A2 - METHOD AND COLLABORATIVE CONSCIOUS SPACE VOLUME DISPLAY SYSTEM - Google Patents

METHOD AND COLLABORATIVE CONSCIOUS SPACE VOLUME DISPLAY SYSTEM Download PDF

Info

Publication number
BRPI1101511A2
BRPI1101511A2 BRPI1101511-0A BRPI1101511A BRPI1101511A2 BR PI1101511 A2 BRPI1101511 A2 BR PI1101511A2 BR PI1101511 A BRPI1101511 A BR PI1101511A BR PI1101511 A2 BRPI1101511 A2 BR PI1101511A2
Authority
BR
Brazil
Prior art keywords
volume
visualization
augmented reality
conscious
collaborative
Prior art date
Application number
BRPI1101511-0A
Other languages
Portuguese (pt)
Inventor
Jeronimo Gustavo Grandi
Anderson Maciel
Dinamar Jose Zanchet
Antonio Nocchi Kalil
Original Assignee
Fundacao Universidade De Caxias Do Sul Ucs
Univ Fed De Ciencias Da Saude De Porto Alegre Ufcspa
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fundacao Universidade De Caxias Do Sul Ucs, Univ Fed De Ciencias Da Saude De Porto Alegre Ufcspa filed Critical Fundacao Universidade De Caxias Do Sul Ucs
Priority to BRPI1101511-0A priority Critical patent/BRPI1101511A2/en
Publication of BRPI1101511A2 publication Critical patent/BRPI1101511A2/en

Links

Landscapes

  • Processing Or Creating Images (AREA)

Abstract

MÉTODO E SISTEMA DE VISUALIZAÇÃO DE VOLUMES ESPAÇO-CONSCIENTE COLABORATIVO. A presente invenção descreve um método e sistema de visualização de volumes espaço-consciente colaborativo. É usado um display móvel, preferencialmente um tablet PC, ou smartphone, ou algum tipo de pad digital, pelo qual se enxergam os órgãos interiores do paciente que são renderizados a partir de dados de tomografia previamente armazenada. Três módulos principais fazem parte da implementação do método e sistema: visualizador de volumes, realidade aumentada e comunicação por rede. Os três módulos trabalham em conjunto e permitem que a exploração da anatomia ocorra diretamente sobre o corpo real.METHOD AND COLLABORATIVE CONSCIOUS SPACE VOLUME DISPLAY SYSTEM. The present invention describes a collaborative space-conscious volume visualization method and system. A mobile display, preferably a tablet PC, or smartphone, or some type of digital pad is used, through which to view the patient's inner organs that are rendered from previously stored tomography data. Three main modules are part of the method and system implementation: volume viewer, augmented reality, and network communication. The three modules work together and allow anatomy exploration to take place directly over the real body.

Description

Relatório Descritivo de Patente de InvençãoPatent Invention Descriptive Report

Método e Sistema de Visualização de Volumes Espaço-conscienteSpace-Conscious Volume Visualization Method and System

ColaborativoCollaborative

Campo da InvençãoField of the Invention

A presente invenção descreve um método e sistema de visualização de volumes espaço-consciente colaborativo. É usado um dispositivo de display móvel, preferencialmente um tablet PC, ou smartphone, ou algum tipo de pad digital pelo qual se enxergam os órgãos internos do paciente que são 10 renderizados a partir de dados de tomografia previamente armazenada. Três módulos principais fazem parte da implementação do método e sistema: visualizador de volumes, realidade aumentada e comunicação por rede. Os três módulos trabalham em conjunto e permitem que a exploração da anatomia ocorra diretamente sobre o corpo real. A presente invenção situa-se no campo 15 da Realidade Virtual e Interação Humano-Computador.The present invention describes a collaborative space-conscious volume visualization method and system. A mobile display device, preferably a tablet PC or smartphone, or some kind of digital pad is used to view the patient's internal organs which are rendered from previously stored tomography data. Three main modules are part of the method and system implementation: volume viewer, augmented reality, and network communication. The three modules work together and allow anatomy exploration to take place directly over the real body. The present invention is in the field 15 of Virtual Reality and Human-Computer Interaction.

Antecedentes da InvençãoBackground of the Invention

Visualização CientíficaScientific Visualization

Visualização é o processo que facilita a observação de um conjunto de 20 informações. Permite que o observador perceba visualmente características escondidas nos dados brutos, que podem ser fundamentais para uma análise precisa. Uma visualização bem sucedida pode reduzir o tempo necessário para compreender os dados subjacentes, para perceber suas relações e, para extrair informações significativas.Visualization is the process that facilitates the observation of a set of 20 information. Allows the viewer to visually perceive characteristics hidden in the raw data, which may be critical for accurate analysis. A successful visualization can reduce the time required to understand underlying data, to understand their relationships, and to extract meaningful information.

“A visualização envolve o sentido humano que possui maior capacidade“Visualization involves the human sense that has the greatest capacity

de captação de informações por unidade de tempo. O sentido da visão é rápido e paralelo, sendo possível, inclusive, prestar atenção em um objeto de interesse especial, sem perder de vista o que está acontecendo ao redor.”of information capture per unit of time. The sense of sight is fast and parallel, and it is even possible to pay attention to an object of special interest, without losing sight of what is happening around. ”

Se as informações a serem visualizadas são provenientes de dados resultantes de experimentos científicos, se convenciona chamar de J 2/30If the information to be viewed comes from data from scientific experiments, it is appropriate to call it J 2/30

Visualização Científica. Portanto, a visualização é uma ferramenta que possibilita aos cientistas analisar, compreender e comunicar os dados numéricos gerados por pesquisas científicas. Nos últimos anos, os seres humanos têm recolhido dados a uma taxa além do que pode ser estudado e 5 compreendido. Visualização científica utiliza computação gráfica para processar os dados numéricos em duas e três dimensões de imagens visuais. Esse processo de visualização inclui a coleta, processamento, visualização, análise e interpretação dos dados. Ele está revolucionando a maneira como os cientistas fazem ciência, bem como alterado a forma como as pessoas lidam 10 com grandes quantidades de informação.Scientific visualization. Therefore, visualization is a tool that enables scientists to analyze, understand and communicate numerical data generated by scientific research. In recent years, humans have collected data at a rate beyond what can be studied and understood. Scientific visualization uses computer graphics to process numerical data in two and three dimensions of visual images. This visualization process includes data collection, processing, visualization, analysis and interpretation. It is revolutionizing the way scientists do science, as well as changing the way people handle large amounts of information.

Técnicas de visualização tridimensional científica estão provando ser úteis em uma grande quantidade de aplicações no campo da medicina, incluindo diagnóstico, planejamento e simulação de cirurgias e treinamento médico. Além da grande utilização na medicina, a visualização volumétrica 15 também é utilizada em outras áreas da ciência, por exemplo, meteorologia, biologia, arquitetura, geologia, etc.Scientific three-dimensional visualization techniques are proving to be useful in a wide range of medical applications, including diagnosis, planning and simulation of surgeries, and medical training. In addition to its widespread use in medicine, volumetric visualization 15 is also used in other areas of science, for example meteorology, biology, architecture, geology, etc.

A visualização de imagens médicas volumétricas é abordada neste documento. Serão apresentados os conceitos básicos de visualização de volumes, assim como as técnicas mais utilizadas e suas características. É apresentada a técnica utilizada ao final.Viewing volumetric medical images is covered in this document. The basic concepts of volume visualization, as well as the most used techniques and their characteristics will be presented. The technique used at the end is presented.

Visualização de imagens médicas volumétricasVisualization of volumetric medical images

Objetos criados em computação gráfica normalmente não possuem informações sobre seu interior. Eles são desenvolvidos utilizando softwares de modelagem 3D e dependem da criatividade do modelador para que o objeto 25 seja construído. Em sua grande parte, esse objetos são constituídos por malhas de triângulos que representam somente suas superfícies. Caso seja necessário mostrar estruturas internas de um personagem em um jogo, por exemplo, texturas terão de ser trabalhadas para representar seu interior.Objects created in computer graphics usually do not have information about their interior. They are developed using 3D modeling software and depend on the creativity of the modeler to construct the object 25. For the most part, these objects consist of meshes of triangles that represent only their surfaces. If it is necessary to show a character's internal structures in a game, for example, textures will need to be worked out to represent its interior.

Por outro lado, o objetivo da visualização volumétrica é mostrar o interior dos objetos, como em diversas aplicações científicas, por esse motivo os modelos tradicionais de visualização devem ser substituídos por técnicas desenvolvidas com essa finalidade. Os dados utilizados para permitir esse tipo de visualização devem conter informações espaciais sobre seu interior. No caso de uma pessoa, é necessário que o volume possua informações sobre as partes internas do corpo, como os órgãos, ossos e demais estruturas que 5 sejam relevantes. A partir das informações coletadas, um software específico cria o modelo tridimensional automaticamente.On the other hand, the purpose of volumetric visualization is to show the interior of objects, as in many scientific applications, so traditional visualization models should be replaced by techniques developed for this purpose. The data used to allow such visualization should contain spatial information about its interior. In the case of a person, the volume must have information about the internal parts of the body, such as the organs, bones, and other relevant structures. From the information collected, specific software creates the three-dimensional model automatically.

Os datasets obtidos através de métodos de aquisição de imagens médicas são a fonte de dados para a reconstrução tridimensional. Embora profissionais da medicina consigam realizar diagnósticos com base nos dados 10 sem processamento, há um grande interesse em visualizar estes dados tridimensionalmente, principalmente em órgãos complexos como o fígado e seu sistema vascular. O método de visualização tridimensional permite uma aprendizagem mais rápida para os estudantes de medicina e anatomia e também uma redução do erro médico ocasionado pela análise e interpretação 15 errônea dos dados bidimensionais, o que pode ocasionar, em muitos casos, complicações sérias ao paciente. Isso ocorre principalmente com médicos menos experientes.Datasets obtained through medical imaging methods are the data source for three-dimensional reconstruction. Although medical professionals can perform diagnostics based on unprocessed data, 10 there is a strong interest in visualizing these data three-dimensionally, especially in complex organs such as the liver and its vascular system. The three-dimensional visualization method allows for faster learning for medical and anatomy students, as well as a reduction in medical error caused by the analysis and misinterpretation of two-dimensional data, which can in many cases lead to serious patient complications. This is mainly with less experienced doctors.

Ao longo dos anos muitas técnicas foram desenvolvidas para a renderização de volumes. Essas técnicas são divididas em duas classes 20 definidas por Meibner e outros como indirect volume rendering, que trabalha com a extração de superfícies representadas através de primitivas gráficas e direct volume rendering, que trabalham gerando a imagem diretamente a partir do volume.Over the years many techniques have been developed for rendering volumes. These techniques are divided into two classes 20 defined by Meibner and others as indirect volume rendering, which works with the extraction of surfaces represented by graphic primitives and direct volume rendering, which work by generating the image directly from the volume.

Renderização indireta de volume As técnicas baseadas em visualização através de superfícies envolvemIndirect Volume Rendering Surface-based visualization techniques involve

a extração e a representação de uma isosuperfície que é posteriormente visualizada através de computação gráfica. A reconstrução da isosuperfície pode ser feita a partir de Marching Cubes, rastreamento de contorno (contour traking), cubos opacos (opaque cubes), entre outros. Estes algoritmos ajustam 30 as formas geométricas, como por exemplo, polígonos ou cubos, para posições de superfície em datasets volumétricos, a estrutura de interesse deve ser identificada (ou segmentada) em cada uma das fatias para posterior composição da malha de polígonos. De forma geral, esses métodos necessitam de uma tomada de decisão para cada amostra, e isso pode produzir falsos positivos (falsas superfícies) ou falsos negativos (buracos na 5 superfície), que prejudicam na precisão durante a criação do objeto, devido a amostras pequenas ou de baixa qualidade. Esse método não é indicado para representação da superfície de algumas estruturas (particularmente na visualização do corpo humano, no caso de imagens médicas).the extraction and representation of an isosurface that is later visualized by computer graphics. Isosurface reconstruction can be done from Marching Cubes, contour traking, opaque cubes, among others. These algorithms adjust geometric shapes, such as polygons or cubes, to surface positions in volumetric datasets, the structure of interest must be identified (or segmented) in each slice for later composition of the polygon mesh. In general, these methods require decision making for each sample, and this can produce false positives (false surfaces) or false negatives (surface holes), which impair accuracy during object creation due to small samples. or low quality. This method is not suitable for surface representation of some structures (particularly in human body visualization for medical imaging).

Renderização direta de volume Renderização direta de volume consiste em representar o volumeDirect Volume Rendering Direct Volume Rendering is representing the volume.

através de voxels (pixel representado tridimensionalmente) que são projetados diretamente na janela de visualização e armazenados como uma imagem, dispensando o uso de primitivas geométricas. Neste caso, o volume é renderizado baseado em uma função de transferência, atribuindo aos voxels 15 valores de cor e opacidade . Essa abordagem permite que o interior do volume contenha informações, e que elas possam ser visualizadas alterando valores na função de transferência, permitindo a exibição de materiais com diferentes densidades. A função de transferência geralmente possui dois valores modificáveis, que correspondem à largura e ao centro da janela de 20 visualização. Essa funcionalidade é de grande utilidade para explorar e analisar as informações durante a visualização. Maiores detalhes sobre o funcionamento dessas funções podem ser vistos no livro Real-time Volume Graphics páginas 81-102.voxels (pixel represented three-dimensionally) that are projected directly in the viewport and stored as an image, eliminating the use of geometric primitives. In this case, the volume is rendered based on a transfer function, giving the voxels 15 color and opacity values. This approach allows the interior of the volume to contain information, which can be viewed by changing values in the transfer function, allowing the display of materials with different densities. The transfer function usually has two modifiable values, which correspond to the width and center of the viewport. This functionality is very useful for exploring and analyzing information while viewing. Further details on how these functions work can be seen in the Real-time Volume Graphics book pages 81-102.

Os algoritmos para a renderização direta de volumes foram otimizados, 25 especialmente para uso do rendering por hardware gráfico. Esses algoritmos realizam a projeção do volume diretamente no plano da imagem e são os mais indicados para visualizar volumes que representam objetos não-homogêneos, como partes do corpo humano. Estas técnicas possuem um alto custo computacional, pois normalmente envolvem um tipo de interpolação nos pontos 30 ao longo da direção de visualização. Por outro lado, produzem imagens de excelente qualidade, uma vez que todos os voxels podem ser usados na construção das imagens. O primeiro modelo foi desenvolvido no início da década de 80 por James Blinn. Desde então, diversos outros autores exploraram modificações e otimizações a partir do modelo original.Algorithms for direct rendering of volumes have been optimized, 25 especially for graphics hardware rendering. These algorithms project the volume directly onto the image plane and are best suited for viewing volumes that represent inhomogeneous objects, such as parts of the human body. These techniques have a high computational cost because they usually involve a type of interpolation at points 30 along the viewing direction. On the other hand, they produce excellent quality images, since all voxels can be used in the construction of the images. The first model was developed in the early 80's by James Blinn. Since then, several other authors have explored modifications and optimizations from the original model.

Existem quatro abordagens básicas para o problema de rendering direto 5 de volumes, segundo Bruckner: ordem da imagem (image-order volume rendering), ordem dos objetos (object-order volume rendering), métodos híbridos (hybrid-order volume rendering) e métodos baseados em mapeamento de texturas (texture mapping techniques). Porém, todas procuram resolver o mesmo problema que é a obter a solução (aproximada) da integral de ío visualização volumétrica para cada pixel no plano de projeção. A solução integra as cores atenuadas ao longo de cada raio de visão, entre o observador e cada pixel da tela.There are four basic approaches to the direct volume rendering problem, according to Bruckner: image-order volume rendering, object-order volume rendering, hybrid-order volume rendering, and methods based on texture mapping techniques. However, they all try to solve the same problem of obtaining the (approximate) solution of the volumetric visualization integral for each pixel in the projection plane. The solution integrates attenuated colors along each radius of view between the viewer and each screen pixel.

Ordem da imagemImage Order

Nesta abordagem, são lançados raios de visualização a partir do observador através do volume, recolhendo informações sobre cor e opacidade para serem aplicadas ao pixel pintado na janela de visualização. Esse método permite a visualização de detalhes internos ao volume, tem um bom controle de transparência removendo trivialmente as partes escondidas atrás de partes definidas como opacas, é possível visualizá-lo a partir de qualquer direção. O Ray Casting, é a principal técnica baseada em ordem da imagem e é uma das mais utilizadas para a visualização volumétrica. Ray Casting foi originalmente proposto por Levoy. A qualidade do volume criado utilizando essa técnica normalmente é muito boa, porém como o conjunto de dados médicos gerado normalmente possuem uma alta resolução, isso acaba causando um grande impacto no desempenho.In this approach, viewing rays are cast from the viewer through the volume, gathering color and opacity information to apply to the painted pixel in the viewing window. This method allows you to view details inside the volume, has good transparency control by trivially removing parts hidden behind parts defined as opaque, you can view it from any direction. Ray Casting is the main order-based technique and is one of the most widely used for volumetric visualization. Ray Casting was originally proposed by Levoy. The quality of the volume created using this technique is usually very good, but as the generated medical dataset typically has a high resolution, it ends up having a big impact on performance.

Ordem dos obietosOrder of the obietos

Percorre-se o volume e, para cada voxel, são encontrados os pixels afetados pela sua contribuição. Splatting, proposto por Westover, ao contrário do ray casting, determina como os pixels são pintados no plano da imagem, para cada amostra de dados, em outras palavras, todo os elementos que compõem o volume são jogados na janela de visualização como bolas de neve, esses elementos possuem informação de cor e opacidade, que podem ser alteradas para o tipo de superfície a ser visualizada. Esse método é mais rápido do que o ray casting, porém a qualidade do volume gerado é inferior. Ordem HíbridaScroll through the volume and, for each voxel, find the pixels affected by your contribution. Splatting, proposed by Westover, unlike ray casting, determines how pixels are painted in the image plane, for each data sample, in other words, all the elements that make up the volume are thrown in the viewport like snowballs. , these elements have color and opacity information, which can be changed for the type of surface to be viewed. This method is faster than ray casting, but the quality of the generated volume is lower. Hybrid Order

Combina as vantagens das duas abordagens anteriores. O algoritmoIt combines the advantages of the two previous approaches. The algorithm

mais comum é o Shear-warp. O objetivo do Shear-warp é simplificar a etapa de projeção do pípeline de visualização. Isto é realizado através da aplicação de funções de cisalhamento nas fatias do volume, transformando os dados para um sistema de coordenadas intermediário. Isso simplifica o processo de 10 projeção das fatias, pois os dados volumétricos são acessados em ordem de armazenamento. A composição e projeção das fatias nesse novo sistema de coordenadas gera uma imagem intermediária distorcida, que precisa ser corrigida. A imagem final é obtida através da aplicação de uma transformação chamada warp. Esta transformação, realizada em 2D, restaura as dimensões 15 verdadeiras da imagem que será visualizada pelo usuário. Em geral, o ganho de performance do algoritmo comparado ao Ray casting pode ser de 5 a 10 vezes.The most common is Shear-warp. The purpose of Shear-warp is to simplify the projection step of the visualization pinline. This is accomplished by applying shear functions on the volume slices, transforming the data to an intermediate coordinate system. This simplifies the process of projecting slices because volumetric data is accessed in storage order. The composition and projection of slices in this new coordinate system generates a distorted intermediate image that needs to be corrected. The final image is obtained by applying a transformation called warp. This transformation, performed in 2D, restores the true 15 dimensions of the image that will be viewed by the user. In general, the performance gain of the algorithm compared to Ray casting can be 5 to 10 times.

Renderização Volumétrica Baseada em TexturasVolumetric Rendering Based on Textures

A visualização volumétrica por mapeamento de texturas se resume ao 20 rendering de polígonos texturizados. Para que seja possível a visualização por essa técnica, a integral do raio para cada pixel é calculada através do rendering de polígonos de reamostragem através do volume (slice-based rendering). Cada fragmento de um polígono corresponde à contribuição de um segmento de raio à integral do rendering volumétrico para cada pixel do frame buffer. Esta 25 abordagem explora o avanço do poder de processamento e flexibilidade da Unidade de Processamento Gráfico (GPU). Soluções baseadas em GPU são capazes de realizar a renderização de volumes a taxas interativas de atualização (aprox. 30 fps) para datasets de tamanho médio em um harware comum.The volumetric visualization by texture mapping comes down to the rendering of textured polygons. For visualization by this technique, the radius integral for each pixel is calculated by rendering slice-based rendering polygons. Each fragment of a polygon corresponds to the contribution of a ray segment to the volumetric rendering integral for each frame buffer pixel. This approach exploits the advancement of the processing power and flexibility of the Graphics Processing Unit (GPU). GPU-based solutions are capable of rendering volumes at interactive refresh rates (approx. 30 fps) for mid-sized datasets on standard hardware.

O pipeline para a geração de volumes baseados em textura pode serThe pipeline for texture-based volume generation can be

dividido em três estágios: inicialização, atualização (update) e desenho (drawing). O primeiro estágio consiste em armazenar o conjunto de dados volumétricos, como uma textura, na GPU. Os dados podem ser pré- processados, ou podem enviar informações para processamento em estágios posteriores. Esta decisão influi na implementação do estágio de desenho. 5 Atualizações no pipeline são exigidas quando o sistema sofre a intervenção do usuário, mudando os parâmetros de visualização (mudança do ponto de visão ou do plano de projeção, por exemplo). Na abordagem de renderização baseada em fatias com planos paralelos ao plano de projeção exige que todos os polígonos de amostragem sejam reconstruídos. A fase de desenho é 10 responsável por gerar a imagem final. Neste estágio, a cor de cada fragmento dos polígonos de amostragem é calculada e combinada no frame buffer. A cor final é a cor da textura, correspondente ao espaço do conjunto de dados amostrado por este fragmento.It is divided into three stages: initialization, update and drawing. The first stage is to store the volumetric data set as a texture in the GPU. Data can be preprocessed, or can send information for processing at later stages. This decision influences the implementation of the design stage. 5 Pipeline updates are required when the system undergoes user intervention by changing the display parameters (change of viewpoint or projection plane, for example). The slice-based rendering approach with planes parallel to the projection plane requires that all sampling polygons be reconstructed. The drawing phase is responsible for generating the final image. At this stage, the color of each fragment of the sampling polygons is calculated and combined in the frame buffer. The final color is the texture color, corresponding to the data set space sampled by this fragment.

Os métodos que utilizam mapeamento de texturas em GPU são baseados em duas abordagens. A primeira explora o método de mapeamento de texturas 2D. Este método armazena na memória gráfica pilhas de fatias 2D para cada eixo principal de visualização. Durante a renderização é escolhida a pilha correspondente ao eixo paralelo mais próximo à direção de visualização atual e então são renderizados de trás para frente os planos texturizados usando alpha e blending. Nessa abordagem a interpolação é bilinear nas fatias e a taxa de amostragem é variável, depende da direção da visualização. A segunda abordagem utiliza mapeamento de texturas 3D. A textura é carregada para o hardware gráfico, e mapeada em polígonos paralelos ao plano de visão e renderizados de trás para frente usando alpha e blending. Texturas tridimensionais permitem o uso de interpolação trilinear e conseguem uma taxa de amostragem constante independente do ângulo de visão. O problema dessa abordagem é a limitação da memória de vídeo das placas gráficas. Isso pode ocasionar uma dramática perda de performance, pois se o dataset não "cabe" na memória de vídeo ele é subdividido, e então esses blocos são renderizados separadamente, congestionando a largura de banda. Uma forma de superar essa limitação é a compressão do dataset. A qualidade da imagem final em métodos tradicionais de rendering por mapeamento de texturas é inferior quando comparadas aos métodos anteriores. Porém, com o aumento da programabilidade baseada na GPU, várias pesquisas surgiram com o objetivo de aperfeiçoar o resultado final do 5 volume. Uma das implementações que explora o hardware gráfico e possui diversas melhorias, tanto na qualidade do volume gerado quanto na performance no rendering é a abordagem descrita por Engel, Kraus e Ertl no seu artigo High-Quality Pre-Integrated Volume Rendering Using Hardware- Accelerated Pixel Shading 2001. Nela os autores desenvolvem uma forma ío inovadora para renderização de volume baseado em texturas, capaz de alcançar a qualidade de imagem dos métodos Ordem da imagem, Ordem de objeto e Ordem Híbrida mesmo com um dataset com poucas fatias e de baixa resolução. Esse método é adequado para hardware gráfico destinado ao público em geral. Isso é especialmente útil para efeitos volumétricos em jogos e 15 visualização volumétrica científica. A implementação utiliza multi-texturas com uma busca de texturas avançada e operações por pixel-shading.Methods that use GPU texture mapping are based on two approaches. The first explores the 2D texture mapping method. This method stores in 2D memory stacks of slices for each main axis of view. During rendering, the stack corresponding to the parallel axis closest to the current viewing direction is chosen and then the textured planes are rendered backwards using alpha and blending. In this approach the interpolation is bilinear in the slices and the sample rate is variable, depending on the viewing direction. The second approach uses 3D texture mapping. The texture is loaded into graphics hardware, and mapped to polygons parallel to the view plane and rendered backwards using alpha and blending. Three-dimensional textures allow the use of trilinear interpolation and achieve a constant sampling rate regardless of viewing angle. The problem with this approach is the limitation of video memory for graphics cards. This can cause a dramatic loss of performance because if the dataset does not "fit" in video memory it is subdivided, and then these blocks are rendered separately, congesting the bandwidth. One way to overcome this limitation is dataset compression. The final image quality in traditional texture mapping rendering methods is poor compared to previous methods. However, as GPU-based programmability has increased, a number of research studies have emerged with the goal of refining the final volume 5 result. One of the implementations that exploits graphics hardware and has several improvements in both the volume quality generated and rendering performance is the approach described by Engel, Kraus and Ertl in their High-Quality Pre-Integrated Volume Rendering Using Hardware-Accelerated Pixel article. Shading 2001. Here the authors develop an innovative form for texture-based volume rendering that can achieve the image quality of the Image Order, Object Order, and Hybrid Order methods even with a low-slice, low-resolution dataset. This method is suitable for graphics hardware intended for the general public. This is especially useful for volumetric effects in games and scientific volumetric visualization. The implementation uses multi-textures with advanced texture search and pixel shading operations.

Realidade Virtual e Aumentada Realidade VirtualVirtual and Augmented Reality Virtual Reality

O termo Realidade virtual (RV) é definido por Ivan Sutherland, como:"...The term Virtual Reality (VR) is defined by Ivan Sutherland as: "...

um mundo simulado, gerado por computador, no qual o usuário pode navegar em tempo real como se estivesse se movimentando em um espaço tridimensional real." A base da tecnologia em RV emergiu nos anos de 1970 em simuladores de vôo, onde se criava um ambiente sintético simulado baseado em um ambiente real.a simulated, computer-generated world in which the user can navigate in real time as if moving in real three-dimensional space. "The basis of RV technology emerged in the 1970s in flight simulators where an environment was created. synthetic simulator based on a real environment.

A partir do descrito acima, podemos dizer que Realidade Virtual é uma simulação em que se usa o computador para imitar (ou não) as propriedades de um ambiente real. É um ambiente criado a partir de códigos em linguagem de programação, computação gráfica e modelagem tridimensional, que reage 30 as ações dos usuários, que são captadas de inúmeras maneiras. Como o objetivo da realidade virtual é criar ambientes virtuais com o máximo de imersão possível, formas de interação que substituem as formas de input(mouse e teclado) e output(monitores) convencionais devem ser adotadas. Para propiciar esta sensação de presença o sistema RV pode integrar sofisticados dispositivos como luvas de dados(datagloves), óculos para visão 5 estereoscópica, sensores de biofeedback, etc. A interatividade em tempo real é uma característica chave da realidade virtual, ela é um requisito fundamental para que o usuário tenha o sentimento de imersão. Isso significa que toda a ação gerada deve ter alguma reação perceptível no ambiente simulado quase que instantaneamente.From the above, we can say that Virtual Reality is a simulation in which the computer is used to mimic (or not) the properties of a real environment. It is an environment created from code in programming language, computer graphics and three-dimensional modeling, which reacts to user actions, which are captured in countless ways. Since the goal of virtual reality is to create virtual environments with as much immersion as possible, forms of interaction that replace conventional input (mouse and keyboard) and output (monitors) forms should be adopted. To provide this sense of presence, the RV system can integrate sophisticated devices such as data gloves, stereoscopic vision goggles, biofeedback sensors, etc. Real-time interactivity is a key feature of virtual reality, it is a fundamental requirement for the user to have the feeling of immersion. This means that every action generated must have some noticeable reaction in the simulated environment almost instantly.

Paul Milgram criou o continuum da virtualidade, onde o mundo real estáPaul Milgram created the continuum of virtuality, where the real world is

no extremo esquerdo representando unicamente por objetos reais. Na direita, define ambientes constituídos apenas por objetos virtuais, RV. O interior do continuum é definido genericamente como realidade misturada (Mixed Reality (MR)), como um ambiente no qual os objetos do mundo real e mundo virtual 15 são apresentados juntos dentro de um mesmo contexto. Ainda, no continuum da virtualidade, a realidade misturada é subdividida em duas: Realidade Aumentada e Virtualidade Aumentada.at the far left representing only real objects. On the right, defines environments consisting only of virtual objects, RV. The interior of the continuum is generically defined as Mixed Reality (MR), as an environment in which real world and virtual world objects 15 are presented together within the same context. Also, in the continuity of virtuality, mixed reality is subdivided into two: Augmented Reality and Augmented Virtuality.

Virtualidade AumentadaAugmented Virtuality

Um sistema se caracteriza por ser em virtualidade aumentada (VA) quando o ambiente virtual é o principal ou há predominância do virtual e nele são inseridos elementos do mundo real. Esses elementos inseridos podem ser pessoas, objetos e etc. Tudo o que for inserido em um sistema VA, é necessário ser précapturado ou capturado em tempo real, para que depois sejam reconstruídos no mundo virtual, onde podem interagir. Um trabalho concebido em virtualidade aumentada é o Rapid Scene Modelling, Registration and Specification for Mixed Reality. O projeto permite que cenas do ambiete real sejam inseridas em um ambiente simulado, por captura de vídeo. No ambiente simulado com o vídeo, avatares virtuais interagem com a cena real. Realidade Aumentada É um termo bastante difundido, usado muitas vezes no lugar deA system is characterized by being in augmented virtuality (VA) when the virtual environment is the main or there is predominance of the virtual and elements of the real world are inserted in it. These inserted elements can be people, objects, and so on. Everything that is inserted into a VA system needs to be precaptured or captured in real time so that they can then be rebuilt in the virtual world where they can interact. A work conceived in augmented virtuality is Rapid Scene Modeling, Registration and Specification for Mixed Reality. The design allows real ambience scenes to be inserted into a simulated environment by video capture. In the simulated video environment, virtual avatars interact with the real scene. Augmented Reality It is a widespread term, often used in place of

realidade misturada. Realidade Aumentada (RA) pode ser definida de varias maneiras:Mixed reality. Augmented Reality (AR) can be defined in several ways:

Segundo Insley1 RA é uma melhoria do mundo real com textos, imagens e objetos virtuais, gerados por computador.According to Insley1 RA is a real-world enhancement with computer-generated text, images and virtual objects.

Milgram, 1995, diz que ela é a mistura de mundos reais e virtuais em algum ponto da realidade/virtualidade contínua que conecta ambientes completamente reais a ambientes completamente virtuais.Milgram, 1995, says that it is the mix of real and virtual worlds at some point of continuous reality / virtuality that connects completely real environments to completely virtual environments.

Já a definição feita por Azuma, fala que RA é um sistema que suplementa o mundo real com objetos virtuais gerados por computador, parecendo coexistir no mesmo espaço e apresentado as seguintes ío propriedades:Azuma's definition says that RA is a system that supplements the real world with computer-generated virtual objects, seeming to coexist in the same space and has the following properties:

• combina objetos reais e virtuais no ambiente real;• combines real and virtual objects in the real environment;

• executa interativamente em tempo real;• runs interactively in real time;

• alinha objetos reais e virtuais entre si;• aligns real and virtual objects with each other;

• aplica-se a todos os sentidos, incluindo audição, tato e força e cheiro.• applies to all senses including hearing, touch and strength and smell.

Assim podemos concluir que realidade aumentada permite umThus we can conclude that augmented reality allows a

enriquecimento do ambiente real com elementos virtuais, esse elementos inseridos na cena são dispostos em posição e orientação definidas por padrões capturados a partir do ambiente real. Essas informações podem ser de qualquer natureza, desde objetos tridimensionais que representam prédios a legendas de uma imagem em uma galeria de arte.enriching the real environment with virtual elements, these elements inserted in the scene are arranged in position and orientation defined by patterns captured from the real environment. This information can be anything from three-dimensional objects representing buildings to captions of an image in an art gallery.

A realidade aumentada necessita da captura do ambiente real para um sistema computadorizado (visão computacional), isso permite a inserção dos objetos virtuais. Normalmente essa captura é realizada por uma câmera de vídeo ou webcam.Augmented reality requires capturing the real environment for a computerized system (computer vision), this allows the insertion of virtual objects. Usually this capture is performed by a camcorder or webcam.

Os requisitos básicos para a construção de um sistema em realidade aumentada são rastreamento (tracking),registro (registration) e display.The basic requirements for building an augmented reality system are tracking, registration and display.

No rastreamento, antes de tudo é necessário a captura do frame do vídeo. O frame é analisado e nele são detectadas a presença de padrões, que podem ser marcadores (tags) ou informações previamente estabelecidos (como detecção de contornos e arestas). Se forem encontrados esses padrões, o sistema registra a posição e calcula a transformação do padrão contido no frame em relação a câmera virtual. Em seguida, é associado o objeto tridimensional ao padrão encontrado de acordo com os cálculos do objeto virtual que correspondente em sua correta orientação e disposição na janela de visualização. Os processos de rastreamento, registro e display são feitos 5 continuamente durante a captura do vídeo, só sendo encerrados quando a aplicação terminar.In tracking, first of all it is necessary to capture the video frame. The frame is analyzed and patterns are detected, which can be tags or previously established information (such as contour and edge detection). If these patterns are found, the system records the position and calculates the transformation of the pattern contained in the frame relative to the virtual camera. Then, the three-dimensional object is associated with the pattern found according to the calculations of the corresponding virtual object in its correct orientation and arrangement in the viewport. Tracking, logging and display are performed 5 continuously during video capture, and are only terminated when the application is finished.

Tipos de sistemas de RATypes of RA Systems

A RA pode ser classificada de duas maneiras, por visão direta e indireta, dependendo da forma que o usuário vê o mundo misturado. Visão direta é quando o usuário vê o mundo misturado apontando os olhos diretamente para as posições reais com a cena óptica. Visão indireta é quando o usuário vê o mundo misturado em algum dispositivo, como um monitor ou um projetor, não alinhado com as posições reais. A realidade aumentada com visão direta pode ser implementada com o uso de: capacete (Head Mounted Displays) com câmera de captura de vídeo associada, de apontamento direto baseados em handheld e tablets pc, ou projeções de objetos virtuais no ambiente real. A realidade aumentada com visão indireta pode ser obtida com o uso de monitores e projeções, a câmera é posicionada em qualquer lugar e a visualização dos objetos virtuais é feita pela visualização no monitor ou na projeção.AR can be classified in two ways, by direct and indirect vision, depending on how the user views the mixed world. Direct vision is when the user sees the mixed world pointing their eyes straight at the actual positions with the optical scene. Indirect view is when the user sees the mixed world on some device, such as a monitor or projector, not aligned with actual positions. Augmented reality with direct vision can be implemented using: Head Mounted Displays with associated handheld direct-pointing video capture camera and tablet pc, or virtual object projections in the real environment. Augmented reality with indirect vision can be achieved through the use of monitors and projections, the camera is positioned anywhere, and virtual objects are viewed by viewing on the monitor or projection.

Técnicas de rastreamento RARA tracking techniques

Duas técnicas de rastreamento baseadas em visão computacional são as principais, as baseadas em elementos auxiliares (marcadores fiduciais/tags) para a captura de posição e as que se utilizam de elementos do próprio cenário real(markerless).Two tracking techniques based on computer vision are the main ones, those based on auxiliary elements (fiducial markers / tags) for position capture and those that use elements of the actual scenario itself (markerless).

Rastreamento por Marcadores Fiduciais (marker-based augmented realitv)Tracing by fiducial markers (marker-based augmented realitv)

A utilização de marcas fiduciais(tags) têm demonstrado resultados práticos bons e com tempos de execução aceitáveis para aplicações em tempo real. As tags são imagens que contêm características visuais fáceis de serem extraídas. É necessário que as características visuais dessas marcas estejam plenamente visíveis para o processo de rastreamento ser realizado com sucesso. Se a tag estiver obstruída parcial ou totalmente o processo de rastreamento pode ficar comprometido. Esses marcadores são imagens impressas em papel comum, eles não necessitam de nenhum dispositivo eletrônico associado. Todo o processamento é feito no hardware onde a 5 câmera está ligada, podendo assim diversos dispositivos rodando o mesmo software rastrear a tag e renderizar o objeto virtual relacionado de acordo com a sua posição no espaço.The use of fiducial tags has shown good practical results and acceptable lead times for real time applications. Tags are images that contain easy-to-extract visual characteristics. The visual characteristics of these tags must be fully visible for the successful tracking process to be carried out. If the tag is partially or totally blocked the tracking process may be compromised. These markers are images printed on plain paper, they do not require any associated electronic devices. All processing is done on the hardware where the camera is turned on, so that multiple devices running the same software can track the tag and render the related virtual object according to its position in space.

O recurso mais utilizado baseado em marcadores para RA é a biblioteca Artoolkit. Ela é bastante popular devido ao fato de fornecer soluções de 10 rastreamento 3D, em tempo real, com baixo custo computacional e por grande parte de seus recursos ser opensource, incentivando os usuários no uso, estudo e modificação da biblioteca acordo com as suas aplicações desejadas, exemplo de disso é a Artoolkitplus, uma versão estendida que possui muitos aprimoramentos de performance, modificações nas funções de rastreamento e 15 etc.The most widely used marker-based resource for RA is the Artoolkit library. It is very popular because it provides low-cost, real-time 3D tracking solutions and because most of its features are open source, encouraging users to use, study and modify the library to suit their desired applications. An example of this is Artoolkitplus, an extended version that has many performance enhancements, modifications to tracking functions, and so on.

A Artoolkit é implementada em C e C++. Ela utiliza o rastreamento óptico (por câmera), e implementa técnicas de visão computacional para identificar e estimar em tempo real a posição e a orientação de uma tag em relação ao dispositivo de captura de vídeo. Assim, o cálculo da correlação entre os dados 20 estimados do marcador real e a sua imagem, possibilita posicionar objetos virtuais alinhados à imagem do marcador.Artoolkit is implemented in C and C ++. It uses optical (camera) tracking, and implements computer vision techniques to identify and estimate in real time the position and orientation of a tag relative to the video capture device. Thus, the calculation of the correlation between the estimated real marker data 20 and its image makes it possible to position virtual objects aligned with the marker image.

• Marcadores• Markers

O rastreamento implementado no Artoolkit estima a pose de tags, tornando possível conhecer a posição e orientação de elementos ou ações 25 reais, que são representados na cena por marcadores. O reconhecimento de padrões é realizado pela identificação dos quatro vértices de regiões quadradas, contidas na imagem de vídeo, que é convertida em uma imagem binária(preto e branco), o símbolo no interior dos vértices é comparado aos gabaritos dos marcadores cadastrados pelo usuário. Caso a informação 30 contida dentro do retângulo extraído seja semelhante com algum marcador cadastrado, o sistema passa a identificar o marcador. • RastreamentoThe tracking implemented in Artoolkit estimates the tag pose, making it possible to know the position and orientation of actual elements or actions, which are represented in the scene by markers. Pattern recognition is performed by identifying the four square region vertices contained in the video image, which is converted to a binary image (black and white), the symbol inside the vertices is compared to the markers templates registered by the user. If the information contained within the extracted rectangle is similar to any registered marker, the system will identify the marker. • Tracking

Com o marcador identificado a Artoolkit passa a estimar sua posição e orientação. A obtenção da posição e orientação do marcador é realizada através da análise da imagem de vídeo, que estabelece o relacionamento entre as coordenadas do marcador e as coordenadas da câmera.With the marker identified Artoolkit proceeds to estimate its position and orientation. The marker position and orientation are obtained through video image analysis, which establishes the relationship between the marker coordinates and the camera coordinates.

O relacionamento entre as coordenadas do marcador e as coordenadas da câmera é realizado por intermédio de uma matriz 3x4, denominada "matriz transformação".The relationship between marker coordinates and camera coordinates is accomplished through a 3x4 matrix, called a "transformation matrix".

Estimada a matriz transformação, a API OpenGL é utilizada para ajustar ío a câmera virtual, posicionar e desenhar o objeto virtual alinhado na visualização do marcador real.Estimated the transformation matrix, the OpenGL API is used to adjust the virtual camera, position and draw the aligned virtual object in the actual marker view.

Sem o uso de marcadores (markerless auqmented realitv)Without using markers (markerless auqmented realitv)

Um sistema de rastreamento em realidade aumentada sem o uso de marcadores se diferencia de um sistema baseado em marcadores por utilizar um método de inserção de objetos virtuais no mundo real diferenciado. A abordagem utilizada por essa técnica não é baseada no uso de marcadores, os quais são colocados no mundo real para dar o suporte ao rastreamento para cálculos de posição e orientação. Nesse tipo de rastreamento, qualquer parte do ambiente real pode ser usada como um marcador que pode ser rastreado a fim de colocar objetos virtuais. Portanto, não há invasão do ambiente causada por marcadores que não fazem parte do ambiente. Outra vantagem é a possibilidade de extrair as características do ambiente que podem mais tarde serem usadas para tornar o rastreamento mais rápido ou para outros propósitos. A desvantagem é que o rastreamento e o registro são mais complexos, já que utilizam apenas as imagens capturadas da cena para recuperar a pose da câmera e a estrutura da cena, sem nenhuma ajuda de conhecimentos previamente adquiridos sobre a mesma, demandando um alto poder de processamento e afetando diretamente o frame rate da aplicação. Trabalhos desenvolvidos em RA Diversos projetos em RA foram e estão sendo desenvolvidos paraA markerless augmented reality tracking system differs from a marker-based system in that it uses a differentiated real-world method of inserting virtual objects. The approach used by this technique is not based on the use of markers, which are placed in the real world to support tracking for position and orientation calculations. In this type of tracking, any part of the actual environment can be used as a marker that can be tracked to place virtual objects. Therefore, there is no invasion of the environment caused by non-environment markers. Another advantage is the ability to extract environment features that can later be used to make tracking faster or for other purposes. The disadvantage is that tracking and recording are more complex, as they use only the captured images of the scene to retrieve the camera's pose and scene structure, without any help from previously acquired camera knowledge, requiring a high power of processing and directly affecting the frame rate of the application. Works developed in RA Several projects in RA have been and are being developed to

diversas áreas do conhecimento. Alguns deles estão descritos abaixo. Entretenimentovarious areas of knowledge. Some of them are described below. Entertainment

O Black Magic Book usa a realidade aumentada para contar a história da Copa América de regata (America’s Cup) de uma forma diferente. Quando as pessoas olham através de um display de mão(handheld) nas páginas de um 5 livro normal, modelos virtuais animados de barcos saltam das páginas. O sistema também fornece uma experiência compartilhada. Cada usuário pode ver o modelo virtual a partir de seu próprio ponto de vista. O projeto foi desenvolvido no Laboratório HIT NZ usando a tecnologia de Hiroshima City University, e com o apoio da Cantuária Development Corporation (CDC) e da 10 Universidade de Canterbury.The Black Magic Book uses augmented reality to tell the story of America's Cup in a different way. When people look through a handheld display on the pages of a normal book, animated virtual boat models jump out of the pages. The system also provides a shared experience. Each user can view the virtual model from their own point of view. The project was developed at the HIT NZ Lab using technology from Hiroshima City University, and with the support of Canterbury Development Corporation (CDC) and 10 Canterbury University.

MedicinaMedicine

Na Universidade do Colorado do Norte (UNC) em Chapei Hill,foram realizados mapeamentos do útero em mulheres grávidas através de sensores de ultra-som, gerando a representação 3D do feto. As imagens tridimensionais 15 eram visualizadas diretamente no corpo da paciente através de um HMD. Seu objetivo é ajudar um médico no processo de visualização do feto movendo-se no útero. Posteriormente, foi desenvolvido um sistema em realidade aumentada para costura de tecidos após a retirada de tumor no seio.At the University of Northern Colorado (UNC) in Chapei Hill, uterus mapping was performed on pregnant women using ultrasound sensors, generating a 3D representation of the fetus. Three-dimensional images 15 were visualized directly on the patient's body through an HMD. Its goal is to help a doctor in the process of visualizing the fetus moving in the womb. Subsequently, an augmented reality system for tissue sewing after breast tumor removal was developed.

Processos de Construção e Manutenção Pesquisadores da Universidade Colúmbia desenvolveram um sistemaConstruction and Maintenance Processes Columbia University researchers have developed a system

para manutenção de uma impressora laser. Este projeto utilizou rastreadores de posição para obter informações a fim de determinar a posição da parte da impressora na qual é necessário realizar a operação, bem como saber se existe ou não algum objeto obstruindo o caminho de uma determinada ação, ou até saber se a ação já foi realizada.for maintaining a laser printer. This project used position trackers to obtain information to determine the position of the part of the printer where the operation is required, as well as whether or not there is any object obstructing the path of a particular action, or even whether the action has already been performed.

Ambientes Virtuais Colaborativos Visão GeralCollaborative Virtual Environments Overview

Uma das classificações para ambientes virtuais pode ser relacionada à quantidade de usuários que utilizam um sistema, variando de uma única pessoa até diversas pessoas, essas utilizando um sistema distribuído. Os ambientes virtuais distribuídos (AVDs) apresentam um elevado potencial de aplicação. A suas características principais são a interação, cooperação e compartilhamento de recursos computacionais em tempo real entre os usuários que podem estar dispersos geograficamente. O suporte para a comunicação se dá a partir de redes de computadores.One of the classifications for virtual environments can be related to the number of users using a system, ranging from a single person to several people using a distributed system. Distributed virtual environments (AVDs) have high application potential. Its main features are the interaction, cooperation and sharing of computational resources in real time among users who may be geographically dispersed. Support for communication is from computer networks.

Nesse contexto, os usuários podem compartilhar um mesmo espaço virtual, onde poderão contar com o auxílio uns dos outros para a execução de tarefas, baseandose nos princípios de trabalho colaborativo suportado por computador (CSCW - Computer Supported Cooperative Work). Assim o sistema é classificado como um Ambiente Virtual Colaborativo.In this context, users can share the same virtual space, where they can count on each other's assistance to perform tasks based on the principles of Computer Supported Cooperative Work (CSCW). Thus the system is classified as a Collaborative Virtual Environment.

Sistemas Colaborativos são uma forma de compartilhar informações e conhecimento. Trabalhando colaborativamente pode-se produzir resultados melhores do que atuando individualmente. Em um grupo pode ocorrer a complementação de capacidades, de conhecimentos e de esforços individuais, 15 e a interação entre pessoas com entendimentos, pontos de vista e habilidades complementares.Collaborative systems are a way of sharing information and knowledge. Working collaboratively can produce better results than acting individually. In a group there may be the complementation of individual skills, knowledge and efforts, 15 and the interaction between people with complementary understandings, points of view and skills.

Colaborando, os membros do grupo conseguem identificar precocemente inconsistências e falhas em seu raciocínio e, juntos, desenvolvem ideias, para auxiliar na resolução dos problemas.By collaborating, group members can early identify inconsistencies and flaws in their thinking and, together, develop ideas to help solve problems.

De acordo com Barros 1994: “colaborar (co-labore) significa trabalharAccording to Barros 1994: “collaborating (co-labore) means working

junto, que implica no conceito de objetivos compartilhados e uma intenção explicita de somar algo, criar alguma coisa nova ou diferente através da colaboração, se contrapondo a uma simples troca de informação ou de instruções.”together, it implies the concept of shared goals and an explicit intention to add something, to create something new or different through collaboration, as opposed to a simple exchange of information or instructions. ”

O trabalho colaborativo também motiva, pois pela observação e opiniãoCollaborative work also motivates, because by observation and opinion

o participante trabalha ativamente seus conceitos, raciocinando sobre os mesmos e refinando-os. Apesar de vantajoso, o trabalho em grupo demanda esforço, pois exige coordenação. Sem isso, a comunicação não será aproveitada por ser distorcida ou mal interpretada.The participant actively works on his concepts, reasoning about them and refining them. Although advantageous, teamwork requires effort, as it requires coordination. Without it, communication will not be harnessed by being distorted or misinterpreted.

Portanto colaboração resume-se na execução de um trabalho, feito porSo collaboration comes down to doing a job, done by

um grupo de pessoas que visam, através do compartilhamento de conhecimento, chegar a uma conclusão ou a um produto final. A liderança não é centralizada em apenas um indivíduo. Um indivíduo pode liderar uma determinada atividade na qual ele é mais competente, enquanto outros indivíduos liderarão outras (que exigem outras competências).a group of people who aim, through knowledge sharing, to reach a conclusion or an end product. Leadership is not centered on just one individual. An individual may lead a particular activity in which he is most competent, while other individuals will lead others (which require other skills).

Componentes de um Ambiente Virtual ColaborativoComponents of a Collaborative Virtual Environment

Segundo Sementille, são quatro os componentes básicos para que um sistema se caracterize como virtual e colaborativo, displays gráficos (HMD, Seethrough, CAVE), dispositivos de controle (forma como o usuário entra com informações no sistema, interface com o usuário), sistema de processamento 10 (hardware para o processamento das informações) e rede de comunicação(meio onde as informações trafegam, protocolos de transmissão e etc.). Todos os componentes formam um conjunto para proporcionar ao usuário uma imersão no ambiente simulado. Displays gráficos são o meio no qual as informações visuais são passadas ao usuário do sistema. Existem diversas 15 categorias de displays gráficos, que vão de monitores de vídeo convencional até Head-Mounted Displays. Tudo depende dos objetivos do sistema proposto. Se o sistema visa uma maior imersão do usuário, dispositivos mais complexos e menos comuns são utilizados. A perspectiva que o usuário tem em um ambiente virtual (AV) geralmente é exibida através de janelas. O utilizador do 20 sistema está sempre associado a alguma representação no AV. A janela é sempre o ponto de vista da representação do utilizador em relação ao mundo virtual, que é modificada conforme o deslocamento.According to Sementille, there are four basic components for a system to be characterized as virtual and collaborative, graphic displays (HMD, Seethrough, CAVE), control devices (how the user enters information in the system, user interface), system 10 (hardware for processing information) and communication network (medium where information travels, transmission protocols, etc.). All components form a set to provide the user with immersion in the simulated environment. Graphic displays are the medium in which visual information is passed to the system user. There are 15 different categories of graphic displays, ranging from conventional video monitors to head-mounted displays. It all depends on the objectives of the proposed system. If the system aims at greater user immersion, more complex and less common devices are used. The perspective that the user has in a virtual environment (AV) is usually displayed through windows. The user of the system is always associated with some representation in the AV. The window is always the point of view of the user's representation in relation to the virtual world, which is modified as the displacement.

Dispositivos de comunicação e controle compreendem todo o input e output do sistema, como o usuário entra com as ações no sistema e como o 25 sistema responde a elas. Dispositivos comuns para entrada de dados são o mouse e o teclado, porém para uma maior imersão no ambiente, dispositivos convencionais são a melhor opção, pois têm suas ações mais próximas as executadas naturalmente pelo ser humano.Communication and control devices comprise all system input and output, how the user enters actions in the system, and how the system responds to them. Common devices for data entry are the mouse and keyboard, but for greater immersion in the environment, conventional devices are the best option because they have their actions closer to those performed naturally by humans.

Os dispositivos de visualização como HMD, see-through e CAVE, e de interação como datagloves, sensores de biofeedback e outros podem ser vistos em maiores detalhes na apresentação Overview of augmented reality” e no livro “Realidade Virtual: Fundamentos e Aplicações”.Visualization devices such as HMD, see-through, and CAVE, and interaction devices such as datagloves, biofeedback sensors, and more can be seen in greater detail in the Overview of augmented reality presentation and in the book Virtual Reality: Fundamentals and Applications.

O hardware utilizado, geralmente um computador ou um notebook, é o sistema de processamento. Ele é responsável pelo gerenciamento de todos os componentes do ambiente virtual (processamento das entradas do usuário, simulação do ambiente virtual, controle das informações recebidas ou enviadas por rede.)The hardware used, usually a computer or a notebook, is the processing system. He is responsible for managing all components of the virtual environment (user input processing, virtual environment simulation, control of information received or sent over the network.)

A rede de comunicação é o meio onde as informações trafegam, e compreendem protocolos de gerenciamento das informações.The communication network is the medium where information travels, and comprises information management protocols.

Comunicação em Ambientes Virtuais Colaborativos O suporte para a comunicação em ambientes virtuais distribuídos éCommunication in Collaborative Virtual Environments Support for communication in distributed virtual environments is

baseado em redes de computadores. Existem dois esquemas principais para a troca de informações: Modelo Cliente/Servidor e Peer-to-peer.based on computer networks. There are two main schemes for information exchange: Client / Server Model and Peer-to-Peer.

O modelo cliente/servidor implica na comunicação direta entre uma aplicação cliente a um servidor, não é possível um cliente se comunicar com 15 outro cliente diretamente sem a mediação do servidor. Esse é o modelo mais simples de implementação de comunicação por rede. Uma desvantagem é a possibilidade de falha no servidor, o que deixaria todo o sistema inoperante. Para contornar o problema existe a técnica de replicação de servidores. Outra desvantagem é que o gargalo na comunicação pode estar no servidor, pois 20 nele é feito todo o gerenciamento de pacotes e retransmissão para o outros clientes, e se houverem muitas conexões a latência na comunicação pode aumentar consideravelmente.The client / server model implies direct communication between a client application to a server, it is not possible for a client to communicate with another client directly without server mediation. This is the simplest model for implementing network communication. One disadvantage is the possibility of server failure, which would render the entire system inoperable. To work around the problem there is the server replication technique. Another disadvantage is that the communication bottleneck can be on the server, since all packet management and relay to other clients are done there, and if there are many connections, communication latency can increase considerably.

Uma rede peer-to-peer consiste na comunicação direta entre os hosts (clientes se comparados com o modelo cliente/servidor), sem intermédio de um 25 servidor dedicado. Esse modelo é mais complexo pois trata além do gerenciamento local, de todas as conexões remotas feitas no host. Toda a atividade de comunicação na rede é governada por protocolos. Protocolos definem os formatos e ordem das informações enviadas e recebidas pelos dispositivos que compõem a rede e ações a serem tomadas na transmissão e 30 recepção de mensagens. O modelo de protocolo amplamente utilizado em redes de computadores é o TCP/IP [ROD 2001]. O TCP/IP é um modelo em pilhas de protocolos (camadas) que baseia-se principalmente em um serviço de transporte orientado a conexão, fornecido pelo Transmission Control Protocol (TCP), e um serviço de rede não-orientado à conexão, fornecido pelo Internet ProtocoI(IP).A peer-to-peer network consists of direct communication between hosts (clients compared to the client / server model) without a dedicated server. This model is more complex because it addresses beyond local management all remote connections made on the host. All communication activity on the network is governed by protocols. Protocols define the formats and order of the information sent and received by the devices that make up the network and the actions to be taken in the transmission and reception of messages. The protocol model widely used in computer networks is TCP / IP [ROD 2001]. TCP / IP is a protocol stack (layer) model that is primarily based on a connection-oriented transport service provided by the Transmission Control Protocol (TCP) and a connection-oriented network service provided by Internet ProtocoI (IP).

Projetos Colaborativos RelacionadosRelated Collaborative Projects

Diversas pesquisas e trabalhos foram realizados utilizando a colaboração apoiada por computador.Several researches and works have been carried out using computer supported collaboration.

No artigo Distributed and Local Sensing Techniques for Face-to-Face Collaboration, foi elaborada uma técnicas que permite aos usuários 10 colaborarem em Tablet PCs, os computadores possuem sensores para estabelecer uma ligação entre eles. Cada tablet e dotada com diversos sensores (acelerômetro, toque e luminosidade). O sistema reconhece quando duas tablets se encostam, procurando picos de dados no acelerômetro. O encostar estabelece uma conexão entre os dispositivos e então os usuários 15 podem interagir em um ambiente colaborativo "face-a-face". A aplicação, que é executada nos dois computadores móveis, permite compartilhar informações como um esboço de um desenho ou ampliar a área de visualização ocupando todo o display de ambos dispositivos.In the Distributed and Local Sensing Techniques for Face-to-Face Collaboration article, a technique was developed that allows 10 users to collaborate on Tablet PCs, computers have sensors to establish a connection between them. Each tablet is equipped with several sensors (accelerometer, touch and brightness). The system recognizes when two tablets touch, looking for data spikes in the accelerometer. Touching establishes a connection between devices and users 15 can then interact in a collaborative "face-to-face" environment. The application, which runs on both mobile computers, allows you to share information such as a sketch of a drawing or enlarge the viewing area by occupying the entire display of both devices.

TeIeInViVoTM: Towards Collaborative Volume Visualization Enviroments desenvolvido por Coleman e outros, TeIeInViVoTM é uma aplicação que suporta a colaboração para a visualização e exploração de dados volumétricos. Esse sistema é uma extensão reformulada do InViVoTM, um visualizador de volumes que é amplamente focado na comunidade médica e que tem ênfase no diagnóstico, por ultrasom. A aplicação aprimorada permite que os volumes sejam manipulados colaborativamente. Pode-se carregar um volume de determinada parte do corpo, compartilhá-lo com outros usuários conectados permitindo interferir, selecionar e mostrar uma parte específica do volume, alterar o plano de corte, ou ainda medir estruturas no volume. A implementação é antiga, mas demonstra um interesse no compartilhamento e colaboração na análise de dados volumétricos provenientes de imagens médicas.TeIeInViVoTM: Towards Collaborative Volume Visualization Enviroments developed by Coleman and others, TeIeInViVoTM is an application that supports collaboration for visualization and exploration of volumetric data. This system is a redesigned extension of InViVoTM, a volume viewer that is largely focused on the medical community and has an emphasis on ultrasound diagnostics. The enhanced application allows volumes to be manipulated collaboratively. You can load a volume from a certain part of the body, share it with other connected users allowing you to interfere, select and show a specific part of the volume, change the cutting plane, or measure structures in the volume. The implementation is old but demonstrates an interest in sharing and collaborating in the analysis of volumetric data from medical images.

O projeto Arthur é uma ferramenta que permite aos arquitetos modificar imediatamente modelos arquitetônicos. No lugar de modelos físicos, são usados modelos virtuais, gerados por computador, e visíveis através de head- mounted displays. Os usuários compartilham a visualização do modelo tridimensional, uma cidade, por exemplo, e podem vê-lo de acordo com sua 5 posição no espaço. A aplicação permite que sejam alteradas propriedades dos objetos visualizados (escala, posicionamento, etc.), as modificações são percebidas imediatamente por todos que utilizam o sistema.The Arthur project is a tool that allows architects to immediately modify architectural models. Instead of physical models, computer-generated virtual models visible through head-mounted displays are used. Users share the visualization of the three-dimensional model, a city, for example, and can see it according to its 5 position in space. The application allows to change properties of the displayed objects (scale, positioning, etc.), the modifications are immediately noticed by all who use the system.

No âmbito patentário, foram localizados alguns documentos relevantes que serão descritos a seguir.In the patent area, some relevant documents were found, which will be described below.

O documento US 7197170 revela um método para visualização eUS 7197170 discloses a method for viewing and

medidas anatômicas. A presente invenção difere deste documento, pois visa volumes funcionais compreendendo a utilização de um dispositivo de display móvel.anatomical measurements. The present invention differs from this document in that it is intended for functional volumes comprising the use of a mobile display device.

O documento US 6608628B1 revela um método e aparato para imagem 15 virtual interativa médica para múltiplos usuários remotos. O sistema permite que diversos usuários tenham uma visão colaborativa e manipulem imagens de uma determinada estrutura. A presente invenção difere deste documento por compreender a visualização de volumes espaço-consciente colaborativo que permite que a exploração da anatomia ocorra diretamente sobre o corpo real por 20 um display móvel, e onde cada usuário decide a sua própria perspectiva de visualização em tempo real.US 6608628B1 discloses a method and apparatus for medical interactive virtual imaging 15 for remote multiple users. The system allows multiple users to have a collaborative view and manipulate images of a given structure. The present invention differs from this document in that it comprises collaborative space-conscious volume visualization which allows anatomical exploration to take place directly over the real body through a mobile display, and where each user decides his own perspective in real time visualization.

O documento US 2003/0179308 revela um sistema para se gerar uma imagem em realidade aumentada, compreendendo câmera de vídeo, sensor e processador de realidade aumentada, para se gerar uma imagem virtual 25 sobreposta à imagem de vídeo. A presente invenção difere deste documento por poder manter a câmera e o dispositivo de display fisicamente unidos e móveis podendo ser levados até o corpo de um paciente. A presente invenção também não requer sensores externos e pode produz uma imagem de realidade aumentada no próprio local onde a realidade física ocorre. Além disso, a 30 presente invenção possui comunicação por rede para permitir que vários dispositivos móveis de display compartilhem o mesmo ambiente físico/virual, cada um com seu ponto de vista e trocando informações sobre este ambiente.US 2003/0179308 discloses a system for generating an augmented reality image, comprising camcorder, sensor and augmented reality processor, for generating a virtual image 25 superimposed on the video image. The present invention differs from this document in that it can hold the camera and display device physically together and movable and can be carried into a patient's body. The present invention also does not require external sensors and can produce an augmented reality image on the spot where physical reality occurs. In addition, the present invention has network communication to enable multiple mobile display devices to share the same physical / viral environment, each with its own viewpoint and exchanging information about this environment.

Do que se depreende da literatura pesquisada, não foram encontrados documentos antecipando ou sugerindo os ensinamentos da presente invenção, de forma que a solução aqui proposta possui novidade e atividade inventiva frente ao estado da técnica.From what is clear from the researched literature, no documents were found anticipating or suggesting the teachings of the present invention, so that the solution proposed here has novelty and inventive activity in the state of the art.

Sumário da InvençãoSummary of the Invention

Em um aspecto, a presente invenção descreve um método e sistema de visualização de volumes espaço-consciente colaborativo. É usado um display 10 móvel, preferencialmente um tablet PC, ou smartphone, ou algum tipo de pad digital, pelo qual se enxergam os órgãos internos do paciente que são renderizados a partir de dados de tomografia previamente armazenada. Três módulos principais fazem parte da implementação do método e sistema: visualizador de volumes, realidade aumentada e comunicação por rede. Os três 15 módulos trabalham em conjunto e permitem que a exploração da anatomia ocorra diretamente sobre o corpo real.In one aspect, the present invention describes a collaborative space-conscious volume visualization method and system. A mobile display 10, preferably a tablet PC, or smartphone, or some type of digital pad is used, through which to view the patient's internal organs that are rendered from previously stored tomography data. Three main modules are part of the method and system implementation: volume viewer, augmented reality, and network communication. The three 15 modules work together and allow anatomy exploration to take place directly over the real body.

É um objeto da presente invenção um sistema de visualização de volumes espaço-consciente colaborativo compreendendo os módulos de: a) visualização de volumes de órgãos internos;An object of the present invention is a collaborative space-conscious volume visualization system comprising the modules of: a) visualization of internal organ volumes;

b) realidade aumentada; eb) augmented reality; and

c) comunicação por rede.c) communication by network.

Em uma realização preferencial o visualisador de volumes utiliza recurso tela de toque.In a preferred embodiment the volume viewer utilizes a touch screen feature.

É um objeto adicional da presente invenção um método de visualização de volumes espaço-consciente colaborativo compreendendo as etapas de:A further object of the present invention is a collaborative space-conscious volume visualization method comprising the steps of:

a) obter um display móvel compreendendo visualizador de volumes de órgão internos, realidade aumentada e comunicação por rede;a) obtain a mobile display comprising internal organ volume viewer, augmented reality and network communication;

b) sobrepor o display móvel de a) ao corpo de um paciente.b) superimpose the moving display of a) on a patient's body.

Estes e outros objetos da invenção serão imediatamente valorizadosThese and other objects of the invention will be immediately appreciated.

pelos versados na arte e pelas empresas com interesses no segmento, e serão descritos em detalhes suficientes para sua reprodução na descrição a seguir. Breve Descrição das Figurasthose skilled in the art and companies with interests in the art, and will be described in sufficient detail for reproduction in the following description. Brief Description of the Figures

A Figura 1 revela o contorno do volume nas diferentes distâncias, resolução 800x600. Os pixels ocupados pelo volume são os brancos. Os números referem-se a tabela 5.Figure 1 reveals the volume contour at different distances, 800x600 resolution. The pixels occupied by the volume are white. The numbers refer to table 5.

A Figura 2 revela um gráfico que utiliza os dados da tabela 5 para mostrar a queda no número de pixels conforme o afastamento do volume. Sendo P=PixeIs, D=Distância, PxV = PxVoIume.Figure 2 shows a graph that uses the data in table 5 to show the drop in the number of pixels as the volume shifts. Where P = Pixels, D = Distance, PxV = PxVoIume.

A Figura 3 revela um gráfico comparando a performance do sistema em ío diferentes resoluções de tela e distância entre o volume e a câmera, sendo D=Distância. Teste feito na Core2Quad com a resolução do volume 256x256x128. Percebe-se que ao aumentar a distância os quadros por segundo também aumentam, e que a diferença de FPS nas duas resoluções tendem a se elevar na mesma proporção.Figure 3 shows a graph comparing system performance at different screen resolutions and distance between volume and camera, where D = Distance. Core2Quad test with 256x256x128 volume resolution. It is noticed that as the distance increases the frames per second also increase, and that the difference of SPF in the two resolutions tends to increase in the same proportion.

A Figura 4 revela um gráfico comparando performance do sistema emFigure 4 shows a graph comparing system performance over

diferentes resoluções de volume. Core2Quad, sendo D=Distância. A distância é variada igualmente para as duas resoluções de volume. Resolução de tela 1280x800.different volume resolutions. Core2Quad, where D = Distance. The distance is varied equally for the two volume resolutions. 1280x800 screen resolution.

A Figura 5 revela um gráfico comparando performance do sistema em diferentes resoluções de volume. TurionX2, sendo D=Distância. A distância é variada igualmente para as duas resoluções de volume. Resolução de tela fixa em 1280x800.Figure 5 shows a graph comparing system performance at different volume resolutions. TurionX2, where D = Distance. The distance is varied equally for the two volume resolutions. Fixed screen resolution at 1280x800.

A Figura 6 revela um gráfico comparando o modo janela com o modo fullscreen. Aferição para a resolução de 1280x800 executada em modo janela, resoluções de 1280x1024 e 1920x1080 medidas em modo fullscreen, R= Resoluções (Pixels). Utilizada a máquina Core2Quad, resolução do volume 256x256x128 e distância entre o volume e a câmera de 45cm.Figure 6 shows a graph comparing window mode with fullscreen mode. Measurement for 1280x800 resolution performed in window mode, 1280x1024 and 1920x1080 resolutions measured in fullscreen mode, R = Pixels. Core2Quad machine used, 256x256x128 volume resolution and 45cm camera-to-camera distance.

A Figura 7 revela uma comparação de performance, medida em frames por segundo, entre diferentes configurações de computadores. Utilizadas a resolução de tela 1280x800, resolução do volume 256x256x128 e a distância entre o volume e a câmera de 45cm. A Figura 8 revela uma comparação entre a latência, medida em milisegundos, L= Latência (ms), para o carregamento de um volume com resolução de 256x256x128. Resolução de tela 1280x800.Figure 7 reveals a performance comparison, measured in frames per second, between different computer configurations. Using the 1280x800 screen resolution, 256x256x128 volume resolution and the 45cm camera-to-camera distance. Figure 8 shows a comparison of latency, measured in milliseconds, L = Latency (ms), for loading a 256x256x128 resolution volume. 1280x800 screen resolution.

A Figura 9 revela uma comparação de performance em um modo de utilização normal com diferentes resoluções de volume e distâncias, sendo D=Distância. Plano de corte ativo. Na distância 45cm o volume é cortado. Na distância 80cm o volume é renderizado totalmente.Figure 9 shows a performance comparison in a normal use mode with different volume resolutions and distances, where D = Distance. Active cutting plane. At 45cm distance the volume is cut. At 80cm distance the volume is fully rendered.

Descrição Detalhada da InvençãoDetailed Description of the Invention

ío Os exemplos aqui mostrados têm o intuito somente de exemplificar umaThe examples shown here are for the sole purpose of exemplifying a

das inúmeras maneiras de se realizar a invenção, contudo, sem limitar o escopo da mesma.of the numerous ways of carrying out the invention, however, without limiting the scope thereof.

Sistema de Visualização de Volumes Espaço-consciente ColaborativoCollaborative Space-Conscious Volume Visualization System

É um objeto da presente invenção um sistema de visualização de volumes espaço-consciente colaborativo compreendendo os módulos de:An object of the present invention is a collaborative space-conscious volume visualization system comprising the modules of:

a) visualização de volumes de órgãos internos;a) visualization of volumes of internal organs;

b) realidade aumentada; eb) augmented reality; and

c) comunicação por rede.c) communication by network.

Em uma realização preferencial o visualisador de volumes utiliza recurso tela de toque.In a preferred embodiment the volume viewer utilizes a touch screen feature.

Visualizador de VolumesVolume Viewer

Os volumes são gerados a partir de imagens médicas, datasets de volume utilizados com o sistema são provenientes de MRI ou TC, mas outros tipos de datasets disponíveis ou que venham a ser desenvolvidos no futuro 25 também poderiam ser utilizados. Ele pode ser desenvolvido com base no algoritmo High-Quality Pre-Integrated Volume Rendering modificado para tornar a interação compatível com a tela de toque disponível em dispositivos de display móvel como os tablet PCs.Volumes are generated from medical imaging, volume datasets used with the system come from MRI or CT, but other types of datasets available or to be developed in the future 25 could also be used. It can be developed based on the modified High-Quality Pre-Integrated Volume Rendering algorithm to make touch-screen interaction available on mobile display devices such as tablet PCs.

Realidade Aumentada No módulo de realidade aumentada o volume gerado é associado a umAugmented Reality In the augmented reality module the generated volume is associated with a

marcador fiducial. O marcador é rastreado por uma câmera de vídeo permitindo que a cena capturada seja inserida na janela de renderização, e o volume das imagens médicas seja inserido virtualmente na cena de acordo com a posição e ângulo do observador que utiliza o display de visualização.fiducial marker. The marker is tracked by a camcorder allowing the captured scene to be inserted into the render window, and the volume of medical images to be virtually inserted into the scene according to the position and angle of the viewer using the viewing display.

Comunicação por Rede A comunicação por rede permite a troca de informações entre osNetwork Communication Network communication allows the exchange of information between

observadores no ambiente virtual permitindo uma colaboração entre os participantes. As informações trocadas podem ser sobre pontos de interesse e parâmetros de configuração das janelas (domínios) de densidade para visualização. O primeiro permite inserir marcações diretamente sobre o volume, 10 como por exemplo indicar tumores ou marcos anatômicos, e o segundo permite alterar a densidade dos materiais do volume que receberão cor ou serão transparentes. Os dois recursos permitem evidenciar alguma estrutura específica no volume renderizado.observers in the virtual environment enabling collaboration between participants. The information exchanged can be about points of interest and density window (domain) configuration parameters for viewing. The first allows to insert markings directly on the volume, 10 for example to indicate tumors or anatomical landmarks, and the second allows to change the density of the volume materials that will receive color or be transparent. Both features allow you to highlight some specific structure in the rendered volume.

Método de Visualização de Volumes Espaço-consciente Colaborativo É um objeto adicional da presente invenção um método de visualizaçãoCollaborative Space-Conscious Volumes Visualization Method A further object of the present invention is a visualization method

de volumes espaço-consciente colaborativo compreendendo as etapas de:of collaborative space-conscious volumes comprising the steps of:

a) obter um display móvel compreendendo visualizador de volumes de órgão internos, realidade aumentada e comunicação por rede;a) obtain a mobile display comprising internal organ volume viewer, augmented reality and network communication;

b) sobrepor o display móvel de a) ao corpo de um paciente.b) superimpose the moving display of a) on a patient's body.

2020

Exemplo 1. Realização PreferencialExample 1. Preferred Realization

Avaliação do SistemaSystem Evaluation

Nesta seção é proposto um método quantitativo para a avaliação do sistema. O teste visa aferir a performance do sistema em diferentes 25 equipamentos, resoluções de tela e resoluções de volume (escalabilidade). O desempenho da aplicação é medido em quadros por segundo (FPS), padrão para aferição de desempenho em aplicações gráficas, que significa o número de quadros que o dispositivo registra, processa ou exibe a cada segundo. Uma taxa de atualização que gera transações suaves e contínuas para aplicações 30 interativas em computação gráfica é 30 fps. Nessa taxa de atualização ou acima disso, tem-se a percepção de continuidade da informação que está sendo exibida na janela de renderização. Abaixo disso, a continuidade da cena é perdida causando uma frustração no utilizador do sistema. A taxa de quadros por segundo é diretamente proporcional à capacidade de processamento do hardware utilizado. Uma máquina com poder de processamento (cpu e gpu) 5 alto geralmente consegue atingir uma boa média de quadros por segundo. Configuração do Experimento HardwareThis section proposes a quantitative method for system evaluation. The test aims to gauge system performance on 25 different devices, screen resolutions and volume resolutions (scalability). Application performance is measured in frames per second (FPS), the standard for benchmarking graphics applications, which means the number of frames that the device records, processes, or displays every second. A refresh rate that generates smooth, continuous transactions for 30 interactive computer graphics applications is 30 fps. At or above this refresh rate, you have the perceived continuity of the information being displayed in the render window. Below that, the continuity of the scene is lost causing frustration to the system user. The frame rate per second is directly proportional to the processing capacity of the hardware used. A machine with high processing power (cpu and gpu) 5 can usually achieve a good average frame rate per second. Hardware Experiment Setup

Para os testes foram selecionadas três perfis distintos de hardware de uso comum. Para facilitar a denominação das máquinas utilizaremos a 10 nomenclatura disponível nas tabelas 1 e 2. As máquinas Core2Quad e PentiumD são desktops, enquanto a TurionX2 e a Core2Duo são notebooks. A TurionX2 funciona em modo tablet PC. Elas possuem uma escala de desempenho que vai da mais potente até a menos pontente, na ordem Core2Quad, Core2Duo, TurionX2 e PentiumD. Uma das limitações do sistema 15 desenvolvido é a incapacidade de funcionar em placas gráficas muito antigas, ou que não suportem shaders programáveis, por este motivo outras tablets PC disponíveis não puderam ser utilizadas.For the tests, three distinct common hardware profiles were selected. For ease of machine naming we will use the 10 nomenclature available in tables 1 and 2. Core2Quad and PentiumD machines are desktops, while TurionX2 and Core2Duo are notebooks. TurionX2 works in tablet PC mode. They have a performance scale ranging from the most powerful to the least powerful, in the order Core2Quad, Core2Duo, TurionX2 and PentiumD. One of the limitations of the system 15 developed is the inability to function on very old graphics cards, or that do not support programmable shaders, so other available PC tablets could not be used.

Desktop Configuração Core2Quad Pentium D Processador Intel Core2Quad Q9550 2,83GHz Intel Pentium D 2,83GHz Memória 4GB ddr 3 1GB ddr Placa Gráfica Nvidia GTS250 512MB ddr3 Nvidia 7100 512MB ddr2 Notebook Configuração Core2Duo TurionX2 Processador Intel Core2Duo T7250 2,OGHz AMD Turion X2 Mobile 2,20 GHz Memória 2GB ddr 2 4GB ddr2 Placa Gráfica Nvidia 8400gs 128 ddr3 ATI Radeon 3200 (Mem. Comp.) Tabela 1 e 2. Configuração das máquinas utilizadas nos experimentos. A máquina TurionX2 na categoria notebook é uma Tablet PC e possui memória de vídeo compartilhada. VolumeDesktop Core2Quad Pentium D Configuration Intel Core2Quad Q9550 2.83GHz Processor Intel Pentium D 2.83GHz Memory 4GB ddr 3 1GB ddr Nvidia GTS250 Graphics Card 512MB ddr3 Nvidia 7100 512MB ddr2 Notebook Core2Duo TurionX2 Configuration Intel Core2Duo T7250 Tur 2X Mobile Processor 2, 2GHz Mobile 2 , 20 GHz Memory 2GB ddr 2 4GB ddr2 Nvidia 8400gs Graphics Card 128 ddr3 ATI Radeon 3200 (Mem. Comp) Table 1 and 2. Configuration of the machines used in the experiments. The TurionX2 machine in the notebook category is a Tablet PC and has shared video memory. Volume

Nos experimentos foi empregado um dataset de TC convencional, compreendendo a parte inferior do tórax, considerada da base dos pulmões até os rins. O volume é intitulado "Volumel", e tem suas propriedades evidenciadas na tabela 3.In the experiments, a conventional CT dataset was used, comprising the lower chest, considered from the base of the lungs to the kidneys. The volume is entitled "Volumel" and has its properties shown in table 3.

Nomenclatura Configuração Volume 1 Resolução 128x128x68 256x256x128 Fatias 44 Distâncias entre fatias 0,36 cm Tabela 3: Especificações do volume utilizado nos esperimentos. Os três valores na coluna resolução são referentes a resolução tridimensional do volume.Nomenclature Configuration Volume 1 Resolution 128x128x68 256x256x128 Slices 44 Slice distances 0.36 cm Table 3: Specifications of the volume used in the hopes. The three values in the resolution column refer to the three-dimensional resolution of the volume.

ío Resoluções de Tela e Pixels Efetivos do Volume em Determinadas Distâncias As resoluções de tela utilizadas são mostradas na tabela 4.í Screen Resolutions and Effective Volume Pixels over Certain Distances The screen resolutions used are shown in table 4.

Os número de pixels pintados na janela de visualização que são gerados por voxels do volume, variam de acordo com a distância entre o paciente real e o display móvel. Quanto menor a distância, maior a quantidade de pixels 15 pintados. Como essa quantidade influencia no desempenho, foram escolhidas algumas distâncias fixas para a realização dos testes. A tabela 5 ilustra o que foi dito.The number of pixels painted in the viewport that are generated by volume voxels vary according to the distance between the actual patient and the mobile display. The shorter the distance, the more painted pixels 15. As this amount influences performance, some fixed distances were chosen for the tests. Table 5 illustrates what has been said.

Resoluções Número de Pixels 1 800x600 480000 2 1280x800 1024000 3 1280x1024 1310720 4 1920x1080 2073600 Tabela 4: Resoluções da janela de visualização do sistema utilizadas durante os experimentos.Resolutions Number of Pixels 1 800x600 480000 2 1280x800 1024000 3 1280x1024 1310720 4 1920x1080 2073600 Table 4: System viewport resolutions used during the experiments.

Distâncias Total de Pixels Pintados Pixels 1.1 23 480000 462600 1.2 1024000 999067 2.1 45 480000 135141 2.2 1024000 298520 3.1 80 480000 50702 3.2 1024000 96266 4.1 115 480000 24603 4.2 1024000 52360 5.1 150 480000 14874 5.2 1024000 31320 Tabela 5: Especificação das distâncias (cm) utilizadas nos experimentos. A distância é calculada entre o marcador associado ao volume e a câmera de captura de vídeo. Nesta tabela também é apresentada em cada distância o número de pixels que o volume ocupa na janela de visualização para as resoluções de 800x600 (nas linhas x.1) e 1280x800 (nas linhas x.2).Distances Total of Painted Pixels Pixels 1.1 23 480000 462600 1.2 1024000 999067 2.1 45 480000 135141 2.2 1024000 298520 3.1 80 480000 50702 3.2 1024000 96266 4.1 115 480000 24603 4.2 1024000 52360 5.1 150 480000 14874 5.2 1024000 31320 Table 5: Specification of distances (cm) used in the experiments. The distance is calculated between the volume marker and the video capture camera. This table also shows at each distance the number of pixels the volume occupies in the viewport for resolutions of 800x600 (in lines x.1) and 1280x800 (in lines x.2).

A Figura 1 mostra visualmente a diminuição dos pixels gerados por voxels do volume conforme a distância aumenta.Figure 1 visually shows the decrease in voxel-generated pixels of volume as distance increases.

Câmera de captura de vídeo ío A câmera empregada para a realização dos testes foi a Playstation EyeVideo Capture Camera The camera used for testing was the Playstation Eye.

(PS3 Eye) desenvolvida pela Sony. Ela tem capacidade de captura de vídeo a uma resolução e a uma taxa de atualização altas quando comparadas a webcams comuns de preço similar. Suas especificações técnicas são descritas na tabela 6.(PS3 Eye) developed by Sony. It has the ability to capture video at a higher resolution and refresh rate compared to standard webcams of similar price. Their technical specifications are described in table 6.

PS3 Eye Resolução 320x240 640x480 FPS 120 (máx) 60 (máx) Conexão USB Tabela 6. Especificações da câmera PS3 Eye.PS3 Eye Resolution 320x240 640x480 FPS 120 (max) 60 (max) USB connection Table 6. PS3 Eye camera specifications.

Protocolo de TesteTest Protocol

Primeiramente foram definidas algumas distâncias entre o volume e a câmera de vídeo, elas nos permitem descobrir se existe uma queda de desempenho conforme o número de pixels, derivados do volume, aumenta na 20 janela de renderização. Também foi decidido que a câmera PS3 Eye seria empregada em todos os testes realizados e que seus parâmetros da aquisição seriam: resolução de 640x480 a 30 fps. Para que fosse possível a análise dos dados para os testes desenvolvidos, foi pensada em uma estrutura para armazenamento das informações necessárias (logs). O sistema criado foi modificado para suportar essa funcionalidade.We first set some distances between the volume and the camcorder, they allow us to find out if there is a performance drop as the number of pixels derived from the volume increases in the render window. It was also decided that the PS3 Eye camera would be employed in all tests performed and that its acquisition parameters would be: 640x480 resolution at 30 fps. In order to be able to analyze the data for the developed tests, it was thought of a structure for storing the necessary information (logs). The system created has been modified to support this functionality.

Em um fragmento de Iog gerado após a aplicação de um dos testes, a primeira linha do arquivo gerado serve para identificar que esse é um arquivo 5 de log. Após é escrito automaticamente um cabeçalho padrão, as informações colocadas referem-se a máquina utilizada para o teste, configurações de câmera e do sistema. Ao finalizar a fase de escrita do cabeçalho, começa a captura das informações que serão utilizadas para comparação. As informações coletadas durante essa fase são:In a Yog fragment generated after applying one of the tests, the first line of the generated file serves to identify that this is a log file. After a default header is automatically written, the information entered refers to the machine used for the test, camera and system settings. At the end of the writing phase of the header, begins to capture the information that will be used for comparison. The information collected during this phase is:

· FPS: Marca os quadros por segundo durante a execução do sistema.· FPS: Marks frames per second during system execution.

• MARCA ATIVA: Informa se o volume está sendo renderizado (marca visível) durante a captura das informações.• ACTIVE BRAND: Informs if the volume is being rendered (visible mark) during information capture.

• FULLSCREEN: Informa se a janela de visualização está em tela cheia.• FULLSCREEN: Informs if the preview window is full screen.

• PLANO DE CORTE: Informa se um plano de corte está ativo.• CUTTING PLANE: Informs if a cutting plane is active.

· TROCA DAS JANELAS: Informa a latência em milisegundos causada pela última troca das janelas de visualização.· CHANGING WINDOWS: Reports latency in milliseconds caused by the last change of viewports.

• CRIOU: Informa se naquele instante foi trocada a janela de visualização. Resultados Obtidos• CREATED: Informs if the viewport was changed at that moment. Results Obtained

Aqui são expostos e discutidos os dados obtidos na realização dosHere are presented and discussed the data obtained in the realization of

experimentos.experiments.

Desempenho em relação aos pixels efetivos do volumePerformance over effective volume pixels

Neste experimento é analizado o desempenho do sistema de acordo com o número de pixels pintados pelo volume na janela de visualização. O 25 teste tem por objetivo descobrir se a quantidade de pixels gerados pelo volume interfere no rendimento do sistema. Para a realização do teste foram utilizadas as resoluções 1 (800x600) e 2 (1280x800) da tabela 4, a máquina Core2Quad e o volume especificado na tabela 3 com a maior resolução (256x256x128). O teste consiste em aferir o FPS da aplicação em diferentes distâncias. As 30 especificações de distâncias e suas relações com o número de pixels pintados na janela de visualização podem ser vistas na tabela 5, Figura 1 e no gráfico da i 28/30In this experiment the system performance is analyzed according to the number of pixels painted by the volume in the preview window. The purpose of the test is to find out if the amount of pixels generated by the volume interferes with system performance. For the test, the resolutions 1 (800x600) and 2 (1280x800) of table 4, the Core2Quad machine and the volume specified in table 3 with the highest resolution (256x256x128) were used. The test consists of measuring the application SPF at different distances. The 30 distance specifications and their relationship to the number of pixels painted in the viewport can be seen in table 5, Figure 1, and the graph.

Figura 2. Quanto mais próximo o volume está da câmera de vídeo, maior o número de pixels referentes ao volume são pintados. O gráfico da Figura 3 ilustra os resultados obtidos após a tabulação dos dados.Figure 2. The closer the volume is to the camcorder, the more pixels of the volume are painted. The graph in Figure 3 illustrates the results obtained after data tabulation.

O shader utilizado no sistema é implementado de forma que os voxels 5 pertencentes ao volume não sejam o fator de impacto no desempenho. As informações contidas no gráfico da Figura 3 demonstram que a área de pixels pertencentes ao volume durante a renderização é o fator que influencia efetivamente na performance da aplicação. Nota-se que em resolução menor a quantidade de pixels pintados referentes ao volume tem proporção semelhante ío à resolução maior (quantidade semelhante de pixels que o volume ocupa em relação a janela de visualização).The shader used in the system is implemented so that volume voxels 5 are not the impact factor on performance. The information contained in the graph in Figure 3 shows that the area of pixels belonging to the volume during rendering is the factor that effectively influences application performance. Note that at lower resolution the amount of painted pixels relative to the volume has a similar proportion to the higher resolution (similar amount of pixels that the volume occupies in relation to the viewport).

Desempenho em diferentes resoluções do volumePerformance at different volume resolutions

O experimento visa descobrir se há queda de performance ao utilizar o mesmo volume em resoluções diferentes. O volume utilizado foi o especificado na tabela 3. A resolução da tela foi mantida fixa (1280x800) em todas as aferições feitas (resolução 2 da tabela 4) e as máquinas utilizadas foram Core2Quad e TurionX2. Nas Figura 4 e 5 são mostrados os gráficos.The experiment aims to find out if performance drops when using the same volume at different resolutions. The volume used was as specified in table 3. The screen resolution was kept fixed (1280x800) in all measurements made (resolution 2 of table 4) and the machines used were Core2Quad and TurionX2. Figures 4 and 5 show the graphs.

Percebe-se que a sobrecarga do sistema pelo aumento do número de voxels para a criação do volume não influência de maneira significativa o 20 desempenho do sistema. Tanto utilizando um volume com um número maior de voxels quanto utilizando o de menos quantidade. Os valores nos gráficos em cada distância não se invertem em nenhuma situação, isso significa que a resolução mais alta do volume não tende a ter uma performance superior a resolução mais baixa, no máximo ela é igualada. A porcentagem significa a 25 diferença de performance entre as resoluções em cada distância.It is noticeable that system overhead by increasing the number of voxels for volume creation does not significantly influence system performance. Both using a volume with a larger number of voxels and using the one with less quantity. The values in the graphs at each distance are not inverted in any situation, this means that the higher resolution of the volume does not tend to outperform the lower resolution, but at most it is equalized. Percentage means the difference in performance between resolutions at each distance.

Desempenho medido em tela cheiaPerformance measured in full screen

O teste tela cheia consiste em aferir o desempenho do sistema desenvolvido com uma resolução fixa para a janela de renderização (1280x800), e com uma variação de resolução da tela (utilizando diferentes monitores). Quando o sistema é setado para tela cheia é utilizado uma quantidade maior de pixels para pintar a mesma parte da imagem, , assim À 29/30The full screen test consists of gauging the performance of the developed system with a fixed resolution for the render window (1280x800), and with a variation of screen resolution (using different monitors). When the system is set to full screen a larger amount of pixels are used to paint the same part of the image, thus À 29/30

encaixando a imagem renderizada no tamanho total da tela. Os dois monitores utilizados para tela cheia possuem as resoluções 3 (1280x1024) e 4 (1920x1080) da tabela 4. Se pensarmos que mais pixels são utilizados para representar uma mesma parte de uma imagem para se adequar ao tamanho 5 total da tela, podemos precocemente concluir que não haverá diferença de desempenho, considerando que a resolução da janela de visualização continuará fixa em 1280x800. Para o experimento foi utlizado, além dos parametros citados acima, a máquina Core2Quad e o volume na maior resolução. Na Figura 6 é apresentado o gráfico com os resultados obtidos, ío Percebe-se que, ao contrário do que se pensava, conforme a resoluçãofitting the rendered image to the full size of the screen. Both monitors used for full screen have the resolutions 3 (1280x1024) and 4 (1920x1080) of table 4. If we think that more pixels are used to represent the same part of an image to fit the total screen size 5, we can sooner conclude that there will be no performance difference as the viewport resolution will remain fixed at 1280x800. For the experiment was used, in addition to the parameters mentioned above, the Core2Quad machine and the volume in the highest resolution. Figure 6 shows the graph with the obtained results. It is noticed that, contrary to what was thought, according to the resolution

em tela cheia aumenta o FPS da aplicação diminui. Isso ocorre porque mesmo mantendo uma resolução fixa na aplicação, ao rodar em tela cheia um maior número de pixels precisam ser pintados na tela (83.585 pixels a mais em 1280x1024 e 305.983 pixels a mais em 1920x1080), e por esse motivo é causada a perda de performance.Fullscreen increases the application's FPS decreases. This is because even maintaining a fixed resolution in the application, when running at full screen a larger number of pixels need to be painted on the screen (83,585 more pixels at 1280x1024 and 305,983 more pixels at 1920x1080), which is why the loss is caused. of performance.

Desempenho e latência em diferentes configurações de hardwarePerformance and latency in different hardware configurations

Aqui foi medido o desempenho da aplicação em diferentes configurações de hardware (tabela 1 e 2). Foi mantido uma resolução fixa de tela (1280x800), utilizado o volume na maior resolução com distância de 45cm 20 em relação a câmera. A configuração deste teste é considerada uma situação extrema (a que mais estressa o hardware), portanto o desempenho no pior caso será avaliado.Here the application performance was measured in different hardware configurations (tables 1 and 2). A fixed screen resolution (1280x800) was maintained, using the volume at the highest resolution with a distance of 45cm from the camera. The configuration of this test is considered an extreme situation (the one that stresses the most hardware), so worst-case performance will be evaluated.

O primeiro gráfico (Figura 7) exibe o desempenho de cada hardware durante a execução dos testes. Percebe-se que a única máquina que consegue atingir um FPS adequado é a Core2Quad, que é a que possui a melhor configuração de hardware.The first graph (Figure 7) shows the performance of each hardware while running the tests. Note that the only machine that can achieve proper FPS is Core2Quad, which has the best hardware configuration.

O segundo gráfico (Figura 8) exibe a velocidade para geração do volume em milisegundos, a de pior desempenho é a que tem pior hardware(PentiumD). As outras 3 tem uma diferença de 5ms entre si, do pior para o melhor hardware. O que é considerado bom se comparado com a diferença de FPS atindido no outro gráfico. A latência é medida em milisegundos e significa o 30/30The second graph (Figure 8) shows the speed for volume generation in milliseconds, the worst performing is the worst hardware (PentiumD). The other 3 have a 5ms difference from each other, from worst to best hardware. Which is considered good compared to the difference in SPF attained in the other graph. Latency is measured in milliseconds and means 30/30

ii

tempo para a geração do volume quando a janela de visualização do volume é alterada.time for volume generation when the volume preview window changes.

Desempenho em uso normal em uma tablet PCPerformance in normal use on a tablet PC

O teste tem por objetivo aferir a performance da aplicação em uma 5 condição normal de uso, caso médio, mantendo uma configuração média de resolução (800x600) com o volume na qualidade mais baixa e com o plano de corte ativo. Os parâmetros utilizados mantém uma boa qualidade na renderização, a diferença visual é pouco perceptível se comparada com os parâmetros mais altos utilizados em outros testes. Na Figura 9 podem ser ío vistos os resultados obtidos.The purpose of the test is to measure application performance under a normal use condition, medium case, maintaining an average resolution setting (800x600) with the lowest quality volume and active cutting plane. The parameters used maintain good rendering quality, the visual difference is barely noticeable compared to the higher parameters used in other tests. Figure 9 shows the results obtained.

O plano de corte ativo significa que ao aproximar o marcador da câmera, o volume associado é cortado permitindo que sua estrutura interna seja visualizada. Os voxels atrás do plano de secção são ignorados durante o processo de renderização e por esse motivo os FPS aumenta.The active clipping plane means that as you bring the marker closer to the camera, the associated volume is cut allowing its internal structure to be viewed. The voxels behind the section plane are ignored during the rendering process and therefore the FPS increases.

Acredita-se que, com o avanço da tecnologia de hardware móvel, novasIt is believed that with the advancement of mobile hardware technology, new

gerações de tablet PCs, pads digitais e smartphones permitirão performances ainda melhores, o que aumentará consideravelmente o interesse e a aplicabilidade prática da invenção aqui apresentada.generations of tablet PCs, digital pads, and smartphones will enable even better performance, which will greatly enhance the interest and practical applicability of the invention presented herein.

Os versados na arte valorizarão os conhecimentos aqui apresentados e poderão reproduzir a invenção nas modalidades apresentadas e em outros variantes, abrangidos no escopo das reivindicações anexas.Those skilled in the art will appreciate the knowledge presented herein and may reproduce the invention in the embodiments presented and in other embodiments within the scope of the appended claims.

Claims (10)

1. Método e Sistema de Visualização de Volumes Espaço-consciente Colaborativo Sistema de visualização de volumes espaço-consciente colaborativo caracterizado por compreender os módulos de: a) visualização de volumes de órgãos internos; b) realidade aumentada; e c) comunicação por rede.1. Collaborative Space-Conscious Volume Visualization Method and System Collaborative space-conscious volume visualization system characterized by comprising the modules of: a) visualization of internal organ volumes; b) augmented reality; and c) network communication. 2. Sistema, de acordo com a reivindicação 1, caracterizado pelo visualisador de volumes utilizar recurso tela de toque.System according to Claim 1, characterized in that the volume display uses a touch screen feature. 3. Sistema, de acordo com a reivindicação 1 ou 2, caracterizado pelos volumes serem gerados a partir de imagens médicas.System according to claim 1 or 2, characterized in that the volumes are generated from medical images. 4. Sistema, de acordo com qualquer reivindicação de 1 a 3, caracterizado pelos datasets de volume utilizados no módulo de visualização de volumes serem provenientes de MRI ou TC.System according to any one of claims 1 to 3, characterized in that the volume datasets used in the volume display module are from MRI or TC. 5. Sistema, de acordo com qualquer reivindicação de 1 a 4, caracterizado pelo módulo de visualização de volumes ser desenvolvido com base no algoritmo High-Quality Pre-Integrated Volume Rendering.System according to any one of claims 1 to 4, characterized in that the volume display module is developed based on the High-Quality Pre-Integrated Volume Rendering algorithm. 6. Sistema, de acordo com qualquer reivindicação de 1 a 5, caracterizado pelo módulo de realidade aumentada realizar a associação do volume gerado a um marcador fiducial rastreado por uma câmera.System according to any one of claims 1 to 5, characterized in that the augmented reality module associates the generated volume with a fiducial marker tracked by a camera. 7. Sistema, de acordo com qualquer reivindicação de 1 a 6, caracterizado pelo módulo de realidade aumentada renderizar imagens obtidas pelo módulo de volumes sobreposta a imagens obtidas por câmera, de acordo com a posição e o ângulo do observador em relação a um marcador ou a características do ambiente rastreado (sem marcador).System according to any one of claims 1 to 6, characterized in that the augmented reality module renders images obtained by the volume module superimposed on camera images according to the position and angle of the observer with respect to a marker or the characteristics of the tracked environment (unmarked). 8. Sistema, de acordo com qualquer reivindicação de 1 a 7, caracterizado pela comunicação por rede permitir a troca de informações entre os observadores no ambiente virtual, permitindo uma colaboração entre os participantes.System according to any one of claims 1 to 7, characterized in that the network communication allows the exchange of information between observers in the virtual environment, allowing a collaboration between the participants. 9. Sistema, de acordo com qualquer reivindicação de 1 a 8, caracterizado pela comunicação por rede incluir a capacidade de troca de informações sobre pontos de interesse e/ou parâmetros de configuração das janelas (domínios) de densidade para visualização.System according to any one of claims 1 to 8, characterized in that the network communication includes the ability to exchange information about points of interest and / or density window (domain) configuration parameters for viewing. 10. Método de visualização de volumes espaço-consciente colaborativo caracterizado por compreender as etapas de: a) obter um display móvel compreendendo visualizador de volumes de órgão internos, realidade aumentada e comunicação por rede; b) sobrepor o display móvel de a) ao corpo de um paciente.10. Collaborative space-conscious volume visualization method comprising the steps of: a) obtaining a mobile display comprising internal organ volume viewer, augmented reality and network communication; b) superimpose the movable display of a) on a patient's body.
BRPI1101511-0A 2011-04-18 2011-04-18 METHOD AND COLLABORATIVE CONSCIOUS SPACE VOLUME DISPLAY SYSTEM BRPI1101511A2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
BRPI1101511-0A BRPI1101511A2 (en) 2011-04-18 2011-04-18 METHOD AND COLLABORATIVE CONSCIOUS SPACE VOLUME DISPLAY SYSTEM

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
BRPI1101511-0A BRPI1101511A2 (en) 2011-04-18 2011-04-18 METHOD AND COLLABORATIVE CONSCIOUS SPACE VOLUME DISPLAY SYSTEM

Publications (1)

Publication Number Publication Date
BRPI1101511A2 true BRPI1101511A2 (en) 2014-06-03

Family

ID=50842411

Family Applications (1)

Application Number Title Priority Date Filing Date
BRPI1101511-0A BRPI1101511A2 (en) 2011-04-18 2011-04-18 METHOD AND COLLABORATIVE CONSCIOUS SPACE VOLUME DISPLAY SYSTEM

Country Status (1)

Country Link
BR (1) BRPI1101511A2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021119481A1 (en) * 2019-12-11 2021-06-17 MSG Sports and Entertainment, LLC Position-based media pipeline for volumetric displays

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021119481A1 (en) * 2019-12-11 2021-06-17 MSG Sports and Entertainment, LLC Position-based media pipeline for volumetric displays
US11080923B2 (en) 2019-12-11 2021-08-03 Msg Entertainment Group, Llc Position-based media pipeline for volumetric displays
US11790599B2 (en) 2019-12-11 2023-10-17 Msg Entertainment Group, Llc Position-based media pipeline for volumetric displays

Similar Documents

Publication Publication Date Title
Kraus et al. Immersive analytics with abstract 3D visualizations: A survey
Viola et al. Importance-driven focus of attention
US11210865B2 (en) Visually interacting with three dimensional data in augmented or virtual reality
CN114897754B (en) Generating new frames using rendered content and non-rendered content from previous perspectives
Macedo et al. Occlusion handling in augmented reality: past, present and future
Kouřil et al. Labels on levels: Labeling of multi-scale multi-instance and crowded 3D biological environments
Pires et al. On the use of virtual reality for medical imaging visualization
CN114711962B (en) Augmented reality operation planning navigation system and method
US20140176685A1 (en) Image processing method and image processing apparatus
EP3493041B1 (en) Exploration of medical visualization parameters in virtual spaces
Zhang Web-based medical data visualization and information sharing towards application in distributed diagnosis
Birkeland et al. Illustrative membrane clipping
Cohen et al. Focus and context for volume visualization
Trier et al. The visible ear surgery simulator
Sundstedt et al. A systematic review of visualization techniques and analysis tools for eye-tracking in 3D environments
Zhang et al. A directx-based dicom viewer for multi-user surgical planning in augmented reality
Dai et al. Volume‐Rendering‐Based Interactive 3D Measurement for Quantitative Analysis of 3D Medical Images
BRPI1101511A2 (en) METHOD AND COLLABORATIVE CONSCIOUS SPACE VOLUME DISPLAY SYSTEM
Glueck et al. Multiscale 3D reference visualization
Elden Implementation and initial assessment of VR for scientific visualisation: extending unreal engine 4 to visualise scientific data on the HTC Vive
Zhang Medical Data and Mathematically Modeled Implicit Surface Real-Rime Visualization in Web Browsers
Samothrakis et al. WWW creates new interactive 3D graphics and colIaborative environments for medical research and education
Shen et al. Medvis: A real-time immersive visualization environment for the exploration of medical volumetric data
Grandi et al. Spatially aware mobile interface for 3d visualization and interactive surgery planning
Hachaj et al. Augmented reality interface for visualization of volumetric medical data

Legal Events

Date Code Title Description
B03A Publication of a patent application or of a certificate of addition of invention [chapter 3.1 patent gazette]
B06F Objections, documents and/or translations needed after an examination request according [chapter 6.6 patent gazette]
B08F Application dismissed because of non-payment of annual fees [chapter 8.6 patent gazette]

Free format text: REFERENTE A 9A ANUIDADE.

B08K Patent lapsed as no evidence of payment of the annual fee has been furnished to inpi [chapter 8.11 patent gazette]

Free format text: REFERENTE AO DESPACHO 8.6 PUBLICADO NA RPI 2562 DE 11/02/2020.

B15K Others concerning applications: alteration of classification

Free format text: RECLASSIFICACAO AUTOMATICA - A CLASSIFICACAO ANTERIOR ERA: G06T 15/08, G06T 17/10, G06F 19/00, A61B 6/03