BR102015030766A2 - associated methods in virtual reality and augmented reality for building low cost simulators, experimental activities or training - Google Patents

associated methods in virtual reality and augmented reality for building low cost simulators, experimental activities or training Download PDF

Info

Publication number
BR102015030766A2
BR102015030766A2 BR102015030766A BR102015030766A BR102015030766A2 BR 102015030766 A2 BR102015030766 A2 BR 102015030766A2 BR 102015030766 A BR102015030766 A BR 102015030766A BR 102015030766 A BR102015030766 A BR 102015030766A BR 102015030766 A2 BR102015030766 A2 BR 102015030766A2
Authority
BR
Brazil
Prior art keywords
virtual
environment
marker
render
scene
Prior art date
Application number
BR102015030766A
Other languages
Portuguese (pt)
Inventor
Lindália Sofia Martins Junqueira Reis
Thiago Sousa Guimarães Peixoto
Original Assignee
Sociedade De Ensino Superior Estácio De Sá Ltda
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sociedade De Ensino Superior Estácio De Sá Ltda filed Critical Sociedade De Ensino Superior Estácio De Sá Ltda
Priority to BR102015030766A priority Critical patent/BR102015030766A2/en
Publication of BR102015030766A2 publication Critical patent/BR102015030766A2/en

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B19/00Teaching not covered by other main groups of this subclass
    • G09B19/24Use of tools

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)
  • Processing Or Creating Images (AREA)

Abstract

um ambiente real com objetos para interação (110) é digitalizado através de um método de criação de cenários virtuais (300), gerando um conteúdo, composto de cenário virtual e objetos 3d (130). esse conteúdo é exibido através de um aparato de exibição (200), por exemplo oculus ou google cardboard, para um usuário (150) que tem seus movimentos de cabeça capturados e convertidos em navegação visual através de um método (500). além disso, de acordo com a amplitude e velocidade deste movimento, painéis retráteis de exibição (700) podem ser exibidos com a finalidade de fornecer orientações e possibilitar, através de um método de recepção de comandos e seleções (800), a execução de atividades por gatilhos pré-programados dentro do ambiente (900). além disso, esse invento também é caracterizado por um método de interação com objetos (600) que une a realidade virtual com a realidade aumentada para permitir a manipulação de objetos 3d dentro do ambiente de realidade virtual, sem a necessidade de aquisição ou de conexão com outros dispositivos de comando, utilizando para isso marcadores (170) oriundos de uma plataforma eletrônica de conteúdos digitais, garantindo que a troca do objeto manipulado no ambiente virtual, seja feita com apenas um toque.A real environment with objects for interaction (110) is digitized through a virtual scenario creation method (300), generating a content composed of virtual scenario and 3d objects (130). this content is displayed through a display apparatus (200), for example oculus or google cardboard, to a user (150) who has his head movements captured and converted to visual navigation using a method (500). In addition, according to the range and speed of this movement, retractable display panels (700) may be displayed for the purpose of providing guidance and enabling, through a method of receiving commands and selections (800), to perform activities. by preprogrammed triggers within the environment (900). furthermore, this invention is also characterized by an object interaction method (600) that unites virtual reality with augmented reality to allow manipulation of 3d objects within the virtual reality environment without the need for acquisition or connection to other control devices by using markers (170) from an electronic digital content platform, ensuring that the manipulated object can be exchanged in the virtual environment with just one touch.

Description

"MÉTODOS ASSOCIADOS EM REALIDADE VIRTUAL E REALIDADE AUMENTADA PARA CONSTRUÇÃO DE SIMULADORES DE BAIXO CUSTO, ATIVIDADES EXPERIMENTAIS OU TREINAMENTO" Campo da Invenção [001] A presente invenção, intitulada NEXXA, trata de um conjunto de métodos que, agregados, possibilita a construção e uso de simuladores de baixo custo, portáteis, nos campos da realidade virtual, da realidade aumentada e da distribuição inteligente de conteúdo, que permite além da navegação em um ambiente virtual, a exibição e manipulação de objetos em três dimensões."METHODS ASSOCIATED WITH VIRTUAL REALITY AND INCREASED REALITY FOR BUILDING LOW-COST SIMULATORS, EXPERIMENTAL TRAINING OR TRAINING" low-cost, portable simulators in the fields of virtual reality, augmented reality, and intelligent content distribution, which enables navigation in a virtual environment to display and manipulate objects in three dimensions.

[002] Os métodos empregados no NEXXA permitem que a manipulação de objetos na cena de realidade virtual seja feita dispensando luvas ou a conexão de outros dispositivos e visa a realização, por usuários leigos, de atividades experimentais ou de treinamento, independente de tempo e lugar, destinados principalmente à educação. Fundamentos da Invenção [003] Realidade Aumentada se refere ao processo de capturar os dados de video de um ambiente e enriquecer (ou "aumentar") o video com elementos gráficos gerados por um meio computacional, tipicamente fazendo com que personagens ou objetos improváveis àquele ambiente surjam em meio à cena apresentada em video, dando ao usuário a impressão que aquele objeto existe no mundo real ou nas cercanias do mundo fisico.[002] The methods employed in NEXXA allow object manipulation in the virtual reality scene to be done without gloves or connecting other devices, and are intended for lay users to perform experimental or training activities regardless of time and place. , intended primarily for education. Fundamentals of the Invention Augmented Reality refers to the process of capturing video data from an environment and enriching (or "augmenting") the video with computer generated graphics, typically making characters or objects unlikely to that environment. appear in the scene presented on video, giving the user the impression that that object exists in the real world or around the physical world.

[004] Para que a realidade aumentada seja agradável, a experiência do usuário precisa ser transparente, de forma que o posicionamento do objeto na tela surja corretamente posicionado em relação ao mundo real. Além disso, os gráficos da realidade aumentada devem se ajustar em tempo real em resposta às mudanças do usuário no mundo real ou movimentos da câmera integrada ao dispositivo de visualização. Esse processo requer acurácia na captura e nos cálculos de transformação visual do marcador associado ao objeto.For augmented reality to be pleasurable, the user experience needs to be transparent so that the placement of the object on the screen appears correctly positioned relative to the real world. In addition, augmented reality graphics must adjust in real time in response to user changes in the real world or camera movements integrated into the viewing device. This process requires accuracy in capturing and calculating the visual transformation of the marker associated with the object.

[005] Realidade Virtual se inicia com relação à estereoscopia para imagens. Os primeiros experimentos datam da primeira metade do século XIX, quando Charles Wheatstone construiu o primeiro equipamento deste tipo, que deu origem no século XX ao estereoscópio Holmes que foi popular na segunda metade do mesmo século e seria o equivalente para a época do que hoje é conhecido como realidade virtual. Na década de 1940, o estereoscópio View-Master foi responsável por disseminar o embrião da tecnologia tridimensional pela população. A primeira tela estereoscópica montada sobre a cabeça (HMD - Head Mounted Display) foi construida em 1965, mas apenas na década de 1980 um dispositivo de realidade virtual portátil surgiu. O primeiro dispositivo de sucesso, US 5,253,832, construído pelo laboratório Fakespace em 1991, chamado BOOM Display é um exemplo de dispositivo de realidade virtual acoplado à cabeça.Virtual Reality begins in relation to stereoscopy for images. The earliest experiments date back to the first half of the nineteenth century, when Charles Wheatstone built the first equipment of its kind, which gave rise to the twentieth-century Holmes stereoscope that was popular in the second half of the same century and would be the equivalent of what it is today. known as virtual reality. In the 1940s, the View-Master stereoscope was responsible for spreading the embryo of three-dimensional technology to the population. The first Stereo Head Mounted Display (HMD) was built in 1965, but only in the 1980s did a portable virtual reality device emerge. The first successful device, US 5,253,832, built by Fakespace Lab in 1991, called BOOM Display is an example of a head-mounted virtual reality device.

[006] No uso de dispositivos acoplados à smartphones com o objetivo de oferecer experiência de realidade virtual, o primeiro caso foi do my3D fabricado pela Hasbro, com um acessório plástico com duas lentes biconvexas e um molde para encaixe no iPhone 4 . O my3D tinha como solução de entrada de comandos a presença de dois buracos na parte de baixo do gabinete de acoplamento, que tornavam possivel que a ponta dos dedos do usuário executasse comandos de toque no canto inferior da tela.[006] When using smartphone-attached devices to provide virtual reality experience, the first case was Hasbro's my3D, with a plastic accessory with two biconvex lenses and an iPhone 4 snap-in mold. The my3D command input solution was the presence of two holes on the underside of the docking cabinet, which made it possible for the user's fingertips to perform touch commands at the bottom of the screen.

[007] A tecnologia de Realidade Virtual integrada com smartphones abre novas possibilidades para video, comércio eletrônico e visualização de dados, principalmente para a educação e treinamento, permitindo ao aluno uma aprendizagem imersiva. Para o correto aproveitamento desta tecnologia, os ambientes e interações precisam ser realizados de uma forma que os usuários se sintam inteiramente transportados para o ambiente virtual.[007] Virtual Reality technology integrated with smartphones opens up new possibilities for video, e-commerce and data visualization, especially for education and training, allowing the student immersive learning. For the right use of this technology, environments and interactions need to be realized in a way that users feel fully transported to the virtual environment.

[008] No entanto, com as tecnologias disponíveis no estado da técnica, o usuário de realidade virtual tem limitações para experimentar a interação com objetos nos ambientes imersivos ou só consegue fazê-lo mediante o uso de acessórios de alto custo. A manipulação de diversos objetos presentes dentro do cenário virtual também não possui no estado da técnica uma solução simples do ponto de vista da experiência do usuário.However, with state-of-the-art technologies available, the virtual reality user has limitations to experience interaction with objects in immersive environments or can only do so through the use of expensive accessories. The manipulation of various objects present within the virtual scenario also does not have in the state of the art a simple solution from the point of view of the user experience.

[009] Outra limitação encontrada nas soluções do estado da técnica consiste na preparação dos ambientes, que são relativamente estáticos, não se alterando mediante a realização de atividades pelo usuário.Another limitation found in state of the art solutions is the preparation of environments, which are relatively static and do not change by performing activities by the user.

[0010] Além disso, a execução de comandos dentro do ambiente virtual consiste em outro dificultador para a difusão da tecnologia entre público leigo. As soluções disponíveis no estado da técnica demandam a interligação de diversos equipamentos para atuarem como acionadores de comando dentro do cenário virtual e geralmente esse arranjo é complexo de preparar e configurar.In addition, executing commands within the virtual environment is another hindrance to the spread of technology among the lay public. State-of-the-art solutions require the interconnection of various equipment to act as command triggers within the virtual scenario, and this arrangement is often complex to prepare and configure.

[0011] Em termos da logística de entrega digital do conteúdo interativo, existe no estado da técnica a carência de uma plataforma de distribuição que permita a um usuário com interesse específico usufruir de conteúdos de realidade virtual interativa.In terms of the digital logistics of interactive content delivery, there is a lack in the art of a distribution platform that allows a user with a specific interest to enjoy interactive virtual reality content.

[0012] Para ilustrar essas dificuldades, são enumerados a seguir alguns documentos das técnicas anteriores e suas desvantagens.To illustrate these difficulties, some of the prior art documents and their disadvantages are listed below.

[0013] O pedido de patente publicado sob o número US2010/0277575, intitulado "METHOD AND APPARATUS FOR PROVIDING A 3D IMAGE VIA A MEDIA DEVICE" descreve uma estrutura composta de prismas, lentes e gabinete provido de encaixes, com o objetivo de dotar a capacidade de exibição de imagens em três dimensões para dispositivos de midia portátil como iPod, smartphones e palmtops. O efeito tridimensional é obtido pela exibição de duas imagens bidimensionais na tela do dispositivo. As imagens que são estáticas ou continuas, em forma de video, foram previamente capturadas por duas câmeras independentes afastadas entre si por uma distância próxima a do olho humano. Estas imagens, exibidas empilhadas na tela do dispositivo de mão, passam por um conjunto de prismas responsáveis pelo alinhamento vertical e pelo ajuste anamórfico. Em seguida atravessam um par de lentes para ajuste focal, até que por fim chegam ao olho do utilizador. O conjunto composto por lentes, prismas e smartphone é apresentado com um gabinete que pode ser fabricado em plástico, ou materiais descartáveis.[0013] Patent application published under US2010 / 0277575 entitled "METHOD AND APPARATUS FOR PROVIDING A 3D IMAGE VIA MEDIA DEVICE" describes a structure composed of prisms, lenses and lockable enclosure for the purpose of providing the Three-dimensional image display capability for portable media devices such as iPods, smartphones and palmtops. The three-dimensional effect is achieved by displaying two two-dimensional images on the device screen. Images that are static or continuous, in video form, were previously captured by two independent cameras spaced close to the human eye. These images, displayed stacked on the handheld screen, pass through a set of prisms responsible for vertical alignment and anamorphic adjustment. They then pass through a pair of focal adjustment lenses until they finally reach the eye of the wearer. The lens, prism and smartphone set comes with a case that can be made of plastic or disposable materials.

[0014] O aparato e métodos descritos no documento apresentado acima, não são capazes de resolver o problema do usuário que precisa ser treinado ou capacitado em um ambiente especifico e interativo. Uma primeira razão é o fato de não apresentar funcionalidades de navegação no ambiente. O utilizador não consegue escolher o ângulo de visualização do ambiente 3D, pois o pedido não descreve a utilização de giroscópios ou outra alternativa para identificar a posição da cabeça do usuário, tampouco prevê a utilização de um conteúdo que proporcione uma exibição interativa a partir de mudanças dirigidas pelo usuário. Outros inconvenientes incluem, mas não estão limitados, ao fato de ser um conjunto de médio custo que emprega um conjunto óptico de média complexidade, envolvendo o uso de múltiplos prismas para alteração do alinhamento entre horizontal e vertical, o que também resulta em um maior volume do conjunto final.[0014] The apparatus and methods described in the document presented above are not able to solve the user problem that needs to be trained or qualified in a specific and interactive environment. A first reason is that it does not have navigation features in the environment. The user cannot choose the viewing angle of the 3D environment as the application does not describe the use of gyros or another alternative to identify the position of the user's head, nor does it envisage the use of content that provides interactive viewing from changes. directed by the user. Other drawbacks include, but are not limited to, the fact that it is a mid-cost array that employs a medium complexity optical array, involving the use of multiple prisms for changing horizontal to vertical alignment, which also results in higher volume. of the final set.

[0015] O pedido de patente publicado sob o número US20140267637A1, intitulado "HYBRID STEREOSCOPIC VIEWING DEVICE" descreve um dispositivo de hardware cujo intento é a montagem sobreposta a um tablet, com uma plataforma de software associada. Neste conceito inventivo a tela do tablet é dividida em porção superior e inferior. A porção superior, por sua vez, é dividida horizontalmente, de forma a exibir lado-a-lado duas imagens que irão compor o efeito tridimensional. A porção inferior da tela fica destinada ao posicionamento de botões para controle do ambiente virtual exibido na porção superior. O hardware fica montado por sobre a parte superior da tela e consiste de um anteparo plástico que isola as duas imagens exibidas de forma que cada uma seja direcionada para uma das lentes focais e em seguida para cada um dos olhos do usuário, transmitindo o efeito tridimensional.[0015] Patent application published under US20140267637A1 entitled "HYBRID STEREOSCOPIC VIEWING DEVICE" describes a hardware device intended to be superimposed on a tablet with an associated software platform. In this inventive concept the tablet screen is divided into upper and lower portion. The upper portion, in turn, is divided horizontally, so as to display side by side two images that will compose the three-dimensional effect. The lower portion of the screen is for the placement of buttons to control the virtual environment displayed on the upper portion. The hardware is mounted over the top of the screen and consists of a plastic screen that isolates the two displayed images so that each one is directed to one of the focal lenses and then to each of the user's eyes, transmitting the three-dimensional effect. .

[0016] Este pedido já dispõe de um método para controle do ambiente, incluindo a reorientação das câmeras conforme o movimento da cabeça, e interação com os objetos. No entanto, não resolve o problema exposto, pois: - Não proporciona uma rica manipulação do objeto em tempo real já que os controles virtuais axiais atuam em apenas dois eixos, e já que eles se posicionam na parte inferior da tela, se faz necessária uma troca constante da atenção entre o ambiente imersivo e a operação dos controles. - Limita severamente o número de pixels disponíveis para a geração das imagens que compõem o cenário virtual. Considerando o uso com um iPad mini, um tablet de renomada qualidade, menos da metade da área da tela ficará dedicada, o que significa ter disponivel para a geração da imagem uma resolução de meros 480x384px, quando em um smartphone seria de 1920xl080px. Isso acontecerá com todos os tablets, pois possuem densidade de pixels baixa em relação aos smartphones. O resultado será uma experiência precária para o usuário que disporá de menos de 10% da qualidade apresentada por um smartphone. - Por ser um hardware voltado exclusivamente ao uso com tablets, perfaz um custo elevado, exigindo que o usuário ou aluno já disponha deste equipamento, o que não é uma solução possível em um ambiente de escala.[0016] This application already has a method for controlling the environment, including reorienting the cameras according to head movement, and interacting with objects. However, it does not solve the problem because: - It does not provide rich manipulation of the object in real time as the axial virtual controls act on only two axes, and since they are positioned at the bottom of the screen, a constant exchange of attention between the immersive environment and the operation of the controls. - Severely limits the number of pixels available for the generation of images that make up the virtual scene. Considering the use of an iPad mini, a tablet of renowned quality, less than half of the screen area will be dedicated, which means that a resolution of a mere 480x384px is available for image generation, while on a smartphone it would be 1920xl080px. This will happen to all tablets as they have low pixel density compared to smartphones. The result will be a poor user experience with less than 10% of the quality of a smartphone. - Being a hardware dedicated exclusively to the use with tablets, it has a high cost, requiring the user or student already have this equipment, which is not a possible solution in a scale environment.

[0017] O pedido de patente publicado sob o número EP2626834A2 descreve um livro para uso com aplicações de realidade aumentada. O livro é composto por diversas folhas semirrígidas, todas com padrões de marcação nas bordas e com uma figura de padrão não assimétrico no centro, capaz de indicar para uma aplicação de realidade aumentada, qual a escala de tamanho e orientação posicionai do livro, que por sua vez representa um objeto para cada página.Patent application published under EP2626834A2 describes a book for use with augmented reality applications. The book is composed of several semi-rigid sheets, all with marking patterns on the edges and a non-asymmetrical pattern figure in the center, capable of indicating for an augmented reality application, what is the book's size and position orientation scale, which by in turn represents an object for each page.

[0018] Embora o documento acima descreva o efeito de visualização de um objeto virtual e que permita sua visualização por vários ângulos, compreendendo os três eixos cartesianos mais a profundidade (distância) do elemento, ele não apresenta nenhum grau de imersão com o ambiente e não permite a manipulação do objeto com as mãos, deixando em aberto o problema do treinamento virtual à distância, no sentido de que este demanda não apenas o efeito da visualização de um objeto em realidade aumentada, mas sim um processo continuo e iterativo com a manipulação sobre vários objetos em um ambiente de realidade virtual.Although the above document describes the visualization effect of a virtual object and allows it to be viewed from various angles, comprising the three Cartesian axes plus the depth (distance) of the element, it has no degree of immersion with the environment and does not allow the manipulation of the object by hand, leaving open the problem of virtual distance training, in the sense that it demands not only the effect of visualizing an object in augmented reality, but a continuous and iterative process with manipulation. about multiple objects in a virtual reality environment.

[0019] O pedido de patente publicado sob o número BRl020120199440A2 descreve um conjunto de métodos para a visualização em realidade aumentada de um projeto arquitetônico tridimensional, usando um smartphone ou tablet (dispositivo). O modelo arquitetônico deve ser preferencialmente visualizado com o dispositivo apontado para o terreno. Um dos métodos descritos no documento permite que a captura dos valores fornecidos pelo sensor acelerômetro do smartphone ou tablet, que mudam conforme a movimentação do tablet na mão do usuário, altere a visualização do objeto 3D inserido na cena real, no caso um projeto arquitetônico sobre um terreno. Outros métodos descritos no documento incluem: - O deslocamento "caminhada" pelo objeto tridimensional, que pode ser feito usando botões na própria tela do smartphone ou tablet. - Seleção de um entre diversos projetos arquitetônicos, extraídos do banco de dados. - Saltos entre diversos pontos de vista do projeto arquitetônico, dispensando uma longa navegação.[0019] Patent application published under number BRl020120199440A2 describes a set of methods for augmented reality visualization of a three-dimensional architectural project using a smartphone or tablet (device). The architectural model should preferably be viewed with the device pointing to the terrain. One of the methods described in the document allows capturing the values provided by the smartphone or tablet accelerometer sensor, which change as the tablet moves in the user's hand, to change the view of the 3D object inserted in the real scene, in this case an architectural project about a ground. Other methods described in the document include: - The "walk" shift through the three-dimensional object, which can be done using buttons on the smartphone or tablet screen itself. - Selection from one of several architectural projects, extracted from the database. - Jumps between various points of view of architectural design, requiring a long navigation.

[0020] O pedido acima descrito não soluciona o problema do treinamento experimental à distância, haja visto que ele apresenta para o usuário apenas um objeto tridimensional por sobre as imagens do mundo real capturadas pela câmera do dispositivo, deixando em aberto tanto a ambientação no cenário de treinamento virtual quanto as interações entre esta cena e os objetos correlacionados.[0020] The above application does not solve the problem of experimental distance training, as it presents to the user only a three-dimensional object over the real-world images captured by the device's camera, leaving both ambiance in the scene open. virtual training about the interactions between this scene and the correlated objects.

[0021] O pedido de patente publicado sob o número BR1020130273554A2 apresenta o "SISTEMA DE EXIBIÇÃO DE REALIDADE VIRTUAL" composto por um processo e um aparelho. O aparelho é descrito por diferentes possibilidades de configuração e componentes de computação, de video e de sensores. As possibilidades de computação incluem processadores simples e arranjo de diversos computadores em rede. Para a exibição das imagens, o documento prevê sistemas de exibição montados na cabeça, sistemas compostos por obturadores eletrônicos individuais para cada olho, sistemas que adotam lentes polarizadas, sistemas de exibição retinal e até sistemas de exibição em lentes de contato. Para os sensores que determinam a interação entre o usuário e a cena virtual, o documento prevê sistemas de rastreio de olho, sistemas rastreadores de cabeça, luvas que transmitem dados conforme o movimento dos dedos e até sistemas de rastreio de gestos no ar.Patent application published under the number BR1020130273554A2 discloses the "VIRTUAL REALITY DISPLAY SYSTEM" consisting of a process and an apparatus. The apparatus is described by different configuration possibilities and computing, video and sensor components. Computing possibilities include simple processors and arrangement of various networked computers. For the display of images, the document provides head-mounted display systems, systems consisting of individual electronic shutters for each eye, systems that adopt polarized lenses, retinal display systems and even contact lens display systems. For sensors that determine the interaction between the user and the virtual scene, the document provides eye tracking systems, head tracking systems, gloves that transmit data according to finger movement, and even gesture tracking systems in the air.

[0022] Embora o documento acima descrito permita a construção de um aparato que habilita o usuário a visualizar um mundo de realidade virtual, bem como a manipulação de objetos nele, sua complexidade de montagem inclui a preparação de uma estrutura com sensores de detecção de movimento e/ou implantes que necessitam intervenção médica. Outro fator impeditivo é o custo da solução que não é um limitador para simuladores adquiridos por empresas aeroespaciais, porém é impraticável para o uso cotidiano por um popular em sua casa. Além disso, o documento não traz uma solução para a distribuição em massa de novos ambientes e objetos interativos que configuram uma necessidade atual no mercado de educação.Although the document described above allows the construction of an apparatus that enables the user to visualize a virtual reality world as well as the manipulation of objects in it, its assembly complexity includes the preparation of a structure with motion detection sensors. and / or implants requiring medical intervention. Another hindering factor is the cost of the solution that is not a limiter for simulators purchased by aerospace companies, but is impractical for everyday use by a popular in your home. In addition, the document does not provide a solution for mass distribution of new environments and interactive objects that configure a current need in the education market.

[0023] A patente US 7,215,322 B2 apresenta "INPUT DEVICES FOR AUGMENTED REALITY APPLICATIONS" e é composta por um arranjo de elementos que ficam fixados em uma superfície e um método de reconhecimento e acionamento de comandos. O documento descreve uma solução para realizar uma interface de comandos, quando um usuário está com uma tela montada sobre a cabeça, que pode ser um óculos de realidade virtual. Esse método consiste em fixar pequenos discos opacos em uma superfície plana, tipicamente uma parede, e a partir de um mapeamento da disposição destes discos, associar botões de comando em uma interface que é exibida dentro do ambiente de realidade virtual. Os botões desta interface virtual são acionados quando a mão do usuário se move no ambiente real, cobrindo os discos afixados, de forma que a câmera montada sobre a cabeça deixa de visualizar o disco.US 7,215,322 B2 discloses "INPUT DEVICES FOR AUGMENTED REALITY APPLICATIONS" and comprises an array of elements that are fixed to a surface and a method of recognizing and triggering commands. The document describes a solution for performing a command interface when a user has a head-mounted screen that can be a virtual reality goggle. This method consists of attaching small opaque disks to a flat surface, typically a wall, and by mapping the arrangement of these disks, associating pushbuttons on an interface that is displayed within the virtual reality environment. The buttons on this virtual interface are triggered when the user's hand moves in the real environment, covering the attached disks, so that the head-mounted camera no longer sees the disk.

[0024] O método descrito pela patente acima apresenta de forma isolada uma solução para o problema de executar comandos dentro do ambiente de realidade virtual, tendo em vista que o usuário está com seu campo visual ocupado pela exibição da cena na tela montada sobre a cabeça. Essa solução é interessante, pois dispensa a aquisição, interconexão e configuração de um joystick ou outro dispositivo de interação. No entanto, ela se mostra inadequada para a utilização doméstica, pois demanda que o usuário leigo faça a instalação dos discos e sua calibragem, além de tornar necessária que uma parede livre de objetos esteja disponível para o uso interativo. Isso obriga a utilização em um local pré-determinado, impedindo que se atinja o objetivo de utilização em qualquer local a qualquer momento (portabilidade). Outro aspecto que impede que seja adotada como uma solução para interface de comandos no uso de simuladores experimentais de aprendizado e treinamento é o fato de exigir que o usuário esteja o tempo todo voltado para a parede, impedindo que sejam feitas interações com objetos às suas costas, por exemplo.[0024] The method described by the above patent alone provides a solution to the problem of executing commands within the virtual reality environment, given that the user has his visual field occupied by displaying the scene on the head mounted screen. . This solution is interesting because it does not require the acquisition, interconnection and configuration of a joystick or other interaction device. However, it is unsuitable for home use as it requires the lay user to install and calibrate the disks, and requires an object-free wall to be available for interactive use. This requires use in a predetermined location, preventing the goal of use anywhere at any time (portability). Another aspect that prevents it from being adopted as a command interface solution when using experimental learning and training simulators is that it requires the user to always be facing the wall, preventing interactions with objects behind his back. , for example.

[0025] O pedido de patente publicado sob o número US20070038944A1 descreve um sistema de realidade aumentada que inclui meios para a captura de dados de imagem do ambiente real, meios para o processamento das imagens para geração do ambiente virtual, meios para a identificação de objetos reais e processamento de suas imagens para que sejam utilizados como marcadores no ambiente virtual e por fim meios que permitam a sobreposição dos dados da imagem do objeto real com a imagem virtual em uma posição virtual correspondendo à do objeto marcador predefinido.Patent application published under US20070038944A1 describes an augmented reality system which includes means for capturing real environment image data, means for processing images for virtual environment generation, means for identifying objects. real images and processing of their images to be used as markers in the virtual environment and finally means that allow the overlay of the actual object image data with the virtual image in a virtual position corresponding to that of the predefined marker object.

[0026] O sistema descrito pela patente compreende, além dos meios de captura de imagens, que pode consistir no uso de câmeras, e dos algoritmos de identificação de marcadores, já presentes no estado da técnica, um sistema de rastreamento, um sistema de aferição de distâncias e um sistema de renderização. O documento sustenta que a combinação destes três sistemas permite a construção de cenários virtuais e o posicionamento de objetos com maior acurácia. No entanto, o método descrito dispende a aquisição e configuração de vários elementos, antes de cada captura, o que torna o processo moroso, custoso e dependente de pessoal altamente qualificado, não consistindo em uma solução para o problema que se apresenta para uma plataforma de construção de cenários virtuais para o treinamento e a educação em larga escala.The system described by the patent comprises, in addition to the image capture means, which may consist of the use of cameras, and the marker identification algorithms already present in the state of the art, a tracking system, a measurement system of distances and a rendering system. The document argues that the combination of these three systems allows the construction of virtual scenarios and the positioning of objects with greater accuracy. However, the method described requires the acquisition and configuration of several elements before each capture, which makes the process time consuming, costly and dependent on highly qualified personnel, not being a solution to the problem that arises for a platform. building virtual scenarios for large-scale training and education.

[0027] O pedido de patente publicado sob o número US20140071164A1 "CONTROLLING AN AUGMENTED REALITY OBJECT" descreve um método de interação com objetos em realidade aumentada, fazendo para isso o uso de câmeras e métodos para análise e reconhecimento de gestos produzidos pelas mãos dos usuários e sua intervenção nos objetos exibidos na tela do dispositivo de exibição. De maneira semelhante, o pedido BRPI0904132A2 intitulado "DISPOSITIVO ELETRÔNICO DE REALIDADE VIRTUAL E MÉTODO DE CRIAÇÃO DE REALIDADE VIRTUAL" descreve interações entre imagens do mundo real e objetos tridimensionais na tela de um dispositivo.[0027] Patent application published under US20140071164A1 "CONTROLLING AN AUGMENTED REALITY OBJECT" describes a method of interacting with objects in augmented reality by using cameras and methods for analyzing and recognizing gesture produced by users' hands. and its intervention on objects displayed on the display device screen. Similarly, application BRPI0904132A2 entitled "VIRTUAL REALITY ELECTRONIC DEVICE AND VIRTUAL REALITY CREATION METHOD" describes interactions between real-world images and three-dimensional objects on a device screen.

[0028] No entanto, em ambos os pedidos não há uma relação direta entre o uso de um marcador de realidade aumentada para controlar um objeto em um cenário virtual, o que é diferente de exibir um cenário real como fundo, como reivindicado na presente invenção. Isto também significa que ambos os documentos não representam uma solução para o problema de treinamento experimental à distância e em larga escala. Além disso, é sabido que o uso de reconhecimento de gestos em interfaces de controle frequentemente implica no uso de hardware especializado e um maior volume de poder computacional, o que inviabilizaria que a técnica fosse usufruida pelos usuários leigos que dispõem somente de seus dispositivos pessoais (celulares e tablets).However, in both requests there is no direct relationship between the use of an augmented reality marker to control an object in a virtual scenario, which is different from displaying an actual scenario as a background as claimed in the present invention. . This also means that both documents do not represent a solution to the problem of large-scale and distance experimental training. In addition, it is well known that the use of gesture recognition in control interfaces often implies the use of specialized hardware and a greater amount of computational power, which would make it impossible for lay users to use only their personal devices ( phones and tablets).

[0029] O pedido de patente publicado sob o número W02014070120A2 descreve um método de interação utilizando realidade aumentada, com o propósito de exibir um alto nivel de detalhe em objetos virtuais e, como consequência, permitir a visualização de partes pequenas em um objeto de grande proporção. 0 documento descreve como um marcador é capturado por um dispositivo, como uma câmera de um smartphone, tablet ou PDA, e interpretado pelo método que passa a exibir na tela do dispositivo o objeto da realidade aumentada. Conforme o dispositivo é deslocado em relação ao marcador, o objeto tridimensional da realidade aumentada segue o mesmo padrão. A técnica proposta alega que possui como diferencial a possibilidade de aproximação do marcador até 0.01 de sua fração total, o que permite a experiência de perceber ricos detalhes do objeto.Patent application published under the number W02014070120A2 describes an interaction method using augmented reality, with the purpose of displaying a high level of detail in virtual objects and, as a consequence, allowing the visualization of small parts in a large object. proportion. The document describes how a marker is captured by a device, such as a smartphone, tablet or PDA camera, and interpreted by the method that now displays the augmented reality object on the device screen. As the device shifts relative to the marker, the three-dimensional object of augmented reality follows the same pattern. The proposed technique claims that its differential is the possibility of approaching the marker up to 0.01 of its total fraction, which allows the experience to perceive rich details of the object.

[0030] Embora o documento acima citado apresente uma solução para a visualização de objetos em realidade aumentada, ele não é suficiente para resolver o problema da área de treinamento e educação em que o aluno necessita interagir com objetos em um cenário virtual como se lá estivesse.Although the above document presents a solution for augmented reality object visualization, it is not sufficient to solve the training and education problem where the student needs to interact with objects in a virtual setting as if they were there. .

[0031] O pedido de patente publicado sob o número KR2014004029 intitulado "METHOD AND APPARATUS FOR PROVIDING CONTENTS INCLUDING AUGMENTED REALITY INFORMATION" descreve um método para inserir em conteúdos previamente capturados informações e assim gerar novos conteúdos para realidade aumentada. Embora o documento inclua uma solução para captura, enriquecimento e armazenamento de conteúdo para realidade aumentada, ele não prevê a interação entre a realidade aumentada e a realidade virtual e desta forma não apresenta uma solução para o problema exposto de ensino/treinamento vivencial virtual.[0031] Patent application published under number KR2014004029 entitled "METHOD AND APPARATUS FOR PROVIDING CONTENTS INCLUDING AUGMENTED REALITY INFORMATION" describes a method for inserting previously captured information and thus generating new content for augmented reality. Although the document includes a solution for augmented reality content capture, enrichment, and storage, it does not provide for the interaction between augmented reality and virtual reality and thus does not provide a solution to the exposed problem of virtual experiential teaching / training.

[0032] Em relação ao dispositivo de exibição de imagens para a realidade virtual, é conhecido do estado da técnica o uso de Head Mounted Displays (HMD) que são telas construídas sobre visores que são vestidos pelo usuário de forma semelhante à de uma máscara de mergulho. Um dos documentos que pode ser utilizado como referência é o US D701,206 que descreve o "VIRTUAL REALITY HEADSET" da empresa Oculus VR. Os HMDs tradicionais consistem em um hardware que integra a estrutura da máscara, a parte eletrônica e um pequeno painel de cristal liquido. Esse conjunto tem uma conexão externa com fios para alimentação elétrica e para permitir a comunicação e transferência dos dados de um computador.Regarding the virtual reality image display device, it is known from the state of the art to use Head Mounted Displays (HMD) which are screens built on displays that are worn by the user in a similar manner to that of a face mask. diving. One of the documents that can be used as a reference is US D701,206 which describes Oculus VR's "VIRTUAL REALITY HEADSET". Traditional HMDs consist of hardware that integrates the mask structure, the electronics and a small liquid crystal panel. This set has an external wired connection for power and to allow communication and data transfer from a computer.

[0033] Esse arranjo apresenta uma série de inconvenientes, como: - Necessidade de aquisição de um hardware de uso específico . - Necessidade de possuir um computador possante para utilização. - Depende de um processo de configuração e instalação de aplicação. - Ausência de uma plataforma para download automático e personalizado dos conteúdos. - Elevado custo.[0033] This arrangement has a number of drawbacks, such as: - Need to purchase specific use hardware. - Need to have a powerful computer to use. - Depends on an application setup and installation process. - Absence of a platform for automatic and personalized download of contents. - High cost.

[0034] Outras alternativas estão disponíveis no estado da técnica que atendem ao objetivo da exibição estereoscópica de imagens para uso com o NEXXA.Other alternatives are available in the state of the art that serve the purpose of stereoscopic image display for use with NEXXA.

Preferencialmente podem ser adotados os aparatos que adaptam smartphones para montagem na cabeça. Exemplos desses aparatos incluem: - Samsung Gear VR: compatível com alguns modelos de smartphone Samsung possui médio custo de aquisição. - Beenoculus, BR3020140061054 , um projeto brasileiro, que utiliza adaptadores de espuma para permitir o encaixe de uma ampla gama de smartphones. Possui custo baixo. - Google Cardboard: um projeto do Google que foi publicamente disponibilizado, permitindo que o próprio usuário crie o seu dispositivo de realidade virtual a partir de uma caixa de papelão, sendo virtualmente compatível com qualquer smartphone que possua os requisitos de hardware necessários para executar aplicações de realidade virtual. Possui custo de aquisição próximo de zero.Preferably the devices that adapt smartphones for head mounting can be adopted. Examples of these gadgets include: - Samsung Gear VR: Compatible with some smartphone models Samsung has medium acquisition cost. - Beenoculus, BR3020140061054, a Brazilian design that uses foam adapters to fit a wide range of smartphones. It has low cost. - Google Cardboard: A Google project that has been publicly available, allowing you to create your own virtual reality device from a cardboard box, and is virtually compatible with any smartphone that has the hardware requirements needed to run desktop applications. virtual reality. It has acquisition cost close to zero.

[0035] Visando uma solução para o problema de educação/treinamento em escala, o projeto Cardboard se revela uma alternativa de fácil implementação para prover apenas a exibição de imagens estereoscópicas, pois utiliza papelão comum para compor o gabinete do óculos de realidade virtual, além de ser amplamente compatível com os smartphones disponíveis no mercado.Aiming at solving the education / training problem at scale, the Cardboard project proves to be an easy-to-implement alternative to providing only the display of stereoscopic images, as it uses regular cardboard to make up the virtual reality glasses case, as well as to be broadly compatible with commercially available smartphones.

[0036] No entanto, no âmbito de executar o comando de ações dentro do ambiente de virtual, nenhum dos três aparatos de montagem na cabeça apresenta uma solução simples e de ampla compatibilidade. Embora o Samsung Gear VR implemente um botão de toque na lateral, ele se limita ao uso com apenas três modelos de smartphone da mesma fabricante. Já o Google Cardboard, possui um acionador magnético, implementado por um anel de neodímio, afixado na lateral da caixa de papelão que ao ser movimentado faz com que o magnetômetro do smartphone detecte a mudança do campo magnético que é transformada em um sinal de acionamento. Porém essa solução apresenta o inconveniente de só funcionar nos smartphones em que o magnetômetro está posicionado no topo do aparelho. Outra possibilidade disponível no estado da técnica consiste em conectar um dispositivo externo de comandos, como um controle remoto, joystick ou mouse e teclado, que apresenta inconvenientes como necessidade de conexões (com ou sem fios), instruções de configuração e custo de aquisição.However, within the scope of executing the action command within the virtual environment, none of the three head mount apparatuses presents a simple and widely compatible solution. Although the Samsung Gear VR implements a touch button on the side, it is limited to use with only three smartphone models from the same manufacturer. The Google Cardboard, on the other hand, has a magnetic trigger, implemented by a neodymium ring, affixed to the side of the cardboard box that when moved causes the smartphone's magnetometer to detect the change of the magnetic field that is transformed into a trigger signal. But this solution has the drawback of only working on smartphones where the magnetometer is positioned on top of the device. Another possibility available in the prior art is to connect an external command device, such as a remote control, joystick or mouse and keyboard, which has drawbacks such as the need for connections (wired or wireless), setup instructions and purchase cost.

[0037] Para solucionar este problema, o Nexxa além de permitir o uso das três alternativas acima, também apresenta um método que traz duas novas formas de executar comandos dentro da Realidade Virtual. Técnica relacionada [0038] O objetivo desta invenção é fornecer para usuários leigos uma alternativa tecnológica que os possibilite simular em realidade virtual, com a manipulação de objetos, a execução de atividades experimentais em ambientes que não poderíam ser replicados tanto em sua residência quanto na sala de aula, em uma alternativa de baixíssimo custo e fácil de usar.To solve this problem, Nexxa not only allows the use of the above three alternatives, but also presents a method that brings two new ways of executing commands within Virtual Reality. Related Art The aim of this invention is to provide lay users with a technological alternative that enables them to simulate in virtual reality, by manipulating objects, performing experimental activities in environments that could not be replicated both at home and in the living room. in a very inexpensive and easy-to-use alternative.

[0039] Essa simulação em realidade virtual permite, com o método utilizado, a total imersão do usuário que se enxerga dentro da cena, já que todo o seu campo visual fica coberto pela projeção de imagens, permitindo explorar localidades distantes como se lá estivesse. Este método supera o problema das alternativas presentes no estado da técnica já que possibilita a utilização, não apenas de um modelo especifico de HMD, mas uma profusão de modelos existentes no estado da técnica, se destacando pela compatibilidade.[0039] This simulation in virtual reality allows, with the method used, the total immersion of the user who sees himself inside the scene, since his entire visual field is covered by the projection of images, allowing to explore distant locations as if he were there. This method overcomes the problem of alternatives present in the state of the art as it allows the use, not only of a specific model of HMD, but a profusion of existing models in the state of the art, standing out for their compatibility.

[0040] Além das vantagens na imersão, esta invenção traz uma solução para o problema da manipulação de objetos tridimensionais dentro do ambiente virtual. Poucas são as alternativas disponíveis no estado da técnica. Uma delas é o uso de luvas dotadas de sensores, que não são capazes de resolver o problema apresentado em virtude do alto custo, da necessidade de interconexões com fios e da complexidade de instalação. Outra possibilidade é o uso de interfaces de toque em um pedaço da tela do dispositivo, o que limitaria o uso à tablets, não representando uma solução de escala. Existe também a alternativa de uso de um controle do tipo "joystick" comum em videogames, mas essa alternativa não soluciona o problema, pois acrescenta custo à solução final e aumenta a complexidade de configuração entre mais de um dispositivo. Por fim haveria a opção de uso de sensores e técnicas de reconhecimento de gestos das mãos do usuário, mas que em geral dependem de hardware especializado e maior uso de processamento para prover resultados satisfatórios, o que limitaria o público atendido, nao configurando desta forma uma solução para o problema.In addition to the advantages of immersion, this invention provides a solution to the problem of three-dimensional object manipulation within the virtual environment. Few alternatives are available in the prior art. One is the use of sensor sleeves, which are unable to solve the problem presented due to the high cost, the need for wired interconnections and the complexity of the installation. Another possibility is the use of touch interfaces on a piece of the device screen, which would limit the use to tablets, not representing a scale solution. There is also the alternative of using a joystick control common in video games, but this alternative does not solve the problem as it adds cost to the final solution and increases the complexity of configuration between more than one device. Finally there would be the option of using sensors and hand gesture recognition techniques of the user, but which generally depend on specialized hardware and increased processing use to provide satisfactory results, which would limit the audience served, thus not configuring a solution to the problem.

[0041] Diante do esgotamento das opções disponíveis no estado da técnica para solucionar o problema da manipulação de objetos tridimensionais em um ambiente imersivo, esta invenção inclui um método inovador que permite misturar as tecnologias de realidade virtual e realidade aumentada, associando a cada um dos objetos interativos da cena um marcador, possibilitando que o usuário controle em suas mãos e manipule em todos os eixos rotacionais de um sistema esférico (x, y, z, w) o referido objeto, de forma a viabilizar a manipulação de objetos virtuais que não estão à disposição do público, sem acrescentar custo e trazendo simplicidade à solução.Faced with the exhaustion of options available in the state of the art to solve the problem of manipulating three-dimensional objects in an immersive environment, this invention includes an innovative method that allows the mixing of virtual reality and augmented reality technologies, associating each one of them. interactive objects of the scene a marker, allowing the user to control in his hands and manipulate on all rotational axes of a spherical system (x, y, z, w) said object, in order to enable the manipulation of virtual objects that do not are available to the public at no cost and bringing simplicity to the solution.

[0042] Outra necessidade para solucionar o problema apresentado é, além da manipulação de objetos, um método que permita a escolha dentre uma lista de opções apresentadas no ambiente virtual. Tendo em vista que a presente invenção dispensa a conexão de controladores do tipo "joystick" e que também não faz uso de outras alternativas do estado da técnica, se fez necessário desenvolver um método inovador que permitisse a exibição, listagem e escolha de opções dentro do ambiente de realidade virtual.[0042] Another need to solve the problem presented is, besides object manipulation, a method that allows choosing from a list of options presented in the virtual environment. In view of the fact that the present invention does not require the connection of joystick controllers and that it does not make use of other state of the art alternatives, it was necessary to develop an innovative method that would allow the display, listing and choice of options within the system. Virtual reality environment.

[0043] A solução para este problema é alcançada por um conjunto de métodos que transmitem uma orientação visual dentro da cena virtual, através de painéis retráteis, monitoram o ângulo da cabeça para percorrer a lista de opções e analisam o áudio capturado pelo microfone para a interpretação de comandos do tipo "clique" no sistema.The solution to this problem is achieved by a set of methods that transmit visual orientation within the virtual scene through retractable panels, monitor head angle to scroll through the list of options, and analyze the audio captured by the microphone for interpretation of "click" type commands in the system.

[0044] Também se faz imprescindível para o uso deste recurso para o ensino e treinamento uma solução que possa prover feedback para o usuário, configurado na forma de uma devolutiva visual e sonora, para as etapas concluídas com êxito no conjunto das atividades executadas na cena virtual. Um exemplo ilustrativo é uma sala de cirurgia virtual em que um paciente precisa ser submetido a uma intervenção. A capacitação de um auxiliar cirúrgico podería ser feita em etapas, iniciando pela apresentação do procedimento a ser realizado, a escolha do instrumento para a primeira incisão, a determinação do local, sentido, profundidade e extensão do corte. Após a execução desta etapa pelo aluno, um método inovador, denominado gatilho, reconhece o padrão de movimento e devolve um feedback, como por exemplo uma mensagem indicando o ganho de uma pontuação, a apresentação de um vídeo com a continuação da execução do procedimento cirúrgico, ou um outro vídeo mostrando a invasão de algum órgão e consequente óbito do paciente.A solution that can provide user feedback, configured in the form of a visual and sound feedback, for the steps successfully completed in the set of activities performed on the scene is essential for the use of this teaching and training resource. virtual. An illustrative example is a virtual operating room where a patient needs to undergo an intervention. The training of a surgical assistant could be done in stages, starting with the presentation of the procedure to be performed, the choice of the instrument for the first incision, the determination of the location, direction, depth and extension of the cut. After the student completes this step, an innovative method, called a trigger, recognizes the movement pattern and returns feedback, such as a message indicating that a score has been earned, a video is presented with the continuation of the surgical procedure. , or another video showing the invasion of some organ and consequent death of the patient.

[0045] Por fim identificou-se que para tornar viável uma solução para o problema de ensino/treinamento experimental em realidade virtual, seria necessário combinar uma alternativa para a captura tridimensional dos cenários, que permitisse velocidade, simplicidade e baixo custo, características essenciais para geração de conteúdo em escala. Para isso, foi prevista para uso com o NEXXA uma solução existente do estado da técnica que permite, com um suporte de fixação, agrupar uma matriz de câmeras grande-angulares de baixo custo que capturam imagens do ambiente por todos os ângulos e entregam essa informação para um sistema que processa a composição destas imagens (image stitching) , renderiza e cria automaticamente o contêiner tridimensional.Finally, it was identified that in order to make a solution to the experimental virtual reality teaching / training problem viable, it would be necessary to combine an alternative for the three-dimensional capture of the scenarios, which would allow speed, simplicity and low cost, essential characteristics for scaled content generation. For this purpose, an existing state-of-the-art solution has been designed for use with NEXXA which allows, with a mounting bracket, to assemble an array of low-cost wide-angle cameras that capture images of the environment from all angles and deliver this information. for a system that processes image stitching, automatically renders and creates the three-dimensional container.

[0046] Além disso, esta invenção permite que todas estas propriedades sejam alcançadas com baixo investimento em recursos tecnológicos, tanto do lado da instituição que produz e disponibiliza os conteúdos, utilizando uma plataforma de distribuição com entrega personalizada e de larga escala, e também do lado do aluno/usuário, sem a necessidade de aquisição de equipamentos dispendiosos e facilitado por métodos que proporcionam simplicidade na instalação, operação e manutenção, garantindo, em especial, que alunos da modalidade ensino à distância possam se beneficiar de experiências práticas que só poderiam ser realizadas em laboratórios específicos ou em ambientes dotados de simuladores de alto custo.In addition, this invention enables all of these properties to be achieved with low investment in technological resources, both on the side of the institution that produces and makes the content available, using a large-scale, personalized delivery distribution platform and student / user side, without the need to purchase expensive equipment and facilitated by methods that provide simplicity of installation, operation and maintenance, ensuring in particular that distance learning students can benefit from practical experiences that could only be carried out in specific laboratories or in environments with high cost simulators.

[0047] Para a realização dos objetivos precedentes e afins, uma ou mais modalidades compreendem os aspectos que serão descritos a seguir e especificamente definidos nas reivindicações. A descrição seguinte e os desenhos apensos apresentam certos detalhes ilustrativos do aspecto da modalidade descrita. Estes aspectos indicam, contudo, apenas algumas das diversas maneiras pelas quais os princípios de diversas modalidades podem ser utilizados.For the accomplishment of the foregoing and related purposes, one or more embodiments comprise the aspects to be described below and specifically defined in the claims. The following description and the accompanying drawings provide certain illustrative details of the aspect of the described embodiment. These aspects, however, indicate only some of the many ways in which the principles of various modalities can be used.

Breve descrição das figuras [0048] As características, natureza e vantagens da presente descrição serão mais visíveis a partir da descrição detalhada exposta abaixo quando lida em conjunto com os desenhos, nos quais as mesmas referências se referem aos mesmos elementos, nos quais: [0049] Figura 1 - é uma ilustração de um fluxograma contendo os métodos e componentes que compõem o NEXXA, de acordo com uma concretização ilustrativa.BRIEF DESCRIPTION OF THE FIGURES The features, nature and advantages of the present disclosure will be more apparent from the detailed description set forth below when read in conjunction with the drawings, in which the same references refer to the same elements, in which: ] Figure 1 is an illustration of a flowchart containing the methods and components that make up the NEXXA according to an illustrative embodiment.

[0050] Figura 2 - é um diagrama em blocos dos elementos que integram um aparato de exibição e controle de Realidade Virtual, de acordo com uma concretização ilustrativa.[0050] Figure 2 is a block diagram of the elements that comprise a Virtual Reality display and control apparatus according to an illustrative embodiment.

[0051] Figura 3 - é uma ilustração de um fluxograma de um processo para o método de captura de ambientes reais e transformação em um contêiner de cenário 3D para Realidade Virtual, de acordo com uma concretização ilustrativa.[0051] Figure 3 is an illustration of a process flowchart for the method of capturing real environments and transforming them into a 3D Virtual Reality scenario container according to an illustrative embodiment.

[0052] Figura 4 - é a primeira parte da ilustração de um fluxograma de um processo para o método de navegação dentro dos ambientes virtuais, mostrando o acesso e orientações iniciais ao usuário, de acordo com uma concretização ilustrativa.[0052] Figure 4 is the first part of a flowchart illustration of a process for the method of navigation within virtual environments, showing initial user access and guidance according to an illustrative embodiment.

[0053] Figura 5 - é a segunda parte da ilustração de um fluxograma de um processo para o método de navegação dentro dos ambientes virtuais, mostrando a atuação dos sensores e influência dos controles no cenário virtual, de acordo com uma concretização ilustrativa.[0053] Figure 5 - is the second part of a flowchart illustration of a process for the method of navigation within virtual environments, showing the performance of sensors and influence of controls on the virtual scenario, according to an illustrative embodiment.

[0054] Figura 6 - é uma ilustração de um fluxograma de um processo para o método de interação com os objetos tridimensionais, dentro da cena virtual, usando marcadores de realidade aumentada, de acordo com uma concretização ilustrativa.[0054] Figure 6 is an illustration of a process flowchart for the method of interacting with three-dimensional objects within the virtual scene using augmented reality markers according to an illustrative embodiment.

[0055] Figura 7 - é uma ilustração de um fluxograma de um processo para o método de exibição de painéis flutuantes e de destaque de seleções em uma lista, dentro do ambiente virtual, de acordo com uma concretização ilustrativa.[0055] Figure 7 is an illustration of a process flowchart for the method of displaying floating panels and highlighting selections in a list within the virtual environment according to an illustrative embodiment.

[0056] Figura 8 - é uma ilustração de um fluxograma de um processo para o método de captura de comandos e escolha de opçoes, dentro da cena virtual, de acordo com uma concretização ilustrativa.Figure 8 is an illustration of a flowchart of a process for the method of capturing commands and choosing options within the virtual scene according to an illustrative embodiment.

[0057] Figura 9 - é uma ilustração de um fluxograma de um processo para o método de disparo de gatilhos para atividades pré-programadas, dentro da cena virtual, de acordo com uma concretização ilustrativa.[0057] Figure 9 is an illustration of a flowchart of a process for triggering method for pre-programmed activities within the virtual scene, according to an illustrative embodiment.

[0058] Figura 10 - é uma ilustração do usuário fazendo uso do NEXXA, vestindo o aparato de exibição e controle e manipulando um dispositivo portátil exibindo no display o marcador de realidade aumentada, que possibilita a manipulação dos objetos tridimensionais, dentro da cena virtual, de acordo com uma concretização ilustrativa.[0058] Figure 10 - is an illustration of the user making use of NEXXA, wearing the display and control apparatus and manipulating a handheld device displaying the augmented reality marker on the display, which enables the manipulation of three-dimensional objects within the virtual scene, according to an illustrative embodiment.

Descrição Detalhada da Invenção [0059] A presente invenção é composta de um conjunto de seis métodos, que associados a um aparato de natureza mecânica, eletrônica, ótica e digital (200) permite a um usuário, em geral um estudante ou aprendiz, a partir de qualquer lugar, a total imersão visual e auditiva, incluindo a manipulação de objetos tridimensionais, dentro de um ambiente virtual para o aprendizado e/ou a execução de atividades experimentais em ambientes de acesso restrito, como se lá estivesse, sem para isso precisar realizar investimentos em equipamentos, nem preparar configurações.DETAILED DESCRIPTION OF THE INVENTION The present invention is composed of a set of six methods, which associated with a mechanical, electronic, optical and digital apparatus (200) allows a user, generally a student or apprentice, from from anywhere, total visual and auditory immersion, including the manipulation of three-dimensional objects, within a virtual environment for learning and / or performing experimental activities in restricted-access environments without having to do so. investments in equipment, nor prepare configurations

[0060] Referência é feita agora a Figura 1 que ilustra um fluxograma contendo os métodos e componentes que compõem a presente invenção, em que um ambiente real com objetos para interação (110) é digitalizado através de um método de criação de cenários virtuais (300), gerando um conteúdo, composto de cenário virtual e objetos 3D (130) . Esse conteúdo é exibido através de um aparato de exibição (200), como por exemplo Oculus ou Google Cardboard, para um usuário (150). A navegação deste usuário dentro do ambiente virtual é garantida através de um outro método (500) que usa os movimentos de cabeça para guiar a visualização.[0060] Reference is now made to Figure 1 illustrating a flowchart containing the methods and components that make up the present invention, in which a real environment with objects for interaction (110) is digitized through a virtual scenario creation method (300). ), generating content consisting of virtual scenery and 3D objects (130). This content is displayed through a display apparatus (200), such as Oculus or Google Cardboard, to a user (150). This user's navigation within the virtual environment is ensured by another method (500) which uses head movements to guide the visualization.

[0061] Fatores como a amplitude e velocidade dos movimentos do usuário determinam a exibição de painéis retráteis de exibição (700) com a finalidade de fornecer orientações. No momento em que o usuário já sabe que ações deve executar dentro do ambiente, um método de recepção de comandos e seleções (800), recebe os inputs, enquanto outro método de gatilhos (900) monitora as ações realizadas, disparando atividades pré-programados dentro do ambiente.Factors such as the range and speed of user movements determine the display of retractable display panels (700) for the purpose of providing guidance. By the time the user already knows what actions to perform within the environment, a method of receiving commands and selections (800) receives inputs, while another method of triggers (900) monitors actions performed by triggering preprogrammed activities. within the environment.

[0062] Além disso, esse invento também é caracterizado por um método de interação com objetos (600) que une a Realidade Virtual com a Realidade Aumentada para permitir a manipulação de objetos 3D dentro do ambiente de realidade virtual, sem a necessidade de aquisição ou de conexão com outros dispositivos de comando. A alternativa desenvolvida permite utilizar a captura pela câmera de figuras pré-cadastradas, também conhecidas como marcadores (170) , para guiar a manipulação de objetos 3D dentro do cenário virtual. Esses marcadores chegam para o usuário por um método de entrega eletrônica de conteúdos digitais (400), permitindo que vários objetos sejam utilizados dentro do cenário e que possam ser trocados com um toque.In addition, this invention is also characterized by an object interaction method (600) that unites Virtual Reality with Augmented Reality to allow manipulation of 3D objects within the virtual reality environment without the need for acquisition or connection to other control devices. The developed alternative allows using camera capture of pre-registered figures, also known as markers (170), to guide the manipulation of 3D objects within the virtual scenario. These markers are delivered to the user by an electronic digital content delivery method (400), allowing various objects to be used within the scenario and to be exchanged with one tap.

[0063] Cada um dos métodos citados acima é abordado em detalhes abaixo, com referências às figuras que ilustram seus fluxos. Método simplificado de criação de ambientes virtuais a partir de cenários reais [0064] Conforme ilustrado na Figura 3, uma sequência de fotografias panorâmicas do ambiente é capturada por uma câmera 360 graus (310), cuja técnica já é conhecida do estado da técnica. Em seguida estas fotografias são agrupadas em uma sequência lógica em uma plataforma de edição (320), onde são encaixadas para que fiquem exibidas de forma continua nas três dimensões (330), resultando em um modelo tridimensional digital do ambiente original (340). Com este modelo tridimensional definido, objetos 3D podem ser adicionados à cena. Para isso um processo de tratamento é aplicado ao conteúdo. Esse processo constitui na aplicação de texturas, definição de transparências e de reflexões a partir dos pontos de iluminação da cena (350) . A geração das perspectivas, das sombras e da luz dos objetos no cenário final são obtidas a partir de cálculos trigonométricos (360). Para criar um ambiente virtual que seja próximo da realidade, são usadas imagens e texturas de alta definição, lâmpadas virtuais, sombras e modelos com alta quantidade de poligonos. Método de navegação visual dentro de um ambiente virtual criado por imagens estereoscópicas aplicadas a um suporte de fixação de equipamentos e lentes [0065] Um método de navegação visual em um ambiente de realidade virtual é utilizado na plataforma NEXXA, a qual compreende um óculos (200) composto de uma estrutura rigida com espaço para colocação de um smartphone (210), duas lentes biconvexas (220), um anteparo (230) que separa as imagens transmitidas por cada lente para o respectivo olho, uma tira elástica (240) para permitir que o conjunto fique preso à cabeça, mantendo as mãos livres e um anel magnético (250). O smartphone serve ao mesmo tempo de elemento de processamento (201), tela de exibição (218), interface para saida do áudio ambiente (214), captura de imagens (216) para detecção de marcadores e interação com objetos, captura de áudio para entrada de comandos (215) e de giroscópio (217) para informar a posição da cabeça.Each of the methods cited above is covered in detail below, with references to the figures illustrating their flows. Simplified Method for Creating Virtual Environments from Real Scenarios As illustrated in Figure 3, a sequence of panoramic photographs of the environment is captured by a 360 degree camera (310), the technique of which is already known from the state of the art. These photographs are then grouped in a logical sequence on an editing platform (320), where they are snapped together so that they are continuously displayed in the three dimensions (330), resulting in a three-dimensional digital model of the original environment (340). With this three-dimensional model defined, 3D objects can be added to the scene. For this a treatment process is applied to the content. This process consists in the application of textures, definition of transparencies and reflections from the lighting points of the scene (350). The generation of perspectives, shadows and light of objects in the final scenario are obtained from trigonometric calculations (360). To create a virtual environment that is close to reality, high definition images and textures, virtual lamps, shadows and high polygon models are used. Visual navigation method within a virtual environment created by stereoscopic images applied to a fixture bracket and lens [0065] A visual navigation method in a virtual reality environment is used on the NEXXA platform, which comprises spectacles (200 ) composed of a rigid frame with space for placing a smartphone (210), two biconvex lenses (220), a shield (230) that separates the images transmitted by each lens to the respective eye, an elastic strap (240) to allow that the assembly is secured to the head, keeping hands free and a magnetic ring (250). The smartphone serves at the same time as a processing element (201), display screen (218), ambient audio output interface (214), image capture (216) for marker detection and object interaction, audio capture for input of controls (215) and gyro (217) to inform the position of the head.

[0066] Uma plataforma eletrônica de material didático, contém conteúdos em realidade virtual, preferencialmente laboratórios e suas atividades experimentais, previamente capturados e associados à uma disciplina âncora.[0066] An electronic platform for teaching material contains virtual reality content, preferably laboratories and their experimental activities, previously captured and associated with an anchor discipline.

[0067] O usuário acessa a plataforma de material didático (410) corriqueiramente para seus estudos. Quando esse acesso é feito, apenas os conteúdos das disciplinas associadas à sua matricula são exibidos (420) . Conforme a leitura do conteúdo é feita (430), pode surgir uma página com uma atividade experimental interativa (440) . Quando isto ocorre, são exibidas as orientações e requisitos para uso do NEXXA (450) e o usuário pode decidir (460) entre ir para a Realidade Virtual ou prosseguir com a leitura do material tradicional.The user accesses the teaching materials platform (410) routinely for his studies. When this access is made, only the contents of the subjects associated with their enrollment are displayed (420). As content is read (430), a page may appear with an interactive experimental activity (440). When this occurs, the guidelines and requirements for using NEXXA (450) are displayed and the user can decide (460) whether to go to Virtual Reality or to continue reading the traditional material.

[0068] Caso o usuário opte por entrar na Realidade Virtual, é feita a carga dos dados do cenário (RV) e dos objetos 3D interativos e seus marcadores (470) .[0068] If you choose to enter Virtual Reality, scenario data (RV) and interactive 3D objects and their markers (470) are loaded.

[0069] Após a carga dos dados, é feita a inicialização do giroscópio e do magnetômetro (bússola) do dispositivo (510), preferencialmente um smartphone, em seguida é feita a captura dos ângulos iniciais do dispositivo e dos dados de partida dos sensores (520) para setar o posicionamento inicial e realizar a renderização de partida do ambiente virtual (530).After loading the data, the device's gyroscope and magnetometer (compass) are initialized (510), preferably a smartphone, then the device's initial angles and sensor starting data are captured ( 520) to set the initial placement and perform the virtual environment start rendering (530).

[0070] Os dados gerados pelo giroscópio são monitorados com a finalidade de captar uma mudança no ângulo do dispositivo (540), que está refletindo os movimentos da cabeça do usuário. Quando os dados do giroscópio mudam, seu novo valor é usado para atualizar a posição das câmeras virtuais (541) e uma nova renderização do cenário é feita (551). Esse processo continuo garante ao usuário a sensação de estar imerso na realidade virtual.The data generated by the gyroscope is monitored for the purpose of capturing a change in device angle (540), which is reflecting the movements of the user's head. When the gyro data changes, its new value is used to update the position of the virtual cameras (541) and a new scene rendering is done (551). This continuous process guarantees the user the sensation of being immersed in virtual reality.

[0071] Para possibilitar o deslocamento ("caminhada") foi implementada uma solução nova que dispensa o inconveniente de adquirir e configurar joysticks ou então de ter que olhar para uma posição fixa no cenário, a fim de acionar um botão virtual . Esta nova solução possibilita que seja utilizado o próprio headset que já acompanha todos os smartphones vendidos no mercado. Esses headsets por padrão integram 3 botões, que no dia a dia servem para atender, aumentar e diminuir o volume das chamadas.[0071] To enable "walking" a new solution has been implemented that eliminates the inconvenience of acquiring and configuring joysticks or having to look at a fixed position on the stage in order to push a virtual button. This new solution makes it possible to use the headset that comes with all smartphones sold in the market. These headsets by default feature 3 buttons that are used to answer, increase and decrease call volume.

[0072] Este método de caminhada virtual que é implementado na plataforma NEXXA intercepta as interrupções geradas pelos botões do headset e associa o comando de Vol+ ao deslocamento da câmera para frente (561); o comando de Vol- ao deslocamento da câmera para trás (562) e o botão 'answer', que é o botão de atendimento da chamada, é associado ao comando ΌΚ' ou 'Enter' dependendo do contexto do cenário. Para alguns headsets antigos em que existe apenas o botão de atendimento de chamada, este é associado ao movimento de câmera para frente.This virtual walking method that is implemented on the NEXXA platform intercepts the interruptions generated by the headset buttons and associates the Vol + command with the camera shift forward (561); the backward camera shift command (562) and the 'answer' button, which is the call answer button, is associated with the ΌΚ 'or' Enter 'command depending on the context of the scenario. For some older headsets where there is only the call answer button, this is associated with forward camera movement.

[0073] Conforme as câmeras são movimentadas pelo acionamento dos botões do headset, novas renderizações do ambiente virtual são feitas (551), conferindo a sensação de caminhada virtual para o usuário.As cameras are moved by pressing the headset buttons, new renderings of the virtual environment are made (551), giving the user the feeling of virtual walking.

[0074] Estas alterações podem ser percebidas, pois a sequência de imagens geradas pelo método de captura de ambientes virtuais é usada para montar um contêiner 3D com um cenário virtual internamente aplicado. E a esse cenário sao associadas as quatro coordenadas posicionais, enviadas pelo giroscópio do smartphone.[0074] These changes can be noticed as the sequence of images generated by the virtual environment capture method is used to assemble a 3D container with an internally applied virtual scenario. And to this scenario are associated the four positional coordinates, sent by the smartphone gyroscope.

[0075] A imagem é exibida bipartida na tela do smartphone, para gerar o efeito de paralaxe é a do ambiente capturado com a matriz de câmeras, girada e rotacionada conforme o movimento da cabeça, captado pelo giroscópio. No método de navegação descrito acima, a cada 50ms é obtida a matriz de rotação do giroscópio que é transformada em uma representação textual.The image is displayed split on the smartphone screen to generate the parallax effect of the environment captured with the camera matrix, rotated and rotated according to the movement of the head, captured by the gyroscope. In the navigation method described above, every 50ms is obtained the gyro rotation matrix which is transformed into a textual representation.

[0076] Essa sequência de caracteres é enviada para um processo de transformação que devolve uma matriz 4x4, posteriormente convertida em um Quatérnion.[0076] This string is sent to a transformation process that returns a 4x4 matrix, later converted to a Quaternion.

[0077] O Quatérnion define a posição das duas câmeras virtuais que representam o olho humano e resultam o efeito de paralaxe para a obtenção da estereoscopia visual e a sensação de imersão em um ambiente 3D pelo utilizador. Método de interação com objetos tridimensionais dentro de um ambiente de realidade virtual, a partir do uso de figuras pré-definidas [0078] Para permitir a existência de um ambiente de realidade virtual que simulasse a experiência de um laboratório de prática real, se fazia necessário além da navegação pelo ambiente virtual a manipulação de objetos presentes na cena. Para tal utilizou-se, de forma inovadora, um método existente no estado da técnica, que associa imagens estáticas a objetos 3D, popularmente conhecido como Realidade Aumentada.The Quaternion defines the position of the two virtual cameras that represent the human eye and result in the parallax effect to achieve visual stereoscopy and the sensation of immersion in a 3D environment by the user. Method of interaction with three-dimensional objects within a virtual reality environment, using predefined figures [0078] In order to allow the existence of a virtual reality environment that simulated the experience of a real practice laboratory, it was necessary besides navigating through the virtual environment the manipulation of objects present in the scene. For this, we used, in an innovative way, a method existing in the state of the art, which associates still images with 3D objects, popularly known as Augmented Reality.

[0079] Um conjunto de objetos previamente definido é modelado em três dimensões. A cada um destes objetos é associada uma imagem em duas dimensões. A esse grupo de imagens e associações que poderão ser manipulados na cena, chamamos base de objetos interativos, e um dispositivo com câmera, tela e processamento, é utilizado (smartphone, tablet, notebook ou computador).A previously defined set of objects is modeled in three dimensions. Each of these objects is associated with a two-dimensional image. This group of images and associations that can be manipulated in the scene, we call interactive object base, and a device with camera, screen and processing is used (smartphone, tablet, notebook or computer).

[0080] Quando a imagem 2D é apresentada em frente à câmera, um reconhecimento do padrão é feito, e objeto 3D associado é exibido na tela. Conforme a imagem é manipulada em frente, a câmera do dispositivo reconhece sua distância e o ângulo e aplica ao objeto 3D as transformações equivalentes, transmitindo a sensação de manipulação.[0080] When the 2D image is displayed in front of the camera, a pattern recognition is made, and associated 3D object is displayed on the screen. As the image is manipulated forward, the device camera recognizes its distance and angle and applies the equivalent transformations to the 3D object, conveying the sensation of manipulation.

[0081] Quando o usuário da plataforma digital de material didático opta por entrar em um conteúdo interativo (460) é feita a carga dos dados do cenário e dos objetos (470) e a câmera do dispositivo (240) é inicializada (601). Após a captura dos ângulos iniciais do dispositivo (602), dados dos sensores (603) e a renderização inicial da cena (604), o quatérnion de posicionamento no cenário virtual é monitorado para checar se existe naquele raio visual uma interação com algum objeto (610). Caso exista, é exibida uma guia de orientação visual para posicionamento e encaixe do marcador nas mãos do usuário com a posição correta na cena virtual (611). No momento em que ocorre a sobreposição da imagem do marcador real capturada pela câmera do smartphone com a guia de orientação no ambiente virtual (620), é realizada uma busca (621) que compara a imagem capturada pela câmera com algum marcador previamente cadastrado na base de objetos interativos e o objeto 3D correspondente é carregado (622) e renderizado dentro da cena (623). A partir deste momento o quatérnion com posição e ângulo do objeto 3D é associado à posição e ângulo da imagem capturada pela câmera e se a posição da imagem é alterada (630) a posição do objeto 3D na cena é atualizada (631).When the user of the digital learning platform chooses to enter interactive content (460) the scenery and object data (470) is loaded and the device camera (240) is initialized (601). After capturing the initial angles of the device (602), sensor data (603) and the initial rendering of the scene (604), the positioning quaternion in the virtual scene is monitored to check whether there is an interaction with any object in that visual ray ( 610). If so, a visual guidance guide for positioning and placing the marker in the user's hands with the correct position in the virtual scene (611) is displayed. When the actual marker image captured by the smartphone camera with the orientation guide in the virtual environment (620) overlaps, a search (621) compares the image captured by the camera with a marker previously registered in the base. interactive objects and the corresponding 3D object is loaded (622) and rendered within the scene (623). From this moment on the quaternion with position and angle of the 3D object is associated with the position and angle of the image captured by the camera and if the position of the image is changed (630) the position of the 3D object in the scene is updated (631).

[0082] Além disso, a cada 50 milissegundos é verificado se a imagem capturada pela câmera foi trocada (640) . Caso isso ocorra, o processo de busca (621), carga (622) e exibição do objeto 3D (623) é repetida com o novo objeto, o que dá ao usuário a ilusão de que está trocando o objeto manipulado em sua mão.In addition, every 50 milliseconds is checked if the image captured by the camera has been changed (640). If this occurs, the process of searching (621), loading (622), and displaying the 3D object (623) is repeated with the new object, giving the user the illusion that they are exchanging the manipulated object in their hand.

Exibição de painéis de status retráteis com realce em opções de uma lista em um ambiente virtual [0083] Para que o usuário possa visualizar detalhes de seu progresso nas atividades desenvolvidas no ambiente virtual é necessária a exibição de painéis informativos, que não podem atrapalhar a visualização de elementos que podem estar virtualmente em qualquer posição. Como solução para esse problema, foi desenvolvido um método que exibe um painel retrátil, sempre que um determinado gesto é feito pelo usuário com a cabeça.Displaying Retractable Status Panels with Highlighting from List Options in a Virtual Environment In order for the user to view details of their progress in activities performed in the virtual environment, it is necessary to display informational panels, which cannot disrupt the visualization. of elements that can be in virtually any position. As a solution to this problem, a method has been developed that displays a retractable panel whenever a particular gesture is made by the user with the head.

[0084] Assim que é feita a entrada no ambiente virtual (701) são registradas as coordenadas posicionais através do giroscópio do smartphone que integra o dispositivo de Realidade Virtual. Quando o usuário gira a cabeça, é percebida a alteração no ângulo do dispositivo (710) . Caso a alteração tenha se dado em torno do eixo Y (711) é verificado se foi em um intervalo entre 20° a 30° em módulo (pode ser positivo ou negativo) (712) . Caso positivo, verifica-se se a posição permanece neste intervalo por pelo menos 2 segundos (713), caso isso aconteça, e não exista ainda um painel retrátil em exibição (714) este é exibido (715), caso contrário o que estava em exibição é recolhido (716) .Once entered into the virtual environment (701) positional coordinates are recorded via the smartphone gyroscope that integrates the Virtual Reality device. When the user turns the head, the change in device angle (710) is noticed. If the change has occurred around the Y axis (711), it is checked whether it was in the range of 20 ° to 30 ° in modulus (can be positive or negative) (712). If so, check to see if the position remains in this range for at least 2 seconds (713), if this happens, and there is not yet a retractable panel displayed (714) it is displayed (715), otherwise what was in display is collapsed (716).

[0085] Quando um painel retrátil é exibido (715) o conteúdo vinculado é carregado para que as informações pertinentes apareçam para o usuário (720). Caso nestas informações exista uma lista de opçoes vinculada, essa lista é exibida (730) .When a retractable panel is displayed (715) the linked content is loaded so that pertinent information appears to the user (720). If there is a linked list of options in this information, this list is displayed (730).

[0086] A partir do momento em que um objeto 3D ou um painel com informações em uma lista é revelado no ambiente virtual, uma sequência de uma ou mais consignas relativas a ele e à sua interação com o ambiente é exibida. Estas consignas podem ser atendidas por meio da escolha de uma opção dentre uma lista que é exibida diretamente no ambiente virtual ou pela execução de outras atividades. Para escolher uma opção dentre uma lista, foi desenvolvido um método que afere continuamente o ângulo de deslocamento da cabeça do usuário em torno do eixo X.From the moment a 3D object or panel with information in a list is revealed in the virtual environment, a sequence of one or more slates relating to it and its interaction with the environment is displayed. These assignments can be met by choosing an option from a list that is displayed directly in the virtual environment or by performing other activities. To choose an option from a list, a method has been developed that continuously measures the angle of travel of the user's head around the X axis.

[0087] Caso seja detectada uma rotação da cabeça no eixo X (740), o ângulo deste movimento é analisado. Uma faixa de 60° é dividida em quatro trechos de 15° que correspondem às opções disponíveis na lista. Caso a cabeça esteja na faixa 1, a primeira opção é realçada graficamente (751) e assim por diante até a faixa 4 (754) .If an X-axis head rotation (740) is detected, the angle of this movement is analyzed. A 60 ° range is divided into four 15 ° stretches that correspond to the options available in the list. If the head is in range 1, the first option is highlighted graphically (751) and so on to range 4 (754).

[0088] Após o realce destacar uma opção de resposta, um outro método fica encarregado de enviar o comando para confirmação da escolha da resposta.After highlighting highlights an answer option, another method is in charge of sending the command to confirm the choice of answer.

[0089] Por fim, é feita a atualização da posição das câmeras virtuais (760), renderização do ambiente virtual (771) e renderização dos painéis flutuantes de sinalização (772) e o método continua operando até que seja interrompido pelo acionamento do botão sair (780) . Método de captura de comandos que dispensa acionamento elétrico: [0090] Para a entrada de comandos de ação dentro do ambiente de Realidade Virtual, enquanto o usuário está com o campo de visão totalmente ocupado, o Nexxa apresenta duas alternativas A primeira alternativa, consiste em percutir qualquer lateral do óculos de Realidade Virtual, geralmente com o impacto da ponta do dedo. A onda sonora causada pela percussão na estrutura oca é capturada pelo microfone integrado ao smartphone (821) . A detecção de um comando é dada pela análise constante dos 'Τ' últimos picos de amplitude (824), que são descontados de um patamar mediano (823), previamente analisado (822), que evita falsos positivos após um momento de silêncio. Quando são detectados (827) dois picos de amplitude com valor três vezes maior que o patamar mediano (825), em um intervalo 't' (826), é disparado um comando equivalente ao de um acionador (828).Finally, the position of the virtual cameras (760), rendering of the virtual environment (771) and rendering of the floating signage panels (772) are updated and the method continues to operate until it is interrupted by pressing the exit button. (780). Electrically triggered command capture method: [0090] For entering action commands within the Virtual Reality environment, while the user is fully in the field of view, Nexxa presents two alternatives. strike any side of the Virtual Reality glasses, usually with the impact of your fingertip. The sound wave caused by percussion in the hollow structure is captured by the smartphone's integrated microphone (821). Detection of a command is given by constant analysis of the 'Τ' last amplitude peaks (824), which are discounted from a previously analyzed median threshold (823), which avoids false positives after a moment of silence. When two amplitude peaks with a value three times greater than the median threshold (825) are detected (827) at a 't' interval (826), a command equivalent to that of a trigger (828) is triggered.

[0091] A segunda possibilidade é a detecção de um sinal proveniente do conector P2, utilizado para a conexão de headphones/headsets. Um clique no botão 'answer' do headset é recebido pelo hardware do smartphone (820) e enviado como uma interrupção de entrada e sarda para plataforma que interpreta como um sinal de acionamento (828), o comando de um botão virtual.The second possibility is the detection of a signal from the P2 connector used for headphones / headsets connection. A click on the headset 'answer' button is received by the smartphone hardware (820) and sent as a platform input and freckle that interprets as a trigger signal (828) the command of a virtual button.

[0092] Independente de qual o método utilizado para o recebimento do comando de seleção pela plataforma, o próximo passo é a busca por um feedback cadastrado para a ação executada (829). Caso exista um feedback cadastrado (830), é verificado se é da natureza de uma atividade associada (840). Caso seja, gera um gatilho de execução de atividade, descrito por outro método a seguir. Caso contrário a mensagem cadastrada como feedback é enviada para execução em um painel flutuante (841).Regardless of which method is used to receive the select command from the platform, the next step is to search for feedback recorded for the action performed (829). If there is a registered feedback (830), it is checked if it is of the nature of an associated activity (840). If so, it generates an activity execution trigger, described by another method below. Otherwise the message registered as feedback is sent for execution in a floating panel (841).

Gatilho para a execução de uma atividade em um ambiente virtual [0093] Uma atividade experimental necessita ser executada em espaço delimitado no ambiente virtual, da mesma forma que para segurar uma maçaneta é necessário estar próximo a ela.Trigger for performing an activity in a virtual environment An experimental activity needs to be performed in a confined space in the virtual environment, just as to hold a door handle close to it.

[0094] Um problema existente é o de determinar o momento e local em que será executada uma ação no ambiente virtual.[0094] An existing problem is determining when and where an action will be performed in the virtual environment.

[0095] No presente método quando o usuário movimenta sua cabeça, as coordenadas deste movimento são comparadas com os trechos das previamente definidas no espaço virtual (910). Caso exista casamento entre estas coordenadas da posição da câmera do usuário com as de um evento previamente definido, ocorre um gatilho e é iniciada uma atividade, proporcionando uma experiência para o usuário. Um painel flutuante é exibido, com as informações de como realizar essa interação, por exemplo, quais marcadores podem ser utilizados, ou a descrição de uma animação que será exibida (911). 0 evento interativo poderá ser a execução de um video 360°, a exibição de uma dica visual, ou a manipulação de um objeto. Caso a exibição use um marcador (920) o método de interação será acionado. Caso o conteúdo seja um video 360° (921), este será carregado e adequado à cena (922) . No caso da exibição de uma dica visual (930) o usuário poderá alternar seus marcadores, de forma que ele corresponda ao indicado na dica visual.[0095] In the present method when the user moves his head, the coordinates of this movement are compared with those previously defined in virtual space (910). If these user camera position coordinates match those of a previously defined event, a trigger occurs and an activity is initiated, providing an experience for the user. A floating panel is displayed, with information on how to perform this interaction, for example, which markers can be used, or the description of an animation to display (911). The interactive event could be playing a 360 ° video, displaying a visual hint, or manipulating an object. If the display uses a marker (920) then the interaction method will be triggered. If the content is a 360 ° video (921), it will load and fit the scene (922). In case of displaying a visual hint (930) the user may alternate their markers so that it corresponds to that indicated in the visual hint.

[0096] Quando o marcador físico ou digital na mão do usuário é alinhado no campo de visão da realidade virtual com a dica visual, um mecanismo existente no estado da técnica (Vuforia SDK) faz o reconhecimento do padrão visual. Consequentemente um evento aninhado é disparado, como a exibição de um segundo video ou a associação de um objeto na realidade virtual com o objeto na mão do usuário.When the physical or digital marker in the user's hand is aligned in the field of vision of virtual reality with the visual hint, a state-of-the-art mechanism (Vuforia SDK) recognizes the visual pattern. Consequently a nested event is triggered, such as displaying a second video or associating an object in virtual reality with the object in the user's hand.

No momento em que o objeto é associado ao marcador físico ou digital na mão do usuário a dica visual some do ambiente e apenas o objeto virtual é exibido.The moment the object is associated with the physical or digital marker in the user's hand the visual cue disappears from the environment and only the virtual object is displayed.

[0097] Será facilmente compreendido por aqueles versados na técnica que modificações podem ser realizadas na invenção sem com isso se afastar dos conceitos expostos na descrição precedente. Essas modificações devem ser consideradas como incluídas dentro do escopo da invenção. Conseqüentemente, as concretizações particulares descritas em detalhe anteriormente são somente ilustrativas e não limitativas quanto ao escopo da invenção, ao qual deve ser dada a plena extensão das reivindicações em anexo e de todos e quaisquer equivalentes das mesmas.It will be readily understood by those skilled in the art that modifications may be made to the invention without departing from the concepts set forth in the preceding description. Such modifications should be considered to be included within the scope of the invention. Accordingly, the particular embodiments described in detail above are illustrative only and not limitative of the scope of the invention, which should be given the full extent of the appended claims and any and all equivalents thereof.

REIVINDICAÇÕES

Claims (15)

1. Método (300) para criar ambientes virtuais a partir de cenários reais, o método é CARACTERIZADO pelo fato de que compreende: capturar (310) uma sequência de fotografias panorâmicas do ambiente por uma câmera 360 graus; agrupar (320) as fotografias em uma sequência lógica em uma plataforma de edição; encaixar (330) as fotografias de forma a serem exibidas de forma continua nas três dimensões, resultando em um modelo tridimensional digital do ambiente original (340); aplicar (350) texturas, cores, transparências e reflexão a partir dos pontos de iluminação existentes e dos pontos de vista pelos quais o ambiente será visualizado, de modo a calcular as perspectivas, sombras e luz dos objetos; obter (360) o cenário final.Method (300) for creating virtual environments from real scenarios, the method is characterized by the fact that it comprises: capturing (310) a sequence of panoramic photographs of the environment by a 360 degree camera; group (320) the photographs in a logical sequence on an editing platform; fitting (330) the photographs so that they are continuously displayed in the three dimensions, resulting in a three-dimensional digital model of the original environment (340); apply (350) textures, colors, transparencies and reflection from existing lighting points and the viewpoints through which the environment will be viewed in order to calculate the perspectives, shadows and light of objects; get (360) the final scenario. 2. Método, de acordo com a reivindicação 1, CARACTERIZADO pelo fato de que para criar um ambiente virtual que seja próximo da realidade, são usadas imagens e texturas de alta definição, lâmpadas virtuais, sombras e modelos com alta quantidade de polígonos.Method according to claim 1, characterized in that to create a virtual environment that is close to reality, high definition images and textures, virtual lamps, shadows and high polygon models are used. 3. Método (400) de navegação visual para uso em uma plataforma didática, CARACTERIZADO pelo fato de que compreende: acessar (410) a plataforma de material didático pelo usuário; informar (415) número de matricula; exibir (420) conteúdos das disciplinas associadas à sua matrícula; efetuar (430) leitura do conteúdo; executar (440) página com conteúdo interativo; exibir (450) orientações e requisitos para usar a realidade virtual; prosseguir (460) com a realidade virtual; carregar (470) dados do cenário (RV) e dos objetos 3D interativos e seus marcadores.3. Visual navigation method (400) for use on a didactic platform, FEATURED by the fact that it comprises: accessing (410) the didactic material platform by the user; enter (415) registration number; display (420) content of subjects associated with their enrollment; perform (430) content reading; execute (440) page with interactive content; display (450) guidelines and requirements for using virtual reality; proceed (460) with virtual reality; load (470) scenery (RV) data and interactive 3D objects and their markers. 4. Método (500) para carregar (470) dados do cenário (RV) a partir de uma plataforma didática, CARACTERIZADO pelo fato de que compreende: inicializar (510) giroscópio e o magnetômetro (bússola) do dispositivo; capturar (520) os ângulos iniciais do dispositivo e dos dados de partida dos sensores para setar o posicionamento inicial; realizar (530) a renderização inicial do ambiente virtual; captar (540) uma mudança no ângulo do dispositivo; atualizar (541) a posição das câmeras virtuais; renderizar (551) novamente o cenário.4. Method (500) for loading (470) scenery (RV) data from a didactic platform, characterized by the fact that it comprises: initializing (510) gyroscope and the device's magnetometer (compass); capture (520) the initial angles of the device and the starting data of the sensors to set the initial positioning; perform (530) the initial rendering of the virtual environment; capturing (540) a change in device angle; update (541) the position of the virtual cameras; render (551) the scenario again. 5. Método (500), de acordo com a reivindicação 4, CARACTERI ZADO pelo fato de que atualizar (541) a posição das câmeras virtuais compreende adicionalmente: movimentar a câmera para frente (561) usando o botão de Vol+; movimentar a câmera para trás (562) usando o botão de Vol-; pressionar o botão 'answer' para registrar a imagem.Method (500) according to claim 4, characterized in that updating (541) the position of the virtual cameras further comprises: moving the camera forward (561) using the Vol + button; move the camera backward (562) using the Vol- button; Press the 'answer' button to register the image. 6. Método (500), de acordo com a reivindicação 4, CARACTERI ZADO pelo fato de que caso na etapa (540) o ângulo do dispositivo não tenha alterado, o método compreende adicionalmente: controlar (550) se o headphone foi pressionado; em caso negativo: renderizar (551) o ambiente virtual; renderizar (552) os painéis flutuantes de sinalização; em caso afirmativo, retornar para a etapa (541) .Method (500) according to Claim 4, characterized in that if in step (540) the angle of the device has not changed, the method further comprises: controlling (550) whether the headphone has been pressed; if not: render (551) the virtual environment; render (552) the floating signage panels; if so, return to step (541). 7. Método (600) para carregar (470) dados dos objetos 3D interativos e seus marcadores, CARACTERIZADO pelo fato de que compreende: inicializar (601) a câmera; capturar (602) os ângulos iniciais do dispositivo e dados dos sensores; renderizar (604) inicialmente a cena, de modo a monitorar o quatérnion de posicionamento no cenário virtual; verificar (610) a existência de interação no raio de visão da cena virtual; exibir (611) uma guia de orientação visual para posicionamento e encaixe do marcador nas mãos do usuário; detectar (620) marcador usando a câmera; buscar (621) associação da imagem capturada com base nos objetos interativos, ao comparar a imagem capturada pela câmera com um marcador previamente cadastrado na base de objetos interativos; carregar (622) o objeto 3D correspondente; renderizar (623) o objeto 3D dentro da cena; verificar (630) se o marcador mudou de ângulo ou posição; atualizar (631) posição do objeto 3D para obter o objeto 3D dentro da cena.Method (600) for loading (470) data from interactive 3D objects and their markers, characterized by the fact that it comprises: initializing (601) the camera; capture (602) initial device angles and sensor data; initially rendering (604) the scene to monitor the placement quaternion in the virtual scene; verify (610) the existence of interaction in the virtual scene's range of vision; display (611) a visual orientation guide for positioning and fitting the marker in the user's hands; detect (620) marker using camera; seek (621) association of the captured image based on interactive objects, when comparing the image captured by the camera with a marker previously registered in the interactive objects base; load (622) the corresponding 3D object; render (623) the 3D object within the scene; check (630) if the marker has changed angle or position; update (631) position of the 3D object to get the 3D object within the scene. 8. Método, de acordo com a reivindicação 7, CARACTERIZADO pelo fato de que caso na etapa (630) o marcador não tenha alterado o ângulo ou a posição, o método compreende adicionalmente: verificar (640) se o marcador exibido é diferente; em caso afirmativo, retornar para a etapa (621); em caso negativo, pressionar (501) o botão de sair.A method according to claim 7, characterized in that if in step (630) the marker did not change the angle or position, the method further comprises: verifying (640) whether the displayed marker is different; if so, return to step (621); if not, press (501) the exit button. 9. Método (700) para exibição de painéis de status retráteis com realce em opções de uma lista em um ambiente virtual, CARACTERIZADO pelo fato de que compreende: entrar (701) no ambiente virtual e registrar as coordenadas posicionais através do giroscópio do smartphone; verificar (710) mudança no ângulo do dispositivo; verificar (711) alteração em torno do eixo Y; verificar (712) ângulo entre um intervalo entre 20° a 30° em módulo; verificar (713) se a posição permanece neste intervalo por pelo menos 2 segundos; verificar (714) se existe painel retrátil em exibição; recolher (716) painel retrátil; verificar (725) se existe lista de opções vinculada; exibir (730) lista; verificar (740) rotação em torno do eixo X; destacar (751, 752, 753, 754) pelo menos uma opção desejada.9. Method (700) for displaying retractable status panels highlighting list options in a virtual environment, characterized by the fact that it comprises: entering (701) the virtual environment and recording positional coordinates via the smartphone's gyro; check (710) change in device angle; check (711) change around Y axis; checking (712) angle between a range of 20 ° to 30 ° in modulus; check (713) whether the position remains within this range for at least 2 seconds; check (714) for retractable display panel; retract (716) retractable panel; check (725) for linked picklist; display (730) list; check (740) rotation about X axis; highlight (751, 752, 753, 754) at least one desired option. 10. Método (700), de acordo com a reivindicação 9, CARACTERI ZADO pelo fato de que caso na etapa (710) o ângulo do dispositivo nao tenha sido alterado, o método compreende adicionalmente: renderizar (771) o ambiente virtual; renderizar (772) os painéis flutuantes de sinalização; pressionar (501) o botão para sair.Method (700) according to claim 9, characterized in that if in step (710) the angle of the device has not been altered, the method further comprises: rendering (771) the virtual environment; render (772) floating signage panels; press (501) the button to exit. 11. Método (700), de acordo com a reivindicação 9, CARACTERIZADO pelo fato de que caso na etapa (714) não haja painel retrátil em exibição, o método compreende adicionalmente: exibir (715) painel retrátil; carregar (720) conteúdo correspondente; repetir as etapas (725) a (754) .Method (700) according to Claim 9, characterized in that if in step (714) there is no retractable panel on display, the method further comprises: displaying (715) retractable panel; upload (720) matching content; repeat steps 725 through 754. 12. Método (800, 900) para capturar comandos que dispensa acionamento elétrico, CARACTERIZADO pelo fato de que compreende: pressionar (820) o botão 'answer'; capturar (821) áudio de microfone no intervalo 'T' ; analisar (822) patamar mediano de áudio no intervalo 'Τ'; iniciar (823) desconto do patamar mediano da curva de áudio; analisar (824) amplitude da curva de áudio descontada em 'Τ'; detectar (825) amplitude com 3x o patamar mediano em 'Τ'; analisar (826) áudio no intervalo 't'; detectar (827) amplitude com 3x o patamar mediano em 'Τ'; enviar (828) comando de seleção para plataforma; buscar (829) se há feedback para a ação a ser executada; verificar (830) se existe feedback cadastrado; verificar (840) se o feedback é uma atividade associada; apontar (910) a câmera para a posição certa; exibir (911) painel flutuante com informações da interação; interagir (920) usando marcador; inicializar (601) a câmera; capturar os ângulos iniciais do dispositivo (602), dados dos sensores (603); renderizar (604) inicialmente a cena; monitorar o quatérnion de posicionamento no cenário virtual; verificar (610) a existência de interação no raio de visão da cena virtual; exibir (611) uma guia de orientação visual para posicionamento e encaixe do marcador nas mãos do usuário; detectar (620) marcador usando a câmera; buscar (621) associação da imagem capturada com base nos objetos interativos, ao comparar a imagem capturada pela câmera com um marcador previamente cadastrado na base de objetos interativos; carregar (622) o objeto 3D correspondente; renderizar (623) o objeto 3D dentro da cena; verificar (630) se o ângulo ou a posição do marcador foi alterada; atualizar (631) posição do objeto 3D para obter o objeto 3D dentro da cena.12. Method (800, 900) for capturing electrically triggered commands, FEATURED by the fact that it comprises: pressing (820) the 'answer' button; capture (821) microphone audio in 'T' range; analyze (822) median audio threshold in the range 'Τ'; initiate (823) discount from median level of audio curve; analyze (824) amplitude of the discounted audio curve in 'Τ'; detect (825) amplitude with 3x the median plateau at 'Τ'; analyze (826) audio at 't' interval; detect (827) amplitude with 3x the median plateau at 'Τ'; send (828) platform select command; seek (829) if there is feedback for the action to be taken; check (830) for registered feedback; check (840) if feedback is an associated activity; point (910) the camera to the right position; display (911) floating panel with interaction information; interact (920) using marker; initialize (601) the camera; capture initial angles of device (602), sensor data (603); initially render (604) the scene; monitor the positioning quaternion in the virtual scenario; verify (610) the existence of interaction in the virtual scene's range of vision; display (611) a visual orientation guide for positioning and fitting the marker in the user's hands; detect (620) marker using camera; seek (621) association of the captured image based on interactive objects, when comparing the image captured by the camera with a marker previously registered in the interactive objects base; load (622) the corresponding 3D object; render (623) the 3D object within the scene; check (630) whether the angle or position of the marker has changed; update (631) position of the 3D object to get the 3D object within the scene. 13. Método (800, 900), de acordo com a reivindicação 12, CARACTERIZADO pelo fato de que caso as etapas (825, 827) não detectem a amplitude com 3x patamar mediano de 'Τ', o método retorna para a etapa (820) .Method (800, 900) according to claim 12, characterized in that if steps (825, 827) do not detect amplitude with 3x median plateau of 'Τ', the method returns to step (820 ). 14. Método (800, 900), de acordo com a reivindicação 12, CARACTERIZADO pelo fato de que caso na etapa (840), o feedback não seja considerado uma atividade associada, o método compreende: enviar (841) a mensagem cadastrada para o painel flutuante; atualizar (760) posição das câmeras virtuais; renderizar (771) o ambiente virtual; renderizar (772) os painéis flutuantes de sinalização.Method (800, 900) according to claim 12, characterized in that if in step (840), feedback is not considered an associated activity, the method comprises: sending (841) the registered message to the floating panel; update (760) position of virtual cameras; render (771) the virtual environment; render (772) the floating signage panels. 15. Método (800, 900), de acordo com a reivindicação 12, CARACTERI ZADO pelo fato de que caso a etapa (920) não use marcador, o método compreende: verificar se a interação é um video de 360°; em caso afirmativo: reproduzir (922) video de 360° na cena virtual; exibir (930) orientação visual; atualizar (760) posição das câmeras virtuais; renderizar (771) o ambiente virtual; renderizar (772) os painéis flutuantes de sinalização em caso negativo: exibir (930) orientação visual; atualizar (760) posição das câmeras virtuais; renderizar (771) o ambiente virtual; renderizar (772) os painéis flutuantes de sinalização.Method (800, 900) according to Claim 12, characterized in that if step (920) does not use a marker, the method comprises: verifying that the interaction is a 360 ° video; if so: play (922) 360 ° video in the virtual scene; display (930) visual orientation; update (760) position of virtual cameras; render (771) the virtual environment; render (772) the floating signage panels if not: display (930) visual orientation; update (760) position of virtual cameras; render (771) the virtual environment; render (772) the floating signage panels.
BR102015030766A 2015-12-09 2015-12-09 associated methods in virtual reality and augmented reality for building low cost simulators, experimental activities or training BR102015030766A2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
BR102015030766A BR102015030766A2 (en) 2015-12-09 2015-12-09 associated methods in virtual reality and augmented reality for building low cost simulators, experimental activities or training

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
BR102015030766A BR102015030766A2 (en) 2015-12-09 2015-12-09 associated methods in virtual reality and augmented reality for building low cost simulators, experimental activities or training

Publications (1)

Publication Number Publication Date
BR102015030766A2 true BR102015030766A2 (en) 2016-07-19

Family

ID=56406683

Family Applications (1)

Application Number Title Priority Date Filing Date
BR102015030766A BR102015030766A2 (en) 2015-12-09 2015-12-09 associated methods in virtual reality and augmented reality for building low cost simulators, experimental activities or training

Country Status (1)

Country Link
BR (1) BR102015030766A2 (en)

Similar Documents

Publication Publication Date Title
Linowes Unity virtual reality projects
WO2022022028A1 (en) Virtual object control method and apparatus, and device and computer-readable storage medium
US11887246B2 (en) Generating ground truth datasets for virtual reality experiences
US9829996B2 (en) Operations in a three dimensional display system
CN107209565B (en) Method and system for displaying fixed-size augmented reality objects
CN114502921A (en) Spatial instructions and guidance in mixed reality
Sicaru et al. A SURVEY ON AUGMENTED REALITY.
US12056273B2 (en) Determining angular acceleration
Siddiqui et al. Virtual tourism and digital heritage: an analysis of VR/AR technologies and applications
CN117280711A (en) Head related transfer function
Gupta et al. A survey on tracking techniques in augmented reality based application
McMenemy et al. A hitchhiker's guide to virtual reality
KR20240009974A (en) Virtually guided fitness routines for augmented reality experiences
CN116868151A (en) Laser radar simultaneous localization and mapping
BR102015030766A2 (en) associated methods in virtual reality and augmented reality for building low cost simulators, experimental activities or training
Jadeja et al. New era of teaching learning: 3D marker based augmented reality
JP6680886B2 (en) Method and apparatus for displaying multimedia information
Huang Virtual reality/augmented reality technology: the next chapter of human-computer interaction
KR20150014127A (en) Apparatus for simulating surgery
US20240050831A1 (en) Instructor avatars for augmented reality experiences
US20240079031A1 (en) Authoring tools for creating interactive ar experiences
Reddy et al. Augmented reality (AR) in education-A New Prospect
Viveiros Augmented reality and its aspects: A case study for heating systems
Shi Improving AR tracking and registration with markerless technology
Tummalapally Augment the Multi-Modal Interaction Capabilities of HoloLens Through Networked Sensory Devices

Legal Events

Date Code Title Description
B03B Publication of an application: publication anticipated [chapter 3.2 patent gazette]
B08F Application dismissed because of non-payment of annual fees [chapter 8.6 patent gazette]

Free format text: REFERENTE A 6A ANUIDADE.

B08K Patent lapsed as no evidence of payment of the annual fee has been furnished to inpi [chapter 8.11 patent gazette]

Free format text: EM VIRTUDE DO ARQUIVAMENTO PUBLICADO NA RPI 2648 DE 05-10-2021 E CONSIDERANDO AUSENCIA DE MANIFESTACAO DENTRO DOS PRAZOS LEGAIS, INFORMO QUE CABE SER MANTIDO O ARQUIVAMENTO DO PEDIDO DE PATENTE, CONFORME O DISPOSTO NO ARTIGO 12, DA RESOLUCAO 113/2013.