BR112019009614A2 - sistema para medir integralmente parâmetros clínicos da função visual - Google Patents

sistema para medir integralmente parâmetros clínicos da função visual Download PDF

Info

Publication number
BR112019009614A2
BR112019009614A2 BR112019009614A BR112019009614A BR112019009614A2 BR 112019009614 A2 BR112019009614 A2 BR 112019009614A2 BR 112019009614 A BR112019009614 A BR 112019009614A BR 112019009614 A BR112019009614 A BR 112019009614A BR 112019009614 A2 BR112019009614 A2 BR 112019009614A2
Authority
BR
Brazil
Prior art keywords
user
display unit
visual
interface
clinical parameters
Prior art date
Application number
BR112019009614A
Other languages
English (en)
Other versions
BR112019009614A8 (pt
Inventor
García Ramos Eva
Original Assignee
E Health Technical Solutions S L
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by E Health Technical Solutions S L filed Critical E Health Technical Solutions S L
Publication of BR112019009614A2 publication Critical patent/BR112019009614A2/pt
Publication of BR112019009614A8 publication Critical patent/BR112019009614A8/pt

Links

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/18Arrangement of plural eye-testing or -examining apparatus
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/0016Operational features thereof
    • A61B3/0025Operational features thereof characterised by electronic signal processing, e.g. eye models
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/0016Operational features thereof
    • A61B3/0033Operational features thereof characterised by user input arrangements
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/0016Operational features thereof
    • A61B3/0041Operational features thereof characterised by display arrangements
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/0016Operational features thereof
    • A61B3/0041Operational features thereof characterised by display arrangements
    • A61B3/005Constructional features of the display
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/02Subjective types, i.e. testing apparatus requiring the active assistance of the patient
    • A61B3/024Subjective types, i.e. testing apparatus requiring the active assistance of the patient for determining the visual field, e.g. perimeter types
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/02Subjective types, i.e. testing apparatus requiring the active assistance of the patient
    • A61B3/028Subjective types, i.e. testing apparatus requiring the active assistance of the patient for testing visual acuity; for determination of refraction, e.g. phoropters
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/02Subjective types, i.e. testing apparatus requiring the active assistance of the patient
    • A61B3/06Subjective types, i.e. testing apparatus requiring the active assistance of the patient for testing light sensitivity, e.g. adaptation; for testing colour vision
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/02Subjective types, i.e. testing apparatus requiring the active assistance of the patient
    • A61B3/06Subjective types, i.e. testing apparatus requiring the active assistance of the patient for testing light sensitivity, e.g. adaptation; for testing colour vision
    • A61B3/066Subjective types, i.e. testing apparatus requiring the active assistance of the patient for testing light sensitivity, e.g. adaptation; for testing colour vision for testing colour vision
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/02Subjective types, i.e. testing apparatus requiring the active assistance of the patient
    • A61B3/08Subjective types, i.e. testing apparatus requiring the active assistance of the patient for testing binocular or stereoscopic vision, e.g. strabismus
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/02Subjective types, i.e. testing apparatus requiring the active assistance of the patient
    • A61B3/09Subjective types, i.e. testing apparatus requiring the active assistance of the patient for testing accommodation
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • A61B3/113Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for determining or recording eye movement
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/50Supports for surgical instruments, e.g. articulated arms
    • A61B2090/502Headgear, e.g. helmet, spectacles

Abstract

sistema para medir integralmente os parâmetros clínicos da função visual, incluindo uma unidade de exibição (20) para representar uma cena com um objeto 3d com características variáveis, como posição virtual e volume virtual do objeto 3d dentro da cena; sensores de movimento (60) para detectar a posição da cabeça do usuário e a distância da unidade de exibição (20); sensores de rastreamento (10) para detectar a posição de pupilas do usuário e distância pupilar; uma interface (30) para a interação do usuário na cena; meios de processamento (42,44) para analisar a resposta do usuário com base nos dados provenientes de sensores (60,10) e da interface (30), com as variações características do objeto 3d; e com base na estimativa de uma pluralidade de parâmetros clínicos da função visual relacionados à binocularidade, acomodação, motilidade ocular e percepção visual.

Description

“SISTEMA PARA MEDIR INTEGRALMENTE PARÂMETROS CLÍNICOS DA FUNÇÃO VISUAL”
Campo Técnico da Invenção [0001] A presente invenção pertence à área de sistemas e métodos para medir parâmetros clínicos da função visual. Mais especificamente, refere-se às técnicas que usam realidade virtual imersivamente para medir esse tipo de parâmetros.
Estado da Técnica [0002] Atualmente, a medição deste tipo de parâmetros clínicos da função visual requer um especialista clínico com uma sessão em que o paciente é testado através de vários testes e optótipos. É comum que o componente pessoal e manual do processo de medição forneça resultados subjetivos, dificilmente reprodutíveis e meramente qualitativos.
[0003] Por outro lado, as medições são realizadas de forma independente com base na função visual a ser testada. Isso faz com que os resultados às vezes não sejam válidos, já que a influência de outros fatores não é considerada. Por exemplo, sabese que os pacientes geralmente compensam uma anomalia específica ou comprometem sua função visual com o uso integral das outras funções visuais.
[0004] Em suma, atualmente a capacidade de adaptação do paciente não é levada em consideração e, portanto, as ações destinadas a corrigir uma anomalia concreta podem resultar, na prática, em um agravamento global da visão do paciente. Além disso, as medições e testes no paciente são afetadas pela subjetividade do especialista que os realizam, limitando assim significativamente a reprodutibilidade e a consistência dos resultados experimentais obtidos.
Breve Descrição da Invenção
Petição 870190044371, de 10/05/2019, pág. 49/68
2/12 [0005] A presente invenção refere-se a um sistema para medir integralmente os parâmetros das funções oculares, oculomotoras e visuais, preferencialmente em tempo real e para gerar terapia e treinamento para melhoria da função visual.
[0006] Para este propósito, sensores de rastreamento que detectam a posição das pupilas do usuário, uma unidade de exibição de três dimensões (3D) reproduzindo certas cenas para o usuário com objetos 3D com propriedades predeterminadas em relação ao tamanho, forma, cor, velocidade, etc. foram selecionados com base no tipo de teste que deve ser realizado como parte da sessão. Sensores de movimento detectam os movimentos do usuário de modo que a unidade de exibição pode adaptar a cena e fornecer a ela um caráter imersivo.
[0007] O sistema também inclui uma interface com a qual o usuário pode interagir. Em particular, a interface recebe comandos do usuário para interagir com o sistema de exibição. Esses comandos podem ser registrados de muitas maneiras diferentes (por meio de botões de controle, comandos de voz, luvas, etc.).
[0008] O sistema também implementa meios de processamento que gerenciam a unidade de exibição, o sensor e a interface de maneira coordenada. Assim, a resposta do usuário aos estímulos visuais gerados na unidade de exibição é detectada pelo sensor e transmitida aos meios de processamento para medir os parâmetros clínicos.
[0009] Um ponto importante na presente revelação reside na tecnologia baseada na realidade virtual que permite gerar ambientes para interação com o usuário. Em particular, o que se busca é a capacidade de imersão no ambiente virtual. Isto é particularmente interessante para criar condições que são semelhantes às reais para o usuário, e que assim permitem sua reprodução repetidas vezes se desejado. Para esse propósito, é necessário que a unidade de exibição seja
Petição 870190044371, de 10/05/2019, pág. 50/68
3/12 acoplada aos sensores de movimento transportados pelo usuário. Em algumas modalidades, isso pode ser óculos de realidade virtual, em outras, uma tela 3D e óculos polarizados. Em qualquer caso, o acoplamento dos sensores de movimento e da unidade de exibição permite que a imagem 3D seja mostrada adaptada ao movimento ou posição da pessoa, fazendo com que o usuário se sinta em movimento ao longo do ambiente virtual exibido, ou seja, imerso nele de preferência com um campo visual mínimo de 60° de modo a ser capaz de realizar adequadamente a avaliação, terapia e treinamento da função visual. Para alcançar o acima exposto, uma coordenação precisa é importante entre os elementos que participam de uma sessão. Dessa forma, o usuário é primeiramente introduzido com um ambiente de Realidade Virtual em 3D destinado ao usuário a ser imerso nele. No referido ambiente 3D, alguns objetos 3D serão exibidos por meio de “optótipos” que se destinam a atuar como o estímulo sobre o qual o usuário deve focar sua visão e que estão relacionados ao teste a ser realizado.
Breve descrição das figuras [0010] A Figura 1 mostra um diagrama de blocos simplificado, de acordo com uma possível modalidade da invenção.
[0011] As FIGs. 2A, 2B mostram um exemplo de uma medição de um usuário saudável olhando uma cena com um objeto 3D em movimento.
[0012] As FIGs. 3A, 3B mostram um exemplo de uma medição de um usuário que tem uma disfunção que está olhando para uma cena com um objeto 3D em movimento.
[0013] A Figura 4 mostra um diagrama de resumo com as etapas gerais sendo implementadas em uma modalidade.
Petição 870190044371, de 10/05/2019, pág. 51/68
4/12
Descrição detalhada da invenção [0014] Uma modalidade exemplificativa não limitante é explicada em maior detalhe com referência às figuras anteriores.
[0015] A FIG. 1 ilustra um sistema para medição integral dos parâmetros clínicos da função visual em tempo real, incluindo vários componentes. Existe um sensor de rastreamento 10 que é usado para detectar periodicamente a posição das pupilas do usuário. Assim, não apenas a direção muda, mas também a velocidade pode ser medida. Geralmente, o sensor de rastreamento 10 permite medir vários parâmetros com base no teste específico que está sendo realizado na sessão. As FIGs. 2 e 3 ilustram este aspecto da invenção em maior detalhe. Por exemplo, o sensor de rastreamento 10 pode tomar valores para a posição do olho direito e esquerdo, para a posição do objeto que o usuário está olhando (através de ambos os olhos e separadamente), distância olho-sensor, tamanho da pupila, distância interpupilar, velocidade do movimento dos olhos, etc. Geralmente, para realizar a operação de medição, o sensor de rastreamento 10 compreende um par de câmeras destinadas a serem focadas nos olhos do usuário e capturar seus movimentos e posição. Isso requer uma frequência de amostragem que seja alta o suficiente para capturar os movimentos rápidos dos olhos. Ele também deve calcular a posição dentro do ambiente virtual gerado para o qual o usuário está olhando. O sensor de rastreamento 10 é essencial para uma medição optométrica correta. Uma grande quantidade de disfunções é detectada por meio de movimentos anômalos dos olhos contra vários estímulos. Para razões de clareza, as FIGs. 2 e 3 mostram exemplos de como as medições tomadas pelos sensores 10, 60 estão associadas a uma condição visual do usuário, com ou sem uma possível disfunção, respectivamente.
[0016] Uma unidade de exibição 20 com recursos imersivos em 3D reproduz ou projeta cenas do usuário com recursos de profundidade, incluindo objetos 3D com propriedades predeterminadas em relação a tamanho, forma, cor, localização no
Petição 870190044371, de 10/05/2019, pág. 52/68
5/12 cenário, distância do usuário, se está parado ou em movimento, etc. Essas cenas, incluindo objetos 3D, funcionam como optótipos e podem ser selecionadas no sistema de acordo com o tipo de teste a ser realizado, permitindo gerar certos estímulos visuais no usuário. Assim, uma pluralidade de cenas pode ser projetada para o usuário tendo diferentes desafios visuais e estímulos, seja para avaliação, terapia ou treinamento da função visual.
[0017] O sistema também inclui uma interface 30 para a interação do usuário. Particularmente, a interface recebe comandos do usuário para controlar a unidade de exibição 20 e outros elementos do sistema. A interface 30, por sua vez, também pode transmitir instruções para o teste ao usuário. Assim, o sistema pode medir a resposta às ações do usuário (movimento, posição no ambiente 3D, pressionando botões, etc.).
[0018] O sistema também inclui meios de processamento 40, preferivelmente implementados como um servidor 42, e um terminal 44 que compartilha coordenadamente o gerenciamento da unidade de exibição 20, do sensor 10 e do controle da interface 30, de modo que as respostas visuais do usuário podem ser detectadas pelo sensor 10 e transmitidas para o servidor 42 para medição dos parâmetros clínicos da função visual. Além disso, a unidade de exibição 20 permite a adaptação da imagem 3D representada de acordo com o movimento do usuário. A unidade de exibição 20 pode incluir um sistema de dissociação (como óculos polarizados ou similares).
[0019] O teste é iniciado preferencialmente através da interface 3D. Ao visualizar uma cena concreta, os estímulos visuais do usuário que foram detectados pelo sensor 10 em um determinado momento, estão associados aos objetos 3D representados naquele momento na unidade de exibição 20. Essas mudanças na posição das pupilas do usuário são detectadas e combinadas com os movimentos
Petição 870190044371, de 10/05/2019, pág. 53/68
6/12 feitos pela cabeça do usuário que são detectados por meio de um sensor de movimento 60. O acoplamento dos sensores de movimento 60 e da unidade de exibição 20 permite mostrar a imagem 3D a ser adaptada ao movimento ou a posição da pessoa, fazendo com que o usuário se sinta realmente em movimento através do dito ambiente virtual no qual está imerso.
[0020] Os dados são processados e as propriedades dos objetos 3D são associadas aos estímulos gerados detectados pelos sensores 10, 60. Isso permite medir parâmetros clínicos da função visual sob condições reproduzíveis e controláveis. Assim, por meio do processamento adequado dos dados que estão sendo obtidos, o comportamento visual do usuário, o movimento dos olhos, a convergência, etc., podem ser conhecidos. Além disso, os parâmetros clínicos da função visual podem ser comparados a uma faixa esperada, de modo a avaliar se existe algum problema.
[0021] Como foi indicado, em conjunto com a visualização dos objetos 3D na unidade de exibição 20, o sensor de rastreamento 10 rastreia o olhar do usuário no dito ambiente de Realidade Virtual. O sensor de rastreamento 10 registra:
- A posição dos olhos (esquerda e direita).
- Localização para a qual cada olho olha (separadamente).
- Localização na qual o usuário olha usando os dois olhos em combinação no ambiente 3D.
[0022] Também, ao mesmo tempo, instruções podem ser mostradas para orientar os usuários, explicando o que eles devem fazer a cada momento. Essas instruções podem ser por meio de texto ou áudio através de uma interface 30. A referida interface 30 também permite ao usuário interagir com objetos 3D da cena sendo representada pela unidade de exibição 20. A interação com o usuário começa naquele momento e as respostas dadas aos estímulos mostrados, que são as medições, devem ser registradas.
Petição 870190044371, de 10/05/2019, pág. 54/68
7/12 [0023] Essas respostas do usuário podem, por exemplo, entre outras, ser por meio de:
- Movimento do dispositivo (em qualquer direção no espaço).
- Posição do dispositivo dentro do ambiente de Realidade Virtual.
- Pressionamento dos botões do dispositivo.
- Comandos de voz.
[0024] Na situação descrita acima, para as tarefas anteriores, o processo é preferencialmente executado em um terminal de cliente 44, embora estes tenham sido fornecidos (baixados) a partir de um servidor externo 42. Um ambiente distribuído permite reduzir os requisitos técnicos do terminal 44, um controle centralizado dos testes realizados em diferentes usuários, acesso a dados estatísticos, etc. Por exemplo, as operações e cálculos mais pesados podem ser executados no servidor 42 que descarrega a carga de trabalho de processamento a partir do terminal 44. Da mesma forma, as características que podem ser estabelecidas para um teste podem ser definidas a partir do servidor 42:
- O ambiente da Realidade Virtual a ser usado.
- Os objetos 3D e suas características (tamanho, distância, cores, movimento, )
- Quais instruções dar ao usuário.
- Quando capturar informações com o sensor de rastreamento 10.
- Quando capturar informações com a interface do usuário 30.
- Quais dados devem ser registrados e gerados como resultado da tarefa de execução.
[0025] Quanto aos dados a serem registrados, existem dados provenientes dos sensores 10, 60 e também através da interação com o usuário com a interface 30.
[0026] Uma vez terminado todo o tratamento local dos dados, estes são agrupados e
Petição 870190044371, de 10/05/2019, pág. 55/68
8/12 enviados para o servidor 42 para armazenamento e subsequente análise dos mesmos. Assim, estatísticas, novos testes, recomendações, terapias, etc., podem ser realizados.
[0027] Por exemplo, pode-se verificar se os valores obtidos para determinados parâmetros estão dentro dos limites de tolerância de acordo com estudos científicos armazenados no servidor 42. Por outro lado, uma nova cena pode ser projetada como recomendação que atua como terapia ou treinamento para melhorar algumas das funcionalidades para as quais o teste forneceu um resultado pior.
[0028] As FIGs. 2A e 2B ilustram um exemplo em que um usuário interage com o sistema em dois instantes de tempo. Em um instante inicial t=ti, o sistema representa um modelo 3D na unidade de exibição 30 que corresponde a um trem que corre ao longo de uma linha férrea.
[0029] O usuário transporta um sensor de movimento 60 para registar, em ambos os instantes de tempo, os movimentos da cabeça (Xic, yic), (Xfc, Yfc) e a distância Die, Dfc com a unidade de exibição 20. De modo similar, um sensor de rastreamento 10 registra os movimentos pupilares do usuário em ambos os instantes de tempo, fornecendo mais informações sobre a posição de ambas as pupilas. Direita: (xi1,yi1, zi1), (xf1, yf1, zf1); Esquerda: (xi2,yi2, zi2), (xf2, yf2, zf2).
[0030] Por outro lado, a unidade de exibição 20 representa o objeto 3D em duas posições virtuais diferentes (xio, yio, zio), (xfo, yfo, zfo) e com dois volumes diferentes em cada instante de tempo Vio, Vfo. Outras propriedades, como a cor do objeto 3D, podem variar em função do teste a ser realizado na sessão.
[0031] Quando o processamento dos valores acima ocorre, é verificado se os olhos do usuário estão adequadamente coordenados com o movimento do objeto 3D na
Petição 870190044371, de 10/05/2019, pág. 56/68
9/12 cena. O comportamento visual corresponde a um indivíduo saudável.
[0032] As FIGs. 3A e 3B ilustram esquematicamente o caso acima, onde o comportamento visual do usuário não responde adequadamente aos estímulos. Como pode ser visto, na FIG. 3A, o usuário não alinha corretamente o eixo visual de seu olho esquerdo (xi2, yi2, zi2) no objeto de interesse (Vio), revelando uma limitação de sua visão binocular (estrabismo). Neste caso, o ângulo de desvio (Fig. 38) é mantido constante, movendo o objeto de interesse (Vto), indicando uma condição comitante, isto é, tem o mesmo ângulo de desvio em diferentes posições do olhar. Esta informação é fundamental para determinar a gravidade da condição, bem como a do tipo de recomendação da terapia visual, a fim de restabelecer a binocularidade do indivíduo.
[0033] Claramente, a cena escolhida é apenas um exemplo. Outras poderíam ser um aquário com peixes de formas, cores e tamanhos diferentes, que continuam aparecendo e desaparecendo; uma estrada com um carro se aproximando do usuário; buracos com moles saindo aleatoriamente, etc. Nessas cenas, os parâmetros podem ser medidos objetivamente e também todos juntos (sem subestimar uma influência existente entre eles).
[0034] A FIG. 4 ilustra brevemente uma possível sequência de ações durante a operação do sistema para um teste. Em uma primeira etapa, 50 informações pessoais relevantes do usuário são registradas. De preferência, os dados introduzidos são: sexo, idade, hábitos, etc., para os quais a interface 30 pode ser usada. O usuário, por meio do terminal 44, faz um pedido ao servidor 42 como cliente e o aplicativo associado ao tipo de teste selecionada é instalado.
[0035] O usuário se coloca em frente da unidade de exibição 20, as instruções são dadas ao usuário através da interface 30 ou da unidade de exibição 20 de modo a
Petição 870190044371, de 10/05/2019, pág. 57/68
10/12 posicionar o sensor de rastreamento 10 corretamente ou a assentá-lo na posição apropriada em relação à unidade de exibição de acordo com o sensor de movimento 60. Então, na etapa 51, é representada uma cena relacionada com o teste a ser selecionado, com um ou vários objetos 3D cujas propriedades mudam ao longo do tempo ou com a interação do usuário.
[0036] O usuário e a unidade de exibição interagem através da interface 30 na etapa 52. Em geral, o usuário pode receber instruções durante o teste, usando gráficos e áudio. Por exemplo, a interface 30, pode incorporar qualquer elemento para facilitar a interação do usuário com objetos 3D da cena 30 representada na unidade de exibição 20.
[0037] Os sensores 10, 60 detectam os valores na etapa 53 enquanto a cena está sendo reproduzida. Esses dados devem ser enviados com uma latência mínima para o terminal 44.
[0038] O terminal 44 recebe os dados capturados e pré-processa e envia-os para o servidor 42 de modo a obter valores de parâmetros clínicos da função visual na etapa 54.
[0039] Uma vez terminado o teste ou a sessão com testes diferentes, o terminal 44 envia os dados a serem obtidos para o servidor 42 para armazenamento e posterior processamento dos mesmos. Particularmente, os parâmetros são comparados com um intervalo esperado para o perfil de usuário na etapa 55.
[0040] Quando o servidor 42 processou os dados a serem obtidos, relaciona-os com uma possível disfunção na etapa 56.
[0041] Finalmente, o servidor gera possíveis recomendações para melhorar a
Petição 870190044371, de 10/05/2019, pág. 58/68
11/12 disfunção na etapa 57 e as transmite para o terminal 44, a fim de mostrá-las ao usuário, juntamente com os resultados obtidos.
[0042] Graças à tecnologia utilizada, os testes são realizados objetiva e integralmente, de forma personalizada, e permitem identificar diferentes disfunções visuais. Especialmente aqueles que limitam as capacidades de alinhamento dos olhos sobre o objeto de interesse (insuficiência de convergência, excesso de divergência, inflexibilidade de vergências) ou capacidade de focalização (insuficiência de acomodação, excesso de acomodação, inflexibilidade de acomodação) ou limitação de mudar o olhar de um objeto para o outro (movimentos oculares sacádicos) ou rastreamento de um objeto (movimentos de busca suave) ou as habilidades viso-perceptuais necessárias para identificar e gerenciar informações sobre nosso ambiente. Todos eles podem ser avaliados e treinados de maneira personalizada (não apenas com base nas condições em que o teste foi realizado, mas também no desenvolvimento de cada sessão de trabalho). Por outro lado, uma grande variedade de visualizações pode ser fornecida para o mesmo exercício, o que permite uma melhor adaptação às demandas visuais diárias e manter o interesse e a atenção em realizar os exercícios.
[0043] Deve ser observado que a presente invenção não é apenas útil para identificar disfuncionais, mas também para treinar as atividades físicas e técnicas de usuários saudáveis por meio de estímulos visuais e desafios. Isso pode ser aplicado diretamente em esportistas e crianças, e pode ser ampliado tanto para profissionais específicos (motoristas, pilotos, ...) e amadores (habilidades em lidar com miniaturas, jogos de entretenimento,...) demandas visuais.
[0044] Deve ser observado que uma das vantagens da presente revelação é que apenas é necessário um espaço reduzido para acomodar os dispositivos necessários. Por exemplo, para uma modalidade usando uma tela configurada como
Petição 870190044371, de 10/05/2019, pág. 59/68
12/12 uma unidade de exibição 20, tudo pode ser colocado em uma mesa a uma distância do usuário, que estará de preferência sentado, entre 50 cm e 1 m, junto com um computador como um elemento fazer parte dos meios de processamento 40. O resto dos elementos são transportados pelo usuário na cabeça e nas mãos (dispositivos de controle, luvas,...). Ainda menos elementos, no caso de uma modalidade em que a unidade de exibição 20 é um par de óculos de realidade virtual.

Claims (13)

  1. REIVINDICAÇÕES
    1. Sistema para medir integralmente parâmetros clínicos da função visual, caracterizado pelo fato de que compreende:
    - uma unidade de exibição (20) configurado para representar uma cena em que pelo menos um objeto 3D tem características variáveis para promover uma resposta visual no usuário, em que as ditas características variáveis incluem pelo menos a posição virtual (Χο,Υο,Ζο) e o volume virtual (Vo) do objeto 3D dentro da cena;
    - uma pluralidade de sensores de movimento (60) configurados para detectar a posição da cabeça do usuário (Xc,Yc) e a distância (Dc) da unidade de exibição (20);
    - uma pluralidade de sensores de rastreamento (10) configurados para detectar a posição das pupilas do usuário (xP, yP, zP) e diâmetro pupilar (dP);
    - uma interface (30) configurada para permitir que o usuário interaja na cena;
    - meios de processamento (42, 44) configurados para analisar a resposta do usuário com base em:
    associar os dados provenientes dos sensores (60,10) e da interface (30) à variação das características do objeto 3D representado na unidade de exibição;
    estimar uma pluralidade de parâmetros clínicos da função visual do usuário.
  2. 2. Sistema, de acordo com a reivindicação 1, caracterizado por as características são variáveis em função do tempo de acordo com uma programação predeterminada.
  3. 3. Sistema, de acordo com a reivindicação 1 ou 2, caracterizado por as características variáveis também incluem cor do objeto 3D.
  4. 4. Sistema, de acordo com qualquer uma das reivindicações 1 - 3, caracterizado por as características são variáveis em função da interação do usuário através da interface (30).
    Petição 870190044371, de 10/05/2019, pág. 61/68
    2/3
  5. 5. Sistema, de acordo com a reivindicação 4, caracterizado por a interface (30) compreender pelo menos um dos seguintes: uma caneta digital, uma luva, um dispositivo de controle ou similares.
  6. 6. Sistema, de acordo com qualquer das reivindicações de 1 - 5, caracterizado por a unidade de visualização (20) compreender uma tela 3D.
  7. 7. Sistema, de acordo com qualquer das reivindicações de 1 - 6, caracterizado por a unidade de visualização (20) compreender óculos de Realidade Virtual.
  8. 8. Sistema, de acordo com qualquer das reivindicações de 1- 7, caracterizado por a unidade de visualização (20) compreender um sistema de dissociação.
  9. 9. Sistema, de acordo com qualquer uma das reivindicações de 1 - 8, caracterizado pelo fato de que os meios de processamento (42, 44) também são configurados de modo a comparar os parâmetros clínicos estimados da função visual com uma gama armazenada de valores de referência e a estabelecer uma possível disfunção visual baseada na comparação.
  10. 10. Sistema, de acordo com a reivindicação 8 ou 9, caracterizado por a comparação com uma faixa de valores de referência é realizada com base no perfil de usuário que inclui pelo menos informação de idade.
  11. 11. Sistema, de acordo com qualquer das reivindicações de 1 - 10, caracterizado pelo fato de que os meios de processamento compreendem um terminal cliente (44) e um servidor (42), em que o terminal cliente (44) é configurado para receber e processar os dados medidos por sensores (10, 60) e enviá-los para o servidor (42).
    Petição 870190044371, de 10/05/2019, pág. 62/68
    3/3
  12. 12. Sistema, de acordo com a reivindicação 11, caracterizado pelo fato de que o servidor (42) é configurado para comparar os valores com uma base de dados com valores de referência.
  13. 13. Sistema, de acordo com qualquer das reivindicações de 1 - 12, caracterizado pelo fato de que a função visual dos parâmetros clínicos refere-se a pelo menos um dos seguintes: binocularidade, acomodação, motilidade ocular ou percepção visual.
BR112019009614A 2016-11-10 2017-10-27 Sistema para medir integralmente parâmetros clínicos da função visual BR112019009614A8 (pt)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
EP16382521.9A EP3320829A1 (en) 2016-11-10 2016-11-10 System for integrally measuring clinical parameters of visual function
PCT/ES2017/070721 WO2018087408A1 (es) 2016-11-10 2017-10-27 Sistema para medición integral de parámetros clínicos de la función visual

Publications (2)

Publication Number Publication Date
BR112019009614A2 true BR112019009614A2 (pt) 2019-08-13
BR112019009614A8 BR112019009614A8 (pt) 2023-03-21

Family

ID=57708479

Family Applications (1)

Application Number Title Priority Date Filing Date
BR112019009614A BR112019009614A8 (pt) 2016-11-10 2017-10-27 Sistema para medir integralmente parâmetros clínicos da função visual

Country Status (11)

Country Link
US (1) US11559202B2 (pt)
EP (1) EP3320829A1 (pt)
JP (1) JP7344795B2 (pt)
KR (1) KR102489677B1 (pt)
CN (1) CN110167421B (pt)
AU (1) AU2017359293B2 (pt)
BR (1) BR112019009614A8 (pt)
CA (1) CA3043276C (pt)
IL (1) IL266461B2 (pt)
RU (1) RU2754195C2 (pt)
WO (1) WO2018087408A1 (pt)

Families Citing this family (28)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3062142B1 (en) 2015-02-26 2018-10-03 Nokia Technologies OY Apparatus for a near-eye display
CN106569339B (zh) * 2016-11-08 2019-11-15 歌尔科技有限公司 Vr头戴设备以及vr头戴设备的控制方法
US10650552B2 (en) 2016-12-29 2020-05-12 Magic Leap, Inc. Systems and methods for augmented reality
EP3343267B1 (en) 2016-12-30 2024-01-24 Magic Leap, Inc. Polychromatic light out-coupling apparatus, near-eye displays comprising the same, and method of out-coupling polychromatic light
US10578870B2 (en) 2017-07-26 2020-03-03 Magic Leap, Inc. Exit pupil expander
WO2019113570A1 (en) 2017-12-10 2019-06-13 Magic Leap, Inc. Anti-reflective coatings on optical waveguides
EP3729172A4 (en) 2017-12-20 2021-02-24 Magic Leap, Inc. INSERT FOR AUGMENTED REALITY VIEWING DEVICE
WO2019178567A1 (en) 2018-03-15 2019-09-19 Magic Leap, Inc. Image correction due to deformation of components of a viewing device
US11204491B2 (en) 2018-05-30 2021-12-21 Magic Leap, Inc. Compact variable focus configurations
EP3803450A4 (en) 2018-05-31 2021-08-18 Magic Leap, Inc. POSITIONING A RADAR HEAD
CN112400157A (zh) 2018-06-05 2021-02-23 奇跃公司 观看系统的基于单应性变换矩阵的温度校准
US11092812B2 (en) 2018-06-08 2021-08-17 Magic Leap, Inc. Augmented reality viewer with automated surface selection placement and content orientation placement
US11579441B2 (en) 2018-07-02 2023-02-14 Magic Leap, Inc. Pixel intensity modulation using modifying gain values
US11856479B2 (en) 2018-07-03 2023-12-26 Magic Leap, Inc. Systems and methods for virtual and augmented reality along a route with markers
WO2020010226A1 (en) 2018-07-03 2020-01-09 Magic Leap, Inc. Systems and methods for virtual and augmented reality
EP4270016A3 (en) 2018-07-24 2024-02-07 Magic Leap, Inc. Temperature dependent calibration of movement detection devices
WO2020023543A1 (en) 2018-07-24 2020-01-30 Magic Leap, Inc. Viewing device with dust seal integration
WO2020028834A1 (en) * 2018-08-02 2020-02-06 Magic Leap, Inc. A viewing system with interpupillary distance compensation based on head motion
EP3830631A4 (en) 2018-08-03 2021-10-27 Magic Leap, Inc. NON-FUSED POSE DRIFT CORRECTION OF A FUSED TOTEM IN A USER INTERACTION SYSTEM
CN117111304A (zh) 2018-11-16 2023-11-24 奇跃公司 用于保持图像清晰度的图像尺寸触发的澄清
KR102184972B1 (ko) * 2019-02-01 2020-12-01 주식회사 룩시드랩스 동공 중심간 거리를 측정하는 장치 및 방법
JP2022519292A (ja) 2019-02-06 2022-03-22 マジック リープ, インコーポレイテッド 複数のプロセッサによって発生される総熱を限定するための標的意図ベースのクロック速度の決定および調節
EP3939030A4 (en) 2019-03-12 2022-11-30 Magic Leap, Inc. REGISTRATION OF LOCAL CONTENT BETWEEN FIRST AND SECOND VIEWERS OF AUGMENTED REALITY
US11445232B2 (en) 2019-05-01 2022-09-13 Magic Leap, Inc. Content provisioning system and method
CN114025657A (zh) 2019-05-29 2022-02-08 电子医疗技术解决方案有限公司 用于测量视觉功能的临床参数的系统
CN114174895A (zh) 2019-07-26 2022-03-11 奇跃公司 用于增强现实的系统和方法
JP2023502927A (ja) 2019-11-15 2023-01-26 マジック リープ, インコーポレイテッド 外科手術環境において使用するための視認システム
CN112866679B (zh) * 2021-04-23 2021-08-10 广东视明科技发展有限公司 在运动状态下的多位点立体视检测方法

Family Cites Families (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100941062B1 (ko) * 2001-07-06 2010-02-05 팔란티르 리서치, 엘엘씨 역 공간 광학 설계를 사용한 이미지 형성 시스템 및 방법
UY28083A1 (es) * 2003-11-14 2003-12-31 Nicolas Fernandez Tourn Suarez Unidad de rehabilitacion vestibular
EP1691670B1 (en) * 2003-11-14 2014-07-16 Queen's University At Kingston Method and apparatus for calibration-free eye tracking
US20060005846A1 (en) * 2004-07-07 2006-01-12 Krueger Wesley W Method for balance enhancement through vestibular, visual, proprioceptive, and cognitive stimulation
JP4890060B2 (ja) 2005-03-31 2012-03-07 株式会社トプコン 眼科装置
CN105212890B (zh) * 2006-01-26 2017-04-26 诺基亚公司 眼睛跟踪器设备
JP2008012223A (ja) * 2006-07-10 2008-01-24 Nippon Telegr & Teleph Corp <Ntt> 視線解析および追跡機能を有した遊技台用機能付加装置と遊戯台用機能付加方法
US9149222B1 (en) * 2008-08-29 2015-10-06 Engineering Acoustics, Inc Enhanced system and method for assessment of disequilibrium, balance and motion disorders
TW200913957A (en) * 2007-09-17 2009-04-01 Liao Li Shi System for detecting and compensating vision defect and method thereof
CN101727531A (zh) * 2008-10-16 2010-06-09 国际商业机器公司 用于在虚拟环境中进行交互的方法和系统
WO2012125172A1 (en) * 2011-03-15 2012-09-20 Kona Medical, Inc. Energetic modulation of nerves
US9345957B2 (en) * 2011-09-30 2016-05-24 Microsoft Technology Licensing, Llc Enhancing a sport using an augmented reality display
FR2987920B1 (fr) * 2012-03-08 2018-03-02 Essilor International Procede de determination d'une caracteristique geometrico-morphologique, de posture ou comportementale d'un porteur d'une paire de lunettes
BR112015030546A2 (pt) * 2012-10-22 2019-09-24 Realvision S R L rede de dispositivos para a realização de testes ópticos/optométricos/ oftalmológicos e método para o controle e gerenciamento de uma rede de dispositivos
US9848771B2 (en) * 2012-11-26 2017-12-26 The Australian National University Clustered volley method and apparatus
US9788714B2 (en) * 2014-07-08 2017-10-17 Iarmourholdings, Inc. Systems and methods using virtual reality or augmented reality environments for the measurement and/or improvement of human vestibulo-ocular performance
US20160235323A1 (en) * 2013-09-25 2016-08-18 Mindmaze Sa Physiological parameter measurement and feedback system
US9706910B1 (en) * 2014-05-29 2017-07-18 Vivid Vision, Inc. Interactive system for vision assessment and correction
CN104382552B (zh) * 2014-11-27 2016-04-27 毕宏生 一种综合视觉功能检测设备
CN104545787B (zh) * 2014-12-12 2017-02-01 许昌红 一种穿戴式瞳孔对光反射测量设备
AU2016227316B2 (en) * 2015-03-01 2020-06-25 Novasight Ltd. A system and method for measuring ocular motility
NZ773822A (en) 2015-03-16 2022-07-29 Magic Leap Inc Methods and systems for diagnosing and treating health ailments
CN105832502B (zh) * 2016-03-15 2018-01-02 广东卫明眼视光研究院 智能视觉功能训练方法及训练仪

Also Published As

Publication number Publication date
CA3043276A1 (en) 2018-05-17
KR20190104137A (ko) 2019-09-06
IL266461B2 (en) 2023-09-01
US11559202B2 (en) 2023-01-24
US20190254519A1 (en) 2019-08-22
RU2019116179A (ru) 2020-12-10
KR102489677B1 (ko) 2023-01-16
EP3320829A8 (en) 2018-07-18
WO2018087408A1 (es) 2018-05-17
CA3043276C (en) 2023-10-10
CN110167421B (zh) 2022-03-04
RU2754195C2 (ru) 2021-08-30
IL266461A (en) 2019-06-30
JP2019535401A (ja) 2019-12-12
AU2017359293A1 (en) 2019-06-06
CN110167421A (zh) 2019-08-23
EP3320829A1 (en) 2018-05-16
RU2019116179A3 (pt) 2021-02-09
BR112019009614A8 (pt) 2023-03-21
IL266461B1 (en) 2023-05-01
AU2017359293B2 (en) 2022-11-17
JP7344795B2 (ja) 2023-09-14

Similar Documents

Publication Publication Date Title
BR112019009614A2 (pt) sistema para medir integralmente parâmetros clínicos da função visual
Nyström et al. The influence of calibration method and eye physiology on eyetracking data quality
Bertolini et al. Velocity storage contribution to vestibular self-motion perception in healthy human subjects
US20170169716A1 (en) System and method for assessing visual and neuro-cognitive processing
JP2018520820A (ja) 視覚の様相を検査する方法及びシステム
US9504380B1 (en) System and method for assessing human visual processing
US20210045628A1 (en) Methods, systems, and computer readable media for testing visual function using virtual mobility tests
Denniss et al. Structure–function mapping: variability and conviction in tracing retinal nerve fiber bundles and comparison to a computational model
CN112053781A (zh) 动静态立体视测试方法及终端
JP5718494B1 (ja) 印象推定装置、その方法、及びプログラム
US20220230749A1 (en) Systems and methods for ophthalmic digital diagnostics via telemedicine
JP2017086529A (ja) 印象推定装置およびプログラム
Köles et al. Experiences of a combined psychophysiology and eye-tracking study in VR
JP6445418B2 (ja) 印象推定装置、印象推定方法、およびプログラム
ARSLAN et al. The Identification of Individualized Eye Tracking Metrics in VR Using Data Driven Iterative-Adaptive Algorithm
Charlery-Adèle et al. Effects of saccade delay, side of deficit, and training on detection of catch-up saccades during head-impulse test in virtual-reality-enhanced mannequin
US20240055138A1 (en) System and method of patient profile creation
Sasaoka et al. Ease of hand rotation during active exploration of views of a 3-D object modulates view generalization
WO2023172768A1 (en) Methods, systems, and computer readable media for assessing visual function using virtual mobility tests
Islam Towards Automatic Cybersickness Detection, Early-Prediction, and Reductions for Virtual Reality Applications
Spenthof Development and evaluation of a naturalistic dyadic eye-tracking paradigm
Pesnot Development of a computing App for the evaluation of executive functions in autism spectrum disorder's patients
CN114025657A (zh) 用于测量视觉功能的临床参数的系统
Parra et al. New system based on HMD to objectively and automatically assess visual function and to perform visual therapy
Renaud et al. The use of virtual reality in clinical psychology research: Focusing on approach and avoidance behaviors

Legal Events

Date Code Title Description
B25G Requested change of headquarter approved

Owner name: E-HEALTH TECHNICAL SOLUTIONS, S.L. (ES)

B350 Update of information on the portal [chapter 15.35 patent gazette]
B06W Patent application suspended after preliminary examination (for patents with searches from other patent authorities) chapter 6.23 patent gazette]
B15K Others concerning applications: alteration of classification

Free format text: AS CLASSIFICACOES ANTERIORES ERAM: A61B 3/00 , A61B 3/024 , A61B 3/028 , A61B 3/06 , A61B 3/08 , A61B 3/09 , A61B 3/113

Ipc: A61B 3/028 (2006.01)