BR112019009614A2 - sistema para medir integralmente parâmetros clínicos da função visual - Google Patents
sistema para medir integralmente parâmetros clínicos da função visual Download PDFInfo
- Publication number
- BR112019009614A2 BR112019009614A2 BR112019009614A BR112019009614A BR112019009614A2 BR 112019009614 A2 BR112019009614 A2 BR 112019009614A2 BR 112019009614 A BR112019009614 A BR 112019009614A BR 112019009614 A BR112019009614 A BR 112019009614A BR 112019009614 A2 BR112019009614 A2 BR 112019009614A2
- Authority
- BR
- Brazil
- Prior art keywords
- user
- display unit
- visual
- interface
- clinical parameters
- Prior art date
Links
- 230000004382 visual function Effects 0.000 title claims abstract description 22
- 238000012545 processing Methods 0.000 claims abstract description 13
- 230000003993 interaction Effects 0.000 claims abstract description 8
- 210000001747 pupil Anatomy 0.000 claims abstract description 8
- 230000004044 response Effects 0.000 claims abstract description 7
- 230000004308 accommodation Effects 0.000 claims abstract description 5
- 210000003128 head Anatomy 0.000 claims abstract description 5
- 230000016776 visual perception Effects 0.000 claims abstract 2
- 230000000007 visual effect Effects 0.000 claims description 15
- 230000004064 dysfunction Effects 0.000 claims description 7
- 238000000034 method Methods 0.000 claims description 6
- 239000011521 glass Substances 0.000 claims description 5
- 230000008569 process Effects 0.000 claims description 4
- 238000010494 dissociation reaction Methods 0.000 claims 1
- 230000005593 dissociations Effects 0.000 claims 1
- 230000006870 function Effects 0.000 claims 1
- 230000004433 ocular motility Effects 0.000 claims 1
- 230000001179 pupillary effect Effects 0.000 abstract description 2
- 230000004899 motility Effects 0.000 abstract 1
- 238000012360 testing method Methods 0.000 description 21
- 238000005259 measurement Methods 0.000 description 12
- 238000002560 therapeutic procedure Methods 0.000 description 6
- 238000012549 training Methods 0.000 description 5
- 230000004424 eye movement Effects 0.000 description 3
- 230000004438 eyesight Effects 0.000 description 3
- 230000003945 visual behavior Effects 0.000 description 3
- 230000006978 adaptation Effects 0.000 description 2
- 230000008859 change Effects 0.000 description 2
- 239000003086 colorant Substances 0.000 description 2
- 230000008878 coupling Effects 0.000 description 2
- 238000010168 coupling process Methods 0.000 description 2
- 238000005859 coupling reaction Methods 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 238000012800 visualization Methods 0.000 description 2
- 241000251468 Actinopterygii Species 0.000 description 1
- 206010053694 Saccadic eye movement Diseases 0.000 description 1
- 208000004350 Strabismus Diseases 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 230000002547 anomalous effect Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000003565 oculomotor Effects 0.000 description 1
- 230000004461 rapid eye movement Effects 0.000 description 1
- 230000004434 saccadic eye movement Effects 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
Classifications
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B3/00—Apparatus for testing the eyes; Instruments for examining the eyes
- A61B3/18—Arrangement of plural eye-testing or -examining apparatus
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B3/00—Apparatus for testing the eyes; Instruments for examining the eyes
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B3/00—Apparatus for testing the eyes; Instruments for examining the eyes
- A61B3/0016—Operational features thereof
- A61B3/0025—Operational features thereof characterised by electronic signal processing, e.g. eye models
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B3/00—Apparatus for testing the eyes; Instruments for examining the eyes
- A61B3/0016—Operational features thereof
- A61B3/0033—Operational features thereof characterised by user input arrangements
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B3/00—Apparatus for testing the eyes; Instruments for examining the eyes
- A61B3/0016—Operational features thereof
- A61B3/0041—Operational features thereof characterised by display arrangements
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B3/00—Apparatus for testing the eyes; Instruments for examining the eyes
- A61B3/0016—Operational features thereof
- A61B3/0041—Operational features thereof characterised by display arrangements
- A61B3/005—Constructional features of the display
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B3/00—Apparatus for testing the eyes; Instruments for examining the eyes
- A61B3/02—Subjective types, i.e. testing apparatus requiring the active assistance of the patient
- A61B3/024—Subjective types, i.e. testing apparatus requiring the active assistance of the patient for determining the visual field, e.g. perimeter types
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B3/00—Apparatus for testing the eyes; Instruments for examining the eyes
- A61B3/02—Subjective types, i.e. testing apparatus requiring the active assistance of the patient
- A61B3/028—Subjective types, i.e. testing apparatus requiring the active assistance of the patient for testing visual acuity; for determination of refraction, e.g. phoropters
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B3/00—Apparatus for testing the eyes; Instruments for examining the eyes
- A61B3/02—Subjective types, i.e. testing apparatus requiring the active assistance of the patient
- A61B3/06—Subjective types, i.e. testing apparatus requiring the active assistance of the patient for testing light sensitivity, e.g. adaptation; for testing colour vision
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B3/00—Apparatus for testing the eyes; Instruments for examining the eyes
- A61B3/02—Subjective types, i.e. testing apparatus requiring the active assistance of the patient
- A61B3/06—Subjective types, i.e. testing apparatus requiring the active assistance of the patient for testing light sensitivity, e.g. adaptation; for testing colour vision
- A61B3/066—Subjective types, i.e. testing apparatus requiring the active assistance of the patient for testing light sensitivity, e.g. adaptation; for testing colour vision for testing colour vision
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B3/00—Apparatus for testing the eyes; Instruments for examining the eyes
- A61B3/02—Subjective types, i.e. testing apparatus requiring the active assistance of the patient
- A61B3/08—Subjective types, i.e. testing apparatus requiring the active assistance of the patient for testing binocular or stereoscopic vision, e.g. strabismus
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B3/00—Apparatus for testing the eyes; Instruments for examining the eyes
- A61B3/02—Subjective types, i.e. testing apparatus requiring the active assistance of the patient
- A61B3/09—Subjective types, i.e. testing apparatus requiring the active assistance of the patient for testing accommodation
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B3/00—Apparatus for testing the eyes; Instruments for examining the eyes
- A61B3/10—Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
- A61B3/113—Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for determining or recording eye movement
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/50—Supports for surgical instruments, e.g. articulated arms
- A61B2090/502—Headgear, e.g. helmet, spectacles
Abstract
sistema para medir integralmente os parâmetros clínicos da função visual, incluindo uma unidade de exibição (20) para representar uma cena com um objeto 3d com características variáveis, como posição virtual e volume virtual do objeto 3d dentro da cena; sensores de movimento (60) para detectar a posição da cabeça do usuário e a distância da unidade de exibição (20); sensores de rastreamento (10) para detectar a posição de pupilas do usuário e distância pupilar; uma interface (30) para a interação do usuário na cena; meios de processamento (42,44) para analisar a resposta do usuário com base nos dados provenientes de sensores (60,10) e da interface (30), com as variações características do objeto 3d; e com base na estimativa de uma pluralidade de parâmetros clínicos da função visual relacionados à binocularidade, acomodação, motilidade ocular e percepção visual.
Description
“SISTEMA PARA MEDIR INTEGRALMENTE PARÂMETROS CLÍNICOS DA FUNÇÃO VISUAL”
Campo Técnico da Invenção [0001] A presente invenção pertence à área de sistemas e métodos para medir parâmetros clínicos da função visual. Mais especificamente, refere-se às técnicas que usam realidade virtual imersivamente para medir esse tipo de parâmetros.
Estado da Técnica [0002] Atualmente, a medição deste tipo de parâmetros clínicos da função visual requer um especialista clínico com uma sessão em que o paciente é testado através de vários testes e optótipos. É comum que o componente pessoal e manual do processo de medição forneça resultados subjetivos, dificilmente reprodutíveis e meramente qualitativos.
[0003] Por outro lado, as medições são realizadas de forma independente com base na função visual a ser testada. Isso faz com que os resultados às vezes não sejam válidos, já que a influência de outros fatores não é considerada. Por exemplo, sabese que os pacientes geralmente compensam uma anomalia específica ou comprometem sua função visual com o uso integral das outras funções visuais.
[0004] Em suma, atualmente a capacidade de adaptação do paciente não é levada em consideração e, portanto, as ações destinadas a corrigir uma anomalia concreta podem resultar, na prática, em um agravamento global da visão do paciente. Além disso, as medições e testes no paciente são afetadas pela subjetividade do especialista que os realizam, limitando assim significativamente a reprodutibilidade e a consistência dos resultados experimentais obtidos.
Breve Descrição da Invenção
Petição 870190044371, de 10/05/2019, pág. 49/68
2/12 [0005] A presente invenção refere-se a um sistema para medir integralmente os parâmetros das funções oculares, oculomotoras e visuais, preferencialmente em tempo real e para gerar terapia e treinamento para melhoria da função visual.
[0006] Para este propósito, sensores de rastreamento que detectam a posição das pupilas do usuário, uma unidade de exibição de três dimensões (3D) reproduzindo certas cenas para o usuário com objetos 3D com propriedades predeterminadas em relação ao tamanho, forma, cor, velocidade, etc. foram selecionados com base no tipo de teste que deve ser realizado como parte da sessão. Sensores de movimento detectam os movimentos do usuário de modo que a unidade de exibição pode adaptar a cena e fornecer a ela um caráter imersivo.
[0007] O sistema também inclui uma interface com a qual o usuário pode interagir. Em particular, a interface recebe comandos do usuário para interagir com o sistema de exibição. Esses comandos podem ser registrados de muitas maneiras diferentes (por meio de botões de controle, comandos de voz, luvas, etc.).
[0008] O sistema também implementa meios de processamento que gerenciam a unidade de exibição, o sensor e a interface de maneira coordenada. Assim, a resposta do usuário aos estímulos visuais gerados na unidade de exibição é detectada pelo sensor e transmitida aos meios de processamento para medir os parâmetros clínicos.
[0009] Um ponto importante na presente revelação reside na tecnologia baseada na realidade virtual que permite gerar ambientes para interação com o usuário. Em particular, o que se busca é a capacidade de imersão no ambiente virtual. Isto é particularmente interessante para criar condições que são semelhantes às reais para o usuário, e que assim permitem sua reprodução repetidas vezes se desejado. Para esse propósito, é necessário que a unidade de exibição seja
Petição 870190044371, de 10/05/2019, pág. 50/68
3/12 acoplada aos sensores de movimento transportados pelo usuário. Em algumas modalidades, isso pode ser óculos de realidade virtual, em outras, uma tela 3D e óculos polarizados. Em qualquer caso, o acoplamento dos sensores de movimento e da unidade de exibição permite que a imagem 3D seja mostrada adaptada ao movimento ou posição da pessoa, fazendo com que o usuário se sinta em movimento ao longo do ambiente virtual exibido, ou seja, imerso nele de preferência com um campo visual mínimo de 60° de modo a ser capaz de realizar adequadamente a avaliação, terapia e treinamento da função visual. Para alcançar o acima exposto, uma coordenação precisa é importante entre os elementos que participam de uma sessão. Dessa forma, o usuário é primeiramente introduzido com um ambiente de Realidade Virtual em 3D destinado ao usuário a ser imerso nele. No referido ambiente 3D, alguns objetos 3D serão exibidos por meio de “optótipos” que se destinam a atuar como o estímulo sobre o qual o usuário deve focar sua visão e que estão relacionados ao teste a ser realizado.
Breve descrição das figuras [0010] A Figura 1 mostra um diagrama de blocos simplificado, de acordo com uma possível modalidade da invenção.
[0011] As FIGs. 2A, 2B mostram um exemplo de uma medição de um usuário saudável olhando uma cena com um objeto 3D em movimento.
[0012] As FIGs. 3A, 3B mostram um exemplo de uma medição de um usuário que tem uma disfunção que está olhando para uma cena com um objeto 3D em movimento.
[0013] A Figura 4 mostra um diagrama de resumo com as etapas gerais sendo implementadas em uma modalidade.
Petição 870190044371, de 10/05/2019, pág. 51/68
4/12
Descrição detalhada da invenção [0014] Uma modalidade exemplificativa não limitante é explicada em maior detalhe com referência às figuras anteriores.
[0015] A FIG. 1 ilustra um sistema para medição integral dos parâmetros clínicos da função visual em tempo real, incluindo vários componentes. Existe um sensor de rastreamento 10 que é usado para detectar periodicamente a posição das pupilas do usuário. Assim, não apenas a direção muda, mas também a velocidade pode ser medida. Geralmente, o sensor de rastreamento 10 permite medir vários parâmetros com base no teste específico que está sendo realizado na sessão. As FIGs. 2 e 3 ilustram este aspecto da invenção em maior detalhe. Por exemplo, o sensor de rastreamento 10 pode tomar valores para a posição do olho direito e esquerdo, para a posição do objeto que o usuário está olhando (através de ambos os olhos e separadamente), distância olho-sensor, tamanho da pupila, distância interpupilar, velocidade do movimento dos olhos, etc. Geralmente, para realizar a operação de medição, o sensor de rastreamento 10 compreende um par de câmeras destinadas a serem focadas nos olhos do usuário e capturar seus movimentos e posição. Isso requer uma frequência de amostragem que seja alta o suficiente para capturar os movimentos rápidos dos olhos. Ele também deve calcular a posição dentro do ambiente virtual gerado para o qual o usuário está olhando. O sensor de rastreamento 10 é essencial para uma medição optométrica correta. Uma grande quantidade de disfunções é detectada por meio de movimentos anômalos dos olhos contra vários estímulos. Para razões de clareza, as FIGs. 2 e 3 mostram exemplos de como as medições tomadas pelos sensores 10, 60 estão associadas a uma condição visual do usuário, com ou sem uma possível disfunção, respectivamente.
[0016] Uma unidade de exibição 20 com recursos imersivos em 3D reproduz ou projeta cenas do usuário com recursos de profundidade, incluindo objetos 3D com propriedades predeterminadas em relação a tamanho, forma, cor, localização no
Petição 870190044371, de 10/05/2019, pág. 52/68
5/12 cenário, distância do usuário, se está parado ou em movimento, etc. Essas cenas, incluindo objetos 3D, funcionam como optótipos e podem ser selecionadas no sistema de acordo com o tipo de teste a ser realizado, permitindo gerar certos estímulos visuais no usuário. Assim, uma pluralidade de cenas pode ser projetada para o usuário tendo diferentes desafios visuais e estímulos, seja para avaliação, terapia ou treinamento da função visual.
[0017] O sistema também inclui uma interface 30 para a interação do usuário. Particularmente, a interface recebe comandos do usuário para controlar a unidade de exibição 20 e outros elementos do sistema. A interface 30, por sua vez, também pode transmitir instruções para o teste ao usuário. Assim, o sistema pode medir a resposta às ações do usuário (movimento, posição no ambiente 3D, pressionando botões, etc.).
[0018] O sistema também inclui meios de processamento 40, preferivelmente implementados como um servidor 42, e um terminal 44 que compartilha coordenadamente o gerenciamento da unidade de exibição 20, do sensor 10 e do controle da interface 30, de modo que as respostas visuais do usuário podem ser detectadas pelo sensor 10 e transmitidas para o servidor 42 para medição dos parâmetros clínicos da função visual. Além disso, a unidade de exibição 20 permite a adaptação da imagem 3D representada de acordo com o movimento do usuário. A unidade de exibição 20 pode incluir um sistema de dissociação (como óculos polarizados ou similares).
[0019] O teste é iniciado preferencialmente através da interface 3D. Ao visualizar uma cena concreta, os estímulos visuais do usuário que foram detectados pelo sensor 10 em um determinado momento, estão associados aos objetos 3D representados naquele momento na unidade de exibição 20. Essas mudanças na posição das pupilas do usuário são detectadas e combinadas com os movimentos
Petição 870190044371, de 10/05/2019, pág. 53/68
6/12 feitos pela cabeça do usuário que são detectados por meio de um sensor de movimento 60. O acoplamento dos sensores de movimento 60 e da unidade de exibição 20 permite mostrar a imagem 3D a ser adaptada ao movimento ou a posição da pessoa, fazendo com que o usuário se sinta realmente em movimento através do dito ambiente virtual no qual está imerso.
[0020] Os dados são processados e as propriedades dos objetos 3D são associadas aos estímulos gerados detectados pelos sensores 10, 60. Isso permite medir parâmetros clínicos da função visual sob condições reproduzíveis e controláveis. Assim, por meio do processamento adequado dos dados que estão sendo obtidos, o comportamento visual do usuário, o movimento dos olhos, a convergência, etc., podem ser conhecidos. Além disso, os parâmetros clínicos da função visual podem ser comparados a uma faixa esperada, de modo a avaliar se existe algum problema.
[0021] Como foi indicado, em conjunto com a visualização dos objetos 3D na unidade de exibição 20, o sensor de rastreamento 10 rastreia o olhar do usuário no dito ambiente de Realidade Virtual. O sensor de rastreamento 10 registra:
- A posição dos olhos (esquerda e direita).
- Localização para a qual cada olho olha (separadamente).
- Localização na qual o usuário olha usando os dois olhos em combinação no ambiente 3D.
[0022] Também, ao mesmo tempo, instruções podem ser mostradas para orientar os usuários, explicando o que eles devem fazer a cada momento. Essas instruções podem ser por meio de texto ou áudio através de uma interface 30. A referida interface 30 também permite ao usuário interagir com objetos 3D da cena sendo representada pela unidade de exibição 20. A interação com o usuário começa naquele momento e as respostas dadas aos estímulos mostrados, que são as medições, devem ser registradas.
Petição 870190044371, de 10/05/2019, pág. 54/68
7/12 [0023] Essas respostas do usuário podem, por exemplo, entre outras, ser por meio de:
- Movimento do dispositivo (em qualquer direção no espaço).
- Posição do dispositivo dentro do ambiente de Realidade Virtual.
- Pressionamento dos botões do dispositivo.
- Comandos de voz.
[0024] Na situação descrita acima, para as tarefas anteriores, o processo é preferencialmente executado em um terminal de cliente 44, embora estes tenham sido fornecidos (baixados) a partir de um servidor externo 42. Um ambiente distribuído permite reduzir os requisitos técnicos do terminal 44, um controle centralizado dos testes realizados em diferentes usuários, acesso a dados estatísticos, etc. Por exemplo, as operações e cálculos mais pesados podem ser executados no servidor 42 que descarrega a carga de trabalho de processamento a partir do terminal 44. Da mesma forma, as características que podem ser estabelecidas para um teste podem ser definidas a partir do servidor 42:
- O ambiente da Realidade Virtual a ser usado.
- Os objetos 3D e suas características (tamanho, distância, cores, movimento, )
- Quais instruções dar ao usuário.
- Quando capturar informações com o sensor de rastreamento 10.
- Quando capturar informações com a interface do usuário 30.
- Quais dados devem ser registrados e gerados como resultado da tarefa de execução.
[0025] Quanto aos dados a serem registrados, existem dados provenientes dos sensores 10, 60 e também através da interação com o usuário com a interface 30.
[0026] Uma vez terminado todo o tratamento local dos dados, estes são agrupados e
Petição 870190044371, de 10/05/2019, pág. 55/68
8/12 enviados para o servidor 42 para armazenamento e subsequente análise dos mesmos. Assim, estatísticas, novos testes, recomendações, terapias, etc., podem ser realizados.
[0027] Por exemplo, pode-se verificar se os valores obtidos para determinados parâmetros estão dentro dos limites de tolerância de acordo com estudos científicos armazenados no servidor 42. Por outro lado, uma nova cena pode ser projetada como recomendação que atua como terapia ou treinamento para melhorar algumas das funcionalidades para as quais o teste forneceu um resultado pior.
[0028] As FIGs. 2A e 2B ilustram um exemplo em que um usuário interage com o sistema em dois instantes de tempo. Em um instante inicial t=ti, o sistema representa um modelo 3D na unidade de exibição 30 que corresponde a um trem que corre ao longo de uma linha férrea.
[0029] O usuário transporta um sensor de movimento 60 para registar, em ambos os instantes de tempo, os movimentos da cabeça (Xic, yic), (Xfc, Yfc) e a distância Die, Dfc com a unidade de exibição 20. De modo similar, um sensor de rastreamento 10 registra os movimentos pupilares do usuário em ambos os instantes de tempo, fornecendo mais informações sobre a posição de ambas as pupilas. Direita: (xi1,yi1, zi1), (xf1, yf1, zf1); Esquerda: (xi2,yi2, zi2), (xf2, yf2, zf2).
[0030] Por outro lado, a unidade de exibição 20 representa o objeto 3D em duas posições virtuais diferentes (xio, yio, zio), (xfo, yfo, zfo) e com dois volumes diferentes em cada instante de tempo Vio, Vfo. Outras propriedades, como a cor do objeto 3D, podem variar em função do teste a ser realizado na sessão.
[0031] Quando o processamento dos valores acima ocorre, é verificado se os olhos do usuário estão adequadamente coordenados com o movimento do objeto 3D na
Petição 870190044371, de 10/05/2019, pág. 56/68
9/12 cena. O comportamento visual corresponde a um indivíduo saudável.
[0032] As FIGs. 3A e 3B ilustram esquematicamente o caso acima, onde o comportamento visual do usuário não responde adequadamente aos estímulos. Como pode ser visto, na FIG. 3A, o usuário não alinha corretamente o eixo visual de seu olho esquerdo (xi2, yi2, zi2) no objeto de interesse (Vio), revelando uma limitação de sua visão binocular (estrabismo). Neste caso, o ângulo de desvio (Fig. 38) é mantido constante, movendo o objeto de interesse (Vto), indicando uma condição comitante, isto é, tem o mesmo ângulo de desvio em diferentes posições do olhar. Esta informação é fundamental para determinar a gravidade da condição, bem como a do tipo de recomendação da terapia visual, a fim de restabelecer a binocularidade do indivíduo.
[0033] Claramente, a cena escolhida é apenas um exemplo. Outras poderíam ser um aquário com peixes de formas, cores e tamanhos diferentes, que continuam aparecendo e desaparecendo; uma estrada com um carro se aproximando do usuário; buracos com moles saindo aleatoriamente, etc. Nessas cenas, os parâmetros podem ser medidos objetivamente e também todos juntos (sem subestimar uma influência existente entre eles).
[0034] A FIG. 4 ilustra brevemente uma possível sequência de ações durante a operação do sistema para um teste. Em uma primeira etapa, 50 informações pessoais relevantes do usuário são registradas. De preferência, os dados introduzidos são: sexo, idade, hábitos, etc., para os quais a interface 30 pode ser usada. O usuário, por meio do terminal 44, faz um pedido ao servidor 42 como cliente e o aplicativo associado ao tipo de teste selecionada é instalado.
[0035] O usuário se coloca em frente da unidade de exibição 20, as instruções são dadas ao usuário através da interface 30 ou da unidade de exibição 20 de modo a
Petição 870190044371, de 10/05/2019, pág. 57/68
10/12 posicionar o sensor de rastreamento 10 corretamente ou a assentá-lo na posição apropriada em relação à unidade de exibição de acordo com o sensor de movimento 60. Então, na etapa 51, é representada uma cena relacionada com o teste a ser selecionado, com um ou vários objetos 3D cujas propriedades mudam ao longo do tempo ou com a interação do usuário.
[0036] O usuário e a unidade de exibição interagem através da interface 30 na etapa 52. Em geral, o usuário pode receber instruções durante o teste, usando gráficos e áudio. Por exemplo, a interface 30, pode incorporar qualquer elemento para facilitar a interação do usuário com objetos 3D da cena 30 representada na unidade de exibição 20.
[0037] Os sensores 10, 60 detectam os valores na etapa 53 enquanto a cena está sendo reproduzida. Esses dados devem ser enviados com uma latência mínima para o terminal 44.
[0038] O terminal 44 recebe os dados capturados e pré-processa e envia-os para o servidor 42 de modo a obter valores de parâmetros clínicos da função visual na etapa 54.
[0039] Uma vez terminado o teste ou a sessão com testes diferentes, o terminal 44 envia os dados a serem obtidos para o servidor 42 para armazenamento e posterior processamento dos mesmos. Particularmente, os parâmetros são comparados com um intervalo esperado para o perfil de usuário na etapa 55.
[0040] Quando o servidor 42 processou os dados a serem obtidos, relaciona-os com uma possível disfunção na etapa 56.
[0041] Finalmente, o servidor gera possíveis recomendações para melhorar a
Petição 870190044371, de 10/05/2019, pág. 58/68
11/12 disfunção na etapa 57 e as transmite para o terminal 44, a fim de mostrá-las ao usuário, juntamente com os resultados obtidos.
[0042] Graças à tecnologia utilizada, os testes são realizados objetiva e integralmente, de forma personalizada, e permitem identificar diferentes disfunções visuais. Especialmente aqueles que limitam as capacidades de alinhamento dos olhos sobre o objeto de interesse (insuficiência de convergência, excesso de divergência, inflexibilidade de vergências) ou capacidade de focalização (insuficiência de acomodação, excesso de acomodação, inflexibilidade de acomodação) ou limitação de mudar o olhar de um objeto para o outro (movimentos oculares sacádicos) ou rastreamento de um objeto (movimentos de busca suave) ou as habilidades viso-perceptuais necessárias para identificar e gerenciar informações sobre nosso ambiente. Todos eles podem ser avaliados e treinados de maneira personalizada (não apenas com base nas condições em que o teste foi realizado, mas também no desenvolvimento de cada sessão de trabalho). Por outro lado, uma grande variedade de visualizações pode ser fornecida para o mesmo exercício, o que permite uma melhor adaptação às demandas visuais diárias e manter o interesse e a atenção em realizar os exercícios.
[0043] Deve ser observado que a presente invenção não é apenas útil para identificar disfuncionais, mas também para treinar as atividades físicas e técnicas de usuários saudáveis por meio de estímulos visuais e desafios. Isso pode ser aplicado diretamente em esportistas e crianças, e pode ser ampliado tanto para profissionais específicos (motoristas, pilotos, ...) e amadores (habilidades em lidar com miniaturas, jogos de entretenimento,...) demandas visuais.
[0044] Deve ser observado que uma das vantagens da presente revelação é que apenas é necessário um espaço reduzido para acomodar os dispositivos necessários. Por exemplo, para uma modalidade usando uma tela configurada como
Petição 870190044371, de 10/05/2019, pág. 59/68
12/12 uma unidade de exibição 20, tudo pode ser colocado em uma mesa a uma distância do usuário, que estará de preferência sentado, entre 50 cm e 1 m, junto com um computador como um elemento fazer parte dos meios de processamento 40. O resto dos elementos são transportados pelo usuário na cabeça e nas mãos (dispositivos de controle, luvas,...). Ainda menos elementos, no caso de uma modalidade em que a unidade de exibição 20 é um par de óculos de realidade virtual.
Claims (13)
- REIVINDICAÇÕES1. Sistema para medir integralmente parâmetros clínicos da função visual, caracterizado pelo fato de que compreende:- uma unidade de exibição (20) configurado para representar uma cena em que pelo menos um objeto 3D tem características variáveis para promover uma resposta visual no usuário, em que as ditas características variáveis incluem pelo menos a posição virtual (Χο,Υο,Ζο) e o volume virtual (Vo) do objeto 3D dentro da cena;- uma pluralidade de sensores de movimento (60) configurados para detectar a posição da cabeça do usuário (Xc,Yc) e a distância (Dc) da unidade de exibição (20);- uma pluralidade de sensores de rastreamento (10) configurados para detectar a posição das pupilas do usuário (xP, yP, zP) e diâmetro pupilar (dP);- uma interface (30) configurada para permitir que o usuário interaja na cena;- meios de processamento (42, 44) configurados para analisar a resposta do usuário com base em:associar os dados provenientes dos sensores (60,10) e da interface (30) à variação das características do objeto 3D representado na unidade de exibição;estimar uma pluralidade de parâmetros clínicos da função visual do usuário.
- 2. Sistema, de acordo com a reivindicação 1, caracterizado por as características são variáveis em função do tempo de acordo com uma programação predeterminada.
- 3. Sistema, de acordo com a reivindicação 1 ou 2, caracterizado por as características variáveis também incluem cor do objeto 3D.
- 4. Sistema, de acordo com qualquer uma das reivindicações 1 - 3, caracterizado por as características são variáveis em função da interação do usuário através da interface (30).Petição 870190044371, de 10/05/2019, pág. 61/682/3
- 5. Sistema, de acordo com a reivindicação 4, caracterizado por a interface (30) compreender pelo menos um dos seguintes: uma caneta digital, uma luva, um dispositivo de controle ou similares.
- 6. Sistema, de acordo com qualquer das reivindicações de 1 - 5, caracterizado por a unidade de visualização (20) compreender uma tela 3D.
- 7. Sistema, de acordo com qualquer das reivindicações de 1 - 6, caracterizado por a unidade de visualização (20) compreender óculos de Realidade Virtual.
- 8. Sistema, de acordo com qualquer das reivindicações de 1- 7, caracterizado por a unidade de visualização (20) compreender um sistema de dissociação.
- 9. Sistema, de acordo com qualquer uma das reivindicações de 1 - 8, caracterizado pelo fato de que os meios de processamento (42, 44) também são configurados de modo a comparar os parâmetros clínicos estimados da função visual com uma gama armazenada de valores de referência e a estabelecer uma possível disfunção visual baseada na comparação.
- 10. Sistema, de acordo com a reivindicação 8 ou 9, caracterizado por a comparação com uma faixa de valores de referência é realizada com base no perfil de usuário que inclui pelo menos informação de idade.
- 11. Sistema, de acordo com qualquer das reivindicações de 1 - 10, caracterizado pelo fato de que os meios de processamento compreendem um terminal cliente (44) e um servidor (42), em que o terminal cliente (44) é configurado para receber e processar os dados medidos por sensores (10, 60) e enviá-los para o servidor (42).Petição 870190044371, de 10/05/2019, pág. 62/683/3
- 12. Sistema, de acordo com a reivindicação 11, caracterizado pelo fato de que o servidor (42) é configurado para comparar os valores com uma base de dados com valores de referência.
- 13. Sistema, de acordo com qualquer das reivindicações de 1 - 12, caracterizado pelo fato de que a função visual dos parâmetros clínicos refere-se a pelo menos um dos seguintes: binocularidade, acomodação, motilidade ocular ou percepção visual.
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
EP16382521.9A EP3320829A1 (en) | 2016-11-10 | 2016-11-10 | System for integrally measuring clinical parameters of visual function |
PCT/ES2017/070721 WO2018087408A1 (es) | 2016-11-10 | 2017-10-27 | Sistema para medición integral de parámetros clínicos de la función visual |
Publications (2)
Publication Number | Publication Date |
---|---|
BR112019009614A2 true BR112019009614A2 (pt) | 2019-08-13 |
BR112019009614A8 BR112019009614A8 (pt) | 2023-03-21 |
Family
ID=57708479
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
BR112019009614A BR112019009614A8 (pt) | 2016-11-10 | 2017-10-27 | Sistema para medir integralmente parâmetros clínicos da função visual |
Country Status (11)
Country | Link |
---|---|
US (1) | US11559202B2 (pt) |
EP (1) | EP3320829A1 (pt) |
JP (1) | JP7344795B2 (pt) |
KR (1) | KR102489677B1 (pt) |
CN (1) | CN110167421B (pt) |
AU (1) | AU2017359293B2 (pt) |
BR (1) | BR112019009614A8 (pt) |
CA (1) | CA3043276C (pt) |
IL (1) | IL266461B2 (pt) |
RU (1) | RU2754195C2 (pt) |
WO (1) | WO2018087408A1 (pt) |
Families Citing this family (28)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP3062142B1 (en) | 2015-02-26 | 2018-10-03 | Nokia Technologies OY | Apparatus for a near-eye display |
CN106569339B (zh) * | 2016-11-08 | 2019-11-15 | 歌尔科技有限公司 | Vr头戴设备以及vr头戴设备的控制方法 |
US10650552B2 (en) | 2016-12-29 | 2020-05-12 | Magic Leap, Inc. | Systems and methods for augmented reality |
EP3343267B1 (en) | 2016-12-30 | 2024-01-24 | Magic Leap, Inc. | Polychromatic light out-coupling apparatus, near-eye displays comprising the same, and method of out-coupling polychromatic light |
US10578870B2 (en) | 2017-07-26 | 2020-03-03 | Magic Leap, Inc. | Exit pupil expander |
WO2019113570A1 (en) | 2017-12-10 | 2019-06-13 | Magic Leap, Inc. | Anti-reflective coatings on optical waveguides |
EP3729172A4 (en) | 2017-12-20 | 2021-02-24 | Magic Leap, Inc. | INSERT FOR AUGMENTED REALITY VIEWING DEVICE |
WO2019178567A1 (en) | 2018-03-15 | 2019-09-19 | Magic Leap, Inc. | Image correction due to deformation of components of a viewing device |
US11204491B2 (en) | 2018-05-30 | 2021-12-21 | Magic Leap, Inc. | Compact variable focus configurations |
EP3803450A4 (en) | 2018-05-31 | 2021-08-18 | Magic Leap, Inc. | POSITIONING A RADAR HEAD |
CN112400157A (zh) | 2018-06-05 | 2021-02-23 | 奇跃公司 | 观看系统的基于单应性变换矩阵的温度校准 |
US11092812B2 (en) | 2018-06-08 | 2021-08-17 | Magic Leap, Inc. | Augmented reality viewer with automated surface selection placement and content orientation placement |
US11579441B2 (en) | 2018-07-02 | 2023-02-14 | Magic Leap, Inc. | Pixel intensity modulation using modifying gain values |
US11856479B2 (en) | 2018-07-03 | 2023-12-26 | Magic Leap, Inc. | Systems and methods for virtual and augmented reality along a route with markers |
WO2020010226A1 (en) | 2018-07-03 | 2020-01-09 | Magic Leap, Inc. | Systems and methods for virtual and augmented reality |
EP4270016A3 (en) | 2018-07-24 | 2024-02-07 | Magic Leap, Inc. | Temperature dependent calibration of movement detection devices |
WO2020023543A1 (en) | 2018-07-24 | 2020-01-30 | Magic Leap, Inc. | Viewing device with dust seal integration |
WO2020028834A1 (en) * | 2018-08-02 | 2020-02-06 | Magic Leap, Inc. | A viewing system with interpupillary distance compensation based on head motion |
EP3830631A4 (en) | 2018-08-03 | 2021-10-27 | Magic Leap, Inc. | NON-FUSED POSE DRIFT CORRECTION OF A FUSED TOTEM IN A USER INTERACTION SYSTEM |
CN117111304A (zh) | 2018-11-16 | 2023-11-24 | 奇跃公司 | 用于保持图像清晰度的图像尺寸触发的澄清 |
KR102184972B1 (ko) * | 2019-02-01 | 2020-12-01 | 주식회사 룩시드랩스 | 동공 중심간 거리를 측정하는 장치 및 방법 |
JP2022519292A (ja) | 2019-02-06 | 2022-03-22 | マジック リープ, インコーポレイテッド | 複数のプロセッサによって発生される総熱を限定するための標的意図ベースのクロック速度の決定および調節 |
EP3939030A4 (en) | 2019-03-12 | 2022-11-30 | Magic Leap, Inc. | REGISTRATION OF LOCAL CONTENT BETWEEN FIRST AND SECOND VIEWERS OF AUGMENTED REALITY |
US11445232B2 (en) | 2019-05-01 | 2022-09-13 | Magic Leap, Inc. | Content provisioning system and method |
CN114025657A (zh) | 2019-05-29 | 2022-02-08 | 电子医疗技术解决方案有限公司 | 用于测量视觉功能的临床参数的系统 |
CN114174895A (zh) | 2019-07-26 | 2022-03-11 | 奇跃公司 | 用于增强现实的系统和方法 |
JP2023502927A (ja) | 2019-11-15 | 2023-01-26 | マジック リープ, インコーポレイテッド | 外科手術環境において使用するための視認システム |
CN112866679B (zh) * | 2021-04-23 | 2021-08-10 | 广东视明科技发展有限公司 | 在运动状态下的多位点立体视检测方法 |
Family Cites Families (23)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR100941062B1 (ko) * | 2001-07-06 | 2010-02-05 | 팔란티르 리서치, 엘엘씨 | 역 공간 광학 설계를 사용한 이미지 형성 시스템 및 방법 |
UY28083A1 (es) * | 2003-11-14 | 2003-12-31 | Nicolas Fernandez Tourn Suarez | Unidad de rehabilitacion vestibular |
EP1691670B1 (en) * | 2003-11-14 | 2014-07-16 | Queen's University At Kingston | Method and apparatus for calibration-free eye tracking |
US20060005846A1 (en) * | 2004-07-07 | 2006-01-12 | Krueger Wesley W | Method for balance enhancement through vestibular, visual, proprioceptive, and cognitive stimulation |
JP4890060B2 (ja) | 2005-03-31 | 2012-03-07 | 株式会社トプコン | 眼科装置 |
CN105212890B (zh) * | 2006-01-26 | 2017-04-26 | 诺基亚公司 | 眼睛跟踪器设备 |
JP2008012223A (ja) * | 2006-07-10 | 2008-01-24 | Nippon Telegr & Teleph Corp <Ntt> | 視線解析および追跡機能を有した遊技台用機能付加装置と遊戯台用機能付加方法 |
US9149222B1 (en) * | 2008-08-29 | 2015-10-06 | Engineering Acoustics, Inc | Enhanced system and method for assessment of disequilibrium, balance and motion disorders |
TW200913957A (en) * | 2007-09-17 | 2009-04-01 | Liao Li Shi | System for detecting and compensating vision defect and method thereof |
CN101727531A (zh) * | 2008-10-16 | 2010-06-09 | 国际商业机器公司 | 用于在虚拟环境中进行交互的方法和系统 |
WO2012125172A1 (en) * | 2011-03-15 | 2012-09-20 | Kona Medical, Inc. | Energetic modulation of nerves |
US9345957B2 (en) * | 2011-09-30 | 2016-05-24 | Microsoft Technology Licensing, Llc | Enhancing a sport using an augmented reality display |
FR2987920B1 (fr) * | 2012-03-08 | 2018-03-02 | Essilor International | Procede de determination d'une caracteristique geometrico-morphologique, de posture ou comportementale d'un porteur d'une paire de lunettes |
BR112015030546A2 (pt) * | 2012-10-22 | 2019-09-24 | Realvision S R L | rede de dispositivos para a realização de testes ópticos/optométricos/ oftalmológicos e método para o controle e gerenciamento de uma rede de dispositivos |
US9848771B2 (en) * | 2012-11-26 | 2017-12-26 | The Australian National University | Clustered volley method and apparatus |
US9788714B2 (en) * | 2014-07-08 | 2017-10-17 | Iarmourholdings, Inc. | Systems and methods using virtual reality or augmented reality environments for the measurement and/or improvement of human vestibulo-ocular performance |
US20160235323A1 (en) * | 2013-09-25 | 2016-08-18 | Mindmaze Sa | Physiological parameter measurement and feedback system |
US9706910B1 (en) * | 2014-05-29 | 2017-07-18 | Vivid Vision, Inc. | Interactive system for vision assessment and correction |
CN104382552B (zh) * | 2014-11-27 | 2016-04-27 | 毕宏生 | 一种综合视觉功能检测设备 |
CN104545787B (zh) * | 2014-12-12 | 2017-02-01 | 许昌红 | 一种穿戴式瞳孔对光反射测量设备 |
AU2016227316B2 (en) * | 2015-03-01 | 2020-06-25 | Novasight Ltd. | A system and method for measuring ocular motility |
NZ773822A (en) | 2015-03-16 | 2022-07-29 | Magic Leap Inc | Methods and systems for diagnosing and treating health ailments |
CN105832502B (zh) * | 2016-03-15 | 2018-01-02 | 广东卫明眼视光研究院 | 智能视觉功能训练方法及训练仪 |
-
2016
- 2016-11-10 EP EP16382521.9A patent/EP3320829A1/en active Pending
-
2017
- 2017-10-27 KR KR1020197015653A patent/KR102489677B1/ko active IP Right Grant
- 2017-10-27 RU RU2019116179A patent/RU2754195C2/ru active
- 2017-10-27 CN CN201780082894.5A patent/CN110167421B/zh active Active
- 2017-10-27 US US16/348,853 patent/US11559202B2/en active Active
- 2017-10-27 AU AU2017359293A patent/AU2017359293B2/en active Active
- 2017-10-27 WO PCT/ES2017/070721 patent/WO2018087408A1/es active Application Filing
- 2017-10-27 JP JP2019525815A patent/JP7344795B2/ja active Active
- 2017-10-27 CA CA3043276A patent/CA3043276C/en active Active
- 2017-10-27 IL IL266461A patent/IL266461B2/en unknown
- 2017-10-27 BR BR112019009614A patent/BR112019009614A8/pt unknown
Also Published As
Publication number | Publication date |
---|---|
CA3043276A1 (en) | 2018-05-17 |
KR20190104137A (ko) | 2019-09-06 |
IL266461B2 (en) | 2023-09-01 |
US11559202B2 (en) | 2023-01-24 |
US20190254519A1 (en) | 2019-08-22 |
RU2019116179A (ru) | 2020-12-10 |
KR102489677B1 (ko) | 2023-01-16 |
EP3320829A8 (en) | 2018-07-18 |
WO2018087408A1 (es) | 2018-05-17 |
CA3043276C (en) | 2023-10-10 |
CN110167421B (zh) | 2022-03-04 |
RU2754195C2 (ru) | 2021-08-30 |
IL266461A (en) | 2019-06-30 |
JP2019535401A (ja) | 2019-12-12 |
AU2017359293A1 (en) | 2019-06-06 |
CN110167421A (zh) | 2019-08-23 |
EP3320829A1 (en) | 2018-05-16 |
RU2019116179A3 (pt) | 2021-02-09 |
BR112019009614A8 (pt) | 2023-03-21 |
IL266461B1 (en) | 2023-05-01 |
AU2017359293B2 (en) | 2022-11-17 |
JP7344795B2 (ja) | 2023-09-14 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
BR112019009614A2 (pt) | sistema para medir integralmente parâmetros clínicos da função visual | |
Nyström et al. | The influence of calibration method and eye physiology on eyetracking data quality | |
Bertolini et al. | Velocity storage contribution to vestibular self-motion perception in healthy human subjects | |
US20170169716A1 (en) | System and method for assessing visual and neuro-cognitive processing | |
JP2018520820A (ja) | 視覚の様相を検査する方法及びシステム | |
US9504380B1 (en) | System and method for assessing human visual processing | |
US20210045628A1 (en) | Methods, systems, and computer readable media for testing visual function using virtual mobility tests | |
Denniss et al. | Structure–function mapping: variability and conviction in tracing retinal nerve fiber bundles and comparison to a computational model | |
CN112053781A (zh) | 动静态立体视测试方法及终端 | |
JP5718494B1 (ja) | 印象推定装置、その方法、及びプログラム | |
US20220230749A1 (en) | Systems and methods for ophthalmic digital diagnostics via telemedicine | |
JP2017086529A (ja) | 印象推定装置およびプログラム | |
Köles et al. | Experiences of a combined psychophysiology and eye-tracking study in VR | |
JP6445418B2 (ja) | 印象推定装置、印象推定方法、およびプログラム | |
ARSLAN et al. | The Identification of Individualized Eye Tracking Metrics in VR Using Data Driven Iterative-Adaptive Algorithm | |
Charlery-Adèle et al. | Effects of saccade delay, side of deficit, and training on detection of catch-up saccades during head-impulse test in virtual-reality-enhanced mannequin | |
US20240055138A1 (en) | System and method of patient profile creation | |
Sasaoka et al. | Ease of hand rotation during active exploration of views of a 3-D object modulates view generalization | |
WO2023172768A1 (en) | Methods, systems, and computer readable media for assessing visual function using virtual mobility tests | |
Islam | Towards Automatic Cybersickness Detection, Early-Prediction, and Reductions for Virtual Reality Applications | |
Spenthof | Development and evaluation of a naturalistic dyadic eye-tracking paradigm | |
Pesnot | Development of a computing App for the evaluation of executive functions in autism spectrum disorder's patients | |
CN114025657A (zh) | 用于测量视觉功能的临床参数的系统 | |
Parra et al. | New system based on HMD to objectively and automatically assess visual function and to perform visual therapy | |
Renaud et al. | The use of virtual reality in clinical psychology research: Focusing on approach and avoidance behaviors |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
B25G | Requested change of headquarter approved |
Owner name: E-HEALTH TECHNICAL SOLUTIONS, S.L. (ES) |
|
B350 | Update of information on the portal [chapter 15.35 patent gazette] | ||
B06W | Patent application suspended after preliminary examination (for patents with searches from other patent authorities) chapter 6.23 patent gazette] | ||
B15K | Others concerning applications: alteration of classification |
Free format text: AS CLASSIFICACOES ANTERIORES ERAM: A61B 3/00 , A61B 3/024 , A61B 3/028 , A61B 3/06 , A61B 3/08 , A61B 3/09 , A61B 3/113 Ipc: A61B 3/028 (2006.01) |