BR112017024157B1 - Método de medição de uma distância pupilar entre as pupilas de um usuário, produto, aparelho e dispositivo móvel - Google Patents

Método de medição de uma distância pupilar entre as pupilas de um usuário, produto, aparelho e dispositivo móvel Download PDF

Info

Publication number
BR112017024157B1
BR112017024157B1 BR112017024157-9A BR112017024157A BR112017024157B1 BR 112017024157 B1 BR112017024157 B1 BR 112017024157B1 BR 112017024157 A BR112017024157 A BR 112017024157A BR 112017024157 B1 BR112017024157 B1 BR 112017024157B1
Authority
BR
Brazil
Prior art keywords
distance
user
sensor
reflection
image
Prior art date
Application number
BR112017024157-9A
Other languages
English (en)
Other versions
BR112017024157A2 (pt
Inventor
Ofer Limon
Original Assignee
6 OVER 6 VISION Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 6 OVER 6 VISION Ltd filed Critical 6 OVER 6 VISION Ltd
Publication of BR112017024157A2 publication Critical patent/BR112017024157A2/pt
Publication of BR112017024157B1 publication Critical patent/BR112017024157B1/pt

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • A61B3/11Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for measuring interpupillary distance or diameter of pupils
    • A61B3/111Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for measuring interpupillary distance or diameter of pupils for measuring interpupillary distance
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • A61B3/11Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for measuring interpupillary distance or diameter of pupils
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • GPHYSICS
    • G02OPTICS
    • G02CSPECTACLES; SUNGLASSES OR GOGGLES INSOFAR AS THEY HAVE THE SAME FEATURES AS SPECTACLES; CONTACT LENSES
    • G02C13/00Assembling; Repairing; Cleaning
    • G02C13/003Measuring during assembly or fitting of spectacles
    • G02C13/005Measuring geometric parameters required to locate ophtalmic lenses in spectacles frames

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Ophthalmology & Optometry (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • Veterinary Medicine (AREA)
  • Public Health (AREA)
  • General Health & Medical Sciences (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Surgery (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • General Physics & Mathematics (AREA)
  • Geometry (AREA)
  • Multimedia (AREA)
  • Optics & Photonics (AREA)
  • Theoretical Computer Science (AREA)
  • Image Analysis (AREA)
  • Eye Examination Apparatus (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • User Interface Of Digital Computer (AREA)
  • Measurement Of Optical Distance (AREA)
  • Paper (AREA)
  • Radar Systems Or Details Thereof (AREA)

Abstract

APARELHO, SISTEMA E MÉTODO DE DETERMINAÇÃO DEUMA DISTÂNCIA PUPILAR. Algumas modalidades demonstrativas incluem aparelhos, sistemas e/ou métodos de determinação de uma distância pupilar. Por exemplo, um produto pode incluir um ou mais meios de armazenamento tangível não transitório, legíveis por computador, incluindo instruções executáveis operáveis por computador para, quando executadas por pelo menos um processador de computador, permitir que pelo menos um processador de computador implemente as operações de medição da distância pupilar entre as pupilas de um usuário. As operações podem incluir o recebimento de uma imagem capturada compreendendo primeiro e segundo reflexos de uma luz de uma fonte de luz, o primeiro reflexo compreendendo um reflexo da luz a partir de uma primeira pupila do usuário, e o segundo reflexo compreendendo um reflexo da luz a partir de uma segunda pupila do usuário; e a determinação da distância pupilar com base nas localizações dos primeiro e segundo reflexos na imagem capturada e uma distância estimada entre um dispositivo de captura de imagem e pupilas do usuário, quando a imagem é capturada.

Description

Referência Cruzada
[001] Esse pedido reivindica os benefícios de e prioridade do pedido de patente provisório U.S. No. 62/159,490, intitulado "APPARATUS, SYSTEM AND METHOD OF DETERMINING A PUPILLARY DISTANCE", depositado em 11 de maio de 2015, a totalidade da descrição do qual é incorporada aqui por referência.
Campo Técnico
[002] As modalidades descritas aqui se referem geralmente à determinação de uma distância pupilar.
Fundamentos
[003] Uma distância pupilar (PD) entre as pupilas de um usuário pode ser medida, por exemplo, em adição à prescrição refrativa de óculos, por exemplo, óculos monofocais ou multifocais.
[004] Centros óticos de óculos podem ser configurados para coincidir com uma linha de visão do usuário, por exemplo, para fornecer visão clara e conveniente.
[005] Óculos multifocais (MF), que podem ter uma zona de visão distante estreita, podem exigir maior precisão na medição de PD do que óculos monofocais.
[006] A PD pode ser definida como dois números diferentes de distâncias de um centro da armação, por exemplo, o centro de um nariz do usuário, por exemplo, se a simetria na PD nem sempre for uma constituinte, por exemplo, nos casos de estrabismo.
[007] A discrepância na distância pupilar pode levar, por exemplo, a visão dupla, dores de cabeça e/ou outros efeitos indesejados.
[008] Um grau de erro possível na distância pupilar pode depender da lente, por exemplo, um Rx dos óculos. Por exemplo, para uma baixa potência de lente, erros maiores na distância pupilar podem não afetar a visão do usuário.
[009] Uma tolerância de erro da distância pupilar pode não ser simétrica. Em um exemplo, se uma PD medida de um usuário for inferior a uma PD real do usuário, por exemplo, um erro negativo, o usuário pode compensar o erro negativo, por exemplo, com uma leve acomodação dos olhos, que pode levar a convergência do olho que pode reduzir a PD real do usuário. Em outro exemplo, uma PD medida de um usuário, que é maior do que uma PD real do usuário, por exemplo, um erro positivo, pode levar a algum grau de visão dupla e/ou outras inconveniências.
Breve Descrição dos Desenhos
[010] Por motivos de simplicidade e clareza de ilustração, elementos ilustrados nas figuras não foram necessariamente desenhados em escala. Por exemplo, as dimensões de alguns dos elementos podem ser exageradas com relação a outros elementos por motivos de clareza da apresentação. Adicionalmente, referências numéricas podem ser repetidas ao longo das figuras para indicar elementos correspondentes ou análogos. As figuras são listadas abaixo.
[011] Fig. 1 é um diagrama em bloco esquemático de um sistema, de acordo com algumas modalidades demonstrativas; Fig. 2 é uma ilustração esquemática de uma lente e um sensor de uma câmera, de acordo com algumas modalidades demonstrativas; Fig. 3 é uma ilustração esquemática de um diagrama de imageamento para capturar uma imagem de um objeto, de acordo com algumas modalidades demonstrativas; Fig. 4 é uma ilustração esquemática de um diagrama de imageamento para capturar uma imagem de um objeto inclinado, de acordo com algumas modalidades demonstrativas; Fig. 5 é uma ilustração esquemática de um diagrama de imageamento para capturar um objeto por uma câmera inclinada, de acordo com algumas modalidades demonstrativas; Fig. 6 é uma ilustração esquemática de uma seção horizontal de um olho direito de um usuário, de acordo com algumas modalidades demonstrativas; Fig. 7 é uma ilustração esquemática de uma distância pupilar entre dois olhos de um usuário olhando para uma câmera, de acordo com algumas modalidades demonstrativas; Fig. 8 A-8F são ilustrações esquemáticas de histogramas correspondendo a uma pluralidade de simulações Monte Carlo, de acordo com algumas modalidades demonstrativas; Fig. 9 é uma ilustração de um fluxograma esquemático de um método de determinação de uma distância pupilar (PD) de um usuário, de acordo com algumas modalidades demonstrativas; Fig. 10 é uma ilustração de fluxograma esquemático de um método de determinação de uma PD de um usuário, de acordo com algumas modalidades demonstrativas; Fig. 11 é uma ilustração esquemática de um produto, de acordo com algumas modalidades demonstrativas.
Descrição Detalhada
[012] Na descrição detalhada a seguir, inúmeros detalhes específicos são apresentados a fim de fornecer uma compreensão profunda de algumas modalidades. No entanto, será compreendido pelos versados na técnica que algumas modalidades podem ser praticadas sem esses detalhes específicos. Em outros casos, métodos, procedimentos, componentes, unidades e/ou circuitos bem conhecidos não foram descritos em detalhes de modo a não obscurecer a discussão.
[013] Algumas partes da descrição detalhada a seguir são apresentadas em termos de algoritmos e representações simbólicas de operações de bits de dados ou sinais digitais binários dentro de uma memória de computador. Essas descrições algorítmicas e representações podem ser as técnicas utilizadas pelos versados na técnica de processamento de dados par aportar a substância de seu trabalho para outros versados na técnica.
[014] Um algoritmo é, aqui, e geralmente, considerado uma sequência auto consistente de atos ou operações levando a um resultado desejado. Incluem manipulações físicas de quantidades físicas. Normalmente, apesar de não necessariamente, essas quantidades assumem a forma de sinais elétricos ou magnéticos capazes de serem armazenados, transferidos, combinados, comparados e de outra forma manipulados. Provou-se conveniente algumas vezes, principalmente por questões de utilização comum se referir a esses sinais como bits, valores, elementos, símbolos, caracteres, termos, números ou similares. Deve-se compreender, no entanto, que todos esses e outros termos similares devem ser associados às quantidades físicas adequadas e são meramente rótulos convenientes aplicados a essas quantidades.
[015] Discussões apresentadas aqui utilizando termos tal como, por exemplo, "processamento", "computação", "cálculo", "determinação", "estabilização", "análise", "verificação" ou similares, podem ser referir a operações e/ou processos de um computador, uma plataforma de computação, um sistema de computação, ou outro dispositivo de computação eletrônica, que manipulam e/ou transformam dados representados como quantidades físicas (por exemplo, eletrônicas) dentro dos registros e/ou memórias do computador em outros dados representados de forma similar como quantidades físicas dentro dos registros e/ou memórias do computador ou outro meio de armazenamento de informação que possa armazenar instruções para realizar as operações e/ou processos.
[016] Os termos "pluralidade" e "uma pluralidade", como utilizados aqui, incluem, por exemplo, "múltiplos" ou "dois ou mais". Por exemplo, "uma pluralidade de itens" inclui dois ou mais itens.
[017] Referências a "uma modalidade", "modalidade demonstrativa" "várias modalidades", etc., indicam que as modalidades descritas podem incluir um aspecto, estrutura ou característica particular, mas nem toda modalidade inclui necessariamente o aspecto, estrutura ou característica particular. Adicionalmente, o uso repetido da frase "em uma modalidade" não se refere, necessariamente, a mesma modalidade, apesar de poder.
[018] Como utilizado aqui, a menos que especificado o contrário, o uso dos adjetivos ordinais "primeiro", "segundo", "terceiro", etc., para descrever um objeto comum, indica meramente que diferentes casos de objetos similares estão sendo referidos, e não deem implicar que os objetos descritos devam estar em uma sequência determinada, seja ela temporal, espacial, de classificação, ou de qualquer outra forma.
[019] Algumas modalidades, por exemplo, podem assumir a forma de uma modalidade totalmente de hardware, uma modalidade totalmente de software, ou uma modalidade incluindo ambos elementos de hardware e de software. Algumas modalidades podem ser implementadas em software, que incluem, mas não estão limitadas a firmware, software residente, microcódigo ou similares.
[020] Adicionalmente, algumas modalidades podem assumir a forma de um produto de programa de computador acessível a partir de um meio utilizável por computador ou legível por computador fornecendo um código de programa para uso por ou com relação a um computador ou qualquer sistema de execução de instrução. Por exemplo, um meio utilizável por computador ou legível por computador pode ser ou pode incluir qualquer aparelho que pode conter, armazenar, comunicar, propagar ou transportar o programa para uso por ou com relação ao sistema, aparelho ou dispositivo de execução de instrução.
[021] Em algumas modalidades demonstrativas, o meio pode ser um sistema eletrônico, magnético, ótico, eletromagnético, infravermelho ou semicondutor (ou aparelho ou dispositivo) ou um meio de propagação. Alguns exemplos demonstrativos de um meio legível por computador podem incluir uma memória semicondutora ou de estado sólido, fita magnética, um disquete de computador removível, uma memória de acesso aleatório (RAM), uma memória somente de leitura (ROM), uma memória FLASH, um disco magnético rígido, e um disco ótico. Alguns exemplos demonstrativos de discos óticos incluem o disco compacto - de memória somente de leitura (CD-ROM), disco compacto - leitura/escrita (CD-R/W), e DVD.
[022] Em algumas modalidades demonstrativas, um sistema de processamento de dados adequado para o armazenamento e/ou execução do código de programa pode incluir pelo menos um processador acoplado diretamente ou indiretamente aos elementos de memória, por exemplo, através de um barramento do sistema. Os elementos de memória podem incluir, por exemplo, memória local empregada durante a execução real do código de programa, armazenamento em massa, e memórias temporárias que podem fornecer armazenamento temporário de pelo menos algum código de programa a fim de reduzir o número de vezes que o código deve ser recuperado do armazenamento em massa durante a execução.
[023] Em algumas modalidades demonstrativas, dispositivos de entrada/saída ou I/O (incluindo, mas não limitados a teclados, monitores, dispositivos de apontar, etc.) podem ser acoplados ao sistema diretamente ou através de controladores de I/O de intervenção. Em algumas modalidades demonstrativas, adaptadores de rede podem ser acoplados ao sistema para permitir que o sistema de processamento de dados se torne acoplado a outros sistemas de processamento de dados ou impressoras remotas ou dispositivos de armazenamento, por exemplo, através de redes de intervenção públicas ou privadas. Em algumas modalidades demonstrativas, modems, modems a cabo e cartões Ethernet são exemplos demonstrativos dos tipos de adaptadores de rede. Outros componentes adequados podem ser utilizados.
[024] Algumas modalidades podem incluir um ou mais enlaces com ou sem fio, podem utilizar um ou mais componentes de comunicação sem fio, podem utilizar um ou mais métodos ou protocolos de comunicação sem fio ou similares. Algumas modalidades podem utilizar comunicação com fio e/ou comunicação sem fio.
[025] Algumas modalidades podem ser utilizadas em conjunto com vários dispositivos e sistemas, por exemplo, um telefone móvel, um Smartphone, um computador móvel, um computador laptop, um computador notebook, um computador tablet, um computador portátil, um dispositivo portátil, um dispositivo de Assistente Digital Pessoal (PDA), um dispositivo PDA portátil, um dispositivo móvel ou portátil, um dispositivo não móvel ou não portátil, um telefone celular, um telefone sem fio, um dispositivo possuindo uma ou mais antenas internas e/ou antenas externas, um dispositivo portátil sem fio, ou similares.
[026] Referência é feita agora à Fig. 1 que ilustra esquematicamente um diagrama em bloco de um sistema 100 de acordo com algumas modalidades demonstrativas.
[027] Como ilustrado na Fig. 1, em algumas modalidades demonstrativas o sistema 100 pode incluir um dispositivo 102.
[028] Em algumas modalidades demonstrativas, o dispositivo 102 pode ser implementado utilizando-se componentes de hardware e/ou componentes de software adequados, por exemplo, processadores, controladores, unidades de memória, unidades de armazenamento, unidades de entrada, unidades de saída, unidades de comunicação, sistemas operacionais, aplicações ou similares.
[029] Em algumas modalidades demonstrativas, o dispositivo 102 pode incluir, por exemplo, um dispositivo de computação, um telefone móvel, um Smartphone, um telefone celular, um notebook, um computador móvel, um computador laptop, um computador notebook, um computador tablet, um computador portátil, um dispositivo portátil, um dispositivo PDA, um dispositivo PDA portátil, um dispositivo de comunicação sem fio, um dispositivo PDA que incorpora um dispositivo de comunicação sem fio, ou similar.
[030] Em algumas modalidades demonstrativas, o dispositivo 102 pode incluir, por exemplo, um ou mais dentre um processador 191, uma unidade de entrada 192, uma unidade de saída 193, uma unidade de memória 194 e/ou uma unidade de armazenamento 195. O dispositivo 102 pode incluir opcionalmente outros componentes de hardware adequados e/ou componentes de software. Em algumas modalidades demonstrativas, alguns ou todos os componentes de um ou mais dos dispositivos 102 podem ser encerrados em um alojamento ou empacotamento comum, e podem ser interconectados ou associados de forma operacional utilizando um ou mais enlaces com ou sem fio. Em outras modalidades, os componentes de um ou mais do dispositivo 102 podem ser distribuídos entre múltiplos dispositivos ou dispositivos separados.
[031] Em algumas modalidades demonstrativas, o processador 191 pode incluir por exemplo, uma Unidade de Processamento Central (CPU), um Processador de Sinal Digital (DSP), um ou mais núcleos de processador, um processador de núcleo singular, um processador de núcleo duplo, um processador de múltiplos núcleos, um microprocessador, um processador hospedeiro, um controlador, uma pluralidade de processadores ou controladores, um chip, um microchip, um ou mais circuitos, um conjunto de circuitos, uma unidade lógica, um Circuito Integrado (IC), um IC de Aplicação Específica (ASIC), ou qualquer outro processador ou controlador de múltiplas finalidades ou finalidade específica adequado. O processador 191 pode executar instruções, por exemplo, de um Sistema Operacional (OS) do dispositivo 102 e/ou de uma ou mais aplicações adequadas.
[032] Em algumas modalidades demonstrativas, a unidade de entrada 192 pode incluir, por exemplo, um teclado, um teclado numérico, um mouse, uma tela de toque, um painel tátil, uma track-ball, uma caneta, um microfone, ou outro dispositivo de apontar ou dispositivo de entrada adequado. A unidade de saída 193 pode incluir, por exemplo, um monitor, uma tela, uma tela de toque, um display de painel plano, uma unidade de display de Diodo de Emissão de Luz (LED), uma unidade de display de Exibição de Cristal Líquido (LCD), uma unidade de display de plasma, um ou mais alto falantes de áudio ou fones de ouvido, ou outros dispositivos de saída adequados.
[033] Em algumas modalidades demonstrativas, a unidade de memória 194 inclui por exemplo, uma Memória de Acesso Aleatório (RAM), uma Memória Somente de Leitura (ROM), uma RAM Dinâmica (DRAM), uma DRAM Sincronizada (SD-RAM), uma memória flash, uma memória volátil, uma memória não volátil, uma memória de armazenamento temporário, um buffer, uma unidade de memória de curto termo, uma unidade de memória de longo termo, ou outras unidades de memória adequadas. A unidade de armazenamento 195 pode incluir, por exemplo, um acionador de disco rígido, um acionador de disquete, um acionador de Disco Compacto (CD), um acionador de CD-ROM, um acionador de DVD, ou outras unidades de armazenamento removíveis ou não removíveis. A unidade de memória 194 e/ou a unidade de armazenamento 195, por exemplo, podem armazenar dados processados pelo dispositivo 102.
[034] Em algumas modalidades demonstrativas, o dispositivo 102 pode ser configurado para comunicar com um ou mais outros dispositivos através de uma rede sem fio e/ou com fio 103.
[035] Em algumas modalidades demonstrativas, a rede 103 pode incluir uma rede com fio, uma rede de área local (LAN), uma rede LAN sem fio (WLAN), uma rede de rádio, uma rede celular, uma rede de Fidelidade Sem Fio (WiFi), uma rede IR, uma rede Bluetooth (BT), e similares.
[036] Em algumas modalidades demonstrativas, o dispositivo 102 pode permitir que um ou mais usuários interajam com um ou mais processos, aplicações e/ou módulos do dispositivo 102, por exemplo, como descrito aqui.
[037] Em algumas modalidades demonstrativas, o dispositivo 102 pode ser configurado para realizar e/ou executar uma ou mais operações, módulos, processos, procedimentos e/ou similares.
[038] Em algumas modalidades demonstrativas, o dispositivo 102 pode ser configurado para determinar uma distância pupilar (PD) de um usuário do dispositivo 102, por exemplo como descrito abaixo.
[039] Em algumas modalidades demonstrativas, a distância pupilar pode incluir uma distância pupilar próxima ou uma distância pupilar distante.
[040] Em algumas modalidades demonstrativas, o sistema 100 pode incluir pelo menos um serviço, módulo, controlador e/ou aplicação 160 configurada para determinar a distância pupilar (PD) do usuário do dispositivo 102, por exemplo, como descrito abaixo.
[041] Em algumas modalidades demonstrativas, a aplicação 160 pode incluir, ou pode ser implementada como software, um módulo de software, uma aplicação, um programa, uma sub-rotina, instruções, um conjunto de instruções, um código de computação, palavras, valores, símbolos e similares.
[042] Em algumas modalidades demonstrativas, a aplicação 160 pode incluir uma aplicação local a ser executada pelo dispositivo 102. Por exemplo, a unidade de memória 194 e/ou a unidade de armazenamento 195 podem armazenar instruções resultantes na aplicação 160 e/ou processador 191 pode ser configurado para executar as instruções resultando na aplicação 160, por exemplo, como descrito abaixo.
[043] Em outras modalidades, a aplicação 160 pode incluir uma aplicação remota a ser executada por qualquer sistema de computação, por exemplo, um servidor 170.
[044] Em algumas modalidades demonstrativas, o servidor 170 pode incluir pelo menos um servidor remoto, um servidor web, um servidor em nuvem e/ou qualquer outro servidor.
[045] Em algumas modalidades demonstrativas, o servidor 170 pode incluir uma memória e/ou unidade de armazenamento adequada 174 possuindo armazenadas nas mesmas instruções resultando na aplicação 160, e um processador adequado 171 para executar as instruções, por exemplo, como descrito abaixo.
[046] Em algumas modalidades demonstrativas, a aplicação 160 pode incluir uma combinação de uma aplicação remota e uma aplicação local.
[047] Em um exemplo, a aplicação 160 pode ser descarregada e/ou recebida pelo usuário do dispositivo 102 a partir de outro sistema de computação, por exemplo, o servidor 170, de modo que a aplicação 160 possa ser executada localmente pelos usuários do dispositivo 102. Por exemplo, as instruções podem ser recebidas e armazenadas, por exemplo, temporariamente em uma memória ou qualquer outra memória de curto prazo adequada ou buffer do dispositivo 102, por exemplo, antes de serem executadas pelo processador 191 do dispositivo 102.
[048] Em outro exemplo, a aplicação 160 pode incluir um front-end a ser executado localmente pelo dispositivo 102, e um back-end a ser executado pelo servidor 170. Por exemplo, uma ou mais primeiras operações de determinação da distância pupilar do usuário podem ser realizadas localmente, por exemplo, pelo dispositivo 102 e/ou uma ou mais segundas operações de determinação da distância pupilar podem ser realizadas remotamente, por exemplo, pelo servidor 170, por exemplo, como descrito abaixo.
[049] Em outras modalidades, a aplicação 160 pode incluir qualquer outra disposição e/ou esquema de computação adequado.
[050] Em algumas modalidades demonstrativas, o sistema 100 pode incluir uma interface 110 para interfacear entre um usuário do dispositivo 102 e um ou mais elementos do sistema 100, por exemplo, a aplicação 160.
[051] Em algumas modalidades demonstrativas, a interface 110 pode ser implementada utilizando-se quaisquer componentes de hardware e/ou componentes de software adequados, por exemplo, processadores, controladores, unidades de memória, unidades de armazenamento, unidades de entrada, unidades de saída, unidades de comunicação, sistemas operacionais, e/ou aplicações.
[052] Em algumas modalidades, a interface 110 pode ser implementada como parte de qualquer módulo adequado, sistema, dispositivo ou componente do sistema 100.
[053] Em outras modalidades, a interface 110 pode ser implementada como um elemento separado do sistema 100.
[054] Em algumas modalidades demonstrativas, a interface 110 pode ser implementada como parte do dispositivo 102. Por exemplo, a interface 110 pode ser associada com e/ou incluída como parte do dispositivo 102.
[055] Em um exemplo, a interface 110 pode ser implementada, por exemplo, como middleware, e/ou como parte de qualquer aplicação adequada de dispositivo 102. Por exemplo, a interface 110 pode ser implementada como parte da aplicação 160 e/ou como parte de um OS do dispositivo 102.
[056] Em algumas modalidades demonstrativas, a interface 160 pode ser implementada como parte do servidor 170. Por exemplo, a interface 110 pode estar associada a e/ou incluída como parte do servidor 170.
[057] Em um exemplo, a interface 110 pode incluir, ou pode ser parte de uma aplicação web, um website, uma página web, um plug-in, um controle ActiveX, um componente de conteúdo rico (por exemplo, um componente Flash ou Shockwave), ou similares.
[058] Em algumas modalidades demonstrativas, a interface 110 pode ser associada com e/ou pode incluir, por exemplo, um gateway (GW) 112 e/ou uma interface de programação de aplicação (API) 114, por exemplo, para comunicar informação e/ou comunicações entre os elementos do sistema 100 e/ou um ou mais outros, por exemplo, partes, usuários, aplicações e/ou sistemas internos ou externos.
[059] Em algumas modalidades, a interface 110 pode incluir qualquer Interface Gráfica de Usuário (GUI) 116 e/ou qualquer outra interface adequada.
[060] Em algumas modalidades demonstrativas, a aplicação 160 pode ser configurada para determinar a distância pupilar do usuário com base em uma imagem capturada do usuário, por exemplo, como descrito abaixo.
[061] Em algumas modalidades demonstrativas, a imagem capturada pode ser capturada pelo usuário e pode incluir os olhos do usuário, por exemplo, como descrito abaixo.
[062] Em um exemplo, a extração de uma medição de PD precisa a partir de uma imagem bidimensional (2D) capturada, pode incluir a medição, avaliação e/ou análise de um ou mais parâmetros para determinar um ambiente tridimensional (3D), por exemplo, para determinar a PD. Por exemplo, o ambiente 3D pode refletir uma câmera localizada a uma distância de uma face do usuário, e uma localização de cada pupila do usuário enquanto olhando para a câmera, que pode estar em um desvio com relação ao centro da pupila, por exemplo, um desvio de até 1 milímetro. A localização da pupila pode coincidir com a linha de visão do usuário, por exemplo, em um eixo geométrico visual.
[063] Em algumas modalidades demonstrativas, o dispositivo 102 pode incluir um dispositivo de captura de imagem, por exemplo, uma câmera 118 ou qualquer outro dispositivo, configurado para capturar a imagem.
[064] Em algumas modalidades demonstrativas, o dispositivo 102 pode incluir uma fonte de luz 122 configurada para iluminar o usuário, por exemplo, quando a imagem é capturada.
[065] Em algumas modalidades demonstrativas, a fonte de luz 122 pode incluir um flash, uma luz LED, ou qualquer outra fonte de luz.
[066] Em algumas modalidades demonstrativas, a aplicação 160 pode ser configurada para receber a imagem capturada do usuário, por exemplo, a partir da câmera 118.
[067] Em algumas modalidades demonstrativas, a imagem capturada pode incluir primeiro e segundo reflexos de uma luz da fonte de luz 122.
[068] Em algumas modalidades demonstrativas, o primeiro reflexo pode incluir um reflexo da luz a partir de uma primeira pupila do usuário, por exemplo, uma primeira imagem de Purkinje da primeira pupila e o segundo reflexo pode incluir um reflexo da luz a partir de uma segunda pupila do usuário, por exemplo, uma primeira imagem de Purkinje da segunda pupila).
[069] Em algumas modalidades demonstrativas, a aplicação 160 pode ser configurada para determinar a distância pupilar do usuário, por exemplo, com base nas localizações do primeiro e segundo reflexos na imagem capturada, e uma distância estimada entre o dispositivo 102 e as pupilas do usuário, por exemplo, quando a imagem é capturada.
[070] Em algumas modalidades demonstrativas, a aplicação 160 pode ser configurada para determinar a distância pupilar do usuário, por exemplo, com base em um número de pixels entre o primeiro e o segundo reflexos, e uma razão de pixel para milímetro (mm) dos pixels, por exemplo, como descrito abaixo.
[071] Em algumas modalidades demonstrativas, a aplicação 160 pode ser configurada para determinar a distância pupilar do usuário, por exemplo, com base em um ou mais atributos da câmera 118, por exemplo, como descrito abaixo.
[072] Em algumas modalidades demonstrativas, a aplicação 160 pode ser configurada para determinar a distância pupilar do usuário, por exemplo, com base em um parâmetro de raio de olho, e uma distância entre a câmera 118 e um plano incluindo as pupilas do usuário, por exemplo, como descrito abaixo.
[073] Em algumas modalidades demonstrativas, a aplicação 160 pode ser configurada para determinar a distância pupilar do usuário, por exemplo, com base na informação de orientação com relação a uma orientação do dispositivo 102, por exemplo, se o dispositivo 102 for inclinado, por exemplo, como descrito abaixo.
[074] Em algumas modalidades demonstrativas, a aplicação 160 pode receber a imagem capturada incluindo o primeiro e segundo reflexos a partir das primeira e segunda pupilas do usuário.
[075] Em um exemplo, a aplicação 160 pode ser configurada para determinar a PD localmente, por exemplo, se a aplicação 160 for implementada localmente pelo dispositivo 102. De acordo com esse exemplo, a câmera 118 pode ser configurada para capturar a imagem, e a aplicação 160 pode ser configurada para receber a imagem capturada, por exemplo, a partir da câmera 118, para determinar a distância estimada entre o dispositivo 102 e as pupilas do usuário, e para determinar a distância pupilar do usuário, por exemplo, como descrito abaixo.
[076] Em outro exemplo, a aplicação 160 pode ser configurada para determinar a PD remotamente, por exemplo, se a aplicação 160 for implementada pelo servidor 170, ou se o back-end da aplicação 160 for implementado pelo servidor 170, por exemplo, enquanto o front-end da aplicação 160 é implementado pelo dispositivo 102. De acordo com esse exemplo, a câmera 118 pode ser configurada para capturar a imagem; o frontend da aplicação 160 pode ser configurado para receber a imagem capturada, e para determinar a distância estimada entre o dispositivo 102 e as pupilas do usuário; e o servidor 170 e/ou o back-end da aplicação 160 podem ser configurados para determinar a distância pupilar do usuário, por exemplo, com base na informação recebida do front-end da aplicação 160.
[077] Em um exemplo, o dispositivo 102 e/ou o front-end da aplicação 160 podem ser configurados para enviar a imagem capturada e a distância estimada para o servidor 170, por exemplo, através da rede 103; e/ou servidor 170 e/ou back-end da aplicação 160 podem ser configurados para receber a imagem capturada e/ou a distância estimada, e para determinar a distância pupilar do usuário, por exemplo, com base na imagem capturada e na distância estimada recebidas do dispositivo 102.
[078] Em algumas modalidades demonstrativas, a imagem capturada pode incluir um objeto em uma face do usuário ("o objeto de referência").
[079] Em um exemplo, a PD pode ser extraída a partir de uma única imagem de uma pessoa olhando para o flash da câmera 118, por exemplo, enquanto a câmera 118 captura a imagem, e a pessoa está segurando um objeto de um tamanho conhecido perto de um aspecto da face da pessoa.
[080] Em algumas modalidades demonstrativas, a aplicação 160 pode ser configurada para determinar uma distância estimada entre a câmera 118 e o objeto de referência, por exemplo, com base em uma ou mais dimensões do objeto na face do usuário, por exemplo, como descrito abaixo.
[081] Em algumas modalidades demonstrativas, a aplicação 160 pode ser configurada para determinar a distância estimada entre a câmera 118 e o objeto de referência, por exemplo, com base na informação de aceleração indicando uma aceleração do dispositivo 102, por exemplo, como descrito abaixo.
[082] Em algumas modalidades demonstrativas, a aplicação 160 pode ser configurada para determinar a distância estimada entre a câmera 118 e o objeto de referência, por exemplo, com base no objeto na face do usuário e um ou mais atributos da câmera 118, por exemplo, como descrito abaixo.
[083] Em algumas modalidades demonstrativas, um ou mais atributos de câmera 118 podem incluir um Comprimento Focal Efetivo (EFL) de uma lente de câmera 118, um Campo de Visão horizontal (FOV) de um sensor da câmera 118, um campo de visão vertical do sensor de câmera 118, uma resolução do sensor, uma distância ("um pitch de sensor") entre dois pixels adjacentes do sensor, e/ou qualquer outro atributo adicional ou alternativo da câmera 118.
[084] Referência é feita à Fig. 2, que ilustra de forma esquemática uma lente 210 e um sensor 220 de uma câmera, de acordo com algumas modalidades demonstrativas. Por exemplo, a câmera 118 (Fig. 1) pode incluir lente 210 e sensor 220.
[085] Em algumas modalidades demonstrativas, como ilustrado na Fig. 2, a lente 210 pode ter um EFL 222, que pode ser fornecido e/ou calibrado, por exemplo, pelo dispositivo 102 (Fig. 1), localizado a uma distância igual ao EFL da lente do sensor 220.
[086] Em algumas modalidades demonstrativas, um ângulo de visualização horizontal, denotado ah, pode ser determinado com base no tamanho horizontal do sensor 220 e o EFL 222 da lente 210.
[087] Em algumas modalidades demonstrativas, um ângulo de visualização vertical pode ser determinado, por exemplo, com base no tamanho vertical do sensor 220.
[088] Em algumas modalidades demonstrativas, como ilustrado na Fig. 2, um pitch horizontal de sensor 224, denotada pitchh, pode ser definida como uma distância entre os centros de cada um dos dois pixels.
[089] Em algumas modalidades demonstrativas, o pitch do sensor 224 pode ser determinado, por exemplo, com base no comprimento horizontal do sensor e número total de pixels horizontais do sensor.
[090] Em algumas modalidades demonstrativas, o pitch de sensor 224 pode ser determinado, por exemplo, com base no EFL 222, o ângulo horizontal de visualização ah, e/ou ângulo de visualização vertical, por exemplo, como segue: comprimento horizontal de sensor
Figure img0001
[091] Com referência novamente à Fig. 1, em algumas modalidades demonstrativas, a aplicação 160 pode ser configurada para determinar a distância estimada entre a câmera 118 e o objeto de referência, por exemplo, com base em um ou mais atributos de câmera 118, por exemplo, o ângulo horizontal de visualização ah, EFL 222 (Fig. 2) e/ou pitch de sensor 224 (Fig. 2), por exemplo, como descrito abaixo.
[092] Em algumas modalidades demonstrativas, a aplicação 160 pode ser configurada para determinar a distância estimada entre a câmera 118 e o objeto de referência, por exemplo, com base em um ou mais atributos da câmera 118, e uma ou mais dimensões do objeto de referência, por exemplo, como descrito abaixo.
[093] Em algumas modalidades demonstrativas, o objeto de referência pode incluir um objeto possuindo uma ou mais dimensões conhecidas, por exemplo, que podem ser medidas e/ou fornecidas. Por exemplo, o objeto de referência pode incluir um cartão de crédito, uma nota bancária e/ou similar.
[094] Em algumas modalidades demonstrativas, o objeto de referência pode incluir um objeto facial ou elemento possuindo uma ou mais dimensões conhecidas, por exemplo, que podem ser medidas e/ou fornecidas. Por exemplo, o objeto de referência pode incluir uma íris, um parâmetro de raio de olho e/ou similares.
[095] Em algumas modalidades demonstrativas, a câmera 118 pode ser configurada para capturar a imagem incluindo o objeto de referência.
[096] Em algumas modalidades demonstrativas, a aplicação 160 pode ser configurada para determinar a distância estimada entre a câmera 118 e o objeto de referência, por exemplo, com base nas dimensões imageadas do objeto na imagem capturada, as dimensões reais do objeto, e atributos de câmera, por exemplo, como descrito abaixo.
[097] Referência é feita à Fig. 3, que ilustra de forma esquemática um diagrama de imageamento 300 para capturar uma imagem de um objeto 302, de acordo com algumas modalidades demonstrativas.
[098] Em algumas modalidades demonstrativas, como ilustrado na Fig. 3, uma imagem 312 do objeto 302 pode ser capturada através de uma lente 310 de uma câmera. Por exemplo, a câmera 118 (Fig. 1) pode incluir a lente 310.
[099] Em algumas modalidades demonstrativas, como ilustrado na Fig. 3, o objeto 302 pode ter uma altura, denotada h, que pode ser conhecida e/ou fornecida.
[100] Em algumas modalidades demonstrativas, como ilustrado na Fig. 3, a imagem 312 do objeto 302, quando capturada através da lente 310, pode ter uma altura imageada, denotada h'.
[101] Em algumas modalidades demonstrativas, uma distância, denotada u, entre a lente 310 e o objeto 302 pode ser determinada, por exemplo, com base no EFL da lente 310, que pode ser conhecido e/ou determinado, altura h, e/ou altura imageada h', por exemplo, como descrito abaixo.
[102] Em algumas modalidades demonstrativas, a Equação a seguir pode ser fornecida, por exemplo, com base em semelhança de triângulos no esquema de representação de imagem 300, por exemplo, como segue:
Figure img0002
em que v é aproximadamente o EFL da lente 310.
[103] Em algumas modalidades demonstrativas, a altura imageada h' da imagem 312 pode ser baseada em um número de pixels, denotados h'_pixels_estimated, ocupados pela imagem 312, e um pitch de sensor, denotado pitch, da lente 310, por exemplo, como segue:
Figure img0003
[104] Em algumas modalidades demonstrativas, a distância u pode ser determinada, por exemplo, com base na Equação 2 e na Equação 3, por exemplo, como segue:
Figure img0004
[105] Em algumas modalidades demonstrativas, como ilustrado na Fig. 3, o objeto 302 pode ser vertical, por exemplo, sem qualquer inclinação.
[106] Em algumas modalidades demonstrativas, um objeto a ser capturado pela câmera pode ser inclinado, por exemplo, como descrito abaixo com referência à Fig. 4.
[107] Referência é feita à Fig. 4, que ilustra de forma esquemática um diagrama de imageamento 400 para captura de uma imagem de um objeto inclinado 402, de acordo com algumas modalidades demonstrativas.
[108] Em algumas modalidades demonstrativas, como ilustrado na Fig. 4, uma imagem 412 do objeto inclinado 402 pode ser capturada através de uma lente 410 de uma câmera. Por exemplo, a câmera 118 (Fig. 1) pode incluir a lente 410.
[109] Em algumas modalidades demonstrativas, como ilustrado na Fig. 4, o objeto 402 pode ter uma altura, denotada h, que pode ser conhecida e/ou determinada.
[110] Em algumas modalidades demonstrativas, como ilustrado na Fig. 4, uma imagem 412 do objeto 402, por exemplo, quando capturada através da lente 410 pode ser uma altura imageada, denotada h'.
[111] Em algumas modalidades demonstrativas, como ilustrado na Fig. 4, a altura imageada h' da imagem 412 pode refletir uma projeção do objeto 402 em um plano 407 em um ângulo inclinado, denotado θ.
[112] Em algumas modalidades demonstrativas, como ilustrado na Fig. 4, a projeção da altura h pode resultar em um erro e/ou uma redução, denotado Δh, da altura h do objeto 402, que pode reduzir a altura imageada h' da imagem 412.
[113] Em algumas modalidades demonstrativas, o erro Δh no tamanho do objeto h pode ser determinado, por exemplo, como segue:
Figure img0005
[114] Em um exemplo, para um erro assumido Δh, que pode resultar, por exemplo, de um ângulo de inclinação de ±10° (graus), um erro relativo de altura pode ser de aproximadamente, por exemplo, +1,5% (por cento).
[115] Em algumas modalidades demonstrativas, o erro relativo pode afetar a distância estimada, por exemplo, pelo mesmo percentual.
[116] Com referência novamente à Fig. 1, em algumas modalidades demonstrativas, a aplicação 160 pode ser configurada para determinar a distância estimada entre a câmera 118 e o objeto, por exemplo, com base em uma coordenada Cartesiana 3D do objeto, por exemplo, como descrito abaixo.
[117] Em algumas modalidades demonstrativas, o dispositivo 102 pode incluir um sensor 3D 124 configurado para determinar a coordenada Cartesiana 3D do objeto.
[118] Em algumas modalidades demonstrativas, o sensor 3D 124 pode ser configurado para mapear o objeto para um conjunto de pontos, por exemplo, 3 pontos, denotados {xi, yi, zi}, por exemplo, em uma coordenada Cartesiana de 3 dimensões.
[119] Em um exemplo, o conjunto de pontos pode incluir uma estrutura projetada, incluindo uma estrutura dependente de distância, uma distância da estrutura desfocada, uma estrutura de triangulação com base em estéreo, e/ou similares.
[120] Em algumas modalidades demonstrativas, uma distância, denotada d, entre o objeto e a câmera 118 pode ser determinada, por exemplo, como segue:
Figure img0006
em que {x0, y0, z0} denota a localização da câmera, por exemplo, no mesmo sistema de coordenadas Cartesianas que o objeto e k denota um ponto discreto no objeto, que foi capturado pelo sensor 3D 124.
[121] Em algumas modalidades demonstrativas, a aplicação 160 pode ser configurada para estimar a distância da câmera para o objeto, por exemplo, com base na informação do sensor 3D 124.
[122] Em algumas modalidades demonstrativas, o sensor 3D 124 pode ser configurado para fornecer informação descrevendo cada pixel em uma imagem ou cada grupo de pixels na imagem como uma função da distância da câmera, ou como uma função da dimensão absoluta, por exemplo, em metros, polegadas ou qualquer outra unidade de tamanho.
[123] Em um exemplo, a função da distância pode permitir que a aplicação 160 determine a distância entre o objeto e a câmera 118.
[124] Em outro exemplo, a função da dimensão absoluta pode permitir a determinação de uma distância para um objeto, por exemplo, com base na Equação 4. Em um exemplo, a aplicação 160 pode determinar o tamanho do objeto h, por exemplo, com base na informação do sensor 3D 124, por exemplo, por uma estimativa de quantos pixels a altura imageada do objeto adquiriu na imagem.
[125] Em algumas modalidades demonstrativas, a aplicação 160 pode ser configurada para determinar a distância entre a câmera 118 e o olho do usuário, por exemplo, mesmo sem a utilização do objeto, por exemplo, pela utilização da informação de aceleração correspondente à aceleração do dispositivo 102, por exemplo, como descrito abaixo.
[126] Em algumas modalidades demonstrativas, a aplicação 160 pode ser configurada para determinar a distância estimada entre a câmera 118 e os olhos do usuário, por exemplo, com base na informação de aceleração indicando a aceleração do dispositivo 102, por exemplo, como descrito abaixo.
[127] Em algumas modalidades demonstrativas, o dispositivo 102 pode incluir um acelerômetro 126 para fornecer a aplicação 160 a informação de aceleração do dispositivo 102.
[128] Em algumas modalidades demonstrativas, o acelerômetro 126 pode ser configurado para fornecer a informação de aceleração em um determinado momento, por exemplo, para cada eixo geométrico, por exemplo, do sistema de coordenadas Cartesianas.
[129] Em algumas modalidades demonstrativas, a aplicação 160 pode ser configurada para determinar a distância entre a câmera 118 e os olhos do usuário, por exemplo, com base na satisfação de um conjunto de duas condições, por exemplo, como descrito abaixo.
[130] Em algumas modalidades demonstrativas, a aplicação 160 pode determinar a distância entre a câmera 118 e os olhos do usuário, por exemplo, depois de realizar um procedimento de inicialização, que pode incluir a configuração de uma distância inicial, denotada x0, entre o olho do usuário e a câmera 118, quando se segura o dispositivo 102 perto do olho do usuário.
[131] Em algumas modalidades demonstrativas, a aplicação 160 pode fazer com que o dispositivo 102 instrua o usuário a iniciar a medição da distância entre a câmera 118 e os olhos do usuário, por exemplo, depois do procedimento de inicialização, pela instrução do usuário a mover o dispositivo 102 para longe dos olhos.
[132] Em algumas modalidades demonstrativas, a aplicação 160 pode receber do acelerômetro 126 a informação de aceleração do dispositivo 102, por exemplo, em um ou mais, por exemplo, todos, os eixos geométricos do sistema de coordenadas Cartesianas, de acordo com o movimento do dispositivo 102.
[133] Em algumas modalidades demonstrativas, a aplicação 160 pode determinar uma distância de eixo geométrico x no eixo geométrico X, denotada x(t'), em um determinado momento, por exemplo, com base na informação de aceleração no eixo geométrico X, denotada ax(t), no momento determinado, por exemplo, como segue:
Figure img0007
[134] Em algumas modalidades demonstrativas, a aplicação 160 pode determinar a distância do eixo geométrico x(t'), por exemplo, com base em uma velocidade, denotada vx(t') do dispositivo 102 no momento determinado, por exemplo, como segue:
Figure img0008
[135] Em algumas modalidades demonstrativas, a aplicação 160 pode determinar uma distância do eixo geométrico Y no eixo geométrico Y, denotada y(t'), por exemplo, com base na aceleração, denotada ay(t), do dispositivo 102 no eixo geométrico Y, por exemplo, de uma forma similar à determinação da distância x(t').
[136] Em algumas modalidades demonstrativas, a aplicação 160 pode determinar uma distância do eixo geométrico Z no eixo geométrico Z, denotada z(t'), por exemplo, com base na aceleração, denotada az(t), do dispositivo 102 no eixo geométrico Z, por exemplo, de uma forma similar à determinação da distância x(t').
[137] Em algumas modalidades demonstrativas, a aplicação 160 pode determinar a distância estimada, denotada r(t'), da câmera 118 do olho, por exemplo, com base na distância do eixo geométrico X, distância do eixo geométrico Y e distância do eixo geométrico Z, por exemplo, como segue:
Figure img0009
[138] Em algumas modalidades demonstrativas, uma precisão da distância estimada r(t') pode ser aumentada, por exemplo, utilizando-se mais de uma medição para estimar a distância, por exemplo, como descrito abaixo.
[139] Em algumas modalidades demonstrativas, a aplicação 160 pode ser configurada para utilizar a informação de aceleração em combinação com a informação de outros sensores de medição de distância, por exemplo, para aumentar a faixa de medição, confiabilidade, precisão e/ou sensibilidade.
[140] Em algumas modalidades demonstrativas, a aplicação 160 pode ser configurada para aumentar uma precisão da estimativa de distância pelo acelerômetro 126, por exemplo, pela integração de uma ou mais imagens capturadas pela câmera 118, por exemplo, em adição à informação de aceleração.
[141] Em algumas modalidades demonstrativas, a aplicação 160 pode ser configurada para controlar, causar, acionar e/ou instruir a câmera 118 a capturar uma ou mais imagens, por exemplo, durante o movimento do dispositivo 102, por exemplo, após o procedimento de inicialização.
[142] Em algumas modalidades demonstrativas, a aplicação 160 pode ser configurada para utilizar a informação a partir das imagens capturadas, por exemplo, para aumentar a precisão da distância estimada, por exemplo, com base na informação de aceleração.
[143] Em algumas modalidades demonstrativas, a aplicação 160 pode utilizar a informação das imagens capturadas, por exemplo, quando as imagens capturadas incluem um objeto, que possui dimensões conhecidas, por exemplo, como descrito acima.
[144] Em algumas modalidades demonstrativas, a aplicação 160 pode ser configurada para determinar uma distância entre um par de imagens das imagens capturadas, por exemplo, com base em uma mudança na ampliação do objeto.
[145] Em algumas modalidades demonstrativas, um erro da informação de acelerômetro pode não ser acumulado através do movimento do dispositivo 102, por exemplo, se a distância entre o par de imagens for utilizada para avaliar a informação de aceleração.
[146] Em um exemplo, o procedimento de inicialização pode ser realizado em um momento, denotado t'0, seguido por N aquisições de câmera nos momentos, denotados {t'1 t'2, t'3, t'4...t'N}, e em distâncias, denotadas {r'1, r'2, r'3, r'4...r'N}, determinadas a partir dos dados de sensor de informação de acelerômetro e tamanhos relacionados, denotados {h'1, h'2, h'3, h'4...h'N}, do objeto nas imagens capturadas.
[147] Em algumas modalidades demonstrativas, uma otimização para as medições de distância relacionadas com a informação de acelerômetro pode ser realizada para se reduzir o erro da informação de acelerador, por exemplo, quando todo o capturado corresponde ao mesmo tamanho h do objeto.
[148] Em algumas modalidades demonstrativas, uma equação para otimizar o erro mínimo pode ser definida, por exemplo, como segue:
Figure img0010
[149] Em algumas modalidades demonstrativas, a aplicação 160 pode ser configurada para determinar uma distância entre um plano de pupilas do usuário ("o plano de pupilas") e a câmera 118, por exemplo, para determinar a distância pupilar do usuário.
[150] Em algumas modalidades demonstrativas, a aplicação 160 pode determinar a distância entre o plano de pupilas e a câmera 118, por exemplo, depois de determinar a distância da câmera 118 para o objeto, por exemplo, utilizando sensor 3D 124, acelerômetro 126 e/ou imagens capturadas incluindo o objeto, por exemplo, como descrito acima.
[151] Em algumas modalidades demonstrativas, calcular a distância entre o plano de pupilas e a câmera 118 pode permitir a determinação de uma ampliação no plano de pupilas, que pode permitir calcular a distância absoluta entre as pupilas.
[152] Em algumas modalidades demonstrativas, calcular a distância entre o plano de pupilas e a câmera 118 pode permitir a determinação de um anglo no qual os olhos estão olhando para a câmera, por exemplo, para acomodar a convergência do olho quando olhando para a câmera 118.
[153] Em algumas modalidades demonstrativas, assumindo-se que a câmera 118 acomode a aberração de distorção criada a partir de um sensor plano e lente não ideal, a ampliação através deum plano perpendicular ao sensor, ou ápice de lente, da câmera 118, pode ser uniforme, e as distorções de barril e almofada podem ser mínimas.
[154] Em algumas modalidades demonstrativas, uma ampliação, denotada Mobject(camera_object_distance), pode definir uma conversão entre um número estimado de pixels, denotado hobj'_pixels_estimated, de uma dimensão capturada, denotada h'obj, do objeto na imagem capturada em um plano perpendicular ao sensor da câmera 118, e uma dimensão absoluta do objeto, denotada hobj em um plano incluindo o objeto.
[155] Em algumas modalidades demonstrativas, a determinação da ampliação pode permitir a determinação de uma razão de pixel para milímetro, que pode permitir calcular a PD da imagem capturada, por exemplo, pelo cálculo de um número de pixels, por exemplo, como descrito abaixo.
[156] Em um exemplo, pode ser assumido que a câmera 118 pode ser inclinada, e um ou mais aspectos na imagem capturada podem estar a distâncias diferentes da câmera 118. De acordo com esse exemplo, cada conjunto de pixels na imagem capturada pode representar uma ampliação diferente.
[157] Em algumas modalidades demonstrativas, a ampliação pode ser baseada na distância entre a câmera 118 e o objeto, por exemplo, como segue:
Figure img0011
[158] Em algumas modalidades demonstrativas, a dimensão absoluta, por exemplo, altura hobj, do objeto pode ser determinada com base na ampliação e dimensão imageada, por exemplo, altura imageada, h'obj, por exemplo, como segue:
Figure img0012
[159] Em algumas modalidades demonstrativas, o objeto pode não ser posicionado no plano das pupilas. Por exemplo, o objeto pode ser posicionado na testa do usuário.
[160] Em algumas modalidades demonstrativas, a aplicação 160 pode ser configurada para determinar uma mudança de ampliação entre um plano de objeto, que inclui o objeto, e o plano das pupilas, enquanto considera a inclinação da câmera de aquisição 118.
[161] Em algumas modalidades demonstrativas, a aplicação 160 pode determinar a distância entre um plano de pupilas do usuário e câmera 118, por exemplo, com base em um desvio axial entre o objeto e as pupilas ao longo de um eixo geométrico perpendicular a um plano incluindo o objeto, por exemplo, o plano de objeto, por exemplo, como descrito abaixo.
[162] Em algumas modalidades demonstrativas, a aplicação 160 pode ser configurada para determinar o desvio axial entre o objeto e as pupilas ao longo do eixo geométrico perpendicular ao plano incluindo o objeto, por exemplo, como descrito abaixo.
[163] Em algumas modalidades demonstrativas, calcular o desvio axial pode permitir a determinação da mudança de ampliação entre o plano de objeto e o plano de pupilas.
[164] Em algumas modalidades demonstrativas, a aplicação 160 pode ser configurada para determinar a mudança de ampliação, enquanto considera uma inclinação da câmera 118.
[165] Em um exemplo, a câmera 118 pode não ser vertical com relação ao solo, por exemplo, quando capturando a imagem incluindo o objeto.
[166] Em algumas modalidades demonstrativas, a aplicação 160 pode ser configurada para determinar a distância entre o plano de pupilas e o plano de objeto, por exemplo, com base no desvio axial e inclinação de câmera 180, por exemplo, como descrito abaixo.
[167] Em algumas modalidades demonstrativas, o dispositivo 102 pode incluir um estimador de orientação 128, configurado para determinar uma orientação do dispositivo 102 e/ou uma orientação de um ou mais elementos do dispositivo 102, por exemplo, a câmera 118.
[168] Em algumas modalidades demonstrativas, a aplicação 160 pode ser configurada para receber, por exemplo, do estimador de orientação 128, a informação de orientação indicando uma orientação do dispositivo 102, por exemplo, quando a imagem é capturada.
[169] Em algumas modalidades demonstrativas, a aplicação 160 pode ser configurada para determinar a distância pupilar do usuário, por exemplo, com base na informação de orientação.
[170] Em algumas modalidades demonstrativas, a informação de orientação pode indicar uma orientação da câmera 118.
[171] Em algumas modalidades demonstrativas, a informação de orientação pode indicar o ângulo de inclinação da câmera 118.
[172] Em um exemplo, a aplicação 160 pode ser configurada para determinar o ângulo de inclinação da câmera 118, por exemplo, quando a imagem é capturada, por exemplo, com base na orientação da câmera 118 e/ou orientação do dispositivo 102.
[173] Em algumas modalidades demonstrativas, a aplicação 160 pode ser configurada para determinar a distância pupilar do usuário, por exemplo, com base na informação de orientação e o desvio axial entre o objeto e as pupilas ao longo de um eixo geométrico perpendicular a um plano incluindo o objeto, por exemplo, como descrito abaixo.
[174] Referência é feita à Fig. 5 que ilustra de forma esquemática um diagrama de captura 500 para capturar um objeto 502 por uma câmera inclinada 518, de acordo com algumas modalidades demonstrativas. Por exemplo, a câmera 518 pode realizar a funcionalidade da câmera 118 (Fig. 1).
[175] Em algumas modalidades demonstrativas, como ilustrado na Fig. 5, a câmera 518 pode ser inclinada em um ângulo de inclinação, denotado θ, por exemplo, com relação ao horizonte.
[176] Em algumas modalidades demonstrativas, como ilustrado na Fig. 5, a câmera 518 pode estar a uma distância, denotada camera_obj_distance, do objeto 502.
[177] Em algumas modalidades demonstrativas, como ilustrado na Fig. 5, o objeto 502 pode ser localizado em um desvio horizontal, denotado horizontal_offset, e um desvio vertical, denotado ver_offset, dos olhos 506 do usuário.
[178] Em algumas modalidades demonstrativas, como ilustrado na Fig. 5, os olhos 530 podem ser incluídos em um plano 527 denotado eyes_plane, por exemplo, o plano de pupilas que é perpendicular ao sensor da câmera 118.
[179] Em algumas modalidades demonstrativas, como ilustrado na Fig. 5, o objeto 502 pode ser incluído em um plano 529, denotado object_plane, que é perpendicular o sensor da câmera 118.
[180] Em algumas modalidades demonstrativas, como ilustrado na Fig. 5, pode haver um desvio axial, denotado axis_offset, em um eixo geométrico perpendicular ao plano 527 e o plano 529.
[181] Em algumas modalidades demonstrativas, como ilustrado na Fig. 5, o desvio axial, pode definir uma distância entre o plano 527 e o plano 529.
[182] Em algumas modalidades demonstrativas, como ilustrado na Fig. 5, pode haver um desvio vertical projetado, denotado projected_ver_offset, entre os centros dos olhos 530 e o objeto 502, quando os centros dos olhos 530 e o objeto 502 são projetados no plano 529 e/ou no plano 527.
[183] Em algumas modalidades demonstrativas, pode ser assumido que a ampliação da imagem capturada é uniforme através dos planos perpendiculares ao sensor de câmera, por exemplo, o plano 527 e/ou o plano 529.
[184] Em algumas modalidades demonstrativas, o desvio axial pode ser determinado com base no desvio vertical projetado, desvio horizontal, e ângulo de inclinação, por exemplo, como segue:
Figure img0013
[185] Em algumas modalidades demonstrativas, o desvio vertical projetado pode ser determinado, por exemplo, pela análise de um deslocamento vertical dos olhos 530 a partir do objeto 502 no plano projetado, por exemplo, o plano 529, por exemplo, pela estimativa de um número de pixels entre os centros da câmera 518 e os olhos 530 na imagem capturada.
[186] Em algumas modalidades demonstrativas, o desvio horizontal pode ser fornecido, calculado e/ou pode ser predefinido, por exemplo, aproximadamente 30 milímetros (mm).
[187] Em algumas modalidades demonstrativas, uma ampliação, denotada Meyes, no plano das pupilas, por exemplo, plano 527, pode ser baseada na distância da câmera 518 para o plano de pupilas.
[188] Em algumas modalidades demonstrativas, a distância da câmera 518 para o plano de pupilas pode ser baseada em uma soma da distância do objeto para a câmera 118, e o desvio axial, por exemplo, como pode ser determinado de acordo com a Equação 13.
[189] Em algumas modalidades demonstrativas, uma distância, denotada u, entre a câmera e o plano das pupilas pode ser definida com base em uma soma da distância do objeto para a câmera 118, e o desvio axial, por exemplo, como segue:
Figure img0014
[190] Em algumas modalidades demonstrativas, uma ampliação denotada Meyes(u), na distância u pode ser determinada, por exemplo, como segue:
Figure img0015
[191] Com referência à Fig. 1, em algumas modalidades demonstrativas, a aplicação 160 pode ser configurada para identificar uma localização na pupila através do qual o usuário olha para dentro da câmera 118, por exemplo, quando capturando a imagem.
[192] Em algumas modalidades demonstrativas, a aplicação 160 pode ser configurada para identificar a localização na pupila, através do qual o usuário olha para dentro da câmera 118, por exemplo com, com base no reflexo da luz do olho na imagem capturada, por exemplo, como descrito abaixo.
[193] Em algumas modalidades demonstrativas, a aplicação 160 pode ser configurada para identificar a localização na pupila, através do qual o usuário olha para dentro da câmera 118, por exemplo, com base em uma primeira imagem de Purkinje.
[194] Referência é feita à Fig. 6, que ilustra de forma esquemática uma seção horizontal de um olho direito 600 de um usuário, de acordo com algumas modalidades demonstrativas.
[195] Em algumas modalidades demonstrativas, como ilustrado na Fig. 6, a seção horizontal do olho direito 600 pode apresentar uma diferença entre um eixo geométrico visual 602 e um eixo geométrico ótico 604 do olho direito 600.
[196] Em algumas modalidades demonstrativas, um local 606 no qual o eixo geométrico visual 602 cruza a pupila pode ser utilizada para medir a PD, por exemplo, visto que o olho 600 pode girar para visualizar a imagem mais nítida, por exemplo, da câmera 118, que é imageada na Fóvea 610.
[197] Em algumas modalidades demonstrativas, a Fóvea 610 pode ser localizada a cerca de 5 graus temporalmente, por exemplo, na direção da orelha, por exemplo, quando olhando a partir de cima, para o eixo geométrico ótico 604. Portanto, a linha de visão na qual o olho é girado para olhar para o objeto, pode não coincidir com o eixo geométrico ótico 604, que conecta a linha entre o ápice da córnea e o centro da pupila. De acordo, a localização 606 pode não ser o centro da pupila.
[198] Em algumas modalidades demonstrativas, a aplicação 160 (Fig. 1) pode ser configurado para identificar a localização 606, por exemplo, com base em um reflexo da fonte de luz 122 no olho 600 na imagem capturada.
[199] Em um exemplo, a localização 606 pode ser identificada, por exemplo, olhando para o primeiro reflexo, por exemplo, a primeira imagem de Purkinje, que é o reflexo da fonte de luz 122, imageada pela superfície refletora mais externa da córnea. O olho pode ser girado para visualizar a fonte de luz 122, e a superfície refletora de córnea pode ser perpendicular à fonte de luz 122. Portanto, o primeiro reflexo pode ser ao longo do eixo geométrico visual 602. De acordo, a localização 606 pode ser determinada com base na primeira reeleição na imagem capturada.
[200] Em algumas modalidades demonstrativas, a aplicação 160 (Fig. 1) pode determinar a PD, por exemplo, com base na localização 606 do olho direito 600 e uma localização do segundo reflexo no olho esquerdo, por exemplo, em vez de utilizar o centro da pupila ou uma localização arbitrária na pupila.
[201] Com referência à Fig. 1, em algumas modalidades demonstrativas, a aplicação 160 pode ser configurada para determinar um número de pixels, denotado heyes'_pixels_estimated, entre a primeira e segunda reeleições na imagem capturadas, por exemplo, a localização 606 (Fig. 6) do olho direito 600 (Fig. 6), e a localização do segundo reflexo do olho esquerdo.
[202] Em algumas modalidades demonstrativas, a aplicação 160 pode ser configurada para calcular uma PD, denotada PDconvergence, para convergir os olhos, por exemplo, quando os olhos estão olhando para a câmera 118.
[203] Em algumas modalidades demonstrativas, a aplicação 160 pode calcular a PD para olhos convergentes, por exemplo, com base na inclinação do sensor, e a ampliação no plano de pupilas e o número de pixels, por exemplo, como segue:
Figure img0016
[204] Em algumas modalidades demonstrativas, a aplicação 160 pode ser configurada para calcular a PD, por exemplo, quando os olhos estão olhando na direção do infinito ("olhos infinitos").
[205] Em algumas modalidades demonstrativas, a aplicação 160 pode ser configurada para calcular uma correção entre a distância pupilar para olhos convergentes e a distância pupilar para olhos infinitos, por exemplo, como descrito abaixo.
[206] Referência é feita à Fig. 7, que ilustra de forma esquemática uma PD entre dois olhos 720 de um usuário olhando para uma câmera 718, de acordo com algumas modalidades demonstrativas.
[207] Em algumas modalidades demonstrativas, como ilustrado na Fig. 7, a câmera 718 pode ser localizada a uma distância, denotada camera_eye_distance, dos olhos 720.
[208] Em algumas modalidades demonstrativas, como ilustrado na Fig. 7, cada olho 720 é girado em um ângulo Φ, por exemplo, na direção do nariz, para olhar para a câmera 718.
[209] Em algumas modalidades demonstrativas, como ilustrado na Fig. 7, uma localização 706 de um eixo geométrico visual 708 cruzando a pupila pode ser deslocada transversalmente em uma distância de acomodação, denotada T, na direção de uma localização 709, por exemplo, na direção das orelhas, por exemplo, quando os olhos 720 olham na direção do infinito.
[210] Em algumas modalidades demonstrativas, a distância de acomodação t pode ser, por exemplo, o resultado de os olhos 730 girarem em um raio, denotado R, no ângulo Φ, para a localização 709, por exemplo, para olhar para o infinito.
[211] Em algumas modalidades demonstrativas, assumindo-se que os centros de rotação dos olhos 720 são iguais, os raios R dos olhos podem ser iguais para um valor predefinido, por exemplo, cerca de 13,5 mm.
[212] Em algumas modalidades demonstrativas, as localizações 709 podem ser consideradas, por exemplo, quando da determinação da distância pupilar, por exemplo, para óculos para distância.
[213] Em algumas modalidades demonstrativas, como ilustrado na Fig. 7, a distância pupilar para olhos convergentes, denotada PD(Φ), pode ser definida, por exemplo, quando os olhos 720 são convergidos para olharem na direção de um flash da câmera 718, por exemplo, se a câmera 718 estiver localizada em um e, que não é uma distância infinita, por exemplo, a distância camera_eye_distance.
[214] Em algumas modalidades demonstrativas, o ângulo Φ pode ser expresso como segue:
Figure img0017
[215] Em algumas modalidades demonstrativas, a distância pupilar para olhos infinitos, denotada PDinfinity, por exemplo, quando os olhos 720 estão olhando para o infinito, pode ser determinada, por exemplo, com base na soma da distância pupilar PDconvergence para convergir os olhos e a distância de acomodação T para os dois olhos 720, por exemplo, como segue:
Figure img0018
[216] Em algumas modalidades demonstrativas, a distância pupilar PDinfinity pode ser determinada, por exemplo, pela combinação da Equação 17 e Equação 18, por exemplo, como segue:
Figure img0019
[217] Em algumas modalidades demonstrativas, um retorno negativo pode reduzir um erro acumulado. Por exemplo, em um caso no qual um desvio horizontal calculado horizontal_offset ser mais longo do que um desvio horizontal real, por exemplo, entre o olho e o objeto, a distância camera_eye_distance pode ser maior, por exemplo, resultando em uma PD maior no plano dos olhos. No entanto, a acomodação para conversão, por exemplo, a distância T, de uma distância mais alta, por exemplo, pode reduzir o ângulo Φ, que pode resultar em uma adição menor à distância pupilar, que pode reduzir o erro acumulado.
[218] Referência é feita às Figs. 8A-8F, que ilustram de forma esquemática histogramas de simulações Monte Carlo, de acordo com algumas modalidades demonstrativas.
[219] Em algumas modalidades demonstrativas, as simulações consideradas variações em uma distância entre a câmera para o objeto, por exemplo, entre 300 mm e 900 mm, um erro na estimativa de distância ente a câmera e o objeto, por exemplo, entre -5 mm e 15 mm, e um erro de desvio horizontal entre as pupilas e o objeto, por exemplo, entre -15 mm e 5 mm.
[220] Em algumas modalidades demonstrativas, a Fig. 8A ilustra um histograma de simulações Monte Carlo para avaliar os erros acumulados gerados a partir de um erro de câmera para a estimativa do objeto de tamanho conhecido, por exemplo, quando a câmera é localizada em múltiplas distâncias.
[221] Em algumas modalidades demonstrativas, a Fig. 8B ilustra um histograma de simulações Monte Carlo para avaliar os erros acumulados gerados a partir de um erro para a câmera para uma estimativa de objeto de tamanho conhecido.
[222] Em algumas modalidades demonstrativas, a Fig. 8C ilustra um histograma de simulações Monte Carlo para avaliar o erro de um desvio horizontal entre as pupilas e o objeto.
[223] Em algumas modalidades demonstrativas, a Fig. 8D ilustra um histograma de simulações Monte Carlo para apresentar uma variação da PD nominal.
[224] Em algumas modalidades demonstrativas, a Fig. 8E ilustra o resultado de um erro acumulado do eixo geométrico horizontal apresentado como um histograma.
[225] Em algumas modalidades demonstrativas, o eixo geométrico horizontal da Fig. 8E define o erro acumulado, e o eixo geométrico vertical define a quantidade de tentativas que resultam com essa quantidade de erros, por exemplo, quando o número de simulações é N = 1000.
[226] Em algumas modalidades demonstrativas, a Fig. 8F apresenta um histograma ilustrando que o erro total na PD medida está dentro da faixa [-1, +1] mm para pelo menos 95% dos casos.
[227] Referência é feita à Fig. 9, que ilustra esquematicamente um método de determinação de uma PD de um usuário, de acordo com algumas modalidades demonstrativas. Por exemplo, uma ou operações do método da Fig. 9 podem ser realizadas por um dispositivo móvel, o dispositivo 102 (Fig. 1), um servidor, por exemplo, o servidor 170 (Fig. 1) e/ou uma aplicação, por exemplo, a aplicação 160 (Fig. 1).
[228] Como indicado no bloco 902, o método pode incluir a captura de uma imagem dos olhos de um usuário olhando para o flash de uma câmera, e recebendo informação referente a uma orientação da câmera, o pitch de sensor da câmera, e EFL da lente da câmera. Por exemplo, a aplicação 160 (Fig. 1) pode receber a imagem capturada incluindo o primeiro e segundo reflexos a partir da câmera 118 (Fig. 1) e pode receber informação de orientação, pitch de sensor, e EFL da câmera 118 (Fig. 1), por exemplo, como descrito acima.
[229] Como indicado no bloco 904, o método pode incluir a estimativa de uma distância da câmera para um objeto na face do usuário. Por exemplo, a aplicação 160 (Fig. 1) pode estimar a distância entre a câmera 118 e o objeto de referência, por exemplo, utilizando a informação do sensor 3D 124 (Fig. 1), a informação de aceleração do acelerômetro 128 (Fig. 1) e/ou com base nas dimensões do objeto, por exemplo, como descrito acima.
[230] Como indicado no bloco 906, o método pode incluir o cálculo de um desvio axial entre um plano de objeto incluindo o objeto e um plano de pupilas incluindo as pupilas do usuário, por exemplo, com base na orientação da câmera. Por exemplo, a aplicação 160 (Fig. 1) pode determinar o desvio axial entre o plano de objeto e o plano de pupilas, por exemplo, com base na informação de orientação a partir do estimador de orientação 128 (fig. 1), por exemplo, como descrito acima.
[231] Como indicado no bloco 908, o método pode incluir a determinação de uma ampliação no plano de pupilas, com base na distância axial e na distância medida a partir da câmera para o objeto, por exemplo, utilizando EFL e o pitch de sensor. Por exemplo, a aplicação 160 (Fig. 1) pode determinar a ampliação no plano de pupilas, por exemplo, com base no desvio axial e distância da câmera 118 (Fig. 1) para o objeto, por exemplo, como descrito acima.
[232] Como indicado no bloco 910, o método pode incluir a identificação do primeiro e segundo reflexos do flash nos olhos do usuário, e a medição da distância, por exemplo, em pixels, entre o primeiro reflexo e o segundo reflexo. Por exemplo, a aplicação 160 (Fig. 1) pode estimar a distância, por exemplo, em pixels, entre o primeiro reflexo e o segundo reflexo, por exemplo, como descrito acima.
[233] Como indicado no bloco 912, o método pode incluir a conversão da distância nos pixels em unidades de distância, por exemplo, de acordo com a ampliação no plano de pupilas. Por exemplo, a aplicação 160 (Fig. 1) pode estimar a distância entre o primeiro reflexo e o segundo reflexo, por exemplo, como descrito acima.
[234] Como indicado no bloco 914, o método pode incluir a acomodação da distância medida para a convergência do olho, por exemplo, pelo cálculo onde o primeiro e segundo reflexos teriam sido imageados para os olhos olhando para o infinito, e configuração da distância interpupilar para óculos de distância com base na acomodação. Por exemplo, a aplicação 160 (Fig. 1) pode determinar a distância pupilar PD infinity, por exemplo, com base na distância T, por exemplo, como descrito acima.
[235] Em algumas modalidades demonstrativas, o método pode incluir opcionalmente o cálculo onde o primeiro e segundo reflexos teriam sido imageados por uma rotação de olho para uma distância próxima, por exemplo, uma distância predefinida de 45 centímetros, e configurando a distância pupilar próxima para a visão próxima.
[236] Em algumas modalidades demonstrativas, um método de determinação de uma PD de um usuário pode incluir, por exemplo, apenas algumas das operações da Fig. 9, por exemplo, enquanto não inclui uma ou mais outras operações do método da Fig. 9.
[237] Em algumas modalidades demonstrativas, um método de determinação de uma PD pode ser realizado, por exemplo, mesmo sem realizar uma ou mais, por exemplo, todas as operações descritas acima com relação aos blocos 906 e/ou 908, por exemplo, se uma distância entre a câmera e as pupilas for conhecida ou determinada.
[238] Em algumas modalidades demonstrativas, a distância entre a câmera e as pupilas pode ser determinada, por exemplo, com base em um tamanho de um aspecto facial da face do usuário.
[239] Em um exemplo, o método de determinação de uma PD pode incluir a calibragem e/ou medição de um tamanho do aspecto facial, por exemplo, o diâmetro de uma íris, capturando uma imagem da face utilizando o flash da câmera; e determinando a distância a partir da câmera para as pupilas, por exemplo, com base no aspecto facial.
[240] Em algumas modalidades demonstrativas, a calibragem e/ou medição do aspecto facial podem ser, por exemplo, pela captura em uma imagem incluindo o objeto facial e um objeto de referência, por exemplo, um cartão de crédito, que pode ser localizado na face do usuário.
[241] Por exemplo, um usuário pode cobrir um olho do usuário com o objeto de referência, por exemplo, o cartão de crédito, por exemplo, para permitir uma calibragem de um diâmetro em uma íris do outro olho.
[242] Referência é feita à Fig. 10, que ilustra de forma esquemática um método de determinação de uma PD de um usuário, de acordo com algumas modalidades demonstrativas. Por exemplo, uma ou mais operações do método da Fig. 10 podem ser realizadas por um dispositivo móvel, o dispositivo 102 (Fig. 1), um servidor, por exemplo, o servidor 170 (Fig. 1) e/ou uma aplicação a aplicação 160 (Fig. 1).
[243] Como indicado no bloco 1002, o método pode incluir o recebimento de uma imagem capturada incluindo o primeiro e segundo reflexos de luz de uma fonte de luz, o primeiro reflexo incluindo um reflexo de luz a partir de uma primeira pupila do usuário. Por exemplo, a aplicação 160 (Fig. 1) pode receber a imagem capturada incluindo o primeiro e segundo reflexos, por exemplo, como descrito acima.
[244] Como indicado no bloco 1004, o método pode incluir a determinação da distância pupilar com base nas localizações do primeiro e segundo reflexos na imagem capturada e uma distância estimada entre uma câmera utilizada para capturar a imagem e as pupilas do usuário, quando a imagem é capturada. Por exemplo, a aplicação 160 (Fig. 1) pode determinar a distância pupilar do usuário, por exemplo, com base nas localizações do primeiro e segundo reflexos na imagem capturada e uma distância estimada entre o dispositivo 102 (Fig. 1) e as pupilas do usuário, quando a imagem é capturada, por exemplo, como descrito acima.
[245] Referência é feita à Fig. 11, que ilustra esquematicamente um produto de fabricação 1000, de acordo com algumas modalidades demonstrativas. O produto 1100 pode incluir um ou mais meios de armazenamento não transitório, legível por computador, tangível 1102, que podem incluir instruções executáveis por computador, por exemplo, implementadas por lógica 1104, operáveis para, quando executadas por pelo menos um processador de computador, permitir que pelo menos um processador de computador implemente uma ou mais operações no dispositivo 102 (Fig. 1), servidor 170 (Fig. 1) e/ou aplicação 160 (Fig. 1), e/ou para realizar, acionar e/ou implementar uma ou mais operações, comunicações e/ou funcionalidades de acordo com as figuras de 1 a 10 e/ou uma ou mais operações descritas aqui. A frase "meio legível por máquina não transitório" é direcionada a incluir todos os meios legíveis por computador, com a única exceção sendo um sinal de propagação transitório.
[246] Em algumas modalidades demonstrativas o produto 1100 e/ou meio de armazenamento legível por máquina 1102 pode incluir um ou mais tipos de meios de armazenamento legíveis por computador capaz de armazenar dados, incluindo a memória volátil, a memória não volátil, memória removível ou não removível, memória apagável ou não apagável, memória gravável ou regravável, e similares. Por exemplo, o meio de armazenamento legível por máquina 1102 pode incluir RAM, DRAM, DRAM de Taxa de Dados Dupla (DDR- DRAM), SDRAM, RAM estática (SRAM), ROM, ROM programável (PROM), ROM programável apagável (EPROM), ROM eletricamente programável apagável (EEPROM), ROM de Disco Compacto (CD-ROM), Disco Compacto Gravável (CD- R), Disco Compacto Regravável (CD-RW), memória flash (por exemplo, memória flash NOR ou NAND), memória de conteúdo endereçável (CAM), memória de polímero, memória de mudança de fase, memória ferroelétrica, memória de silício-óxido-nitrito-óxido-silício (SONOS), um disco, um disquete, um disco rígido, um disco ótico, um disco magnético, um cartão, um cartão magnético, um cartão ótico, uma fita, um cassete e similares. Os meios de armazenamento legíveis por computador podem incluir qualquer meio adequado envolvido com descarga ou transferência de um programa de computador de um computador remoto para um computador solicitante portado pelos sinais de dados consubstanciados em uma onda portadora ou outro meio de propagação através de um enlace de comunicação, por exemplo, um modem, rádio ou conexão de rede.
[247] Em algumas modalidades demonstrativas, a lógica 1104 pode incluir instruções, dados e/ou um código, que, se executadas por uma máquina, podem fazer com que a máquina realize um método, processo e/ou operações como descrito aqui. A máquina pode incluir, por exemplo, qualquer plataforma de processamento adequada, plataforma de computação, dispositivo de computação, dispositivo de processamento, sistema de computação, sistema de processamento, computador, processador ou similares, e pode ser implementada utilizando qualquer combinação adequada de hardware, software, firmware e similares.
[248] Em algumas modalidades demonstrativas, a lógica 1104 pode incluir, ou pode ser implementada como software, um módulo de software, uma aplicação, um programa, uma sub-rotina, instruções, um conjunto de instruções, um código de computação, palavras, valores, símbolos e similares. As instruções podem incluir qualquer tipo adequado de código, tal como código fonte, código compilado, código interpretado, código executável, código estático, código dinâmico, e similares. As instruções podem ser implementadas de acordo com uma linguagem de computador predefinida, forma ou sintaxe, para instruir um processador a realizar uma função determinada. As instruções podem ser implementadas utilizando qualquer linguagem de programação de alto nível, baixo nível, orientada a objeto, visual, compilada e/ou interpretada, tal como C, C++, Java, BASIC, Matlab, Pascal, Visual BASIC, linguagem assembly, código de máquina e similares.
Exemplos
[249] Os exemplos a seguir pertencem a modalidades adicionais.
[250] Exemplo 1 inclui um produto compreendendo um ou mais meios de armazenamento não transitórios, legíveis por computador, tangíveis compreendendo instruções executáveis por computador operáveis para, quando executadas por pelo menos um processador de computador, permitir que pelo menos um processador de computador implemente as operações de medição de uma distância pupilar entre as pupilas de um usuário, as operações compreendendo o recebimento de uma imagem capturada compreendendo primeiro e segundo reflexos de uma luz de uma fonte de luz, o primeiro reflexo compreendendo um reflexo de luz a partir de uma primeira pupila do usuário, e o segundo reflexo compreendendo um reflexo de luz de uma segunda pupila do usuário; e determinando a distância pupilar com base nas localizações do primeiro e segundo reflexos na imagem capturada e uma distância estimada entre um dispositivo de captura de imagem e pupilas do usuário quando a imagem é capturada.
[251] Exemplo 2 inclui a matéria do Exemplo 1, e opcionalmente, em que a imagem capturada compreende um objeto em uma face do usuário, a distância estimada é baseada em uma ou mais dimensões do objeto.
[252] Exemplo 3 inclui a matéria do Exemplo 2, e opcionalmente, em que as operações compreendem a determinação de um desvio axial entre o objeto e as pupilas ao longo de um eixo geométrico perpendicular a um plano incluindo o objeto, e determinando a distância pupilar com base no desvio axial.
[253] Exemplo 4 inclui a matéria do Exemplo 2 ou 3, e opcionalmente, em que a distância estimada é baseada em uma coordenada Cartesiana tridimensional (3D) de um aspecto da face.
[254] Exemplo 5 inclui a matéria de qualquer um dos Exemplos 1-4, e opcionalmente, em que a distância estimada é baseada na informação de aceleração indicando uma aceleração do dispositivo de captura de imagem.
[255] Exemplo 6 inclui a matéria de qualquer um dos Exemplos 1-5, e opcionalmente, em que as operações compreendem a determinação da distância pupilar com base em um número de pixels entre o primeiro e segundo reflexos, e uma razão de pixel para milímetros (mm) dos pixels.
[256] Exemplo 7 inclui a matéria de qualquer um dos Exemplos 1-6, e opcionalmente, em que as operações compreendem o recebimento da informação de orientação indicando uma orientação do dispositivo de captura de imagem quando a imagem é capturada, e determinando a distância pupilar com base na informação de orientação
[257] Exemplo 8 inclui a matéria do Exemplo 7, e opcionalmente, em que a informação de orientação indica um ângulo de inclinação do dispositivo de captura de imagem.
[258] Exemplo 9 inclui a matéria de qualquer um dos Exemplos 1-8, e opcionalmente, em que as operações compreendem a determinação da distância pupilar com base em um ou mais atributos do dispositivo de captura de imagem.
[259] Exemplo 10 inclui a matéria do Exemplo 9, e opcionalmente, em que um ou mais atributos compreendem pelo menos um atributo selecionado a partir do grupo que consiste de um Comprimento Focal Efetivo (EFL) de uma lente do dispositivo de captura de imagem, um campo de visão horizontal de um sensor do dispositivo de captura de imagem, um campo de visão vertical do sensor, uma resolução do sensor, e uma distância entre dois pixels adjacentes do sensor.
[260] Exemplo 11 inclui a matéria de qualquer um dos Exemplos 1-10, e opcionalmente, em que as operações compreendem a determinação da distância pupilar com base em um parâmetro de raio de olho e uma distância entre o dispositivo de captura de imagem e um plano compreendendo as pupilas.
[261] Exemplo 12 inclui a matéria de qualquer um dos Exemplos 1-11, e opcionalmente, em que a distância pupilar compreende uma distância pupilar próxima ou uma distância pupilar distante.
[262] Exemplo 13 inclui um dispositivo móvel configurado para medir uma distância pupilar entre as pupilas de um usuário, o dispositivo móvel compreendendo uma câmera para capturar uma imagem compreendendo primeiro e segundo reflexos de uma luz de uma fonte de luz, o primeiro reflexo compreendendo um reflexo de luz a partir de uma primeira pupila do usuário, e o segundo reflexo compreendendo um reflexo de luz de uma segunda pupila do usuário; e um calculador de distância pupilar para receber a imagem capturada; e para determinar a distância pupilar com base nos locais da primeira e segunda reeleições na imagem capturada e uma distância estimada entre o dispositivo móvel e as pupilas, quando a imagem é capturada.
[263] Exemplo 14 inclui a matéria do Exemplo 13, e opcionalmente, em que a imagem capturada compreende um objeto em uma face do usuário, a distância estimada é baseada em uma ou mais dimensões do objeto.
[264] Exemplo 15 inclui a matéria do Exemplo 14, e opcionalmente, em que o dispositivo móvel é configurado para determinar um desvio axial entre o objeto e as pupilas ao longo de um eixo geométrico perpendicular a um plano incluindo o objeto e para determinar a distância pupilar com base no desvio axial.
[265] Exemplo 16 inclui a matéria do Exemplo 14 ou 15, e opcionalmente, em que a distância estimada é baseada em uma coordenada Cartesiana tridimensional (3D) de um aspecto da face.
[266] Exemplo 17 inclui a matéria de qualquer um dos Exemplos 13-16, e opcionalmente, em que a distância estimada é baseada na informação de aceleração indicando uma aceleração do dispositivo de captura de imagem.
[267] Exemplo 18 inclui a matéria de qualquer um dos Exemplos 13-17, e opcionalmente, em que o dispositivo móvel é configurado para determinar a distância pupilar com base em um número de pixels entre o primeiro e segundo reflexos, e uma razão de pixel para milímetro (mm) dos pixels.
[268] Exemplo 19 inclui a matéria de qualquer um dos Exemplos 13-18, e opcionalmente, em que o dispositivo móvel é configurado para receber a informação de orientação indicando uma orientação do dispositivo de captura de imagem quando a imagem é capturada, e para determinar a distância pupilar com base na informação de orientação.
[269] Exemplo 20 inclui a matéria do Exemplo 19, e opcionalmente, em que a informação de orientação indica um ângulo de inclinação do dispositivo de captura de imagem.
[270] Exemplo 21 inclui a matéria de qualquer um dos Exemplos 13-20, e opcionalmente, em que o dispositivo móvel é configurado para determinar a distância pupilar com base em um ou mais atributos do dispositivo de captura de imagem.
[271] Exemplo 22 inclui a matéria do Exemplo 21, e opcionalmente, em que o um ou mais atributos compreendem pelo menos um atributo selecionado a partir do grupo que consiste de um Comprimento Focal Efetivo (EFL) de uma lente do dispositivo de captura de imagem, um campo de visão horizontal de um sensor do dispositivo de captura de imagem, um campo de visão vertical do sensor, uma resolução do sensor, e uma distância entre dois pixels adjacentes do sensor.
[272] Exemplo 23 inclui a matéria de qualquer um dos Exemplos 13-22, e opcionalmente, em que as operações compreendem determinando a distância pupilar com base em um parâmetro de raio de olho e uma distância entre o dispositivo de captura de imagem e um plano compreendendo as pupilas.
[273] Exemplo 24 inclui a matéria de qualquer um dos Exemplos 13-23, e opcionalmente, em que a distância pupilar compreende uma distância pupilar próxima ou uma distância pupilar distante.
[274] Exemplo 25 inclui um método de medição de uma distância pupilar entre as pupilas de um usuário, o método compreendendo o recebimento de uma imagem capturada compreendendo primeiro e segundo reflexos de uma luz de uma fonte de luz, o primeiro reflexo compreendendo um reflexo da luz a partir de uma primeira pupila do usuário, e o segundo reflexo compreendendo um reflexo da luz de uma segunda pupila do usuário; e a determinação da distância pupilar com base nas localizações do primeiro e segundo reflexos na imagem capturada e uma distância estimada entre um dispositivo de captura de imagem e as pupilas do usuário, quando a imagem é capturada.
[275] Exemplo 26 inclui a matéria do Exemplo 25, e opcionalmente, em que a imagem capturada compreende um objeto em uma face do usuário, a distância estimada sendo baseada em uma ou mais dimensões do objeto.
[276] Exemplo 27 inclui a matéria do Exemplo 26, e opcionalmente, compreendendo a determinação de um desvio axial entre o objeto e as pupilas ao longo de um eixo geométrico perpendicular a um plano incluindo o objeto, e determinando a distância pupilar com base no desvio axial.
[277] Exemplo 28 inclui a matéria do Exemplo 26 ou 27, e opcionalmente, em que a distância estimada é baseada em uma coordenada Cartesiana tridimensional (3D) de um aspecto da face.
[278] Exemplo 29 inclui a matéria de qualquer um dos Exemplos 25-28, e opcionalmente, em que a distância estimada é baseada na informação de aceleração indicando uma aceleração do dispositivo de captura de imagem.
[279] Exemplo 30 inclui a matéria de qualquer um dos Exemplos 25-29, e opcionalmente, compreendendo a determinação da distância pupilar com base em um número de pixels entre o primeiro e segundo reflexos, e uma razão de pixel para milímetro (mm) dos pixels.
[280] Exemplo 31 inclui a matéria de qualquer um dos Exemplos 25-30, e opcionalmente, compreendendo o recebimento da informação de orientação indicando uma orientação do dispositivo de captura de imagem quando a imagem é capturada, e determinando a distância pupilar com base na informação de orientação.
[281] Exemplo 32 inclui a matéria do Exemplo 31, e opcionalmente, em que a informação de orientação indica um ângulo de inclinação do dispositivo de captura de imagem.
[282] Exemplo 33 inclui a matéria de qualquer um dos Exemplos 25-32, e opcionalmente, compreendendo a determinação da distância pupilar com base em um ou mais atributos do dispositivo de captura de imagem.
[283] Exemplo 34 inclui a matéria do Exemplo 33, e opcionalmente, em que um ou mais atributos compreendem pelo menos um atributo selecionado a partir do grupo que consiste de um Comprimento Focal Efetivo (EFL) de uma lente do dispositivo de captura de imagem, um campo de visão horizontal de um sensor do dispositivo de captura de imagem, um campo de visão vertical do sensor, uma resolução do sensor, e uma distância entre dois pixels adjacentes do sensor.
[284] Exemplo 35 inclui a matéria de qualquer um dos Exemplos 25-34, e opcionalmente, compreendendo a determinação da distância pupilar com base em um parâmetro de raio de olho e uma distância entre o dispositivo de captura de imagem e um plano compreendendo as pupilas.
[285] Exemplo 36 inclui a matéria de qualquer um dos Exemplos 25-35, e opcionalmente, em que a distância pupilar compreende uma distância pupilar próxima ou uma distância pupilar distante.
[286] Exemplo 37 inclui um aparelho para medir uma distância pupilar entre as pupilas de um usuário, o aparelho compreendendo meios para receber uma imagem capturada compreendendo primeiro e segundo reflexos de uma luz de uma fonte de luz, o primeiro reflexo compreendendo um reflexo da luz a partir de uma primeira pupila do usuário, e o segundo reflexo compreendendo um reflexo de luz de uma segunda pupila do usuário e meios para determinar a distância pupilar com base nas localizações do primeiro e segundo reflexos na imagem capturada e uma distância estimada entre um dispositivo de captura de imagem e pupilas do usuário, quando a imagem é capturada.
[287] Exemplo 38 inclui a matéria do Exemplo 37, e opcionalmente, em que a imagem capturada compreende um objeto em uma face do usuário, a distância estimada sendo baseada em uma ou mais dimensões do objeto.
[288] Exemplo 39 inclui a matéria do Exemplo 38, e opcionalmente, compreende meios para determinar um desvio axial entre o objeto e as pupilas ao longo de um eixo geométrico perpendicular a um plano incluindo o objeto, e determinando a distância pupilar com base no desvio axial.
[289] Exemplo 40 inclui a matéria do Exemplo 38 ou 39 e, opcionalmente, em que a distância estimada é baseada em uma coordenada Cartesiana tridimensional (3D) de um aspecto da face.
[290] Exemplo 41 inclui a matéria de qualquer um dos Exemplos 37-40, e opcionalmente, em que a distância estimada é baseada na informação de aceleração indicando uma aceleração do dispositivo de captura de imagem.
[291] Exemplo 42 inclui a matéria de qualquer um dos Exemplos 37-41, e opcionalmente, compreendendo meios para determinar a distância pupilar com base em um número de pixels entre o primeiro e segundo reflexos, e uma razão de pixel para milímetro (mm) dos pixels.
[292] Exemplo 43 inclui a matéria de qualquer um dos Exemplos 37-42, e opcionalmente, compreendendo meios para receber informação de orientação indicando uma orientação do dispositivo de captura de imagem quando a imagem é capturada, e determinando a distância pupilar com base na informação de orientação.
[293] Exemplo 44 inclui a matéria do Exemplo 43, e opcionalmente, em que a informação de orientação indica um ângulo de inclinação do dispositivo de captura de imagem.
[294] Exemplo 45 inclui a matéria de qualquer um dos Exemplos 37-44, e opcionalmente, compreende meios para determinar a distância pupilar com base em um ou mais atributos do dispositivo de captura de imagem.
[295] Exemplo 46 inclui a matéria do exemplo 45, e opcionalmente, em que um ou mais atributos compreendem pelo menos um atributo selecionado a partir do grupo consistindo de um Comprimento Focal Efetivo (EFL) de uma lente do dispositivo de captura de imagem, um campo de visão horizontal de um sensor do dispositivo de captura de imagem, um campo de visão vertical do sensor, uma resolução do sensor, e uma distância entre dois pixels adjacentes do sensor.
[296] Exemplo 47 inclui a matéria de qualquer um dos Exemplos 37-46, e opcionalmente, compreendendo meios de determinação da distância pupilar com base em um parâmetro de raio de olho e uma distância entre o dispositivo de captura de imagem e um plano compreendendo as pupilas.
[297] Exemplo 48 inclui a matéria de qualquer um dos Exemplos 37-47, e opcionalmente, em que a distância pupilar compreende uma distância pupilar próxima ou uma distância pupilar distante.
[298] Funções, operações, componentes e/ou aspectos descritos aqui com referência a uma ou mais modalidades, podem ser combinados com ou podem ser utilizados em combinação com uma ou mais outras funções, operações, componentes e/ou aspectos descritos aqui com referência a uma ou mais outras modalidades, ou vice-versa.
[299] Enquanto determinados aspectos foram ilustrados e descritos aqui, muitas modificações, substituições, mudanças e equivalências podem ocorrer aos versados na técnica. É, portanto, compreendido que as reivindicações em anexo devem cobrir todas as ditas modificações e mudanças que se encontram dentro do espírito verdadeiro da descrição.

Claims (18)

1. Método de medição de uma distância pupilar entre as pupilas de um usuário, caracterizado pelo fato de que compreende: processar informação de imagem capturada por um sensor de um dispositivo de usuário; com base na informação de imagem, identificar localizações de primeiro e segundo reflexos de uma luz de uma fonte de luz do dispositivo de usuário, o primeiro reflexo compreendendo um reflexo da dita luz a partir de uma pupila de um primeiro olho do dito usuário, e o segundo reflexo compreendendo um reflexo da dita luz a partir da pupila de um segundo olho do dito usuário, em que identificar as localizações dos primeiro e segundo reflexos compreende identificar a localização do primeiro reflexo através da identificação de uma primeira imagem de Purkinje de um reflexo da luz da fonte de luz por uma superfície refletora externa da córnea do primeiro olho e identificar a localização de segundo reflexo através da identificação de uma primeira imagem de Purkinje de um reflexo de luz da fonte de luz por uma superfície refletora externa da córnea do segundo olho; determinar uma primeira distância estimada, a primeira distância estimada sendo entre o sensor e as pupilas do usuário quando a informação de imagem é capturada pelo sensor; determinar uma segunda distância estimada entre as localizações dos primeiro e segundo reflexos baseado em uma distância entre a primeira imagem de Purkinje da luz da fonte de luz, pela superfície refletora externa da córnea do primeiro olho, e a primeira imagem de Purkinje do reflexo da luz da fonte de luz pela superfície refletora externa da córnea do segundo olho; e determinar a distância pupilar baseado na primeira distância estimada e na segunda distância estimada.
2. Método de medição de uma distância pupilar entre as pupilas de um usuário caracterizado pelo fato de que compreende: receber informação de imagem de uma imagem capturada, capturada por um sensor de um dispositivo, a imagem capturada compreendendo primeiro e segundo reflexos de uma luz de uma fonte de luz, o primeiro reflexo compreendendo um reflexo da dita luz a partir de uma primeira pupila do dito usuário, e o segundo reflexo compreendendo um reflexo da dita luz a partir de uma segunda pupila do dito usuário; e determinação da distância pupilar com base nas localizações dos ditos primeiro e segundo reflexos na dita imagem capturada e uma distância estimada entre o dito sensor e as pupilas do dito usuário, quando a dita imagem é capturada.
3. Método, de acordo com a reivindicação 1 ou 2, caracterizado pelo fato de que a dita informação de imagem compreende informação de um objeto em uma face do dito usuário, a dita distância estimada é baseada em uma ou mais dimensões do dito objeto.
4. Método, de acordo com a reivindicação 3, caracterizado pelo fato de que compreende determinar um desvio axial entre o dito objeto e as ditas pupilas ao longo de um eixo perpendicular a um plano incluindo o dito objeto, e determinar a distância pupilar com base no dito desvio axial.
5. Método, de acordo com qualquer uma das reivindicações 1 a 4, caracterizado pelo fato de que a dita distância estimada é baseada em uma coordenada cartesiana tridimensional (3D) de uma característica da dita face.
6. Método, de acordo com qualquer uma das reivindicações 1 a 5, caracterizado pelo fato de que a dita distância estimada é baseada na informação de aceleração indicando uma aceleração do dispositivo compreendendo o dito sensor.
7. Método, de acordo com qualquer uma das reivindicações 1 a 6, caracterizado pelo fato de que compreende determinar a distância pupilar com base em um número de pixels entre as localizações dos ditos primeiro segundo reflexos, e uma razão de pixel para milímetro (mm) dos ditos pixels.
8. Método, de acordo com qualquer uma das reivindicações de 1 a 7, caracterizado pelo fato de que compreende receber informação de orientação indicando uma orientação do dispositivo compreendendo o dito sensor quando a dita informação de imagem é capturada, e determinar a distância pupilar com base na dita informação de orientação.
9. Método, de acordo com a reivindicação 8, caracterizado pelo fato de que a dita informação de orientação indica um ângulo de inclinação do dispositivo compreendendo o dito sensor.
10. Método, de acordo com qualquer uma das reivindicações de 1 a 9, caracterizado pelo fato de que compreende determinar a distância pupilar com base em um ou mais atributos do sensor.
11. Método, de acordo com a reivindicação 10, caracterizado pelo fato de que os ditos um ou mais atributos compreendem pelo menos um atributo de um Comprimento Focal Efetivo (EFL) de uma lente do dito sensor, um campo de visão horizontal do dito sensor, um campo de visão vertical do dito sensor, uma resolução do dito sensor, e/ou uma distância entre dois pixels adjacentes do dito sensor.
12. Método, de acordo com qualquer uma das reivindicações de 1 a 11, caracterizado pelo fato de que compreende determinar a distância pupilar com base em um parâmetro de raio de olho e uma distância entre o sensor e um plano compreendendo as ditas pupilas.
13. Método, de acordo com qualquer uma das reivindicações de 1 a 12, caracterizado pelo fato de que a distância pupilar compreende uma distância pupilar próxima ou uma distância pupilar distante.
14. Método, de acordo com qualquer uma das reivindicações 1 a 13, caracterizado pelo fato de que a dita fonte de luz compreende um Diodo Emissor de Luz (LED).
15. Método, de acordo com qualquer uma das reivindicações 1 a 14, caracterizado pelo fato de que o dito sensor compreende um sensor de uma câmera.
16. Produto, caracterizado pelo fato de que compreende um ou mais meios de armazenamento tangível não transitório lido por computador, compreendendo instruções executáveis por computador, operável para, quando executado por pelo menos um processador de computador, resultar no método definido em qualquer uma das reivindicações 1 a 15.
17. Aparelho configurado para determinar a distância pupilar entre as pupilas de um usuário, o aparelho caracterizado pelo fato de que compreende meios para realizar o método definido em qualquer uma das reivindicações 1 a 15.
18. Dispositivo móvel configurado para determinar uma distância pupilar entre as pupilas de um usuário, como definido no método descrito em qualquer uma das reivindicações 1 a 15, o dispositivo móvel caracterizado pelo fato de que compreende: uma fonte de luz para gerar a luz para iluminar as pupilas do usuário; o sensor para capturar a informação de imagem; e um calculador de distância pupilar configurado para processar a dita informação de imagem, e para determinar a distância pupilar.
BR112017024157-9A 2015-05-11 2016-05-10 Método de medição de uma distância pupilar entre as pupilas de um usuário, produto, aparelho e dispositivo móvel BR112017024157B1 (pt)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US201562159490P 2015-05-11 2015-05-11
US62/159,490 2015-05-11
PCT/IB2016/052671 WO2016181308A1 (en) 2015-05-11 2016-05-10 Apparatus, system and method of determining a pupillary distance

Publications (2)

Publication Number Publication Date
BR112017024157A2 BR112017024157A2 (pt) 2018-07-17
BR112017024157B1 true BR112017024157B1 (pt) 2022-11-16

Family

ID=57249078

Family Applications (1)

Application Number Title Priority Date Filing Date
BR112017024157-9A BR112017024157B1 (pt) 2015-05-11 2016-05-10 Método de medição de uma distância pupilar entre as pupilas de um usuário, produto, aparelho e dispositivo móvel

Country Status (12)

Country Link
US (2) US10702149B2 (pt)
EP (1) EP3294112B1 (pt)
JP (1) JP6853188B2 (pt)
KR (1) KR102591132B1 (pt)
CN (2) CN112674715A (pt)
AU (2) AU2016261275B2 (pt)
BR (1) BR112017024157B1 (pt)
CA (1) CA2985315C (pt)
IL (1) IL255571B (pt)
RU (1) RU2722303C2 (pt)
SG (1) SG10201913884SA (pt)
WO (1) WO2016181308A1 (pt)

Families Citing this family (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10670494B2 (en) * 2015-05-10 2020-06-02 6 Over 6 Vision Ltd. Apparatus, system and method of determining one or more optical parameters of a lens
SG10201913884SA (en) 2015-05-11 2020-03-30 6 OVER 6 VISION Ltd Apparatus, system and method of determining a pupillary distance
US9532709B2 (en) 2015-06-05 2017-01-03 Jand, Inc. System and method for determining distances from an object
US9770165B2 (en) 2015-08-13 2017-09-26 Jand, Inc. Systems and methods for displaying objects on a screen at a desired visual angle
US10799109B2 (en) 2016-01-15 2020-10-13 Jand, Inc. Systems and methods for determining distance from an object
US10557773B2 (en) 2016-05-18 2020-02-11 Jand, Inc. Fixtureless lensmeter system
US10036685B2 (en) 2016-05-18 2018-07-31 Jand, Inc. Fixtureless lensmeter and methods of operating same
US10413172B2 (en) 2017-12-11 2019-09-17 1-800 Contacts, Inc. Digital visual acuity eye examination for remote physician assessment
CN109379586B (zh) * 2019-01-16 2019-08-06 歌尔股份有限公司 摄像头模组的倾斜角度测试方法及装置
KR102184972B1 (ko) 2019-02-01 2020-12-01 주식회사 룩시드랩스 동공 중심간 거리를 측정하는 장치 및 방법
US11064188B2 (en) * 2019-07-29 2021-07-13 Htc Corporation Driving method for calculating interpupillary distance and related head-mounted device
US11488239B2 (en) 2019-08-26 2022-11-01 Warby Parker Inc. Virtual fitting systems and methods for spectacles
AU2021224864A1 (en) 2020-02-21 2022-09-29 Ditto Technologies, Inc. Fitting of glasses frames including live fitting
EP4136563A4 (en) 2020-04-15 2024-03-20 Warby Parker Inc. VIRTUAL TRY-ON SYSTEMS FOR GLASSES USING REFERENCE FRAMES
EP3913424A1 (de) 2020-05-22 2021-11-24 Carl Zeiss Vision International GmbH Computerimplementiertes verfahren zur bestimmung von zentrierparametern für mobile endgeräte, mobiles endgerät und computerprogramm
CA3185605A1 (en) 2020-06-17 2021-12-23 Warby Parker Inc. System and method for measuring pupillary distance and uses thereof
NL2031115B1 (en) * 2022-03-01 2023-09-07 Easee Health B V Method and system for determining a pupillary distance for a person.
CN115442525A (zh) * 2022-08-31 2022-12-06 丁非 一种瞳距测量方法、系统、终端及存储介质

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5231674A (en) * 1989-06-09 1993-07-27 Lc Technologies, Inc. Eye tracking method and apparatus
JP3976925B2 (ja) * 1999-02-22 2007-09-19 株式会社ニデック 眼位置測定装置
US6535223B1 (en) * 2000-05-31 2003-03-18 Schmidt Laboratories, Inc. Method and system for determining pupiltary distant and element height
JP2005103039A (ja) * 2003-09-30 2005-04-21 Pentax Corp 瞳孔距離測定方法および測定器
EP1728467A4 (en) * 2004-03-26 2009-09-16 Hoya Corp GLASS GLASS FEEDING SYSTEM, DEVICE FOR MEASURING PARAMETERS FOR GLASS BEAM, SYSTEM FOR INSPECTING THE GLASS BEARING, GLASSES AND GLASSES
GB0713461D0 (en) * 2007-07-11 2007-08-22 Ct Meter Ltd Device and methods for obtaining measurements for spectacles fitting
US8459792B2 (en) * 2010-04-26 2013-06-11 Hal E. Wilson Method and systems for measuring interpupillary distance
FR2980681A3 (fr) * 2011-09-29 2013-04-05 Fittingbox Procede de determination des mesures oculaires et optiques d'interet pour la fabrication et le montage de verre de lunettes correcteurs, a l'aide d'une camera en contexte non controle
WO2013176265A1 (ja) * 2012-05-25 2013-11-28 国立大学法人静岡大学 瞳孔検出方法、角膜反射検出方法、顔姿勢検出方法及び瞳孔追尾方法
RU2550011C1 (ru) * 2013-11-26 2015-05-10 Общество с ограниченной ответственностью "Оптика-Центр" (ООО "Оптика-Центр") Способ и устройство для монокулярного измерения межзрачкового расстояния
CN103793719A (zh) * 2014-01-26 2014-05-14 深圳大学 一种基于人眼定位的单目测距方法和系统
SG10201913884SA (en) 2015-05-11 2020-03-30 6 OVER 6 VISION Ltd Apparatus, system and method of determining a pupillary distance

Also Published As

Publication number Publication date
AU2016261275B2 (en) 2021-02-18
WO2016181308A1 (en) 2016-11-17
EP3294112A4 (en) 2019-01-30
RU2017139578A3 (pt) 2019-08-12
JP2018518233A (ja) 2018-07-12
EP3294112A1 (en) 2018-03-21
KR102591132B1 (ko) 2023-10-17
RU2017139578A (ru) 2019-06-11
CA2985315A1 (en) 2016-11-17
IL255571A (en) 2018-01-31
US10702149B2 (en) 2020-07-07
KR20180004271A (ko) 2018-01-10
AU2021203178A1 (en) 2021-06-17
CN107847128B (zh) 2020-11-10
JP6853188B2 (ja) 2021-03-31
IL255571B (en) 2022-05-01
AU2021203178B2 (en) 2023-07-27
CN112674715A (zh) 2021-04-20
SG10201913884SA (en) 2020-03-30
CA2985315C (en) 2023-09-26
US20200397284A1 (en) 2020-12-24
US11931105B2 (en) 2024-03-19
AU2016261275A1 (en) 2017-11-30
CN107847128A (zh) 2018-03-27
RU2722303C2 (ru) 2020-05-28
US20180140186A1 (en) 2018-05-24
EP3294112B1 (en) 2024-08-28
BR112017024157A2 (pt) 2018-07-17

Similar Documents

Publication Publication Date Title
BR112017024157B1 (pt) Método de medição de uma distância pupilar entre as pupilas de um usuário, produto, aparelho e dispositivo móvel
AU2021250915B2 (en) Apparatus, system and method of determining one or more optical parameters of a lens
JP7541970B2 (ja) レンズの1つ以上の光学パラメータを決定するための機器、システム、および方法
CN111163303B (zh) 一种图像显示方法、装置、终端及存储介质
BR112021013754A2 (pt) Aparelho, sistema e método para determinar um ou mais parâmetros de uma lente
BR112021014577A2 (pt) Aparelho, sistema e método de determinar um ou mais parâmetros de um erro refrativo de um olho testado
CN115697183A (zh) 用于测量瞳孔距离的系统和方法及其使用

Legal Events

Date Code Title Description
B06U Preliminary requirement: requests with searches performed by other patent offices: procedure suspended [chapter 6.21 patent gazette]
B09A Decision: intention to grant [chapter 9.1 patent gazette]
B16A Patent or certificate of addition of invention granted [chapter 16.1 patent gazette]

Free format text: PRAZO DE VALIDADE: 20 (VINTE) ANOS CONTADOS A PARTIR DE 10/05/2016, OBSERVADAS AS CONDICOES LEGAIS