BR112020013884A2 - aparelho e método para varredura passiva - Google Patents

aparelho e método para varredura passiva Download PDF

Info

Publication number
BR112020013884A2
BR112020013884A2 BR112020013884-3A BR112020013884A BR112020013884A2 BR 112020013884 A2 BR112020013884 A2 BR 112020013884A2 BR 112020013884 A BR112020013884 A BR 112020013884A BR 112020013884 A2 BR112020013884 A2 BR 112020013884A2
Authority
BR
Brazil
Prior art keywords
distance
distances
user
measured
sensing unit
Prior art date
Application number
BR112020013884-3A
Other languages
English (en)
Inventor
Pavel Zakharov
Michael Mrochen
Original Assignee
Vivior Ag
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Vivior Ag filed Critical Vivior Ag
Publication of BR112020013884A2 publication Critical patent/BR112020013884A2/pt

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/0016Operational features thereof
    • A61B3/0025Operational features thereof characterised by electronic signal processing, e.g. eye models
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/02Subjective types, i.e. testing apparatus requiring the active assistance of the patient
    • A61B3/024Subjective types, i.e. testing apparatus requiring the active assistance of the patient for determining the visual field, e.g. perimeter types
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/02Subjective types, i.e. testing apparatus requiring the active assistance of the patient
    • A61B3/028Subjective types, i.e. testing apparatus requiring the active assistance of the patient for testing visual acuity; for determination of refraction, e.g. phoropters
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0059Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence
    • A61B5/0062Arrangements for scanning
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/68Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient
    • A61B5/6801Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient specially adapted to be attached to or worn on the body surface
    • A61B5/6802Sensor mounted on worn items
    • A61B5/6803Head-worn items, e.g. helmets, masks, headphones or goggles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/86Combinations of radar systems with non-radar systems, e.g. sonar, direction finder
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • G01S17/08Systems determining position data of a target for measuring distance only
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/86Combinations of lidar systems with systems other than lidar, radar or sonar, e.g. with direction finders
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/02Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
    • G01S7/41Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00 using analysis of echo signal for target characterisation; Target signature; Target cross-section
    • G01S7/415Identification of targets based on measurements of movement associated with the target
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/11Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
    • A61B5/1113Local tracking of patients, e.g. in a hospital or private home
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/20Instruments for performing navigational calculations
    • G01C21/206Instruments for performing navigational calculations specially adapted for indoor navigation
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/02Systems using reflection of radio waves, e.g. primary radar systems; Analogous systems
    • G01S13/06Systems determining position data of a target
    • G01S13/08Systems for measuring distance only
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S15/00Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems
    • G01S15/02Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems using reflection of acoustic waves
    • G01S15/06Systems determining the position data of a target
    • G01S15/08Systems for measuring distance only
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S15/00Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems
    • G01S15/86Combinations of sonar systems with lidar systems; Combinations of sonar systems with systems not using wave reflection
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/02Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
    • G01S7/41Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00 using analysis of echo signal for target characterisation; Target signature; Target cross-section
    • G01S7/411Identification of targets based on measurements of radar reflectivity
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/4802Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00 using analysis of echo signal for target characterisation; Target signature; Target cross-section

Landscapes

  • Health & Medical Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Surgery (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • General Health & Medical Sciences (AREA)
  • Biophysics (AREA)
  • Animal Behavior & Ethology (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Electromagnetism (AREA)
  • Ophthalmology & Optometry (AREA)
  • Pathology (AREA)
  • Signal Processing (AREA)
  • Physiology (AREA)
  • Dentistry (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Radiology & Medical Imaging (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Acoustics & Sound (AREA)
  • Length Measuring Devices With Unspecified Measuring Means (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • User Interface Of Digital Computer (AREA)
  • Measurement Of Optical Distance (AREA)
  • Optical Radar Systems And Details Thereof (AREA)

Abstract

A presente descrição se refere a um aparelho (100) para varredura passiva de um objeto. O aparelho compreende uma unidade de sensoreação de distância (110) adaptada para medir distâncias para uma pluralidade de pontos do objeto, uma unidade de sensoreação de orientação (120) adaptada para determinar as orientações da unidade de sensoreação de distância (110) e um processador (140) adaptado para derivar informações sobre o objeto ou uma cena em que o objeto é usado com base nas distâncias e orientações medidas da unidade de sensoreação de distância (110).

Description

1 / 54
APARELHO E MÉTODO PARA VARREDURA PASSIVA Campo Técnico
[001] A presente descrição geralmente se refere ao campo da varredura de objetos ou cenas. Mais particularmente, a presente descrição se refere a um aparelho e um método para varredura passiva de objetos ou cenas. Fundamentos
[002] Atualmente, a varredura ativa de objetos ganha atenção crescente. A varredura ativa de objetos representa uma proporção significativa em futuras técnicas. Por exemplo, um carro autônomo pode rastrear ativamente objetos tais como pessoas e obstáculos em uma rota usando um dispositivo de varredura ativa provido no carro.
[003] Ao usar esses dispositivos de varredura ativa, a operação precisa é de grande importância. Caso contrário, esses dispositivos conduzem ao mau funcionamento, tais como a causa de um acidente no caso de um carro autônomo usar um dispositivo de varredura ativa. Portanto, esses dispositivos de varredura geralmente são tecnicamente complexos. Além disso, os dispositivos de varredura ativa habituais não consideram o interesse real humano nos objetos verificados.
[004] A varredura ativa implica no controle de um componente ativo que facilita as medições de distância (variação) para uma pluralidade de pontos do objeto ou um conjunto de objetos para uma cena. É requerido tipicamente uma pluralidade de sensores arranjados no espaço (como uma câmera) ou movimento e/ou rotação de um detector no espaço de maneira controlada ou variabilidade induzida nos pontos expostos do objeto (por exemplo, obtidos com feixe de sondagem em movimento, no RADAR, LIDAR ou técnicas de tomografia de coerência óptica).
[005] Alternativamente, a varredura pode ser realizada beneficiando- se da moção do feixe de sondagem ou sensor que não está diretamente relacionado à atividade de varredura e não está sob controle direto do
2 / 54 aparelho de varredura. Por exemplo, o detector pode ser colocado na parte do corpo em movimento do usuário e realizar amostragem de vários ângulos e posições devido à moção natural do usuário e/ou partes do corpo. Essa é a ideia da/que pode ser considerada como varredura passiva.
[006] É, portanto, um objetivo da presente descrição prover um dispositivo de varredura eficiente. Sumário
[007] De acordo com um aspecto da presente descrição, é provido um aparelho (isto é, um dispositivo de varredura passiva) para varredura passiva de pelo menos um objeto. O aparelho também pode ser referido como dispositivo de varredura passiva e vice-versa. O aparelho compreende (i) uma unidade de sensoreação de distância, (ii) uma unidade de sensoreação de orientação e/ou uma unidade de sensoreação de posição e (iii) um processador. A unidade de sensoreação de distância é adaptada para medir distâncias para uma pluralidade de pontos de ou sobre pelo menos um objeto. A unidade de sensoreação de orientação é adaptada para determinar as orientações da unidade de sensoreação de distância. A unidade de sensoreação de posição é adaptada para determinar as posições da unidade de sensoreação de distância. O processador é adaptado para derivar informações sobre pelo menos um objeto com base nas distâncias medidas para a pluralidade de pontos e as orientações e/ou posições determinadas da unidade de sensoreação de distância.
[008] Aqui, o objeto pode compreender ou consistir em pelo menos uma forma geométrica primitiva, como uma superfície do objeto. O pelo menos um objeto pode ser parte de uma cena, em que a cena pode compreender ou consistir em um ou mais objetos. A cena pode ser entendida como contexto no qual um ou mais objetos são colocados e usados.
[009] Por meio da varredura de passagem acima, a complexidade do aparelho pode ser reduzida enquanto as informações desejadas sobre o objeto
3 / 54 ou cena ainda podem ser determinadas.
[0010] As informações sobre pelo menos um objeto (a seguir, em resumo, às vezes referido como “o objeto”), por exemplo a cena, pode compreender pelo menos uma posição, uma forma, uma inclinação e um tamanho do objeto. Ou as informações podem incluir ou ser uma topografia ao redor ou sobre o objeto. Por exemplo, as informações sobre o objeto podem compreender um movimento do objeto.
[0011] As orientações da unidade de sensoreação de distância podem ser determinadas pela unidade de sensoreação de orientação quando/enquanto a unidade de sensoreação de distância mede as distâncias. Por exemplo, o movimento da unidade de sensoreação de distância pode ser determinado, pela unidade de sensoreação de orientação, quando/enquanto a unidade de sensoreação de distância mede as distâncias.
[0012] A unidade de sensoreação de orientação pode ser substituída por, acompanhada ou incluída em uma unidade de sensoreação de posição ou vice-versa. A unidade de sensoreação de posição pode ser adaptada para medir as posições da unidade de sensoreação de distância ou do dispositivo de varredura passiva. As posições da unidade de sensoreação de distância podem ser determinadas pela unidade de sensoreação de posição quando/enquanto a unidade de sensoreação de distância mede as distâncias. Por exemplo, o movimento ou posição da unidade de sensoreação de distância pode ser determinado, pela unidade de sensoreação de posição, quando/enquanto a unidade de sensoreação de distância mede as distâncias.
[0013] Aqui, a varredura passiva pode ser entendida como varredura do objeto em relação aos movimentos da unidade de sensoreação de distância e/ou como determinação das orientações ou posições da unidade de sensoreação de distância quando/enquanto a unidade de sensoreação de distância mede as distâncias. Por exemplo, a varredura passiva pode ser entendida como determinando o movimento da unidade de sensoreação de
4 / 54 distância quando/enquanto a unidade de sensoreação de distância mede as distâncias. Os movimentos da unidade de sensoreação de distância ou do dispositivo de varredura passiva podem ser causados por fatores que não estão sob controle de um sistema ou do próprio dispositivo de varredura passiva. Por exemplo, os movimentos da unidade de sensoreação de distância ou do dispositivo de varredura passiva podem ser causados como consequência de movimentos de um usuário em quem o dispositivo de varredura passiva está equipado.
[0014] A varredura passiva depende do movimento do sensor não necessariamente em relação à tarefa de varredura. Nesse caso, é necessário obter informações sobre a posição e/ou orientação do dispositivo para relacionar medições a um espaço de coordenadas do objeto ou cena submetida à varredura. Isso pode ser feito com sensores de direção, tais como um acelerômetro, um giroscópio, um magnetômetro ou sensores de posição.
[0015] A unidade de sensoreação de distância pode ser configurada para medir uma ou mais distâncias entre o dispositivo de varredura passiva e o objeto. Por exemplo, a unidade de sensoreação de distância pode ser provida no aparelho de modo que a distância possa corresponder ou estar relacionada a uma distância de visualização que é uma distância entre os olhos do usuário e o objeto. Para este fim, a unidade de sensoreação de distância pode ser calibrada de maneira adequada. A unidade de sensoreação de distância pode ser configurada para medir uma ou mais distâncias da unidade de sensoreação de distância para um ou mais pontos de ou sobre pelo menos um objeto. A unidade de sensoreação de distância pode ser configurada para medir uma distância em uma determinada direção. Os movimentos da unidade de sensoreação de distância podem incluir rotações da unidade de sensoreação de distância. Dessa maneira, a unidade de sensoreação de distância pode ser configurada para medir distâncias da unidade de sensoreação de distância para outros pontos do objeto ou cena. Se a unidade de sensoreação de distância
5 / 54 estiver montada na cabeça de um usuário, os movimentos podem ser causados pela moção/movimentos da cabeça do usuário. A medição da distância pode ser realizada várias vezes para medir distâncias entre o dispositivo de varredura passiva, por exemplo, os olhos do usuário e vários pontos do ou sobre pelo menos um objeto, por exemplo a cena.
[0016] A unidade de sensoreação de distância pode usar tecnologia baseada em laser, tecnologia baseada em ultrassom ou qualquer outra tecnologia de alcance. A unidade de sensoreação de distância pode até ser uma câmera 3D. As medições de alcance realizadas pela unidade de sensoreação de distância podem estar relacionadas às medições de orientações/posições realizadas pela unidade de sensoreação de orientação que podem incluir o sensor de moção ou sensor de posição.
[0017] A unidade de sensoreação de orientação pode ser configurada para medir ângulos da unidade de sensoreação de distância em relação a um ponto de origem. Os ângulos podem ser nomeados como orientações e ser definidos para incluir um ângulo vertical (orientação vertical) e/ou um ângulo horizontal (orientação horizontal). O ponto de origem pode ser definido de diferentes maneiras. Como um exemplo, uma posição do dispositivo de varredura passiva quando ligado pode ser o ponto de origem. Como alternativa, o usuário pode definir o ponto de origem manualmente, por exemplo pressionando um botão ou provendo um comando de controle ao dispositivo de varredura passiva. É possível que o ponto de origem possa ser definido a partir das estatísticas das medições, como uma mediana ou centro de peso dos pontos medidos. O ponto de origem pode ser definido em relação a um sistema de coordenadas absoluto, como o campo magnético da terra. O ponto de origem pode ser construído como uma origem de um sistema de coordenadas tridimensionais. Nestes exemplos, uma direção para frente do dispositivo de varredura passiva no ponto de origem pode ser utilizada como uma linha de base para medir as orientações horizontais e/ou verticais. A
6 / 54 unidade de sensoreação de orientação pode ser implementada como ou compreende pelo menos um dentre um acelerômetro, um sensor de giroscópio, um magnetômetro, um altímetro e uma bússola.
[0018] A unidade de sensoreação de posição pode ser configurada para medir as posições da unidade de sensoreação de distância ou do dispositivo de varredura passiva. As posições podem ser derivadas de medições diretas, como pelo menos uma coordenada única de geolocalização, local interno ou altitude (por exemplo, medido por um altímetro). A unidade de sensoreação de posição pode ser adaptada para medir as posições da unidade de sensoreação de distância em relação a um ponto de origem. O ponto de origem pode ser definido da mesma maneira descrita acima. A posição pode ser derivada indiretamente, sensoreando moções da unidade de sensoreação de distância ou do dispositivo de varredura passiva e realizando a estimativa de posição com base em moções (por exemplo, navegação estimada/integração de trajeto). A unidade de sensoreação de posição pode ser ou incluir um sensor de geoposicionamento, um sistema de posicionamento interno (local), um sistema de posicionamento híbrido ou uma unidade de estimativa de posição indireta que pode ser implementada com sensores de inércia (moção) para a navegação estimada ou a integração de trajeto. O sensor de geoposicionamento pode ser um sensor baseado em localização, tais como sensores GPS, GLONASS ou GNSS.
[0019] O aparelho pode compreender adicionalmente uma unidade de memória. A unidade de memória pode compreender quaisquer dados de calibração adequados necessários para o processo de varredura passiva. Por exemplo, a memória pode compreender dados de referência, como distâncias de referência e orientações de referência (e/ou posições).
[0020] A unidade de memória pode ser um banco de dados com registros para vários casos de objetos (isto é, objetos de exemplo), cenas (isto é, cenas de exemplo) e/ou atividades do usuário. Por exemplo, dados típicos
7 / 54 para diferentes objetos podem ser armazenados na unidade de memória como dados de referência.
Os dados de referência podem corresponder a coordenadas de pontos ou topografia de um objeto em uma situação em que o objeto é normalmente usado.
As coordenadas dos pontos do objeto podem ser definidas como uma nuvem de pontos que é um conjunto de pontos de dados em algum sistema de coordenadas.
Em um sistema de coordenadas tridimensionais, esses pontos são geralmente definidos pelas coordenadas X, Y e Z e geralmente pretendem representar a superfície externa do objeto.
Por exemplo, os dados de referência para o uso típico de um Computador Pessoal (PC) de mesa podem incluir pontos de coordenadas para um monitor, em que os pontos de coordenadas para o monitor podem estar localizados principalmente em um intervalo entre 0,5 e 1,5 m na frente do dispositivo de varredura passiva e formar uma forma similar à do monitor.
Adicionalmente, os pontos de coordenadas para um teclado podem ser incluídos nos dados de referência como estando localizados mais perto do dispositivo de varredura passiva do que os pontos de coordenadas do monitor e para baixo nos pontos de coordenadas do monitor.
Dessa maneira, os dados de referência para usos típicos de um smartphone, computador portátil, livro, TV e tela de projeção podem ser armazenados na unidade de memória, apenas para citar alguns exemplos, sem limitação.
Os dados de referência podem ser armazenados como distâncias de referência (por exemplo ) e orientações de referência (por exemplo , ) dos objetos de exemplo.
Conversões entre pontos em coordenadas esféricas e pontos em coordenadas cartesianas tridimensionais podem ser realizadas de maneiras conhecidas na técnica.
Assim, os dados de referência podem ser armazenados como pontos de coordenadas esféricas ou pontos de coordenadas cartesianas tridimensionais.
Os dados de referência podem ter a forma de qualquer outro método tridimensional, como modelos em malha, modelos de superfície-borda-vértice, modelos de cilindros generalizados, octrees, superquadrics etc., no entanto, não se limitam a esses
8 / 54 exemplos. A unidade de memória pode ser configurada para armazenar as distâncias e orientações e/ou posições medidas. A unidade de memória, por exemplo para armazenar os dados de referência, pode ser implementado no dispositivo de varredura passiva ou como uma entidade separada, por exemplo em um dispositivo diferente do dispositivo de varredura passiva.
[0021] O processador pode ser configurado para gerenciar operações do dispositivo de varredura passiva. O processador pode derivar informações sobre pelo menos um objeto, por exemplo a cena. As informações podem incluir uma posição, uma forma, uma pose, uma inclinação e/ou um tamanho do objeto ou outras medidas do pelo menos um objeto. Para derivar a informação, o processador pode ser configurado para classificar um objeto para o qual as distâncias e orientações (e/ou posições) são medidas como um dos objetos ou cenas de exemplo. A classificação pode ser realizada comparando pontos dos dados de referência e os dados medidos (distâncias, orientações e/ou posições medidas). Por exemplo, o processador pode ser configurado para classificar o objeto encontrando os dados de referência mais relevantes para os dados medidos. Mais particularmente, o processador pode ser configurado para converter as distâncias e orientações (e/ou posições) medidas em pontos de coordenadas e comparar os pontos de coordenadas convertidos com pontos de coordenadas de referência (dados de referência) de cada um dos objetos de exemplo, por exemplo cenas. Em seguida, o processador pode determinar o objeto medido como um dos objetos de exemplo, se o objeto de exemplo tiver o maior número de correspondências entre os pontos de coordenadas convertidos e os pontos de coordenadas de referência. Dessa maneira, o processador pode determinar qual dos objetos de exemplo tem o maior grau de similaridade com o objeto medido. O processador que conduz a classificação pode ser implementado no dispositivo de varredura passiva ou em um dispositivo diferente (como um servidor em nuvem para processamento on-line) do que no dispositivo de varredura
9 / 54 passiva.
[0022] A unidade de sensoreação de distância pode incluir uma pluralidade de sensores de distância ou um sensor (como uma câmera) capaz de medir uma pluralidade de distâncias a partir da mesma orientação e posição de uma unidade, por exemplo a unidade principal (por exemplo, o sensor). Um sensor de distância pode medir distâncias na direção para frente do dispositivo de varredura passiva, enquanto outros sensores de distância podem medir distâncias em outras direções, isto é, direções diferentes da direção para frente. Por exemplo, um ou mais sensores de distância podem ser implementados para medir direções inclinadas para direções para baixo, para os lados e/ou para cima. O dispositivo de varredura passiva descrito é, portanto, capaz de medir várias distâncias para vários objetos ou vários pontos de um objeto, mesmo que o objeto compreenda ou consista em partes separadas.
[0023] O dispositivo de varredura passiva pode ser equipado tanto direta ou indiretamente para ou sobre uma parte do corpo do usuário. Por exemplo, o dispositivo de varredura passiva pode ser montado na cabeça do usuário ou em óculos, dispositivos ópticos ou semelhantes.
[0024] A unidade de sensoreação de posição pode ser incluída no dispositivo de varredura passiva para medir um local e/ou uma posição do dispositivo de varredura passiva. A unidade de sensoreação de posição pode fazer parte da unidade de sensoreação de orientação ou ser implementada nela ou pode ser uma unidade separada. A unidade de sensoreação de posição pode ser adaptada para medir pelo menos uma coordenada do dispositivo de varredura passiva no espaço. A unidade de sensoreação de posição pode incluir pelo menos um dos sistemas de geolocalização (tais como sistema de posicionamento global (GPS), sensores GLONASS ou GNSS), um sistema de altímetro, um sistema de posicionamento interno e um sistema de posicionamento híbrido. A elevação também pode ser medida a partir de um
10 / 54 sensor de geoposicionamento ou com um altímetro. A unidade de sensoreação de posição pode ser adaptada para medir movimentos do dispositivo de varredura passiva e, portanto, do usuário quando o dispositivo de varredura passiva está equipado na parte do corpo do usuário. A posição medida pode servir como uma entrada com os dados medidos a partir da unidade de sensoreação de distância para a classificação de pelo menos um objeto, por exemplo cena. A aplicação da posição medida para a classificação pode ser definida da mesma maneira que o uso dos dados medidos da unidade de sensoreação de orientação.
[0025] O sistema de posicionamento interno (IPS) pode ser entendido como um sistema para localizar objetos ou pessoas dentro de um edifício usando ondas de rádio, campos magnéticos, sinais acústicos ou outras informações sensoriais coletadas por dispositivos móveis. Existem vários sistemas comerciais no mercado, mas não existe um padrão para um sistema IPS. Os IPSs usam tecnologias diferentes, incluindo medição de distância a nós de ancoragem próximos (nós com posições conhecidas, por exemplo, pontos de acesso WiFi), posicionamento magnético, navegação estimada e semelhantes. Eles localizam ativamente dispositivos e marcadores móveis ou proveem local ou contexto ambiental para que os dispositivos sejam sensoreados. O sistema pode incluir informações de outros sistemas para lidar com a ambiguidade física e permitir a compensação de erros. A detecção da orientação do dispositivo (geralmente chamada de direção da bússola para desambiguá-la da orientação vertical do smartphone) pode ser alcançada detectando marcos dentro de imagens tiradas em tempo real ou usando trilateração com sinais espaçados.
[0026] O processador pode classificar uma atividade de usuário com base nos movimentos medidos ou nas informações derivadas sobre pelo menos um objeto. Por exemplo, se uma velocidade média determinada a partir dos movimentos medidos estiver entre 3 km/h e 5 km/h, o processador pode
11 / 54 determinar que o usuário está andando. Para uma velocidade média de 5 km/h a 20 km/h, pode-se concluir que a corrida é a atividade de usuário. Para uma velocidade média acima de 20 km/h, o processador pode especificar que o usuário esteja andando de bicicleta ou de carro ou algo semelhante. O acima pode ser nomeado reconhecimento de atividade.
[0027] A posição relativa do dispositivo de varredura passiva pode ser derivada do movimento medido com sensores inerciais, que é conhecido como navegação estimada. Por exemplo, ser capaz de detectar a aceleração do dispositivo com um acelerômetro permite estimar uma posição esperada do dispositivo no espaço em relação ao ponto de origem. A posição relativa em combinação com as medições de distância pode ser usada para construir a nuvem de pontos de coordenadas.
[0028] O processador pode ser configurado para derivar pelo menos uma de uma posição, uma forma, uma inclinação, uma pose e um tamanho do objeto a partir das distâncias e orientações (e/ou posições) medidas. O processador pode ser configurado para determinar uma atividade de usuário ou um ambiente em que o usuário está localizado com base no derivado de pelo menos uma posição, forma, inclinação e tamanho do objeto. A posição, forma, inclinação, pose e/ou tamanho do objeto podem ser derivados dos pontos de coordenadas das distâncias e orientações (e/ou posições) medidas. Quando os pontos de coordenadas são plotados em coordenadas tridimensionais, a montagem dos pontos de coordenadas pode formar um contorno do objeto, a partir do qual a posição, forma, inclinação, pose e/ou tamanho podem ser derivados. As posições ou movimentos medidos do dispositivo de varredura passiva podem ser complementados para determinar a atividade de usuário. Por exemplo, um rastreamento de posições do objeto pode prover uma dica para determinar se o usuário está em ambientes internos ou externos. O comprimento de uma linha reta do traço pode ser maior que o de uma atividade interna usual. A partir disso, pode-se derivar que o usuário é
12 / 54 externo ou interno. Como outro exemplo, os movimentos característicos do sensor, relacionadas aos movimentos do usuário ou da parte do corpo, podem servir como entrada para o reconhecimento de atividades, como padrões específicos de aceleração/rotação durante a caminhada, corrida ou mesmo leitura, podem ajudar a classificar melhor as atividades. Portanto, o dispositivo de varredura passiva descrito é capaz de classificar eficientemente a atividade de usuário.
[0029] Um sensor de moção, por exemplo um sensor inercial, pode ser incluído no dispositivo de varredura passiva. O sensor de moção pode ser configurado para medir uma quantidade de moção do aparelho/dispositivo de varredura passiva. Por exemplo, o sensor de moção pode ser configurado para medir uma aceleração dos movimentos do dispositivo de varredura passiva. Por exemplo, o sensor de moção pode ser parte ou implementado na unidade de sensoreação de orientação ou pode ser uma entidade separada. Quando o dispositivo de varredura passiva mede as distâncias e orientações (e/ou posições), o processador pode descartar distâncias e orientações (e/ou posições) medidas em um período de tempo predeterminado quando/no qual o sensor de moção mediu uma quantidade de moção e/ou a aceleração é maior que um valor limite. Por exemplo, considerando um usuário de um PC de mesa, sua cabeça pode mover-se repentinamente com uma aceleração comparativamente alta quando ouve o som de um telefone tocando. Embora a atenção do usuário seja atraída para o telefone, uma vez que não é o objeto de interesse do usuário, ele / ela pode rapidamente voltar a cabeça para o PC de mesa. Assim, o processador pode descartar distâncias e orientações (e/ou posições) medidas em relação ao telefone, uma vez que a aceleração do movimento para virar a cabeça na direção do telefone é maior do que uma aceleração usual da utilização do PC de mesa. O valor limite e o período de tempo predeterminado podem ser selecionados livremente por um usuário, uma configuração de dispositivo ou um especialista como um cirurgião que
13 / 54 precisa do resultado da varredura passiva. O valor limite pode ser definido como múltiplos ‘N’ (por exemplo, N vezes, em que N é maior que 1, preferivelmente 2 ou 3) de um valor médio de aceleração do dispositivo de varredura passiva por um período das medições das distâncias e orientações (e/ou posições). O período de tempo predeterminado pode ser definido como múltiplos ‘M’ (por exemplo, M vezes, em que M é menor que 1 e maior que 0, preferivelmente 0,01 a 0,05) de um período de tempo total das medições das distâncias e orientações (e/ou posições) no dispositivo de varredura passiva. O dispositivo de varredura passiva descrito é, portanto, capaz de economizar recursos do dispositivo para processar dados sem sentido e aprimorar a precisão de um resultado da varredura passiva do objeto.
[0030] As informações da atividade, extraídas diretamente de sensores de moção, como padrões típicos de moção da cabeça/corpo, caminhada, leitura, etc., podem servir como uma entrada independente para a classificação de pelo menos um objeto, por exemplo cena. Além disso, as informações da atividade podem ser providas diretamente pelo usuário por meio da interface do usuário do dispositivo ou de outros sensores ou dispositivos, como smartphones ou smartwatches usados pelo usuário e conectados ao dispositivo de varredura por meio de, por exemplo, rede de área corporal.
[0031] O processador pode ser configurado para classificar o objeto ou cena como um dos objetos ou cenas de exemplo quando as diferenças entre as distâncias e orientações medidas (ou posições) e as distâncias de referência armazenadas e as orientações (e/ou posições) são pequenas/menores que as quantidades predeterminadas. Como as circunstâncias para o uso do mesmo objeto para diferentes usuários podem variar, existe a possibilidade de que os dados para alguns tipos de objetos e algumas variações, dependendo das características e circunstâncias dos usuários, não possam ser armazenados como dados de referência. Assim, mesmo que haja diferenças entre os dados
14 / 54 medidos (distâncias e orientações (e/ou posições)) e os dados de referência, valores de correção podem ser permitidos para as diferenças no intervalo de certas quantidades. Os limites superiores para os valores de correção (valores predeterminados) podem ser selecionados livremente por um usuário, uma configuração de dispositivo ou um especialista. Os limites superiores podem ser definidos de maneira diferente com base nas distâncias usuais dos objetos. Por exemplo, os limites superiores de um objeto, como um computador portátil, um PC, um livro ou um smartphone que podem ser usados em posições comparativamente próximas de um usuário, podem ser definidos menos do que os de um objeto, como uma TV ou uma tela de projeção que geralmente pode estar mais distante do usuário. Por exemplo, um deslocamento para um PC de mesa pode ter até 60 cm, enquanto um deslocamento para uma TV de 60 polegadas pode ter até 3 m.
[0032] Adicionalmente, os limites do objeto ou atividades podem ser derivados de estatísticas de medição coletadas durante atividades conhecidas, por exemplo, quando um usuário indica (marca) manualmente o tipo de atividade através da interface do usuário durante, antes ou depois de executar tal atividade. Por exemplo, um usuário pode ser capaz de marcar atividades enquanto revisa as medições por meio de um aplicativo para smartphone ou por meio de uma interface da web. Com essas informações, um algoritmo pode ser treinado de maneira supervisionada ou não supervisionada para reconhecer atividades similares automaticamente a partir das medições. Esse reconhecimento pode ser realizado nos dados em tempo real já durante as medições ou nos dados gravados coletados no passado. Um algoritmo pode combinar dados de vários usuários para reconhecer e classificar atividades com mais acurácia.
[0033] O processador pode ser configurado para classificar o objeto ou cena usando informações morfológicas derivadas dos dados medidos. A informação morfológica pode ser ou incluir a forma do objeto, composição do
15 / 54 objeto e/ou localização dos objetos na cena.
[0034] O processador pode ser configurado para converter as distâncias e orientações (e/ou posições) medidas em pontos de coordenadas, comparar os pontos de coordenadas convertidas com as distâncias e orientações (e/ou posições) de referência armazenadas e classificar o objeto como um objeto da objetos de exemplo quando as distâncias e orientações (e/ou posições) de referência de um objeto têm o maior número de pontos correspondentes (em comparação com os outros objetos de exemplo) com os pontos de coordenadas convertidos. As distâncias e orientações (e/ou posições) de referência para cada um dos objetos de exemplo podem ser armazenadas em formatos de pontos de coordenadas esféricas e/ou pontos de coordenadas cartesianas. O processador pode ser configurado para converter as distâncias e orientações (e/ou posições) medidas em pontos de coordenadas esféricas e/ou pontos de coordenadas cartesianas e depois verificar quantos pontos dos dados medidos correspondem aos pontos de coordenadas esféricas de referência e/ou pontos de coordenadas cartesianas de cada um dos objetos de exemplo. O processador pode determinar um objeto entre os objetos de exemplo quando os pontos de coordenadas esféricas de referência e/ou pontos de coordenadas cartesianas de um objeto tiverem o maior número de pontos que correspondem aos pontos de coordenadas convertidos.
[0035] O processador pode ser configurado para converter as distâncias e orientações (e/ou posições) medidas e/ou pelo menos uma coordenada em um modelo espacial (geométrico) do objeto ou cena, comparar o modelo espacial com os modelos espaciais de referência armazenados, classificar o objeto ou cena como um dos objetos ou cenas de exemplo quando um modelo espacial de referência para o objeto ou cena de exemplo tem a maior pontuação correspondente ao modelo espacial (em comparação com os outros modelos espaciais de referência).
[0036] A unidade de memória pode ser configurada para armazenar os
16 / 54 modelos espaciais de referência.
[0037] De acordo com outro aspecto da presente descrição, é provido um método para varredura passiva de pelo menos um objeto. O método compreende as etapas de medir distâncias para uma pluralidade de pontos de ou sobre pelo menos um objeto, determinar orientações e/ou posição do dispositivo de varredura passiva e derivar informações sobre pelo menos um objeto com base nas distâncias medidas e no orientações e/ou posições determinadas. O método pode ser realizado através de um dispositivo de varredura passiva. O dispositivo de varredura passiva pode ser ou compreender o aparelho de acordo com o primeiro aspecto aqui descrito.
[0038] As orientações e/ou posições podem ser determinadas enquanto as distâncias são medidas.
[0039] As informações sobre o objeto ou cena podem compreender pelo menos uma de uma posição, uma forma, uma inclinação e um tamanho do objeto. Por exemplo, as informações sobre o objeto podem compreender um movimento do objeto.
[0040] O método pode ainda incluir o armazenamento de distâncias de referência e orientações de referência (e/ou posições) em uma pluralidade de objetos de exemplo ou modelos espaciais de referência. O método pode ainda incluir derivar as informações sobre o objeto, comparando os dados medidos com os dados de referência armazenados.
[0041] As distâncias podem ser medidas por uma pluralidade de sensores de distância.
[0042] As distâncias e as orientações (e/ou posições) podem ser medidas e determinadas pelo dispositivo de varredura passiva equipado sobre ou em uma parte do corpo do usuário.
[0043] O método pode compreender adicionalmente medir uma posição ou um movimento do dispositivo de varredura passiva usando pelo menos um dentre um sistema de posicionamento global, interno e híbrido ou
17 / 54 semelhante.
[0044] O método pode compreender adicionalmente a classificação ou determinação de uma atividade de usuário ou de um ambiente em torno do usuário a partir das informações derivadas sobre o objeto.
[0045] O método pode compreender adicionalmente medir uma quantidade de moção ou uma aceleração de movimentos do dispositivo de varredura passiva e descartar distâncias e orientações (e/ou posições) medidas em um período de tempo predeterminado quando a quantidade medida de moção ou aceleração for maior que um valor limite.
[0046] No método, a etapa de classificação pode incluir determinar diferenças entre as distâncias e orientações (e/ou posições) medidas e as distâncias de referência armazenadas e orientações de referência (e/ou posições), respectivamente, e classificar o objeto como aquele dos objetos de exemplo quando as diferenças forem menores que valores predeterminados.
[0047] O método pode compreender adicionalmente converter as distâncias medidas e as orientações determinadas (e/ou posições) em pontos de coordenadas. O método pode compreender adicionalmente a comparação dos pontos de coordenadas convertidos com distâncias de referência armazenadas e orientações de referência (e/ou posições). O método pode compreender adicionalmente classificar o objeto como um objeto de objetos de exemplo quando as distâncias de referência e orientações de referência (e/ou posições) para o único objeto têm o maior número de pontos correspondentes aos pontos de coordenada convertidos.
[0048] O método pode compreender adicionalmente converter as distâncias medidas e das orientações (e/ou posições) determinadas e/ou pelo menos uma coordenada em um modelo espacial (geométrico) do objeto ou cena, comparando o modelo espacial com os modelos espaciais de referência armazenados, classificar o objeto ou cena como um dos objetos ou cenas de exemplo quando o modelo espacial de referência para o objeto ou cena de
18 / 54 exemplo tiver a maior pontuação correspondente ao modelo espacial.
[0049] O método pode compreender adicionalmente estimar uma distância de visualização em relação à atividade de usuário, aplicando um método estatístico às informações derivadas sobre pelo menos um objeto.
[0050] O método pode compreender adicionalmente identificar requisitos visuais do usuário, aplicando um método estatístico às informações derivadas sobre o objeto ou cena.
[0051] Os requisitos visuais de identificação podem compreender identificar uma atividade de usuário com base nas informações derivadas sobre pelo menos um objeto e identificar os requisitos visuais com base na atividade de usuário.
[0052] Os requisitos visuais de identificação podem compreender identificar uma atividade de usuário com base nas informações derivadas sobre pelo menos um objeto, identificar uma distância de visualização de um usuário com base na atividade de usuário e identificar os requisitos visuais com base na distância de visualização do usuário.
[0053] O método pode compreender adicionalmente determinar uma solução refrativa para o usuário com base nos requisitos visuais, em que a solução refrativa é um de um perfil de ablação para cirurgia refrativa, um implante oftálmico e uma lente oftálmica, em que a lente oftálmica é uma de uma lente intraocular, uma lente de contato e uma lente de óculos.
[0054] Exemplos ou explicações específicas para o método podem ser complementadas pelas explicações descritas acima para o dispositivo de varredura passiva na presente descrição. Breve Descrição dos Desenhos
[0055] A seguir, a presente descrição será adicionalmente descrita com referência a implementações exemplares ilustradas nas figuras, nas quais: a Figura 1 ilustra um exemplo de um dispositivo de varredura passiva de acordo com a presente descrição;
19 / 54 a Figura 2 ilustra um fluxograma correspondente a um método da presente descrição; a Figura 3 ilustra um exemplo de uma unidade de sensoreação de distância 110 de acordo com a presente descrição; a Figura 4 ilustra um fluxograma correspondente a um método que pode ser realizado pela unidade de sensoreação de distância 110; a Figura 5 ilustra um conceito para varredura passiva de um objeto; a Figura 6 ilustra exemplos de varredura passiva medindo orientações e/ou posições de um objeto; a Figura 7 ilustra exemplos de pontos de plotagem (ou nuvem de pontos) dos dados medidos para objetos ou cenas; a Figura 8 ilustra um exemplo de medidas para uma atividade de usuário de utilizar um computador pessoal de mesa; a Figura 9 ilustra um exemplo de medidas para uma atividade de usuário de utilizar um computador portátil; a Figura 10 ilustra um exemplo de varredura passiva de objetos usando uma pluralidade de sensores de distância incluídos na unidade de sensoreação de distância 110; a Figura 11 ilustra um exemplo de varredura passiva de um objeto 520 usando uma pluralidade de sensores de distância 110a, 110b; a Figura 12 ilustra exemplos de mapeamentos de objetos (superfícies dos objetos) obtidos com varredura passiva com dispositivo vestível montado na armação de óculos combinando as medições das distâncias e das orientações (e/ou posições) do dispositivo de varredura passiva 100; a Figura 13 ilustra tipos das orientações do dispositivo de varredura passiva 100 ou da unidade de sensoreação de distância 110 que pode ser medida pelo dispositivo de varredura passiva 100 ou pela unidade de
20 / 54 sensoreação de orientação 120; a Figura 14 ilustra um exemplo de fluxo para classificar o objeto ou cena; a Figura 15 ilustra exemplos de pontos plotados em coordenadas bidimensionais para dados de referência de objetos de exemplo; e a Figura 16 ilustra exemplos de deslocamentos permitidos em coordenadas bidimensionais para dados de referência de objetos de exemplo. Descrição Detalhada
[0056] Na descrição a seguir, para fins de explicação e não limitação, detalhes específicos são estabelecidos, a fim de prover um entendimento completo da presente descrição. Será evidente para um especialista na técnica que a presente descrição pode ser praticada em outras implementações que se afastam desses detalhes específicos.
[0057] Os especialistas na técnica apreciarão ainda que as funções explicadas aqui abaixo podem ser implementadas usando conjunto de circuitos de hardware individual, usando software que funciona em conjunto com um ou mais processadores, por exemplo um microprocessador programado ou um computador de uso geral, usando um Circuito Integrado Específico de Aplicação (ASIC) e/ou usando um ou mais Processadores de Sinal Digital (DSP). Também será apreciado que, quando a presente descrição é descrita como um método, ela também pode ser incorporada em um arranjo de processador de computador e um arranjo de memória acoplado a um arranjo de processador, em que o arranjo de memória é codificado ou armazena um ou mais programas ou código correspondente para fazer com que o arranjo do processador execute ou controle os métodos aqui descritos quando executados pelo arranjo do processador.
[0058] A Figura 1 ilustra um exemplo de um dispositivo de varredura passiva de acordo com a presente descrição. No presente exemplo, o
21 / 54 dispositivo de varredura passiva 100 compreende uma unidade de sensoreação de distância 110, uma unidade de sensoreação de orientação 120 e/ou um processador 140. O dispositivo de varredura passiva 100 pode opcionalmente compreender adicionalmente uma unidade de memória 130, uma unidade de sensoreação de posição 150 e/ou um sensor de moção 160. Em vez de ou além da unidade de sensoreação de orientação 120, a unidade de sensoreação de posição 150 pode ser um componente obrigatório, enquanto a unidade de sensoreação de orientação 120 pode ser um componente opcional no primeiro caso. O dispositivo de varredura passiva 100 pode ser equipado em uma parte do corpo do usuário. O dispositivo de varredura passiva 100 pode ser montado na cabeça do usuário ou em óculos/dispositivos ópticos ou semelhantes. A unidade de sensoreação de orientação 120 pode ser substituída por, acompanhada ou incluída na unidade de sensoreação de posição 150. O sensor de moção 160 pode ser incluído na unidade de sensoreação de distância 110 como um sensor de movimento 20, como será explicado a seguir.
[0059] A unidade de sensoreação de distância 110 pode ser configurada para medir distâncias para uma pluralidade de pontos de um objeto. A unidade de sensoreação de distância 110 pode ser configurada para medir uma distância entre o dispositivo de varredura passiva 100 e o objeto. Por exemplo, a unidade de sensoreação de distância 110 pode ser equipada no dispositivo de varredura passiva 100 de modo que a distância possa corresponder ou estar relacionada a uma distância de visualização que é uma distância entre os olhos do usuário e o objeto. A unidade de sensoreação de distância 110 pode ser configurada para medir uma ou mais distâncias da unidade de sensoreação de distância 110 para um ou mais pontos do ou no objeto ou cena. A unidade de sensoreação de distância 110 pode ser configurada para medir uma distância em uma determinada direção. No presente exemplo, os movimentos incluem rotações e/ou deslocamentos da
22 / 54 unidade de sensoreação de distância. Assim, a unidade de sensoreação de distância 110 pode ser configurada para medir distâncias da unidade de sensoreação de distância 110 para outros pontos do objeto ou cena. Se a unidade de sensoreação de distância 110 estiver montada na cabeça de um usuário, os movimentos podem ser causados por moções naturais da cabeça do usuário. A medição da distância pode ser realizada várias vezes para medir distâncias entre o dispositivo de varredura passiva 100, por exemplo, os olhos do usuário e vários pontos do objeto ou cena.
[0060] A unidade de sensoreação de distância 110 pode incluir uma pluralidade de sensores de distância ou um sensor (como uma câmera) capaz de medir uma pluralidade de distâncias. Um sensor de distância pode medir distâncias na direção para frente do dispositivo de varredura passiva 100, enquanto outros sensores de distância podem medir distâncias em outras direções além da direção para frente. Por exemplo, um ou mais sensores de distância podem ser implementados para medir distâncias nas direções para baixo, para os lados e/ou para cima. O dispositivo de varredura passiva 100 descrito é, portanto, capaz de medir várias distâncias para vários objetos ou vários pontos de um objeto, mesmo quando o objeto consiste em partes separadas.
[0061] A unidade de sensoreação de orientação 120 pode ser configurada para determinar as orientações da unidade de sensoreação de distância 110. A unidade de sensoreação de orientação 120 pode ser configurada para medir ângulos da unidade de sensoreação de distância 110 em relação a um ponto de origem. Os ângulos podem ser definidos para incluir um ângulo vertical (orientação vertical) e/ou um ângulo horizontal (orientação horizontal). O ponto de origem pode ser definido de diferentes maneiras. Como um exemplo, uma posição do dispositivo de varredura passiva 100 quando está ligado pode ser o ponto de origem. Ou pode ser possível que o usuário defina o ponto de origem manualmente, por exemplo
23 / 54 pressionando um botão ou provendo um comando de controle para o dispositivo de varredura passiva 100. O ponto de origem pode ser derivado estatisticamente de um conjunto de pontos. O ponto de origem pode ser definido em relação a um sistema de coordenadas absoluto, como o campo magnético da Terra. O ponto de origem pode ser interpretado como uma origem do sistema de coordenadas tridimensionais. Nestes exemplos, uma direção para frente do dispositivo de varredura passiva 100 no ponto de origem pode ser utilizada como uma linha de base para medir as orientações horizontais e/ou verticais. A unidade de sensoreação de orientação 120 pode ser implementada como ou compreende pelo menos um dentre um acelerômetro, um sensor de giroscópio, um magnetômetro, um altímetro e uma bússola.
[0062] A unidade de memória 130 pode compreender quaisquer dados de calibração adequados necessários para o processo de varredura passiva. Por exemplo, a unidade de memória 130 pode compreender dados de referência, como distâncias de referência e orientações de referência (e/ou posições de referência). A unidade de memória 130 pode ser uma base de dados tendo registros para vários casos de objetos (isto é, objetos de exemplo), cenas (isto é, cenas de exemplo) e/ou atividades de usuário. Por exemplo, dados típicos para diferentes objetos ou cenas podem ser armazenados na unidade de memória 130 como dados de referência. Os dados de referência podem corresponder a coordenadas de pontos ou topografia de um objeto em uma situação em que o objeto é normalmente usado. As coordenadas dos pontos do objeto podem ser definidas como uma nuvem de pontos que é um conjunto de pontos de dados em algum sistema de coordenadas. Em um sistema de coordenadas tridimensionais, esses pontos são geralmente definidos pelas coordenadas X, Y e Z e geralmente pretendem representar a superfície externa do objeto. Por exemplo, os dados de referência para o uso típico de um computador pessoal (PC) de mesa podem
24 / 54 incluir pontos de coordenadas para um monitor, em que os pontos de coordenadas para o monitor podem estar localizados principalmente no intervalo entre 0,5 m e 1,5 m na frente do dispositivo de varredura passiva e formar uma forma similar à do monitor. Além disso, pontos de coordenadas para um teclado podem ser incluídos nos dados de referência como estando localizados mais perto do dispositivo de varredura passiva 100 do que os pontos de coordenadas do monitor e para baixo nos pontos de coordenadas do monitor. De maneira similar, os dados de referência para usos típicos de um smartphone, computador portátil, livro, TV e tela de projeção podem ser armazenados na unidade de memória 130. Os dados de referência podem ser armazenados como distâncias de referência (por exemplo ) e orientações de referência (por exemplo , ) dos objetos de exemplo, que podem corresponder a pontos de coordenadas esféricas. Os pontos de coordenadas esféricos podem ser convertidos em pontos em coordenadas cartesianas tridimensionais com métodos matemáticos conhecidos. A unidade de memória 130 pode armazenar as distâncias e orientações (e/ou posições) medidas. A unidade de memória 130 pode ser implementada em um dispositivo diferente do dispositivo de varredura passiva 100 ou em/como parte do dispositivo de varredura passiva 100. Os dados de referência podem ter uma forma de qualquer outro método tridimensional, como modelos de malha, modelos de superfície-borda-vértice, modelos de cilindros generalizados, octrees, superquadrics, etc., no entanto, não se limitam às formas examinadas. A unidade de memória 130 pode ser configurada para armazenar os modelos espaciais de referência.
[0063] O processador 140 pode gerenciar operações do dispositivo de varredura passiva 100. O processador 140 pode derivar informações sobre o objeto ou cena. As informações podem incluir uma posição, uma forma, uma inclinação, um tamanho, uma pose e/ou um tipo de objeto ou cena. Ou as informações podem incluir ou ser topografia em torno ou sobre o objeto. Para
25 / 54 derivar a informação, o processador 140 pode classificar um objeto para o qual as distâncias e orientações (e/ou posições) são medidas como um dos objetos ou cenas de exemplo. A classificação pode ser realizada comparando pontos dos dados de referência e os dados medidos (isto é, distâncias e orientações (e/ou posições) medidas). Por exemplo, o processador 140 pode classificar o objeto encontrando os dados de referência mais relevantes para as distâncias e orientações (e/ou posições) medidas. Mais particularmente, o processador 140 pode converter as distâncias e orientações (e/ou posições) medidas em pontos de coordenadas e comparar os pontos de coordenadas convertidos com pontos de coordenadas de referência (dados de referência) de cada um dos objetos ou cenas de exemplo, então o processador 140 pode determine o objeto ou cena de medida como um dos objetos ou cenas de exemplo, se esse tiver o maior número de correspondências entre os pontos de coordenadas convertidos e os pontos de coordenadas de referência. O processador 140 pode converter pontos de coordenadas em modelos geométricos dos objetos e determinar objeto ou cena combinando objetos medidos com modelos a partir de dados de calibração. O processador 140 que conduz a classificação pode ser implementado em um dispositivo diferente (como um servidor de nuvem para processamento on-line) do que o dispositivo de varredura passiva 100 ou em/como parte do dispositivo de varredura passiva 100.
[0064] O processador 140 pode derivar pelo menos uma de uma posição, uma forma, uma inclinação, uma pose e um tamanho do objeto ou cena das distâncias e orientações (e/ou posições) medidas. O processador 140 pode determinar uma atividade de usuário ou um ambiente em que o usuário está localizado com base no derivado de pelo menos uma posição, forma, inclinação, pose e tamanho do objeto ou cena. A posição, forma, inclinação e/ou tamanho do objeto podem ser derivadas dos pontos de coordenadas das distâncias e orientações (e/ou posições) medidas. Quando os pontos de
26 / 54 coordenadas são plotados em coordenadas tridimensionais, a montagem dos pontos de coordenadas pode formar um contorno do objeto, a partir do qual a posição, forma, inclinação, pose e/ou tamanho podem ser derivados.
[0065] O processador 140 pode classificar o objeto ou cena como o dos objetos ou cenas de exemplo quando as diferenças entre as distâncias e orientações (e/ou posições) medidas e as distâncias de referência armazenadas e as orientações (e/ou posições) de referência são inferiores às quantidades predeterminadas. Como as circunstâncias para o uso do mesmo objeto para diferentes usuários podem variar, existe a possibilidade de que os dados para alguns tipos de objetos e algumas variações, dependendo das características e circunstâncias dos usuários, não possam ser armazenados como dados de referência. Assim, mesmo que haja diferenças entre os dados medidos (distâncias e orientações (e/ou posições)) e os dados de referência, os valores de correção podem ser permitidos para as diferenças na faixa de certa quantidade. Os limites superiores para os valores de deslocamento (quantidades predeterminadas) podem ser selecionados livremente por um usuário, uma configuração de dispositivo, um médico ou um cirurgião. Os limites superiores podem ser definidos de maneira diferente com base nas distâncias usuais dos objetos. Por exemplo, os limites superiores de um objeto, como um computador portátil, um PC, um livro ou um smartphone que podem ser usados em posições comparativamente próximas de um usuário, podem ser definidos menos do que os de um objeto, como uma TV ou uma tela de projeção que geralmente pode estar localizada além do usuário. Por exemplo, o deslocamento para um PC de mesa pode ter até 60 centímetros, enquanto o deslocamento para uma TV de 60 polegadas pode ter até 3 metros.
[0066] O processador 140 pode ser configurado para classificar o objeto ou cena usando informações morfológicas derivadas dos dados medidos. A informação morfológica pode ser ou incluir uma forma do objeto,
27 / 54 composição do objeto e/ou localização dos objetos na cena.
[0067] O processador 140 pode converter as distâncias e orientações (e/ou posições) medidas em pontos de coordenadas, comparar os pontos de coordenadas convertidas com as distâncias e orientações (e/ou posições) de referência armazenadas e classificar o objeto ou cena como um objeto dos objetos ou cenas de exemplo quando a distâncias e orientações (e/ou posições) de referência de um objeto têm o maior número de pontos correspondentes aos pontos de coordenada convertidos. As distâncias e orientações (e/ou posições) de referência para cada um dos objetos ou cenas de exemplo podem ser armazenadas em formatos de pontos de coordenadas esféricas e/ou pontos de coordenadas cartesianas. O processador 140 pode converter as distâncias e orientações (e/ou posições) medidas em pontos de coordenadas esféricas e/ou pontos de coordenadas cartesianas. Então, o processador 140 pode verificar quantos pontos dos dados medidos correspondem aos pontos de coordenadas esféricas de referência e/ou pontos de coordenadas cartesianas de cada um dos objetos ou cena de exemplo. O processador 140 pode determinar um objeto entre os objetos ou cena de exemplo quando os pontos de coordenadas esféricas de referência e/ou pontos de coordenadas cartesianas de um objeto ou cena têm o maior número de pontos correspondentes aos pontos de coordenadas convertidos. Os deslocamentos delineados acima podem ser permitidos para os dados de referência quando o dispositivo de varredura passiva 100 verifica o número de pontos correspondentes aos pontos de coordenadas convertidos.
[0068] O processador 140 pode ser configurado para converter as distâncias e orientações (e/ou posições) medidas e/ou pelo menos uma coordenada para o modelo espacial do objeto ou cena, comparar o modelo espacial com os modelos espaciais de referência armazenados, classificar o objeto ou cena como um dos objetos ou cenas de exemplo quando o modelo espacial de referência para o objeto ou cena de exemplo tem a maior
28 / 54 pontuação correspondente ao modelo espacial.
[0069] As cenas ou objetos de exemplo podem ser definidos como pontos de nuvem em um sistema de coordenadas. Os pontos de nuvem (ou nuvem de pontos) podem ser um conjunto de imagens primitivas geométricas (por exemplo, cilindros, cubos com seus parâmetros), localizações, poses e/ou objetos (por exemplo, computador portátil, superfície da mesa, etc. com suas localizações, poses, etc.).
[0070] O dispositivo de varredura passiva 100 pode opcionalmente incluir uma unidade de sensoreação de posição 150 para medir um local e/ou uma posição do dispositivo de varredura passiva 100. A unidade de sensoreação de posição 150 pode fazer parte da unidade de sensoreação de orientação 120 ou ser implementada nela ou pode ser unidade separada. A unidade de sensoreação de posição 150 pode ser adaptada para medir pelo menos uma coordenada do dispositivo de varredura passiva no espaço. A unidade de sensoreação de posição 150 pode incluir pelo menos um dos sistemas de geolocalização, como sistema de posicionamento global (GPS), sensores GLONASS ou GNSS, um sistema de posicionamento interno e um sistema de posicionamento híbrido. A elevação também pode ser medida a partir do sensor de posicionamento ou com um altímetro. A unidade de sensoreação de posição 150 pode ser adaptada para medir os movimentos do usuário quando o dispositivo de varredura passiva 100 está equipado na parte do corpo do usuário. A unidade de sensoreação de posição 150 pode ser configurada para medir posições da unidade de sensoreação de distância 110 ou do dispositivo de varredura passiva 100. As posições podem ser derivadas de medições diretas, como pelo menos uma coordenada única de geolocalização, localização interna ou altitude (de um altímetro). A unidade de sensoreação de posição 150 pode ser adaptada para medir posições da unidade de sensoreação de distância 110 em relação a um ponto de origem. O ponto de origem pode ser definido da mesma maneira que a descrição acima.
29 / 54 A posição pode ser derivada indiretamente através da sensoreação de moções da unidade de sensoreação de distância 110 ou do dispositivo de varredura passiva 100 e executando a estimativa de posição com base em moções (por exemplo, navegação estimada/integração de trajeto). A unidade de sensoreação de posição 150 pode ser ou incluir um sensor de geoposicionamento, um sistema de posicionamento interno (local), um sistema de posicionamento híbrido ou uma unidade de estimativa de posição indireta que pode ser implementada com sensores de inércia (moção) para a navegação estimada ou o trajeto integração. O sensor de geoposicionamento pode ser um sensor baseado em localização, como GPS, GLONASS ou GNSS. A posição de medição pode servir como uma entrada com os dados medidos da unidade de sensoreação de distância para a classificação do objeto ou cena. A aplicação da posição medida para a classificação pode ser definida da mesma maneira que o uso dos dados medidos da unidade de sensoreação de orientação 120.
[0071] A unidade de sensoreação de posição 150 pode ser adaptada para medir posições da unidade de sensoreação de distância 110 ou do dispositivo de varredura passiva 100. As posições da unidade de sensoreação de distância 110 podem ser determinadas pela unidade de sensoreação de posição 150, quando/enquanto a unidade de sensoreação de distância 110 mede as distâncias. Por exemplo, o movimento ou posição da unidade de sensoreação de distância 110 pode ser determinado pela unidade de sensoreação de posição 150, quando/enquanto a unidade de sensoreação de distância 110 mede as distâncias.
[0072] O processador 140 pode classificar as atividades do usuário com base nos movimentos medidos ou nas informações derivadas das medições. Por exemplo, se uma velocidade média determinada a partir dos movimentos medidos estiver entre 3 km/h e 5 km/h, o processador 140 pode determinar que o usuário está andando. Para uma velocidade média de 5 km/h
30 / 54 a 20 km/h, a corrida pode ser a atividade de usuário. Para uma velocidade média acima de 20 km/h, o processador 140 pode especificar que o usuário está dirigindo um carro ou semelhante. Os locais ou posições medidas podem ser complementados para determinar a atividade de usuário. Por exemplo, o rastreamento dos locais ou posições do objeto pode prover uma dica para determinar se o usuário está em um ambiente interno ou externo. O comprimento da linha reta do rastreamento mais longo que o da atividade interna normal pode ser considerado uma indicação de que a atividade de usuário é uma atividade ao ar livre. Portanto, o dispositivo de varredura passiva 100 descrito é capaz de classificar com eficiência e precisão a atividade de usuário. A posição relativa do dispositivo de varredura passiva 100 pode ser derivada do movimento medido com sensores inerciais, que é conhecido como navegação estimada. Por exemplo, ser capaz de detectar a aceleração do dispositivo com um acelerômetro ou o sensor de moção 160 permite estimar a posição esperada do dispositivo no espaço em relação ao ponto de origem. A posição relativa em combinação com as medições de distância pode ser usada para construir a nuvem de pontos de coordenadas.
[0073] O dispositivo de varredura passiva 100 pode opcionalmente incluir um sensor de moção 160 para medir a aceleração dos movimentos do dispositivo de varredura passiva 100. Por exemplo, o sensor de moção 160 pode ser parte ou implementado na unidade de sensoreação de orientação 120 ou na unidade de sensoreação de distância 110. Quando o dispositivo de varredura passiva 100 mede as distâncias e orientações (e/ou posições), o processador 140 pode descartar distâncias e orientações (e/ou posições) medidas em um período de tempo predeterminado no qual a aceleração ou quantidade de moção medida pelo sensor de moção 160 é maior que um valor limite. Por exemplo, imagine a situação em que o chefe de um usuário de um PC de mesa se move repentinamente com uma aceleração comparativamente alta quando ouve o som de um telefone. Mesmo que a atenção do usuário seja
31 / 54 atraída para o telefone, uma vez que não é o objeto de interesse do usuário, ele poderá voltar a cabeça para o PC de mesa logo em seguida. Assim, o processador 140 pode descartar distâncias e orientações (e/ou posições) medidas no telefone, uma vez que a aceleração do movimento de olhar na direção do telefone é maior do que uma aceleração usual que ocorre durante a utilização do PC de mesa. O valor limite e o período de tempo predeterminado podem ser selecionados livremente por um usuário, uma configuração de dispositivo, um médico ou cirurgião que pretenda avaliar o resultado da varredura passiva. O valor limite pode ser definido como múltiplos ‘N’ (por exemplo, N vezes, em que N é maior que 1, preferivelmente 2 ou 3) de um valor médio de aceleração do dispositivo de varredura passiva 100 por um período de medição das distâncias e orientações (e/ou posições). O período de tempo predeterminado pode ser definido como múltiplos ‘M’ (por exemplo, M vezes, em que M é menor que 1 e maior que 0, preferivelmente 0,01 a 0,05) de um período de tempo total da medição das distâncias e orientações (e/ou posições) no dispositivo de varredura passiva
100. O dispositivo de varredura passiva 100 descrito é, portanto, capaz de economizar recursos do dispositivo para processar os dados sem sentido e aumentar a precisão de um resultado da varredura passiva do objeto. As informações da atividade, extraídas diretamente dos sensores de moção, como padrões típicos de moção da cabeça/corpo, caminhada, leitura, etc., podem servir como uma entrada independente para a classificação do objeto ou cena.
[0074] A Figura 2 ilustra um fluxograma correspondente a um método da presente descrição. No método, as distâncias para uma pluralidade de pontos do objeto ou cena podem ser medidas (S210). As orientações (e/ou posições) do dispositivo de varredura passiva 100 podem ser determinadas antes, depois ou ao mesmo tempo da medição das distâncias (S220). Com base nos dados medidos (distâncias e orientações (e/ou posições) medidas), informações sobre o objeto podem ser derivadas (S250).
32 / 54
[0075] As distâncias e as orientações (e/ou posições) são medidas e determinadas pelo dispositivo de varredura passiva 100 equipado em uma parte do corpo do usuário.
[0076] As informações sobre o objeto compreendem ou são pelo menos uma de uma posição, uma forma, uma inclinação, uma pose e um tamanho do objeto ou cena, por exemplo, um movimento do objeto.
[0077] As distâncias e orientações (e/ou posições) medidas podem ser registradas na unidade de memória 130. Os dados medidos podem ser registrados como distâncias (por exemplo ) e orientações (por exemplo , ) de coordenadas Esféricas. Assim, as combinações das distâncias e orientações (e/ou posições) medidas podem formar pontos plotados no espaço. Os dados de referência, incluindo as distâncias e orientações (e/ou posições) de referência dos objetos ou cenas de exemplo, podem ser armazenados (S230) na unidade de memória 130. Também é possível que os dados de referência possam ser armazenados antes das medições das distâncias e orientações (e/ou posições) na unidade de memória 130.
[0078] Opcionalmente, a medição de uma posição do dispositivo de varredura passiva 100 pode ser realizada (S242). As posições de medição podem resultar na medição de uma velocidade do dispositivo de varredura passiva 100 em combinação com a duração das medições. A medição de posições pode prover traços de movimentos do dispositivo de varredura passiva 100. Os locais, velocidades e/ou traços medidos podem ser usados além dos dados medidos para classificar um objeto ou especificar um ambiente em torno do dispositivo de varredura passiva 100. Assim, a precisão da classificação pode ser melhorada.
[0079] Opcionalmente, a derivação da informação sobre pelo menos uma posição, forma, inclinação, pose e tamanho do objeto ou cena, por exemplo o movimento do objeto, pode ser realizada com base em pontos plotados dos dados medidos do objeto. A informação derivada do objeto ou
33 / 54 cena, além dos dados medidos, pode ser usada para classificar uma atividade de um usuário ou de um ambiente em torno do dispositivo de varredura passiva 100 ou do usuário (S245).
[0080] Opcionalmente, a medição de uma quantidade de movimentos do dispositivo de varredura passiva 100 pode ser realizada (S247). A quantidade medida de movimentos pode ser usada como um indicador para descartar os dados medidos (S248). Como descrito acima, uma aceleração mais alta do que um valor limite do dispositivo de varredura passiva 100 pode ser a indicação da necessidade de descartar os dados medidos durante uma duração predeterminada quando a aceleração mais alta for/foi medida.
[0081] Opcionalmente, a derivação de informações sobre o objeto ou cena pode compreender ou ser substituída por etapas, incluindo converter as distâncias medidas e as orientações (e/ou posições) determinadas em pontos de coordenadas, comparando os pontos de coordenadas convertidos com as distâncias e orientações (e/ou posições) de referência armazenadas e classificar o objeto ou cena como um objeto de exemplo de objetos ou cenas quando as distâncias de referência e orientações (e/ou posições) de referência para um objeto ou cena têm o maior número de pontos correspondentes aos pontos de coordenada convertidos.
[0082] Opcionalmente, a derivação de informações sobre o objeto ou cena pode compreender ou ser substituída por etapas, incluindo converter as distâncias medidas e das orientações determinadas (e/ou posições) e/ou pelo menos uma coordenada para o modelo espacial do objeto ou cena, comparando o modelo espacial com modelos espaciais de referência armazenados e classificando o objeto ou cena como um dos objetos ou cenas de exemplo quando o modelo espacial de referência para um objeto ou cena de exemplo tiver o maior número de pontuação correspondente ao modelo espacial.
[0083] Opcionalmente, o método pode compreender adicionalmente
34 / 54 identificar requisitos visuais (S252) do usuário, aplicando um método estatístico às informações derivadas sobre o objeto ou cena. O método ainda compreende identificar requisitos visuais (S252) do usuário, aplicando um método estatístico à atividade determinada do usuário ou do ambiente. No método estatístico, pesos maiores ou iguais a 1 podem ser aplicados às informações derivadas quando derivadas de medições cuja frequência é maior ou igual ao valor predeterminado, enquanto pesos iguais a 0 ou maiores que 0 e menores 1 pode ser aplicado às informações derivadas quando derivadas das medições cuja frequência é menor que o valor predeterminado.
[0084] Opcionalmente, o método pode compreender adicionalmente determinar (S246) a distância de visualização com base nas coordenadas de pontos e/ou modelo geométrico da cena e atividade executada pelo usuário. Por exemplo, se uma cena é reconhecida como uma área de trabalho com um computador pessoal e a atividade é classificada como um trabalho de computador, a distância de visualização relevante é a distância entre os olhos do usuário e a tela do computador, representada pelo modelo geométrico ou pelo conjunto de pontos em espaço.
[0085] Opcionalmente, o método pode compreender adicionalmente determinar (S254) uma solução refrativa para o usuário com base nos requisitos visuais, em que a solução refrativa é um de um perfil de ablação para cirurgia refrativa, um implante oftálmico e uma lente oftálmica, em que a lente oftálmica é uma de uma lente intraocular, uma lente de contato e uma lente de óculos.
[0086] Juntamente com os resultados das etapas descritas opcionalmente (S242, S245, S246, S247 e/ou S248), a classificação (S250) da objeção pode ser feita com mais precisão.
[0087] A Figura 3 ilustra um exemplo de uma unidade de sensoreação de distância 110 de acordo com a presente descrição. A unidade de sensoreação de distância 110 pode compreender um sensor de distância (ou
35 / 54 uma pluralidade de sensores de distância) 5, uma unidade de memória 7 e/ou uma unidade de processamento 10. As funções da unidade de memória 7 e/ou unidade de processamento 10 podem ser executadas pelo processador 130 e a memória 140 do dispositivo de varredura passiva 100 descrito acima, e a unidade de memória 7 e/ou a unidade de processamento 10 podem ser omitidas na unidade de sensoreação de distância 1. Opcionalmente, a unidade de sensoreação de distância 110 pode compreender uma unidade de monitoramento ocular 15, um sensor de movimento 20, um sensor de luz ambiente e/ou uma interface de usuário 30. As diferentes unidades 5, 7, 10, 15, 20, 25 da unidade de sensoreação de distância 110 podem ser realizadas em um e no mesmo dispositivo 110 ou podem ser distribuídos em dois ou mais dispositivos separados para formar a unidade de sensoreação à distância
110. Mais detalhes da unidade de sensoreação à distância 110 serão agora descritos em relação à Figura 4.
[0088] A Figura 4 ilustra um fluxograma correspondente a um método que pode ser realizado pela unidade de sensoreação de distância 110, a fim de ponderar, priorizar ou descartar medições de distância de visualização específicas. O sensor de distância 5 pode medir uma ou mais distâncias de visualização na etapa S10. Essas distâncias são distâncias entre um indivíduo (ou seja, usuário) e um ou mais objetos na direção de visualização do indivíduo. Na etapa S7, a unidade de memória 7 pode armazenar as distâncias de visualização medidas em um conjunto de distâncias de visualização medidas. Na etapa S11, a unidade de processamento 10 determina uma distribuição estatística das distâncias de visualização medidas a partir do conjunto de distâncias de visualização medidas.
[0089] A seguir, algumas etapas opcionais mostradas na Figura 4 serão descritas. Essas etapas opcionais geralmente levam a uma melhoria, por exemplo uma avaliação mais precisa. Por exemplo, a unidade de monitoramento ocular 15 detecta, na etapa opcional S15, a direção ocular do
36 / 54 indivíduo em relação à direção do sensor de medição de distância, por exemplo a direção de visualização. Na etapa opcional S16, a unidade de processamento 10 pondera, seleciona ou descarta estatisticamente as distâncias de visualização medidas partir do conjunto de distâncias de visualização medidas com base na direção dos olhos do indivíduo em relação à direção do sensor de medição de distância, por exemplo a direção de visualização. Em vez de descartar as distâncias de visualização medidas, a unidade de processamento 10 pode selecionar as distâncias de visualização específicas consideradas valiosas ou selecionar as distâncias de visualização preferidas de um indivíduo ou ponderar as distâncias de visualização medidas com um fator de ponderação menor ou maior que um. Na etapa opcional S20, um sensor de movimento 20 mede, na etapa S20, os movimentos do corpo do indivíduo. No presente exemplo, o sensor de movimento 20 pode ou não compreender um acelerômetro e/ou um giroscópio, mas pode ou não compreender adicionalmente diferentes sensores como um magnetômetro, um altímetro, um pedômetro ou um dispositivo de geoposicionamento, por exemplo. Na etapa opcional S21, a unidade de processamento 10 pondera, seleciona ou descarta estatisticamente as distâncias de visualização medidas partir do conjunto de distâncias de visualização medidas com base nos movimentos medidos. Se a cabeça de um indivíduo estiver pelo menos substancialmente constantemente apontada para um objeto medido, a distância ao objeto é medida e ponderada por um fator de um ou mais que um. Se a atenção do indivíduo estiver distraída, por exemplo quando a cabeça de um indivíduo está se movendo pelo menos substancialmente constantemente ao redor de um objeto, a distância medida é ponderada por um fator menor que 1 ou descartada e, portanto, não é considerada na distribuição estatística geral.
[0090] O sensor de luz ambiente 25, que pode ser estendido usando um sensor de cor adicional, mede a luz ambiente e/ou a intensidade da luz
37 / 54 e/ou o conteúdo espectral na direção de visualização do indivíduo na etapa opcional S25. A unidade de processamento 10 pondera, seleciona ou descarta estatisticamente as distâncias de visualização medidas partir do conjunto de distâncias de visualização medidas com base na luz ambiente, intensidade da luz e/ou conteúdo espectral medidos na etapa opcional S26. A luz ambiente afeta a acomodação dos olhos do indivíduo e a profundidade de foco. Sob iluminação brilhante, quando a pupila do indivíduo é contraída e a profundidade de foco do indivíduo é significativamente aumentada, as distâncias de visualização medidas são despriorizadas e ponderadas por valores menores que um. Ao considerar a luz fraca, por exemplo, quando o indivíduo está lendo um livro e as pupilas do indivíduo estão dilatadas, o que corresponde à luz ambiente associada à iluminação fraca, as distâncias de visualização medidas são priorizadas e ponderadas por valores superiores a um.
[0091] Na etapa opcional S30, uma interface de usuário 30 recebe uma entrada do usuário. Na etapa opcional S31, a unidade de processamento 10 pondera, seleciona ou descarta as distâncias de visualização medidas partir do conjunto de distâncias de visualização medidas com base na entrada do usuário. O indivíduo pode usar um toque na unidade de sensoreação de distância 110, em dispositivos conectados ou em dispositivos óticos que compreendem a unidade de sensoreação de distância 110, a fim de ponderar, selecionar ou descartar as distâncias de visualização medidas. A entrada do indivíduo pode ainda ser gestos na cabeça, como assentir ou sacudir, detectado pelo sensor de moção da cabeça, movimento do indivíduo ou dos olhos, detectado pelo dispositivo de monitoramento ocular e semelhantes. Por exemplo, um indivíduo pode descartar as distâncias medidas visualizadas olhando para o lado do objeto a ser medido, levando diretamente a resultados descartados, devido ao dispositivo de monitoramento ocular ajustado. Outro exemplo pode ser um indivíduo colocando as mãos na frente do sensor com
38 / 54 um gesto de aceno com a mão ou mantendo a mão na frente da unidade de sensoreação de distância 110 por alguns segundos para descartar ou ponderar as distâncias de visualização medidas.
[0092] Um ou mais, por exemplo de todas as etapas de ponderação ou descarte acima mencionadas podem ser executadas independentemente uma da outra ou juntas em uma etapa de processamento comum.
[0093] A unidade de processamento 10 pode calcular, na etapa opcional S35, uma refração alvo, aplicando um método estatístico à distribuição estatística das distâncias de visualização medidas a partir do conjunto de distâncias de visualização medidas.
[0094] A Figura 5 ilustra um conceito para varredura passiva de um objeto. Na figura, o conceito de realizar a varredura um objeto 520 ou um ambiente (isto é, cena) com a unidade de sensoreação de distância 110 usando movimentos naturais de um corpo humano ou de uma parte do corpo, como uma cabeça (onde o dispositivo está localizado) é representado graficamente. Para a varredura passiva do objeto (ou cena), as medições da unidade de sensoreação de orientação 120 e/ou da unidade de sensoreação de posição 150 podem ser utilizadas além das medições da unidade de sensoreação de distância 110. Opcionalmente, sensores de moção, como acelerômetros, giroscópios e magnetômetros, bem como sensores de localização, podem ser implementados dentro ou fora da unidade de sensoreação de orientação 120. A unidade de sensoreação de posição 150 pode ser realizada como pelo menos um de um dispositivo de geoposicionamento, interno e um sistema de posicionamento híbrido. A unidade de sensoreação de orientação 120 pode medir orientações verticalmente e/ou horizontalmente em relação a uma linha de base 530 em um ponto de origem.
[0095] Na figura, um usuário que lê um livro é exemplificado. A Figura 5(a) ilustra as distâncias de medição para uma pluralidade de pontos de um objeto 520 e as orientações verticais para a pluralidade de pontos em
39 / 54 relação à linha de base 530. A Figura 5(b) ilustra as distâncias de medição para a pluralidade de pontos do objeto 520 e orientações horizontais para a pluralidade de pontos em relação à linha de base 530.
[0096] Uma vez que o dispositivo de varredura passiva 100 está equipado na cabeça do usuário, o movimento natural da cabeça durante a leitura expõe o sensor a vários pontos e objetos 520 da cena. As distâncias medidas são registradas juntamente com as orientações e/ou posições do sensor 100. Por exemplo, quando o usuário lê um livro, ele/ela tipicamente move-se levemente (gira) a cabeça para seguir textos e páginas. As distâncias para diferentes pontos do livro podem ser estimadas pela unidade de sensoreação de distância no dispositivo de varredura passiva 100. Como mostrado na figura 5(a), as orientações verticais (ângulos) de cada uma das distâncias podem ser estimadas pela unidade de sensoreação de orientação
120. Por exemplo, as orientações verticais podem ser estimadas usando um acelerômetro que pode medir ângulos em relação ao campo gravitacional. Na figura 5(b), as orientações horizontais (ângulos) de cada uma das distâncias podem ser estimadas pela unidade de sensoreação de orientação 120. Por exemplo, as orientações horizontais podem ser medidas usando um magnetômetro (ou uma bússola) que pode medir ângulos em relação a uma direção do campo magnético da terra. Combinando medidas das distâncias e orientações, os pontos do livro submetidos à varredura podem ser localizados no espaço 3D (em relação ao usuário ou ao dispositivo de varredura passiva). Os pontos localizados no espaço 3D (coordenadas) podem prover informações sobre uma forma do livro, ângulos (inclinações) do livro, uma distância do livro e/ou um tamanho do livro. A partir dessas informações, é possível relacionar medições de distância com o mundo físico, de modo que os dados medidos sejam utilizados para distinguir ou classificar um objeto de interesse ou uma atividade de usuário, por exemplo o interesse ou a atividade de ler um livro. Ao conhecer a posição do dispositivo 100 em relação aos
40 / 54 olhos do usuário, é possível estimar a distância de visualização do objeto 520. A posição do dispositivo 100 em relação aos olhos do usuário pode ser conhecida devido a condições de uso predefinidas ou a partir de dados de calibração.
[0097] Os pontos para os objetos (por exemplo, parede) que não são de interesse direto do usuário para a atividade classificada não são considerados para a estimativa da distância de visualização do objeto de interesse primário (por exemplo, livro). No entanto, distâncias para outros objetos podem prover informações adicionais sobre a cena. Nas figuras representadas, os pontos de coordenadas medidos devido à parede podem ser levados em consideração quando o dispositivo de varredura passiva 100 classifica a cena. Por exemplo, juntamente com o objeto classificado (que pode ser um livro na figura), os pontos de coordenadas da parede podem levar a classificação à cena do usuário lendo o livro em ambientes fechados.
[0098] A Figura 6 ilustra exemplos de varredura passiva medindo orientações e/ou posições de um objeto. Para obter uma varredura do objeto, é necessário medir uma propriedade do objeto (superfície) em relação a uma posição no objeto (superfície). Se a geometria de um objeto for varrida, as distâncias a ele serão relacionadas ao sistema de coordenadas do objeto e/ou dispositivo de medição. No espaço 3D, as orientações e/ou posições do dispositivo de varredura passiva 100 ou da unidade de sensoreação de distância 110 em relação ao objeto (por exemplo, cena) podem precisar ser medidas para varrer passivamente o objeto.
[0099] Referindo-se à figura 6(a), quando a direção (isto é, orientação) da unidade de sensoreação de distância 110 é restrita (ou presume-se que permaneça constante), o objeto pode ser varrido medindo posições (por exemplo, posições 0, 1, 2) da unidade de sensoreação de distância 110. Como representado, os pontos do objeto podem ser medidos pela unidade de sensoreação de distância 110 e pela unidade de sensoreação
41 / 54 de posição 150. Os pontos medidos podem ser plotados nos sistemas de coordenadas.
[00100] Referindo-se à figura 6(b), quando a posição da unidade de sensoreação à distância 110 é restrita (ou presume-se que permaneça constante), o objeto pode ser varrido medindo orientações (por exemplo, orientações 0, 1, 2) da unidade de sensoreação à distância 110 Essa é a situação mais natural para o dispositivo montado na cabeça do usuário para muitas atividades visuais, uma vez que os humanos tendem a girar a cabeça para estudar a cena. Como representado, os pontos do objeto podem ser medidos pela unidade de sensoreação de distância 110 e pela unidade de sensoreação de orientação 120. Os pontos medidos podem ser plotados nos sistemas de coordenadas.
[00101] Referindo-se à figura 6 (c), quando a posição e a orientação da unidade de sensoreação de distância 110 são restritas (ou presume-se que permaneçam constantes), o objeto pode ser varrido medindo orientações (por exemplo, orientações 0, 1, 2) e posições (por exemplo posições 0, 1, 2) da unidade de sensoreação de distância 110. Como representado, os pontos do objeto podem ser medidos pela unidade de sensoreação de distância 110, a unidade de sensoreação de orientação 120 e a unidade de sensoreação de posição 150. Os pontos medidos podem ser plotados os sistemas de coordenadas.
[00102] Como mostrado, em qualquer condição das restrições para a orientação e/ou posição do dispositivo de varredura passiva 100 ou da unidade de sensoreação de distância 110, monitoramento ou varredura do objeto, por exemplo cena, ainda é viável. Ou seja, os controles ativos dos sensores para monitorar o objeto ou cena podem ser omitidos.
[00103] As orientações podem ser monitoradas com sensores de inércia (por exemplo, um acelerômetro direciona o campo de gravitação da Terra, ou seja, ângulo vertical, um magnetômetro direciona o campo magnético da
42 / 54 Terra, principalmente o ângulo horizontal, e parcialmente vertical). Durante as medições para as orientações, um giroscópio pode ser usado para reduzir artefatos. As medições de múltiplos sensores de moção podem ser combinadas com a ajuda do chamado algoritmo de fusão, a fim de melhorar a acurácia. As posições podem ser derivadas de medições diretas, como pelo menos uma única coordenada de geolocalização, localização interna ou altímetro, ou podem ser derivadas indiretamente, sensoreando o moção do sensor e realizando a estimativa de posição a partir do moção (navegação estimada/integração de trajeto).
[00104] As propriedades de reflexão da luz do objeto, incluindo informações espectrais sobre a reflexão como informações adicionais, também podem ser medidas e usadas para reconhecimento de objetos (varredura passiva do objeto).
[00105] A Figura 7 ilustra exemplos de pontos de plotagem (ou nuvem de pontos) dos dados medidos para objetos ou cenas. Na figura, os pontos derivados dos dados medidos, incluindo as distâncias e as orientações (e/ou posições), são plotados em coordenadas bidimensionais do corte transversal vertical da cena. Os pontos são mapeados com base em medições de distância combinadas com a orientação do campo gravitacional medido com acelerômetro. A figura mostra os resultados dos pontos plotados para atividades usando um tablet e um computador de mesa. Para a atividade de usar o tablet, os pontos plotados refletem uma inclinação de uma tela do tablet e uma distância do usuário. Os pontos plotados para a atividade de usuário que usa o computador de mesa refletem um monitor de computador verticalmente em pé e uma distância relativamente longa de/para o usuário.
[00106] Na figura, pontos plotados insignificantes também são apresentados como pálidos e semitransparentes, enquanto pontos plotados significativos são apresentados como vívidos. Ou seja, dependendo da frequência de ocorrências dos pontos plotados, a cor dos pontos plotados pode
43 / 54 ser pálida ou vívida. Para simplificar a varredura passiva, os pontos plotados significativos podem ser levados em consideração para a classificação do objeto ou do ambiente, enquanto os pontos plotados insignificantes podem ser desconsiderados para a classificação. Por exemplo, se a frequência de pontos plotados em uma área predeterminada nas coordenadas for menor que a média de frequências de pontos plotados em outras áreas, os pontos plotados na área predeterminada podem ser excluídos da consideração pela classificação.
[00107] De acordo com a presente descrição, uma vez que o objeto ou objetos que compõem a cena são modelados e/ou classificados, a atividade de usuário, como ler um livro, usar um smartphone, usar um PC, assistir TV, conversar com outras pessoas, etc., também pode ser classificado.
[00108] A Figura 8 ilustra um exemplo de medidas para uma atividade de usuário de utilizar um computador pessoal de mesa. A Figura 8(a) ilustra os resultados de várias medições que podem ser realizadas no dispositivo de varredura passiva. A Figura 8(b) ilustra a nuvem de pontos (ou pontos plotados) em coordenadas bidimensionais, refletindo as distâncias medidas e as orientações verticais medidas para os pontos do PC de mesa.
[00109] Referindo-se à figura 8(a), as distâncias e ocorrências de cada uma das distâncias podem ser medidas pelo dispositivo de varredura passiva
100. Como as ocorrências para as distâncias entre 0,6m e 0,7m constituem uma porcentagem significativa nas distâncias medidas, a distância entre 0,6m e 0,7m podem ser determinados como a distância de trabalho (distância entre o usuário e o objeto de interesse) do objeto. As orientações verticais para as distâncias que compõem uma porcentagem significativa podem ser medidas e indicam que o usuário mais olhou para a frente durante as medições. As combinações das orientações verticais e as distâncias que compõem uma porcentagem significativa também podem indicar uma inclinação do objeto. O exemplo mostrado nesta figura mostra que o objeto é verticalmente plano. A luz ambiente no ambiente em que o objeto está localizado e uma quantidade
44 / 54 de movimento da cabeça podem ser medidos e levados em consideração para classificar o objeto (ou cena) e a atividade de usuário.
[00110] Referindo-se à figura 8(b), os pontos com base nos dados medidos são plotados no corte transversal vertical bidimensional da cena, similar a Fig. 7. O eixo geométrico x indica as coordenadas horizontais dos pontos do objeto e o eixo geométrico y as coordenadas verticais. Os pontos plotados indicam um monitor de computador na vertical e um teclado em uma mesa.
[00111] A Figura 9 ilustra um exemplo de medidas para uma atividade de usuário de utilizar um computador portátil. O significado das plotagens é similar à Figura 8. A Figura 9(a) ilustra os resultados de várias medições que podem ser realizadas no dispositivo de varredura passiva 100. A Figura 9(b) ilustra os pontos plotados em coordenadas bidimensionais, refletindo as distâncias medidas e as orientações verticais medidas para os pontos do computador portátil.
[00112] Referindo-se à figura 9(a), as distâncias e ocorrências de cada uma das distâncias podem ser medidas pelo dispositivo de varredura passiva
100. Como as ocorrências para as distâncias entre 0,4m e 0,5m constituem uma porcentagem significativa nas distâncias medidas, a distância entre 0,4m e 0,5m podem ser determinados como a distância de trabalho (distância entre o usuário e o objeto de interesse). Os ângulos de flexão da cabeça (inclinação do dispositivo) podem ser medidos e indicam que o usuário geralmente olhou 20 graus para baixo durante as medições. As combinações das orientações verticais e as distâncias que compõem uma porcentagem significativa também podem indicar uma inclinação do objeto. O exemplo mostrado nesta figura mostra que uma parte do objeto é inclinada em cerca de 30 graus. A luz ambiente no ambiente em que o objeto está localizado e uma quantidade de movimento da cabeça podem ser medidos e levados em consideração para classificar o objeto e a atividade de usuário.
45 / 54
[00113] Referindo-se à figura 9(b), os pontos com base nos dados medidos são plotados no sistema de coordenadas bidimensionais do dispositivo. O eixo geométrico x indica as coordenadas horizontais dos pontos do objeto e o eixo geométrico y indica as coordenadas verticais. Os pontos plotados indicam uma superfície inclinada, como um livro ou uma tela de um computador portátil.
[00114] A Figura 10 ilustra um exemplo de varredura passiva de objetos usando uma pluralidade (dois neste exemplo) de sensores de distância incluídos na unidade de sensor de distância 110. A unidade de sensor de distância 110 pode ser composta por um sensor único ou um conjunto de sensores para realizar várias medições ao mesmo tempo. A matriz de sensores pode incluir ou ser formada por uma pluralidade de sensores de distância. Por exemplo, a matriz de sensores pode ser realizada pelos sensores de tempo de voo (ToF) baseados em laser, que possuem nove zonas para variação. As medições da matriz de sensores podem ser combinadas para reforçar informações sobre um ambiente em que o dispositivo de varredura passiva 100 está localizado. A unidade de sensoreação de distância 110 pode usar tecnologia baseada em laser, tecnologia baseada em ultrassom ou qualquer outra tecnologia de alcance. A unidade de sensoreação de distância 110 pode até ser uma câmera 3D. As medições de alcance realizadas pela unidade de sensoreação de distância 110 podem estar relacionadas a medições de orientações/posições realizadas pela unidade de sensoreação de orientação 120 que podem incluir o sensor de moção ou sensor de posição.
[00115] Com referência à figura, o dispositivo de varredura passiva 100 compreende de maneira exemplar dois sensores de distância. O primeiro sensor de distância 110a pode ser configurado e arranjado para medir distâncias na direção para frente do dispositivo 100, de modo que as distâncias medidas pelo primeiro sensor de distância 110a possam corresponder às distâncias entre o usuário e o objeto. Uma vez que um
46 / 54 primeiro objeto 520a está localizado na linha de visão do usuário, o primeiro sensor de distância 110a pode medir distâncias do dispositivo 100 (ou usuário) até os pontos do primeiro objeto 520a. O segundo sensor de distância 110b pode ser implementado e arranjado para medir distâncias de uma direção ligeiramente para baixo do dispositivo 100, de modo que um segundo objeto 520b que não esteja exatamente na linha de visão do usuário possa ser medido pelo segundo sensor de distância 110b. Por exemplo, o usuário que usa um computador portátil normalmente olha principalmente para a tela. Assim, a unidade de sensoreação de distância 110 do dispositivo de varredura passiva 100 pode medir principalmente distâncias da tela do computador portátil, o que pode resultar em nuvem de pontos (ou pontos plotados) tendo um contorno da tela inclinada. O computador portátil também pode ter uma parte do teclado, no entanto, as distâncias do teclado podem ser medidas apenas ocasionalmente pelo sensor de distância 110, uma vez que o usuário pode olhar para baixo algumas vezes. Assim, é provável que os dados medidos pelo sensor de distância 110 sejam ignorados, uma vez que as distâncias para o segundo objeto 520b são insignificantes. Nesse caso, o segundo sensor de distância 110b pode medir distâncias aos pontos do teclado do computador portátil, mesmo que a atenção do usuário seja principalmente direcionada para a tela do computador portátil. Como consequência, o dispositivo de varredura passiva 100 compreendendo uma pluralidade de sensores de distância 110a, 110b é capaz de medir objetos localizados no ambiente ou ao redor do usuário, de modo a obter resultados mais precisos para modelar e classificar a cena (ou objeto) ou a atividade de o usuário pode ser alcançado.
[00116] A Figura 11 ilustra um exemplo de varredura passiva de um objeto 520 usando uma pluralidade de sensores de distância 110a, 110b. A unidade de sensoreação de distância 110 compreendendo mais de um sensor de distância pode ser benéfica quando o objeto a ser varrido (medido) é
47 / 54 relativamente grande em tamanho. Referindo-se à figura, o primeiro sensor de distância 110a para medir as distâncias de direção para frente pode medir pontos do objeto 520 onde o olhar do usuário está. Ao mesmo tempo, o segundo sensor de distância 110b para medir as distâncias de direção ligeiramente para baixo pode medir os outros pontos do objeto 520. Por simples avaliação geométrica, é possível, por exemplo, calcular o ângulo dos objetos/superfícies mostrados na imagem. Consequentemente, o dispositivo de varredura passiva 100 com mais de um sensor de distância é capaz de intensificar a acurácia e a velocidade da varredura passiva, modelagem e classificação do objeto 520 (ou cena).
[00117] A Figura 11(a) ilustra um exemplo de varredura da superfície (do objeto horizontal) usando o dispositivo de varredura passiva 100 ou a unidade de sensoreação de distância 110 tendo a pluralidade de sensores de distância 110a e 110b. A Figura 11(b) ilustra um exemplo de varredura da superfície (do objeto vertical) usando o dispositivo de varredura passiva 100 ou a unidade de sensoreação de distância 110 tendo a pluralidade de sensores de distância 110a e 110b.
[00118] A Figura 12 ilustra exemplos de mapeamentos de objetos (superfícies dos objetos) obtidos com dispositivo de varredura passiva com vestível montado na armação de óculos combinando as medições das distâncias e as orientações (e/ou posições) do dispositivo de varredura passiva
100. As dimensões horizontais na figura denotam distâncias horizontais em metros e as dimensões verticais indicam distâncias verticais em metros. O centro na cruz de linhas tracejadas é uma localização do dispositivo de varredura passiva 100 ou da unidade de sensoreação de distância 110. Círculos com linhas pretas mostram as medições de ToF dos sensores de distância 110a e círculos sem linhas mostram as medições de ToF dos sensores de distância 110b.
[00119] Em muitas aplicações, é importante entender os requisitos
48 / 54 visuais do usuário. Por exemplo, para projetar melhor os óculos ou as lentes intraoculares, é preciso entender o estilo de vida visual do usuário: quanto tempo o usuário passa lendo, assistindo TV, trabalhando no computador etc. Quais são as distâncias típicas de visualização dos objetos de interesse de tais atividades? O comportamento visual pode ser estudado usando dispositivos vestíveis discretos e altamente portáteis, montados nas proximidades dos olhos do usuário e capazes de realizar a varredura da cena como visualizada pelo usuário, a fim de obter estatísticas das distâncias, tempos, condições e informações adicionais sobre movimentos do usuário, luz ambiente, cor, etc. Essas informações que podem ser coletadas continuamente durante as atividades diárias do usuário e, analisadas de uma maneira específica, podem ser usadas para projetar soluções visuais individualizadas, como lentes oftálmicas e intraoculares, tratamentos refrativos, etc.
[00120] O aparelho e o dispositivo aqui descritos facilitam de uma maneira eficiente a coleta e avaliação dessas informações.
[00121] Com referência à figura 11(a), os mapeamentos das medições para uma superfície vertical (por exemplo, uma parede) são representados graficamente. Referindo-se à figura 11(b), os mapeamentos das medições para uma superfície horizontal são representados graficamente (por exemplo, uma mesa).
[00122] Referindo-se à figura 11(c), os mapeamentos das medições para um computador de mesa em um escritório são representados graficamente. Referindo-se à figura 11(d), os mapeamentos das medições para um computador de mesa com a tela próxima à parede são representados graficamente. Na figura 11(d), uma parede atrás de um monitor do computador de mesma também é verificada.
[00123] Referindo-se à figura 11(e), os mapeamentos das medições para um computador portátil são representados graficamente. Referindo-se à figura 11(f), os mapeamentos das medidas para um livro são representados
49 / 54 graficamente.
[00124] A Figura 13 ilustra tipos das orientações do dispositivo de varredura passiva 100 ou da unidade de sensoreação de distância 110 que pode ser medida pelo dispositivo de varredura passiva 100 ou pela unidade de sensoreação de orientação 120. A orientação da guinada (rotação) pode ser definida como rotação em torno do eixo geométrico vertical e refletem a rotação da cabeça quando o dispositivo de varredura passiva 100 é montado na cabeça do usuário. A orientação do pico (rotação) pode ser definida como rotação ao redor do eixo geométrico do pico e reflete a flexão da cabeça quando o dispositivo de varredura passiva 100 é montado na cabeça do usuário. O eixo geométrico do pico pode ser definido como tendo sua origem no centro de gravidade e é direcionado para a direita, paralelo a uma linha desenhada do lado do dispositivo de varredura passiva 100. A orientação do rolo (rotação) pode ser definida como a rotação ao redor do eixo geométrico do rolo e refletir a inclinação lateral da cabeça quando o dispositivo de varredura passiva 100 é montado na cabeça do usuário. O eixo do rolo pode ser definido com sua origem no centro de gravidade e é direcionado para frente, paralelo ao dispositivo de varredura passiva 100.
[00125] A Figura 14 ilustra um exemplo de fluxo para classificar o objeto ou cena.
[00126] A nuvem de pontos pode ser medida pelo dispositivo de varredura passiva 100 ou derivada das medições do dispositivo de varredura passiva 100 (S1410). As medições podem incluir distâncias para um ou mais objetos em uma cena e orientações (e/ou posições) do dispositivo de varredura passiva 100 (ou da unidade de sensoreação de distância 110). As medições podem ser convertidas na nuvem de pontos no sistema de coordenadas relacionadas a um ou mais objetos.
[00127] A nuvem de pontos pode ser convertida em modelo composto por imagens primitivas geométricas (S1420). As imagens primitivas
50 / 54 geométricas podem indicar as superfícies de um ou mais objetos na cena.
[00128] Na cena, um ou mais objetos podem ser identificados e, em seguida, a cena pode ser classificada com base no um ou mais objetos identificados (S1440). A cena pode ser definida como uma atividade de usuário e/ou um ambiente de usuário.
[00129] Opcionalmente, informações sobre pelo menos um dos padrões de moção, luz ambiente, refletividade do objeto, contorno do objeto, cor do objeto ou flexão da cabeça podem ser ainda medidas pelo dispositivo de varredura passiva 100 ou equipamentos auxiliares conectados ao dispositivo de varredura passiva 100 (S1430). A informação pode ser levada em consideração quando a cena é classificada (S1440).
[00130] Com base nas imagens primitivas geométricas ou na cena classificada, informações como uma distância de trabalho, uma distância de visualização e/ou um ambiente de trabalho podem ser derivadas. As informações podem ser calibradas com os métodos estatísticos e usadas para identificar uma solução de refração do usuário (S1450).
[00131] A Figura 15 ilustra exemplos de pontos plotados em coordenadas bidimensionais para dados de referência de objetos de exemplo. Os dados de referência podem ser definidos para vários tipos de objetos de exemplo. Na figura, os dados de referência para os objetos de exemplo são plotados em coordenadas bidimensionais. Por exemplo, na figura, dados de referência para um livro 1110, uma tela para PC de mesa 1120, uma TV de 30 polegadas 1130, uma TV de 40 polegadas 1140, uma TV de 50 polegadas 1150 e uma tela de projeção 1160 são plotados. Como os dados de referência podem incluir distâncias de referência, orientações verticais de referência e orientações verticais de referência, também é possível que pontos para os dados de referência sejam plotados em coordenadas tridimensionais. Na figura, os dados de referência são, no entanto, expressos em coordenadas bidimensionais para facilitar a apresentação e explicação.
51 / 54
[00132] Na figura, os dados medidos são plotados em distâncias entre 0,2 m e 0,6 m. Os pontos plotados correspondem principalmente aos dados de referência para o PC de mesa 1120. Assim, o objeto medido pelo dispositivo de varredura passiva 100 pode ser classificado como um PC de mesa.
[00133] Um objeto 3D como percebido pelo dispositivo de varredura passiva 100 pode consistir em uma pluralidade de superfícies. À medida que a posição do dispositivo de varredura passiva 100 muda em torno do objeto 3D, as superfícies do objeto 3D podem ser submetidas à varredura e os pontos das superfícies podem ser medidos. As medições do objeto 3D podem incluir os pontos das superfícies, bem como arranjos mútuos das superfícies. Nesse caso, os dados de referência podem incluir exemplos para as formas de objeto das superfícies e os arranjos mútuos das superfícies.
[00134] A partir das medições do dispositivo de varredura passiva 100, informações sobre objetos que constituem formas dos objetos, poses dos objetos e/ou posições do objeto podem ser adquiridas. Um modelo para um objeto complexo pode ser composto de imagens primitivas 3D (objetos rígidos) e suas relações espaciais. Por exemplo, se um objeto é um corpo humano, o modelo pode consistir em imagens primitivas de uma cabeça, um torso, braços, pernas etc. As relações espaciais (graus de liberdade) são definidas por restrições fisiológicas. Tais relações espaciais podem ser levadas em consideração nos dados de referência. As informações derivadas do corpo humano como um objeto podem, assim, ser distância, pose, orientação e assim por diante, e os dados correspondentes como dados de referência podem ser armazenados na unidade de memória 130.
[00135] Um outro exemplo de um objeto complexo pode ser um computador portátil. O computador portátil normalmente é composto por um monitor rígido e um corpo principal rígido, que pode ter um ângulo variável entre eles, com base nas preferências do usuário. Nesse caso, um modelo pode ser a representação dessas dois primitivos (do monitor e do corpo principal) e
52 / 54 como relação variável única de um ângulo. As informações derivadas seriam a razão de tamanho e aspecto do monitor, o ângulo entre o monitor e o corpo principal, bem como a posição e a pose do computador portátil.
[00136] A cena 3D é composta por um conjunto de objetos 3D (primitivos ou complexos). O modelo de cena consiste em presenças dos objetos, formas dos objetos, poses dos objetos e relações espaciais dos objetos. Aqui, o termo “pose” inclui a posição e orientação do objeto. Assim, o reconhecimento de cena requer o reconhecimento de um conjunto de objetos de composição e sua disposição no espaço.
[00137] O reconhecimento de cena permite adicionalmente derivar a atividade de usuário. Por exemplo, identificar um computador portátil em uma área específica do espaço de visualização (ao alcance do braço), com uma pose específica (um monitor voltado para o usuário), em uma condição específica (a tampa do computador portátil está aberta) pode sugerir que o usuário esteja trabalhando no computador portátil. Em outro exemplo, a presença do objeto dentro do alcance próximo (distância de leitura) ao redor da cabeça do usuário, com um tamanho de 20x30 cm, com rotações do dispositivo de varredura passiva 100 em um faixa relativamente limitada, pode ser identificado como um livro e a cena (ou atividade) como atividade de leitura.
[00138] A Figura 16 ilustra exemplos de deslocamentos permitidas em coordenadas bidimensionais para dados de referência de objetos de exemplo. Como as características dos usuários e as circunstâncias ao redor dos usuários podem variar, pode ser possível que os dados de referência não incluam dados suficientes para todos os objetos de exemplo, dependendo das características e circunstâncias variáveis. Assim, quando os dados medidos do dispositivo de varredura passiva 100 são comparados com os dados de referência, os deslocamentos entre os dados medidos e os dados de referência podem ser permitidas e os dados medidos em uma faixa dos deslocamentos podem ser
53 / 54 determinados como correspondendo à referência dados. Como resultado, a falta dos dados de referência para certas características e circunstâncias variáveis de um objeto de exemplo pode ser complementada.
[00139] Por exemplo, os dados de referência para um objeto localizado entre as distâncias de 0,4 m e 0,6 m podem ter permitido desvios ‘a’ na direção horizontal e ‘b’ na direção vertical. As variações permitidas das localizações dos objetos na cena podem ser determinadas com base nas estatísticas coletadas para um usuário específico e para vários usuários. Variações para um objeto de exemplo geralmente localizadas perto do usuário, dependendo das características e circunstâncias variáveis, podem ser comparativamente pequenas em comparação com as de um objeto de exemplo localizado mais longe do usuário. O deslocamento permitido para o objeto de exemplo geralmente localizado a 6m de distância do usuário pode ser ‘c’, que pode ser maior que o valor de ‘a’. Deslocamentos verticais para o objeto de exemplo localizado a 6m de distância do usuário também podem ser maiores que o valor de ‘b’.
[00140] Por meio da técnica aqui descrita, é possível verificar objetos de interesse de um usuário sem exigir dispositivos complexos e computação excessiva em um processador. O dispositivo descrito pode ser utilizado para estimar o ambiente ou a atividade de usuário em sua vida diária. Informações sobre o ambiente ou atividade de usuário podem ser utilizadas para derivar as necessidades de visão do usuário para aconselhamento sobre soluções refrativas.
[00141] Será entendido que as modalidades descritas acima são meramente exemplares e que os princípios da presente descrição podem ser praticados em outras implementações.
[00142] Acredita-se que as vantagens da técnica aqui apresentada serão totalmente compreendidas a partir da descrição anterior, e será aparente que várias alterações podem ser feitas na forma, construções e arranjo dos
54 / 54 aspectos exemplares da mesma sem se afastar do escopo da descrição ou sem sacrificar todos os seus efeitos vantajosos.
Como a técnica aqui apresentada pode ser variada de várias maneiras, será reconhecido que a descrição deve ser limitada apenas pelo escopo das reivindicações a seguir.

Claims (19)

REIVINDICAÇÕES
1. Aparelho (100) para varredura passiva de pelo menos um objeto, o aparelho (100) caracterizado pelo fato de que compreende: uma unidade de sensoreação de distância (110) adaptada para medir distâncias para uma pluralidade de pontos de pelo menos um objeto; uma unidade de sensoreação de orientação (120) adaptada para determinar as orientações da unidade de sensoreação de distância (110) e/ou uma unidade de sensoreação de posição (150) adaptada para determinar as posições da unidade de sensoreação de distância (110); e um processador (140) adaptado para derivar informações sobre o pelo menos um objeto com base nas distâncias medidas e nas orientações e/ou posições determinadas da unidade de sensoreação de distância (110).
2. Aparelho (100) de acordo com a reivindicação 1, caracterizado pelo fato de que as informações sobre pelo menos um objeto compreendem ou são pelo menos uma de uma posição, uma forma, uma inclinação e um tamanho do objeto.
3. Aparelho (100) de acordo com a reivindicação 1 ou 2, caracterizado pelo fato de que a unidade de sensoreação de distância (110) inclui uma pluralidade de sensores de distância (110a, 110b).
4. Aparelho (100) de acordo com qualquer uma das reivindicações anteriores, caracterizado pelo fato de que o aparelho (100) é adaptado para ser equipado em uma parte do corpo do usuário.
5. Aparelho (100) de acordo com qualquer uma das reivindicações anteriores, caracterizado pelo fato de que a unidade de sensoreação de posição (150) é adaptada para medir pelo menos uma coordenada do aparelho (100) no espaço, em que a unidade de sensoreação de posição (150) inclui pelo menos um de uma geolocalização, um altímetro, um sistema de posicionamento interno e um sistema de posicionamento híbrido.
6. Aparelho (100) de acordo com qualquer uma das reivindicações anteriores, caracterizado pelo fato de que o processador (140) está adaptado para: classificar uma atividade de usuário ou um ambiente ao redor do usuário a partir das informações derivadas sobre pelo menos um objeto.
7. Aparelho (100) de acordo com qualquer uma das reivindicações anteriores, caracterizado pelo fato de que compreende adicionalmente: um sensor de moção (160) adaptado para medir uma quantidade de moção do aparelho (100), em que o processador (140) é adicionalmente adaptado para descartar distâncias e orientações e/ou posições medidas em um período de tempo predeterminado, quando a quantidade de moção medida pelo sensor de moção (160) é maior que um valor limite.
8. Aparelho (100) de acordo com qualquer uma das reivindicações anteriores, caracterizado pelo fato de que o processador (140) está adaptado para classificar o pelo menos um objeto como um dos objetos de exemplo quando há diferenças entre as distâncias e orientações e/ou posições medidas e distâncias de referência e orientações e/ou posições de referência armazenadas são menores que valores predeterminados.
9. Aparelho (100) de acordo com qualquer uma das reivindicações 1 a 7, caracterizado pelo fato de que o processador (140) está adaptado para: converter as distâncias e orientações e/ou posições medidas em um modelo espacial de pelo menos um objeto; comparar o modelo espacial com modelos espaciais de referência armazenados; classificar o pelo menos um objeto como um dos objetos de exemplo quando um modelo espacial de referência para o objeto de exemplo tiver a maior pontuação correspondente ao modelo espacial.
10. Aparelho (100) de acordo com a reivindicação 8 ou 9, caracterizado pelo fato de que compreende adicionalmente: uma unidade de memória (130) adaptada para armazenar os modelos espaciais de referência.
11. Método para varredura passiva de pelo menos um objeto através de um dispositivo de varredura passiva, o método caracterizado pelo fato de que compreende: medir (S210) distâncias para uma pluralidade de pontos do pelo menos um objeto; determinar (S220) orientações e/ou posições do dispositivo de varredura passiva; e derivar (S250) informações sobre o pelo menos um objeto com base nas distâncias medidas e nas orientações e/ou posições determinadas.
12. Método de acordo com a reivindicação 11, caracterizado pelo fato de que as orientações e/ou posições são determinadas enquanto as distâncias são medidas.
13. Método de acordo a reivindicação 11 ou 12, caracterizado pelo fato de que as informações sobre o pelo menos um objeto compreendem ou são pelo menos um de uma posição, uma forma, uma inclinação e um tamanho do pelo menos no objeto.
14. Método de acordo com qualquer uma das reivindicações 11 a 13, caracterizado pelo fato de que compreende adicionalmente: determinar (S245) uma atividade do usuário ou um ambiente ao redor do usuário a partir das informações derivadas sobre o pelo menos um objeto.
15. Método de acordo com qualquer uma das reivindicações 11 a 14, caracterizado pelo fato de que compreende adicionalmente: converter as distâncias medidas e as orientações e/ou posições determinadas em um modelo espacial do pelo menos um objeto;
comparar o modelo espacial com modelos espaciais de referência armazenados; classificar o pelo menos um objeto como um dos objetos de exemplo quando o modelo espacial de referência para o objeto de exemplo tiver a maior pontuação correspondente ao modelo espacial.
16. Método de acordo com qualquer uma das reivindicações 11 a 15, caracterizado pelo fato de que compreende adicionalmente: estimar uma distância de visualização em relação à atividade do usuário aplicando um método estatístico às informações derivadas sobre o pelo menos um objeto.
17. Método de acordo com qualquer uma das reivindicações 11 a 16, caracterizado pelo fato de que compreende adicionalmente: identificar requisitos visuais do usuário aplicando um método estatístico às informações derivadas sobre o pelo menos um objeto.
18. Método de acordo com a reivindicação 17, caracterizado pelo fato de que os requisitos visuais de identificação compreendem: identificar uma atividade de usuário com base nas informações derivadas sobre o pelo menos um objeto e identificar os requisitos visuais com base na atividade de usuário; ou identificar uma atividade de usuário com base nas informações derivadas sobre o pelo menos um objeto, identificar uma distância de visualização de um usuário com base na atividade de usuário e identificar os requisitos visuais com base na distância de visualização do usuário.
19. Método de acordo com as reivindicações 11 a 18, caracterizado pelo fato de que compreende adicionalmente: determinar uma solução refrativa para o usuário com base nos requisitos visuais, em que a solução refrativa é um de um perfil de ablação para cirurgia refrativa, um implante oftálmico e uma lente oftálmica,
em que a lente oftálmica é uma de uma lente intraocular, uma lente de contato e uma lente de óculos.
Petição 870200084606, de 07/07/2020, pág. 66/84 Unidade de sensoreação de distância
Unidade de sensoreação Processador de orientação 1/18
Unidade de sensoreação de posição
Unidade de memória Sensor de moção
Medir distâncias
Armazenar distâncias de Medir orientações referência e orientações (e/ou posições) (e/ou posições) de referência
Petição 870200084606, de 07/07/2020, pág. 67/84 Medir uma posição
Medir quantidade de movimentos
Derivar informações sobre Descartar distâncias e 2/18 o objeto ou cena orientações (e/ou posições)
Determinar uma atividade de um usuário ou um ambiente
Identificar distâncias de visualização
Identificar requisitos visuais do usuário
Determinar a solução refrativa
Petição 870200084606, de 07/07/2020, pág. 68/84 Unidade de sensoreação de distância
Sensor de distância
Unidade de Interface monitoramento de usuário ocular Memória 3/18
Sensor de Sensor de movimento luz ambiente
Unidade de processamento
Medir as distâncias de visualização entre os olhos do usuário e um ou mais objetos
Detectar a direção dos olhos do usuário em relação à direção de Armazenar as distâncias visualização do sensor de de visualização medidas
Petição 870200084606, de 07/07/2020, pág. 69/84 medição de distância em um conjunto de distâncias de visualização medidas Medir os movimentos o corpo do usuário Ponderar, selecionar ou descartar estatisticamente as distâncias de visualização medidas com base na direção dos olhos do usuário em relação à direção de visualização do sensor de medição de distância Ponderar, selecionar ou descartar as distâncias de visualização 4/18 medidas com base nos movimentos medidos
Ponderar, selecionar ou descartar estatisticamente as distâncias de Receber uma visualização medidas com base na entrada de luz ambiente, intensidade da luz e/ou usuário conteúdo espectral medidos Ponderar, selecionar ou descartar as distâncias de visualização medidas a partir do conjunto de distâncias de visualização medidas com base na entrada do usuário Medir a luz ambiente, intensidade da luz e/ou conteúdo espectral na direção de visualização do usuário Determinar uma distribuição Calcular uma refração alvo estatística das distâncias de através da aplicação de um visualização medidas a partir método estatístico à distribuição do conjunto de distâncias de estatística das distâncias de visualização medidas visualização medidas
Petição 870200084606, de 07/07/2020, pág. 71/84 Orientação 1 Posição 1 Nada Fixado Posição 1 Orientação fixada Posição fixada
Orientação 1 Posição 0 Orientação 0 Orientação 0 Posição 0 6/18
Objeto Objeto Posição 2 Orientação 2 Objeto
Orientação 2 Posição 2
Petição 870200084606, de 07/07/2020, pág. 73/84 Olhando Sobre objeto para frente plano na vertical
Para frente 8/18
Para baixo
Flexão de cabeça Ângulo do objeto
Distância [m] 1/distância PC de Mesa Atividade
Luz ambiente Distância de trabalho entre 0,6 e 0,7 m [%] de ocorrência
Distância-v
Distância -h RxPadrão:Tronco
Petição 870200084606, de 07/07/2020, pág. 75/84 Sobre objeto Olhando para inclinado em 30º baixo 20º
Para frente 10/18
Para baixo Ângulo do objeto
Flexão de cabeça
Distância [m] 1/distância Usuário de computador portátil Atividade
Luz ambiente Distância de trabalho entre 0,4 e 0,5 m [%] de ocorrência
Distância-v
Distância -h RxPadrão:Tronco
Sensor de distância 1 (para frente)
Petição 870200084606, de 07/07/2020, pág. 77/84 Sensor de área de varredura 1
Sensor de distância 2 (para baixo) Objeto 1 12/18
Sensor de área de varredura 2
Objeto 2
Alvo vertical (por exemplo parede)
Petição 870200084606, de 07/07/2020, pág. 78/84 Sensor de distância 1 (para frente)
Sensor de distância 1 Sensor de (para frente) distância 2 (para baixo)
Sensor de distância 2 Direção da gravidade (a Direção da 13/18
(para baixo) partir do acelerômetro) Alvo horizontal (por gravidade (a exemplo mesa) partir do acelerômetro)
Petição 870200084606, de 07/07/2020, pág. 79/84 0,5 0,5 0,5
-0,5 -0,5 -0,5
-1,5 -1,5 -1,5 -0,5 0,5 1,5 2,5 -0,5 0,5 1,5 2,5 -0,5 0,5 1,5 2,5 14/18
0,5 0,5 0,5
-0,5 -0,5 -0,5
-1,5 -1,5 -1,5 -0,5 0,5 1,5 2,5 -0,5 0,5 1,5 2,5 -0,5 0,5 1,5 2,5
Petição 870200084606, de 07/07/2020, pág. 80/84 Guinada/Rotação da cabeça
Rolo/Inclinação lateral da cabeça 15/18
Pico/Flexão da cabeça
Padrão de movimento Luz Ambiente
Petição 870200084606, de 07/07/2020, pág. 81/84 Objeto de refletividade Cor do Objeto Flexão da Cabeça
Cena de varredura Cena Modelo Classificar Derivar 16/18
Cena como nuvem de pontos Cena como um conjunto Cena como uma atividade Distância de visualização de objetos geométricos em relação à cena
RxPadrão:tronco Distância-h
Distância-v
RxPadrão:tronco Distância-h
Distância-v
BR112020013884-3A 2018-01-09 2018-12-07 aparelho e método para varredura passiva BR112020013884A2 (pt)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
EP18150805.2 2018-01-09
EP18150805.2A EP3508882A1 (en) 2018-01-09 2018-01-09 An apparatus and a method for passive scanning of an object or a scene
PCT/EP2018/083970 WO2019137709A1 (en) 2018-01-09 2018-12-07 An apparatus and a method for passive scanning of an object or a scene

Publications (1)

Publication Number Publication Date
BR112020013884A2 true BR112020013884A2 (pt) 2020-12-01

Family

ID=60953716

Family Applications (1)

Application Number Title Priority Date Filing Date
BR112020013884-3A BR112020013884A2 (pt) 2018-01-09 2018-12-07 aparelho e método para varredura passiva

Country Status (8)

Country Link
US (1) US11540747B2 (pt)
EP (1) EP3508882A1 (pt)
JP (1) JP2021511498A (pt)
KR (1) KR20200103837A (pt)
CN (1) CN111742239B (pt)
BR (1) BR112020013884A2 (pt)
CA (1) CA3088036A1 (pt)
WO (1) WO2019137709A1 (pt)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6997871B2 (ja) * 2018-06-22 2022-01-18 ローム株式会社 位置検出システム
EP3789816A1 (en) * 2019-09-05 2021-03-10 Vivior AG Device and method for mapping of visual scene onto projection surface
KR20220013073A (ko) * 2020-07-24 2022-02-04 삼성전자주식회사 전자 장치 및 그의 제어 방법
JP2024021589A (ja) * 2022-08-04 2024-02-16 カシオ計算機株式会社 身体装着型装置、移動情報取得制御方法及びプログラム

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4293865B2 (ja) * 2003-09-02 2009-07-08 富士通テン株式会社 物体検出装置
WO2007030026A1 (en) * 2005-09-09 2007-03-15 Industrial Research Limited A 3d scene scanner and a position and orientation system
US20080211768A1 (en) * 2006-12-07 2008-09-04 Randy Breen Inertial Sensor Input Device
JP2009042147A (ja) * 2007-08-10 2009-02-26 Nsk Ltd 物体認識装置および物体認識方法
FR2952517B1 (fr) * 2009-11-13 2012-07-20 Essilor Int Procede et dispositif de mesure automatique d'au moins une caracteristique de refraction des deux yeux d'un individu
DE102010045657A1 (de) * 2010-09-17 2012-03-22 Wabco Gmbh Umfeld-Überwachungssystem für ein Fahrzeug
EP2511656A1 (de) * 2011-04-14 2012-10-17 Hexagon Technology Center GmbH Vermessungssystem zur Bestimmung von 3D-Koordinaten einer Objektoberfläche
EP2699940B1 (en) * 2011-04-21 2017-11-08 Konecranes Global Corporation Techniques for positioning a vehicle
DE102013008953B4 (de) * 2013-05-27 2017-01-05 Volkswagen Aktiengesellschaft Verfahren zum Betreiben einer Radareinrichtung eines Fahrzeugs, insbesondere eines Kraftwagens, sowie Radareinrichtung für ein Fahrzeug, insbesondere einen Kraftwagen
US10254395B2 (en) * 2013-12-04 2019-04-09 Trimble Inc. System and methods for scanning with integrated radar detection and image capture
US10416760B2 (en) * 2014-07-25 2019-09-17 Microsoft Technology Licensing, Llc Gaze-based object placement within a virtual reality environment
US10665019B2 (en) * 2016-03-24 2020-05-26 Qualcomm Incorporated Spatial relationships for integration of visual images of physical environment into virtual reality
PT3228237T (pt) * 2016-04-08 2020-06-09 Vivior Ag Um dispositivo e método para medir distâncias
GB2570791B (en) * 2016-05-18 2021-10-27 James Okeeffe A dynamically steered lidar adapted to vehicle shape

Also Published As

Publication number Publication date
CN111742239B (zh) 2024-07-02
EP3508882A1 (en) 2019-07-10
KR20200103837A (ko) 2020-09-02
US11540747B2 (en) 2023-01-03
US20200330003A1 (en) 2020-10-22
WO2019137709A1 (en) 2019-07-18
CN111742239A (zh) 2020-10-02
JP2021511498A (ja) 2021-05-06
CA3088036A1 (en) 2019-07-18

Similar Documents

Publication Publication Date Title
BR112020013884A2 (pt) aparelho e método para varredura passiva
US9135508B2 (en) Enhanced user eye gaze estimation
US20190156100A1 (en) Systems and methods for performing eye gaze tracking
US10937191B2 (en) Predictive simultaneous localization and mapping system using prior user session positional information
US9779512B2 (en) Automatic generation of virtual materials from real-world materials
JP2020034919A (ja) 構造化光を用いた視線追跡
US9785233B2 (en) Systems and methods of eye tracking calibration
US11294455B2 (en) Method and device for determining gaze placement, computer readable storage medium
US20160189426A1 (en) Virtual representations of real-world objects
CN111480164B (zh) 头部姿势和分心估计
US20160202756A1 (en) Gaze tracking via eye gaze model
CN106575039A (zh) 具有确定用户眼镜特性的眼睛跟踪设备的平视显示器
CN106796449A (zh) 视线追踪方法及装置
JP7542563B2 (ja) 眼追跡待ち時間向上
CN108985210A (zh) 一种基于人眼几何特征的视线追踪方法及系统
TW202127105A (zh) 關於頭戴式顯示器的內容穩定
JP6462209B2 (ja) 計測装置及び計測方法
JP7030317B2 (ja) 瞳孔検出装置及び瞳孔検出方法
ES2965618T3 (es) Técnica para determinar un indicador de riesgo de miopía
JP6870474B2 (ja) 視線検出用コンピュータプログラム、視線検出装置及び視線検出方法
CN110310321A (zh) 视线方向估算装置,视线方向估算方法和视线方向估算程序
TW202044828A (zh) 眼動追蹤裝置及其方法
CN110799929A (zh) 用于计算机媒介现实的显示设备
WO2021124299A1 (en) Walking assisting systems and methods
WO2020149149A1 (en) Information processing apparatus, information processing method, and program

Legal Events

Date Code Title Description
B350 Update of information on the portal [chapter 15.35 patent gazette]
B06W Patent application suspended after preliminary examination (for patents with searches from other patent authorities) chapter 6.23 patent gazette]
B08F Application dismissed because of non-payment of annual fees [chapter 8.6 patent gazette]

Free format text: REFERENTE A 5A ANUIDADE.

B08K Patent lapsed as no evidence of payment of the annual fee has been furnished to inpi [chapter 8.11 patent gazette]

Free format text: EM VIRTUDE DO ARQUIVAMENTO PUBLICADO NA RPI 2752 DE 03-10-2023 E CONSIDERANDO AUSENCIA DE MANIFESTACAO DENTRO DOS PRAZOS LEGAIS, INFORMO QUE CABE SER MANTIDO O ARQUIVAMENTO DO PEDIDO DE PATENTE, CONFORME O DISPOSTO NO ARTIGO 12, DA RESOLUCAO 113/2013.