BR112017026545B1 - Sistema portátil que permite que pessoas cegas ou deficientes visuais interpretem o ambiente ao redor através de som ou de toque - Google Patents

Sistema portátil que permite que pessoas cegas ou deficientes visuais interpretem o ambiente ao redor através de som ou de toque Download PDF

Info

Publication number
BR112017026545B1
BR112017026545B1 BR112017026545-1A BR112017026545A BR112017026545B1 BR 112017026545 B1 BR112017026545 B1 BR 112017026545B1 BR 112017026545 A BR112017026545 A BR 112017026545A BR 112017026545 B1 BR112017026545 B1 BR 112017026545B1
Authority
BR
Brazil
Prior art keywords
sound
region
touch
processing means
signal
Prior art date
Application number
BR112017026545-1A
Other languages
English (en)
Other versions
BR112017026545A2 (pt
Inventor
Antonio QUESADA HERVÁS
Original Assignee
Eyesynth, S.L
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Eyesynth, S.L filed Critical Eyesynth, S.L
Publication of BR112017026545A2 publication Critical patent/BR112017026545A2/pt
Publication of BR112017026545B1 publication Critical patent/BR112017026545B1/pt

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61FFILTERS IMPLANTABLE INTO BLOOD VESSELS; PROSTHESES; DEVICES PROVIDING PATENCY TO, OR PREVENTING COLLAPSING OF, TUBULAR STRUCTURES OF THE BODY, e.g. STENTS; ORTHOPAEDIC, NURSING OR CONTRACEPTIVE DEVICES; FOMENTATION; TREATMENT OR PROTECTION OF EYES OR EARS; BANDAGES, DRESSINGS OR ABSORBENT PADS; FIRST-AID KITS
    • A61F9/00Methods or devices for treatment of the eyes; Devices for putting-in contact lenses; Devices to correct squinting; Apparatus to guide the blind; Protective devices for the eyes, carried on the body or in the hand
    • A61F9/08Devices or methods enabling eye-patients to replace direct visual perception by another kind of perception
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61HPHYSICAL THERAPY APPARATUS, e.g. DEVICES FOR LOCATING OR STIMULATING REFLEX POINTS IN THE BODY; ARTIFICIAL RESPIRATION; MASSAGE; BATHING DEVICES FOR SPECIAL THERAPEUTIC OR HYGIENIC PURPOSES OR SPECIFIC PARTS OF THE BODY
    • A61H3/00Appliances for aiding patients or disabled persons to walk about
    • A61H3/06Walking aids for blind persons
    • A61H3/061Walking aids for blind persons with electronic detecting or guiding means
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/22Measuring arrangements characterised by the use of optical techniques for measuring depth
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/593Depth or shape recovery from multiple images from stereo images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/90Determination of colour characteristics
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B21/00Alarms responsive to a single specified undesired or abnormal condition and not otherwise provided for
    • G08B21/02Alarms for ensuring the safety of persons
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B3/00Audible signalling systems; Audible personal calling systems
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B6/00Tactile signalling systems, e.g. personal calling systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/181Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a plurality of remote sources
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61HPHYSICAL THERAPY APPARATUS, e.g. DEVICES FOR LOCATING OR STIMULATING REFLEX POINTS IN THE BODY; ARTIFICIAL RESPIRATION; MASSAGE; BATHING DEVICES FOR SPECIAL THERAPEUTIC OR HYGIENIC PURPOSES OR SPECIFIC PARTS OF THE BODY
    • A61H3/00Appliances for aiding patients or disabled persons to walk about
    • A61H3/06Walking aids for blind persons
    • A61H3/061Walking aids for blind persons with electronic detecting or guiding means
    • A61H2003/063Walking aids for blind persons with electronic detecting or guiding means with tactile perception
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • G06T2207/10012Stereo images

Landscapes

  • Health & Medical Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Public Health (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Animal Behavior & Ethology (AREA)
  • General Health & Medical Sciences (AREA)
  • Veterinary Medicine (AREA)
  • Vascular Medicine (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Biomedical Technology (AREA)
  • Ophthalmology & Optometry (AREA)
  • Theoretical Computer Science (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • Epidemiology (AREA)
  • Pain & Pain Management (AREA)
  • Physical Education & Sports Medicine (AREA)
  • Rehabilitation Therapy (AREA)
  • Business, Economics & Management (AREA)
  • Emergency Management (AREA)
  • Image Processing (AREA)
  • Processing Or Creating Images (AREA)
  • User Interface Of Digital Computer (AREA)
  • Traffic Control Systems (AREA)
  • Rehabilitation Tools (AREA)
  • Studio Devices (AREA)
  • Details Of Audible-Bandwidth Transducers (AREA)
  • Circuit For Audible Band Transducer (AREA)
  • Stereophonic System (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)

Abstract

SISTEMA PORTÁTIL QUE PERMITE QUE PESSOAS CEGAS OU DEFICIENTES VISUAIS INTERPRETEM O AMBIENTE AO REDOR ATRAVÉS DE SOM OU DE TOQUE. A invenção refere-se a um sistema portátil que permite que pessoas cegas ou deficientes visuais interpretem o ambiente ao redor através de som ou de toque, o dito sistema compreendendo: duas câmeras (3i, 3d) separadas uma da outra e configuradas para capturar uma imagem do ambiente simultaneamente, e meios (4i, 4d) para gerar sinais de saída de som e/ou de toque. Vantajosamente, o sistema também compreende os meios de processamento (2) conectados às câmeras (3i, 3d) e aos meios (4i, 4d) para gerar sinais de som e/ou de toque. Os meios de processamento são configurados para combinar as imagens capturadas em tempo real e para processar a informação associada a pelo menos uma banda vertical com informação relacionada à profundidade dos elementos na imagem combinada, os ditos meios de processamento (2) também sendo configurados para: dividir a banda vertical em uma ou mais regiões; definir um sinal de som ou de toque, em cada região, de acordo com a profundidade da região e a altura da região; e definir um sinal de saída de som ou de toque com base nos sinais de som ou de toque em cada região da banda vertical.

Description

CAMPO DA INVENÇÃO
[001] A presente invenção refere-se a dispositivos de assistência para pessoas que sofrem de qualquer limitação ou deficiência. Em particular, a invenção refere-se a um sistema de ajuda principalmente para pessoas cegas ou deficientes visuais.
TÉCNICA ANTERIOR
[002] Os usuários com uma deficiência visual normalmente dependem de ajuda básica, tais como bengalas e cães-guia para caminhar ou reconhecer seu ambiente. Embora sistemas que usam um nível de tecnologia maior tenham sido desenvolvidos, eles são frequentemente invasivos e difíceis de manipular. Além disso, eles são geralmente muito caros para seu uso ser algo mais do que exclusivo.
[003] Os sistemas, atualmente, geralmente medem distâncias em um ponto, por exemplo, por meio de uso de um laser, que provê notificação acústica se um objeto estiver no caminho. Tais sistemas não proveem uma análise volumétrica da cena, nem a resposta tem nuances associadas a mudanças na posição, no tamanho ou na geometria (curvas, bordas, posição com relação à linha horizontal). Além disso, uma análise de uma cena ao medir distâncias com muitos pontos exige uma alta capacidade de computação, o que geralmente a torna inviável para ser usada em tempo real e/ou em um dispositivo que é portátil.
[004] Neste contexto, os dispositivos para análise de imagens do ambiente são também conhecidos na técnica anterior, os ditos dispositivos sendo configurados para interpretar as ditas imagens e mapeá-las como sons para seus usuários, de tal modo que as representações baseadas em som da distância dos objetos que compõem as ditas imagens sejam obtidas, dessa forma integrando uma projeção tridimensional que ajuda a orientar e notificar os usuários de possíveis obstáculos em seu caminho. No entanto, os ditos dispositivos são, novamente, ineficazes em relação aos requisitos de computação, que se traduzem, na prática, em uma baixa taxa de resposta, e defeitos de cálculos que causam imprecisões e uma experiência de uso inadequada para os usuários. Os exemplos de dispositivos deste tipo com base no mapeamento completo das imagens são os documentos de patente ES 2133078 A1 e US 2009/122161 A1.
[005] Como uma alternativa para estes dispositivos, o documento de patente ES 2517765 A1 propõe um dispositivo configurado para prover um banco de som e associa cada ponto das imagens obtidas a pelo menos um som a partir do dito banco de som, criando um mapa de sons codificados e representando um plano no espaço tridimensional capturado. O dispositivo mencionado também é adequado para reproduzir sequencialmente um som a partir de cada um dos pontos definidos no mapa, o dito som sendo associado a um espaço representado por linhas horizontais, com o objetivo de tornar mais fácil compensar erros derivados da colocação inadequada do dispositivo pelos usuários, por exemplo, em realizações com base nos óculos, onde a pouca horizontalidade pode resultar em um cálculo defeituoso das distâncias para o usuário.
[006] Embora a alternativa mencionada permita a correção de algumas das deficiências levantadas pelos dispositivos mais fáceis na técnica, ainda tem a limitação importante derivada das pesquisas computacionais exigidas, uma vez que, embora configurado para representar padrões de som horizontais obtidos a partir das imagens, o processo das profundidades destes é feito através de análise das ditas imagens integralmente, de uma maneira similar àquela dos sistemas acima mencionados. Consequentemente, todos os dispositivos conhecidos exigem importantes pesquisas computacionais, limitando muito sua saída e capacidades. Adicionalmente, estes dispositivos geralmente exigem o uso de inclinômetros/gravímetros, tornando-os mais complexos, sem resolver completamente o problema com precisão de cálculo de profundidade.
[007] Portanto, há uma necessidade de sistemas eficazes para ajudar as pessoas com deficiência visual que são capazes de prover uma descrição compreensível do ambiente por meio de sinais de áudio ou de toque facilmente compreensíveis e, ao mesmo tempo, mostrar um baixo consumo de recursos computacionais e de cálculo.
DESCRIÇÃO DA INVENÇÃO
[008] A presente invenção é principalmente aplicável a pessoas com problemas de visão. No entanto, poderia ser aplicável em cenários e circunstâncias de outro tipo em que o sentido da visão não pode ser usado ou um sistema de orientação alternativa é necessário.
[009] A assistência a pessoas é facilitada com uma descrição do ambiente por meio de uma interpretação dos objetos e obstáculos que existem em torno deles, que é transmitida através de um sinal, preferivelmente um sinal de som ou de toque (por exemplo, uma vibração transmitida através do sentido de toque). O dito sinal é gerado na base de processamento de imagem estéreo para obter uma representação de áreas com a maior intensidade de cor, correspondente a regiões distantes, enquanto outras áreas com menos intensidade de cor são associadas a regiões próximas.
[010] Portanto, um objeto da invenção refere-se a um sistema portátil que permite que uma pessoa cega interprete o ambiente ao redor através de som ou de toque, compreendendo: - duas câmeras separadas uma da outra para capturar uma imagem do ambiente simultaneamente; - meios de processamento que combinam ambas as imagens em tempo real e estabelecem pelo menos uma banda vertical com informação relacionada à profundidade dos elementos na imagem combinada, em que os ditos meios de processamento também dividem a banda vertical em uma pluralidade de regiões; definir um sinal de som ou de toque, para cada região, de acordo com a profundidade e de altura deste na imagem; definir um sinal de saída de som ou de toque com base nos sinais de som ou de toque em cada região da banda vertical; - meios de reprodução para reproduzir o sinal de saída de som ou de toque.
[011] Em uma realização preferida da invenção, a banda vertical está na porção central da imagem combinada e o usuário varre o ambiente ao se movimentar. Este modo de operação da invenção será a seguir referido como “modo de varredura”.
[012] O processamento de somente uma banda vertical da imagem obtida através das câmeras permite, por um lado, restringir a análise de profundidades na região de interesse que é ótima para os usuários (uma vez que corresponde ao ponto central de foco), evitando que as regiões periféricas provejam informação de menos interesse. Por meio desta otimização, o requisito de cálculo do sistema pode ser substancialmente reduzido, sem negativamente afetar a informação adquirida. Isto é devido ao fato de que uma linha vertical condensará a informação relacionada à profundidade no horizonte, quando esta é a mais relevante para o posicionamento de obstáculos pelo usuário. A informação correspondente à visão lateral periférica é dessa forma gerada com o movimento natural da cabeça em direção aos lados pelo usuário durante o movimento, que desloca a linha vertical de análise e permite a aquisição da informação restante, sem a necessidade de processar de forma contínua a imagem completa adquirida através das câmeras. Um movimento horizontal da cabeça de alguns graus permite naturalmente cobrir a região frontal do usuário, para todas as profundidades horizontais (cobertas por meio de análise de linha vertical). Por meio desta otimização técnica, um requisito de cálculo de economia de cerca de 90% é estimado comparado com as alternativas na técnica anterior. Adicionalmente, o processamento da linha vertical versus toda a imagem capturada através das câmeras permite impedir a presença de contaminação de som devido a objetos periféricos próximos, que estão presentes perto do usuário, mas não diretamente bloqueiam a passagem do usuário. Neste sentido, o uso deste sistema compartilha muitas similaridades com o modo de operação de varredura ou de sondagem por meio de uma bengala para cego, o que permite aprender rapidamente como lidar com isso.
[013] Em outra realização preferida da invenção, uma pluralidade de bandas verticais laterais é estabelecida na imagem combinada em cada lado da banda vertical central, e um sinal de som ou de toque lateral esquerdo ou lateral direito é definido a partir das regiões de cada banda lateral esquerda e de cada banda lateral direita, respectivamente; o usuário pode varrer o ambiente sem se mover. Este modo de operação da invenção será a seguir referido como “modo de paisagem completo”. No dito modo, os meios de processamento são adequados para prover uma análise simultânea da pluralidade de bandas verticais laterais, de tal modo que uma região de segmentação da imagem completa adquirida através das câmeras é processada horizontalmente. Comparado com o modo de varredura, o modo de paisagem completo envolve um maior requisito de cálculo, mas provê mais informação com relação às regiões laterais periféricas do usuário do sistema. No entanto, a redução no espaço de processamento para uma pluralidade de linhas verticais implica, assim como no modo de varredura, em uma melhoria significativa em tempos de processamento e consumo de recursos versus soluções conhecidas na técnica anterior.
[014] Em outra realização preferida da invenção, os modos de operação dos meios de processamento podem ser ativados e desativados pelo usuário, de tal modo que a análise simultânea da pluralidade de bandas verticais laterais pode ser alternada com a análise de uma única banda vertical. Como resultado, de acordo com a localização do usuário, o dito usuário pode usar o modo de operação de varredura (isto é, por meio de profundidades de processamento em uma linha vertical central), que será eficaz em mais situações de uso diário, e o modo de paisagem completo (por meio de uma pluralidade de bandas verticais) deve ser necessário para prover informação adicional sobre as regiões laterais periféricas.
[015] Em uma realização preferida da invenção, os meios de reprodução reproduzem em estéreo, combinando um sinal de som ou de toque lateral esquerdo e um sinal de som ou de toque lateral direito.
[016] Em uma realização preferida da invenção, os meios de processamento definem uma força de som ou de toque do sinal de som ou de toque de acordo com a altura da região na banda vertical.
[017] Em uma realização preferida da invenção, os meios de processamento definem uma frequência do sinal de som ou de toque de acordo com a profundidade da região.
[018] Em uma realização preferida da invenção, a profundidade de uma região é determinada de acordo com um nível de cinza em um mapa de profundidade da imagem do ambiente.
[019] Em uma realização preferida da invenção, a região compreende pelo menos um pixel.
[020] Em uma realização preferida da invenção, o sistema compreende uma estrutura de suporte a ser transportada pelo usuário onde os meios de reprodução e as duas câmeras podem estar localizados.
[021] Em uma realização preferida da invenção com base em um sinal de toque, a geração do dito sinal é baseada em um polímero eletroativo (EAP) ou em uma membrana feita de um elastômero cuja forma muda em resposta à tensão. Alternativamente, o sinal pode ser gerado mecanicamente por meio de um pequeno motor que gera vibração.
[022] Em uma realização preferida da invenção com base em um sinal de som, a frequência do dito sinal de som é escolhida a partir de dentro da faixa entre 100 Hz e 18000 Hz.
[023] Em uma realização preferida da invenção, os meios de reprodução são auscultadores cocleares. Vantajosamente, a orelha é deixada livre e o sinal é recebido através do osso. Isso significa que o usuário pode conversar ao mesmo tempo sem interferência com o sinal de som gerado ou vice-versa.
[024] Em uma realização preferida da invenção, a estrutura de suporte é escolhida a partir de pelo menos óculos, uma faixa de cabeça, um apoio de pescoço, um apoio peitoral, um apoio de ombro ou um dispositivo portátil.
[025] Em uma realização preferida da invenção, o sinal de som gerado é não verbal para impedir o usuário de ser bombardeado com mensagens faladas constantes que, após uso prolongado, podem ser incômodas e irritantes. Uma mensagem não verbal é, além disso, mais prontamente reconhecida e pode ser reproduzida ao mesmo tempo que executa outras tarefas. A invenção pode, portanto, ser usada sem gerar barreiras linguísticas que resultam a partir da linguagem.
BREVE DESCRIÇÃO DOS DESENHOS
[026] A Figura 1 mostra um diagrama em bloco simplificado de uma realização da invenção.
[027] A Figura 2 mostra a imagem pixelada de um toro analisado através da invenção.
[028] A Figura 3 mostra uma imagem pixelada e processada do toro da Figura 2.
[029] A Figura 4 mostra um fluxograma simplificado do método seguido pelo sistema da invenção.
[030] A Figura 5 mostra uma realização da invenção com base nos óculos.
DESCRIÇÃO DETALHADA DA INVENÇÃO
[031] Por uma questão de maior clareza, uma realização da invenção é descrita de uma maneira não limitativa em relação aos desenhos e foca nos sinais de som ou de toque.
[032] A Figura 1 mostra um diagrama em bloco com os principais elementos do sistema da invenção. O dito diagrama mostra como as imagens são adquiridas por meio de um par de câmeras estéreo (3i, 3d). Elas estão preferivelmente localizadas em ambos lados da face e na altura dos olhos do usuário para tornar mais fácil o foco na região de interesse com movimentos de cabeça. As câmeras (3i, 3d) são preferivelmente alinhadas em paralelo.
[033] O conjunto de circuito real das câmeras (3i, 3d) realiza o pré-processamento na imagem capturada para prover um fluxo constante de imagens, impedindo artefatos e aberrações geométricos ou cromáticos. O conjunto de circuito dos sensores oferece um par de imagens sincronizadas no tempo.
[034] Como resultado, este fluxo de vídeo é transmitido para uma unidade de processamento (2). A unidade de processamento (2) é preferivelmente um design de hardware específico que implementa o algoritmo para converter as imagens em áudio/vibração. Um cabo (6) foi previsto para comunicar as câmeras (3i, 3d) com a unidade de processamento (2). No entanto, a transmissão sem fio é contemplada em outras realizações mais complexas.
[035] A unidade de processamento (2) converte as imagens estereoscópicas em um mapa de profundidade de escala de cinza. Um mapa de disparidade (sem informação sobre a escala) é anteriormente gerado.
[036] O mapa de profundidade é entendido ser uma imagem em escala de cinza, em que a cor denominada preto de processo significa distanciamento máximo (dependendo da escala usada) e branco puro significa proximidade máxima (dependendo da escala usada). O resto dos cinzas especifica as distâncias intermediárias. No entanto, em outras realizações da invenção é possível reverter o contraste e fazer com que as cores mais escuras correspondam às distâncias mais próximas, ou o uso de uma escala de cor preestabelecida similar a uma representação termográfica.
[037] O mapa de disparidade é entendido ser a imagem resultante que é obtida a partir da superposição de um par de imagens estéreo, que são submetidas a processamento matemático. O mapa de disparidade binocular expressa, em uma imagem, as diferenças em nível de pixel entre duas imagens estéreo. Por meio de aplicação do algoritmo de disparidade matemática, através do conhecimento da distância entre as câmeras e os arquivos de calibração de câmera, a diferença entre os pixels pode ser adaptada às distâncias reais. A distância da câmera a partir de cada porção (tamanho de pixel) da imagem tirada é conhecida como um resultado deste processamento. Uma escala de cinza é usada para expressar essa distância.
[038] Isto é então convertido em um mapa de profundidade. Após um processo matemático no qual as distâncias/nível de escala de cinza são aplicados, um mapa de profundidade é obtido.
[039] Com base no mapa de profundidade gerado, um algoritmo de conversão desenvolvido para esse objetivo é aplicado, sendo um algoritmo de elevada otimização, e, portanto, requer menos pesquisas computacionais, o que permite que dados especiais relacionados à profundidade sejam convertidos em áudio de uma maneira mais eficiente do que nos sistemas conhecidos.
[040] O resultado é que, com um par inicial de imagens estéreo, um sinal de som estéreo não verbal é obtido, o que é transmitido para o usuário através de auscultadores cocleares ou através de condução de osso (4i e 4d). A linguagem audiovisual que traduz de forma confiável a informação visual em informação auditiva de uma maneira intuitiva para o usuário é dessa forma definida.
[041] A Figura 2 mostra um exemplo de um mapa de profundidade de baixa resolução de um toro. Cada pixel do mapa de profundidade tem uma coordenada associada (X e Y) correspondente às posições de pixel capturadas através das câmeras. Além disso, cada pixel tem um nível de cinza (G) associado para prover informação relacionada à profundidade, isto é, a distância em que a região associada ao dito pixel está localizada.
[042] A Figura 3 ilustra de uma maneira simplificada uma divisão da banda ou coluna vertical central nas três áreas de acordo com o nível de cinza destas. A área “A” é preta, a área “B” é branca e a área “C” é cinza. Portanto, três valores de força diferentes são associados a cada área (silêncio para a área “A”, máximo volume para a área “B” e uma intensidade intermediária de som para a área “C”). Deve ser entendido que, em geral, são definidas muito mais faixas de nível de cinza e, portanto, a intensidade de som associada. O sinal de som é formado através da combinação dos sinais individuais correspondentes aos pixels de cada área.
[043] Ao usar a informação a partir do mapa de profundidade, uma matriz ou mesa com informação relacionada ao ambiente nesse momento é criada. Esta informação deve ser convertida em áudio de acordo com as seguintes considerações: - Mapeamento de disparidade é realizado com cada par de estruturas estéreo: dada a diferença entre os pixels das imagens e o uso dos dados a partir das câmeras (FOV, distância interocular, calibração específica), triangulações podem ser estabelecidas, portanto, pixels podem ser associados a distâncias no mundo real. Com esta informação, a imagem é processada para prover um mapa de profundidade. Isto é um esboço e imagem em escala de cinza dos objetos que expressam seus volumes e distâncias reais. Isto, portanto, provê uma única imagem composta contendo informação espacial relacionada à cena. - Exemplo de modo de operação de varredura em referência à Figura 3. Para analisar a imagem, é necessário mover a cabeça a partir da esquerda para a direita como se estivesse sacudindo a cabeça. O cursor central (em vermelho) varrerá, portanto, completamente o toro. O som gerado será ouvido no centro no panorama estéreo (uma vez que será sempre o centro da linha de visão). Com esta varredura, o tamanho horizontal do objeto é delimitado (o movimento do pescoço servirá como uma referência) e o tamanho vertical será provido pela faixa de frequência. - Modo de paisagem completo que usa a Figura 2 para a análise. Neste caso, não é necessário para o usuário mover o pescoço para interpretar o que está na frente do dito usuário. A parte direita do toro soará à direita no panorama estéreo. As partes central e esquerda soarão de uma maneira similar. O nível de abertura do panorama estéreo indicará o tamanho horizontal do toro. O tamanho vertical será expresso através da faixa de frequência, como no modo de varredura. - Correspondência da imagem com o som estéreo é como a seguir: com base em uma imagem de uma paisagem, o sinal de som corresponde às áreas que analisa. A área esquerda da imagem soará no panorama estéreo esquerdo. A área direita soará no panorama estéreo direito. A área central soará, portanto, no centro no panorama estéreo (isto é, 50% à esquerda + 50% à direita). - A faixa de frequência em que as frequências especificam o fator de altura tem um valor de 100 Hz a 18000 Hz, dividido em fragmentos iguais. Essa faixa tem sido escolhida por ser ampla o suficiente para mostrar o som em detalhes e estreita o suficiente para que a pessoa média seja capaz de cobri-la sem quaisquer problemas (a faixa humana de som é de 20 Hz a 20000 Hz). A frequência de base (100 Hz) é associada à primeira linha inferior de pixels no display. A maior frequência (18000 Hz) é associada à linha superior de pixels. Os fragmentos de frequência restantes estão atribuídos entre eles. Se a imagem tivesse uma altura de 128 pixels, cada linha corresponderia a um fragmento. Se a resolução for mudada, os fragmentos serão atribuídos de uma maneira que seja proporcional à altura. Este método serve para sistemas com uma baixa força de computação. Se existir uma força bruta disponível em que a síntese de som é gerada em tempo real, a faixa de frequência será dividida através do número de pixels na altura e cada segmento de frequência será atribuído a cada pixel sem interpolação ou média. - O fator da distância espacial com relação ao usuário (eixo Z) é associado ao fator de volume gerado através do algoritmo, de tal modo que um pixel preto não terá um volume perceptível (isto é, -infinidade) e um pixel branco terá o volume máximo (0 dB). Esta escala será flexível e se adapta ao uso de faixas de medição diferentes (40 cm, 2 m, 6 m). - A duração do som por pixel é diretamente proporcional a sua “presença” no display. Se um pixel for constantemente branco, o som será repetido constantemente. - A análise da coluna central é somente usada em modo de varredura. Na teoria, uma coluna central com uma largura de 1 pixel pode ser usada. No entanto, com o objetivo de diminuir o som e impedir artefatos, os valores de pixel das três, ou até cinco, colunas centrais, dependendo da resolução do mapa de profundidade (que depende do poder de computação) serão divididos proporcionalmente.
[044] Uma intensidade de volume é associada ao valor de escala de cinza de um pixel (I). Portanto, o pixel com valores 0,0,0 (modelo RGB) corresponde a uma região remota e a intensidade associada é o silêncio (l=0). Um pixel com valores 255,255,255 corresponde a uma região muito perto e o volume do sinal é máximo (l= 0 dB). Cada pixel pode, dessa forma, ser visto como uma “unidade de som” usada para criar uma composição de áudio. O som de frequência preferivelmente varia a partir de 100 Hz a 18000 Hz.
[045] De acordo com um modo de operação, a posição X do pixel pode ser interpretada de duas maneiras. - Modo de varredura: somente aqueles sinais correspondentes aos pixels na coluna central soarão. A cena é varrida quando o usuário move a cabeça como se estivesse sacudindo-a. Isto é similar à varredura com uma bengala. - Modo de paisagem completo: diversas colunas de pixels associadas à cena soarão simultaneamente. A varredura não é necessária com este modo. A imagem é representada (ou “emite som”) na sua totalidade. Por exemplo, quanto mais à direita os pixels estão, mais alto eles soarão à direita no panorama estéreo. O mesmo é verdade para as regiões central e esquerda.
[046] O modo de paisagem completo exige uma alta força de computação, de modo que, dependendo da performance da unidade de processamento (2), em vez de todas as colunas no som da imagem, pode ser otimizado uso de cinco colunas, isto é, central, 45°, -45°, 80° e -80°. Mais colunas podem ser usadas de acordo com a força de processamento.
[047] A posição Y do pixel (altura do objeto) definirá como ele soa em termos de frequência: um filtro de passagem de banda (ou uma frequência de onda senoidal gerada, ou uma amostra pré-calculada com uma faixa de frequência específica, alternativas de acordo com a força de cálculo do dispositivo) é usado, de modo que os pixels na área elevada soarão agudos (“high-pitched”), e os pixels na área baixa soarão graves (“low-pitched”). O espectro de som que cada pixel cobrirá será definido através do número de pixels Y que terá.
[048] Exemplo: Este exemplo é provido para esclarecer como o som é gerado a partir da imagem de profundidade. Supõe-se que o modo de varredura foi selecionado e que uma imagem de profundidade como essa mostrada na Figura 3, onde somente três níveis de cinza são distinguidos como uma aproximação, foi obtida. Portanto, na coluna central existem (a partir da parte inferior para a parte superior): 10 pixels pretos, 12 pixels brancos, 2 pixels pretos, 8 pixels cinzas e 15 pixels pretos. Supõe-se que uma escala de cor seja estabelecida, 0 dB sendo atribuído a branco, -30 dB sendo atribuído a cinza e -“ dB sendo atribuído a preto.
[049] A força do sinal naquele momento no tempo seria a mistura análoga de todos os sinais.
[050] O usuário notaria diferentes frequências de acordo com a posição do pixel em altura. Os pixels que estão em uma altura mais baixa são graves, e os pixels que estão em uma altura mais alta são agudos. O som gerado através desta coluna pode ser dividido em um componente de passo baixo com uma alta intensidade de som (área B) e um componente que tem uma intensidade de som intermediária com uma frequência aguda (área C). Este sinal seria gerado para os dois canais esquerdo e direito (e seria reproduzido nos auscultadores (4i e 4d), respectivamente).
[051] Quando o usuário muda a posição das câmeras ao girar a cabeça, a imagem de profundidade e, portanto, o sinal de som associado, serão modificados.
[052] A Figura 4 mostra um fluxograma com algumas das etapas importantes que são transportadas fora na modalidade de varredura. Uma primeira etapa de captura de imagem (P1) usa as câmeras (3i, 3d), uma etapa de processamento (P2) para gerar o mapa de profundidade, uma etapa de atribuição (P3) para associar a intensidade de frequência e de som a cada pixel ou grupos de pixels na coluna central do mapa de profundidade e uma etapa de geração (P4) para gerar o sinal de som resultante que corresponde à coluna central.
[053] A Figura 5 ilustra uma realização da invenção implementada em óculos 1. No entanto, pode ser implementada em produtos de outro tipo servindo como suporte. Por exemplo, pode ser implementada em um chapéu, uma faixa de cabeça, um apoio de pescoço, um apoio peitoral, um apoio de ombro ou um dispositivo portátil. A vantagem dos óculos é que eles são confortáveis de usar e, por um lado, permitem colocar os auscultadores (4i e 4d) na posição desejada e, por outro lado, permitem o foco preciso das câmeras (3i, 3d) na região de interesse. A unidade de processamento (2) é desejada ser transportada através do usuário em um bolso ou em um cinto. Uma redução no tamanho no futuro é prevista com o objetivo de integrá-lo aos óculos (1). Uma vez que eles são separados, um cabo (6) transporta a informação capturada através das câmeras (3i, 3d) para a unidade de processamento (2). Além disso, uma vez que esta informação é processada, a unidade de processamento (2) transmite os sinais de áudio correspondentes para os auscultadores (4i e 4d).
[054] A quantidade de informação e detalhes que o som tem permite identificar as formas e os espaços com uma precisão que não era conhecida até agora. Nos testes realizados com o cego, tem sido verificado que após um curto período de treinamento a presente invenção permite reconhecer as formas específicas devido ao som associado. Por exemplo, garrafas, óculos e pratos em uma mesa têm sons característicos que permitem distingui-los um do outro.
[055] Os auscultadores cocleares, que permitem deixar o canal auditivo livre, são preferivelmente usados para transmitir o som. Isto melhora o conforto do usuário, reduzindo muito a fadiga da audição e sendo muito mais higiênico para sessões de uso prolongado.
[056] Uma interface associada à unidade de processamento (2) é prevista em uma realização, que tem um botão de seleção de faixa para determinar a distância da análise, por exemplo, perto, normal e distante, com distâncias de 40 cm, 2 m e 6 m, respectivamente, ou sendo definida pelo usuário através de uma interface adequada para esse efeito. Quando o botão é empurrado, as distâncias serão selecionadas de uma maneira cíclica. A seleção de faixa geralmente serve para adaptar a faixa a diferentes cenários e circunstâncias, por exemplo, 40 cm para localizar objetos em uma mesa; 2 m para caminhar pela casa; e 6 m para atravessar a rua.
[057] Em outra realização preferida da invenção, o sistema compreende meios de transmissão de dados sem fio (por exemplo, por meio de Wi-Fi, Bluetooth ou outras tecnologias similares) conectados à unidade de processamento (2), onde os ditos meios de transmissão são conectados a um dispositivo externo com uma conexão sem fio e/ou a um tipo utilizável de dispositivo.
[058] É previsto em uma realização que a interface associada à unidade de processamento (2) tenha um botão de modo de análise. A seleção entre os modos será cíclica.
[059] Modo de varredura: análise somente na área central da imagem. O usuário girará a cabeça de forma cíclica a partir da esquerda para a direita, varrendo a cena de forma similar a como isso seria feito com uma bengala. O som é monoaural.
[060] Modo de paisagem completo: a análise é realizada na imagem toda. O som é estéreo. O usuário pode, portanto, perceber formas e espaços no campo de visão todo simultaneamente. Por exemplo, uma coluna é percebida à esquerda (panorama estéreo esquerdo), uma mesa baixa é percebida no centro (panorama estéreo central) e à direita (panorama estéreo direito) o caminho é claro. Este modo de prospecção é mais complexo em termos de som, uma vez que provê mais informação do que o modo de varredura. É fácil de dominar, embora exija um pouco mais de treinamento.

Claims (15)

1. SISTEMA PORTÁTIL QUE PERMITE QUE PESSOAS CEGAS OU DEFICIENTES VISUAIS INTERPRETEM O AMBIENTE AO REDOR ATRAVÉS DE SOM OU DE TOQUE, compreendendo: - duas câmeras (3i, 3d) separadas uma da outra e configuradas para capturar uma imagem do ambiente simultaneamente; - meios de geração (4i, 4d) para gerar sinais de saída de som e/ou de toque; - meios de processamento (2) conectados às câmeras (3i, 3d) e aos meios de geração (4i, 4d) para gerar sinais de som e/ou de toque, caracterizado pelos meios de processamento (2) serem configurados para combinar as imagens capturadas em tempo real e para processar a informação relacionada à profundidade dos elementos compreendida em pelo menos uma banda vertical na imagem combinada, a dita banda vertical cobrindo substancialmente a altura total da imagem combinada, e os ditos meios de processamento (2) também sendo configurados para: dividir a banda vertical em uma ou mais regiões; definir um sinal de som ou de toque, em cada região, de acordo com a profundidade da região e a altura da região; e definir um sinal de saída de som ou de toque com base nos sinais de som ou de toque em cada região da banda vertical.
2. SISTEMA, de acordo com a reivindicação 1, caracterizado pela banda vertical ser uma banda central da imagem combinada.
3. SISTEMA, de acordo com a reivindicação 2, caracterizado pelos meios de processamento (2) serem configurados para processar uma pluralidade de bandas verticais laterais na imagem combinada, em cada lado da banda vertical central, e por um sinal lateral esquerdo e um sinal lateral direito serem definidos a partir das regiões de cada banda lateral esquerda e de cada banda lateral direita, respectivamente.
4. SISTEMA, de acordo com a reivindicação 3, caracterizado pelos meios de processamento (2) serem adequados para prover uma análise simultânea da pluralidade de bandas verticais laterais, de tal modo que uma região de segmentação é processada horizontalmente na imagem completa adquirida através das câmeras (3i, 3d).
5. SISTEMA, de acordo com a reivindicação 4, caracterizado pelo modo de operação dos meios de processamento (2) poder ser configurado pelo usuário, de tal modo que o modo de análise simultânea da pluralidade de bandas verticais laterais e o modo de análise de uma única banda vertical possam ser ativados e desativados através do dito usuário.
6. SISTEMA, de acordo com qualquer uma das reivindicações 1 a 5, caracterizado pelos meios de geração (4i, 4d) operarem em estéreo, combinando um sinal de som ou de toque lateral esquerdo e um sinal de som ou de toque lateral direito, e/ou em que o som gerado é monoaural, onde ambas as modalidades podem ser selecionadas pelo usuário.
7. SISTEMA, de acordo com qualquer uma das reivindicações 1 a 6, caracterizado pelos meios de processamento (2) definirem uma força do sinal de som ou de toque de acordo com a profundidade da região.
8. SISTEMA, de acordo com a reivindicação 7, caracterizado pelos meios de processamento (2) definirem uma frequência do sinal de som ou de toque de acordo com a altura da região na banda vertical.
9. SISTEMA, de acordo com a reivindicação 8, caracterizado pelos meios de processamento (2) serem configurados para determinar a profundidade de uma região, de acordo com a codificação de cor em escala de cinza ou por meio de um gradiente de cor, em um mapa de profundidade da imagem do ambiente.
10. SISTEMA, de acordo com qualquer uma das reivindicações 1 a 9, caracterizado por compreender uma estrutura de suporte (1) a ser transportada pelo usuário, e configurada para situar os meios de reprodução (4i, 4d) e as duas câmeras (3i, 3d).
11. SISTEMA, de acordo com qualquer uma das reivindicações 1 a 10, caracterizado pelo sinal de toque ser um sinal gerado por vibração.
12. SISTEMA, de acordo com qualquer uma das reivindicações 1 a 11, caracterizado pela frequência do sinal de som ser escolhida a partir de dentro da faixa entre 100 Hz e 18000 Hz.
13. SISTEMA, de acordo com qualquer uma das reivindicações 1 a 12, caracterizado pelos meios de geração (4i, 4d) compreenderem auscultadores de condução óssea.
14. SISTEMA, de acordo com qualquer uma das reivindicações 1 a 13, caracterizado pela estrutura de suporte (1) ser escolhida a partir de pelo menos: - óculos, - uma faixa de cabeça, - apoio de pescoço, - apoio peitoral, - apoio de ombro, - apoio de mão.
15. SISTEMA, de acordo com qualquer uma das reivindicações 1 a 14, caracterizado por compreender meios de transmissão de dados sem fio conectados à unidade de processamento (2), em que os ditos meios de transmissão são conectados a um dispositivo externo com uma conexão sem fio, e/ou a um tipo utilizável de dispositivo.
BR112017026545-1A 2015-06-12 2016-06-10 Sistema portátil que permite que pessoas cegas ou deficientes visuais interpretem o ambiente ao redor através de som ou de toque BR112017026545B1 (pt)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
ESP201530825 2015-06-12
ES201530825A ES2597155B1 (es) 2015-06-12 2015-06-12 Sistema portátil de interpretación sonora o táctil del entorno para un invidente
PCT/ES2016/070441 WO2016198721A1 (es) 2015-06-12 2016-06-10 Sistema portátil de interpretación sonora o táctil del entorno para personas invidentes o con deficiencia visual

Publications (2)

Publication Number Publication Date
BR112017026545A2 BR112017026545A2 (pt) 2018-08-14
BR112017026545B1 true BR112017026545B1 (pt) 2022-07-12

Family

ID=57504615

Family Applications (1)

Application Number Title Priority Date Filing Date
BR112017026545-1A BR112017026545B1 (pt) 2015-06-12 2016-06-10 Sistema portátil que permite que pessoas cegas ou deficientes visuais interpretem o ambiente ao redor através de som ou de toque

Country Status (18)

Country Link
US (1) US11185445B2 (pt)
EP (1) EP3308759B1 (pt)
JP (1) JP6771548B2 (pt)
KR (1) KR102615844B1 (pt)
CN (1) CN107708624B (pt)
AR (1) AR104959A1 (pt)
AU (1) AU2016275789B2 (pt)
BR (1) BR112017026545B1 (pt)
CA (1) CA2986652A1 (pt)
CO (1) CO2017012744A2 (pt)
DK (1) DK3308759T3 (pt)
ES (2) ES2597155B1 (pt)
HK (1) HK1248093A1 (pt)
IL (1) IL255624B (pt)
MX (1) MX2017015146A (pt)
PT (1) PT3308759T (pt)
RU (1) RU2719025C2 (pt)
WO (1) WO2016198721A1 (pt)

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11298266B2 (en) * 2016-12-07 2022-04-12 Second Sight Medical Products, Inc. Depth filter for visual prostheses
CN107320296A (zh) * 2017-06-23 2017-11-07 重庆锦上医疗器械有限公司 视觉信号的空间三维声音表达系统及方法
US10299982B2 (en) * 2017-07-21 2019-05-28 David M Frankel Systems and methods for blind and visually impaired person environment navigation assistance
CN108245385B (zh) * 2018-01-16 2019-10-29 曹醒龙 一种帮助视障人士出行的装置
JP7415139B2 (ja) * 2019-01-11 2024-01-17 ダイキン工業株式会社 環境条件記憶装置、環境条件記憶方法、操作装置、及び環境認識装置
KR20210126664A (ko) * 2019-02-12 2021-10-20 캔-유-씨 엘티디 맹인 및 시각 장애인을 위한 스테레오 장치
EP4061004A4 (en) 2020-04-30 2023-06-07 Shenzhen Shokz Co., Ltd. BONE CONDUCTION EARPHONES
CN111862932B (zh) * 2020-07-02 2022-07-19 北京科技大学 一种将图像转化为声音的可穿戴助盲系统及方法
KR20220008659A (ko) 2020-07-14 2022-01-21 김재현 시각 장애인 전용 목걸이
CN111862024A (zh) * 2020-07-14 2020-10-30 四川深瑞视科技有限公司 基于深度信息增强投影的工件检测系统及方法

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US3172075A (en) * 1959-11-27 1965-03-02 Nat Res Dev Apparatus for furnishing information as to positioning of objects
DE2966661D1 (en) * 1978-08-14 1984-03-22 Leslie Kay Method of and apparatus for providing information as to the existence and/or position of objects
EP0410045A1 (en) 1989-07-27 1991-01-30 Koninklijke Philips Electronics N.V. Image audio transformation system, particularly as a visual aid for the blind
KR100586893B1 (ko) * 2004-06-28 2006-06-08 삼성전자주식회사 시변 잡음 환경에서의 화자 위치 추정 시스템 및 방법
US20070016425A1 (en) * 2005-07-12 2007-01-18 Koren Ward Device for providing perception of the physical environment
US20090122648A1 (en) * 2007-11-12 2009-05-14 Trustees Of Boston University Acoustic mobility aid for the visually impaired
PT104120B (pt) * 2008-06-30 2010-11-23 Metro Do Porto S A Sistema de orientação, navegação e informação especialmente adaptado para pessoas cegas ou amblíopes
US9370459B2 (en) * 2009-06-19 2016-06-21 Andrew Mahoney System and method for alerting visually impaired users of nearby objects
WO2013018090A1 (en) * 2011-08-01 2013-02-07 Abir Eliahu System and method for non-visual sensory enhancement

Also Published As

Publication number Publication date
ES2780725T3 (es) 2020-08-26
MX2017015146A (es) 2018-03-28
IL255624B (en) 2021-04-29
JP6771548B2 (ja) 2020-10-21
EP3308759A1 (en) 2018-04-18
AU2016275789B2 (en) 2021-03-11
AR104959A1 (es) 2017-08-30
EP3308759A4 (en) 2019-02-27
WO2016198721A1 (es) 2016-12-15
EP3308759B1 (en) 2019-11-27
AU2016275789A1 (en) 2018-01-25
CN107708624A (zh) 2018-02-16
RU2719025C2 (ru) 2020-04-16
US20180177640A1 (en) 2018-06-28
CA2986652A1 (en) 2016-12-15
KR102615844B1 (ko) 2023-12-21
RU2017144052A3 (pt) 2019-10-29
US11185445B2 (en) 2021-11-30
DK3308759T3 (da) 2020-03-02
ES2597155B1 (es) 2017-09-18
KR20180018587A (ko) 2018-02-21
RU2017144052A (ru) 2019-07-12
BR112017026545A2 (pt) 2018-08-14
PT3308759T (pt) 2020-04-01
CO2017012744A2 (es) 2018-02-20
JP2018524135A (ja) 2018-08-30
IL255624A (en) 2018-01-31
HK1248093A1 (zh) 2018-10-12
CN107708624B (zh) 2021-12-14
ES2597155A1 (es) 2017-01-16

Similar Documents

Publication Publication Date Title
BR112017026545B1 (pt) Sistema portátil que permite que pessoas cegas ou deficientes visuais interpretem o ambiente ao redor através de som ou de toque
US10728683B2 (en) Sweet spot adaptation for virtualized audio
JP2022538511A (ja) レガシーオーディオビジュアルメディアからの空間化された仮想音響シーンの決定
US20190349705A9 (en) Graphical user interface to adapt virtualizer sweet spot
CN105872940A (zh) 一种虚拟现实声场生成方法及系统
US11943602B1 (en) Systems and methods for spatial update latency compensation for head-tracked audio
WO2016131793A1 (en) Method of transforming visual data into acoustic signals and aid device for visually impaired or blind persons
US9967670B2 (en) Audio collection apparatus
CN205902062U (zh) 一种固定装置及音频采集设备
US20180048961A1 (en) Fixed apparatus and audio collection apparatus
TW202249502A (zh) 在兩個音頻通道上之聲源的離散雙耳空間化
Bălan et al. Assistive it for visually imapired people
Geronazzo Mixed structural models for 3D audio in virtual environments
Sanz et al. 1 evaluation of the sonification protocol of an artificial vision system for the visually impaired
Matta et al. Auditory eyes: Representing visual information in sound and tactile cues
ES2517765A1 (es) Dispositivo y método de análisis, almacenamiento y representación espacial mediante sonidos
CN107734432A (zh) 一种固定装置及音频采集设备
US9967669B2 (en) Recording device and fixed apparatus
JP2012253447A (ja) 表示装置、表示システム、表示装置の制御方法、制御プログラム、及び記録媒体
Stürmer et al. 3D Tele-Medical Speech Therapy using Time-of-Flight Technology
KR20210111622A (ko) 실감형 컨텐츠를 제공하는 서버, 방법 및 컴퓨터 프로그램
TW201412147A (zh) 多媒體處理系統及音訊信號調整方法

Legal Events

Date Code Title Description
B06U Preliminary requirement: requests with searches performed by other patent offices: procedure suspended [chapter 6.21 patent gazette]
B350 Update of information on the portal [chapter 15.35 patent gazette]
B09A Decision: intention to grant [chapter 9.1 patent gazette]
B16A Patent or certificate of addition of invention granted [chapter 16.1 patent gazette]

Free format text: PRAZO DE VALIDADE: 20 (VINTE) ANOS CONTADOS A PARTIR DE 10/06/2016, OBSERVADAS AS CONDICOES LEGAIS