ES2447641B2 - Sistema de asistencia a la navegación de personas invidentes o con deficiencia visual - Google Patents
Sistema de asistencia a la navegación de personas invidentes o con deficiencia visual Download PDFInfo
- Publication number
- ES2447641B2 ES2447641B2 ES201231402A ES201231402A ES2447641B2 ES 2447641 B2 ES2447641 B2 ES 2447641B2 ES 201231402 A ES201231402 A ES 201231402A ES 201231402 A ES201231402 A ES 201231402A ES 2447641 B2 ES2447641 B2 ES 2447641B2
- Authority
- ES
- Spain
- Prior art keywords
- user
- map
- subsystem
- module
- navigation
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Classifications
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61H—PHYSICAL THERAPY APPARATUS, e.g. DEVICES FOR LOCATING OR STIMULATING REFLEX POINTS IN THE BODY; ARTIFICIAL RESPIRATION; MASSAGE; BATHING DEVICES FOR SPECIAL THERAPEUTIC OR HYGIENIC PURPOSES OR SPECIFIC PARTS OF THE BODY
- A61H3/00—Appliances for aiding patients or disabled persons to walk about
- A61H3/06—Walking aids for blind persons
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/285—Analysis of motion using a sequence of stereo image pairs
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/10—Image acquisition
- G06V10/17—Image acquisition using hand-held instruments
Landscapes
- Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Multimedia (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Pain & Pain Management (AREA)
- Epidemiology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Physical Education & Sports Medicine (AREA)
- Rehabilitation Therapy (AREA)
- Life Sciences & Earth Sciences (AREA)
- Animal Behavior & Ethology (AREA)
- General Health & Medical Sciences (AREA)
- Public Health (AREA)
- Veterinary Medicine (AREA)
- Navigation (AREA)
- Traffic Control Systems (AREA)
Abstract
La presente invención se refiere a un sistema multisensorial desarrollado para la asistencia a la navegación de personas invidentes o con deficiencia visual con objeto de guiar al usuario usando una fusión entre un sensor GPS y otro de visión artificial. El sistema indica al usuario el camino que tiene que seguir para llegar a un destino evitando obstáculos, utilizando para ello información acústica obtenida mediante un sintetizador de voz. Está compuesto por cuatro subsistemas. El subsistema de visión obtiene una imagen de profundidad a partir de una cámara estéreo. El subsistema GPS permite geo-referenciar la información visual con objeto de obtener mapas 3D de grandes entornos. En el subsistema de procesado es donde se ejecutan las funciones responsables del sistema de asistencia. El subsistema de señalización acústica sirve para dar los correspondientes avisos de navegación y evitación de obstáculos al usuario as como proporcionar los destinos de la navegación.
Description
DESCRIPCIÓN
Sistema de asistencia a la navegación de personas invidentes o con deficiencia visual.
SECTOR DE LA TÉCNICA 5
El sector de la técnica principal en el que se encuadra la presente invención es el de los sistemas de localización y navegación basados en visión artificial y GPS. Teniendo en cuenta la aplicación, se encuadra dentro de los sistemas de asistencia a la navegación de personas con discapacidad.
10
ESTADO DE LA TÉCNICA
La movilidad independiente es de extrema importancia para aquellas personas que presentan deficiencias visuales o ceguera. Sin una buena autonomía para poder desplazarse, la persona invidente depende de otras personas u otros factores para poder desarrollar su actividad cotidiana. En los últimos años, se han realizado grandes avances 15 tecnológicos en el campo de los sistemas de posicionamiento por satélite. El estudio de estos sistemas de posicionamiento, constituye una interesante línea de investigación para su uso en la vida cotidiana por personas invidentes o con deficiencias visuales.
El principal reto que presentan los sistemas de asistencia a la navegación para personas invidentes es la obtención 20 de una información precisa sobre la localización y orientación espacial del usuario en un entorno. La mayoría de los sistemas propuestos hasta el momento se basan en el uso de sensores GPS, los cuales presentan problemas de fiabilidad en entornos urbanos y errores de localización demasiado altos para el uso cotidiano de estos sistemas por peatones [Loomis et al., 2001], [Oh et al., 2004], [Morales y Berrocal, 2005], [SWAN, 2007]. El error en localización que se puede obtener con un GPS normal en buenas condiciones de visibilidad, se encuentra alrededor de 10 25 metros. Este error es demasiado grande y puede suponer grandes problemas cuando el usuario se desplaza por sitios desconocidos o no habituales. Además, es bastante frecuente que el GPS pierda la señal de los satélites cuando se utiliza en las ciudades. Debido a que el GPS solamente funciona a cielo abierto, la poca fiabilidad de la medida en entornos interiores, túneles o bajo la sombra de edificios altos, exige que se investiguen nuevas técnicas de localización para permitir una navegación autónoma a la comunidad de personas invidentes. 30
Algunos trabajos proponen el uso de balizas auditivas combinando la información procedente de un dispositivo GPS [Walter y Lindsay, 2005, 2006]. El principal problema de este tipo de sistemas, es que su rango de acción es muy limitado, ya que se necesitan colocar diversas balizas auditivas en un entorno determinado. Por lo tanto, la aplicación de este tipo de sistemas en entornos tales como ciudades es inviable. Otra línea de investigación combina 35 la información de diferentes sensores inerciales y un dispositivo láser 2D colocados en el bastón de movilidad utilizado normalmente por los usuarios invidentes [Hesch and Roumeliotis, 2010]. Los principales problemas que presenta este sistema son el coste excesivo que puede suponer incorporar un sistema láser en los bastones de movilidad, así como su difícil adaptación a entornos no estructurados y que presenten poca reflectividad para el dispositivo láser. 40
Otra técnica utilizada son las etiquetas de tipo Radio Frequency IDentification (RFID) [Kulyukin et al., 2004]. El propósito de la tecnología RFID es transmitir la identidad de un objeto mediante ondas de radio. Las etiquetas RFID son unos dispositivos pequeños, similares a una pegatina, que pueden ser adheridas o incorporadas a un producto, un animal o una persona. Las etiquetas pasivas no necesitan alimentación eléctrica interna, mientras que las activas 45 sí lo requieren. Los principales problemas de esta tecnología son la necesidad de dimensionar una red de etiquetas y colocarla en un entorno conocido, además de que los errores en localización pueden ser elevados, si no se dispone en el entorno de muchas etiquetas RFID. Otra línea de investigación abierta es la de los sensores ópticos basados en tecnología Light-Emitting Diode (LED) para su posible uso por la comunidad de usuarios invidentes [SINAI, 2010]. Este tipo de sistemas presenta una serie de problemas similares a los sistemas basados en 50 tecnología RFID.
Dentro de las nuevas técnicas de sistemas de localización existentes a día de hoy, la visión artificial supone un gran salto cualitativo con respecto a sistemas de localización basados en satélite. Mediante el uso de cámaras y el posterior procesado de las imágenes adquiridas, la visión artificial permite obtener resultados de localización muy 55 precisos del orden de centímetros, además de poder proporcionar una información muy importante sobre la percepción del entorno en el que camina el usuario [Saéz et al., 2005], [Treuillet et al., 2007], [Davison et al., 2007], [Li et al., 2009], [Saéz y Escolano, 2008], [Alcantarilla et al., 2010], [Pradeep et al., 2010], [Alcantarilla et al., 2011]. De esta forma, mediante tecnologías de visión artificial se pueden desarrollar sistemas de evitación de obstáculos y de adición de información semántica al mapa (como por ejemplo paradas de metro, autobuses, cajeros automáticos, 60 papeleras, etc.) utilizando el mismo sistema sensorial. Existen en la literatura algunos trabajos en esta línea pero ninguno aplicado a la asistencia a la navegación de personas invidentes o con deficiencia visual en grandes entornos reales que incluya evitación de obstáculos e información semántica.
DESCRIPCIÓN DE LA INVENCIÓN
El sistema desarrollado para la asistencia a la navegación de personas invidentes o con deficiencia visual se divide en varios subsistemas. El primero de ellos es el subsistema de visión artificial, se trata de un sistema de percepción 5 que se dedica a la obtención de imágenes de disparidad (profundidad) de la escena. Consta de una cámara estéreo para la captura de imágenes junto con su óptica correspondiente y va alojada en un chaleco que debe portar el usuario. El subsistema GPS es un sistema de percepción complementario al de visión y permite geo-referenciar la información obtenida mediante el subsistema de visión permitiendo su funcionamiento en grandes entornos, fundamentalmente exteriores. Consta de un receptor GPS de bajo coste integrado en el chaleco que porta el 10 usuario. El subsistema de procesamiento está basado en un procesador sobre el que se implementan y ejecutan las funciones necesarias para llevar a cabo la asistencia a la navegación. Consta de cuatro módulos: módulo de mapeado 3D, módulo de localización y navegación, módulo de evitación de obstáculos y módulo de información semántica. El subsistema de señalización acústica se alimenta de la salida proporcionada por el sistema de procesamiento y es, por un lado, el responsable de dar los correspondientes avisos de navegación y evitación de 15 obstáculos al usuario usando para ello unos auriculares especiales no invasivos que dejan libres los oídos del invidente. Por otro, este subsistema se encarga se reconocer los comandos vocales del usuario que proporcionan los destinos de la navegación.
A continuación se describen las funciones de cada uno de los elementos del sistema. 20
Subsistema de visión artificial
Consiste en una cámara estéreo tipo CCD con scan progresivo en RGB, con salida IEEE1394 (FireWire) y con óptica de gran angular. Debe tener una resolución por encima de 640x480 píxeles y capturar al menos a 20 FPS. La 25 cámara deberá calibrarse en un setup inicial y deberá generar una imagen de disparidad (o imagen de profundidad) de al menos 640x480 píxeles. La cámara deberá ir colocada en un chaleco especial que se pondrá el usuario a la altura del pecho de forma no invasiva y que deberá estar enfocada hacia el frente de forma que capture imágenes frontales del entorno del usuario. La cámara irá conectada a un puerto FireWire del sistema de procesado a través de un cable FireWire con objeto de realizar la captura de las imágenes. Este puerto deberá proporcionar también 30 alimentación a la cámara.
Subsistema GPS
Consiste en un GPS de bajo coste y pequeña dimensión que se conectará a un puerto USB del sistema de 35 procesado a través de un cable USB que también proporcionará alimentación al GPS. Mediante la información recibida por el mismo se geo-referenciarán las imágenes adquiridas con el subsistema de visión. Usando la fusión de la información visual y GPS se logrará geo-referenciar el mapa 3D obtenido mediante marcas visuales. De esta forma, el GPS posibilitará el uso del sistema en grandes entornos exteriores urbanos y facilitará la integración de nuevos mapas calculados con respecto a un sistema de referencia global. Asimismo, permitirá almacenar dichos 40 mapas en una base de datos proporcionada por un operador de telecomunicaciones. El GPS irá ubicado en el chaleco que porta el usuario.
Subsistema de procesado
45
Esta unidad está basada en un procesador sobre el que se implementan las funciones necesarias para llevar a cabo la asistencia a la navegación. Toma como entradas la información proporcionada por el subsistema de visión artificial y el GPS. A partir de la fusión de las mismas obtiene la percepción del entorno. Consta de cuatro módulos: módulo de mapeado 3D, módulo de localización y navegación, módulo de evitación de obstáculos y módulo de información semántica. Este subsistema genera una serie de avisos que serán enviados al subsistema de 50 señalización acústica. Por otro lado, recibe de éste los posibles destinos de la navegación. Dispone de un enlace de datos proporcionado por un operador de telecomunicaciones con objeto de almacenar o descargar los mapas locales a/desde una base de datos gestionada de forma transparente por el propio operador. También dispone de una batería que garantiza su funcionamiento durante un mínimo de 4 horas. El procesador irá ubicado en el chaleco especial que debe portar el usuario y que también incluye los dos sistemas de percepción. Dado el reducido peso 55 del mismo podrá ser transportado cómodamente por el usuario.
A continuación se describen los módulos que componen este subsistema:
Módulo de Mapeado 3D. Este módulo se ejecuta la primera vez que el invidente visita un entorno nuevo. Para 60 ello debe colocarse el sistema y moverse por el mismo ayudado por un acompañante que le irá indicando la trayectoria a seguir para llegar a un determinado destino. En esta fase el sistema graba un conjunto de marcas
visuales relevantes del entorno y obtiene su posición 3D mediante técnicas de procesamiento de imágenes con objeto de obtener un mapa visual del mismo geo-referenciado. Esta fase se puede realizar de modo off-line dedicando mayores recursos computacionales con el objetivo de obtener un mapa 3D de la mayor exactitud posible para la posterior localización y navegación de los usuarios en dicho mapa. El mapa calculado se almacenará en una base de datos que puede ser propiedad de un operador de telecomunicaciones o de la 5 empresa encargada de proporcionar el servicio de localización en dichos mapas visuales.
Módulo de Localización y Navegación. A partir de los mapas 3D calculados en el módulo anterior el usuario puede localizarse y navegar en tiempo real obteniendo en todo momento información sobre su actual localización en el mapa, así como la ruta a seguir para llegar a un determinado destino. Para ello se utilizan 10 técnicas de localización visual y de estimación de movimiento robustas, así como técnicas de planificación para obtener la ruta óptima. Inicialmente el usuario se localiza en el mapa a partir de su posición GPS. A partir de dicha información GPS se accede a través de un enlace de datos proporcionado por un operador de telecomunicaciones a una base de datos que almacena los mapas 3D. Una vez identificado el mapa correcto, dicho mapa se descargará en el sistema de procesado transportado por el usuario. En el caso de que no 15 existiera una buena recepción de señal GPS, la localización inicial en el mapa se realiza a través de búsqueda visual de la imagen actual que recibe la cámara. Es decir, la imagen que visualiza la cámara se envía a través de un enlace de datos al servidor que contiene la base de datos con los mapas, mediante búsqueda de imágenes se identifica el mapa en el que se encuentra el usuario, y este mapa se descarga en el terminal del usuario. 20
Puede suceder que en determinadas circunstancias los usuarios caminen por zonas que no han sido registradas previamente en el mapa. En esos casos, el sistema proporciona a los usuarios una localización relativa y añade nueva información 3D al mapa extendiendo el entorno mapeado. Para ello utiliza técnicas de localización y mapeado simultáneos. 25
Módulo de Evitación de Obstáculos. Se trata de un módulo complementario al anterior que actúa de forma local con objeto de evitar que el usuario se choque con los objetos circundantes (peatones, árboles, paredes, bancos, etc.). Mediante el módulo de localización y navegación el usuario es asistido para llegar a un determinado destino. Sin embargo, si durante el trayecto aparecen obstáculos, este módulo es capaz de 30 detectarlos, estimar la distancia de los mismos al usuario y dar los correspondientes avisos acústicos en tiempo real con objeto de esquivar los obstáculos y volver a la trayectoria definida por el módulo de navegación. De esta forma se logra una navegación segura. Para ello se utilizan las imágenes obtenidas por el subsistema de visión y se aplican técnicas de procesamiento de imágenes para detección de objetos y estimación del movimiento de los mismos de forma dinámica. 35
Módulo de Información Semántica. Con este módulo, a partir de la localización del usuario en el mapa, se localizan ciertos servicios, aplicando técnicas de detección y reconocimiento de imágenes, que pueden ser de interés para el usuario invidente. Esta información semántica adicional se geo-referencia y se añade de una forma sencilla al mapa en la fase de mapeado 3D. De esta forma en la fase de navegación se puede informar al 40 usuario en tiempo real de la existencia de estos servicios en las proximidades y se le puede guiar para que haga uso de los mismos. De esta forma se abren nuevos modelos de negocio asociados a los mapas 3D.
Subsistema de señalización acústica
45
Este subsistema es el responsable de la generación de las señales acústicas necesarias para asistir al invidente así como de la introducción de los lugares de destino. Consta de un micrófono, unos auriculares especiales, un reconocedor de voz y un sintetizador de voz y de sonidos. Los auriculares están basados en la tecnología audio bone conduction. Éstos transmiten información de audio a los usuarios invidentes a través de un conjunto de huesos localizados en el oído sin obstaculizar el pabellón auditivo. De esta forma el invidente puede percibir los sonidos del 50 entorno sin ningún tipo de impedimento, lo cual es fundamental en este tipo de usuarios que presentan deficiencias visuales pero que tienen muy desarrollado el sentido del oído. La señalización acústica para la asistencia a la navegación se realiza mediante comandos de voz que van indicando al usuario las direcciones que debe tomar en todo momento (seguir recto, girar a la derecha, girar a la izquierda, parar, etc.) para llegar a un determinado destino.
55
La frecuencia y antelación de los avisos son configurables. La selección del destino se realiza pronunciando las palabras claves que identifican cada uno de ellos. Esta información es recogida por un micrófono, codificada mediante el reconocedor de voz y enviada al módulo de navegación. Para la recepción de la información semántica se usan también comandos de voz. En este caso se avisa al usuario, si habilita esta opción, de la existencia de ciertos servicios en las inmediaciones de su posición. Mediante el reconocedor de voz se puede cambiar el estado 60 de la misma y se puede indicar como destino alguno de los servicios detectados. En este caso el sistema conmuta la ruta establecida a una nueva ruta cuyo destino es el servicio seleccionado. Para la evitación de obstáculos se usa una codificación de sonidos que son función de la distancia y el ángulo a los que se encuentran los obstáculos con relación al usuario.
65
BREVE DESCRIPCIÓN DE LOS DIBUJOS
El sistema multisensorial desarrollado para la asistencia a la navegación de personas invidentes o con deficiencias visuales se divide en 4 subsistemas fundamentales como se observa en la figura 1. (1) es el subsistema de visión 5 artificial, (2) el subsistema GPS, (3) el subsistema de procesado y (4) el de señalización acústica. El subsistema (3) se divide a su vez en 4 módulos: (3.1) es el módulo de mapeado 3D, (3.2) es el módulo de localización y navegación, (3.3) es el módulo de evitación de obstáculos y (3.4) es el módulo de información semántica. Los subsistemas (1) y (2) son las entradas del subsistema (3). Los subsistemas (3) y (4) se comunican de forma bidireccional. 10
MODO DE REALIZACIÓN
Una posible realización del sistema multisensorial propuesto estaría compuesta como sigue: el subsistema de visión artificial constaría de una cámara estéreo RGB con una línea base de 12 cm, una resolución de 640x480 píxeles y 15 30 fps, una óptica gran angular de distancia focal 2.5 mm y formato del vídeo de salida IEEE-1394 a 400 Mbps. El subsistema GPS estaría formado por un GPS Navilock NL-302U conectado por un puerto USB al subsistema procesador y compatible con el protocolo NMEA 0183. El subsistema procesador sería un computador comercial basado en arquitectura x86 con 1GB SDRAM y 500GB de disco duro, con 4 puertos USB 2.0 y un puerto IEEE-1394 a 400 Mbps. El subsistema de señalización acústica estaría formados por unos auriculares de tecnología audio bone 20 conduction con una sensibilidad de 80dB/mW y un retorno de frecuencia de 50Hz~12kHz.
A continuación se detalla cómo sería el funcionamiento del sistema en un caso práctico de asistencia. Dicho proceso consistiría de las siguientes fases:
25
Fase de Mapeado de 3D. El invidente asistido por un acompañante se coloca el sistema y graba una secuencia de imágenes en un entorno urbano de interés. A partir del procesado de esta secuencia de imágenes, se obtiene un mapa de puntos 3D del entorno visualizado de modo off-line. Este mapa visual geo-referenciado es almacenado en una base de datos propiedad de un operador de telecomunicaciones.
30
Fase de Localización y Navegación. Inicialmente el usuario se localiza en el mapa a partir de su posición GPS. A partir de dicha información GPS se accede a través de un enlace de datos proporcionado por un operador de telecomunicaciones a una base de datos que almacena los mapas 3D. Una vez identificado el mapa correcto, dicho mapa se descargará en el dispositivo portátil transportado por el usuario. A partir de estos mapas el usuario puede localizarse y navegar obteniendo en todo momento información sobre su actual localización en el mapa, así como la 35 ruta a seguir para llegar a un determinado destino. Asimismo, se detectarán los obstáculos que se presenten en el camino del invidente y se le asistirá mediante comandos acústicos para evitarlos. Por último, será informado mediante comandos de voz de diversos servicios de interés como por ejemplo hoteles, paradas de taxis, autobuses, cafeterías, bancos cajeros automáticos, papeleras, etc., que se vaya encontrando a su paso. De esta forma se abren nuevos modelos de negocio como por ejemplo el pago asociado por la publicidad de un determinado tipo de 40 servicio (restaurante, tiendas de moda, etc.) en los mapas 3D.
Bibliografía
[Alcantarilla et al., 2010] P.F. Alcantarilla, Sang Ming Oh, G. Mariottini, L.M. Bergasa, y F. Dellaert. Learning visibility 45 of landmarks for vision-based localization. In IEEE Intl. Conf. on Robotics and Automation (ICRA), Anchorage, AK, USA, 2010.
[Alcantarilla et al., 2011] P.F. Alcantarilla, Kai Ni, L.M. Bergasa, y F. Dellaert. Visibility learning in large-scale urban environment. In IEEE Intl. Conf. on Robotics and Automation (ICRA), Shanghai, China, 2011.
[Davison et al., 2007] A. J. Davison, I. D. Reid, N. D. Molton, y O. Stasse. MonoSLAM: Real-time single camera 50 SLAM. IEEE Trans. Pattern Anal. Machine Intell., 29(6), 2007.
[Hesch et al., 2010] Hesch, J. A., Mirzaei, F. M., Mariottini, G. L. and Roumeliotis, S. I. A lased-aided inertial navigation system L-INS for human localization in unknown indoor environments. In IEEE Intl. Conf. on Robotics and Automation (ICRA), Anchorage, AK, USA, 2010
[Kulyukin et al., 2004] V. Kulyukin, C. Gharpure, J. Nicholson, and S. Pavithran. RFID in robot assisted indoor 55 navigation for the visually impaired. In IEEE/RSJ Intl. Conf. on Intelligent Robots and Systems (IROS), 2004.
[Li et al., 2009] L. Li, R. Socher, y L. Fei-Fei. Towards total scene understanding: Classification, annotation and segmentation in an automatic framework. In IEEE Conf. on Computer Vision and Pattern Recognition (CVPR), 2009.
[Loomis et al., 2004] J. Loomis, R.G. Golledge, y R.L. Klatzky. GPS-based navigation systems for the visually impaired. Fundamentals of Wearable Computers and Augmented Reality, pages 429–446, 2001.
[Morales y Berrocal, 2005] M. Morales y M. Berrocal. El GPS como sistema de ayuda a la orientación de personas ciegas. III Congreso virtual INTEREDVISUAL sobre la autonomía personal de personas con ceguera o deficiencia visual, 2005. 5
[Mountney et al., 2006] P. Mountney, D. Stoyanov, A. J. Davison, and G. Z. Yang. Simultaneous stereoscope localization and soft-tissue mapping for minimally invasive surgery. In Medical Image Computing and Computer Assisted Intervention (MICCAI), 2006.
[Oh et al., 2004] S.M. Oh, S. Tariq, B. Walker, y F. Dellaert. Map-based priors for localization. In IEEE/RSJ Intl. Conf. on Intelligent Robots and Systems (IROS), 2004. 10
[Pradeep et al., 2010] Pradeep, V., Medioni, G., and Weiland, J. (2010). Robot vision for the visually impaired. In CVAVI10, IEEE International Conference on Computer Vision and Pattern Recognition (CVPR), San Francisco, CA, USA.
[Saéz y Escolano, 2008] J. M. Saéz y F. Escolano. Stereo-based aerial obstacle detection for the visually impaired. In European Conference on Computer Vision (ECCV) / Workshop on Computer Vision Applications for the Visually 15 Impaired (CVAVI), Marselle, France, 2008.
[Saéz et al., 2005] J. M. Saéz, F. Escolano, y A. Peñalver. First steps towards stereo-based 6DOF LAM for the visually impaired. In IEEE Conf. on Computer Vision and Pattern Recognition (CVPR), San Diego, USA, 2005.
[SINAI, 2010] Proyecto SINAI (Sistema de navegación para invidentes), URL:
http://www.idetic.ulpgc.es/idetic/index.php/es/multimedia/162-proyecto-siani-en-la-tv-espanola-en-canarias 20
http://www.idetic.ulpgc.es/idetic/index.php/es/multimedia/162-proyecto-siani-en-la-tv-espanola-en-canarias 20
[SWAN, 2007] System for Wearable Audio Navigation, SWAN Project, URL:
http://sonify.psych.gatech.edu/research/SWAN/
http://sonify.psych.gatech.edu/research/SWAN/
[Treuillet et al., 2007] Sylvie Treuillet, Eric Royer, Thierry Chateau, Michel Dhome, y Jean Marc Lavest. Body mounted vision system for visually impaired outdoor and indoor wayfinding assistance. In Conference and Workshop on Assistive Technologies for People with Vision and Hearing Impairments. Assistive Technology for All Ages, 2007. 25
[Walker y Lindsay, 2005] B. N. Walker y J. Lindsay. Using virtual reality to prototype auditory navigation displays. Assistive Technology Journal, 17(1):72–81, 2005.
[Walker y Lindsay, 2006] B. N. Walker y J. Lindsay. Navigation performance with a virtual auditory display: Effects of beacon sound, capture radius, and practice. Human Factors, 48(2):265– 278, 2006.
Claims (5)
-
REIVINDICACIONES1. Sistema multisensorial de localización y asistencia a la navegación de personas invidentes o con deficiencias visuales que comprende:5a. Un subsistema de visión artificial (1) compuesto por una cámara y que comprende medios para obtener un mapa de profundidad.b. Un subsistema GPS (2).10c. Un subsistema de procesado (3) que se divide a su vez en 4 módulos funcionales:i. Módulo de mapeado 3D (3.1) caracterizado por construir un mapa 3D de características visuales del entorno a partir de la información obtenida del subsistemas de visión artificial (1) y del subsistema GPS (2), que comprende medios para detectar características visuales esparce “caracterizadas por 15 ser fácilmente distinguibles por su apariencia visual y estar distribuidas en el entorno” mediante técnicas de procesamiento de imágenes basadas en descriptores robustos, geo-referenciarlas globalmente y almacenarlas en una base de datos.ii. Módulo de localización y navegación (3.2) caracterizado por localizar globalmente a un usuario en 20 tiempo real dentro del mapa obtenido mediante el módulo de mapeado 3D (3.1), utilizando técnicas de correspondencias de marcas visuales, y de guiarlo de forma segura a un destino final definido por el propio usuario a través del subsistema de señalización acústica (4), que comprende medios para posicionar en el mapa el destino final, planificar una trayectoria sobre el mapa desde la posición en la que se encuentra el usuario hasta el destino final, y de codificar comandos de navegación, usando una 25 representación topológica del mapa, la cual se transmitirán al usuario a través del módulo de señalización acústica (4).iii. Módulo de evitación de obstáculos (3.3) caracterizado por detectar los obstáculos circundantes alrededor del usuario, a partir de la información recibida del subsistema de visión artificial (1) y del 30 subsistema GPS (2), y de generar una trayectoria alternativa en el módulo de mapeado 3D (3.1) que permita evitarlos y continuar la trayectoria definida mediante el módulo (3.2). Para ello se utilizan las imágenes obtenidas por el subsistema de visión artificial (1) y se aplican técnicas de procesamiento de imágenes para detección de objetos y estimación del movimiento de los mismos de forma dinámica, y que comprende medios para codificar comandos de navegación locales con objeto de guiar al usuario 35 en la evitación de los obstáculos, siendo estos transmitidos a través del subsistema de señalización acústica (4).iv. Módulo de información semántica (3.4) caracterizado por localizar ciertas posiciones en el entorno de interés para el usuario invidente y que se añadirán como información semántica al mapa 3D generado 40 mediante el módulo de mapeado 3D (3.1). Estas posiciones serán informadas mediante el subsistema de señalización acústica (4) al usuario cuando su trayectoria se encuentre en las proximidades de las mismas conforme a la información proporcionada por el módulo de localización y navegación (3.2), y que comprende medios para reconocer y etiquetar lugares del entorno mediante técnicas de reconocimiento visual de escenas. 45d. Subsistema de señalización acústica (4) que comprende medios para reconocer órdenes vocales y generar comandos acústicos. - 2. Sistema multisensorial, según reivindicación 1, que comprende medios para añadir nueva información 3D al 50 mapa, obtenido mediante el módulo de mapeado 3D (3.1), extendiendo el entorno mapeado cuando el usuario camina por zonas que no han sido previamente registradas en el mapa, mediante el uso de técnicas de localización y mapeado simultáneos. Esta información actualiza la base de datos local del sistema.
- 3. Sistema multisensorial, según reivindicaciones 1 y 2, que comprende medios para enviar la base de datos local 55 que contiene el mapa 3D de un usuario a los servidores de un operador de telecomunicaciones, a través de un enlace de datos inalámbrico, con objeto de ser almacenada y fusionada con la de otros usuarios, si las hubiere, de forma que siempre se almacene la versión más precisa y actual del mapa 3D.
- 4. Sistema multisensorial, según reivindicaciones 1, 2 y 3, que comprende medios para descargar de los 60 servidores de un operador de telecomunicaciones, a través de un enlace de datos inalámbrico, el mapa 3D del entorno más actual que se disponga y que funcionará como base de datos local del usuario.
- 5. Sistema multisensorial, según reivindicaciones 1, 2, 3 y 4, caracterizado por que el módulo de información semántica (3.4) no solo proporciona información de interés sino que las posiciones identificadas por el mismo son destinos finales para el usuario. El usuario selecciona la posición deseada mediante el módulo de señalización acústica (4) y el sistema tiene medios para guiarlo a ese destino tomando como base el mapa definido en el módulo de localización y navegación (3.2) y la metodología definida en los módulos de 5 localización y navegación (3.2) y de evitación de obstáculos (3.3).
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| ES201231402A ES2447641B2 (es) | 2012-09-10 | 2012-09-10 | Sistema de asistencia a la navegación de personas invidentes o con deficiencia visual |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| ES201231402A ES2447641B2 (es) | 2012-09-10 | 2012-09-10 | Sistema de asistencia a la navegación de personas invidentes o con deficiencia visual |
Publications (3)
| Publication Number | Publication Date |
|---|---|
| ES2447641A2 ES2447641A2 (es) | 2014-03-12 |
| ES2447641R1 ES2447641R1 (es) | 2014-06-10 |
| ES2447641B2 true ES2447641B2 (es) | 2014-10-15 |
Family
ID=50231586
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| ES201231402A Active ES2447641B2 (es) | 2012-09-10 | 2012-09-10 | Sistema de asistencia a la navegación de personas invidentes o con deficiencia visual |
Country Status (1)
| Country | Link |
|---|---|
| ES (1) | ES2447641B2 (es) |
Families Citing this family (1)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US12505657B2 (en) | 2021-01-25 | 2025-12-23 | Qatar University | Assistive system for people with visual impairments |
-
2012
- 2012-09-10 ES ES201231402A patent/ES2447641B2/es active Active
Also Published As
| Publication number | Publication date |
|---|---|
| ES2447641R1 (es) | 2014-06-10 |
| ES2447641A2 (es) | 2014-03-12 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| Fernandes et al. | A review of assistive spatial orientation and navigation technologies for the visually impaired | |
| Madake et al. | A qualitative and quantitative analysis of research in mobility technologies for visually impaired people | |
| US9805619B2 (en) | Intelligent glasses for the visually impaired | |
| Katz et al. | NAVIG: Guidance system for the visually impaired using virtual augmented reality | |
| US20130250078A1 (en) | Visual aid | |
| Dunai et al. | Obstacle detectors for visually impaired people | |
| JP2020508440A (ja) | パーソナルナビゲーションシステム | |
| Schwarze et al. | A camera-based mobility aid for visually impaired people | |
| Wang et al. | A survey of 17 indoor travel assistance systems for blind and visually impaired people | |
| US20200326199A1 (en) | Route guidance and proximity awareness system | |
| Sharma et al. | International journal of engineering sciences & research technology a review on obstacle detection and vision | |
| Somyat et al. | NavTU: android navigation app for Thai people with visual impairments | |
| GUNDEWAR | A review on an obstacle detection in navigation of visually impaired | |
| CN104729496A (zh) | 利用影像辨识提供避障路线的方法及行动辅具 | |
| Adagale et al. | Route guidance system for blind people using GPS and GSM | |
| Saranya et al. | Campus navigation and identifying current location through android device to guide blind people | |
| ES2447641B2 (es) | Sistema de asistencia a la navegación de personas invidentes o con deficiencia visual | |
| Katz et al. | NAVIG: Navigation assisted by artificial vision and GNSS | |
| Botezatu et al. | Development of a versatile assistive system for the visually impaired based on sensor fusion | |
| Kandoth et al. | Dhrishti: A visual aiding system for outdoor environment | |
| Tripathi et al. | Analysis of obstruction avoidance assistants to enhance the mobility of visually impaired person: A systematic review | |
| Yao et al. | A Review of Vision-Based Assistive Systems for Visually Impaired People: Technologies, Applications, and Future Directions | |
| Ashar et al. | A survey on deep learning-based smart assistive aids for visually impaired individuals | |
| Zhang et al. | Development of a shoe-mounted assistive user interface for navigation | |
| Hojjat | Enhanced navigation systems in gps denied environments for visually impaired people: A survey |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| FG2A | Definitive protection |
Ref document number: 2447641 Country of ref document: ES Kind code of ref document: B2 Effective date: 20141015 |