ES2753123T3 - Dispositivos de asistencia a la visión e interfaces de usuario - Google Patents

Dispositivos de asistencia a la visión e interfaces de usuario Download PDF

Info

Publication number
ES2753123T3
ES2753123T3 ES13794086T ES13794086T ES2753123T3 ES 2753123 T3 ES2753123 T3 ES 2753123T3 ES 13794086 T ES13794086 T ES 13794086T ES 13794086 T ES13794086 T ES 13794086T ES 2753123 T3 ES2753123 T3 ES 2753123T3
Authority
ES
Spain
Prior art keywords
assist device
housing
vision assist
imaging units
vision
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
ES13794086T
Other languages
English (en)
Inventor
Leon Reznik
Lev Lvovsky
Helen Reznik
Levy Ulanovsky
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Freedom Scientific Inc
Original Assignee
Freedom Scientific Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Freedom Scientific Inc filed Critical Freedom Scientific Inc
Application granted granted Critical
Publication of ES2753123T3 publication Critical patent/ES2753123T3/es
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B21/00Teaching, or communicating with, the blind, deaf or mute
    • G09B21/001Teaching or communicating with blind persons
    • G09B21/008Teaching or communicating with blind persons using visual presentation of the information for the partially sighted
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B17/00Details of cameras or camera bodies; Accessories therefor
    • G03B17/02Bodies
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/60Editing figures and text; Combining figures or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/0035User-machine interface; Control console
    • H04N1/00496Constructional details of the interface or console not otherwise provided for, e.g. rotating or tilting means
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/00519Constructional details not otherwise provided for, e.g. housings, covers
    • H04N1/00559Mounting or support of components or elements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/00519Constructional details not otherwise provided for, e.g. housings, covers
    • H04N1/00562Supporting the apparatus as a whole, e.g. stands
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/04Scanning arrangements, i.e. arrangements for the displacement of active reading or reproducing elements relative to the original or reproducing medium, or vice versa
    • H04N1/19Scanning arrangements, i.e. arrangements for the displacement of active reading or reproducing elements relative to the original or reproducing medium, or vice versa using multi-element arrays
    • H04N1/195Scanning arrangements, i.e. arrangements for the displacement of active reading or reproducing elements relative to the original or reproducing medium, or vice versa using multi-element arrays the array comprising a two-dimensional array or a combination of two-dimensional arrays
    • H04N1/19594Scanning arrangements, i.e. arrangements for the displacement of active reading or reproducing elements relative to the original or reproducing medium, or vice versa using multi-element arrays the array comprising a two-dimensional array or a combination of two-dimensional arrays using a television camera or a still video camera
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/50Constructional details
    • H04N23/51Housings
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/90Arrangement of cameras or camera modules, e.g. multiple cameras in TV studios or sports stadiums

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • General Health & Medical Sciences (AREA)
  • Business, Economics & Management (AREA)
  • Educational Administration (AREA)
  • Educational Technology (AREA)
  • Studio Devices (AREA)

Abstract

Un dispositivo de asistencia a la visión (100) caracterizado por comprender: una carcasa (42) que tiene una base (62) para colocar la carcasa (42) en una superficie (86), una parte superior (64) y una pared frontal (66), una pared posterior (68) y paredes laterales (70, 72) conectando la base (62) a la parte superior (64) y definiendo juntas un volumen interno de la carcasa (42), en donde la parte superior (64) sobresale hacia afuera desde la pared frontal (66) de la carcasa (42); dos unidades de obtención de imágenes (44a y 44b) separadas entre sí e integradas dentro de la parte superior (64) de la carcasa (42), estando cada unidad de obtención de imágenes (44) estacionaria con respecto a la carcasa (42) y formando un ángulo hacia abajo de modo que un eje central (147) de cada unidad de obtención de imágenes (44) forme un ángulo agudo con la superficie (86) en donde las dos unidades de obtención de imágenes (44a y 44b) se configuran para capturar partes solapadas de una imagen objetivo de un objeto objetivo (88); y un sistema de control (120) alojado dentro del volumen interno de la carcasa (42), estando programado el sistema de control (120) para combinar las partes solapadas de la imagen objetivo.

Description

DESCRIPCIÓN
Dispositivos de asistencia a la visión e interfaces de usuario
Campo
La presente descripción se refiere a dispositivos de asistencia a la visión, y en particular, a dispositivos de asistencia a la visión independientes con una o más unidades de obtención de imágenes.
Antecedentes
De acuerdo con algunas estimaciones, casi 2,9 millones de estadounidenses tienen discapacidad visual. Muchos más tienen problemas para leer debido a otras afecciones, tales como un ictus o una lesión cerebral traumática. La prevalencia de la discapacidad visual aumenta rápidamente en los últimos años, especialmente después de los 75 años. Incluso las personas con el menor grado de discapacidad visual todavía pueden afrontar desafíos en la vida cotidiana, ya que las actividades cotidianas normales, tales como leer un periódico, se vuelven difíciles, si no imposibles.
Hay varios dispositivos de asistencia a la visión en el mercado para ayudar a aquellos cuya capacidad de lectura se ve afectada por dificultades visuales. Sin embargo, un problema con los dispositivos actuales es que los dispositivos actuales requieren una configuración compleja antes de que se puedan utilizar. Además, el funcionamiento de los dispositivos de asistencia a la visión actuales puede ser problemático para una persona con discapacidad visual debido a la gran dependencia de los dispositivos de asistencia a la visión actuales sobre los controles digitales, tales como un pequeño teclado, un teclado, un ratón o una pantalla táctil. En consecuencia, todavía existe la necesidad de un dispositivo de asistencia a la visión que sea fácil de configurar y operar.
La solicitud de patente de EE.UU. 2008/0260210 describe un dispositivo de captura y presentación de texto. Permite la captura de texto de una variedad de fuentes y la transformación del mismo en diferentes formatos accesibles para su utilización.
La solicitud de patente de EE.UU. 2011/0194155 describe una cámara de documentos con almacenamiento temporal que permite el almacenamiento de varios conjuntos de datos de imágenes.
Resumen
La presente invención es según se reivindica en las reivindicaciones 1-10. Se describen dispositivos de asistencia a la visión e interfaces de usuario. En algunos aspectos, se proporciona un dispositivo de asistencia a la visión que incluye una carcasa que tiene una base para colocar la carcasa en una superficie; una o más unidades de obtención de imágenes dispuestas a lo largo de una parte superior de la carcasa, formando cada unidad de imagen un ángulo hacia abajo de modo que un eje central de la unidad de obtención de imágenes forme un ángulo agudo con la superficie de modo que la unidad de obtención de imágenes capture una imagen objetivo de un objeto objetivo; y un sistema de control alojado dentro de la carcasa, estando conectado el sistema de control a una o más unidades de obtención de imágenes para procesar la imagen objetivo capturada por cada unidad de obtención de imágenes y para emitir la imagen objetivo a un usuario.
En algunos aspectos, se proporciona un dispositivo de asistencia a la visión que incluye una carcasa que tiene una base para colocar la carcasa en una superficie; una o más unidades de obtención de imágenes configuradas para capturar una imagen objetivo de un objeto objetivo colocado, en esencia, perpendicular a la carcasa; una pantalla integrada con la carcasa; un sistema de control alojado dentro de la carcasa, estando conectado el sistema de control a las unidades de obtención de imágenes para procesar los datos correspondientes a la imagen capturada por las unidades de obtención de imágenes y para emitir la imagen objetivo a un usuario en la pantalla.
En algunos aspectos, se proporciona un método para proporcionar asistencia a la visión que incluye disponer una carcasa, en esencia, perpendicular a una superficie, incluyendo la carcasa una o más unidades de obtención de imágenes y un sistema de control; capturar con la una o más unidades de obtención de imágenes una imagen objetivo de un objeto objetivo colocado en la superficie adyacente a la carcasa; y procesar la imagen objetivo capturada y emitir la imagen objetivo en una pantalla integrada con la carcasa.
Descripción de los dibujos
Las formas de realización descritas actualmente se explicarán de forma adicional con referencia a los dibujos adjuntos. Los dibujos mostrados no están necesariamente a escala, sino que en general se hace hincapié en ilustrar los principios de las formas de realización descritas actualmente.
La FIG. 1 es una posible vista de una forma de realización de un dispositivo de asistencia a la visión de la presente descripción.
La FIG. 2 ilustra una forma de realización de un dispositivo de asistencia a la visión de la presente descripción colocado en una superficie para capturar una imagen de un objetivo.
La FIG. 3A, la FIG. 3B y la FIG. 3C ilustran una forma de realización de un dispositivo de asistencia a la visión de la presente descripción que tiene un cuello que puede deslizarse.
La FIG. 4, la FIG. 5, y la FIG. 6 ilustran un mecanismo de forma de realización para operar un cuello que puede deslizarse.
La FIG. 7 ilustra varias posiciones de unidades de obtención de imágenes sobre un objetivo mediante un dispositivo de asistencia a la visión de la presente descripción.
La FIG. 8 ilustra una forma de realización de un dispositivo de asistencia a la visión de la presente descripción con unidades de obtención de imágenes integradas.
La FIG. 9 y la FIG. 10 ilustran varias ubicaciones de unidades de obtención de imágenes con respecto a un objetivo.
La FIG. 11 ilustra una forma de realización de un sistema de control para controlar las funcionalidades de un dispositivo de asistencia a la visión de la presente descripción.
La FIG. 12 es una vista frontal de una forma de realización de un dispositivo de asistencia a la visión de la presente descripción que muestra diversas características de control del dispositivo de asistencia a la visión;
Aunque los dibujos identificados anteriormente describen las formas de realización descritas actualmente, también se contemplan otras formas de realización, según se indica en la descripción. Esta descripción presenta formas de realización ilustrativas a modo de representación y no de limitación. Los expertos en la técnica pueden idear otras numerosas modificaciones y formas de realización que caen dentro del alcance y espíritu de los principios de las formas de realización descritas actualmente.
Descripción detallada
La presente descripción proporciona dispositivos, sistemas de asistencia a la visión y métodos de utilización de dispositivos y sistemas de asistencia a la visión.
En referencia a la FIG. 1, un dispositivo de asistencia a la visión 100 de la presente descripción incluye una carcasa 42. La carcasa 42 se puede fabricar con partes diferentes integradas en una única unidad. La carcasa 42 puede incluir una región base 62 y una región superior 64 conectadas por una pared frontal 66, una pared posterior 68 y dos paredes laterales 70, 72. Las paredes de la carcasa 42 pueden ser continuas y, junto con la región base 62 y la región superior 64, definen un volumen interno para alojar en el mismo componentes eléctricos (no mostrados) para llevar a cabo las funcionalidades del dispositivo de asistencia a la visión 100, según se describe a continuación.
En referencia a la FIG. 2, la carcasa 42 puede ser independiente. En algunas formas de realización, la región base 62 de la carcasa 42 se puede diseñar para permitir que el dispositivo de asistencia a la visión 100 permanezca sin soporte o sin asistencia en una superficie 86 en funcionamiento. De esta manera, el dispositivo de asistencia a la visión 100 se puede colocar simplemente en una superficie 86, sin ninguna otra manipulación. En algunas formas de realización, la región base 62 de la carcasa 42 puede ser, en esencia, plana para permitir que el dispositivo de asistencia a la visión 100 permanezca sin asistencia en la superficie 86, en esencia, perpendicular a la superficie. De esta manera, se puede colocar un objetivo 88 con una imagen objetivo (texto, indicaciones, gráficos u otras imágenes) que el usuario necesita que el dispositivo de asistencia a la visión 100 capture del objetivo 88 en la superficie 86 adyacente al dispositivo de asistencia a la visión 100 para capturar las imágenes en el objeto de papel objetivo mediante el dispositivo de asistencia a la visión 100, y posteriormente comunicar las imágenes al usuario. En algunas formas de realización, el objetivo 88 se puede colocar de tal manera que un borde del objetivo esté a lo largo de la carcasa 42. La superficie del objetivo 88 en el que se sitúa la imagen es preferiblemente, en esencia, plana, sin embargo, también se pueden admitir otras formas. En algunas formas de realización, la carcasa 42 puede incluir un asa plegable o telescópica 43 para facilitar el transporte del dispositivo de asistencia a la visión 100.
En referencia a la FIG. 2, la carcasa 42 puede incluir varios puertos 52 para conectar los componentes eléctricos alojados dentro de la carcasa 42 a dispositivos externos y fuentes de energía. En algunas formas de realización, la carcasa 42 puede incluir uno o más puertos USB, VGA, HDMI, Ethernet y otros para conectar el dispositivo de asistencia a la visión 100 a un dispositivo externo, que incluye, entre otros, dispositivos de almacenamiento externo de datos, teléfonos, computadoras, altavoces, televisores, monitores, impresoras y dispositivos similares. La carcasa 42 puede incluir además una o más ranuras para la inserción de una tarjeta inteligente o tarjeta de memoria. Además, la carcasa 42 puede incluir interfaces inalámbricas, tales como WiFi o Bluetooth. La carcasa 42 también puede servir de soporte a varios botones de control para permitir que el usuario controle una o más funciones del dispositivo de asistencia a la visión 100, los cuales botones y funciones de control se describen en detalle a continuación.
En referencia a la FIG. 1 y la FIG. 2, el dispositivo de asistencia a la visión 100 puede incluir una o más unidades de obtención de imágenes 44 dispuestas en la región superior 64 de la carcasa 42. El número de unidades de obtención de imágenes puede variar dependiendo, por ejemplo, del tipo de unidades de obtención de imágenes empleadas o del tamaño o forma del objetivo 88. En algunas formas de realización, el dispositivo de asistencia a la visión 100 puede incluir una única unidad de obtención de imágenes. En otras formas de realización, el dispositivo de asistencia a la visión 100 puede incluir dos unidades de obtención de imágenes. En otras formas de realización más, el dispositivo de asistencia a la visión 100 puede incluir más de dos unidades de obtención de imágenes.
En algunas formas de realización, las unidades de obtención de imágenes 44 se pueden orientar generalmente hacia abajo (pero no necesariamente apuntadas hacia abajo) para poder capturar las imágenes del objetivo 88 colocado, en esencia, perpendicular al dispositivo de asistencia a la visión 100, que se coloca horizontalmente sobre la superficie 86 en la que se coloca el dispositivo de asistencia a la visión 100. En algunas formas de realización, las unidades de obtención de imágenes 44 se pueden orientar con respecto al objetivo 88, de modo que el eje de la lente objetivo de visualización de las unidades de obtención de imágenes 44 sea, en esencia, perpendicular a la superficie del objetivo 88. En otras formas de realización, las unidades de obtención de imágenes 44 se pueden orientar con respecto al objetivo 88 de modo que el eje de la lente objetivo de visualización de las unidades de obtención de imágenes 44 forme un ángulo agudo con respecto a la superficie 86. En algunas formas de realización, la unidad de obtención de imágenes 44 se orienta con el eje de la lente objetivo con un ángulo agudo con respecto a la superficie 86 y el lente objetivo se dirige hacia el centro o cerca del centro del objetivo 88 colocado en la superficie 86. En algunas formas de realización, las unidades de obtención de imágenes 44 pueden ser estacionarias. En otras formas de realización, el ángulo de las unidades de obtención de imágenes 44 se puede ajustar, lo que puede facilitar la captura de imágenes de un objeto objetivo colocado con diversos ángulos con respecto al dispositivo de asistencia a la visión 100. Las unidades de obtención de imágenes 44 pueden ser cualquier cámara, tal como CMOS, CCD o similar, que sea capaz de capturar imágenes fijas o videos. Las unidades de obtención de imágenes 44 se pueden, de forma independiente entre sí, autoenfocar, enfocar manualmente o pueden tener un enfoque fijo con una profundidad de enfoque suficiente. En algunas formas de realización, el enfoque de las unidades de obtención de imágenes 44 se puede controlar eléctricamente mediante el sistema de control. En algunas formas de realización, las unidades de obtención de imágenes 44 se pueden soportar por un cuello 32.
En referencia a la FIG. 3A, la FIG. 3B y la FIG. 3C, en algunas formas de realización, la una o más unidades de obtención de imágenes 44 se pueden disponer sobre un cuello que puede deslizarse, telescópico 32, que puede deslizarse dentro y fuera de la carcasa 42 a través de una abertura 28 en la carcasa 42. Cuando el cuello 32 está en su posición de abajo, las unidades de obtención de imágenes soportadas por el cuello 32 se pueden alojar dentro de la carcasa 42 para proteger las unidades de obtención de imágenes 44 de daños cuando, por ejemplo, se transporta el asistente a la visión 100. En funcionamiento, el cuello 32 se puede mover a su posición de arriba para sacar las unidades de obtención de imágenes 44 fuera de la carcasa 42 para permitir que las unidades de obtención de imágenes 44 capturen imágenes. Según se muestra en la FIG. 3A y la FIG. 3B, el cuello 32 se puede ajustar para colocar la unidad de obtención de imágenes 44 en una ubicación deseada con respecto al objeto objetivo del que se van a capturar las imágenes. En algunas formas de realización, según se muestra en la FIG. 3C, el cuello 32 puede estar lo suficientemente extendido para colocar la unidad de obtención de imágenes cerca o, en esencia, sobre una sección central del objeto objetivo para ser leída por el dispositivo de asistencia a la visión 100 para minimizar la distorsión de la imagen.
La FIG. 4, la FIG. 5 y la FIG. 6 presentan un mecanismo de ejemplo para mover el cuello 32 dentro y fuera de la carcasa 42. Un soporte 101a se puede disponer en una pared posterior 102 de la carcasa 42 para unir un extremo de un resorte (tal como un resorte de fuerza constante, no mostrado) a la carcasa 42, mientras que un soporte 101b puede estar en la parte inferior del cuello 32 para atar el otro extremo del resorte 109 al cuello 32. Cuando se activa, el resorte puede actuar para mover el cuello 32 desde la posición de abajo dentro de la carcasa 42 hasta la posición de arriba fuera de la carcasa 42. La pared posterior 102 de la carcasa 42 también puede soportar un reborde 106 con recortes tipo riel 107, que se configuran para aceptar los pasadores 104 y 105 que sobresalen del cuello 32. De esta manera, los recortes tipo riel 107 pueden guiar el movimiento del cuello 32 hacia adelante y hacia atrás entre la posición de abajo y la posición de arriba. Adicional o alternativamente, los engranajes 108 correspondientes se pueden proporcionar en la pared posterior 102 de la carcasa 42 y el cuello 32 para controlar el movimiento del cuello 32 hacia adelante y hacia atrás entre la posición de abajo y la posición de arriba, y viceversa. Según se muestra en la FIG. 5, en algunas formas de realización, un cierre tipo "push-push" 103 se puede unir a la parte inferior del cuello 32. Cuando está bloqueado (enganchado), el cierre tipo "push-push" 103 puede bloquear el cuello 32 en la posición de abajo mientras el resorte tira (pero no mueve) del cuello 32 hacia arriba. Para extender el cuello 32 fuera de la carcasa 42, el usuario puede presionar el cuello 32 hacia abajo, desenganchando el cierre tipo "push-push" 32 y permitiendo que el resorte extienda el cuello fuera de la carcasa 42. Para plegar el cuello desde la posición de arriba, el usuario puede empujar el cuello hacia abajo 32 hasta que el cierre tipo "push-push" 103 bloquee el cuello 32 en la posición de abajo.
En referencia a la FIG. 7, según se describió anteriormente, un cuello telescópico 32 permite la colocación de las unidades de obtención de imágenes 44 lejos de la carcasa 42, cerca del centro del objetivo 88. En algunas formas de realización, el cuello 32 puede colocar la unidad de obtención de imágenes 44 a una distancia deseada entre la carcasa 42 y el centro del objetivo 88. En algunas formas de realización, el cuello 32 puede colocar la unidad de obtención de imágenes 44, en esencia, sobre el centro del objetivo 88. Alternativa o adicionalmente, el dispositivo de asistencia a la visión 100 puede incluir una o más unidades de obtención de imágenes 44 integradas con la carcasa 42. De esta manera, las unidades de obtención de imágenes 44 se pueden colocar entre una línea central 85 del objetivo 88 y un borde 87 del objetivo 88. En algunas formas de realización, las unidades de obtención de imágenes 44 se pueden colocar, en esencia, sobre y alineadas con el borde 87 del objetivo 88 colocado en la superficie 86 adyacente a la región base 62 de la carcasa 42. En algunas formas de realización, las unidades de obtención de imágenes 44 se pueden disponer, en esencia, a lo largo de la pared 41 de la carcasa 42. Según se indicó anteriormente, las unidades de obtención de imágenes 44 se pueden colocar con varios ángulos con respecto al objetivo 88. En algunas formas de realización, cuando la unidad de obtención de imágenes se coloca sobre el centro del objetivo 88, la unidad de obtención de imágenes 44 puede necesitar ser dirigida directamente hacia el objetivo 88, es decir, con el eje de la lente objetivo, en esencia, perpendicular a la superficie 86 y el objetivo 88. Sin embargo, en algunas formas de realización, cuando las unidades de obtención de imágenes 44 se integran con la carcasa, el eje de la lente objetivo de las unidades de obtención de imágenes integradas puede formar un ángulo agudo o un ángulo inferior a 90° con respecto a una superficie horizontal, en esencia, perpendicular a la carcasa 42, tal que por ejemplo, la superficie 86 o la superficie del objetivo 88 del cual se captura la imagen, en los casos en que dicha superficie del objetivo es generalmente plana y, en esencia, paralela a la superficie 88. En algunas formas de realización, el eje de la lente objetivo de las unidades de obtención de imágenes integradas puede formar un ángulo entre aproximadamente 5° y aproximadamente 50° con respecto a la superficie 86 o al objetivo 88. En algunas formas de realización, el eje de la lente objetivo de las unidades de obtención de imágenes integradas puede formar un ángulo entre aproximadamente 10° y aproximadamente 30° con respecto a la superficie 86 o al objetivo 88. En algunas formas de realización, el eje de la lente objetivo de las unidades de obtención de imágenes integradas puede formar un ángulo entre aproximadamente 15° y aproximadamente 20° con respecto a la superficie 86 o al objetivo 88. En algunas formas de realización, el eje de la lente objetivo se puede colocar paralelo a la superficie 86.
En algunas formas de realización, las unidades de obtención de imágenes 44 se pueden colocar en una ubicación fija en la región superior 64 de la carcasa 42. Por ejemplo, el dispositivo de asistencia a la visión 100 puede incluir una única unidad de obtención de imágenes 44, que se puede colocar en el lado frontal de la carcasa 42, en esencia, a lo largo de una línea central de la carcasa 42.
En referencia a la FIG. 8, en algunas formas de realización, el dispositivo de asistencia a la visión 100 puede incluir dos unidades de obtención de imágenes 44a y 44b. Las unidades de obtención de imágenes 44a y 44b se pueden colocar a lo largo de la región superior 64 de la carcasa 42 y se pueden separar de las paredes laterales de la carcasa 42 y separar entre sí. Según se muestra en la FIG. 10, cada una de las unidades de obtención de imágenes 44a, 44b, que puede comprender un detector y una lente objetivo, se puede orientar hacia abajo de modo que su área de visualización respectiva sea una parte respectiva del objetivo 88 para capturar una imagen de esa parte del objetivo 88, y las imágenes de las respectivas partes capturadas por las unidades de obtención de imágenes 44a, 44b se pueden combinar posteriormente, tal como cosiéndolas juntas, mediante el sistema de control, según se describirá a continuación. Por ejemplo, en formas de realización que emplean dos unidades de obtención de imágenes, cada unidad de obtención de imágenes puede ser responsable de algo más de la mitad del objetivo 88 para permitir que las imágenes capturadas se superpongan para la costura posterior por el sistema de control. La posición exacta de las unidades de obtención de imágenes 44a y 44b a lo largo de la región superior 64 de la carcasa 42 puede depender de la resolución y el campo de visión de las unidades de obtención de imágenes 44a y 44b. En algunas formas de realización, cada unidad de obtención de imágenes 44a y 44b puede estar cubriendo un poco más de la mitad del área total del objetivo 88. Debido a que en las formas de realización con múltiples unidades de obtención de imágenes, cada una de las unidades de obtención de imágenes 44a, 44b solo necesita cubrir un poco más de la mitad del área total del objetivo 88, la resolución combinada de dicho sistema es casi el doble (con el descuento por el solapamiento) que la resolución en comparación con un sistema similar con una sola unidad de obtención de imágenes 44 que cubra el área total del objetivo 88. En consecuencia, cuanto mayor sea el número de unidades de obtención de imágenes, se pueden emplear unidades de obtención de imágenes de menor resolución.
En referencia a la FIG. 9, en general, las unidades de obtención de imágenes 44a y 44b se pueden colocar de manera que los campos de visión 111 y 112 de las unidades de obtención de imágenes 44a y 44b, respectivamente, se extiendan más allá de los bordes externos del objetivo 88 mientras proporcionan un solapamiento 113 en el medio del objetivo 88. El solapamiento 113 entre los campos de visión 111, 112 debería ser suficiente para que el sistema de control alinee y cosa juntas las imágenes capturadas mediante las unidades de obtención de imágenes 44a, 44b. El área de solapamiento 113 puede incluir un número suficiente de características para permitir que el sistema de control reconstruya por completo la imagen combinada de las unidades de obtención de imágenes 44a, 44b. Si el área de solapamiento 113 tiene un número suficiente de características, se puede realizar el proceso de combinar imágenes de las unidades de obtención de imágenes 44a y 44b. La extensión del área de solapamiento 113 también se puede ajustar dependiendo del grosor del objetivo 88 o del rango de grosor del objetivo 88. Por ejemplo, a medida que aumenta el grosor del objetivo 88, el ancho del área de solapamiento 113 se puede disminuir. Se debe indicar que el dispositivo de asistencia a la visión 100 puede emplear más de dos unidades de obtención de imágenes.
La FIG. 10 ilustra una unidad de obtención de imágenes 44 orientada hacia abajo que tiene una lente objetivo 145 y un detector 144. El lente objetivo 145 se orienta generalmente hacia abajo para capturar una imagen del objetivo 88 colocado, en esencia, perpendicular al dispositivo de asistencia a la visión en la superficie, que también soporta el dispositivo de asistencia a la visión 100. La lente objetivo 145 tiene un eje central o un eje de lente objetivo 147 que pasa, en esencia, a través de un centro de la lente objetivo 145. El eje central o eje de la lente objetivo 147 forma un ángulo 148 con respecto a la superficie 86 o al objetivo 88. Según se indicó anteriormente, en algunas formas de realización, el ángulo 148 es un ángulo agudo. La unidad de obtención de imágenes 44 tiene un campo de visión (FOV) 146 que cubre el objetivo 88, y potencialmente también cubre un margen adicional para, por ejemplo, tiene en cuenta el posicionamiento inexacto del objetivo o el tamaño no estándar del objetivo. Para obtener un FOV deseable, se tienen en cuenta el ángulo de visión de la unidad de obtención de imágenes, su distancia del objetivo y su ángulo. La distancia de las unidades de obtención de imágenes 44 desde la superficie 86 y un ángulo del eje de las unidades de obtención de imágenes al plano horizontal, en esencia, perpendicular a la carcasa (por ejemplo, la superficie 86) puede ser una función del ángulo de visión (A) de las unidades de obtención de imágenes 44, el tamaño del objetivo 88 y el número de unidades de obtención de imágenes utilizadas. Tanto la distancia como el ángulo del eje de la lente objetivo se pueden ajustar para obtener el máximo rendimiento. Por ejemplo, disminuir el ángulo del eje puede mejorar la resolución efectiva. Como resultado, el eje de la lente objetivo no está en la línea central del objetivo, sino que está más cerca del borde que está más cerca de la unidad de obtención de imágenes. A modo de ejemplo no limitativo, cuando se emplean dos unidades de obtención de imágenes 44a, 44b, las dos unidades de obtención de imágenes 44a y 44b con un ángulo de visión de 60° se pueden colocar aproximadamente a 9,3 pulgadas por encima de la superficie con un ángulo de aproximadamente 17,6°, y separarse 5,25 pulgadas entre sí para cubrir un objetivo de tamaño carta con suficiente solapamiento.
En referencia a la FIG. 11, el dispositivo de asistencia a la visión 100 también puede incluir un sistema de control 120 para controlar diversas funcionalidades del dispositivo de asistencia a la visión 100. En algunas formas de realización, el sistema de control 120 puede recibir datos de las unidades de obtención de imágenes correspondientes a la imagen capturada, procesar los datos y emitir los datos al usuario. En algunas formas de realización, la imagen capturada del objeto objetivo 88 se puede mostrar en un formato ampliado en modo de video (CCTV), mostrando la imagen capturada ampliada. En este modo, se pueden utilizar tanto varias unidades de obtención de imágenes como una única unidad de obtención de imágenes de varias unidades de obtención de imágenes. En algunas formas de realización, especialmente cuando la imagen incluye una parte de texto, la imagen capturada se puede segmentar en texto y gráficos. La parte del texto se puede procesar a continuación, según sea necesario, tal como para reducir el desenfoque, el sesgo y la distorsión, para preparar el texto para el reconocimiento óptico de caracteres (OCR). Al aplicar OCR, el texto se puede emitir de una forma visual en una pantalla 20. Según se muestra en, por ejemplo, la FIG. 9, en algunas formas de realización, la pantalla 20 se puede integrar en la carcasa 42 del dispositivo de asistencia a la visión 100. Adicional o alternativamente, se puede emplear una pantalla externa. En algunas formas de realización, el sistema de control 120 puede incluir capacidades de conversión de texto a voz para permitir que el dispositivo de asistencia a la visión 100 lea el texto reconocido al usuario a través de un altavoz en la carcasa 42. Para entregar la salida de audio, el dispositivo de asistencia a la visión 100 puede incluir altavoces 26.
En las formas de realización con varias unidades de obtención de imágenes, el sistema de control 120 también puede coser las imágenes capturadas por varias unidades de obtención de imágenes antes de que la imagen se pueda analizar. Se pueden utilizar diversos softwares para coser imágenes. En general, en algunas formas de realización, el proceso de cosido de imágenes mediante el sistema de control 120 se puede dividir en tres componentes principales: 1) registro de imágenes, 2) calibración y 3) mezcla. El registro de imágenes puede involucrar características coincidentes en un conjunto de imágenes. El sistema de control 120 puede realizar OCR de varias imágenes capturadas mediante varias unidades de obtención de imágenes y determinar la posición de las líneas en cada imagen. A continuación, en función de la calibración, el procesamiento 120 puede determinar qué líneas en las varias imágenes se pueden hacer coincidir o solaparse. En función de los datos de solapamiento, el sistema de control 120 puede construir las líneas que se intersecan en el área de solapamiento, reconstruyendo de este modo la imagen original a partir de varias imágenes capturadas. El sistema de control 120 también puede emplear métodos de alineación directa para buscar alineaciones de imágenes que minimicen la suma de las diferencias absolutas entre los píxeles solapados. Cuando se utilizan métodos de alineación directa, el sistema de control 120 podría calibrar primero las imágenes para obtener mejores resultados.
La calibración de la imagen tiene como objetivo minimizar las diferencias entre una combinación de modelos de lentes objetivo de cámara ideales y la lente objetivo de la unidad de obtención de imágenes que se utilizó, así como los defectos y las distorsiones ópticas. También tiene como objetivo compensar la colocación imperfecta de la lente objetivo. Debido a las tolerancias en la carcasa de la lente objetivo, así como de la región superior 64 de la carcasa 42, el ángulo del eje de la lente objetivo y el mismo ángulo en otro plano vertical pueden tener tolerancias. Si se utilizaron métodos de detección de características para registrar imágenes y se registraron y guardaron posiciones absolutas de las características, el software de costura puede utilizar los datos para la optimización geométrica de las imágenes. La mezcla de imágenes puede implicar la ejecución de los ajustes calculados en la etapa de calibración, combinados con la reasignación de las imágenes a una proyección de salida. Los colores se pueden ajustar entre imágenes para compensar las diferencias de exposición.
En algunas formas de realización, se puede utilizar el sistema de control 120 para calibrar varias unidades de obtención de imágenes. A modo de ejemplo no limitativo, se pueden calibrar varias unidades de obtención de imágenes utilizando el patrón del tablero de ajedrez. El patrón del tablero de ajedrez se puede imprimir en un papel de un tamaño mayor que el campo de visión (FOV) combinado de las unidades de obtención de imágenes. El patrón puede comenzar en el borde del área objetivo. El patrón del tablero de ajedrez es fácilmente identificable por las unidades de obtención de imágenes y también puede tener un punto fácilmente identificable que se sitúa en el medio del área objetivo. La realización de la calibración puede permitir que el sistema de control 120 determine, entre otras cosas, la posición exacta del centro del área objetivo en cada unidad de obtención de imágenes, los límites exactos del área objetivo y el solapamiento exacto de las unidades de obtención de imágenes. El sistema de control puede utilizar estos datos para facilitar el proceso de costura.
En algunas formas de realización, las imágenes capturadas con una única unidad de obtención de imágenes también pueden necesitar ser cosidas. Por ejemplo, diferentes partes de la imagen capturada se sitúan a diferentes distancias de la unidad de obtención de imágenes. La diferencia de distancia puede ser lo suficientemente grande como para requerir el enfoque de las unidades de obtención de imágenes 44 en estas partes de la imagen capturada por separado y capturar imágenes diferentes para obtener una imagen suficientemente nítida de la totalidad del área objetivo al coser imágenes de partes del objeto situadas a diferentes distancias. Dichas tomas múltiples se pueden tomar sin girar las unidades de obtención de imágenes o el dispositivo de asistencia a la visión 100. Más bien, las unidades de obtención de imágenes pueden capturar varias imágenes del mismo FOV para tener diferentes partes del FOV de las unidades de obtención de imágenes enfocadas por separado, con el ajuste de enfoque apropiado de una toma a otra, que se puede controlar mediante el sistema de control 120. La necesidad de capturar imágenes distintas de partes diferentes del FOV de una unidad de obtención de imágenes y luego coserlas puede depender de dicha geometría del FOV y de la forma del objetivo.
A modo de ejemplo no limitativo, se puede utilizar una unidad de obtención de imágenes para capturar una imagen de una página plana, tal como un objeto de papel plano colocado en una superficie de escritorio plana. La unidad de obtención de imágenes se puede fijar en el espacio, de modo que se sepa que la distancia desde la unidad de obtención de imágenes a la página se convierte en una función de la ubicación del píxel. La distancia puede variar de una parte del FOV a otra. Por esta razón, la profundidad focal de la unidad de obtención de imágenes puede ser insuficiente para obtener imágenes de la totalidad de la página con la suficiente nitidez en una única toma. Si es así, se puede obtener la imagen de una parte proximal de la página con la unidad de obtención de imágenes enfocada en ella, y, por separado, se puede obtener la imagen de una parte distante de la página por separado de acuerdo con su propia distancia de la unidad de obtención de imágenes. Por lo tanto, las dos imágenes son capturadas por separado por una única unidad de obtención de imágenes y a continuación cosidas mediante el sistema de control. Se pueden capturar y coser más de dos imágenes de manera similar. Cuando la unidad de obtención de imágenes se integra con la carcasa como, por ejemplo, se muestra en la FIG. 8 y la FIG. 9, puede haber más variación en la distancia entre la unidad de obtención de imágenes y diferentes partes del objetivo 88. Por consiguiente, en algunas formas de realización, el proceso para coser imágenes desde una única unidad de obtención de imágenes 44 se puede utilizar para preparar una imagen de la calidad deseada antes de coser imágenes de varias unidades de obtención de imágenes juntas. Además, incluso en el caso del dispositivo con una única unidad de obtención de imágenes 44 adyacente o sobre la línea central 85, la distancia entre la unidad de obtención de imágenes y el centro del objetivo puede ser menor que la distancia entre la unidad de obtención de imágenes y las esquinas.
En algunas formas de realización, el sistema de control 120 se puede programar para seleccionar enfoque múltiple. El sistema de control 120 se puede programar para analizar la distribución de la distancia de la unidad de obtención de imágenes al objeto dentro del FOV. En consecuencia, el sistema de control 120 puede dar una orden para tomar tanto una única toma como varias tomas del FOV, siendo ajustado el foco de la unidad de obtención de imágenes a la distancia en cada dirección seleccionada para la obtención de la imagen. El sistema de control 120 también puede seleccionar el número de dichas tomas, sus distancias focales y las formas y tamaños correspondientes de las áreas del FOV que se coserán al capturar sus imágenes. Dicha selección por el sistema de control 120 puede tener en cuenta la geometría inherente conocida del dispositivo de asistencia a la visión de pie sobre un escritorio plano. La distancia de enfoque se puede medir hacia al menos un punto en el objeto. Para un objeto tal como una pila de páginas, se puede tener en cuenta tanto la geometría conocida inherente como posiblemente al menos una medición de distancia focal. El sistema de control 120 se puede programar de modo que el sistema de control 120 pueda encontrar la posición focal óptima para una región predefinida del objetivo, y a continuación asume que la diferencia entre las posiciones focales entre diferentes regiones es conocida.
Con referencia de nuevo a la FIG. 11, el sistema de control 120 puede incluir un procesador 121 acoplado a diversos componentes del sistema mediante un bus del sistema 110. Los componentes del sistema pueden incluir la memoria del sistema, tal como memoria de solo lectura (ROM) 140 y memoria de acceso aleatorio (RAM) 150 al sistema de control 120. Otra memoria del sistema 130 puede estar disponible para su utilización también. El bus del sistema 110 puede ser cualquiera de los varios tipos de estructuras de bus, incluyendo un bus de memoria o controlador de memoria, un bus periférico y un bus local que utilice cualquiera de una variedad de arquitecturas de bus. Un sistema básico de entrada/salida (BIOS) almacenado en la ROM 140 o similar, puede proporcionar la rutina básica que ayude a transferir información entre elementos dentro del dispositivo informático 100, tal como durante el inicio. El sistema de control 120 puede incluir además dispositivos de almacenamiento tales como una unidad de disco duro 160, un almacenamiento de estado sólido, una unidad de disco magnético, una unidad de disco óptico, una unidad de cinta o similares. El dispositivo de almacenamiento 160 se conecta al bus del sistema 110 mediante una interfaz de transmisión. Las unidades y los medios legibles por computadora asociados proporcionan almacenamiento no volátil de instrucciones legibles por computadora, estructuras de datos, módulos de programa y otros datos para el sistema de control 120.
Cualquier número de mecanismos de entrada 190, unidades externas, dispositivos conectados a puertos, dispositivos USB, tales como un micrófono para voz, una pantalla táctil para entrada de gestos o gráficos, un teclado, botones, una unidad de obtención de imágenes, un ratón, una entrada de movimiento, voz, etc., se puede conectar al sistema de control 120. El dispositivo de salida 170 puede ser uno o más de una serie de mecanismos de salida conocidos por los expertos en la técnica, por ejemplo, impresoras, monitores, proyectores, altavoces y trazadores.
En diversas formas de realización, los sistemas multimodales permiten a un usuario proporcionar varios tipos de entrada para comunicarse con el sistema de control 120. La interfaz de comunicaciones 180 generalmente puede gobernar y gestionar la entrada y la salida del sistema.
Se debe indicar que el sistema de control 120 se ilustra como que comprende bloques funcionales individuales (incluyendo bloques funcionales etiquetados como un "procesador"). Las funciones que representan estos bloques se pueden proporcionar mediante la utilización de hardware compartido o dedicado, incluyendo, entre otros, hardware capaz de ejecutar software. Por ejemplo, las funciones de uno o más procesadores se pueden proporcionar por un único procesador compartido o varios procesadores. (La utilización del término "procesador" no se debe interpretar para referirse exclusivamente a hardware capaz de ejecutar software). Las formas de realización ilustrativas pueden comprender hardware de microprocesadores y/o procesadores de señal digital (DSP), memoria de solo lectura (ROM) para almacenar software que realice las operaciones descritas a continuación y memoria de acceso aleatorio (RAM) para almacenar resultados. También se pueden proporcionar formas de realización de hardware de integración a muy gran escala (VLSI), así como circuitos personalizados VLSI o FPGA en combinación con un circuito DSP de propósito general.
Las formas de realización dentro del alcance de la presente descripción también pueden incluir medios legibles por computadora para transportar o tener instrucciones ejecutables por computadora o estructuras de datos almacenadas en los mismos. Dichos medios legibles por computadora pueden ser cualquier medio disponible al que pueda acceder una computadora de propósito general o de propósito especial. A modo de ejemplo, y sin limitación, dichos medios legibles por computadora pueden comprender RAM, r Om , EEPROM, CD-Ro M u otro almacenamiento en disco óptico, almacenamiento en disco magnético, estado sólido u otros dispositivos de almacenamiento, o cualquier otro medio que se pueda utilizar para transportar o almacenar los recursos de código de programa deseados en forma de instrucciones ejecutables por computadora o estructuras de datos. Cuando la información se transfiere o se proporciona a través de una red u otra conexión de comunicaciones (ya sea cableada, inalámbrica o una combinación de las mismas) a una computadora, la computadora ve correctamente la conexión como un medio legible por computadora. Por lo tanto, cualquier conexión de este tipo se denomina correctamente un medio legible por computadora. Las combinaciones de lo anterior también se deben incluir dentro del alcance de los medios legibles por computadora.
Las instrucciones ejecutables por computadora incluyen, por ejemplo, instrucciones y datos que hacen que una computadora de propósito general, computadora de propósito especial o dispositivo de procesamiento de propósito especial realice una determinada función o grupo de funciones. Las instrucciones ejecutables por computadora también incluyen módulos de programa que se ejecutan por computadoras en entornos independientes o de red. En general, los módulos de programa incluyen rutinas, programas, objetos, componentes y estructuras de datos, etc., que realizan tareas particulares o implementan tipos particulares de datos abstractos. Las instrucciones ejecutables por computadora, las estructuras de datos asociadas y los módulos de programa representan ejemplos de los recursos de código de programa para ejecutar las etapas de los métodos descritos en la presente memoria. La secuencia particular de dichas instrucciones ejecutables o estructuras de datos asociadas representa ejemplos de actos correspondientes para implementar las funciones descritas en dichas etapas.
En referencia a la FIG. 12, en algunas formas de realización, el dispositivo de asistencia a la visión 100 puede incluir una o más fuentes de luz 200 adyacentes a las unidades de obtención de imágenes 44 para iluminar el objetivo 88. En algunas formas de realización, la fuente de luz puede incluir uno o más diodos emisores de luz (LED). En algunas formas de realización, las fuentes de luz 200 se pueden separar de las unidades de obtención de imágenes 44 y se pueden compartir por las unidades de obtención de imágenes 44.
El dispositivo de asistencia a la visión 100 también puede incluir una unidad de obtención de imágenes 202 orientada hacia el usuario, que se puede utilizar para obtener imágenes del usuario para fines tales como videotelefonía. La unidad de obtención de imágenes 202 orientada hacia el usuario se puede configurar para que se oriente hacia el usuario sentado frente al dispositivo de asistencia a la visión 100. Por supuesto, se debe entender que la unidad de obtención de imágenes 202 orientada hacia el usuario puede obtener imágenes de cualquier otro objeto, por ejemplo, puede servir para vigilancia. Se puede proporcionar un interruptor para activar la unidad de obtención de imágenes 202 orientada hacia el usuario, mientras se desactivan otras unidades de captura de imágenes 44. El interruptor puede informar al sistema de control 120 que a continuación puede cambiar la actividad entre la unidad de obtención de imágenes 30 orientada hacia el usuario y las otras unidades de obtención de imágenes 44, y opcionalmente encender una luz indicadora para permitir que el usuario sepa qué unidad de obtención de imágenes está activa, si la hay. En algunas formas de realización, un interruptor de este tipo se puede activar de forma alternativa mediante un acelerómetro que detecta el ángulo entre el cuello 32 y el plano horizontal. Opcionalmente, un interruptor de este tipo no desactiva ninguna unidad de obtención de imágenes, sino que selecciona cuál de las unidades de obtención de imágenes, si hay alguna, envía su imagen para que sea mostrada al usuario. Se pueden utilizar varios interruptores.
El dispositivo de asistencia a la visión 100 puede incluir además uno o más controles analógicos. Por ejemplo, el dispositivo de asistencia a la visión 100 puede incluir una o más ruedas 204, 206 para controlar, seleccionar, activar o desactivar diversas funcionalidades del dispositivo de asistencia a la visión 100. Cuando el usuario gira una o más ruedas 204, 206, el sistema de control 120 observa en qué dirección y en cuántos grados giran la una o más ruedas 204, 206, el sistema de control 120 traduce la rotación de la una o más ruedas 204, 206 en diversas funciones. Los ejemplos de dichas funciones incluyen, entre otras, desplazar la imagen o el texto hacia arriba/abajo en la pantalla 20, de una manera de una página hacia abajo y hacia arriba o una línea hacia arriba y hacia abajo; moverse entre los elementos del menú, desplazarse por el directorio de teléfonos o la libreta de direcciones a otro, desplazarse por la imagen (por ejemplo, la rueda 204 realiza el desplazamiento vertical mientras que la rueda 206 realiza el desplazamiento horizontal), acercar y alejar la imagen, controlar la velocidad de lectura, fijar el tamaño de fuente y funciones similares. En algunas formas de realización, a medida que el usuario gira la una o más ruedas 204, 206, el icono o las imágenes en las que se puede hacer clic se resaltan en la pantalla 20 para su selección por parte del usuario.
Otros controles analógicos del dispositivo de asistencia a la visión 100 pueden incluir varios botones 208, 210, 212, 214, 216 y 218 para controlar las funcionalidades del dispositivo de asistencia a la visión. El sistema de control 120 mediante su software, asigna (define la designación de) varias funciones a los botones 208, 210, 212, 214, 216 y 218. A modo de ejemplo no limitativo, los botones 208 y 210 pueden tener asignada una función de selección para seleccionar elementos de un menú. Los botones 212, 214, 216 y 218 se pueden situar en la superficie superior de la carcasa 42 de la visión. Estos botones pueden ser funciones tales como control de volumen (algunos de los botones pueden ser perillas giratorias) de salida de voz/habla (audio), control de velocidad de salida de voz/habla (audio), captura instantánea, cambio de modo, control de aumento, brillo, contraste. El dispositivo de asistencia a la visión 100 puede incluir además un botón de encendido/apagado 220.
En algunas formas de realización, según se indicó anteriormente, se pueden utilizar una o más ruedas 204, 206 para desplazarse a través de la imagen para seleccionar una parte del texto, mediante la rueda o utilizando uno de los botones, que a continuación se puede acercar o alejar a un tamaño deseado, por ejemplo, utilizando la otra rueda 204, 206. En algunas formas de realización, se pueden utilizar botones para solicitar al sistema de control 120 que proporcione al usuario una salida de audio de la parte seleccionada.
Según se indicó anteriormente, el sistema de control 120 del dispositivo de asistencia a la visión 100 puede permitir que el dispositivo de asistencia a la visión 100 tenga diversas funcionalidades. A continuación se incluye una descripción de algunos ejemplos de las funcionalidades que se pueden incluir en el dispositivo de asistencia a la visión de la presente descripción. El dispositivo de asistencia a la visión 100 puede incluir una o más de las funcionalidades descritas a continuación, así como funcionalidades adicionales incluidas normalmente en dispositivos similares.
En algunas formas de realización, el dispositivo de asistencia a la visión 100 de la presente descripción puede tener la capacidad de conectarse a Internet mediante una conexión por cable o inalámbrica, para navegar por sitios web, enviar correos electrónicos y proporcionar servicios personalizados tales como noticias personalizadas, pronóstico del tiempo, condiciones del tráfico, hacer llamadas de emergencia médicas o policiales con solo presionar un botón de forma remota desde otras habitaciones utilizando WiFi, por ejemplo, con un brazalete, etc. La actividad de Internet puede ser similar a la del público en general, mientras que su control por parte del usuario se realiza preferiblemente por medio de medios mecánicos percibidos, tales como grandes botones, controles deslizantes, ruedas giratorias y perillas, por ejemplo, desplazándose hacia arriba y hacia abajo por la lista de sitios web, canales de TV, películas o contactos de correo electrónico favoritos del usuario. Los iconos y/o las imágenes en las que se puede hacer clic en la pantalla 20 se pueden resaltar, una por una, girando las ruedas 204 y/o 206. A continuación se puede hacer clic en una imagen resaltada presionando un botón. Un botón de este tipo puede ser uno de los botones 208 y 210 situados anteriormente cerca de las ruedas 204 y/o 206. El correo electrónico se puede hacer por escrito por medio del reconocimiento de voz (conversión de voz a texto ya sea mediante el dispositivo de asistencia a la visión 100 o mediante el servidor) y/o enviando mensajes de voz.
En algunas formas de realización, el dispositivo de asistencia a la visión 100 de la presente descripción puede tener capacidad para conectarse a un servidor dedicado para recibir servicios web personalizados. Los servicios se pueden personalizar, por ejemplo, cuando el dispositivo de asistencia a la visión 100 se conecta a un servidor designado para proporcionar servicios a esta clase de dispositivo de asistencia a la visión 100. El servidor puede saber (a partir de un código proporcionado por el dispositivo de asistencia a la visión 100 al servidor, tal como el número de serie del dispositivo de asistencia a la visión 100) qué información proporcionar al usuario del dispositivo de asistencia a la visión 100. Por ejemplo, el servidor puede proporcionar el pronóstico del tiempo en función de la residencia del usuario. Del mismo modo, si el usuario está interesado en el horario de trenes o autobuses, el servidor puede proporcionar dicha información en función de la ubicación del usuario. En algunas formas de realización, el servidor puede almacenar imágenes tomadas por el dispositivo de asistencia a la visión 100 y ponerlas a disposición de personas designadas, tales como familiares del usuario, cuidadores o médicos. Por ejemplo, las imágenes pueden ser del usuario, capturadas por la unidad de obtención de imágenes 202 orientada al usuario, o de un documento, capturado por la unidad de obtención de imágenes 44. En algunas formas de realización, la navegación por Internet y/o la navegación dentro de un servidor dedicado al dispositivo de asistencia a la visión 100 se puede realizar por el usuario sin ningún teclado, ratón o la pantalla táctil. Por el contrario, el usuario puede utilizar controles mecánicos percibidos tales como los botones y las ruedas descritas anteriormente.
En algunas formas de realización, los tipos de servicio proporcionados por el servidor también se pueden personalizar, ya que el servidor designado identifica al usuario. Por ejemplo, el usuario puede tener una lista personalizada de películas y/o canales de TV para ver en el dispositivo de asistencia a la visión 100 por medio de Internet. El usuario puede optar por colocar información médica personal específica en el servidor para que la vean solo personas seleccionadas. La escritura del correo electrónico se puede realizar por medio del reconocimiento de voz (conversión de voz a texto ya sea mediante el dispositivo de asistencia a la visión 100 o mediante el servidor) y/o mediante el envío de mensajes de voz.
En algunas formas de realización, el dispositivo de asistencia a la visión 100 se puede configurar para emitir información en un formato simplificado. Por ejemplo, los pasajes largos de texto no relacionados con imágenes y frases sobre la que se pueda hacer clic se pueden reducir o eliminar. También o de forma alternativa, el texto de fuente pequeña se puede reducir o eliminar.
En algunas formas de realización, el dispositivo de asistencia a la visión 100 puede incluir un micrófono y capacidades de grabación para permitir que el usuario grabe recordatorios para sí mismo u otros, u otros mensajes. Se pueden incluir opciones de reproducción para que el usuario recupere los mensajes grabados.
En algunas formas de realización, el dispositivo de asistencia a la visión 100 de la presente descripción puede tener la capacidad de conectarse a una línea telefónica. De esta manera, el dispositivo de asistencia a la visión 100 se puede utilizar como un fax y proporcionar servicios personalizados tales como noticias personalizadas, pronóstico del tiempo, condiciones del tráfico, hacer llamadas de emergencia médicas o policiales con solo presionar un botón desde otras habitaciones utilizando Wi-Fi, por ejemplo utilizando un brazalete, etc. Dichos servicios se pueden personalizar de manera similar a los servicios de Internet descritos anteriormente. Una línea telefónica sin acceso a Internet de banda ancha puede proporcionar un acceso a Internet mediante la anticuada línea conmutada, incluso aunque el usuario no se de cuenta de cómo el dispositivo de asistencia a la visión 100 está accediendo a Internet.
En algunas formas de realización, el dispositivo de asistencia a la visión 100 puede servir para propósitos de vigilancia, ya sea video, imagen fija o audio. Para la vigilancia, tal como para los propósitos contra robos o alarmas de intrusión, el sistema de control 120 se puede equipar con un software capaz de distinguir entre imágenes (ya sea de video o fijas) de humanos de aquellas de animales, tales como perros, conejos, gatos, venados, coyotes, etc. El cambio a cualquiera de estos modos o a una combinación de los mismos se puede hacer tirando, empujando, deslizando o girando una gran unidad de control según se describe. Se pueden utilizar movimientos mecánicos similares para la personalización del dispositivo de asistencia a la visión 100, en otras palabras, para fijar los modos, aplicaciones u otras configuraciones disponibles en este dispositivo de asistencia a la visión 100. De esta manera, los controles analógicos percibidos se pueden utilizar para configurar el dispositivo de asistencia a la visión 100, no solo para utilizarlo. En algunas formas de realización, al detectar un evento de alarma, el dispositivo de asistencia a la visión 100 puede notificarlo al usuario, departamento de policía local o una compañía de seguridad, teléfono, correo electrónico, SMS o cualquier otro medio.
En algunas formas de realización, el dispositivo de asistencia a la visión 100 se puede programar para recordarle al usuario que tome medicaciones o tome otras acciones, posiblemente a diario. Para este propósito, el dispositivo de asistencia a la visión 100 puede incluir un calendario y un reloj, así como un programa de administración de medicación en el sistema de control 120. El programa de calendario puede producir señales de audio o visuales en el momento de la pastilla para que el usuario sepa cuándo tomar una medicación. Esta función es similar a un reloj despertador. La señal del momento de la pastilla puede ir acompañada de información, tal como texto o voz.
En algunas formas de realización, la señal del momento de la pastilla también puede ir a un cuidador, por teléfono, correo electrónico, SMS o cualquier otro medio. El cuidador puede entonces ayudar al usuario del dispositivo de asistencia a la visión 100 a seleccionar la medicación adecuada y aconsejarle sobre la administración adecuada. El cuidador puede vigilar los medicamentos y/o el dispositivo de asistencia a la visión 100 del usuario que toma la medicación para asegurarse de que se administra correctamente. Una forma de vigilar es utilizar una conexión por medio de Internet. Cualquiera de las unidades de obtención de imágenes en el dispositivo de asistencia a la visión 100 se puede utilizar para dicha vigilancia. Se puede permitir que un cuidador dedicado cambie el calendario médico en el sistema de control 120 a través de Internet.
En algunas formas de realización, el dispositivo de asistencia a la visión 100 puede ayudar a elegir el paquete de medicación correcto, al reconocer la imagen del paquete o en el paquete, tal como un código de barras, texto, símbolo, etc. Por ejemplo, tras la señal del momento de la pastilla, el usuario puede llevar un frasco de pastillas al FOV de la unidad de obtención de imágenes 44. El sistema de control 120 puede utilizar un software de reconocimiento de imágenes para determinar si el frasco es correcto para la administración de la medicación de acuerdo con la señal del momento de la pastilla. A continuación, el sistema de control 120 puede dar retroalimentación positiva o negativa (audio y/o video) para informar al usuario si el paquete es correcto o no.
En algunas formas de realización, el usuario del dispositivo de asistencia a la visión 100 puede tener una bandeja de medicamentos, los medicamentos se colocan en varios compartimentos. Los medicamentos en un compartimento están destinados a la administración dentro de un determinado intervalo de tiempo, posiblemente juntos. Cada compartimento tiene una tapa. Una tapa puede tener un símbolo identificable único. El ID o código de barras 2D es un ejemplo de un símbolo de este tipo. Cuando se apaga la señal del momento de la pastilla, el usuario debe colocar la bandeja en el FOV de la unidad de obtención de imágenes 44 y a continuación abrir el compartimiento que se cree que contiene la medicación de acuerdo con la señal del momento de la pastilla. El sistema de control 120 puede utilizar un software de reconocimiento de imágenes para determinar si el compartimento es correcto juzgando si el símbolo correcto ha desaparecido. Alternativamente, la identificación del compartimento se realiza juzgando la ubicación del compartimento en la bandeja. A continuación, el dispositivo de asistencia a la visión 100 informa al usuario si el compartimento abierto es el correcto. Después de que el usuario tome las pastillas del compartimento, el sistema de control 120 puede utilizar un software de reconocimiento de imágenes para comparar las pastillas que quedan en el compartimento, que pueden ser cero pastillas o más, con las pastillas que habían estado allí originalmente. El tamaño de la pastilla, el color, el número, etc. se pueden utilizar para dicha comparación. La comparación puede determinar si la administración de pastillas ha sido correcta.
En algunas formas de realización, el dispositivo de asistencia a la visión 100 puede registrar adicionalmente el cumplimiento del usuario con el programa de administración de la medicación. Por ejemplo, se le puede solicitar al usuario que presione un botón para confirmar que se toma la pastilla. O se le puede solicitar al usuario que sostenga una mano abierta con una pastilla en ella debajo de una unidad de obtención de imágenes del dispositivo de asistencia a la visión 100 para capturar una imagen de ella antes de tomar la pastilla. La imagen capturada puede servir como evidencia de que el usuario ha tomado una pastilla. La imagen capturada puede incluso asegurar qué pastilla se tomó, después del reconocimiento de la imagen ya sea por un humano o una máquina. La combinación del calendario de la programación médica, el sistema de control 120 y la unidad de obtención de imágenes en el dispositivo de asistencia a la visión 100 es esencial para el seguimiento para garantizar el cumplimiento. El cumplimiento (también adherencia o capacitancia) describe el grado en que un paciente sigue correctamente la programación médica. Más comúnmente, se refiere al cumplimiento de medicaciones o fármacos, pero también se puede aplicar a otras situaciones, tales como la utilización de dispositivos médicos, ejercicios autodirigidos o sesiones de terapia.
En algunas formas de realización, el dispositivo de asistencia a la visión 100 actúa sobre el error del usuario. El sistema de control 120 se puede programar para que, en caso de que el usuario cometa un error identificable (es decir, tome una pastilla incorrecta, no la haya tomado en absoluto, etc.), el dispositivo de asistencia a la visión 100 pueda tomar las medidas apropiadas, tales como informar a un cuidador y/o servicio de emergencia por medio de correo electrónico, SMS o llamada telefónica automática, registre la ocurrencia en una lista de problemas o repita la señal del momento de la pastilla nuevamente más tarde.
En algunas formas de realización, el dispositivo de asistencia a la visión 100 se puede programar para permitir al usuario jugar varios juegos usando el dispositivo de asistencia a la visión 100. Por ejemplo, la unidad de obtención de imágenes 44 se puede utilizar para capturar imágenes de crucigramas del papel, con garabatos hechos a mano por el usuario sobre ellos. A continuación, tras el reconocimiento de imagen y el reconocimiento y procesamiento del texto, el sistema de control 120 puede presentar el rompecabezas en un formato conveniente en la pantalla 20. Dicho formato puede mostrar la pregunta junto a la columna/fila correspondiente de la palabra deseada en la pantalla 20. Para obtener esta visualización conveniente, el usuario puede señalar a cualquiera de la pregunta del rompecabezas o la columna/fila de interés con un bolígrafo o un dedo. El sistema de control 120 puede identificar dicha señalización por medio de software de reconocimiento de imágenes y mostrar la pregunta del rompecabezas junto a la columna/fila correspondiente.
Se pueden emplear otras utilizaciones del reconocimiento y procesamiento del texto impreso capturado por la unidad de obtención de imágenes 44 en el dispositivo de asistencia a la visión 100 de la presente descripción. Por ejemplo, mostrar texto ampliado en la pantalla 20 puede ser útil para usuarios con baja visión, facilitando la lectura. La visualización ampliada puede ser tanto en modo de video (CCTV), mostrando la imagen capturada tal cual, como después del OCR (reconocimiento óptico de caracteres) con una fuente artificial. Después del OCR y adicionalmente después de la conversión de texto a voz, el dispositivo de asistencia a la visión 100 puede leer en voz alta lo que dice el texto impreso. Dicha salida de voz puede ser útil para usuarios ciegos, haciendo que el dispositivo de asistencia a la visión 100 sea una máquina de lectura.
En diversas formas de realización, el dispositivo de asistencia a la visión 100 de la presente descripción se puede equipar con varios detectores distintos de una unidad de obtención de imágenes. Los detectores de ejemplo incluyen, entre otros, detectores para supervisar datos fisiológicos, tales como presión arterial, frecuencia cardíaca, nivel de glucosa en sangre, temperatura corporal, etc. Los detectores adicionales pueden incluir un micrófono, detector de olores, detector de alarma contra incendios, detector de humo, detector de temperatura ambiente, detector de humedad, detector de presión atmosférica, detector de monóxido de carbono, etc. Los datos recopilados por los detectores se pueden emitir en la pantalla 20. En algunas formas de realización, también se puede utilizar salida de audio. El programa de administración de medicación almacenado en el sistema de control 120 también se puede visualizar o leer en voz alta. El cambio a cualquiera de estos modos de detección y emisión o a una combinación de los mismos se puede hacer tirando, empujando, deslizando o girando una gran unidad de control según se describe.
Por ejemplo, un detector de monóxido de carbono se puede integrar o conectar al dispositivo de asistencia a la visión 100 (por cable o de forma inalámbrica). Cuando el nivel de monóxido de carbono en el aire excede un nivel predeterminado, el dispositivo de asistencia a la visión 100 puede dar una alarma al usuario con mensajes de audio y/o visuales. Dichos mensajes pueden llegar a otras habitaciones de forma inalámbrica. El dispositivo de asistencia a la visión 100 puede enviar dichos mensajes por correo electrónico y/o teléfono a destinatarios designados tales como parientes, vecinos y/o al departamento de bomberos. El encendido y apagado de un detector de monóxido de carbono de este tipo (o su conexión con el dispositivo de asistencia a la visión 100) se puede hacer tirando, empujando, deslizando o girando una gran unidad de control según se describe. Un detector de monóxido de carbono es solo un ejemplo. Otros detectores, tales como de presión arterial, de frecuencia cardíaca, del nivel de glucosa en sangre, de temperatura corporal, etc., se pueden utilizar de manera similar, al igual que sus mensajes de alarma.
En algunas formas de realización, el usuario puede controlar el dispositivo de asistencia a la visión 100 mediante gestos. El texto impreso convertido en texto ampliado en un monitor (por ejemplo, como una línea de desplazamiento), o en voz, se destina al consumo del usuario. En el proceso de dicho consumo de salida, el usuario puede desear tener control sobre el flujo del texto o discurso de salida. Específicamente, dicho control puede implicar dar órdenes similares a lo que se denomina en otros reproductores domésticos órdenes de "Paro", "Reproducir", "Avance rápido" y "Retroceder". Las órdenes tales como "Acercar", "Alejar" también se pueden dar mediante gestos, aunque pueden no ser comunes en otros reproductores domésticos. Cuando se deben dar dichas órdenes, la unidad de obtención de imágenes generalmente se encuentra en el modo de video, pero no está supervisando el paso de las páginas en la configuración de escaneo de libros. Por lo tanto, la unidad de obtención de imágenes se puede utilizar para detectar un movimiento específico o una imagen que le indique al algoritmo que se debe ejecutar el comando correspondiente. Por ejemplo, mover una mano en una dirección específica debajo de la unidad de obtención de imágenes puede indicar una de las órdenes anteriores. Mover una mano en una dirección diferente debajo de la unidad de obtención de imágenes puede indicar una orden diferente. En otro ejemplo, el campo de visión de la unidad de obtención de imágenes se puede disponer para que tenga una flecha horizontal que el usuario pueda girar alrededor de un eje vertical. El algoritmo de procesamiento de imágenes se puede preprogramar para detectar el movimiento y/o la dirección de la flecha. Un movimiento de este tipo se puede detectar y un cambio en la dirección de la flecha se puede identificar como una señal. En este caso denominamos una señal de este tipo un "gesto". Se puede utilizar un algoritmo de software común para la identificación de la dirección del movimiento, conocido como algoritmo de "flujo óptico", para dicho reconocimiento de gestos.
La interpretación de un gesto se puede preprogramar para depender del estado actual del flujo de salida. Por ejemplo, la interpretación de gestos puede diferir entre los estados en los que 1) el texto se lee (en voz alta) para el usuario, 2) la lectura de texto se ha detenido y 3) se muestra texto ampliado. Por ejemplo, el gesto de mover una mano de derecha a izquierda se interpreta como la orden "Paro" (también conocida como "Pausa") si el texto o el discurso de salida fluye. Sin embargo, el mismo gesto se puede interpretar como "Reanudar" (también conocida como "Reproducir") si el flujo ya se ha detenido.
Mover una mano de otras maneras puede indicar órdenes adicionales. Por ejemplo, mover una mano hacia adelante y hacia atrás (por ejemplo, derecha e izquierda), repetidamente, puede significar una orden, y repetir este movimiento un número predeterminado de veces dentro de un marco de tiempo predeterminado puede significar varias órdenes adicionales. Los gestos también se pueden interpretar como órdenes en modos distintos del consumo de flujo de salida. Por ejemplo, en el modo de video, un gesto puede dar una orden para cambiar el zoom óptico o la ampliación digital. Para este propósito, es deseable distinguir el movimiento de una mano de otro movimiento, tal como el movimiento del material impreso debajo de la unidad de obtención de imágenes. Opcionalmente, el software que procesa la transmisión de video puede reconocer formas de dedos humanos o la palma de la mano. Con esta capacidad, el software puede distinguir el movimiento de las manos del usuario del movimiento del material impreso.
En algunas formas de realización, el dispositivo de asistencia a la visión 100 puede incluir un detector de movimiento para activar y desactivar diversas funciones del dispositivo de asistencia a la visión 100. Por ejemplo, el dispositivo de asistencia a la visión se puede utilizar para escanear un libro. Durante el escaneo de un libro, los intervalos de tiempo alternos de movimiento y sin movimiento pueden transmitir el proceso de pasar las páginas. Dichos intervalos de tiempo de movimiento y sin movimiento también se pueden considerar gestos, incluso si la dirección del movimiento es irrelevante para la interpretación del gesto. Por ejemplo, a medida que se pasa la página de un libro, el software del detector de movimiento detecta el movimiento en el sistema de control 120, al mismo tiempo que supervisa la transmisión de video por medio de una unidad de obtención de imágenes que está orientada hacia el material impreso. El movimiento detectado puede ser tanto el de una mano como el del material impreso. El detector de movimiento detecta el hecho de que se haya pasado la página y esté lista para el fotografiado como la posterior ausencia de movimiento. En la práctica, si el movimiento (según lo observado por el detector) se ha reducido y se ha mantenido por debajo de un nivel predeterminado durante un intervalo de tiempo predeterminado, el software interpreta la caída como si se hubiera pasado la página. Esto puede desencadenar tomar una foto (fotografiar, capturar una imagen digital, una toma) e indicar este evento al usuario. Antes de tomar la siguiente toma, el detector debería ver suficiente movimiento nuevamente y a continuación una caída en el movimiento durante un período de tiempo suficientemente largo. En este modo (por ejemplo, escaneo de libros), se supervisa el movimiento en cualquier dirección, a diferencia del reconocimiento específico de gestos con las manos durante el consumo de salida, donde el movimiento en diferentes direcciones puede significar diferentes órdenes.
En algunas formas de realización, una vez que se almacena una fotografía del objetivo, sus caracteres de texto, conjuntos de palabras y otras características se pueden utilizar como imágenes reconocibles. El sistema de control 120 puede asignar esas características a sus coordenadas (posición) en el campo de visión (FOV) de la unidad de obtención de imágenes. En otras palabras, las imágenes correspondientes a un rango de coordenadas específico no están predefinidas a priori, sino que se asignan a su posición después de fotografiar el objetivo. Una utilización de estas características de la página es dar órdenes al cubrir y descubrir estas imágenes, por ejemplo, a mano. Esto puede incluir gestos con las manos vistos como secuencias de tiempo de imágenes cubiertas y descubiertas (y, por lo tanto, sus posiciones). La imagen de la página almacenada puede funcionar para este propósito siempre que la página permanezca debajo de la unidad de obtención de imágenes sin un desplazamiento apreciable con respecto a su ubicación cuando se obtiene una imagen. La presencia de la página sin desplazamiento se puede supervisar. Si la página sin desplazamiento no está presente, el algoritmo puede buscar 1) otra página o 2) la misma página con un desplazamiento. En ambos casos, las imágenes vistas por la unidad de obtención de imágenes pueden servir como un nuevo conjunto de imágenes reconocibles predefinidas según se describió anteriormente. Por ejemplo, mover una mano sobre dicha página puede significar diversas órdenes dependiendo de la dirección del movimiento. Para otro ejemplo, cubrir una parte específica de una página de este tipo con una mano también puede significar una orden. A modo de otro ejemplo no limitativo, cubrir un subconjunto de imágenes situadas alrededor de una esquina específica del FO, como se ve desde la unidad de obtención de imágenes, puede indicar una orden que es diferente de una orden indicada al cubrir un subconjunto de imágenes alrededor de una esquina diferente del FOV. Dicha cobertura se puede lograr colocando material impreso, una mano u otros objetos sobre un subconjunto de imágenes o encima de él. Las órdenes resultantes pueden incluir las órdenes "Paro", "Reproducir", "Avance rápido" y "Retroceder", así como activar el modo detector de movimiento para escanear un libro.
Las secuencias de tiempo de dichas imágenes cubiertas y descubiertas se pueden preprogramar para codificar diversas órdenes. Se puede codificar un gran número de órdenes mediante dichas secuencias de tiempo. Mover una mano por encima de la superficie de las imágenes de una manera específica puede indicar órdenes a modo de cubrir y descubrir las imágenes en diverso orden (secuencias). Por ejemplo, mover una mano hacia adelante y hacia atrás (por ejemplo, derecha e izquierda) puede significar una orden. Repetir este movimiento un número predeterminado de veces dentro de un período de tiempo predeterminado puede significar diversas órdenes adicionales. En dicho reconocimiento de gestos, la forma de una mano se puede utilizar para diferenciar dichos gestos de la mano del movimiento del material impreso sobre la superficie. Dicha forma se puede indicar mediante la silueta del conjunto de imágenes cubiertas en cualquier momento. Además, los algoritmos de reconocimiento de imágenes se pueden utilizar con el propósito de reconocer manos, dedos, etc.
En algunas formas de realización, un dispositivo de asistencia a la visión incluye una carcasa que tiene una base para colocar la carcasa en una superficie; una o más unidades de obtención de imágenes dispuestas a lo largo de una parte superior de la carcasa, formando cada unidad de obtención de imágenes un ángulo hacia abajo de modo que un eje central de la unidad de obtención de imágenes forme un ángulo agudo con la superficie de modo que la unidad de obtención de imágenes capture una imagen objetivo de un objeto objetivo; y un sistema de control alojado dentro de la carcasa, estando el sistema de control conectado a una o más unidades de obtención de imágenes para procesar la imagen objetivo capturada por cada unidad de obtención de imágenes y para emitir la imagen objetivo a un usuario.
En algunas formas de realización, un dispositivo de asistencia a la visión incluye una carcasa que tiene una base para colocar la carcasa en una superficie; una o más unidades de obtención de imágenes configuradas para capturar una imagen objetivo de un objeto objetivo colocado, en esencia, perpendicular a la carcasa; una pantalla integrada con la carcasa; un sistema de control alojado dentro de la carcasa, estando el sistema de control conectado a las unidades de obtención de imágenes para procesar los datos correspondientes a la imagen capturada por las unidades de obtención de imágenes y para emitir la imagen objetivo a un usuario en la pantalla.
En algunas formas de realización, un método para proporcionar asistencia a la visión incluye disponer una carcasa, en esencia, perpendicular a una superficie, incluyendo la carcasa una o más unidades de obtención de imágenes y un sistema de control; capturar con una o más unidades de obtención de imágenes una imagen objetivo de un objeto objetivo colocado en la superficie adyacente a la carcasa; y procesar la imagen objetivo capturada y emitir la imagen objetivo en una pantalla integrada con la carcasa.

Claims (10)

REIVINDICACIONES
1. Un dispositivo de asistencia a la visión (100) caracterizado por comprender:
una carcasa (42) que tiene una base (62) para colocar la carcasa (42) en una superficie (86), una parte superior (64) y una pared frontal (66), una pared posterior (68) y paredes laterales (70, 72) conectando la base (62) a la parte superior (64) y definiendo juntas un volumen interno de la carcasa (42), en donde la parte superior (64) sobresale hacia afuera desde la pared frontal (66) de la carcasa (42);
dos unidades de obtención de imágenes (44a y 44b) separadas entre sí e integradas dentro de la parte superior (64) de la carcasa (42), estando cada unidad de obtención de imágenes (44) estacionaria con respecto a la carcasa (42) y formando un ángulo hacia abajo de modo que un eje central (147) de cada unidad de obtención de imágenes (44) forme un ángulo agudo con la superficie (86) en donde las dos unidades de obtención de imágenes (44a y 44b) se configuran para capturar partes solapadas de una imagen objetivo de un objeto objetivo (88); y
un sistema de control (120) alojado dentro del volumen interno de la carcasa (42), estando programado el sistema de control (120) para combinar las partes solapadas de la imagen objetivo.
2. El dispositivo de asistencia a la visión (100) de la reivindicación 1, en donde las dos unidades de obtención de imágenes (44a y 44b) se colocan, en esencia, sobre un borde del objeto objetivo (88) colocado en la superficie adyacente a la carcasa (42).
3. El dispositivo de asistencia a la visión (100) de la reivindicación 1 en donde las dos unidades de obtención de imágenes (44a y 44b) se colocan en un centro de la parte superior (64) de la carcasa (42).
4. El dispositivo de asistencia a la visión (100) de la reivindicación 3, en donde las dos unidades de obtención de imágenes (44a y 44b) se configuran para capturar varias partes de la imagen objetivo con diferentes posiciones de enfoque y el sistema de control (120) se configura para combinar las varias partes.
5. El dispositivo de asistencia a la visión (100) de una reivindicación 1 que comprende además uno o más controles analógicos para controlar una o más funcionalidades del dispositivo de asistencia a la visión (100).
6. El dispositivo de asistencia a la visión (100) de la reivindicación 5 en donde la una o más funcionalidades se seleccionan a partir del grupo que consta de un reloj despertador, un calendario, una vigilancia de seguridad, un marco digital, juegos, recordatorios de medicaciones y combinaciones de los mismos.
7. El dispositivo de asistencia a la visión (100) de la reivindicación 1 que comprende además una pantalla (20) situada entre la base (62) y la parte superior (64) de la carcasa (42) para emitir la imagen objetivo al usuario.
8. El dispositivo de asistencia a la visión (100) de la reivindicación 7 que comprende además una o más ruedas (204, 206) para desplazarse a través de la imagen objetivo visualizada en la pantalla (20) y ampliar las partes deseadas de la imagen objetivo.
9. El dispositivo de asistencia a la visión (100) de la reivindicación 1 que comprende además uno o más detectores seleccionados a partir del grupo que consta de detector de humo, detector de monóxido de carbono, detector de temperatura, detector de humedad, detector de detección de movimiento y combinaciones de los mismos.
10. El dispositivo de asistencia a la visión (100) de la reivindicación 1 en donde el dispositivo se configura para dispensar medicación.
ES13794086T 2012-05-24 2013-05-23 Dispositivos de asistencia a la visión e interfaces de usuario Active ES2753123T3 (es)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US201261688909P 2012-05-24 2012-05-24
US13/829,727 US8681268B2 (en) 2012-05-24 2013-03-14 Vision assistive devices and user interfaces
PCT/US2013/042391 WO2013177380A1 (en) 2012-05-24 2013-05-23 Vision assistive devices and user interfaces

Publications (1)

Publication Number Publication Date
ES2753123T3 true ES2753123T3 (es) 2020-04-07

Family

ID=49621317

Family Applications (1)

Application Number Title Priority Date Filing Date
ES13794086T Active ES2753123T3 (es) 2012-05-24 2013-05-23 Dispositivos de asistencia a la visión e interfaces de usuario

Country Status (4)

Country Link
US (3) US8681268B2 (es)
EP (2) EP2856746B1 (es)
ES (1) ES2753123T3 (es)
WO (1) WO2013177380A1 (es)

Families Citing this family (122)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8681268B2 (en) 2012-05-24 2014-03-25 Abisee, Inc. Vision assistive devices and user interfaces
US9191554B1 (en) * 2012-11-14 2015-11-17 Amazon Technologies, Inc. Creating an electronic book using video-based input
GB201321857D0 (en) * 2013-12-10 2014-01-22 Samsung Electronics Uk Ltd Display apparatus and integrated scanner
WO2015120297A1 (en) * 2014-02-06 2015-08-13 Abisee, Inc. Systems for simplifying control of portable computers
KR20150102489A (ko) 2014-02-28 2015-09-07 삼성전자주식회사 디스플레이 장치
USD735197S1 (en) * 2014-03-26 2015-07-28 Optoelectronics Co., Ltd. Optical information reader
US20150310767A1 (en) * 2014-04-24 2015-10-29 Omnivision Technologies, Inc. Wireless Typoscope
JP6707522B2 (ja) * 2014-08-19 2020-06-10 フリーダム サイエンティフィック インコーポレイテッド ポータブル机上用ビデオ拡大機
US10169536B2 (en) 2014-10-21 2019-01-01 Sanofi-Aventis Deutschland Gmbh Recording dose data from drug injection devices using optical character recognition (OCR)
DK3209355T3 (da) 2014-10-21 2020-07-06 Sanofi Aventis Deutschland Registrering af dosisdata fra lægemiddelinjektionsanordninger ved anvendelse af optisk karaktergenkendelse (ocr)
USD852252S1 (en) * 2014-11-24 2019-06-25 Nanolive Sa Microscope
WO2016172305A1 (en) * 2015-04-21 2016-10-27 Freedom Scientific, Inc. Method and system for converting text to speech
DE102015209022B4 (de) * 2015-05-18 2020-08-20 LS Asset Management GmbH & Co. KG Bildschirmlesegerät
JP6575802B2 (ja) * 2015-06-01 2019-09-18 柳吉 津野 書見台用のめくれ止め支持体、書見台およびusbスタンドスキャナー用の配置台
US10511749B2 (en) 2016-02-26 2019-12-17 Freedom Scientific, Inc. Magnifier device with adjustable camera
CN109428980B (zh) 2017-08-23 2020-02-14 京东方科技集团股份有限公司 显示装置
US10546444B2 (en) 2018-06-21 2020-01-28 Capital One Services, Llc Systems and methods for secure read-only authentication
US10565587B1 (en) 2018-10-02 2020-02-18 Capital One Services, Llc Systems and methods for cryptographic authentication of contactless cards
WO2020072552A1 (en) 2018-10-02 2020-04-09 Capital One Services, Llc Systems and methods for cryptographic authentication of contactless cards
WO2020072474A1 (en) 2018-10-02 2020-04-09 Capital One Services, Llc Systems and methods for cryptographic authentication of contactless cards
US10680824B2 (en) 2018-10-02 2020-06-09 Capital One Services, Llc Systems and methods for inventory management using cryptographic authentication of contactless cards
MX2021003217A (es) 2018-10-02 2021-05-12 Capital One Services Llc Sistemas y metodos para autentificacion criptografica de tarjetas sin contacto.
US10607214B1 (en) 2018-10-02 2020-03-31 Capital One Services, Llc Systems and methods for cryptographic authentication of contactless cards
US10949520B2 (en) 2018-10-02 2021-03-16 Capital One Services, Llc Systems and methods for cross coupling risk analytics and one-time-passcodes
US10581611B1 (en) 2018-10-02 2020-03-03 Capital One Services, Llc Systems and methods for cryptographic authentication of contactless cards
BR112021004710A2 (pt) 2018-10-02 2021-06-08 Capital One Services, Llc sistema e método para transmitir dados
US10992477B2 (en) 2018-10-02 2021-04-27 Capital One Services, Llc Systems and methods for cryptographic authentication of contactless cards
US10554411B1 (en) 2018-10-02 2020-02-04 Capital One Services, Llc Systems and methods for cryptographic authentication of contactless cards
AU2019351906A1 (en) 2018-10-02 2021-03-18 Capital One Services, Llc Systems and methods for cryptographic authentication of contactless cards
US10771254B2 (en) 2018-10-02 2020-09-08 Capital One Services, Llc Systems and methods for email-based card activation
US10909527B2 (en) 2018-10-02 2021-02-02 Capital One Services, Llc Systems and methods for performing a reissue of a contactless card
US10685350B2 (en) 2018-10-02 2020-06-16 Capital One Services, Llc Systems and methods for cryptographic authentication of contactless cards
US10582386B1 (en) 2018-10-02 2020-03-03 Capital One Services, Llc Systems and methods for cryptographic authentication of contactless cards
CA3113101A1 (en) 2018-10-02 2020-04-09 Capital One Services, Llc Systems and methods for cryptographic authentication of contactless cards
US11210664B2 (en) 2018-10-02 2021-12-28 Capital One Services, Llc Systems and methods for amplifying the strength of cryptographic algorithms
US10542036B1 (en) 2018-10-02 2020-01-21 Capital One Services, Llc Systems and methods for signaling an attack on contactless cards
US10489781B1 (en) 2018-10-02 2019-11-26 Capital One Services, Llc Systems and methods for cryptographic authentication of contactless cards
US10579998B1 (en) 2018-10-02 2020-03-03 Capital One Services, Llc Systems and methods for cryptographic authentication of contactless cards
AU2019354421A1 (en) 2018-10-02 2021-04-29 Capital One Services, Llc Systems and methods for cryptographic authentication of contactless cards
US10783519B2 (en) 2018-10-02 2020-09-22 Capital One Services, Llc Systems and methods for cryptographic authentication of contactless cards
WO2020072529A1 (en) 2018-10-02 2020-04-09 Capital One Services, Llc Systems and methods for cryptographic authentication of contactless cards
US10771253B2 (en) 2018-10-02 2020-09-08 Capital One Services, Llc Systems and methods for cryptographic authentication of contactless cards
WO2020072694A1 (en) 2018-10-02 2020-04-09 Capital One Services, Llc Systems and methods for cryptographic authentication of contactless cards
US10592710B1 (en) 2018-10-02 2020-03-17 Capital One Services, Llc Systems and methods for cryptographic authentication of contactless cards
US10505738B1 (en) 2018-10-02 2019-12-10 Capital One Services, Llc Systems and methods for cryptographic authentication of contactless cards
WO2020072583A1 (en) 2018-10-02 2020-04-09 Capital One Services, Llc Systems and methods for establishing identity for order pick up
US10511443B1 (en) 2018-10-02 2019-12-17 Capital One Services, Llc Systems and methods for cryptographic authentication of contactless cards
US20200226581A1 (en) 2019-01-11 2020-07-16 Capital One Services, Llc Systems and methods for touch screen interface interaction using a card overlay
US11037136B2 (en) 2019-01-24 2021-06-15 Capital One Services, Llc Tap to autofill card data
US10467622B1 (en) 2019-02-01 2019-11-05 Capital One Services, Llc Using on-demand applications to generate virtual numbers for a contactless card to securely autofill forms
US10510074B1 (en) 2019-02-01 2019-12-17 Capital One Services, Llc One-tap payment using a contactless card
US11120453B2 (en) 2019-02-01 2021-09-14 Capital One Services, Llc Tap card to securely generate card data to copy to clipboard
US10971033B2 (en) * 2019-02-07 2021-04-06 Freedom Scientific, Inc. Vision assistive device with extended depth of field
US11083286B2 (en) 2019-02-13 2021-08-10 Association for the Blind and Visually Impaired Stand and system for assisting visual perception
US10425129B1 (en) 2019-02-27 2019-09-24 Capital One Services, Llc Techniques to reduce power consumption in near field communication systems
US10523708B1 (en) 2019-03-18 2019-12-31 Capital One Services, Llc System and method for second factor authentication of customer support calls
US10535062B1 (en) 2019-03-20 2020-01-14 Capital One Services, Llc Using a contactless card to securely share personal data stored in a blockchain
US10643420B1 (en) 2019-03-20 2020-05-05 Capital One Services, Llc Contextual tapping engine
US10438437B1 (en) 2019-03-20 2019-10-08 Capital One Services, Llc Tap to copy data to clipboard via NFC
US10984416B2 (en) 2019-03-20 2021-04-20 Capital One Services, Llc NFC mobile currency transfer
US10970712B2 (en) 2019-03-21 2021-04-06 Capital One Services, Llc Delegated administration of permissions using a contactless card
US10467445B1 (en) 2019-03-28 2019-11-05 Capital One Services, Llc Devices and methods for contactless card alignment with a foldable mobile device
US11521262B2 (en) 2019-05-28 2022-12-06 Capital One Services, Llc NFC enhanced augmented reality information overlays
US10516447B1 (en) 2019-06-17 2019-12-24 Capital One Services, Llc Dynamic power levels in NFC card communications
US10871958B1 (en) 2019-07-03 2020-12-22 Capital One Services, Llc Techniques to perform applet programming
US11694187B2 (en) 2019-07-03 2023-07-04 Capital One Services, Llc Constraining transactional capabilities for contactless cards
US11392933B2 (en) 2019-07-03 2022-07-19 Capital One Services, Llc Systems and methods for providing online and hybridcard interactions
US10713649B1 (en) 2019-07-09 2020-07-14 Capital One Services, Llc System and method enabling mobile near-field communication to update display on a payment card
US10885514B1 (en) 2019-07-15 2021-01-05 Capital One Services, Llc System and method for using image data to trigger contactless card transactions
US10498401B1 (en) 2019-07-15 2019-12-03 Capital One Services, Llc System and method for guiding card positioning using phone sensors
US10733601B1 (en) 2019-07-17 2020-08-04 Capital One Services, Llc Body area network facilitated authentication or payment authorization
US10832271B1 (en) 2019-07-17 2020-11-10 Capital One Services, Llc Verified reviews using a contactless card
US11182771B2 (en) 2019-07-17 2021-11-23 Capital One Services, Llc System for value loading onto in-vehicle device
US11521213B2 (en) 2019-07-18 2022-12-06 Capital One Services, Llc Continuous authentication for digital services based on contactless card positioning
US10506426B1 (en) 2019-07-19 2019-12-10 Capital One Services, Llc Techniques for call authentication
US10541995B1 (en) 2019-07-23 2020-01-21 Capital One Services, Llc First factor contactless card authentication system and method
CN114746913A (zh) 2019-10-02 2022-07-12 第一资本服务有限责任公司 使用非接触式传统磁条数据的客户端设备认证
US10776775B1 (en) 2019-10-14 2020-09-15 Capital One Services, Llc NFC enabled card for consumer accessibility
US10885410B1 (en) 2019-12-23 2021-01-05 Capital One Services, Llc Generating barcodes utilizing cryptographic techniques
US11615395B2 (en) 2019-12-23 2023-03-28 Capital One Services, Llc Authentication for third party digital wallet provisioning
US11113685B2 (en) 2019-12-23 2021-09-07 Capital One Services, Llc Card issuing with restricted virtual numbers
US10733283B1 (en) 2019-12-23 2020-08-04 Capital One Services, Llc Secure password generation and management using NFC and contactless smart cards
US10862540B1 (en) 2019-12-23 2020-12-08 Capital One Services, Llc Method for mapping NFC field strength and location on mobile devices
US11651361B2 (en) 2019-12-23 2023-05-16 Capital One Services, Llc Secure authentication based on passport data stored in a contactless card
US10657754B1 (en) 2019-12-23 2020-05-19 Capital One Services, Llc Contactless card and personal identification system
US10664941B1 (en) 2019-12-24 2020-05-26 Capital One Services, Llc Steganographic image encoding of biometric template information on a card
US11200563B2 (en) 2019-12-24 2021-12-14 Capital One Services, Llc Account registration using a contactless card
US10853795B1 (en) 2019-12-24 2020-12-01 Capital One Services, Llc Secure authentication based on identity data stored in a contactless card
US10757574B1 (en) 2019-12-26 2020-08-25 Capital One Services, Llc Multi-factor authentication providing a credential via a contactless card for secure messaging
US10909544B1 (en) 2019-12-26 2021-02-02 Capital One Services, Llc Accessing and utilizing multiple loyalty point accounts
US11038688B1 (en) 2019-12-30 2021-06-15 Capital One Services, Llc Techniques to control applets for contactless cards
US10860914B1 (en) 2019-12-31 2020-12-08 Capital One Services, Llc Contactless card and method of assembly
US11455620B2 (en) 2019-12-31 2022-09-27 Capital One Services, Llc Tapping a contactless card to a computing device to provision a virtual number
JP7354002B2 (ja) 2020-02-05 2023-10-02 Sanei株式会社 水栓制御装置及びそれを用いた自動水栓
US11210656B2 (en) 2020-04-13 2021-12-28 Capital One Services, Llc Determining specific terms for contactless card activation
US11222342B2 (en) 2020-04-30 2022-01-11 Capital One Services, Llc Accurate images in graphical user interfaces to enable data transfer
US10915888B1 (en) 2020-04-30 2021-02-09 Capital One Services, Llc Contactless card with multiple rotating security keys
US10861006B1 (en) 2020-04-30 2020-12-08 Capital One Services, Llc Systems and methods for data access control using a short-range transceiver
US11030339B1 (en) 2020-04-30 2021-06-08 Capital One Services, Llc Systems and methods for data access control of personal user data using a short-range transceiver
US11823175B2 (en) 2020-04-30 2023-11-21 Capital One Services, Llc Intelligent card unlock
US10963865B1 (en) 2020-05-12 2021-03-30 Capital One Services, Llc Augmented reality card activation experience
US11100511B1 (en) 2020-05-18 2021-08-24 Capital One Services, Llc Application-based point of sale system in mobile operating systems
US11063979B1 (en) 2020-05-18 2021-07-13 Capital One Services, Llc Enabling communications between applications in a mobile operating system
US11062098B1 (en) 2020-08-11 2021-07-13 Capital One Services, Llc Augmented reality information display and interaction via NFC based authentication
USD961593S1 (en) * 2020-08-26 2022-08-23 Hand Held Products, Inc. Barcode scanner
US11165586B1 (en) 2020-10-30 2021-11-02 Capital One Services, Llc Call center web-based authentication using a contactless card
US11482312B2 (en) 2020-10-30 2022-10-25 Capital One Services, Llc Secure verification of medical status using a contactless card
US11373169B2 (en) 2020-11-03 2022-06-28 Capital One Services, Llc Web-based activation of contactless cards
US11216799B1 (en) 2021-01-04 2022-01-04 Capital One Services, Llc Secure generation of one-time passcodes using a contactless card
US11682012B2 (en) 2021-01-27 2023-06-20 Capital One Services, Llc Contactless delivery systems and methods
US11687930B2 (en) 2021-01-28 2023-06-27 Capital One Services, Llc Systems and methods for authentication of access tokens
US11792001B2 (en) 2021-01-28 2023-10-17 Capital One Services, Llc Systems and methods for secure reprovisioning
US11562358B2 (en) 2021-01-28 2023-01-24 Capital One Services, Llc Systems and methods for near field contactless card communication and cryptographic authentication
US11438329B2 (en) 2021-01-29 2022-09-06 Capital One Services, Llc Systems and methods for authenticated peer-to-peer data transfer using resource locators
US11777933B2 (en) 2021-02-03 2023-10-03 Capital One Services, Llc URL-based authentication for payment cards
US11637826B2 (en) 2021-02-24 2023-04-25 Capital One Services, Llc Establishing authentication persistence
US11245438B1 (en) 2021-03-26 2022-02-08 Capital One Services, Llc Network-enabled smart apparatus and systems and methods for activating and provisioning same
US11935035B2 (en) 2021-04-20 2024-03-19 Capital One Services, Llc Techniques to utilize resource locators by a contactless card to perform a sequence of operations
US11961089B2 (en) 2021-04-20 2024-04-16 Capital One Services, Llc On-demand applications to extend web services
US11902442B2 (en) 2021-04-22 2024-02-13 Capital One Services, Llc Secure management of accounts on display devices using a contactless card
US11354555B1 (en) 2021-05-04 2022-06-07 Capital One Services, Llc Methods, mediums, and systems for applying a display to a transaction card
JP2023030406A (ja) * 2021-08-23 2023-03-08 富士フイルムビジネスイノベーション株式会社 画像読取装置

Family Cites Families (47)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
USD254868S (en) 1977-07-28 1980-04-29 Hoadley Howard W X-ray film viewer
USD270277S (en) 1982-06-28 1983-08-23 Bethesda Research Laboratories, Inc. Autoradiogram reader
US4928170A (en) 1988-06-21 1990-05-22 Visualtek, Inc. Automatic focus control for an image magnification system
US4888195A (en) * 1988-07-26 1989-12-19 Nabisco Brands, Inc. Ether bridged polyesters and food compositions containing ether bridged polyesters
US5633674A (en) 1994-12-12 1997-05-27 Vision Technology, Inc. Hand-held reading device for the visually impaired
US6115482A (en) * 1996-02-13 2000-09-05 Ascent Technology, Inc. Voice-output reading system with gesture-based navigation
JPH10262147A (ja) * 1997-03-18 1998-09-29 Minolta Co Ltd 画像読取り装置
US6731326B1 (en) * 1999-04-06 2004-05-04 Innoventions, Inc. Low vision panning and zooming device
USD430588S (en) 1999-08-04 2000-09-05 Telesensory Corporation Video magnifier for assisting persons with vision impairment
US6791600B1 (en) * 1999-08-11 2004-09-14 Telesensory Corporation Video system with dual mode imaging
US6734913B1 (en) * 1999-10-28 2004-05-11 Hewlett-Packard Development Company, L.P. Method of automatically adjusting exposure in a shutterless digital camera
TW466415B (en) * 2000-08-28 2001-12-01 Compal Electronics Inc Hand-held device with zooming display function
US7075513B2 (en) * 2001-09-04 2006-07-11 Nokia Corporation Zooming and panning content on a display screen
US20040036663A1 (en) * 2002-03-29 2004-02-26 Bevers David R. System and method for an image reader with electronic travel
US6965862B2 (en) 2002-04-11 2005-11-15 Carroll King Schuller Reading machine
US7057662B2 (en) * 2002-11-22 2006-06-06 Hewlett-Packard Development Company, L.P. Retractable camera apparatus
US20040183918A1 (en) * 2003-03-20 2004-09-23 Eastman Kodak Company Producing enhanced photographic products from images captured at known picture sites
JP3941799B2 (ja) * 2003-08-22 2007-07-04 カシオ計算機株式会社 カメラスタンド
US7805307B2 (en) 2003-09-30 2010-09-28 Sharp Laboratories Of America, Inc. Text to speech conversion system
US7840033B2 (en) 2004-04-02 2010-11-23 K-Nfb Reading Technology, Inc. Text stitching from multiple images
WO2005101349A1 (en) * 2004-04-13 2005-10-27 Pulse Data International Limited Image magnifier for the visually impaired
JP2005318023A (ja) 2004-04-27 2005-11-10 Casio Comput Co Ltd 電子カメラ装置、撮像方法及びプログラム
US8395664B2 (en) * 2006-09-13 2013-03-12 Smartvue Corp. Wireless surveillance system and method for 3-D visualization and user-controlled analytics of captured data
US20060257138A1 (en) * 2005-05-10 2006-11-16 Fromm Wayne G Apparatus for supporting a camera
US8854442B2 (en) * 2006-02-10 2014-10-07 Freedom Scientific, Inc. Retainer for electronic magnification device
US7929013B2 (en) * 2006-02-10 2011-04-19 Freedom Scientific, Inc. Desktop electronic magnifier
US8854441B2 (en) * 2006-02-10 2014-10-07 Freedom Scientific, Inc. Electronic magnification device
TWI316167B (en) * 2006-05-01 2009-10-21 Quanta Comp Inc Built-in webcam device
US20080151056A1 (en) * 2006-12-20 2008-06-26 Chukwu Ahamefula Automatic camera with inbuilt smoke and motion detectors that can send picture/pictures with audio or text
US20080186287A1 (en) * 2007-02-05 2008-08-07 Nokia Corporation User input device
US8594387B2 (en) * 2007-04-23 2013-11-26 Intel-Ge Care Innovations Llc Text capture and presentation device
WO2009066819A1 (en) 2007-11-23 2009-05-28 Hims Co., Ltd. Portable video magnifying apparatus
US8113841B2 (en) 2007-11-30 2012-02-14 Beyo Gmbh Reading device for blind or visually impaired persons
EP2065871B1 (en) 2007-11-30 2010-05-26 beyo GmbH Reading device for blind or visually impaired persons
US20090244301A1 (en) * 2008-04-01 2009-10-01 Border John N Controlling multiple-image capture
TWM352703U (en) * 2008-09-04 2009-03-11 Quanta Comp Inc Document snapshot device
JP2010183420A (ja) * 2009-02-06 2010-08-19 Elmo Co Ltd 撮像装置
JP5195506B2 (ja) * 2009-02-24 2013-05-08 株式会社ニコン 撮像装置および画像合成方法
TWI387331B (zh) * 2009-04-22 2013-02-21 Avermedia Information Inc 實物攝影機
USD623214S1 (en) 2009-10-20 2010-09-07 Panasonic Corporation Portable video magnifier
US9141333B2 (en) * 2009-12-02 2015-09-22 NL Giken Incorporated Image visualizing device
JP5532992B2 (ja) 2010-02-10 2014-06-25 セイコーエプソン株式会社 書画カメラ、書画カメラの制御方法およびプログラム
US20120001999A1 (en) * 2010-07-01 2012-01-05 Tandberg Telecom As Apparatus and method for changing a camera configuration in response to switching between modes of operation
JP2012129768A (ja) * 2010-12-15 2012-07-05 Seiko Epson Corp 書画カメラ、書画カメラの制御方法、プログラムおよび表示処理システム
US8749379B2 (en) * 2012-01-19 2014-06-10 Carefusion 303, Inc. Portable medication dispensing containers
US20130215322A1 (en) * 2012-02-20 2013-08-22 Ken-A-Vision Manufacturing Company, Inc. Document camera with automatically switched operating parameters
US8681268B2 (en) 2012-05-24 2014-03-25 Abisee, Inc. Vision assistive devices and user interfaces

Also Published As

Publication number Publication date
WO2013177380A1 (en) 2013-11-28
US20140146151A1 (en) 2014-05-29
US20130314593A1 (en) 2013-11-28
US8681268B2 (en) 2014-03-25
EP2856746A4 (en) 2016-06-01
EP2856746B1 (en) 2019-09-11
US9449531B2 (en) 2016-09-20
EP3585042A1 (en) 2019-12-25
EP2856746A1 (en) 2015-04-08
US20170069228A1 (en) 2017-03-09

Similar Documents

Publication Publication Date Title
ES2753123T3 (es) Dispositivos de asistencia a la visión e interfaces de usuario
US10679419B2 (en) Reconfigurable headset vision system having eye-tracking capabilities
US10708506B2 (en) Image processing device, image processing method and program
US10506971B2 (en) Apparatus and method for monitoring medication adherence
KR101198727B1 (ko) 화상투영장치 및 그 제어 방법
US10429941B2 (en) Control device of head mounted display, operation method and operation program thereof, and image display system
BR112015022914B1 (pt) Método de controle de tela de exibição de um dispositivo eletrônico e dispositivo eletrônico
US20110292233A1 (en) Electronic device and image processing method thereof
KR102655625B1 (ko) 피사체의 근접 여부에 따라 촬영 장치를 제어하는 방법 및 촬영 장치.
CN106416223A (zh) 成像设备和通过成像设备进行的视频生成方法
JP5601142B2 (ja) 画像表示装置、画像表示方法及びプログラム
KR20140017782A (ko) 모바일 스마트 엑스선 의료영상 시스템 및 방법
US20230368552A1 (en) Drug identification device, drug identification method and program, drug identification system, drug loading table, illumination device, imaging assistance device, trained model, and learning device
KR101672268B1 (ko) 전시공간 제어 시스템 및 전시공간 제어방법
CN109804408B (zh) 一致的球面照片和视频朝向校正
JP2009296457A (ja) 画像提供装置
JP2014211795A (ja) 視線検出装置
JP6823988B2 (ja) 画面操作方法及び画面操作装置
JP2007141018A (ja) 画像取得方法および画像取得装置
WO2024105974A1 (ja) 生体認証システムを備えた空中画像表示装置
JP6668614B2 (ja) 表示装置、表示方法及びプログラム
WO2023127623A1 (ja) 端末装置
JP2013150171A (ja) 記録装置、記録システム及び記録方法
KR102138523B1 (ko) 화상진료를 위한 원격촬영 방법 및 시스템, 그리고 이를 위한 단말기 및 단말기 제어방법
JP2015087399A (ja) プレゼンテーションシステム