ES2396587T3 - Método y aparato táctil en base a cámara - Google Patents

Método y aparato táctil en base a cámara Download PDF

Info

Publication number
ES2396587T3
ES2396587T3 ES10012779T ES10012779T ES2396587T3 ES 2396587 T3 ES2396587 T3 ES 2396587T3 ES 10012779 T ES10012779 T ES 10012779T ES 10012779 T ES10012779 T ES 10012779T ES 2396587 T3 ES2396587 T3 ES 2396587T3
Authority
ES
Spain
Prior art keywords
pointer
touch
touch surface
images
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
ES10012779T
Other languages
English (en)
Inventor
Gerald D. Morrison
David Holmgren
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Smart Technologies ULC
Original Assignee
Smart Technologies ULC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Family has litigation
First worldwide family litigation filed litigation Critical https://patents.darts-ip.com/?family=26968623&utm_source=google_patent&utm_medium=platform_link&utm_campaign=public_patent_search&patent=ES2396587(T3) "Global patent litigation dataset” by Darts-ip is licensed under a Creative Commons Attribution 4.0 International License.
Priority claimed from US09/610,481 external-priority patent/US6803906B1/en
Application filed by Smart Technologies ULC filed Critical Smart Technologies ULC
Application granted granted Critical
Publication of ES2396587T3 publication Critical patent/ES2396587T3/es
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/042Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
    • G06F3/0428Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means by sensing at the edges of the touch surface the interruption of optical paths, e.g. an illumination plane, parallel to the touch surface which may be virtual

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Studio Devices (AREA)
  • Position Input By Displaying (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)
  • User Interface Of Digital Computer (AREA)
  • Electrophonic Musical Instruments (AREA)
  • Indicating And Signalling Devices For Elevators (AREA)
  • Details Of Cameras Including Film Mechanisms (AREA)

Abstract

Un método que comprende: la adquisición de primeras y segundas imágenes de una superficie táctil desdediferentes localizaciones utilizando cámaras con puntos de visión superpuestoscaracterizado por; la sustracción de dichas primeras y segundas imágenes de las imágenes de basepara formar primeras y segundas imágenes de diferencia;el procesamiento de cada una de dichas primeras y segundas imágenes dediferencia para determinar si una región de interés dentro de la imagen dediferencia incluyendo la existencia de un puntero en ellas, dicha región de interésestando basada en intensidades de píxeles por encima de un nivel de umbral;para cada región de interés, la creación de una máscara de píxeles de la regiónde interés para separar píxeles que representan el puntero de los píxeles querepresentan la base; la determinación de una posición del puntero relativa a la superficie táctil basadaen la información del puntero calculada desde las regiones de interés; yel control de una aplicación basada en la posición determinada del puntero

Description

MÉTODO Y APARATO TÁCTIL EN BASE A CÁMARA DESCRIPCIÓN CAMPO TÉCNICO [0001] La presente invención se refiere en general a sistemas táctiles y en particular a un sistema táctil en base a cámara.
TÉCNICA ANTECEDENTE [0002] Los sistemas táctiles son bien conocidos en la técnica e incluyen típicamente una pantalla táctil que tiene una superficie táctil sobre la que se realizan contactos usando un puntero para generar una entrada de usuario. Se detectan los contactos del puntero con la superficie táctil y se usan para generar la correspondiente salida dependiendo de las áreas de la superficie táctil donde se realicen los contactos. Hay básicamente dos tipos generales de sistemas táctiles disponibles y se pueden clasificar globalmente como sistemas táctiles “activos” y sistemas táctiles “pasivos”. [0003] Los sistemas táctiles activos permiten al usuario generar entradas de usuario mediante el contacto de la superficie táctil con un puntero especial que requiere normalmente alguna forma de fuente de alimentación integrada, típicamente baterías. El puntero especial emite señales tales como luz infrarroja, luz visible, frecuencias ultrasónicas, frecuencias electromagnéticas, etc. que activan la superficie táctil. [0004] Los sistemas táctiles pasivos permiten al usuario generar entradas de usuario mediante el contacto de la superficie táctil con un puntero pasivo y no requieren el uso de un puntero especial para activar la superficie táctil. Un puntero pasivo puede ser un dedo, un cilindro de algún material o cualquier objeto adecuado que se pueda usar para hacer contacto con alguna área predeterminada de interés sobre la superficie táctil. [0005] Los sistemas táctiles pasivos proporcionan ventajas sobre los sistemas táctiles activos porque se puede usar cualquier dispositivo señalador, incluyendo un dedo del usuario, como un puntero para hacer contacto con la superficie táctil. Como resultado, se puede generar fácilmente la entrada del usuario. También, dado que en los sistemas táctiles pasivos no son necesarios los punteros activos especiales, no son preocupantes para los usuarios los niveles de carga de la batería y/o el daño del puntero, el robo o la pérdida del puntero. [0006] Los sistemas táctiles pasivos tienen un número de aplicaciones que se refieren al funcionamiento de pantallas de ordenadores y de video. Por ejemplo, en una aplicación interactiva como se desvela en la Patente de Estados Unidos Nº 5.448.263 de Martin, cedida al cesionario de la presente invención, un sistema táctil pasivo se acopla a un ordenador y se presenta la pantalla del ordenador sobre la superficie táctil de la pantalla táctil. Las coordenadas que representan localizaciones específicas de la superficie táctil se mapean en la pantalla del ordenador. Cuando un usuario hace contacto con la superficie táctil, las coordenadas de la posición de contacto se realimentan al ordenador y se mapean en la pantalla del ordenador permitiendo de este modo al usuario operar el ordenador de una manera similar al uso de un ratón de ordenador simplemente mediante el contacto con la superficie táctil. Adicionalmente, las coordenadas realimentadas al ordenador se puedan registrar en una aplicación y volver a representar en un momento posterior. El registro de las coordenadas de contacto se realiza típicamente cuando se desea registrar información escrita o dibujada por el usuario sobre la superficie táctil. [0007] La resolución de una pantalla táctil pasiva determina si el sistema táctil es adecuado para el registro de información escrita o dibujada sobre la pantalla táctil o solamente útil para la selección de áreas sobre la pantalla táctil mapeadas a regiones en la pantalla del ordenador o video para manipular la pantalla del ordenador o del video. La resolución se mide típicamente en puntos por pulgada (DPI). Los DPI se relacionan con el tamaño de la pantalla táctil y la capacidad de muestreo del hardware y software del sistema táctil usado para detectar los contactos sobre la superficie táctil. [0008] Las pantallas táctiles pasivas de baja resolución sólo tienen suficientes DPI para detectar contactos sobre la superficie táctil dentro de un grupo grande de los píxeles visualizados por la pantalla del ordenador o video. Por lo tanto, estas pantallas táctiles pasivas de baja resolución son útiles solamente para la manipulación de la pantalla del ordenador o del video. [0009] Por otro lado, las pantallas táctiles pasivas de alta resolución tienen suficientes DPI para detectar contactos que son proporcionales a un número pequeño de píxeles
o subpíxeles de la pantalla del ordenador o del video. Sin embargo, un requisito de las pantallas táctiles de alta resolución es la capacidad para detectar cuando el puntero está en contacto con la superficie táctil. Esto es necesario para la escritura, dibujo, operaciones de clic de ratón, etc. Sin la capacidad de detectar el contacto del puntero con la pantalla táctil, la escritura y dibujo sería una operación continua y los clics del ratón no serían posibles haciendo la manipulación de la pantalla del ordenador virtualmente imposible. Un requisito secundario es la capacidad para detectar cuando el puntero se está “moviendo por encima” de la superficie táctil. Aunque no se requiere para la escritura o dibujo, los sistemas operativos de los ordenadores actuales están utilizando crecientemente la información de movimiento por encima para manipular las pantallas del ordenador o video o los cuadros emergentes de información. [0010] Las pantallas táctiles pasivas son típicamente o bien de tipo resistivo analógico, del tipo de onda acústica superficial (SAW) o del tipo capacitivo. Desafortunadamente, estas pantallas táctiles sufren de un número de problemas o inconvenientes como se describirá. [0011] Las pantallas táctiles resistivas analógicas típicamente tienen una alta resolución. Dependiendo de la complejidad del sistema táctil, la resolución de la pantalla táctil puede producir 4096x4096 DPI o mayor. Las pantallas táctiles resistivas analógicas se construyen usando dos hojas flexibles que se recubren con un material resistivo y se dispone como un sandwich. Las hojas no se ponen en contacto entre sí hasta que se realiza un contacto. Las hojas se mantienen separadas típicamente por micro puntos de aislamiento o mediante un espacio de aire de aislamiento. Las hojas se construyen de ITO, que es principalmente transparente. Por ello, la pantalla táctil introduce alguna distorsión de imagen aunque muy pequeño paralaje. [0012] Durante la operación de una pantalla táctil pasiva resistiva analógica, se aplica un gradiente de tensión uniforme en una dirección a lo largo de una primera de las hojas. La segunda hoja mide la tensión a lo largo de la primera hoja cuando las dos hojas contactan entre sí como resultado de un contacto realizado sobre la superficie táctil. Dado que el gradiente de tensión en la primera hoja se puede traducir en una distancia a lo largo de la primera hoja, la tensión medida es proporcional a la posición del contacto sobre la superficie táctil. Cuando se adquiere una coordenada de contacto sobre la primera hoja, el gradiente de tensión uniforme se aplica entonces a la segunda hoja y la primera hoja mide la tensión a lo largo de la segunda hoja. El gradiente de tensión de la segunda hoja es proporcional a la distancia a lo largo de la segunda hoja. Estas dos coordenadas de contacto representan la posición X-Y de contacto sobre la superficie táctil en un sistema de coordenadas cartesianas. [0013] Desafortunadamente, dado que se requiere presión mecánica para poner ambas hojas en contacto, las pantallas táctiles resistivas analógicas sólo pueden detectar el contacto cuando hay una presión suficiente para poner las dos hojas juntas. Las pantallas táctiles pasivas resistivas analógicas tampoco pueden detectar cuando un puntero se está moviendo por encima de la superficie táctil. Por tanto, en el caso de las pantallas táctiles resistivas analógicas los eventos de contacto y las posiciones sólo se pueden detectar cuando se realizan contactos reales con la superficie táctil. [0014] Las pantallas táctiles de onda acústica superficial (SAW) proporcionan típicamente una resolución media y no son adecuadas para el registro de buena calidad de escritura. Las pantallas táctiles SAW emplean transductores sobre los bordes de una superficie de vidrio para hacer vibrar el vidrio y producir ondas acústicas que ondean sobre la superficie de vidrio. Cuando se realizan contactos sobre la superficie del vidrio, las ondas acústicas se reflejan hacia atrás y se determina la posición de contacto a partir de la marca de las ondas acústicas reflejadas. [0015] Desafortunadamente, las pantallas táctiles SAW presentan un notable paralaje debido al grosor del vidrio vibrante que se coloca sobre la superficie de la pantalla de video u ordenador. También, los eventos de contacto y las posiciones sólo se pueden detectar cuando se realizan contactos reales con la superficie de vidrio. Adicionalmente, las pantallas táctiles SAW no llegan a tamaños más allá de unos pocos pies de diagonal. [0016] Las pantallas táctiles capacitivas proporcionan una baja resolución debido a que los contactos sólo se pueden determinar en grandes áreas (aproximadamente 12,7 mm x 12,7 mm (½” x ½”) ). Como resultado, las pantallas táctiles capacitivas no se pueden usar para el registro de escritura o dibujos pero son adecuadas para la selección de áreas sobre la pantalla táctil que corresponden a botones generados por el ordenador y representados sobre la pantalla de video u ordenador. Las pantallas táctiles capacitivas sufren también desventajas en cuanto a que son sensibles a la temperatura y la humedad. Similarmente a las pantallas táctiles resistivas analógicas y a las pantallas táctiles SAW, las pantallas táctiles capacitivas sólo pueden detectar eventos de contacto y posiciones cuando se realizan contactos reales con la superficie táctil. [0017] La escalabilidad de las pantallas táctiles pasivas es importante dado que la demanda para grandes digitalizadores electrónicos es creciente. En donde los digitalizadores fueron una vez pequeñas aplicaciones de sobremesa, hoy han hallado su camino sobre aplicaciones de pizarras electrónicas. La necesidad de construir una “pared” sensible al tacto pasiva se ha convertido en un requisito para las nuevas aplicaciones de pantallas táctiles. Las pantallas táctiles pasivas existentes de los tipos explicados anteriormente están todos limitados en su tamaño máximo siempre que deban permanecer funcionales. [0018] El documento WO 99/40562 se refiere a un sistema de pantalla táctil de ordenador con videocámara en el que se desvela un procedimiento y sistema para la introducción de datos en un ordenador a través de una pantalla de monitor de ordenador. Una cámara de video de PC estándar montada por encima de la pantalla del ordenador supervisa el área inmediatamente por delante de la pantalla. Un sistema óptico similar a un periscopio situado por detrás de la cámara de video hace que se registren dos imágenes en el primer plano de la pantalla por la cámara vistas simultáneamente desde un ángulo diferente. Esta técnica anterior se reconoce en el preámbulo de las reivindicaciones 1 y 6.
[0019] El documento US 4.746.770 se refiere a un procedimiento y aparato para el aislamiento y la manipulación de objetos gráficos sobre un monitor de video de ordenador. Un elemento de marco coopera con una pluralidad de sensores ópticos y una pluralidad de objetos obturadores de la luz que tienden a obstruir una parte de la luz normalmente recibida por los sensores ópticos. [0020] El documento DE 19810452 se refiere a un digitalizador óptico para la determinación de la posición de un objeto de puntero que proyecta una luz y que se dispone sobre un plano de coordenadas. En el digitalizador óptico, se dispone un detector sobre una periferia del plano de coordenadas y tiene un campo de visión que cubre el plano de coordenadas para la recepción de la luz proyectada desde el objeto de puntero y para convertir la luz recibida en una señal eléctrica. [0021] Como se apreciará, se desean mejoras en los sistemas táctiles pasivos. Es por lo tanto un objeto de la presente invención proporcionar un sistema táctil novedoso en base a una cámara. DIVULGACIÓN DE LA INVENCIÓN [0022] La invención se define en las reivindicaciones 1 y 6. [0023] Preferentemente, las al menos dos cámaras son cámaras digitales que tienen campos de visión que miran en general a lo largo del plano de la superficie táctil. Los datos de imágenes generadas por cada cámara digital incluyen una línea media del puntero x y una localización de la punta z. Cada una de las cámaras digitales incluye una matriz de píxeles que tienen filas de píxeles seleccionables. Las intensidades de píxel de los píxeles en las filas de píxeles seleccionables se usan durante la generación de los datos de imagen. Preferentemente, las intensidades de píxel de los píxeles en una región de interés dentro de las filas de píxeles seleccionables se usan durante la generación de los datos de imágenes. [0024] En una realización preferida, cada una de las cámaras digitales incluye un sensor de imagen CMOS y un procesador de señales digitales. El procesador de señales digitales recibe imágenes salidas del sensor imagen y ejecuta una rutina de búsqueda del puntero para determinar si hay un puntero en cada imagen adquirida por la cámara digital y, si es así, la línea media del puntero. Se prefiere también que el procesador de señales digitales de cada cámara digital ejecute una rutina de actualización de la imagen de base para actualizar la imagen de base después de que se adquiera cada imagen. Preferentemente, el procesador de señal digital de cada cámara digital determina las diferencias entre cada imagen adquirida y la imagen de base para detectar el cambio en las condiciones de luz. [0025] La presente invención proporciona ventajas para que el sistema táctil pasivo sea de alta resolución y permita contactos del puntero reales con la superficie táctil así como que se detecten movimientos del puntero por encima de la superficie táctil y se genere la correspondiente salida. También, el presente sistema táctil pasivo proporciona ventajas ya que no sufre paralaje, distorsión de imagen, restricciones en la posición del puntero, proyección de imagen ni los problemas de escalabilidad que se asocian con los sistemas táctiles pasivos de técnicas anteriores. [0026] Adicionalmente, la presente invención proporciona ventajas ya que debido al uso de cámaras digitales CMOS, se pueden seleccionar filas de píxeles arbitrarios en las matrices de píxeles de la cámara digital. Esto permite que las velocidades de cuadro de las cámaras digitales se aumenten significativamente. Además, dado que se pueden seleccionar arbitrariamente las filas de píxeles, las matrices de píxeles se pueden exponer a mayores duraciones para velocidades de marco de cámara digital dadas permitiendo un buen funcionamiento en habitaciones oscuras así como en habitaciones iluminadas.
BREVE DESCRIPCIÓN DE LOS DIBUJOS [0027] La realización de la presente invención se describirá ahora más completamente con referencia a los dibujos adjuntos en los que:
la Figura 1 es un diagrama esquemático de un sistema táctil en base a una cámara de acuerdo con la presente invención; la Figura 2 es una vista isométrica de una pantalla táctil que forma parte del sistema táctil de la Figura 1, la Figura 3 es una vista isométrica de una parte de la esquina de la pantalla táctil de la Figura 2; la Figura 4 es un diagrama esquemático de una cámara digital que forma parte de la pantalla táctil de la Figura 2; la Figura 5 es un diagrama esquemático de un controlador maestro que forma parte del sistema táctil de la Figura 1; la Figura 6 es un diagrama de flujo que muestra las etapas realizadas durante la ejecución de una rutina de procesoCuadro; la Figura 7 es un diagrama de flujo que muestra las etapas realizadas durante la ejecución de una rutina de segmentoPuntero; la Figura 8 es un diagrama de flujo que muestra las etapas realizadas durante la ejecución de una rutina de buscaPuntero; la Figura 9 muestra una imagen adquirida por una cámara digital y un subconjunto de píxeles de la imagen que se procesa; la Figura 10 muestra una región de interés (ROI) dentro del subconjunto de píxeles de la Figura 9; la Figura 11 muestra la geometría de triangulación usada para calcular una posición de contacto del puntero sobre la superficie táctil de la pantalla táctil ilustrada en la Figura 2; la Figura 12 muestra una imagen adquirida por una cámara digital que incluye la punta del puntero y su línea media; la Figura 13 muestra el contacto del puntero y el movimiento por encima del puntero con diferentes orientaciones del puntero; la Figura 14 es una imagen de la superficie táctil de la pantalla táctil como se ve por una cámara digital; las Figuras 15 y 16 muestran los resultados de una simulación con Matlab del seguimiento del puntero usando un filtro de Kalman; y las Figuras de la 17a a la 17d muestran los resultados de otra simulación con Matlab del seguimiento del puntero usando un filtro de Kalman.
MEJOR MODO DE REALIZAR LA INVENCIÓN [0028] Volviendo ahora a la Figura 1, se muestra un sistema táctil en base a una cámara de acuerdo con la presente invención y se identifica en general por el número de referencia 50. Como se puede ver, el sistema táctil 50 incluye una pantalla táctil 52 conectada a un controlador maestro 54 en base a un procesador de señales digital (DSP). El controlador maestro 54 está conectado también a un ordenador 56. El ordenador 56 ejecuta uno o más programas de aplicación y proporciona una salida de pantalla que se presenta sobre la pantalla táctil 52 por medio de un proyector 58. La pantalla táctil 52, el controlador maestro 54, el ordenador 56 y el proyector 58 forman un bucle cerrado de modo que los contactos del usuario con la pantalla táctil 52 se pueden registrar como escritura o dibujo o usar para controlar la ejecución de programas de aplicación ejecutados por el ordenador 56. [0029] Las Figuras de la 2 a la 4 ilustran mejor la pantalla táctil 52. La pantalla táctil 52 incluye una superficie táctil 60 rodeada por un marco rectangular 62. La superficie táctil 60 está en la forma de una hoja plana rectangular de material pasivo. Las cámaras digitales CMOS 63 basadas en un DSP se asocian con cada esquina de la pantalla táctil 52. Cada cámara digital 63 se monta sobre un conjunto de marco 64. Cada conjunto de marco 64 incluye una placa de soporte en ángulo 66 sobre la que se monta la cámara digital 63. Los elementos del marco de soporte 70 y 72 se montan sobre la placa 66 por medio de postes 74 y aseguran la placa 66 al marco 62. [0030] Cada cámara digital 63 incluye un sensor de imagen CMOS bidimensional y un conjunto de lentes 80 asociado, un almacén temporal primero en entrar-primero en salir (FIFO) 82 conectado al sensor de imagen y un conjunto de lentes 80 mediante un bus de datos y un procesador de señales digital (DSP) 84 conectado a la FIFO 82 mediante un bus de datos y al sensor de imagen y conjunto de lentes 80 mediante un bus de control. Se incluyen también una EPROM de arranque 86 y un subsistema de alimentación eléctrica 88. [0031] En la presente realización, el sensor de imagen de la cámara CMOS es un sensor de imagen Photobit PB300 configurado para una submatriz de píxeles de 20x640 que se puede operar para capturar cuadros de imágenes a velocidades por encima de 200 cuadros por segundo dado que se pueden seleccionar filas de píxeles arbitrariamente. Además, dado que se pueden seleccionar arbitrariamente las filas de píxeles, la submatriz de píxeles se puede exponer a una duración mayor para una velocidad de cuadros de cámara digital dada permitiendo un buen funcionamiento en habitaciones oscuras así como en habitaciones iluminadas. El almacén temporal FIFO 82 se fabrica por Cypress con el número de catálogo CY7C4211V y el DSP 84 se fabrica por Analog Devices con el número de catálogo ADSP2185M. [0032] El DSP 84 proporciona información de control al sensor de imagen y al conjunto de lentes 80 por medio del bus de control. La información de control permite al DSP 84 controlar los parámetros del sensor de imagen y del conjunto de lentes 80 así como la exposición, ganancia, configuración de la matriz, reposición e inicialización. El DSP 84 proporciona también señales de reloj al sensor de imagen y al conjunto de lentes 80 para controlar la velocidad de cuadros del sensor de imagen y del conjunto de lentes
80. [0033] El ángulo de la placa 66 se selecciona de modo que el campo de visión (FOV) de cada cámara digital 63 se extienda más allá de un borde de diseño periférico de la superficie táctil 60 como se muestra en la Figura 11. De esta forma, la superficie táctil completa 60 está dentro de los campos de visión de las cámaras digitales 63. [0034] El controlador maestro 54 se ilustra mejor en la Figura 5 e incluye un DSP 90, una EPROM de arranque 92, un controlador de línea serie 94 y un subsistema de alimentación eléctrica 95. El DSP 90 comunica con los DSP 84 de las cámaras digitales 63 a través del bus de datos por medio del puerto serie 96 y comunica con el ordenador 56 a través de un bus de datos por medio del puerto serie 98 y el controlador de línea serie 94. En la presente realización el DSP 90 se fabrica también por Analog Devices con el número de catálogo ADSP2185M. El controlador de línea serie 94 se fabrica por Analog Devices con el número de catálogo ADM222. [0035] El controlador maestro 54 y cada cámara digital 63 siguen un protocolo de comunicación que permite las comunicaciones bidireccionales a través de un cable serie común similar a un bus serie universal (USB). El ancho de banda de la transmisión se divide en treinta y dos (32) canales de 16 bits. De los treinta y dos canales, se asignan seis (6) canales a cada uno de los DSP 84 en las cámaras digitales 63 y al DSP 90 en el controlador maestro 54 y los dos (2) canales restantes quedan sin usar. El controlador maestro 54 supervisa los veinticuatro (24) canales asignados a los DSP 84 mientras que los DSP 84 supervisan los seis (6) canales asignados al DSP 90 del controlador maestro 54. Las comunicaciones entre el controlador maestro 54 y las cámaras digitales 63 se realizan como procesos en segundo plano en respuesta a interrupciones. [0036] Se describirá ahora el funcionamiento general del sistema táctil 50. Cada cámara digital 63 adquiere imágenes de la superficie táctil 60 dentro del campo de visión de su sensor de imágenes y conjunto de lentes 80 a una velocidad de cuadros deseada y procesa cada imagen adquirida para determinar si hay un puntero en la imagen adquirida. Si hay un puntero en la imagen adquirida, la imagen se procesa adicionalmente para determinar las características del contacto del puntero o del movimiento por encima de la superficie táctil 60. Se generan entonces por las cámaras digitales 63 los paquetes de información de puntero (PIPS) que incluyen información de características, estado y/o diagnóstico del puntero y los PIP se ponen en cola para su transmisión al controlador maestro 54. Las cámaras digitales 63 también reciben y responden a comandos de PIP generados por el controlador maestro 54. [0037] El controlador maestro 54 consulta los PIP de las cámaras digitales 63. Si los PIP incluyen información de características del puntero, el controlador maestro 54 triangula las características de puntero en los PIP para determinar la posición del puntero con relación a la superficie táctil 60 en coordenadas rectangulares cartesianas. El controlador maestro 54 a su vez transmite los datos de la posición del puntero calculados, la información de estado y/o diagnóstico al ordenador personal 56. De esta manera, los datos de posición del puntero transmitidos al ordenador personal 56 se pueden registrar como escritura o dibujo o se pueden usar para controlar la ejecución de programas de aplicación ejecutados por el ordenador 56. El ordenador 56 también actualiza la salida de pantalla transferida al proyector 58 de modo que la información presentada sobre la superficie táctil 60 refleje la actividad del puntero. [0038] El controlador maestro 54 también recibe comandos desde el ordenador personal 56 y responde en consecuencia y asimismo genera y transfiere comandos de PIP a las cámaras digitales 63. [0039] Se describirán ahora los detalles concernientes al procesamiento de las imágenes adquiridas y la triangulación de las características del puntero en los PIP con referencia en particula r a las Figuras de la 6 a la 8. [0040] Inicialmente, se reaaliza una rutina de calibración del ángulo cámara para determinar eel ángulo de desvío δ de cada cámara digi Figura 11) de modo que s e pueda determinar con precisión la posició de movimiento por encimaa de un puntero con relación a la superficc detalles de la calibración del ángulo de desvío de la cámara se Solicitud de Estados Uniddos de los presentes Solicitantes, pendien presente, titulada “Calibbrating Camera Offsets to Facilitate O Determination Using Trianggulation" presentada el 1 de junio de 2001. [0041] A continuación de la rutina de calibración del ángulo de desví se realiza una rutina de deetección superficial para mejorar la determin un puntero está en contactto con la superficie táctil 60 en un punto dad por encima de la superficiee táctil. [0042] Con las coordenadas rectangulares de un puntero en el planoo táctil 60 conocidas con preecisión a partir de la calibración del ángulo cámara, se puede determinnar la orientación de la superficie táctil 60 tal cada cámara digital 63. Esto es necesario debido al hecho de qdigitales no solamente ven a lo largo del plano de la superficie táctil 60 una dirección perpendiculaar a él. En algún grado, cada cámara digita abajo dentro de la superficcie táctil 60. La Figura 14 muestra en genera superficie táctil 60 tal comoo se ve por una cámara digital 63. Debido a definir una coordenada “veertical” z que describe la localización de la su función de las coordenadass rectangulares x e y. [0043] La coordenada z deel puntero se puede medir a partir de una im digital, y de ahí, se puedden determinar las coordenadas z para laspuntero sobre la superficie e coordenada z para unas coordenadas x e dadas. La calibración verticcal se puede describir como una superficie d
Nótese que si los coeficienntes C, D y E son cero, se convierte en un plaano. El ajuste se calcula fácilmente ya quee la ecuación (0,1) representa un problemma de mínimos cuadrados lineal. La corresspondiente matriz tomará forma:
[0044] Para ajustar las coordenadas rectangulares x e y a la ecuación (0,1) para determinar los coeficientes de la A a la E, se usa el procedimiento de pseudo inversa de Moore-Penrose que se basa en la descomposición en valores singulares (SVD) para determinar una solución de mínimos cuadrados con mínima normal. [0045] Como se apreciará, una matriz se puede descomponer siempre de la siguiente forma:
[0046] La matriz A puede tener cualquier forma. Las matrices U y V son matrices ortogonales, lo que significa que:
[0047] La matriz diagonal S se compone completamente en los valores singulares de la matriz A, que se relacionan con los cuadrados de los valores propios de la matriz A. La importancia de la descomposición en valores singulares (SVD) descansa en el hecho de que con ella, se puede siempre calcular la inversa de la matriz A. Más aún, es posible controlar esta inversión cuando se encuentra un problema pobremente determinado. Considérese el sistema de ecuaciones lineales:
cuya solución sería:
[0048] El SVD permite escribir la inversa de la matriz A como:
determinada, algunos de los valores singulares serán muy pequeños, de modo que cuando se forma la matriz S-1, se producirán valores grandes, lo que no es deseable. En este caso, las inversas de los valores singulares más pequeños se fijan a cero. Esto tiene el efecto de eliminar la parte pobremente determinada de la solución. Para problemas de mínimos cuadrados, ésta es una potente herramienta. El procedimiento de ecuaciones normal usual para problemas de mínimos cuadrados se basa en resolver:
en el caso sobre determinado, y resolver:
ecuaciones a la ecuación (0,1), se usa el mismo procedimiento que se usó durante la determinación de los ángulos de desvío de cámara δ. Dado que se usa el mismo procedimiento, el uso de memoria y la velocidad de procesamiento se mantienen en niveles deseados. [0049] Con los coeficientes de la A a la E conocidos, se puede calcular la coordenada z para cualquier punto (x,y) dado sobre la superficie táctil y por ello, se puede realizar una determinación de si un puntero está en contacto con la superficie táctil 60 o moviéndose por encima de ella. [0050] Con el sistema táctil 50 calibrado, durante la operación cada cámara digital 63 adquiere imágenes de la superficie táctil 60 dentro de su campo de visión. Las imágenes se adquieren por el conjunto de imagen y lentes 80 a intervalos en respuesta a las señales de reloj recibidas desde el DSP 84. Cada imagen adquirida por el conjunto de imagen y lentes 80 se envía a la memoria intermedia FIFO 82. El DSP 84 a su vez lee cada imagen desde la memoria intermedia FIFO 82 y procesa la imagen. Para evitar el procesamiento de números significativos de píxeles que no contienen información útil, solamente se procesa un subconjunto de los píxeles en la imagen adquirida como se muestra en la Figura 9. [0051] Durante el procesamiento de una imagen adquirida por una cámara digital 63, el DSP 84 ejecuta una rutina de procesoCuadro como se muestra en la Figura 6. Cuando está disponible una imagen para su procesamiento (etapa 120), se realiza una comprobación para determinar si la imagen se ha capturado con la finalidad de ajustar la cámara digital 63 (etapa 122). Si la imagen se ha adquirido con la finalidad de ajuste de exposición, se llama a una rutina de controlExposicion (etapa 124) para ajustar la exposición de la cámara digital 63. A continuación de esto, el DSP 84 espera a la recepción de la siguiente imagen disponible para su procesamiento. [0052] En la etapa 122, si no se ha capturado la imagen con la finalidad de ajustar la exposición de la cámara digital 63, se realiza una comprobación para determinar si la imagen se ha capturado con la finalidad de sustituir a la imagen base (etapa 126). Si la imagen se ha adquirido con la finalidad de sustituir la imagen base, se llama a una rutina de capturaBase (etapa 128) y la imagen adquirida se usa como la imagen de base. Esto se realiza si la cámara digital adquiere una imagen y envía un PIP al controlador maestro que indica que hay un puntero en la imagen cuando realmente es ruido. La sustitución de la imagen base inhibe de modo efectivo el que la cámara digital identifique falsamente un puntero en futuros PIP. A continuación de esto, el DSP 84 espera a la recepción de la siguiente imagen disponible para su procesamiento. [0053] En la etapa 126, si no se ha capturado la imagen con la finalidad de sustituir la imagen base, se llama a una rutina de copiaIActual por el DSP 84 (etapa 130). Durante esta rutina, la imagen actual adquirida se copia en la memoria y se usa para actualizar la imagen de base así como para formar una imagen de diferencia que representa las diferencias entre la imagen actual adquirida y la imagen de base. [0054] Tras completar la rutina copiaIActual, se llama a una rutina segmentoPuntero (etapa 132) para determinar si hay un puntero en la imagen adquirida y si es así determinar la localización del puntero con relación a la superficie táctil 60 y si el puntero está en contacto con la superficie táctil 60 o moviéndose por encima de ella. La rutina segmentoPuntero 132 permite también la detección del cambio en las condiciones de luz. A continuación de la rutina segmentoPuntero 132, el DSP 84 llama a la rutina rellenarPIP (etapa 134) para colocar la información del puntero y condiciones de luz en un PIP para su transmisión al controlador maestro 54. Posteriormente, el DSP 84 espera a la recepción de la siguiente imagen disponible para su procesamiento. [0055] La Figura 7 ilustra las etapas realizadas por el DSP 84 durante la ejecución de la rutina segmentoPuntero 132. Como se puede ver, cuando el DSP 84 ejecuta la rutina segmentoPuntero 132, el DSP 84 llama a la rutina buscaPuntero para determinar si hay un puntero en la imagen adquirida y si es así, la posición del puntero en la imagen adquirida actual (etapa 140). Tras completar la rutina buscaPuntero 140, el DSP 84 llama a la rutina actualizarBase para actualizar la imagen de base y de ese modo gestionar los cambios en las condiciones de luz (etapa 142). [0056] Durante la ejecución de la rutina actualizarBase, el DSP 84 actualiza
continuamente la imagen de base usando la ecuación:
Bn+1 es la nueva imagen base;
Bn es la imagen base actual;
I es la imagen adquirida actual;
i,j son las coordenadas de fila y columna de los píxeles de la imagen base que se
están actualizando; y
a es un número entre 0 y 1 que indica el grado de aprendizaje que se debería
tomar de la imagen adquirida actual I. Cuanto mayor sea el valor de a, más rápido
se actualiza la imagen de base. [0057] Después de que se haya ejecutado la rutina actualizarBase 142, se calcula por el DSP 84 la diferencia de intensidad entre la imagen adquirida actual y la imagen de base. Esta información se envía al controlador maestro 54 para permitir al controlador maestro determinar si la cámara digital 63 necesita ser re-expuesta. Esto se requeriría si ocurre un cambio drástico en las condiciones de luz (es decir la luz ambiente se encendió o apagó). Cuando se requiere la re-exposición de la cámara digital 63, el controlador maestro 54 envía un comando de PIP a la cámara digital 63 instruyendo a la cámara digital para adquirir una imagen para ajuste de la exposición. [0058] La Figura 8 ilustra las etapas realizadas por el DSP 84 durante la ejecución de la rutina buscaPuntero 140. Como se puede ver, cuando el DSP 84 ejecuta la rutina buscaPuntero 140, el DSP 84 borra la localización del puntero y los parámetros de la punta del puntero x y z respectivamente (etapa 150). Posteriormente se construye un histograma de intensidad vertical (etapa 152). Durante esta etapa, se forma la imagen de diferencia que representa las diferencias entre la imagen actual y la imagen de base y se suman por columna las intensidades de los píxeles en la imagen de diferencia. De esta manera se forma un vector de 640 x 1 que representa la suma de cada columna en la imagen diferencia de 640 x 20. De ese modo, el primer elemento en el vector 640 x 1 representa la suma de los 20 píxeles en la primera columna de la imagen de diferencia de 640 x 20, el segundo elemento en el vector 640 x 1 representa la suma de los 20 píxeles en la segunda columna de la imagen de diferencia de 640 x 20 y así sucesivamente. Los detalles adicionales de este proceso se pueden hallar en el artículo titulado "A smart camera application: DSP - based people detection and tracking" realizado por V. Cheng y col. y publicado en el SPIE Journal of Electronic Imaging, julio de 2000. [0059] Tras la creación del histograma de intensidad vertical en la etapa 152, se determina el parámetro x de localización del puntero mediante la búsqueda de la columna en el histograma de intensidad vertical con la intensidad más alta por encima del umbral de ruido (etapa 154). La columna se usa como centro de una región de interés (ROI) a ser procesada siendo el ancho de la ROI igual a la base del pico formado por el histograma de intensidad vertical (véase la Figura 10). Si ninguna columna tiene una intensidad por encima del umbral de ruido, se supone que no hay ningún puntero dentro de la imagen adquirida. [0060] Cuando se determina un parámetro x de localización de puntero, el DSP 84 analiza la ROI para determinar la fila de píxeles en donde se localiza la punta del puntero y determinar si esa fila representa un contacto con la superficie táctil o un movimiento por encima (etapa 156). Específicamente, el DSP 84 crea una máscara binaria en la ROI de modo que los píxeles blancos representan el puntero y los píxeles negros representan la base como se muestra en la Figura 12. A partir de la máscara, se pueden calcular fácilmente la localización de la línea media del puntero y la punta del puntero z. [0061] Durante la rutina rellenarPIP 134, el DSP 84 usa la información del puntero y de la condición de luz adquirida durante la ejecución de la rutina segmentoPuntero 132 y crea un PIP para reducir la imagen adquirida a un conjunto pequeño de datos para proporcionar de ese modo una economía en ancho de banda. El PIP está en la forma de un paquete de seis (6) palabras, siendo cada palabra en el paquete de dieciséis (16) bits. El PIP típicamente toma la forma:
Cabecera
Datos Suma de comprobación
[0062] La parte de cabecera del PIP es típicamente de dieciséis (16) bits e incluye un campo de destino/fuente, un campo de tipo de datos, un campo de número de cuadro de la imagen, un campo de número de secuencia y un campo de número de paquete. El campo de destino/fuente identifica el destino del PIP y la fuente del PIP. Si el PIP se genera por el controlador maestro 54, el destino puede ser una única cámara digital 63 o todas las cámaras digitales. El tipo de datos indica si el PIP se refiere a la información de puntero o a otra información tal como información de estado y diagnóstico. El campo de número de cuadro de la imagen almacena un número de modo que las imágenes desde cada cámara digital 63 se procesen por el controlador maestro 54 en secuencia. El campo de número de secuencia almacena un número que relaciona el PIP con otros PIP.
El campo de número de paquete almacena un número que identifica el paquete. [0063] La parte de datos del PIP es típicamente de sesenta y cuatro (64) bits e incluye un campo de ID del puntero, un campo de parámetro de localización de puntero, un campo de parámetro de la punta del puntero, un campo de estado de contacto y un campo de bondad del puntero. El campo de ID del puntero almacena un identificador del puntero para permitir el seguimiento de múltiples punteros. El campo de parámetro de localización del puntero almacena el valor x calculado por el DSP 84. El campo de parámetro de punta de puntero almacena el valor z calculado por el DSP 84. El campo de estado de contacto almacena un valor que indica si el puntero está en contacto, no en contacto o posiblemente en contacto con la superficie táctil 60. El campo de bondad del puntero almacena un valor estadístico sobre la probabilidad de que el puntero detectado sea real. [0064] La parte de suma de comprobación del PIP se usa para asegurar una integridad en la transmisión del PIP. Si los errores de la suma de comprobación del PIP son poco frecuentes, los errores de la suma de comprobación que muestren los PIP son ignorados por el dispositivo de destino. [0065] Los PIP de estado que no se refieren a información del puntero, tienen una forma diferente a la de los PIP identificados descritos anteriormente. Para los PIP de esta naturaleza, la parte de datos incluye un campo de tipo de instrucción, un campo de código de instrucción y un campo de datos. El campo de tipo de instrucción identifica si el tipo de instrucción es una instrucción a ser ejecutada o una solicitud de estado. El campo de código de instrucción almacena la instrucción real o el identificador de la solicitud estado. El campo de datos almacena los datos que varían dependiendo del tipo de instrucción. Ejemplos de los PIP de estado incluyen los PIP de cabecera de cuadro, los PIP de comando y los PIP de mensajes de error. [0066] Un PIP de cabecera de cuadro incluye típicamente el número de los PIP de puntero que han de seguir para una imagen adquirida actual con estadísticas para la imagen actual tales como la variación de intensidad entre la imagen adquirida actual y una imagen previa. Un PIP de comando enviado por el controlador maestro 54 puede instruir a una cámara digital para ajustar uno o más de sus graduaciones tales como la exposición o de captura de la imagen para ser usada como una nueva imagen base. Un PIP de error puede pasar una condición de error desde una cámara digital 63 al controlador maestro 54 para su almacenamiento en un registro de errores. [0067] Cada cámara digital 63 procesa cada imagen que adquiere en la forma descrita anteriormente en respuesta a cada señal de reloj generada por su DSP 84. Los PIP creados por los DSP 84 sólo se envían al controlador maestro 54 cuando las cámaras digitales 63 son consultadas por el controlador maestro 54. [0068] Cuando el controlador maestro 54 consulta a las cámaras digitales 63, se envían pulsos de sincronización de cuadro a las cámaras digitales 63 para iniciar la transmisión de los PIP creados por los DSP 84. Tras la recepción de un pulso de sincronización de
5 cuadro, cada DSP 84 transmite el PIP al controlador maestro 54 a través del bus de datos. Los PIP transmitidos al controlador maestro 54 se reciben por medio del puerto serie 96 y se almacenan automáticamente en el DSP 90. [0069] Después de que el DSP 90 haya consultado a las cámaras digitales 63 y haya recibido los PIP de cada una de las cámaras digitales 63 que incluyen información del
10 puntero, el DSP 90 procesa los PIP usando la triangulación para determinar la localización del puntero con relación a la superficie táctil 60 en coordenadas (x, y). Específicamente, se procesan los PIP de pares de cámaras digitales 63 usando la triangulación. [0070] La Figura 11 muestra que se necesitan dos ángulos φcam1 y φcam2 para triangular la
15 posición (x0, y0) de un puntero con relación a la pantalla táctil 60. Los PIP generados por cada cámara digital 63 incluyen un número θ (véase la Figura 12) que identifica la línea media o punta del puntero. Cuando el controlador maestro 54 recibe un PIP desde una cámara digital 63, el controlador maestro usa el número que representa la línea media o la punta del puntero y el campo de visión de la cámara digital para calcular un ángulo φcam
20 usando la ecuación:
x es el número que representa la línea media o punta del puntero; y
25 a esa longitud total encerrada por el campo de visión (FOV) de la cámara digital a una distancia desde la cámara. [0071] El ángulo calculado φcam es igual al ángulo formado entre la extremidad del campo de visión que se extiende más allá del borde de la periferia de diseño de la superficie táctil 60 de la cámara digital 63 que generó el PIP y una línea que se extiende desde el
30 eje óptico de la cámara digital que cruza el puntero dentro de la imagen adquirida. Preferentemente, la extremidad del campo de visión se extiende más allá del borde periférico designado (es decir en este caso el eje x) de la superficie táctil 60 dentro del campo de visión en una cantidad conocida. Sin embargo, en casi todos los casos la
desviación angular δcam de exploración de cada cámara digital 63 es diferente y desconocida. [0072] Una vez que el controlador maestro 54 calcula el ángulo φcam, el controlador maestro 54 usa el ángulo de desviación de la cámara δcam determinado durante la
5 calibración de la desviación de cámara para ajustar el ángulo φcam. Con los dos ángulos disponibles y con los ángulos φcam ajustados, el controlador maestro 54 usa los ángulos φcam para determinar la posición del puntero con relación a la superficie táctil 60 usando la triangulación. [0073] En la presente realización, dado que la pantalla táctil 52 incluye cuatro cámaras
10 digitales 63, se pueden usar para triangulación seis pares de cámaras digitales. La siguiente explicación describe como se determina la posición de un puntero mediante triangulación de cada par de cámaras digitales 63. [0074] Para determinar una posición de puntero usando los PIP recibidos de las cámaras digitales 63 a lo largo del lado izquierdo de la pantalla táctil 52, se usan las
15 siguientes ecuaciones para determinar las coordenadas (x0, y0) de la posición del puntero, dados los ángulos φ0 y φ1 para las cámaras digitales superior e inferior:
en las que: h es la altura de la pantalla táctil 52, es decir la distancia vertical de punto focal a punto focal de cámara digital;
25 w es el ancho de la pantalla táctil 52, es decir la distancia horizontal de punto focal a punto focal de cámara digital; y φi es el ángulo con respecto a la horizontal, medido usando la cámara digital i y la ecuación (0,7).
[0075] Para las cámaras digitales 63 a lo largo del lado derecho de la pantalla táctil 52, 30 se usan las siguientes ecuaciones para determinar las coordenadas (x0, y0) de la posición del puntero, dados los ángulos φ2 y φ3 para las cámaras digitales superior e inferior:
[0076] Debería ser evidente la similitud entre las ecuaciones (0,8) y (0,10), es decir la ecuación (0,10) = 1 – ecuación (0,8) una vez que se han sustituido los ángulos φ2 y φ3 en
5 la ecuación (0,8) por los ángulos φ0 y φ1 respectivamente. Las ecuaciones (0,9) y (0,11) se relacionan de una forma similar. [0077] Para determinar una posición del puntero usando las cámaras digitales 63 a lo largo de la parte inferior de la pantalla táctil 52, se usan las siguientes ecuaciones para determinar las coordenadas (x0, y0) de la posición del puntero, dados los ángulos φ0 y φ3
10 para las cámaras digitales inferior izquierda e inferior derecha:
[0078] Para determinar una posición del puntero usando las cámaras digitales 63 a lo
15 largo de la parte superior de la pantalla táctil 52, se usan las siguientes ecuaciones para determinar las coordenadas (x0, y0) de la posición del puntero, dados los ángulos φ1 y φ2 para las cámaras digitales superior izquierda y superior derecha:
[0079] Debería ser evidente la similitud entre las ecuaciones (0,12) y (0,14), es decir la ecuación (0,14) = ecuación (0,12) una vez que se han sustituido los ángulos φ1 y φ2 en la ecuación (0,12) por los ángulos φ0 y φ3. Las ecuaciones (0,13) y (0,15) tienen la siguiente
relación: ecuación (0,15) = 1 – ecuación (0,13) una vez que se han sustituido los ángulos φ1 y φ2 en la ecuación (0,13) por los ángulos φ0 y φ3 respectivamente. [0080] Para determinar una posición del puntero usando las cámaras digitales 63 a través de la diagonal desde la parte inferior izquierda a la parte superior derecha, se usan las siguientes ecuaciones para determinar las coordenadas (x0, y0) de la posición del puntero, dados los ángulos φ0, cualquier φ2 para las cámaras digitales inferior izquierda y superior derecha:
10 [0081] Para determinar una posición del puntero usando las cámaras digitales 63 a través de la diagonal desde la parte inferior derecha a la parte superior izquierda, se usan las siguientes ecuaciones para determinar las coordenadas (x0, y0) de la posición del puntero, dados los ángulos φ1 y φ3 para las cámaras digitales inferior derecha y superior
15 izquierda:
[0082] Debería ser evidente la similitud entre las ecuaciones (0,16) y (0,18), es decir la
20 ecuación (0,18) = ecuación (0,16) una vez que se han sustituido los ángulos φ1 y φ3 en la ecuación (0,16) por los ángulos φ0 y φ2. Las ecuaciones (0,17) y (0,19) tienen la siguiente relación: ecuación (0,19) = 1 – ecuación (0,17) una vez que se han sustituido los ángulos φ1 y φ3 en la ecuación (0,17) por los ángulos φ0 y φ2 respectivamente. [0083] Como se apreciará, las ecuaciones anteriores generan las coordenadas x0 e y0 en
25 una escala de [0, 1]. Por lo tanto, se puede notificar cualquier escala de coordenadas apropiada mediante la multiplicación de x0 e y0 por el valor máximo de X y el máximo de Y respectivamente. [0084] En la presente realización, el DSP 90 calcula la posición del puntero usando la triangulación para cada par de cámaras digitales excluyendo los pares en diagonal. Se promedian entonces las posiciones de puntero resultantes y se ponen en cola las coordenadas resultantes de la posición de puntero para su transmisión al ordenador personal 56 a través del puerto serie 98 y el controlador de línea serie 94. [0085] Con la posición (x, y) de un puntero conocida por triangulación, usando los coeficientes de la A a la E calculados durante la calibración de la detección superficial, se puede determinar la coordenada z correspondiente a la posición (x, y) usando la ecuación (0,1). El cálculo de la coordenada z y la comparación de la coordenada z con el parámetro z en el PIP proporcionan una indicación de si el puntero está moviéndose por encima de la superficie táctil 60 o puesto en contacto real con la superficie táctil. [0086] Si se desea, se puede calcular una velocidad v y un ángulo del puntero por parte del DSP 90 como se muestra en la Figura 13. La velocidad del puntero se calcula examinando los cambios en la posición z (o intercepción con x) del puntero en PIP sucesivos y conociendo la velocidad de cuadros de la cámara. Por ejemplo, si la velocidad de cuadros de la cámara es de 200 cuadros por segundo y la posición z cambia en 1 fila de píxeles por cuadro, la velocidad del puntero es de 200 píxeles por segundo. [0087] El ángulo del puntero se puede determinar debido al hecho de que el PIP incluye las interceptación x en las filas de píxeles 0 y 19 de la línea media. Dado que la distancia x (la diferencia entre interceptaciones de x) y la distancia y (el número de filas de píxeles) son conocidas, está disponible toda la información necesaria para calcular el ángulo del puntero. [0088] Si se desea, se puede usar un filtro de Kalman (esencialmente un procedimiento de mínimos cuadrados recursivo) para “seguir” de modo efectivo el puntero cuando está dentro de una cierta distancia de la superficie táctil 60. Para realizar esto, es necesario definir un sistema de ecuaciones o modelo para usar en el filtro. Dado que el controlador maestro 54 es capaz de proporcionar tanto la posición z como la velocidad v del puntero, se puede usar la siguiente descripción:
La segunda de estas ecuaciones se requiere dado que el filtro ha de conocer qué hacer con la velocidad, y también dado que tanto z como v son medibles. Define el vector de estado como:
Para relacionar el estado del sistema en dos tiempos sucesivos n y n+1, se escribe el sistema de ecuaciones como una ecuación de diferencia matricial:
o, en notación matricial,
Aquí, dt denota el intervalo de tiempo entre sucesivas etapas de tiempo. También se introduce aquí sobre el RHS el término “ruido de proceso”. Es puramente formal, pero parte del procedimiento del filtro Kalman. Es necesario también especificar cómo se introduce una medición en el procedimiento. Esto se realiza por medio de ecuación matricial:
donde zn es una medición de posición y velocidad, H es una “matriz de medición” que se toma para ser la matriz identidad, xn es el vector de estado y w es la medición de ruido. Esencialmente, se supone que las mediciones son versiones ruidosas del vector de estado. Es necesario también definir una matriz de covarianza asociada con w. Si el error de medición en z es de 0,5 píxeles, entonces la matriz de covarianza es:
Se requiere una matriz similar Q para el ruido de proceso introducido anteriormente, pero como es de alguna forma arbitraria, se puede tratar como un parámetro de ajuste para el filtro. En este ejemplo, la matriz Q se toma para ser la matriz identidad multiplicada por un factor de orden unitario o menor. Establecido lo anterior, hay suficiente información para comenzar el proceso del filtro. La primera etapa (predicción) es:
Aquí, la notación (–) implica que la medición no se ha realizado aún mientras que (+) lo implica (pero en este caso el (+) se refiere a la etapa previa). También, la ecuación matricial para la matriz P predice una matriz de covarianza. La siguiente etapa es el cálculo de la ganancia del filtro:
Una vez se realiza una medición, la estimación de estado y su covarianza se pueden actualizar:
Es esta estimación del estado x la que se usa para determinar si ha tenido lugar o no un contacto con la superficie táctil. Nótese que las matrices H y R son ambas constantes con el tiempo y que solamente cambian las matrices K y P (de hecho, P se aproxima a una matriz constante). Tiene lugar una simplificación adicional ya que no hay un proceso de control involucrado. [0089] Se realizaron los resultados de una simulación en Matlab de un filtro de Kalman usando un conjunto de mediciones que representan un puntero que se aproxima a una superficie táctil 60 a una velocidad constante. Las Figuras 15 y 16 ilustran la simulación, con una etapa de tiempo dt de 0,1 segundos y una precisión de medición de 0,5 píxeles. Los símbolos abiertos representan los datos, y las líneas las estimaciones de estado a partir del filtro de Kalman. Claramente, la estimación de estado sigue a los datos completamente bien. [0090] Se realizó una segunda simulación en Matlab para tener en cuenta tanto el movimiento del puntero en vertical (z) como en horizontal (x). Esta simulación es básicamente de dos filtros de Kalman similares que funcionan juntos en una forma en “paralelo”. La formulación es exactamente la misma, excepto en que se necesita considerar el doble número de variables. Las Figuras de la 17a a la 17d muestran los resultados de la simulación y representan el movimiento de un puntero hacia la superficie táctil 60 a una velocidad constante y con una posición x lentamente variable (es decir la mano de la persona es inestable). [0091] Aunque el sistema táctil 50 se ha descrito como que incluye un proyector para presentar las imágenes sobre la pantalla táctil, aquellos expertos en la técnica apreciarán que no se requiere esto. La pantalla táctil 52 puede ser transparente o translúcida y colocarse sobre una unidad de pantalla de modo que la imagen presentada sobre la unidad de pantalla es visible a través de la pantalla táctil. También, la pantalla táctil no necesita ser una hoja rectangular de material bordeada por un marco. La pantalla táctil puede ser de hecho virtualmente cualquier superficie dentro de los campos de visión que se solapan de dos o más cámaras digitales. [0092] También, aunque se describe el sistema táctil 50 como que incluye un controlador maestro separado de las cámaras digitales, si se desea, una de las cámaras digitales se puede condicionar para funcionar tanto como una cámara como un controlador maestro y consultar los PIP de las otras cámaras digitales. En este caso, se prefiere que la cámara digital que funciona como controlador maestro incluya un DSP 84 más rápido que las restantes cámaras digitales. [0093] Además, aunque la rutina de detección superficial se describe como la determinación de los coeficientes de la A a la E para ser usados con la ecuación (0,1) para el cálculo de las coordenadas z del puntero en un punto dado (x, y) con relación a la pantalla táctil, durante la rutina de detección superficial, el controlador maestro 54 se puede programar para calcular la coordenada z para regiones (x, y) únicas de la superficie táctil y almacenar las coordenadas z en una tabla de búsqueda (LUT). En este caso; cuando un puntero aparece en las imágenes capturadas por las cámaras digitales y se determina la posición (x, y) del puntero con relación a la superficie táctil, se puede tomar una decisión de si el puntero está o no en contacto con la superficie táctil comparando la coordenada z en la LUT que corresponde con la región (x, y) en la que se localiza el puntero, con la fila de píxeles del sensor de imagen y conjunto de lentes en la que la punta del puntero se localiza. [0094] Como se ha descrito anteriormente, el controlador maestro 54 calcula o busca las coordenadas z de la pantalla táctil para cada cámara digital y compara las coordenadas z con la localización de la punta del puntero z para determinar si el puntero está en contacto real con la superficie táctil. Sin embargo, los expertos en la técnica apreciarán que los DSP 84 en las cámaras digitales pueden incluir un software de procesamiento de imágenes para determinar si el puntero está en contacto real con la superficie táctil. Este procesamiento de imágenes se puede realizar en conjunto o en lugar de la determinación del contacto del puntero por el controlador maestro. [0095] Aunque se ha descrito una realización preferida de la presente invención, aquellos expertos en la técnica apreciarán que se pueden realizar variaciones y modificaciones sin separarse del alcance de la invención como se define por las reivindicaciones adjuntas.

Claims (5)

  1. REIVINDICACIONES
    1.
    Un método que comprende: la adquisición de primeras y segundas imágenes de una superficie táctil desde diferentes localizaciones utilizando cámaras con puntos de visión superpuestos caracterizado por; la sustracción de dichas primeras y segundas imágenes de las imágenes de base para formar primeras y segundas imágenes de diferencia; el procesamiento de cada una de dichas primeras y segundas imágenes de diferencia para determinar si una región de interés dentro de la imagen de diferencia incluyendo la existencia de un puntero en ellas, dicha región de interés estando basada en intensidades de píxeles por encima de un nivel de umbral; para cada región de interés, la creación de una máscara de píxeles de la región de interés para separar píxeles que representan el puntero de los píxeles que representan la base; la determinación de una posición del puntero relativa a la superficie táctil basada en la información del puntero calculada desde las regiones de interés; y el control de una aplicación basada en la posición determinada del puntero.
  2. 2.
    El método de la reivindicación 1, en el que las primeras y segundas imágenes se capturan con primeras y segundas cámaras que miran en general a través de la superficie táctil.
  3. 3.
    El método de cualquiera de las reivindicaciones de la 1 a la 2, comprendiendo también la determinación de la velocidad del puntero o del ángulo del puntero, en el que la aplicación también se controla basada en la velocidad de puntero o el ángulo de puntero determinados.
  4. 4.
    El método de la reivindicación 2, comprendiendo también la determinación de si el puntero se está moviendo por encima de o en contacto con la superficie táctil.
  5. 5.
    Un aparato comprendiendo: cámaras con campos de visión que se solapan configurados para adquirir primeras o segundas imágenes de una superficie táctil (10) desde diferentes localizaciones; caracterizado por al menos un procesador (54, 56) configurado para: sustraer dichas primeras y segundas imágenes de las imágenes de base para formar primeras y segundas imágenes de diferencia; procesar cada una de dichas primeras y segundas imágenes de diferencia para determinar si existe una región de interés dentro de la imagen de diferencia incluyendo un puntero, dicha región de interés estando basada en intensidades de
    píxeles por encima de un nivel de umbral; para cada región de interés, crear una máscara de píxeles de la región de interés para separar los píxeles que representan el puntero de los píxeles que representan la base; determinar una posición del puntero relativa a la superficie táctil basada en la información del puntero calculada de las regiones de interés; y controlar la aplicación basada en una posición determinada del puntero.
ES10012779T 2000-07-05 2001-07-05 Método y aparato táctil en base a cámara Expired - Lifetime ES2396587T3 (es)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
US610481 2000-07-05
US09/610,481 US6803906B1 (en) 2000-07-05 2000-07-05 Passive touch system and method of detecting user input
US29461101P 2001-06-01 2001-06-01
US294611P 2001-06-01

Publications (1)

Publication Number Publication Date
ES2396587T3 true ES2396587T3 (es) 2013-02-22

Family

ID=26968623

Family Applications (4)

Application Number Title Priority Date Filing Date
ES06019268T Expired - Lifetime ES2340945T3 (es) 2000-07-05 2001-07-05 Procedimiento para un sistema tactil basado en camaras.
ES10012759T Expired - Lifetime ES2435248T3 (es) 2000-07-05 2001-07-05 Sistema y método táctil basado en cámaras
ES10012779T Expired - Lifetime ES2396587T3 (es) 2000-07-05 2001-07-05 Método y aparato táctil en base a cámara
ES01951266T Expired - Lifetime ES2279823T3 (es) 2000-07-05 2001-07-05 Sistema tactil basado en camaras.

Family Applications Before (2)

Application Number Title Priority Date Filing Date
ES06019268T Expired - Lifetime ES2340945T3 (es) 2000-07-05 2001-07-05 Procedimiento para un sistema tactil basado en camaras.
ES10012759T Expired - Lifetime ES2435248T3 (es) 2000-07-05 2001-07-05 Sistema y método táctil basado en cámaras

Family Applications After (1)

Application Number Title Priority Date Filing Date
ES01951266T Expired - Lifetime ES2279823T3 (es) 2000-07-05 2001-07-05 Sistema tactil basado en camaras.

Country Status (10)

Country Link
US (2) US7692625B2 (es)
EP (3) EP1297488B1 (es)
JP (1) JP5042437B2 (es)
CN (1) CN1310126C (es)
AT (3) ATE490501T1 (es)
AU (1) AU2001272250A1 (es)
CA (1) CA2412878C (es)
DE (3) DE60124549T2 (es)
ES (4) ES2340945T3 (es)
WO (1) WO2002003316A1 (es)

Families Citing this family (180)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6261095A (ja) * 1985-09-11 1987-03-17 カシオ計算機株式会社 波形エディット装置
JP4052498B2 (ja) 1999-10-29 2008-02-27 株式会社リコー 座標入力装置および方法
JP2001184161A (ja) 1999-12-27 2001-07-06 Ricoh Co Ltd 情報入力方法、情報入力装置、筆記入力装置、筆記データ管理方法、表示制御方法、携帯型電子筆記装置および記録媒体
US6803906B1 (en) 2000-07-05 2004-10-12 Smart Technologies, Inc. Passive touch system and method of detecting user input
JP5042437B2 (ja) 2000-07-05 2012-10-03 スマート テクノロジーズ ユーエルシー カメラベースのタッチシステム
US6919880B2 (en) 2001-06-01 2005-07-19 Smart Technologies Inc. Calibrating camera offsets to facilitate object position determination using triangulation
US7499033B2 (en) 2002-06-07 2009-03-03 Smart Technologies Ulc System and method for injecting ink into an application
US7283126B2 (en) 2002-06-12 2007-10-16 Smart Technologies Inc. System and method for providing gesture suggestions to enhance interpretation of user input
US20040001144A1 (en) 2002-06-27 2004-01-01 Mccharles Randy Synchronization of camera images in camera-based touch system to enhance position determination of fast moving objects
US6954197B2 (en) 2002-11-15 2005-10-11 Smart Technologies Inc. Size/scale and orientation determination of a pointer in a camera-based touch system
US8508508B2 (en) 2003-02-14 2013-08-13 Next Holdings Limited Touch screen signal processing with single-point calibration
US7629967B2 (en) 2003-02-14 2009-12-08 Next Holdings Limited Touch screen signal processing
US8456447B2 (en) 2003-02-14 2013-06-04 Next Holdings Limited Touch screen signal processing
US7532206B2 (en) 2003-03-11 2009-05-12 Smart Technologies Ulc System and method for differentiating between pointers used to contact touch surface
US7256772B2 (en) 2003-04-08 2007-08-14 Smart Technologies, Inc. Auto-aligning touch system and method
US8330726B2 (en) 2003-05-19 2012-12-11 Xiroku, Inc. Position detection apparatus using area image sensor
US20050030293A1 (en) * 2003-08-05 2005-02-10 Lai Chih Chang Method for predicting and estimating coordinates of a touch panel
US7411575B2 (en) 2003-09-16 2008-08-12 Smart Technologies Ulc Gesture recognition method and touch system incorporating the same
US7274356B2 (en) * 2003-10-09 2007-09-25 Smart Technologies Inc. Apparatus for determining the location of a pointer within a region of interest
US7355593B2 (en) * 2004-01-02 2008-04-08 Smart Technologies, Inc. Pointer tracking across multiple overlapping coordinate input sub-regions defining a generally contiguous input region
US7232986B2 (en) * 2004-02-17 2007-06-19 Smart Technologies Inc. Apparatus for detecting a pointer within a region of interest
US7460110B2 (en) 2004-04-29 2008-12-02 Smart Technologies Ulc Dual mode touch system
US7492357B2 (en) * 2004-05-05 2009-02-17 Smart Technologies Ulc Apparatus and method for detecting a pointer relative to a touch surface
US7538759B2 (en) 2004-05-07 2009-05-26 Next Holdings Limited Touch panel display system with illumination and detection provided from a single edge
US8120596B2 (en) 2004-05-21 2012-02-21 Smart Technologies Ulc Tiled touch system
US7372456B2 (en) 2004-07-07 2008-05-13 Smart Technologies Inc. Method and apparatus for calibrating an interactive touch system
US7711681B2 (en) 2004-11-05 2010-05-04 Accenture Global Services Gmbh System for distributed information presentation and interaction
EP1815424B1 (en) * 2004-11-16 2019-01-09 Koninklijke Philips N.V. Touchless manipulation of images for regional enhancement
US7847789B2 (en) * 2004-11-23 2010-12-07 Microsoft Corporation Reducing accidental touch-sensitive device activation
US8164640B2 (en) 2005-06-30 2012-04-24 Nokia Corporation Camera control means to allow operating of a destined location of the information surface of a presentation and information system
US20070064004A1 (en) * 2005-09-21 2007-03-22 Hewlett-Packard Development Company, L.P. Moving a graphic element
US8018579B1 (en) * 2005-10-21 2011-09-13 Apple Inc. Three-dimensional imaging and display system
WO2007074403A2 (en) * 2005-11-18 2007-07-05 Accenture Global Services Gmbh Multiple target detection and application state navigation system
US8209620B2 (en) 2006-01-31 2012-06-26 Accenture Global Services Limited System for storage and navigation of application states and interactions
US7599520B2 (en) * 2005-11-18 2009-10-06 Accenture Global Services Gmbh Detection of multiple targets on a plane of interest
US20070165007A1 (en) * 2006-01-13 2007-07-19 Gerald Morrison Interactive input system
EP1821184A3 (en) * 2006-02-08 2007-11-14 Almeva AG System and method for interacting with a display through a shop window
US20070205994A1 (en) * 2006-03-02 2007-09-06 Taco Van Ieperen Touch system and method for interacting with the same
KR101127517B1 (ko) * 2006-06-15 2012-03-23 (주)나노티에스 터치 좌표 인식 방법과 이를 수행하기 위한 터치 스크린장치
KR101098200B1 (ko) 2006-06-19 2011-12-23 뉴콤 테크노 가부시키가이샤 전자 유도에 의해 물체를 검출하는 물체 검출 장치
EP2077484A1 (en) 2006-10-24 2009-07-08 Newcom, Inc. Operating tool with conductor piece
US9442607B2 (en) 2006-12-04 2016-09-13 Smart Technologies Inc. Interactive input system and method
DE102007021537B4 (de) * 2006-12-13 2020-01-02 Lg Display Co., Ltd. Displayeinheit mit Mehrfachberührungs-Erkennungsfunktion
KR101330471B1 (ko) 2006-12-15 2013-11-20 엘지디스플레이 주식회사 멀티 터치인식 기능을 가지는 표시장치와 그 구동방법
US8139045B2 (en) * 2006-12-15 2012-03-20 Lg Display Co., Ltd. Display device having multi-touch recognizing function and driving method thereof
KR101346865B1 (ko) * 2006-12-15 2014-01-02 엘지디스플레이 주식회사 멀티 터치인식 기능을 가지는 표시장치와 그 구동방법
KR100915627B1 (ko) * 2007-03-29 2009-09-04 주식회사 토비스 광학센서유닛에 의한 응답구조를 갖는 터치패널 구동방법
US8115753B2 (en) 2007-04-11 2012-02-14 Next Holdings Limited Touch screen system with hover and click input methods
US20090140992A1 (en) * 2007-06-16 2009-06-04 Sunrise Telecom Incorporated Display system
US8094137B2 (en) 2007-07-23 2012-01-10 Smart Technologies Ulc System and method of detecting contact on a display
KR20100055516A (ko) 2007-08-30 2010-05-26 넥스트 홀딩스 인코포레이티드 개선된 조광을 가진 광학 터치 스크린
CA2697856A1 (en) 2007-08-30 2009-03-05 Next Holdings, Inc. Low profile touch panel systems
PL2229617T3 (pl) 2007-12-05 2011-12-30 Almeva Ag Układ interakcyjny do interakcji między ekranem a wskaźnikiem
US8405636B2 (en) 2008-01-07 2013-03-26 Next Holdings Limited Optical position sensing system and optical position sensor assembly
US7781722B2 (en) * 2008-02-07 2010-08-24 Lumio Inc Optical touch screen assembly
US8902193B2 (en) 2008-05-09 2014-12-02 Smart Technologies Ulc Interactive input system and bezel therefor
US20090278795A1 (en) * 2008-05-09 2009-11-12 Smart Technologies Ulc Interactive Input System And Illumination Assembly Therefor
US8887063B2 (en) * 2008-05-21 2014-11-11 Smart Technologies Ulc Desktop sharing method and system
KR20110015461A (ko) * 2008-06-05 2011-02-15 스마트 테크놀러지스 유엘씨 다중 포인터 모호화 및 폐색화 해결
US8131502B2 (en) * 2008-10-10 2012-03-06 Pixart Imaging Inc. Sensing system and method for obtaining location of pointer thereof
US8135561B2 (en) * 2008-10-10 2012-03-13 Pixart Imaging Inc. Sensing system
TWI471823B (zh) 2008-07-31 2015-02-01 Pixart Imaging Inc 以移動向量在微小點陣圖上決定座標的方法
US8531435B2 (en) * 2008-08-07 2013-09-10 Rapt Ip Limited Detecting multitouch events in an optical touch-sensitive device by combining beam information
US9092092B2 (en) 2008-08-07 2015-07-28 Rapt Ip Limited Detecting multitouch events in an optical touch-sensitive device using touch event templates
US8305363B2 (en) * 2008-10-10 2012-11-06 Pixart Imaging Sensing system and locating method thereof
US8232511B2 (en) * 2008-10-10 2012-07-31 Pixart Imaging Inc. Sensing system adapted to sense a pointer and calculate a location of the pointer
US8339378B2 (en) 2008-11-05 2012-12-25 Smart Technologies Ulc Interactive input system with multi-angle reflector
TW201019191A (en) * 2008-11-07 2010-05-16 Pixart Imaging Inc Touch system and method for obtaining position of pointer thereof
CN101840281B (zh) * 2009-03-20 2012-12-05 原相科技股份有限公司 感测系统及其取得指示物的位置的方法
CN102460355B (zh) * 2009-04-05 2016-03-16 放射粒子工程有限公司 一体化输入和显示系统及方法
EP2287713A3 (en) * 2009-06-17 2012-06-27 SMART Technologies ULC Interactive input system and method
US8860693B2 (en) * 2009-07-08 2014-10-14 Apple Inc. Image processing for camera based motion tracking
US8692768B2 (en) 2009-07-10 2014-04-08 Smart Technologies Ulc Interactive input system
KR101552988B1 (ko) * 2009-07-10 2015-09-14 엘지디스플레이 주식회사 액정 표시장치의 구동장치와 그 구동방법
TWI420357B (zh) * 2009-08-28 2013-12-21 Pixart Imaging Inc 觸控系統及其指示物座標偵測方法
US7932899B2 (en) * 2009-09-01 2011-04-26 Next Holdings Limited Determining the location of touch points in a position detection system
CN102033657B (zh) * 2009-09-24 2014-04-16 原相科技股份有限公司 触控系统及其指示物高度侦测方法和指示物坐标侦测方法
US8547327B2 (en) * 2009-10-07 2013-10-01 Qualcomm Incorporated Proximity object tracker
US20110095977A1 (en) * 2009-10-23 2011-04-28 Smart Technologies Ulc Interactive input system incorporating multi-angle reflecting structure
US20110095989A1 (en) * 2009-10-23 2011-04-28 Smart Technologies Ulc Interactive input system and bezel therefor
US9213414B1 (en) * 2009-11-13 2015-12-15 Ezero Technologies Llc Keyboard with integrated touch control
US9293060B2 (en) 2010-05-06 2016-03-22 Ai Cure Technologies Llc Apparatus and method for recognition of patient activities when obtaining protocol adherence data
US20110153360A1 (en) 2009-12-23 2011-06-23 Al Cure Technologies LLC Method and Apparatus for Verification of Clinical Trial Adherence
US9183601B2 (en) * 2010-03-22 2015-11-10 Ai Cure Technologies Llc Method and apparatus for collection of protocol adherence data
US9256776B2 (en) 2009-11-18 2016-02-09 AI Cure Technologies, Inc. Method and apparatus for identification
US8605165B2 (en) 2010-10-06 2013-12-10 Ai Cure Technologies Llc Apparatus and method for assisting monitoring of medication adherence
US20110119073A1 (en) 2009-11-18 2011-05-19 Al Cure Technologies LLC Method and Apparatus for Verification of Medication Administration Adherence
US10762172B2 (en) 2010-10-05 2020-09-01 Ai Cure Technologies Llc Apparatus and method for object confirmation and tracking
US8666781B2 (en) 2009-12-23 2014-03-04 Ai Cure Technologies, LLC Method and apparatus for management of clinical trials
US20110128218A1 (en) * 2009-12-01 2011-06-02 Smart Technologies Ulc Interactive input system and bezel therefor
CN102096526B (zh) * 2009-12-15 2015-11-25 乐金显示有限公司 光学传感单元、显示模块和使用光学传感单元的显示装置
JP2011175543A (ja) * 2010-02-25 2011-09-08 Sanyo Electric Co Ltd 指示体検出装置及びタッチパネル
CN102236477B (zh) * 2010-04-21 2013-05-08 广达电脑股份有限公司 背景影像更新方法及触控屏幕
US8338725B2 (en) * 2010-04-29 2012-12-25 Au Optronics Corporation Camera based touch system
US9883786B2 (en) 2010-05-06 2018-02-06 Aic Innovations Group, Inc. Method and apparatus for recognition of inhaler actuation
US9875666B2 (en) 2010-05-06 2018-01-23 Aic Innovations Group, Inc. Apparatus and method for recognition of patient activities
US10116903B2 (en) 2010-05-06 2018-10-30 Aic Innovations Group, Inc. Apparatus and method for recognition of suspicious activities
CN102346599B (zh) * 2010-08-04 2015-06-03 北京汇冠新技术股份有限公司 触摸定位方法和触摸屏
WO2012022018A1 (zh) 2010-08-20 2012-02-23 Chen Guozen 激光光学触控模块及其模拟数字转换系统与方法
TWI494824B (zh) * 2010-08-24 2015-08-01 Quanta Comp Inc 光學觸控系統及方法
CN102402340B (zh) * 2010-09-08 2014-07-09 北京汇冠新技术股份有限公司 触摸定位方法、触摸屏、触摸系统和显示器
EP2447811B1 (en) * 2010-11-02 2019-12-18 LG Display Co., Ltd. Infrared sensor module, touch sensing method thereof, and auto calibration method applied to the same
GB2487043B (en) * 2010-12-14 2013-08-14 Epson Norway Res And Dev As Camera-based multi-touch interaction and illumination system and method
US9019239B2 (en) 2010-11-29 2015-04-28 Northrop Grumman Systems Corporation Creative design systems and methods
US9665767B2 (en) 2011-02-28 2017-05-30 Aic Innovations Group, Inc. Method and apparatus for pattern tracking
US9116553B2 (en) 2011-02-28 2015-08-25 AI Cure Technologies, Inc. Method and apparatus for confirmation of object positioning
US8963883B2 (en) 2011-03-17 2015-02-24 Symbol Technologies, Inc. Touchless interactive display system
US9262011B2 (en) 2011-03-30 2016-02-16 Smart Technologies Ulc Interactive input system and method
US8390593B2 (en) * 2011-04-13 2013-03-05 Google Inc. Click disambiguation on a touch-sensitive input device
CN102294119A (zh) * 2011-08-02 2011-12-28 广州市迪拓信息科技有限公司 一种触控设备感应控制方法及系统
EP2745505B1 (en) 2011-08-16 2020-02-19 Imax Theatres International Limited Hybrid image decomposition and projection
US10558845B2 (en) 2011-08-21 2020-02-11 Aic Innovations Group, Inc. Apparatus and method for determination of medication location
CN102306053B (zh) * 2011-08-29 2014-09-10 Tcl集团股份有限公司 一种基于虚拟触摸屏的人机交互方法、装置及电子设备
CN102323866B (zh) * 2011-09-01 2013-08-21 广东威创视讯科技股份有限公司 一种摄像式触摸控制方法及其装置
EP2769261B1 (en) * 2011-10-20 2022-07-06 IMAX Corporation Distortion compensation for image projection
US10326968B2 (en) 2011-10-20 2019-06-18 Imax Corporation Invisible or low perceptibility of image alignment in dual projection systems
US8896688B2 (en) 2011-11-04 2014-11-25 Hewlett-Packard Development Company, L.P. Determining position in a projection capture system
US8693731B2 (en) 2012-01-17 2014-04-08 Leap Motion, Inc. Enhanced contrast for object detection and characterization by optical imaging
US9070019B2 (en) 2012-01-17 2015-06-30 Leap Motion, Inc. Systems and methods for capturing motion in three-dimensional space
US11493998B2 (en) 2012-01-17 2022-11-08 Ultrahaptics IP Two Limited Systems and methods for machine control
US8638989B2 (en) 2012-01-17 2014-01-28 Leap Motion, Inc. Systems and methods for capturing motion in three-dimensional space
US9501152B2 (en) 2013-01-15 2016-11-22 Leap Motion, Inc. Free-space user interface and control using virtual constructs
US9679215B2 (en) 2012-01-17 2017-06-13 Leap Motion, Inc. Systems and methods for machine control
US10691219B2 (en) 2012-01-17 2020-06-23 Ultrahaptics IP Two Limited Systems and methods for machine control
CN102609153A (zh) * 2012-01-29 2012-07-25 胡世曦 一种计算物体与工作平面的接触位置的装置
JP6057407B2 (ja) * 2012-02-22 2017-01-11 学校法人東京電機大学 タッチ位置入力装置及びタッチ位置入力方法
TWI470510B (zh) * 2012-04-19 2015-01-21 Wistron Corp 光學觸控裝置及觸控感測方法
TWI475446B (zh) * 2012-04-24 2015-03-01 Wistron Corp 光學式觸控系統及其擷取訊號調整之方法
CN103488348B (zh) * 2012-06-11 2016-09-07 东友科技股份有限公司 影像感测器群组的定位方法
CN102789340B (zh) * 2012-06-27 2015-12-16 深圳市巨龙科教高技术股份有限公司 一种电子白板的白板坐标获取方法、装置及电子白板
CN102778979A (zh) * 2012-06-28 2012-11-14 广州视睿电子科技有限公司 光学触摸方法及其装置
DE102012217638A1 (de) 2012-09-27 2014-03-27 Robert Bosch Gmbh Interaktive Tafel und Haussteuerungssystem
US10234941B2 (en) 2012-10-04 2019-03-19 Microsoft Technology Licensing, Llc Wearable sensor for tracking articulated body-parts
TWI495949B (zh) * 2012-10-24 2015-08-11 Pixart Imaging Inc 光學觸控系統之曝光機制及使用該機制之光學觸控系統
TWI462033B (zh) * 2012-11-02 2014-11-21 Wistron Corp 觸控系統及觸控系統的繪圖方法
US9285893B2 (en) 2012-11-08 2016-03-15 Leap Motion, Inc. Object detection and tracking with variable-field illumination devices
US10609285B2 (en) 2013-01-07 2020-03-31 Ultrahaptics IP Two Limited Power consumption in motion-capture systems
US9465461B2 (en) 2013-01-08 2016-10-11 Leap Motion, Inc. Object detection and tracking with audio and optical signals
US9459697B2 (en) 2013-01-15 2016-10-04 Leap Motion, Inc. Dynamic, free-space user interactions for machine control
US9696867B2 (en) 2013-01-15 2017-07-04 Leap Motion, Inc. Dynamic user interactions for display control and identifying dominant gestures
JP2014140942A (ja) * 2013-01-25 2014-08-07 Seiko Epson Corp ロボット制御システム、ロボット、ロボット制御方法及びプログラム
US9702977B2 (en) 2013-03-15 2017-07-11 Leap Motion, Inc. Determining positional information of an object in space
US9399111B1 (en) 2013-03-15 2016-07-26 Aic Innovations Group, Inc. Method and apparatus for emotional behavior therapy
US10620709B2 (en) 2013-04-05 2020-04-14 Ultrahaptics IP Two Limited Customized gesture interpretation
US9317916B1 (en) 2013-04-12 2016-04-19 Aic Innovations Group, Inc. Apparatus and method for recognition of medication administration indicator
US9916009B2 (en) 2013-04-26 2018-03-13 Leap Motion, Inc. Non-tactile interface systems and methods
US9436851B1 (en) 2013-05-07 2016-09-06 Aic Innovations Group, Inc. Geometric encrypted coded image
US9747696B2 (en) 2013-05-17 2017-08-29 Leap Motion, Inc. Systems and methods for providing normalized parameters of motions of objects in three-dimensional space
US10281987B1 (en) 2013-08-09 2019-05-07 Leap Motion, Inc. Systems and methods of free-space gestural interaction
JP6202942B2 (ja) * 2013-08-26 2017-09-27 キヤノン株式会社 情報処理装置とその制御方法、コンピュータプログラム、記憶媒体
US9721383B1 (en) 2013-08-29 2017-08-01 Leap Motion, Inc. Predictive information for free space gesture control and communication
CN104423720B (zh) * 2013-09-02 2018-01-05 颜涌 一种基于摄像头的电脑输入设备和方法
CN104423560B (zh) * 2013-09-09 2018-11-13 联想(北京)有限公司 一种信息处理方法和电子设备
US9824297B1 (en) 2013-10-02 2017-11-21 Aic Innovations Group, Inc. Method and apparatus for medication identification
US9632572B2 (en) 2013-10-03 2017-04-25 Leap Motion, Inc. Enhanced field of view to augment three-dimensional (3D) sensory space for free-space gesture interpretation
US9625992B2 (en) 2013-10-21 2017-04-18 I-Interactive Llc Remote control with dual activated touch sensor input
US9478124B2 (en) 2013-10-21 2016-10-25 I-Interactive Llc Remote control with enhanced touch surface input
US9996638B1 (en) 2013-10-31 2018-06-12 Leap Motion, Inc. Predictive information for free space gesture control and communication
CN103530061B (zh) * 2013-10-31 2017-01-18 京东方科技集团股份有限公司 显示装置及控制方法
CN104679353B (zh) * 2013-11-29 2017-08-25 纬创资通股份有限公司 光学触控装置及触控点坐标的计算方法
US9317150B2 (en) * 2013-12-28 2016-04-19 Intel Corporation Virtual and configurable touchscreens
TWI528226B (zh) * 2014-01-15 2016-04-01 緯創資通股份有限公司 影像式觸控裝置及其控制方法
US9613262B2 (en) 2014-01-15 2017-04-04 Leap Motion, Inc. Object detection and tracking for providing a virtual device experience
GB2522248A (en) * 2014-01-20 2015-07-22 Promethean Ltd Interactive system
LU92408B1 (en) * 2014-03-21 2015-09-22 Olivier Raulot User gesture recognition
CN103973975B (zh) * 2014-04-10 2017-11-07 北京智谷睿拓技术服务有限公司 交互方法、装置及用户设备
TWI578295B (zh) * 2014-04-21 2017-04-11 緯創資通股份有限公司 顯示器及其亮度調整方法
US9679113B2 (en) 2014-06-11 2017-06-13 Aic Innovations Group, Inc. Medication adherence monitoring system and method
US10431145B2 (en) * 2014-07-30 2019-10-01 Hewlett-Packard Development Company, L.P. Transparent whiteboard display
CN204480228U (zh) 2014-08-08 2015-07-15 厉动公司 运动感测和成像设备
JP6464624B2 (ja) * 2014-09-12 2019-02-06 株式会社リコー 画像処理システム、画像処理装置、方法およびプログラム
US10429923B1 (en) 2015-02-13 2019-10-01 Ultrahaptics IP Two Limited Interaction engine for creating a realistic experience in virtual reality/augmented reality environments
US9696795B2 (en) 2015-02-13 2017-07-04 Leap Motion, Inc. Systems and methods of creating a realistic grab experience in virtual reality/augmented reality environments
JP6665415B2 (ja) * 2015-03-30 2020-03-13 セイコーエプソン株式会社 プロジェクター、及び、プロジェクターの制御方法
US10289239B2 (en) 2015-07-09 2019-05-14 Microsoft Technology Licensing, Llc Application programming interface for multi-touch input detection
US11170484B2 (en) 2017-09-19 2021-11-09 Aic Innovations Group, Inc. Recognition of suspicious activities in medication administration
WO2019147612A1 (en) 2018-01-25 2019-08-01 Neonode Inc. Polar coordinate sensor
US11875012B2 (en) 2018-05-25 2024-01-16 Ultrahaptics IP Two Limited Throwable interface for augmented reality and virtual reality environments
KR102469722B1 (ko) 2018-09-21 2022-11-22 삼성전자주식회사 디스플레이 장치 및 그 제어 방법
US11281337B1 (en) 2019-09-24 2022-03-22 Apple Inc. Mirror accessory for camera based touch detection

Family Cites Families (132)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4144449A (en) 1977-07-08 1979-03-13 Sperry Rand Corporation Position detection apparatus
CA1109539A (en) 1978-04-05 1981-09-22 Her Majesty The Queen, In Right Of Canada, As Represented By The Ministe R Of Communications Touch sensitive computer input device
US4558313A (en) 1981-12-31 1985-12-10 International Business Machines Corporation Indicator to data processing interface
US4507557A (en) 1983-04-01 1985-03-26 Siemens Corporate Research & Support, Inc. Non-contact X,Y digitizer using two dynamic ram imagers
JPS61262917A (ja) 1985-05-17 1986-11-20 Alps Electric Co Ltd 光電式タツチパネルのフイルタ−
DE3616490A1 (de) 1985-05-17 1986-11-27 Alps Electric Co Ltd Optische koordinaten-eingabe-vorrichtung
US4822145A (en) 1986-05-14 1989-04-18 Massachusetts Institute Of Technology Method and apparatus utilizing waveguide and polarized light for display of dynamic images
JPS6375918A (ja) 1986-09-19 1988-04-06 Alps Electric Co Ltd 座標入力装置
US4782328A (en) 1986-10-02 1988-11-01 Product Development Services, Incorporated Ambient-light-responsive touch screen data input method and system
US4746770A (en) 1987-02-17 1988-05-24 Sensor Frame Incorporated Method and apparatus for isolating and manipulating graphic objects on computer video monitor
US4907156A (en) * 1987-06-30 1990-03-06 University Of Chicago Method and system for enhancement and detection of abnormal anatomic regions in a digital image
JPH01320521A (ja) 1988-06-22 1989-12-26 Wacom Co Ltd 電子黒板装置及びその筆記具等
US5109435A (en) 1988-08-08 1992-04-28 Hughes Aircraft Company Segmentation method for use against moving objects
US5130794A (en) 1990-03-29 1992-07-14 Ritchey Kurtis J Panoramic display system
US5097516A (en) 1991-02-28 1992-03-17 At&T Bell Laboratories Technique for illuminating a surface with a gradient intensity line of light to achieve enhanced two-dimensional imaging
CA2058219C (en) 1991-10-21 2002-04-02 Smart Technologies Inc. Interactive display system
GB9201949D0 (en) 1992-01-30 1992-03-18 Jenkin Michael Large-scale,touch-sensitive video display
US5483261A (en) 1992-02-14 1996-01-09 Itu Research, Inc. Graphical input controller and method with rear screen image detection
US5880411A (en) 1992-06-08 1999-03-09 Synaptics, Incorporated Object position detector with edge motion feature and gesture recognition
US5724743A (en) 1992-09-04 1998-03-10 Snap-On Technologies, Inc. Method and apparatus for determining the alignment of motor vehicle wheels
JP3244798B2 (ja) 1992-09-08 2002-01-07 株式会社東芝 動画像処理装置
US5982352A (en) 1992-09-18 1999-11-09 Pryor; Timothy R. Method for providing human input to a computer
DE69331433T2 (de) 1992-10-22 2002-10-02 Advanced Interconnection Technology, Inc. Einrichtung zur automatischen optischen Prüfung von Leiterplatten mit darin verlegten Drähten
US5317140A (en) * 1992-11-24 1994-05-31 Dunthorn David I Diffusion-assisted position location particularly for visual pen detection
US5502568A (en) 1993-03-23 1996-03-26 Wacom Co., Ltd. Optical position detecting unit, optical coordinate input unit and optical position detecting method employing a pattern having a sequence of 1's and 0's
US5359155A (en) 1993-03-25 1994-10-25 Tiger Scientific Corp. Illumination apparatus for a digitizer tablet
US5729704A (en) 1993-07-21 1998-03-17 Xerox Corporation User-directed method for operating on an object-based model data structure through a second contextual image
JPH07230352A (ja) * 1993-09-16 1995-08-29 Hitachi Ltd タッチ位置検出装置及びタッチ指示処理装置
US5484966A (en) 1993-12-07 1996-01-16 At&T Corp. Sensing stylus position using single 1-D image sensor
GB2286100A (en) 1994-01-19 1995-08-02 Ibm Touch-sensitive display apparatus
US5577733A (en) 1994-04-08 1996-11-26 Downing; Dennis L. Targeting system
US5771039A (en) 1994-06-06 1998-06-23 Ditzik; Richard J. Direct view display device integration techniques
US5528263A (en) 1994-06-15 1996-06-18 Daniel M. Platzker Interactive projected video image display system
US5737740A (en) 1994-06-27 1998-04-07 Numonics Apparatus and method for processing electronic documents
US5638092A (en) 1994-12-20 1997-06-10 Eng; Tommy K. Cursor control system
JPH08179888A (ja) 1994-12-21 1996-07-12 Hitachi Ltd 大画面ディスプレイ用入力装置
US5554828A (en) 1995-01-03 1996-09-10 Texas Instruments Inc. Integration of pen-based capability into a field emission device system
US5736686A (en) 1995-03-01 1998-04-07 Gtco Corporation Illumination apparatus for a digitizer tablet with improved light panel
EP0823683B1 (en) 1995-04-28 2005-07-06 Matsushita Electric Industrial Co., Ltd. Interface device
JP3436828B2 (ja) 1995-05-08 2003-08-18 株式会社リコー 画像処理装置
US5786810A (en) 1995-06-07 1998-07-28 Compaq Computer Corporation Method of determining an object's position and associated apparatus
JPH09106320A (ja) 1995-08-24 1997-04-22 Symbios Logic Inc 図形入力装置および図形入力方法
US5818424A (en) 1995-10-19 1998-10-06 International Business Machines Corporation Rod shaped device and data acquisition apparatus for determining the position and orientation of an object in space
US5825352A (en) 1996-01-04 1998-10-20 Logitech, Inc. Multiple fingers contact sensing method for emulating mouse buttons and mouse operations on a touch sensor pad
JPH09190284A (ja) 1996-01-11 1997-07-22 Canon Inc 情報処理装置およびその方法
TW394879B (en) 1996-02-09 2000-06-21 Sega Enterprises Kk Graphics processing system and its data input device
US5991456A (en) * 1996-05-29 1999-11-23 Science And Technology Corporation Method of improving a digital image
US6002808A (en) 1996-07-26 1999-12-14 Mitsubishi Electric Information Technology Center America, Inc. Hand gesture control system
US5745116A (en) 1996-09-09 1998-04-28 Motorola, Inc. Intuitive gesture-based graphical user interface
US5936615A (en) 1996-09-12 1999-08-10 Digital Equipment Corporation Image-based touchscreen
US5819201A (en) 1996-09-13 1998-10-06 Magellan Dis, Inc. Navigation system with vehicle service information
JPH10124689A (ja) 1996-10-15 1998-05-15 Nikon Corp 画像記録再生装置
JP3625349B2 (ja) * 1997-02-12 2005-03-02 株式会社東芝 画像入力装置および画像入力方法
WO1998019201A1 (en) 1996-10-29 1998-05-07 Xeotron Corporation Optical device utilizing optical waveguides and mechanical light-switches
US6061177A (en) 1996-12-19 2000-05-09 Fujimoto; Kenneth Noboru Integrated computer display and graphical input apparatus and method
US6252989B1 (en) 1997-01-07 2001-06-26 Board Of The Regents, The University Of Texas System Foveated image coding system and method for image bandwidth reduction
JP3624070B2 (ja) 1997-03-07 2005-02-23 キヤノン株式会社 座標入力装置及びその制御方法
US5914709A (en) 1997-03-14 1999-06-22 Poa Sana, Llc User input device for a computer system
WO1998044316A1 (en) 1997-04-02 1998-10-08 Goszyk Kurt A Adjustable area coordinate position data-capture system
JP3876942B2 (ja) * 1997-06-13 2007-02-07 株式会社ワコム 光デジタイザ
US6161066A (en) * 1997-08-18 2000-12-12 The Texas A&M University System Advanced law enforcement and response technology
US20020036617A1 (en) 1998-08-21 2002-03-28 Timothy R. Pryor Novel man machine interfaces and applications
US6720949B1 (en) 1997-08-22 2004-04-13 Timothy R. Pryor Man machine interfaces and applications
US6243074B1 (en) 1997-08-29 2001-06-05 Xerox Corporation Handedness detection for a physical manipulatory grammar
US6072494A (en) 1997-10-15 2000-06-06 Electric Planet, Inc. Method and apparatus for real-time gesture recognition
EP1050010A1 (en) * 1997-10-22 2000-11-08 Ascent Technology Inc. Voice-output reading system with gesture-based navigation
JP3794180B2 (ja) 1997-11-11 2006-07-05 セイコーエプソン株式会社 座標入力システム及び座標入力装置
TW449709B (en) 1997-11-17 2001-08-11 Hewlett Packard Co A method for distinguishing a contact input
US6310610B1 (en) 1997-12-04 2001-10-30 Nortel Networks Limited Intelligent touch display
EP1717679B1 (en) 1998-01-26 2016-09-21 Apple Inc. Method for integrating manual input
AU2439399A (en) * 1998-02-09 1999-08-23 Haim Azaria Video camera computer touch screen system
JP2000105671A (ja) 1998-05-11 2000-04-11 Ricoh Co Ltd 座標入力/検出装置および電子黒板システム
JP4033582B2 (ja) 1998-06-09 2008-01-16 株式会社リコー 座標入力/検出装置および電子黒板システム
US6064354A (en) 1998-07-01 2000-05-16 Deluca; Michael Joseph Stereoscopic user interface method and apparatus
JP2000089913A (ja) 1998-09-08 2000-03-31 Gunze Ltd タッチパネル入力座標変換装置
DE19845030A1 (de) 1998-09-30 2000-04-20 Siemens Ag Bildsystem
US6972753B1 (en) 1998-10-02 2005-12-06 Semiconductor Energy Laboratory Co., Ltd. Touch panel, display device provided with touch panel and electronic equipment provided with display device
US6335724B1 (en) 1999-01-29 2002-01-01 Ricoh Company, Ltd. Method and device for inputting coordinate-position and a display board system
US6545669B1 (en) 1999-03-26 2003-04-08 Husam Kinawi Object-drag continuity between discontinuous touch-screens
TW459192B (en) * 1999-06-25 2001-10-11 Toshiba Corp Electronic apparatus and electronic system provided with the same
US6671419B1 (en) * 1999-07-02 2003-12-30 Intel Corporation Method for reducing shadows and/or noise in a digital image
JP2001060145A (ja) 1999-08-23 2001-03-06 Ricoh Co Ltd 座標入力/検出システムおよびその位置合わせ調整方法
JP3905670B2 (ja) 1999-09-10 2007-04-18 株式会社リコー 座標入力検出装置、情報記憶媒体及び座標入力検出方法
JP4057200B2 (ja) 1999-09-10 2008-03-05 株式会社リコー 座標入力装置および座標入力装置の記録媒体
US6512838B1 (en) 1999-09-22 2003-01-28 Canesta, Inc. Methods for enhancing performance and data acquired from three-dimensional image systems
JP4052498B2 (ja) 1999-10-29 2008-02-27 株式会社リコー 座標入力装置および方法
US6710770B2 (en) 2000-02-11 2004-03-23 Canesta, Inc. Quasi-three-dimensional method and apparatus to detect and localize interaction of user-object and virtual transfer device
JP3934846B2 (ja) 2000-03-06 2007-06-20 株式会社リコー 座標入力/検出装置、電子黒板システム、受光素子の位置ズレ補正方法及び記憶媒体
JP2001265516A (ja) 2000-03-16 2001-09-28 Ricoh Co Ltd 座標入力装置
JP2001282445A (ja) 2000-03-31 2001-10-12 Ricoh Co Ltd 座標入力/検出装置および情報表示入力装置
JP3834766B2 (ja) 2000-04-03 2006-10-18 独立行政法人科学技術振興機構 マンマシーン・インターフェース・システム
US6864882B2 (en) 2000-05-24 2005-03-08 Next Holdings Limited Protected touch panel display system
US6690397B1 (en) 2000-06-05 2004-02-10 Advanced Neuromodulation Systems, Inc. System for regional data association and presentation and method for the same
US6690363B2 (en) 2000-06-19 2004-02-10 Next Holdings Limited Touch panel display system
US6803906B1 (en) 2000-07-05 2004-10-12 Smart Technologies, Inc. Passive touch system and method of detecting user input
JP5042437B2 (ja) 2000-07-05 2012-10-03 スマート テクノロジーズ ユーエルシー カメラベースのタッチシステム
US7466843B2 (en) 2000-07-07 2008-12-16 Pryor Timothy R Multi-functional control and entertainment systems
US6531999B1 (en) 2000-07-13 2003-03-11 Koninklijke Philips Electronics N.V. Pointing direction calibration in video conferencing and other camera-based system applications
US6747663B2 (en) 2000-08-24 2004-06-08 Sun Microsystems, Inc. Interpolating sample values from known triangle vertex values
NO311740B1 (no) 2000-09-11 2002-01-14 Tormod Njoelstad Tegne-, skrive- og peke-redskap for datamaskinbaserte presentasjoner og kontorarbeid
US7058204B2 (en) * 2000-10-03 2006-06-06 Gesturetek, Inc. Multiple camera control system
JP3793014B2 (ja) 2000-10-03 2006-07-05 キヤノン株式会社 電子源の製造装置、電子源の製造方法及び画像形成装置の製造方法
US6680834B2 (en) * 2000-10-04 2004-01-20 Honeywell International Inc. Apparatus and method for controlling LED arrays
US6774889B1 (en) 2000-10-24 2004-08-10 Microsoft Corporation System and method for transforming an ordinary computer monitor screen into a touch screen
US7016532B2 (en) * 2000-11-06 2006-03-21 Evryx Technologies Image capture and identification system and process
US6518600B1 (en) 2000-11-17 2003-02-11 General Electric Company Dual encapsulation for an LED
US7030861B1 (en) 2001-02-10 2006-04-18 Wayne Carl Westerman System and method for packing multi-touch gestures onto a hand
JP4551018B2 (ja) 2001-04-05 2010-09-22 富士通株式会社 画像結合装置
US6919880B2 (en) 2001-06-01 2005-07-19 Smart Technologies Inc. Calibrating camera offsets to facilitate object position determination using triangulation
GB2378073B (en) 2001-07-27 2005-08-31 Hewlett Packard Co Paper-to-computer interfaces
JP2003162370A (ja) 2001-09-14 2003-06-06 Ricoh Co Ltd 画像処理装置、タッチパネル付きディスプレイ装置、画像処理方法、および画像処理方法をコンピュータに実行させるプログラム
US7007236B2 (en) 2001-09-14 2006-02-28 Accenture Global Services Gmbh Lab window collaboration
JP2003173237A (ja) 2001-09-28 2003-06-20 Ricoh Co Ltd 情報入出力システム、プログラム及び記憶媒体
US7254775B2 (en) 2001-10-03 2007-08-07 3M Innovative Properties Company Touch panel system and method for distinguishing multiple touch inputs
JP3920067B2 (ja) 2001-10-09 2007-05-30 株式会社イーアイティー 座標入力装置
JP2003167669A (ja) 2001-11-22 2003-06-13 Internatl Business Mach Corp <Ibm> 情報処理装置、プログラム及び座標入力方法
US6628216B2 (en) 2002-02-13 2003-09-30 Intersil Americas Inc. Calibration of resistor ladder using difference measurement and parallel resistive correction
US7038659B2 (en) 2002-04-06 2006-05-02 Janusz Wiktor Rajkowski Symbol encoding apparatus and method
US7119351B2 (en) 2002-05-17 2006-10-10 Gsi Group Corporation Method and system for machine vision-based feature detection and mark verification in a workpiece or wafer marking system
US20030226968A1 (en) 2002-06-10 2003-12-11 Steve Montellese Apparatus and method for inputting data
US7260257B2 (en) 2002-06-19 2007-08-21 Microsoft Corp. System and method for whiteboard and audio capture
US6972401B2 (en) 2003-01-30 2005-12-06 Smart Technologies Inc. Illuminated bezel and touch system incorporating the same
US7629967B2 (en) 2003-02-14 2009-12-08 Next Holdings Limited Touch screen signal processing
US7532206B2 (en) 2003-03-11 2009-05-12 Smart Technologies Ulc System and method for differentiating between pointers used to contact touch surface
US6947032B2 (en) 2003-03-11 2005-09-20 Smart Technologies Inc. Touch system and method for determining pointer contacts on a touch surface
US7665041B2 (en) 2003-03-25 2010-02-16 Microsoft Corporation Architecture for controlling a computer using hand gestures
US20050052427A1 (en) 2003-09-10 2005-03-10 Wu Michael Chi Hung Hand gesture interaction with touch surface
US7411575B2 (en) 2003-09-16 2008-08-12 Smart Technologies Ulc Gesture recognition method and touch system incorporating the same
US7274356B2 (en) 2003-10-09 2007-09-25 Smart Technologies Inc. Apparatus for determining the location of a pointer within a region of interest
US7265752B2 (en) 2004-01-09 2007-09-04 Microsoft Corporation Multi-chart geometry images
US7538759B2 (en) 2004-05-07 2009-05-26 Next Holdings Limited Touch panel display system with illumination and detection provided from a single edge
US20080129707A1 (en) 2004-07-27 2008-06-05 Pryor Timothy R Method and apparatus employing multi-functional controls and displays

Also Published As

Publication number Publication date
CA2412878C (en) 2015-02-03
ES2340945T3 (es) 2010-06-11
US9176627B2 (en) 2015-11-03
CA2412878A1 (en) 2002-01-10
EP1739529A1 (en) 2007-01-03
ES2279823T3 (es) 2007-09-01
US7692625B2 (en) 2010-04-06
EP1739528B1 (en) 2009-12-23
US20050077452A1 (en) 2005-04-14
JP5042437B2 (ja) 2012-10-03
EP1739528A1 (en) 2007-01-03
EP1739529B1 (en) 2010-12-01
DE60140909D1 (de) 2010-02-04
WO2002003316A1 (en) 2002-01-10
US20100188370A1 (en) 2010-07-29
CN1310126C (zh) 2007-04-11
ES2435248T3 (es) 2013-12-17
EP1297488A1 (en) 2003-04-02
CN1440539A (zh) 2003-09-03
AU2001272250A1 (en) 2002-01-14
EP1297488B1 (en) 2006-11-15
ATE453147T1 (de) 2010-01-15
DE60143592D1 (de) 2011-01-13
DE60124549T2 (de) 2007-09-06
ATE345525T1 (de) 2006-12-15
ATE490501T1 (de) 2010-12-15
DE60124549D1 (de) 2006-12-28
JP2004502261A (ja) 2004-01-22

Similar Documents

Publication Publication Date Title
ES2396587T3 (es) Método y aparato táctil en base a cámara
ES2361457T3 (es) Sistema y procedimiento táctil en base a cámara.
JP4437748B2 (ja) プロジェクタによる位置および向きの読み取り
ES2394586T3 (es) Sistema y método para diferenciar entre punteros utilizados para hacer contacto con superficie táctil
JP4820285B2 (ja) 自動位置合わせタッチシステムおよび方法
CN104048674B (zh) 利用不准确的校准靶的机器视觉系统校准
JP5122948B2 (ja) タッチ面に対応するポインタを検出するための装置及び方法
US8971565B2 (en) Human interface electronic device
ES2374246T3 (es) Determinación de tamaño/escala y orientación de un puntero en un sistema táctil basado en una cámara.
US9360966B2 (en) Method for generally continuously calibrating an interactive input system
ES2394587T3 (es) Sistema de ingreso interactivo y método
JP2006258798A (ja) 改良された形状特徴化のためのデバイスおよび方法
WO2003105074A2 (en) Apparatus and method for inputting data
JPH08240407A (ja) 位置検出入力装置
JPH0736603A (ja) 二次元位置検出装置
JP2016153996A (ja) 座標取得システム、ディスプレイ装置、座標取得方法およびプログラム
JP6233941B1 (ja) 非接触式の三次元タッチパネル、非接触式の三次元タッチパネルシステム、非接触式の三次元タッチパネルの制御方法、プログラム及び記録媒体
Malashin et al. Video inertial measurement system
Clapp Three-dimensional sensing using smart sensors: Compact efficient sensor processing
JPS6270927A (ja) タツチ位置検出装置