ES2435248T3 - Sistema y método táctil basado en cámaras - Google Patents

Sistema y método táctil basado en cámaras Download PDF

Info

Publication number
ES2435248T3
ES2435248T3 ES10012759T ES10012759T ES2435248T3 ES 2435248 T3 ES2435248 T3 ES 2435248T3 ES 10012759 T ES10012759 T ES 10012759T ES 10012759 T ES10012759 T ES 10012759T ES 2435248 T3 ES2435248 T3 ES 2435248T3
Authority
ES
Spain
Prior art keywords
pointer
image
touch surface
touch
camera
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
ES10012759T
Other languages
English (en)
Inventor
David Holmgren
Gerald D. Morrison
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Smart Technologies ULC
Original Assignee
Smart Technologies ULC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Family has litigation
First worldwide family litigation filed litigation Critical https://patents.darts-ip.com/?family=26968623&utm_source=google_patent&utm_medium=platform_link&utm_campaign=public_patent_search&patent=ES2435248(T3) "Global patent litigation dataset” by Darts-ip is licensed under a Creative Commons Attribution 4.0 International License.
Priority claimed from US09/610,481 external-priority patent/US6803906B1/en
Application filed by Smart Technologies ULC filed Critical Smart Technologies ULC
Application granted granted Critical
Publication of ES2435248T3 publication Critical patent/ES2435248T3/es
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/042Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
    • G06F3/0428Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means by sensing at the edges of the touch surface the interruption of optical paths, e.g. an illumination plane, parallel to the touch surface which may be virtual

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Studio Devices (AREA)
  • Position Input By Displaying (AREA)
  • User Interface Of Digital Computer (AREA)
  • Details Of Cameras Including Film Mechanisms (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)
  • Electrophonic Musical Instruments (AREA)
  • Indicating And Signalling Devices For Elevators (AREA)

Abstract

Un método que comprende: adquirir imágenes de al menos dos puntos de vista usando cámaras (63) que tienen campos visuales queen general miran a través de la superficie táctil (60), extendiéndose el campo visual de cada cámara (63)más allá de un borde periférico de la superficie táctil; caracterizado porque en cada cámara: se procesa cada imagen adquirida para producir un conjunto de datos de imagen para cada imagenadquirida; se compara cada conjunto de datos de imagen con una imagen de fondo para producir una imagende diferencias para cada imagen adquirida; y se detecta la existencia de un puntero dentro de cada imagen de diferencias y se generan datoscaracterísticos del puntero; procesar datos característicos del puntero generados en las cámaras usando un procesador maestro (54)para determinar la posición del puntero con respecto a la superficie táctil (60) mediante triangulación; yusar la posición del puntero determinada para controlar la ejecución de un programa de aplicacionesinformáticas.

Description

Sistema y método táctil basado en cámaras
CAMPO TÉCNICO
[001] La presente invención se refiere en general a sistemas táctiles y en particular a un sistema táctil basado 5 en cámaras.
TÉCNICA ANTECEDENTE
[002] Los sistemas táctiles son bien conocidos en la técnica y normalmente incluyen una pantalla táctil que tiene una superficie táctil con la cual se hace contacto mediante el uso de un puntero para generar una entrada del usuario. Los contactos del puntero con la superficie táctil se detectan y se utilizan para generar la salida
10 correspondiente, dependiendo de las áreas de la superficie táctil donde se hace contacto. Existen básicamente dos tipos generales de sistemas táctiles disponibles y éstos pueden clasificarse en grandes términos en sistemas táctiles "activos" y sistemas táctiles "pasivos".
[003] Los sistemas táctiles activos permiten al usuario generar la entrada del usuario poniendo en contacto la superficie táctil con un puntero especial que generalmente requiere alguna forma de fuente de alimentación
15 integrada, normalmente baterías. El puntero especial emite señales tales como luz infrarroja, luz visible, frecuencias ultrasónicas, frecuencias electromagnéticas, etc. que activan la superficie táctil.
[004] Los sistemas táctiles pasivos permiten al usuario generar la entrada del usuario poniendo en contacto la superficie táctil con un puntero pasivo y no requieren el uso de un puntero especial para activar la superficie táctil. Un puntero pasivo puede ser un dedo, un cilindro de algún material o cualquier otro objeto adecuado que pueda
20 utilizarse para poner en contacto un área de interés predeterminada sobre la superficie táctil.
[005] Los sistemas táctiles pasivos ofrecen ventajas con respecto a los sistemas táctiles activos, ya que cualquier dispositivo de puntero, incluido el dedo de un usuario, puede utilizarse como puntero para ponerse en contacto con la superficie táctil. Como resultado, la entrada del usuario puede generarse fácilmente. También, dado que no son necesarios punteros activos especiales en los sistemas táctiles pasivos, los niveles de la batería
25 y/o el daño, robo o colocación equivocada del puntero no constituyen una preocupación para los usuarios.
[006] Los sistemas táctiles pasivos tienen varias aplicaciones relativas al manejo del ordenador y la pantalla de vídeo. Por ejemplo, en una aplicación interactiva, tal como se divulga en la Patente de los Estados Unidos No.
5.448.263 de Martin, cedida al cesionario de la presente invención, un sistema táctil pasivo se acopla a un ordenador y la pantalla del ordenador se presenta en la superficie táctil de la pantalla táctil. Las coordenadas que 30 representan ubicaciones específicas sobre la superficie táctil son mapeadas a la pantalla del ordenador. Cuando un usuario hace contacto con la superficie táctil, las coordenadas de la posición de contacto son trasmitidas al ordenador y mapeadas a la pantalla del ordenador, permitiendo así que el usuario maneje el ordenador de manera similar a cuando usa un ratón de ordenador, simplemente haciendo contacto con la superficie táctil. Asimismo, las coordenadas trasmitidas al ordenador pueden grabarse en una aplicación y volver a visualizarse
35 más tarde. La grabación de las coordenadas de contacto normalmente se realiza cuando se desea grabar información escrita o dibujada en la pantalla táctil por el usuario.
[007] La resolución de una pantalla táctil pasiva determina si el sistema táctil es adecuado para grabar información escrita o dibujada en la pantalla táctil o sólo útil para seleccionar áreas sobre la pantalla táctil mapeadas a regiones en el ordenador o pantalla de vídeo para manipular el ordenador o la pantalla de vídeo. La
40 resolución normalmente se mide en puntos por pulgada (DPI). Los DPI se relacionan con el tamaño de la pantalla táctil y la capacidad de muestreo del hardware y el software del sistema táctil utilizado para detectar los contactos sobre la superficie táctil.
[008] Las pantallas táctiles pasivas de baja resolución sólo tienen suficientes DPI como para detectar los
contactos sobre la superficie táctil dentro de un gran grupo de píxeles exhibidos por el ordenador o la pantalla de 45 vídeo. Por lo tanto, estas pantallas táctiles pasivas de baja resolución son útiles sólo para manipular el ordenador
o la pantalla de vídeo.
[009] Por otro lado, las pantallas táctiles pasivas de alta resolución tienen suficientes DPI como para detectar los contactos que son proporcionales a un pequeño número de píxeles o sub-píxeles del ordenador o la pantalla de vídeo. Sin embargo, un requisito para las pantallas táctiles de alta resolución es la capacidad de detectar cuándo el puntero está en contacto con la superficie táctil. Esto es necesario para escribir, dibujar, hacer clic con el ratón, etc. Sin la capacidad de detectar un contacto del puntero con la pantalla táctil, escribir y dibujar sería una operación continua y los clic del ratón no serían posibles, haciendo así virtualmente imposible la manipulación de la pantalla del ordenador. Un requisito secundario es la capacidad de detectar cuándo el puntero se está
5 moviendo sobre la superficie táctil. A pesar de que no es necesario para escribir o dibujar, los sistemas operativos de los ordenadores actuales utilizan cada vez más información de movimiento para manipular las pantallas del ordenador o vídeo o los cuadros de información emergentes.
[0010] Las pantallas táctiles pasivas normalmente son del tipo resistivo análogo, del tipo de onda acústica de superficie (SAW) o de tipo capacitivo. Lamentablemente, estas pantallas táctiles presentan varios problemas y
10 desventajas, tal como se describirá.
[0011] Las pantallas táctiles resistivas análogas normalmente tienen alta resolución. Dependiendo de la complejidad de la pantalla táctil, la resolución de la pantalla táctil puede producir 4096x4096 DPI o más. Las pantallas táctiles resistivas análogas se construyen utilizando dos láminas flexibles que están recubiertas con un material resistivo y dispuestas una encima de la otra. Las láminas no entran en contacto entre sí hasta que se
15 haya hecho contacto. Las láminas normalmente se mantienen separadas mediante micropuntos aislantes o mediante un espacio de aire aislante. Las láminas se construyen a partir de ITO, que es mayoritariamente transparente. De esta forma, la pantalla táctil introduce una alteración de la imagen pero muy poco paralaje.
[0012] Durante el funcionamiento de una pantalla táctil pasiva resistiva análoga se aplica un gradiente de voltaje uniforme en una dirección a lo largo de una primera de las láminas. La segunda lámina mide el voltaje a lo largo 20 de la primera lámina cuando las dos láminas entran en contacto entre sí como resultado de que se hizo contacto con la superficie táctil. Dado que el gradiente de voltaje de la primera lámina puede traducirse a la distancia a lo largo de la primera lámina, el voltaje medido es proporcional a la posición del contacto sobre la superficie táctil. Cuando se adquiere una coordenada de contacto sobre la primera lámina, luego se aplica el gradiente de voltaje uniforme a la segunda lámina y la primera lámina mide el voltaje a lo largo de la segunda lámina. El gradiente de
25 voltaje de la segunda lámina es proporcional a la distancia a lo largo de la segunda lámina. Estas dos coordenadas de contacto representan la posición X-Y del contacto sobre la superficie táctil en un sistema de coordenadas cartesianas.
[0013] Lamentablemente, dado que es necesaria una presión mecánica para poner en contacto las dos láminas, las pantallas táctiles resistivas análogas sólo pueden detectar el contacto cuando hay suficiente presión para unir
30 las dos láminas. Las pantallas táctiles pasivas y resistivas análogas tampoco pueden percibir cuándo un puntero se está moviendo sobre la superficie táctil. Por lo tanto, en el caso de pantallas táctiles resistivas análogas, los eventos y las posiciones de contacto sólo pueden detectarse cuando se hacen contactos reales con la superficie táctil.
[0014] Las pantallas táctiles de onda acústica superficial (SAW) normalmente proporcionan resolución media y
35 no son adecuadas para grabar una escritura de calidad. Las pantallas táctiles de SAW emplean transductores en los bordes de la superficie de vidrio para hacer vibrar el vidrio y producir ondas acústicas que se mueven sobre la superficie de vidrio. Cuando se hace contacto sobre la superficie de vidrio, se reflejan las ondas acústicas y se determina la posición del contacto a partir de la firma de las ondas acústicas reflejadas.
[0015] Lamentablemente, las pantallas táctiles de SAW exhiben un paralaje perceptible debido al espesor del
40 vidrio vibrante que se coloca sobre la superficie de la pantalla de vídeo u ordenador. También, los eventos de contacto y las posiciones sólo pueden detectarse cuando se hacen los contactos reales con la superficie de vidrio. Asimismo, las pantallas táctiles de SAQ no se escalan más allá de una diagonal de pocos pies.
[0016] Las pantallas táctiles capacitivas ofrecen resolución baja debido a que los contactos sólo pueden determinarse en grandes áreas (aproximadamente ½" x ½"). Como resultado, las pantallas táctiles capacitivas no 45 pueden utilizarse para registrar escritura o dibujos pero son adecuadas para seleccionar áreas sobre la pantalla táctil que corresponden a botones generados por un ordenador en la pantalla de vídeo u ordenador. Las pantallas táctiles capacitivas también presentan desventajas, ya que son sensibles a la temperatura y la humedad. De manera similar a las pantallas resistivas análogas y a las pantallas táctiles de SAW, las pantallas táctiles resistivas también pueden detectar los eventos de contacto y las posiciones cuando se hacen contactos reales
50 con la superficie táctil.
[0017] La escalabilidad de las pantallas táctiles pasivas es importante, dado que la demanda de digitalizadores electrónicos más grandes es cada vez mayor. Los digitalizadores que en una vez fueron pequeños aparatos de escritorio, hoy se encuentran en aplicaciones de pizarras electrónicas. La necesidad de construir un "muro" sensible táctil pasivo se ha convertido en un requisito de las nuevas aplicaciones de pantalla táctil. Las pantallas táctiles pasivas existentes de los tipos descritos anteriormente tienen un tamaño máximo limitado para su funcionamiento.
[0018] Un método y sistema para ingresar datos en un ordenador a través de una pantalla de monitor de ordenador se divulgan en el documento WO99/40562. El mismo divulga una cámara de vídeo de PC estándar 5 montada sobre monitores de ordenador, en el área inmediatamente frente a la pantalla. Un sistema óptico similar a un periscopio ubicado debajo de la cámara de vídeo hace que dos imágenes del primer plano de la pantalla sean grabadas por la cámara y se vean simultáneamente desde un ángulo diferente. El procesamiento de la imagen de reconocimiento de objeto se realiza con el dedo de un usuario o un lápiz. Se generan coordenadas espaciales y luego se transforman coordenadas de espacio en coordenadas de pantalla por medio de una
10 interpolación lineal y una extrapolación lineal desde puntos de calibración estándar. Esta técnica anterior se reconoce en el preámbulo de las reivindicaciones 1 a 8.
[0019] Un sistema interactivo de visualización de imágenes de vídeo proyectadas que comprende un ordenador para generar imágenes de vídeo, un aparato de proyección acoplado al puerto de salida de vídeo del ordenador para proyectar imágenes de vídeo generadas por ordenadores en una pantalla de proyección y al menos una 15 cámara de vídeo para grabar visualmente la imagen proyectada se describe en el documento US5528263. El ordenador incluye una placa de captura de imágenes acoplada a la cámara de vídeo para capturar cuadros individuales o series de cuadros de la grabación de vídeo de la imagen proyectada. Las imágenes capturadas se comparan con las imágenes generadas por el ordenador para detectar la presencia de características reconocibles introducidas en la imagen proyectada por el usuario para instruir al ordenador a producir una función
20 del ordenador.
[0020] Un aparato que comprende un miembro de marco que coopera con una pluralidad de sensores ópticos y una pluralidad de objetos que bloquean la luz que tienen a obstruir una porción de la luz normalmente recibida por los sensores ópticos se describe en el documento US4746770. La determinación de la posición y la orientación de los objetos que bloquean la luz y, si se desea, la velocidad de los mismos, permite la identificación
25 o alteración de los objetos gráficos.
[0021] Como se apreciará, se desean mejoras a los sistemas táctiles pasivos. Por lo tanto, es un objeto de la presente invención proporcionar un novedoso sistema táctil basado en cámaras.
DIVULGACIÓN DE LA INVENCIÓN
[0022] La invención se presenta en las reivindicaciones 1 a 8.
30 [0023] Preferiblemente, las al menos dos cámaras son cámaras digitales que tienen campos visuales que miran en general a lo largo del plano de la superficie táctil. Los datos de imagen generados por cada cámara digital incluyen una línea media de puntero x y una ubicación de la punta del puntero z. Cada una de las cámaras digitales incluye un arreglo de píxeles que tiene filas de píxeles seleccionables. Las intensidades de los píxeles en las filas de píxeles seleccionables se utilizan durante la generación de datos de imagen. Preferiblemente, las
35 intensidades de píxeles en una región de interés dentro de las filas de píxeles seleccionables se utilizan durante la generación de datos de imagen.
[0024] En una realización preferida, cada una de las cámaras digitales incluye un sensor de imagen CMOS y un procesador de señales digitales. El procesador de señales digitales recibe la salida de la imagen del sensor de imagen y ejecuta una rutina para hallar el puntero para determinar si un puntero está en cada imagen adquirida
40 por la cámara digital y, en ese caso, la línea media del puntero. También se prefiere que el procesador de señales digitales de cada cámara digital ejecute una rutina de actualización de imagen de fondo para actualizar la imagen de fondo después de adquirir cada imagen. Preferiblemente, el procesador de señales digitales de cada cámara digital determina además las diferencias entre cada imagen adquirida y la imagen de fondo para detectar cambios en las condiciones de luz.
45 [0025] La presente invención ofrece ventajas, ya que el sistema táctil pasivo es de alta resolución y permite contactos reales del puntero con la superficie táctil, así como movimientos del puntero sobre la superficie táctil a detectar y la salida correspondiente generada. Además, el sistema táctil pasivo de la presente ofrece ventajas, ya que no presenta los problemas de paralaje, distorsión de imagen, restricciones de posición del puntero, proyección de imagen y escalabilidad que se asocian con los sistemas táctiles pasivos de la técnica anterior.
50 [0026] Más aun, la presente invención ofrece ventajas, ya que dado que se utilizan cámaras digitales CMOS, pueden seleccionarse filas de píxeles arbitrarias en los arreglos de píxeles de la cámara digital. Esto permite que aumenten considerablemente las velocidades de cuadro de las cámaras digitales. Además, dado que las filas de píxeles pueden seleccionarse de manera arbitraria, los arreglos de píxeles pueden exponerse durante una mayor duración para una velocidad de cuadro de cámara digital dada, permitiendo una buena operación tanto en ambientes oscuros como en ambientes iluminados.
5 BREVE DESCRIPCIÓN DE LOS DIBUJOS [0027] Las realizaciones de la presente invención se describirán ahora en más detalle con referencia a los dibujos adjuntos en los cuales: la Figura 1 es un diagrama esquemático de un sistema táctil basado en cámaras de acuerdo con la presente invención;
10 la Figura 2 es un vista isométrica de una pantalla táctil que forma parte del sistema táctil de la Figura 1; la Figura 3 es un vista isométrica de un porción de la esquina de la pantalla táctil de la Figura 2; la Figura 4 es un diagrama esquemático de una cámara digital que forma parte de la pantalla táctil de la
Figura 2; la Figura 5 es un diagrama esquemático de un controlador maestro que forma parte de la pantalla táctil de la 15 Figura 1;
la Figura 6 es una gráfica de flujo que muestra los pasos realizados durante la ejecución de una rutina processFrame (proceso de cuadro); la Figura 7 es una gráfica de flujo que muestra los pasos realizados durante la ejecución de una rutina
segmentPointer (segmento de puntero);
20 la Figura 8 es una gráfica de flujo que muestra los pasos realizados durante la ejecución de una rutina findPointer (hallar puntero); la Figura 9 muestra una imagen adquirida por una cámara digital y un subconjunto de píxeles de la imagen
que se procesa; la Figura 10 muestra una región de interés (ROI) dentro del subconjunto de píxeles de la Figura 9;
25 la Figura 11 muestra una geometría de triangulación utilizada para calcular una posición de contacto del puntero sobre la superficie táctil de la pantalla táctil ilustrada en la Figura 2; la Figura 12 muestra una imagen adquirida por una cámara digital que incluye la punta del puntero y su línea
media; la Figura 13 muestra un contacto de puntero y un deslizamiento en diferentes orientaciones del puntero;
30 la Figura 14 es una imagen de la superficie táctil de la pantalla táctil tal como se ve mediante una cámara digital; las Figuras 15 y 16 muestran los resultados de una simulación en Matlab de rastreo del puntero usando un
filtro de Kalman; y las Figuras 17a a 17d muestran los resultados de otra simulación en Matlab de rastreo del puntero usando un 35 filtro de Kalman.
MEJOR MODO DE LLEVAR A CABO LA INVENCIÓN
[0028] Con referencia ahora a la Figura 1, se muestra un sistema táctil basado en cámaras de acuerdo con la presente invención y generalmente identificado por el numeral de referencia 50. Como puede observarse, el sistema táctil 50 incluye una pantalla táctil 52 acoplada a un controlador maestro basado en un procesador digital 40 de señales (DSP) 54. El controlador maestro 54 también se acopla a un ordenador 56. El ordenador 56 ejecuta
uno o más programas de aplicación y proporciona una salida de pantalla que se presenta en la pantalla táctil 52 por medio de un proyector 58. La pantalla táctil 52, el controlador maestro 54, el ordenador 56 y el proyector 58 forman un circuito cerrado de forma que los contactos del usuario con la pantalla táctil 52 puedan registrarse como escritura o dibujos o utilizarse para controlar la ejecución de programas de aplicaciones ejecutados por el
5 ordenador 56.
[0029] Las Figuras 2 a 4 ilustran mejor la pantalla táctil 52. La pantalla táctil 52 incluye una superficie táctil 60 bordeada por un marco rectangular 62. La superficie táctil 60 tiene forma de lámina plana rectangular de material pasivo. Cámaras digitales CMOS basadas en DSP se asocian con cada esquina de la pantalla táctil 52. Cada cámara digital 63 se monta en un montaje de marco 64. Cada montaje de marco 64 incluye una placa de soporte
10 inclinada 66 en la que se monta la cámara digital 63. Elementos de marco de soporte 70 y 72 se montan sobre la placa 66 por medio de postes 74 y fijan la placa 66 al marco 62.
[0030] Cada cámara digital 63 incluye un montaje de sensor de imagen CMOS bidimensional y una lente asociada 80, un búfer de primera entrada -primera salida (FIFO) 82 acoplado al montaje de sensor de imagen y lente 80 por medio de un bus de datos y un procesador de señales digitales (DSP) 84 acoplado al FIFO 82 por
15 medio de un bus de datos y al montaje de sensor de imagen y lente 80 por medio de un bus de control. También se incluye una EPROM de arranque 86 y un subsistema de alimentación 88.
[0031] En la presente realización, el sensor de imagen de la cámara CMOS es un sensor de imagen Photobit PB300 configurado para un sub-arreglo de 20 x 640 píxeles que puede operarse para capturar cuadros de imágenes a velocidades de más de 200 cuadros por segundo, dado que pueden seleccionarse filas de píxeles
20 arbitrarias. Además, dado que las filas de píxeles pueden seleccionarse de manera arbitraria, el sub-arreglo de píxeles puede exponerse durante una mayor duración para una velocidad de cuadro de cámara digital determinada, permitiendo una buena operación tanto en ambientes oscuros como en ambientes iluminados. El búfer FIFO 82 es fabricado por Cypress con el número de pieza CY7C4211V y el DSP 84 es fabricado por Analog Devices con el número de pieza ADSP2185M.
25 [0032] El DSP 84 proporciona información de control al montaje de sensor de imagen y lente 80 por medio del bus de control. La información de control permite que el DSP 84 controle los parámetros del montaje de sensor de imagen y lente 80, tal como la exposición, ganancia, configuración del arreglo, reinicio e inicialización. El DSP 84 también proporciona señales de reloj al montaje de sensor de imagen y lente 80 para controlar la velocidad de cuadro del montaje de sensor de imagen y lente 80.
30 [0033] El ángulo de la placa 66 se selecciona de forma tal que el campo visual (FOV) de cada cámara digital 63 se extienda más allá de un extremo periférico designado de la superficie táctil 60 tal como se muestra en la Figura 11. De este modo, toda la superficie táctil 60 está dentro de los campos visuales de las cámaras digitales
63.
[0034] El controlador maestro 54 se ilustra mejor en la Figura 4 e incluye un DSP 90, una EPROM de arranque
35 92, un controlador de línea serial 94 y un subsistema de alimentación eléctrica 95. El DSP 90 se comunica con los DSP 84 de las cámaras digitales 63 por un bus de datos por medio de un puerto serial 96 y se comunica con el ordenador 56 por un bus de datos por medio de un puerto serial 98 y el controlador de línea serial 94. En esta realización, el DSP 90 también es fabricado por Analog Devices con el número de pieza ADSP2185M. El controlador de línea serial 94 es fabricado por Analog Devices con el número de pieza ADM222.
40 [0035] El controlador maestro 54 y cada cámara digital 70 siguen un protocolo de comunicación que permite comunicaciones bidireccionales por medio de un cable serial común similar a un bus serial universal (USB). El ancho de banda de transmisión se divide en treinta y dos (32) canales de 16 bits. De los treinta y dos canales, seis (6) canales son asignados a cada uno de los DSP 84 en las cámaras digitales 63 y al DSP 90 y el controlador maestro 54 y los dos (2) canales restantes no se utilizan. El controlador maestro 54 monitorea los
45 veinticuatro (24) canales asignados a los DSP 84, mientras que los DSP 84 monitorean los seis (6) canales asignados al DSP 90 del controlador maestro 54. Las comunicaciones entre el controlador maestro 54 y la cámara digital 70 se realizan como procesos de fondo en respuesta a interrupciones.
[0036] Se describirá ahora el funcionamiento general del sistema táctil 50. Cada cámara digital 63 adquiere imágenes de la superficie táctil 60 dentro del campo visual de su montaje de sensor de imagen y lente 80 a una 50 velocidad de cuadro deseada y procesa cada imagen adquirida para determinar si un puntero se encuentra en la imagen adquirida. Si un puntero se encuentra en la imagen adquirida, la imagen es procesada también para determinar las características del puntero que se pone en contacto o se mueve sobre la superficie táctil 60. Los paquetes de información de puntero (PIP), que incluyen las características, estado y/o información de diagnóstico del puntero, son entonces generados por la cámara digital 63, y los PIP se ponen en cola para la transmisión al
controlador maestro 54. Las cámaras digitales 63 también reciben y responden a los PIP de comandos generados por el controlador maestro 54.
[0037] El controlador maestro 54 sondea las cámaras digitales 63 en busca de los PIP. Si los PIP incluyen información característica de puntero, el controlador maestro 54 triangula las características del puntero en los 5 PIP para determinar la posición del puntero con relación a la superficie táctil 60 en coordenadas rectangulares cartesianas. El controlador maestro 54, a su vez, transmite los datos de posición de puntero calculados, estado y/o información de diagnóstico al ordenador personal 56. De esta manera, los datos de posición del puntero transmitidos al ordenador 56 pueden registrarse como escritura o dibujo, o se pueden utilizar para controlar la ejecución de un programa de aplicaciones ejecutado por el ordenador 56. El ordenador 56 también actualiza la
10 salida de imágenes transportadas al proyector 58, de tal forma que la información presentada sobre la superficie táctil 60 refleje la actividad del puntero.
[0038] El controlador maestro 54 también recibe los comandos del ordenador personal 56 y responde en consecuencia, así como también genera y transporta los PIP de comando a las cámaras digitales 63.
[0039] Se describirán ahora con referencia a las Figuras 6 a 8 los datos específicos sobre el procesamiento de 15 imágenes adquiridas y la triangulación de las características del puntero en los PIP.
[0040] Inicialmente, se realiza una rutina de calibración de ángulo de desfase de cámara para determinar el ángulo de desfase ! de cada cámara digital 63 (ver la Figura 11) para que se pueda determinar con precisión la posición de contacto o movimiento de un puntero con respecto a la superficie táctil 60. Los detalles de la calibración del ángulo de desfase de la cámara se describen en la solicitud de los Estados Unidos pendiente de 20 tramitación junto con la presente de los Solicitantes titulada "Calibración de desfases de cámara para facilitar la determinación de la posición del objeto usando triangulación", presentada el 1º de junio de 2001.Siguiendo la rutina de calibración del ángulo de desfase de la cámara, se realiza una rutina de detección de superficie para mejorar la determinación de si un puntero está en contacto con la superficie táctil 60 en un punto dado o se está moviendo sobre de la superficie táctil.Conociéndose con precisión las coordenadas rectangulares de un puntero 25 en el plano de la superficie táctil 60 de la calibración del ángulo de desfase de la cámara, puede determinarse la orientación de la superficie táctil 60 tal como es vista por cada cámara digital 63. Esto es necesario debido al hecho de que las cámaras digitales no ven solo a lo largo del plano de la superficie táctil 60, sino también en una dirección perpendicular a la misma. En cierta medida, cada cámara digital 63 mira hacia abajo hacia la superficie táctil 60. La Figura 14 generalmente muestra la forma de la superficie táctil 60 tal como es vista por una cámara
30 digital. Debido a esto, se desea definir una coordenada z "vertical" que describa la ubicación de la superficie táctil en función de las coordenadas rectangulares x e y.
[0043] La coordenada z del puntero puede medirse a partir de una imagen de la cámara digital y, de esta forma, pueden determinarse las coordenadas z para las posiciones del puntero sobre la superficie táctil 60. La calibración vertical se convierte en una cuestión de ajustar los datos de la coordenada z para las coordenadas
35 rectangulares dadas x e y. La calibración vertical puede describirse como una superficie con la forma:
[0044] Nótese que si los coeficientes C, D y E son cero, esto se convierte en un plano. El ajuste se computa fácilmente, ya que la ecuación (0,1) representa un problema lineal de mínimos cuadrados. La matriz correspondiente toma la forma:
[0045] Para ajustar las coordenadas rectangulares x e y a la ecuación (0,1) para determinar los coeficientes A a E se usa el método de la pseudo-inversa de Moore-Penrose, que se basa en la descomposición en valores singulares (SVD) para determinar una solución de mínimos cuadrados de norma mínima.
[0046] Como se apreciará, una matriz siempre puede descomponerse de la siguiente forma:
[0047] La matriz A puede tener cualquier forma. Las matrices U y V son matrices ortogonales, lo que significa que:
15 [0048] La matriz diagonal S está compuesta enteramente por los valores singulares de la matriz A, que están relacionados con los cuadrados de los eigenvalores de la matriz A. La importancia de la descomposición en valores singulares (SVD) se encuentra en el hecho de que con ella, la inversa de la matriz A siempre puede computarse. Además, es posible controlar esta inversión cuando se encuentra un problema mal determinado. Considérese el sistema de ecuaciones lineales:
cuya solución sería: [0049] La SVD permite que la inversa de la matriz A se escriba de la siguiente forma:
dado que las matrices U y V son ortogonales. En una situación poco determinada, algunos de los valores singulares serán muy pequeños, de modo que cuando se forma la matriz S-1, se producirán grandes valores, lo que no es deseable. En este caso, las inversas de los valores singulares más pequeños se ajustan a cero. Esto tiene el efecto de eliminar la parte poco determinada de la solución. Para problemas de cuadrados mínimos, esta
10 es una herramienta poderosa. El método de ecuaciones normales habitual para problemas de cuadrados mínimos se basa en la resolución de:
en el caso sobredeterminado, y la resolución de:
15 en el caso subdeterminado. Como se apreciará, durante el ajuste del sistema de ecuaciones a la ecuación (0,1), se utiliza el mismo método que se utiliza durante la determinación de los ángulos de desfase de la cámara !. Dado que se usa el mismo el procedimiento, el uso de la memoria y la velocidad de procesamiento se mantienen en los niveles deseados.
[0050] Conociéndose los coeficientes A a E, puede calcularse la coordenada z para cualquier punto dado (x,y)
20 sobre la superficie táctil y, de esa forma, se puede determinar si un puntero está haciendo contacto con la superficie táctil 60 o moviéndose encima de la misma.
[0051] Con el sistema táctil 50 calibrado, durante el funcionamiento cada cámara digital 63 adquiere imágenes de la superficie táctil 60 dentro de su campo visual. Las imágenes son adquiridas por el montaje de imagen y lente 80 a intervalos en respuesta a las señales de reloj recibidas del DSP 84. Cada imagen adquirida por el
25 montaje de imagen y lente 80 se envía al búfer FIFO 82. El DSP 84, a su vez, lee cada imagen del búfer FIFO 82 y procesa la imagen. Para evitar el procesamiento de cantidades importantes de píxeles que no contengan información útil, se procesa solo un subconjunto de píxeles en la imagen adquirida, tal como se muestra en la Figura 9.
[0052] Durante el procesamiento de una imagen adquirida por la cámara digital 63, el DSP 84 ejecuta una rutina
30 processFrame, tal como se muestra en la Figura 6. Cuando una imagen está disponible para procesamiento (paso 120), se realiza un chequeo para determinar si la imagen se ha capturado a efectos de ajustar la cámara digital 63 (paso 122). Si la imagen ha sido adquirida a efectos de ajuste de exposición, se llama una rutina exposureControl (control de exposición) (paso 124) para ajustar la exposición de la cámara digital 63. Posteriormente, el DSP 84 espera recibir la siguiente imagen disponible para procesamiento.
35 [0053] En el paso 122, si la imagen no fue capturada a los efectos de ajustar la exposición de la cámara digital 63, se realiza un chequeo para determinar si la imagen se capturó a efectos de reemplazar una imagen de fondo (paso 126). Si la imagen se adquirió a efectos de reemplazo de la imagen de fondo, se llama una rutina captureBackground (captura de fondo) (paso 128) y la imagen adquirida se utiliza como la imagen de fondo. Esto se hace si una cámara digital adquiere una imagen y envía un PIP al controlador maestro que indica que un puntero está en la imagen cuando en realidad es ruido. Reemplazar la imagen de fondo efectivamente inhibe la cámara digital de identificar equivocadamente un puntero en los futuros PIP. Posteriormente, el DSP 84 espera recibir la siguiente imagen disponible para el procesamiento.
[0054] En el paso 126, si la imagen no se capturó a efectos de reemplazo de imagen de fondo, una rutina
5 copyICurr (copiar imagen actual) es llamada por el DSP 84 (paso 130). Durante esta rutina, la imagen adquirida actual se copia en la memoria y se utiliza para actualizar la imagen de fondo, así como para formar una imagen de diferencias que representa las diferencias entre la imagen adquirida actual y la imagen de fondo.
[0055] Después de completarse la rutina copyICurr, se llama una rutina segmentPointer (paso 132) para determinar si un puntero está en la imagen adquirida y, en ese caso, determinar la ubicación del puntero con
10 relación a la superficie táctil 60 y si el puntero está en contacto con la superficie táctil 60 o moviéndose encima de ésta. La rutina segmentPointer 132 también permite cambiar las condiciones de luz que se detectarán. Luego de la rutina segmentPointer 132, el DSP 84 llama una rutina fillPIP (completar PIP) (paso 134) para colocar el puntero y la información de la condición de luz en un PIP para transmisión al controlador maestro 54. A continuación, el DSP 84 espera recibir la siguiente imagen disponible para procesamiento.
15 [0056] La Figura 7 ilustra los pasos realizados por el DSP 84 durante la ejecución de la rutina segmentPointer
132. Como puede observarse, cuando el DSP 84 ejecuta la rutina segmentPointer, el DSP 84 llama una rutina findPointer para determinar si un puntero está en la imagen adquirida y, en ese caso, la posición del puntero en la imagen adquirida actual (paso 140). Al completarse la rutina findPointer 140, el DSP 84 llama una rutina updateBackground (actualizar fondo) para actualizar la imagen de fondo para manejar los cambios en las
20 condiciones de iluminación (paso 142).
[0057] Durante la ejecución de la rutina updateBackground, el DSP 84 actualiza continuamente la imagen de fondo usando la ecuación:
donde:
25 Bn+1 es la nueva imagen de fondo;
Bn es la imagen de fondo actual;
I es la imagen adquirida actual;
i,j son las coordenadas de fila y columna de los píxeles de imagen de fondo que se actualizan; y
a es un número entre 0 y 1 que indica el grado de aprendizaje que debería tomarse de la imagen adquirida 30 actual I. Cuanto más grande sea el valor de a, más rápido se actualiza la imagen de fondo.
[0058] Después de que se haya ejecutado la rutina updateBackground 142, la diferencia de intensidad entre la imagen adquirida actual y la imagen de fondo es calculada por el DSP 84. Esta información se envía al controlador maestro 54 para permitir que el controlador maestro determine si la cámara digital 63 debe volver a exponerse. Esto sería necesario si ocurriera un cambio drástico en las condiciones de iluminación (es decir, la
35 iluminación del ambiente se encendió o se apagó). Cuando se requiere que se vuelva a exponer la cámara digital 63, el controlador maestro 54 envía un PIP de comando a la cámara digital 63 instruyendo a la cámara digital a adquirir una imagen para ajuste de exposición.
[0059] La Figura 8 ilustra los pasos realizados por el DSP 84 durante la ejecución de la rutina findPointer 140. Como puede observarse, cuando el DSP 84 ejecuta la rutina findPointer 140, el DSP 84 limpia la ubicación del 40 puntero y los parámetros de la punta del puntero x y z respectivamente (paso 150). Posteriormente, se construye un histograma de intensidad vertical (paso 152). Durante este paso, se forma la imagen de diferencias que representa las diferencias entre la imagen actual y la imagen de fondo y las intensidades de píxeles en la imagen de diferencias se resumen por columna. De esta manera, se forma un vector de 640 x 1 que representa la suma de cada columna en la imagen de diferencias de 640 x 20. De esta forma, el primer elemento en el vector de 640 45 x 1 representa la suma de los 20 píxeles en la primera columna de la imagen de diferencias de 640 x 20, el segundo elemento en el vector de 640 x 1 representa la suma de los 20 píxeles en la segunda columna de la imagen de diferencias de 640 x 20, etc. Datos específicos adicionales de este proceso pueden encontrarse en el
artículo titulado "A smart camera application: DSP -based people detection and tracking" escrito por V. Cheng et al y publicado en el SPIE Journal of Electronic Imaging en julio de 2000.
[0060] Siguiendo la creación del histograma de intensidad vertical en el paso 152, se determina el parámetro x de ubicación del puntero encontrando la columna en el histograma de intensidad vertical con la intensidad más
5 alta superior a un umbral de ruido (paso 154). La columna se utiliza como el centro de una región de interés (ROI) que se procesará con el ancho de la ROI igual a la base del pico formado por el histograma de intensidad vertical (ver la Figura 10). Si ninguna columna tiene una intensidad por encima del umbral de ruido, se asume que ningún puntero está dentro de la imagen adquirida.
[0061] Cuando se determina un parámetro de ubicación del puntero x, el DSP 84 analiza la ROI para determinar
10 la fila de píxeles en la que se ubica la punta del puntero y determinar si la fila representa un contacto o movimiento sobre la superficie táctil (paso 156). Específicamente, el DSP 84 crea una máscara binaria en la ROI de forma tal que los píxeles blancos representen el puntero y los píxeles negros representen el fondo tal como se muestra en la Figura 12. A partir de la máscara, la línea media del puntero y la ubicación z de la punta del puntero pueden calcularse fácilmente.
15 [0062] Durante la rutina de fillPIP 134, el DSP 84 utiliza la información del puntero y de la condición de luz adquirida durante la ejecución de la rutina segmentPointer 132 y crea un PIP para reducir la imagen adquirida a un pequeño conjunto de datos, proporcionando así una economía de ancho de banda. El PIP está en forma de un paquete de seis (6) palabras, siendo cada palabra en el paquete de dieciséis (16) bits. El PIP normalmente toma la forma:
Encabezado
Datos Suma de verificación
[0063] La porción de encabezado del PIP es normalmente de dieciséis (16) bits e incluye un campo de determinación/fuente, un campo de tipo de datos, un campo de número de cuadro de imagen, un campo de número de secuencia y un campo de número de paquete. El campo de destino/fuente identifica el destino del PIP 25 y la fuente del PIP. Si el PIP es generado por el controlador maestro 54, el destino puede ser una sola cámara digital 63 o todas las cámaras digitales. El tipo de datos indica si el PIP se refiere a información del puntero u otra información, tal como información de estado y diagnóstico. El campo de número de cuadro de imagen almacena un número de forma que las imágenes de cada cámara digital 63 sean procesadas por el controlador maestro 54 en secuencia. El campo de número de secuencia almacena un número que relaciona el PIP a otros PIP. El
30 campo de número de paquete almacena un número que identifica el paquete.
[0064] La porción de datos del PIP es normalmente de sesenta y cuatro (64) bits e incluye un campo de ID de puntero, un campo de parámetro de ubicación del puntero, un campo de parámetro de punta del puntero, un campo de estado de contacto y un campo de calidad del puntero. El campo de ID del puntero almacena un identificador para el puntero para permitir el rastreo de múltiples punteros. El campo de parámetro de ubicación
35 del puntero almacena el valor x calculado por el DSP 84. El campo de parámetro de punta del puntero almacena el valor z calculado por el DSP 84. El campo del estado de contacto almacena un valor que indica si el puntero está en contacto, fuera de contacto o posiblemente en contacto con la superficie táctil 60. El campo de calidad del puntero almacena un valor estadístico sobre la posibilidad de que un puntero detectado sea real.
[0065] La porción de la suma de verificación del PIP se utiliza para asegurar la integridad de la transmisión del
40 PIP. Si los errores de la suma de verificación del PIP son poco frecuentes, los PIP que exhiben errores de la suma de verificación son ignorados por el dispositivo de destino.
[0066] Los PIP de estado que no se relacionan con la información del puntero tienen forma diferente a los PIP descritos identificados anteriormente. Para PIP de esta naturaleza, la porción de datos incluye un campo de tipo de instrucción, un campo de código de instrucción y un campo de datos. El campo de tipo de instrucción identifica
45 si el tipo de instrucción es una instrucción que debe realizarse o una solicitud de estado. El campo del código de instrucción almacena la instrucción real o el identificador de la solicitud de estado. El campo de datos almacena los datos que varían dependiendo del tipo de instrucción. Ejemplos de PIP de estado incluyen PIP de encabezado de cuadro, PIP de comando y PIP de mensaje de error.
[0067] Un PIP de encabezado de cuadro normalmente incluye el número de PIP de puntero que deben seguirse
50 para una imagen adquirida actual con datos estadísticos para la imagen actual tal como variación de intensidad entre la imagen adquirida actual y una imagen anterior. Un PIP de comando emitido por el controlador maestro 54 puede instruir a una cámara digital a ajustar una o más de sus configuraciones tales como exposición o a capturar una imagen que se utilizará como nueva imagen de fondo. Un PIP de error puede pasar una condición de error de una cámara digital 63 al controlador maestro 54 para almacenamiento en un registro de errores.
[0068] Cada cámara digital 63 procesa cada imagen que adquiere de la manera descrita anteriormente en 5 respuesta a cada señal de reloj generada por su DSP 84. Los PIP creados por los DSP 84 sólo se envían al controlador maestro 54 cuando las cámaras digitales 63 son agrupadas por el controlador maestro 54.
[0069] Cuando el controlador maestro 54 agrupa las cámaras digitales 63, pulsos de sincronización de cuadro son enviados a las cámaras digitales 63 para iniciar la transmisión de los PIP creados por los DSP 84. Al recibir el pulso de sincronización de cuadro, cada DSP 84 transmite el PIP al controlador maestro 54 a través del bus de
10 datos. Los PIP transmitidos al controlador maestro 54 son recibidos por medio del puerto serial 96 y se autoalmacenan en búfer en el DSP 90.
[0070] Después de que el DSP 90 ha agrupado las cámaras digitales 63 y ha recibido los PIP de cada una de las cámaras digitales 63 que incluyen información del puntero, el DSP 90 procesa los PIP usando triangulación para determinar la ubicación del puntero con respecto a la superficie táctil 60 en las coordenadas (x, y).
15 Específicamente, los PIP de los pares de cámaras digitales 63 son procesados usando triangulación.
[0071] La Figura 11 muestra que dos ángulos Φcam1y Φcam2 son necesarios para triangular la posición (x0, y0) de un puntero con respecto a la pantalla táctil 60. Los PIP generados por cada cámara digital 63 incluyen un número θ (ver la Figura 12) que identifica la línea media o la punta del puntero. Cuando el controlador maestro 54 recibe un PIP de una cámara digital 63, el controlador maestro usa el número que representa la línea media o punta del
20 puntero y el campo visual de la cámara digital para calcular un ángulo Φcam usando la ecuación:
donde:
x es el número que representa la línea media o la punta del puntero; y
a es la longitud total comprendida x el campo visual (FOV) de la cámara digital a una distancia desde la 25 cámara.
[0072] El ángulo calculado Φcam es igual al ángulo formado entre la extremidad del campo visual que se extiende más allá del borde periférico designado de la superficie táctil 60 de la cámara digital 63 que generó el PIP y una línea que se extiende desde el eje óptico de la cámara digital que intersecta el puntero de la imagen adquirida. Preferiblemente, la extremidad del campo visual se extiende más allá del borde periférico designado
30 (es decir, en el caso del eje x) de la superficie táctil 60 dentro del campo visual por una cantidad conocida. Sin embargo, en casi todos los casos el escaneo de !cam de desfase angular de cada cámara digital 63 es diferente y se desconoce.
[0073] Una vez que el controlador maestro 54 calcula el ángulo Φcam, el controlador maestro 54 utiliza el ángulo de desfase de la cámara determinado durante la calibración de desfase de la cámara para ajustar el ángulo Φcam.
35 Con los dos ángulos disponibles y con los ángulos Φcam ajustados, el controlador maestro 54 utiliza los ángulos Φcam para determinar la posición del puntero con respecto a la superficie táctil 60 usando triangulación.
[0074] En esta realización, dado que la superficie táctil 52 incluye cuatro cámara digitales 63, pueden utilizarse seis pares de cámaras digitales para triangulación. La siguiente descripción describe cómo una posición del puntero se determina mediante triangulación para cada par de las cámaras digitales 63.
40 [0075] Con el fin de determinar la posición de un puntero usando los PIP recibidos de las cámaras digitales 63 a lo largo del lado izquierdo de la pantalla táctil 52, se utilizan las siguientes ecuaciones para determinar las coordenadas (x0, y0) de la posición del puntero dados los ángulos Φ0 y Φ1 para las cámaras digitales superior e inferior:
donde:
5 h es la altura de la pantalla táctil 52, es decir, la distancia vertical desde el punto focal a punto focal de la cámara digital;
w es el ancho de la pantalla táctil 52, es decir, la distancia horizontal desde el punto focal a punto focal de la cámara digital; y
Φi es el ángulo con respecto a la horizontal, medido usando la cámara digital i y la ecuación (0.7).
10 [0076] Para las cámaras digitales 63 a lo largo del lado derecho de la pantalla táctil 52, se utilizan las siguientes ecuaciones para determinar las coordenadas (x0, y0) de la posición del puntero dados los ángulos Φ2 y Φ3 para las cámaras digitales superior e inferior:
[0077] La similitud entre las ecuaciones (0.8) y (0.10), es decir, la ecuación (0.10) = 1 -ecuación (0.8) una vez
15 que los ángulos Φ2 y Φ3 hayan sido sustituidos en la ecuación (0.8) por los ángulos Φ1 y Φ2 respectivamente, debería ser evidente. Las ecuaciones (0.9) y (0.11) están relacionadas de manera similar.
[0078] Con el fin de determinar la posición de un puntero usando las cámaras digitales 63 a lo largo de la parte inferior de la pantalla táctil 52, se utilizan las siguientes ecuaciones para determinar las coordenadas (x0, y0) de la posición del puntero dados los ángulos Φ0 y Φ3 para las cámaras digitales de la parte inferior izquierda y la parte
20 inferior derecha:
[0079] Con el fin de determinar la posición de un puntero usando las cámaras digitales 63 a lo largo de la parte superior de la pantalla táctil 52, se utilizan las siguientes ecuaciones para determinar las coordenadas (x0, y0) de la posición del puntero dados los ángulos Φ1 y Φ2 para las cámaras digitales de la parte superior izquierda y la
parte superior derecha:
[0080] La similitud entre las ecuaciones (0.12) y (0.14), es decir, la ecuación (0.14) = ecuación (0.12) una vez que los ángulos Φ1 yΦ2 hayan sido sustituidos en la ecuación (0.12) por los ángulos Φ0 y Φ3 respectivamente, debería ser evidente. Las ecuaciones (0.13) y (0.15) tienen la siguiente relación: ecuación (0.15) = 1 -ecuación
(0.13) una vez que los ángulos Φ1 y Φ2 hayan sido sustituidos en la ecuación (0.13) por los ángulos Φ0 y Φ3, 10 respectivamente.
[0081] Con el fin de determinar la posición de un puntero usando las cámaras digitales 63 de la diagonal de la esquina inferior izquierda a la superior derecha, se utilizan las siguientes ecuaciones para determinar las coordenadas (x0, y0) de la posición del puntero dados los ángulos Φ0 y Φ2 para las cámaras digitales de la parte inferior izquierda y la parte superior derecha:
[0082] Con el fin de determinar la posición de un puntero usando las cámaras digitales 63 de la diagonal inferior derecha a la superior izquierda, se utilizan las siguientes ecuaciones para determinar las coordenadas
derecha y la parte superior izquierda: [0083] La similitud entre las ecuaciones (0.16) y (0.18), es decir, la ecuación (0.18) = ecuación (0.16) una vez que los ángulos Φ1 yΦ3 hayan sido sustituidos en la ecuación (0.16) por los ángulos Φ0 y Φ2 ,debería ser evidente. Las ecuaciones (0.17) y (0.19) tienen la siguiente relación: ecuación (0.19) = 1 -ecuación (0.17) una vez
5 que los ángulos Φ1 y Φ3 hayan sido sustituidos en la ecuación (0.17) por los ángulos Φ0 y Φ2, respectivamente.
[0084] Como se apreciará, las ecuaciones anteriores generan las coordenadas x0 e y0 en una escala de [0, 1]. Por lo tanto, cualquier escala de coordenadas apropiada puede reportarse multiplicando x0 e y0 por los valores máximos de X e Y, respectivamente.
[0085] En la presente realización, el DSP 90 calcula la posición del puntero usando triangulación para cada par
10 de cámaras digitales excluyendo los pares de diagonales. Luego se promedian las posiciones del puntero resultantes y las coordenadas de la posición del puntero se ponen en cola para transmisión al ordenador personal 56 a través de un puerto serial 98 y el controlador de línea serial 94.
[0086] Con la posición (x,y) de un puntero conocido por triangulación, usando los coeficientes A a E calculados durante la calibración de detección de superficie, la coordenada z correspondiente a la posición (x,y) puede
15 determinarse usando la ecuación (0.1). El cálculo de la coordenada z y comparando la coordenada z con el parámetro z en el PIP indica si el puntero se está moviendo sobre de la superficie táctil 60 o si está en contacto real con la superficie táctil.
[0087] Si se desea, la velocidad v del puntero y el ángulo pueden calcularse mediante el DSP 90 tal como se muestra en la Figura 13. La velocidad del puntero se calcula examinando los cambios en la posición z (o
20 intersección x) del puntero en PIP sucesivos y conociendo la velocidad de cuadro de la cámara. Por ejemplo, si la velocidad de cuadro de la cámara es 200 cuadros por segundo y la posición z cambia 1 fila de píxeles por cuadro, la velocidad del puntero es de 200 píxeles por segundo.
[0088] Puede determinarse el ángulo del puntero debido al hecho de que el PIP incluye la intersección x en las filas de píxeles 0 y 19 de la línea media. Dado que se conocen la distancia x (la diferencia entre las intersecciones
25 x) y la distancia y (el número de filas de píxeles), está disponible toda la información necesaria para calcular el ángulo de puntero.
[0089] Si se desea, puede utilizarse un filtro de Kalman (esencialmente un método de cuadrados mínimos recursivos) para "rastrear" de forma efectiva el puntero cuando está a determinada distancia de la superficie táctil
60. Para hacer esto, es necesario definir ecuaciones de un sistema o modelo que se utilizará en el filtro. Dado que
30 el controlador maestro 54 es capaz de proporcionar tanto la posición z como la velocidad v del puntero, puede utilizarse la siguiente descripción:
[0090] La segunda de estas ecuaciones es necesaria ya que el filtro debe saber qué hacer con la velocidad, y ya que tanto z como v son medibles. Se define el vector de estado como:
[0091] Para relacionar el estado del sistema en dos tiempos sucesivos n y n+1, se escriben las ecuaciones del sistema como una ecuación de diferencia de matriz:
o en una matriz de notación,
[0092] Aquí, dt denota el intervalo de tiempo entre pasos de tiempo sucesivos. También se introduce aquí en el RHS la expresión "ruido del proceso". Es puramente formal, pero parte del método del filtro de Kalman. También es necesario especificar cómo se introduce una medición en el procedimiento. Esto se hace a través de la ecuación de la matriz:
donde zn es una medición de posición y velocidad, H es una "matriz de medición" que se considera como una matriz de identidad, xn es el vector de estado y w es un ruido de medición. Esencialmente, se asume que las mediciones son versiones ruidosas del vector de estado. También es necesario definir una matriz de covarianza asociada con w. Si el error de medición en z es 0,5 píxeles, entonces la matriz de covarianza es:
[0093] Es necesaria una matriz similar Q para el ruido del proceso introducido anteriormente, pero como es un tanto arbitraria, puede tratarse como un parámetro de sintonización para el filtro. En este ejemplo, la matriz Q se considera como una matriz de identidad multiplicada por un factor de unidad de orden o menos. Habiendo establecido lo anterior, hay suficiente información para comenzar el proceso del filtro. El primer paso (de predicción) es:
[0094] Aquí, la notación (-) implica que una medición no se ha realizado todavía mientras que (+) sí (pero en este caso, (+) se refiere al paso anterior). También, la ecuación de la matriz para la matriz P predice una matriz de covarianza. El siguiente paso es el cálculo de ganancia de filtro:
[0095] Una vez que se hace la medición, la estimación del estado y su covarianza pueden actualizarse:
[0096] Esta es la estimación del estado x que se utiliza para determinar si ha habido contacto o no con la superficie táctil. Nótese aquí que las matrices H y R son constantes con el tiempo, y que solo las matrices K y P cambian (de hecho, P se acerca a una matriz constante). Hay una simplificación adicional ya que no hay un proceso de control.
10 [0097] Se tomaron los resultados de una simulación en Matlab de un filtro de Kalman usando un conjunto de mediciones que representan un puntero que se acerca a la superficie táctil 62 a una velocidad constante. Las Figuras 15 y 16 ilustran la simulación, con un paso de tiempo dt de 0,1 seg y una precisión de medición de 0,5 píxeles. Los símbolos abiertos representan los datos, y las líneas la estimación del estado a partir del filtro de Kalman. Claramente, la estimación del estado sigue los datos bastante bien.
15 [0098] Se realizó una segunda simulación en Matlab para tomar en cuenta el movimiento vertical (z) y horizontal
(x) de un puntero. Esta simulación consiste básicamente en dos filtros de Kalman similares que funcionan juntos en forma "paralela". La formulación es exactamente la misma, salvo que deben considerarse dos veces el número de variables. Las Figuras 17a a 17d muestran los resultados de la simulación y representan el movimientode un puntero hacia la superficie táctil 60 a una velocidad constante y a una posición x que varía lentamente (es decir,
20 la mano de la persona está temblorosa).
[0099] A pesar de que se ha descrito que el sistema táctil 50 incluye un proyector para presentar imágenes en la pantalla táctil, los expertos en la técnica apreciarán que esto no es necesario. La pantalla táctil 52 puede ser transparente o translúcida y colocarse sobre una unidad de pantalla de forma tal que la pantalla presentada en la unidad de pantalla sea visible a través de la pantalla táctil. Asimismo, la pantalla táctil no es necesario que sea
25 una lámina rectangular de material bordeada por un marco. La pantalla táctil puede ser de hecho virtualmente cualquier superficie dentro de los campos visuales que se superponen de dos o más cámaras digitales.
[00100] Además, a pesar de que se describe que el sistema táctil 50 incluye un controlador maestro separado de las cámaras digitales, si se desea una de las cámaras digitales puede acondicionarse para funcionar como cámara y controlador maestro y agrupar las otras cámaras digitales para PIP. En este caso, se prefiere que la
30 cámara digital que funciona como el controlador maestro incluya un DSP 84 más rápido que las cámaras digitales restantes.
[00101] Además, a pesar de que se describe la rutina de detección de superficie como determinante de los coeficientes A a E a utilizar con la ecuación (0.1) para calcular las coordenadas z del puntero en un punto dado (x,y) con respecto a la pantalla táctil, durante la rutina de detección de superficie, el controlador maestro 54 puede 35 programarse para calcular una coordenada z para regiones (x,y) únicas de la superficie táctil y almacenar las coordenadas z en una tabla de consulta (LUT). En esta instancia, cuando un puntero aparece en imágenes capturadas por las cámaras digitales y se determina la posición (x,y) del puntero con respecto a la superficie táctil, puede tomarse la decisión de si el puntero está en contacto con la superficie táctil comparando la coordenada z en la LUT que se corresponde con la región (x,y) en la que se ubica el puntero, con la fila de píxeles del montaje
40 de sensor de imagen y lente en el que se ubica la punta del puntero.
[00102] Tal como se describió anteriormente, el controlador maestro 54 calcula o busca las coordenadas z de la superficie táctil para cada cámara digital y compara las coordenadas z con la ubicación z de la punta del puntero para determinar si el puntero está en contacto real con la superficie táctil. Sin embargo, los expertos en la técnica apreciarán que los DSP 84 en las cámaras digitales pueden incluir software de procesamiento de imágenes para
45 determinar si el puntero está en contacto real con la superficie táctil. Este procesamiento de imágenes puede preformarse junto con, o en vez de, la determinación de contacto del puntero del controlador maestro.
[00103] A pesar de que se ha descrito una realización preferida de la presente invención, los expertos en la técnica apreciarán que pueden hacerse variaciones y modificaciones sin apartarse del alcance de la invención tal como se define mediante las reivindicaciones adjuntas.

Claims (12)

  1. Reivindicaciones
    1. Un método que comprende:
    adquirir imágenes de al menos dos puntos de vista usando cámaras (63) que tienen campos visuales que en general miran a través de la superficie táctil (60), extendiéndose el campo visual de cada cámara (63) 5 más allá de un borde periférico de la superficie táctil;
    caracterizado porque en cada cámara:
    se procesa cada imagen adquirida para producir un conjunto de datos de imagen para cada imagen adquirida;
    se compara cada conjunto de datos de imagen con una imagen de fondo para producir una imagen 10 de diferencias para cada imagen adquirida; y
    se detecta la existencia de un puntero dentro de cada imagen de diferencias y se generan datos característicos del puntero;
    procesar datos característicos del puntero generados en las cámaras usando un procesador maestro (54) para determinar la posición del puntero con respecto a la superficie táctil (60) mediante triangulación; y
    15 usar la posición del puntero determinada para controlar la ejecución de un programa de aplicaciones informáticas.
  2. 2. El método de la reivindicación 1 que comprende además:
    usar la posición del puntero determinada para actualizar la salida de la pantalla presentada sobre la superficie táctil (60).
    20 3. El método de la reivindicación 1 que comprende además: determinar la velocidad del puntero analizando cambios en la posición del puntero determinada; y usar la posición del puntero determinada y la velocidad del puntero para controlar la ejecución de un
    programa de aplicaciones informáticas.
  3. 4. El método de la reivindicación 1 que comprende además actualizar la imagen de fondo en cada cámara (63).
    25 5. El método de la reivindicación 4 que comprende además en cada cámara (63):
    comparar una imagen adquirida con la imagen de fondo actualizada para determinar si la cámara (63) debe volver a exponerse; y si es así adquirir una imagen para ajuste de exposición.
  4. 6. El método de la reivindicación 1 que comprende además: 30 determinar el ángulo del puntero; y
    usar la posición del puntero determinada y el ángulo del puntero para controlar la ejecución de un programa de aplicaciones informáticas.
  5. 7.
    El método de la reivindicación 1 que comprende además: determinar si el puntero está moviéndose encima de o en contacto con la superficie táctil (60).
  6. 8.
    Un sistema de entrada de múltiples cámaras (50) para formar una interfaz con un programa de aplicaciones que se está ejecutando en un ordenador (56), comprendiendo el sistema de entrada:
    dos o más cámaras que incluyen un sensor de imagen (80) dispuestas para mostrar una región de interés rodeada por un marco (62) de una superficie táctil (60) de diferentes puntos de vista y que puede operarse para producir una serie de imágenes, teniendo cada sensor de imagen un campo visual que se extiende más allá de la periferia del marco; caracterizado por un procesador (84) asociado con cada sensor de imagen que puede operarse para recibir la serie de imágenes y detectar los punteros que aparecen en la región de interés, ejecutando cada procesador (84) un proceso para:
    generar un conjunto de datos de imagen para cada imagen recibida;
    comparar cada conjunto de datos de imagen con una imagen de fondo para producir una imagen de diferencias para cada conjunto de datos de imagen; y
    detectar un puntero dentro de cada imagen de diferencias y generar datos característicos del puntero; y
    un procesador maestro (54) que recibe y procesa datos característicos del puntero generados para determinar la posición del puntero dentro de la región de interés por medio de triangulación, transmitiéndose la posición del puntero determinada al ordenador (56) y utilizándose para controlar la ejecución del programa de aplicaciones.
  7. 9.
    El sistema de entrada de múltiples cámaras de la reivindicación 8, en donde se define que la región de interés se encuentra en frente a la superficie táctil (60) y en donde el ordenador utiliza la posición del puntero determinada para actualizar la salida de pantalla presentada sobre dicha superficie táctil.
  8. 10.
    El sistema de entrada de múltiples cámaras de la reivindicación 8 o 9 en donde el procesador (84) asociado con cada sensor de imagen (80) reemplaza la imagen de fondo cuando un puntero se detecta erróneamente.
  9. 11.
    El sistema de entrada de múltiples cámaras de la reivindicación 8 en donde el procesador (84) asociado con cada sensor de imagen (80) puede operarse para actualizar la imagen de fondo.
  10. 12.
    El sistema de entrada de múltiples cámaras de la reivindicación 11 en donde el procesador (84) asociado con cada sensor de imagen (80) puede operarse adicionalmente para comparar una imagen adquirida con la imagen de fondo actualizada para determinar si el sensor de imagen debe volver a exponerse y, si es así, para adquirir una imagen para ajuste de exposición.
  11. 13.
    El sistema de entrada de múltiples cámaras de la reivindicación 8 que comprende además:
    determinar el ángulo del puntero; y
    usar la posición del puntero determinada y el ángulo del puntero para controlar la ejecución de un programa de aplicaciones informáticas.
  12. 14. El sistema de entrada de múltiples cámaras de la reivindicación 9 en donde el procesador maestro (54) puede operarse para determinar si el puntero se está moviendo sobre o está en contacto con dicha superficie táctil.
ES10012759T 2000-07-05 2001-07-05 Sistema y método táctil basado en cámaras Expired - Lifetime ES2435248T3 (es)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
US09/610,481 US6803906B1 (en) 2000-07-05 2000-07-05 Passive touch system and method of detecting user input
US610481 2000-07-05
US29461101P 2001-06-01 2001-06-01
US294611P 2001-06-01

Publications (1)

Publication Number Publication Date
ES2435248T3 true ES2435248T3 (es) 2013-12-17

Family

ID=26968623

Family Applications (4)

Application Number Title Priority Date Filing Date
ES10012759T Expired - Lifetime ES2435248T3 (es) 2000-07-05 2001-07-05 Sistema y método táctil basado en cámaras
ES01951266T Expired - Lifetime ES2279823T3 (es) 2000-07-05 2001-07-05 Sistema tactil basado en camaras.
ES10012779T Expired - Lifetime ES2396587T3 (es) 2000-07-05 2001-07-05 Método y aparato táctil en base a cámara
ES06019268T Expired - Lifetime ES2340945T3 (es) 2000-07-05 2001-07-05 Procedimiento para un sistema tactil basado en camaras.

Family Applications After (3)

Application Number Title Priority Date Filing Date
ES01951266T Expired - Lifetime ES2279823T3 (es) 2000-07-05 2001-07-05 Sistema tactil basado en camaras.
ES10012779T Expired - Lifetime ES2396587T3 (es) 2000-07-05 2001-07-05 Método y aparato táctil en base a cámara
ES06019268T Expired - Lifetime ES2340945T3 (es) 2000-07-05 2001-07-05 Procedimiento para un sistema tactil basado en camaras.

Country Status (10)

Country Link
US (2) US7692625B2 (es)
EP (3) EP1739528B1 (es)
JP (1) JP5042437B2 (es)
CN (1) CN1310126C (es)
AT (3) ATE453147T1 (es)
AU (1) AU2001272250A1 (es)
CA (1) CA2412878C (es)
DE (3) DE60143592D1 (es)
ES (4) ES2435248T3 (es)
WO (1) WO2002003316A1 (es)

Families Citing this family (178)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6261095A (ja) * 1985-09-11 1987-03-17 カシオ計算機株式会社 波形エディット装置
JP4052498B2 (ja) 1999-10-29 2008-02-27 株式会社リコー 座標入力装置および方法
JP2001184161A (ja) 1999-12-27 2001-07-06 Ricoh Co Ltd 情報入力方法、情報入力装置、筆記入力装置、筆記データ管理方法、表示制御方法、携帯型電子筆記装置および記録媒体
ATE453147T1 (de) 2000-07-05 2010-01-15 Smart Technologies Ulc Verfahren für ein kamerabasiertes berührungssystem
US6803906B1 (en) 2000-07-05 2004-10-12 Smart Technologies, Inc. Passive touch system and method of detecting user input
US6919880B2 (en) 2001-06-01 2005-07-19 Smart Technologies Inc. Calibrating camera offsets to facilitate object position determination using triangulation
US7499033B2 (en) 2002-06-07 2009-03-03 Smart Technologies Ulc System and method for injecting ink into an application
US7283126B2 (en) 2002-06-12 2007-10-16 Smart Technologies Inc. System and method for providing gesture suggestions to enhance interpretation of user input
US20040001144A1 (en) 2002-06-27 2004-01-01 Mccharles Randy Synchronization of camera images in camera-based touch system to enhance position determination of fast moving objects
US6954197B2 (en) 2002-11-15 2005-10-11 Smart Technologies Inc. Size/scale and orientation determination of a pointer in a camera-based touch system
US8508508B2 (en) 2003-02-14 2013-08-13 Next Holdings Limited Touch screen signal processing with single-point calibration
US7629967B2 (en) 2003-02-14 2009-12-08 Next Holdings Limited Touch screen signal processing
US8456447B2 (en) 2003-02-14 2013-06-04 Next Holdings Limited Touch screen signal processing
US7532206B2 (en) 2003-03-11 2009-05-12 Smart Technologies Ulc System and method for differentiating between pointers used to contact touch surface
US7256772B2 (en) 2003-04-08 2007-08-14 Smart Technologies, Inc. Auto-aligning touch system and method
CN100458670C (zh) * 2003-05-19 2009-02-04 株式会社伊特 使用了区域图像传感器的位置检测装置
US20050030293A1 (en) * 2003-08-05 2005-02-10 Lai Chih Chang Method for predicting and estimating coordinates of a touch panel
US7411575B2 (en) 2003-09-16 2008-08-12 Smart Technologies Ulc Gesture recognition method and touch system incorporating the same
US7274356B2 (en) 2003-10-09 2007-09-25 Smart Technologies Inc. Apparatus for determining the location of a pointer within a region of interest
US7355593B2 (en) * 2004-01-02 2008-04-08 Smart Technologies, Inc. Pointer tracking across multiple overlapping coordinate input sub-regions defining a generally contiguous input region
US7232986B2 (en) * 2004-02-17 2007-06-19 Smart Technologies Inc. Apparatus for detecting a pointer within a region of interest
US7460110B2 (en) 2004-04-29 2008-12-02 Smart Technologies Ulc Dual mode touch system
US7492357B2 (en) * 2004-05-05 2009-02-17 Smart Technologies Ulc Apparatus and method for detecting a pointer relative to a touch surface
US7538759B2 (en) 2004-05-07 2009-05-26 Next Holdings Limited Touch panel display system with illumination and detection provided from a single edge
US8120596B2 (en) 2004-05-21 2012-02-21 Smart Technologies Ulc Tiled touch system
US7372456B2 (en) * 2004-07-07 2008-05-13 Smart Technologies Inc. Method and apparatus for calibrating an interactive touch system
US7711681B2 (en) 2004-11-05 2010-05-04 Accenture Global Services Gmbh System for distributed information presentation and interaction
EP1815424B1 (en) * 2004-11-16 2019-01-09 Koninklijke Philips N.V. Touchless manipulation of images for regional enhancement
US7847789B2 (en) * 2004-11-23 2010-12-07 Microsoft Corporation Reducing accidental touch-sensitive device activation
WO2007003682A1 (en) 2005-06-30 2007-01-11 Nokia Corporation Camera control means to allow operating of a destined location of the information surface of a presentation and information system
US20070064004A1 (en) * 2005-09-21 2007-03-22 Hewlett-Packard Development Company, L.P. Moving a graphic element
US8018579B1 (en) 2005-10-21 2011-09-13 Apple Inc. Three-dimensional imaging and display system
US7599520B2 (en) * 2005-11-18 2009-10-06 Accenture Global Services Gmbh Detection of multiple targets on a plane of interest
CA2751707C (en) * 2005-11-18 2014-07-08 Accenture Global Services Gmbh Multiple target detection and application state navigation system
US8209620B2 (en) 2006-01-31 2012-06-26 Accenture Global Services Limited System for storage and navigation of application states and interactions
US20070165007A1 (en) * 2006-01-13 2007-07-19 Gerald Morrison Interactive input system
EP1821184A3 (en) * 2006-02-08 2007-11-14 Almeva AG System and method for interacting with a display through a shop window
US20070205994A1 (en) * 2006-03-02 2007-09-06 Taco Van Ieperen Touch system and method for interacting with the same
KR101127517B1 (ko) * 2006-06-15 2012-03-23 (주)나노티에스 터치 좌표 인식 방법과 이를 수행하기 위한 터치 스크린장치
KR101098200B1 (ko) 2006-06-19 2011-12-23 뉴콤 테크노 가부시키가이샤 전자 유도에 의해 물체를 검출하는 물체 검출 장치
US8563880B2 (en) * 2006-10-24 2013-10-22 Newcom, Inc. Operating tool with conductor pieces
US9442607B2 (en) * 2006-12-04 2016-09-13 Smart Technologies Inc. Interactive input system and method
DE102007021537B4 (de) 2006-12-13 2020-01-02 Lg Display Co., Ltd. Displayeinheit mit Mehrfachberührungs-Erkennungsfunktion
KR101330471B1 (ko) 2006-12-15 2013-11-20 엘지디스플레이 주식회사 멀티 터치인식 기능을 가지는 표시장치와 그 구동방법
US8139045B2 (en) * 2006-12-15 2012-03-20 Lg Display Co., Ltd. Display device having multi-touch recognizing function and driving method thereof
KR101346865B1 (ko) * 2006-12-15 2014-01-02 엘지디스플레이 주식회사 멀티 터치인식 기능을 가지는 표시장치와 그 구동방법
KR100915627B1 (ko) * 2007-03-29 2009-09-04 주식회사 토비스 광학센서유닛에 의한 응답구조를 갖는 터치패널 구동방법
WO2008128096A2 (en) 2007-04-11 2008-10-23 Next Holdings, Inc. Touch screen system with hover and click input methods
US20090140992A1 (en) * 2007-06-16 2009-06-04 Sunrise Telecom Incorporated Display system
US8094137B2 (en) 2007-07-23 2012-01-10 Smart Technologies Ulc System and method of detecting contact on a display
KR20100055516A (ko) 2007-08-30 2010-05-26 넥스트 홀딩스 인코포레이티드 개선된 조광을 가진 광학 터치 스크린
KR20100075460A (ko) 2007-08-30 2010-07-02 넥스트 홀딩스 인코포레이티드 저 프로파일 터치 패널 시스템
CN101971128B (zh) 2007-12-05 2013-07-17 阿尔梅瓦股份公司 屏幕与指针对象之间交互用的交互装置
US8405636B2 (en) 2008-01-07 2013-03-26 Next Holdings Limited Optical position sensing system and optical position sensor assembly
US7781722B2 (en) * 2008-02-07 2010-08-24 Lumio Inc Optical touch screen assembly
US20090278795A1 (en) * 2008-05-09 2009-11-12 Smart Technologies Ulc Interactive Input System And Illumination Assembly Therefor
US8902193B2 (en) 2008-05-09 2014-12-02 Smart Technologies Ulc Interactive input system and bezel therefor
US8887063B2 (en) * 2008-05-21 2014-11-11 Smart Technologies Ulc Desktop sharing method and system
EP2286322A4 (en) * 2008-06-05 2012-09-05 Smart Technologies Ulc MULTI-AMBIGUITY AND BLOCKING RESOLUTION
US8135561B2 (en) * 2008-10-10 2012-03-13 Pixart Imaging Inc. Sensing system
US8131502B2 (en) * 2008-10-10 2012-03-06 Pixart Imaging Inc. Sensing system and method for obtaining location of pointer thereof
TWI471823B (zh) 2008-07-31 2015-02-01 Pixart Imaging Inc 以移動向量在微小點陣圖上決定座標的方法
US9092092B2 (en) 2008-08-07 2015-07-28 Rapt Ip Limited Detecting multitouch events in an optical touch-sensitive device using touch event templates
US8531435B2 (en) * 2008-08-07 2013-09-10 Rapt Ip Limited Detecting multitouch events in an optical touch-sensitive device by combining beam information
US8305363B2 (en) * 2008-10-10 2012-11-06 Pixart Imaging Sensing system and locating method thereof
US8232511B2 (en) * 2008-10-10 2012-07-31 Pixart Imaging Inc. Sensing system adapted to sense a pointer and calculate a location of the pointer
US8339378B2 (en) 2008-11-05 2012-12-25 Smart Technologies Ulc Interactive input system with multi-angle reflector
TW201019191A (en) * 2008-11-07 2010-05-16 Pixart Imaging Inc Touch system and method for obtaining position of pointer thereof
CN101840281B (zh) * 2009-03-20 2012-12-05 原相科技股份有限公司 感测系统及其取得指示物的位置的方法
CN102460355B (zh) * 2009-04-05 2016-03-16 放射粒子工程有限公司 一体化输入和显示系统及方法
CA2707783A1 (en) * 2009-06-17 2010-12-17 Smart Technologies Ulc Interactive input system and arm assembly therefor
US8860693B2 (en) * 2009-07-08 2014-10-14 Apple Inc. Image processing for camera based motion tracking
US8692768B2 (en) 2009-07-10 2014-04-08 Smart Technologies Ulc Interactive input system
KR101552988B1 (ko) * 2009-07-10 2015-09-14 엘지디스플레이 주식회사 액정 표시장치의 구동장치와 그 구동방법
TWI420357B (zh) * 2009-08-28 2013-12-21 Pixart Imaging Inc 觸控系統及其指示物座標偵測方法
US7932899B2 (en) * 2009-09-01 2011-04-26 Next Holdings Limited Determining the location of touch points in a position detection system
CN102033657B (zh) * 2009-09-24 2014-04-16 原相科技股份有限公司 触控系统及其指示物高度侦测方法和指示物坐标侦测方法
US8547327B2 (en) 2009-10-07 2013-10-01 Qualcomm Incorporated Proximity object tracker
US20110095989A1 (en) * 2009-10-23 2011-04-28 Smart Technologies Ulc Interactive input system and bezel therefor
US20110095977A1 (en) * 2009-10-23 2011-04-28 Smart Technologies Ulc Interactive input system incorporating multi-angle reflecting structure
US9213414B1 (en) * 2009-11-13 2015-12-15 Ezero Technologies Llc Keyboard with integrated touch control
US9256776B2 (en) 2009-11-18 2016-02-09 AI Cure Technologies, Inc. Method and apparatus for identification
US9183601B2 (en) * 2010-03-22 2015-11-10 Ai Cure Technologies Llc Method and apparatus for collection of protocol adherence data
US10762172B2 (en) 2010-10-05 2020-09-01 Ai Cure Technologies Llc Apparatus and method for object confirmation and tracking
US8605165B2 (en) 2010-10-06 2013-12-10 Ai Cure Technologies Llc Apparatus and method for assisting monitoring of medication adherence
US9293060B2 (en) 2010-05-06 2016-03-22 Ai Cure Technologies Llc Apparatus and method for recognition of patient activities when obtaining protocol adherence data
US20110153360A1 (en) * 2009-12-23 2011-06-23 Al Cure Technologies LLC Method and Apparatus for Verification of Clinical Trial Adherence
US8666781B2 (en) * 2009-12-23 2014-03-04 Ai Cure Technologies, LLC Method and apparatus for management of clinical trials
US20110119073A1 (en) 2009-11-18 2011-05-19 Al Cure Technologies LLC Method and Apparatus for Verification of Medication Administration Adherence
US20110128218A1 (en) * 2009-12-01 2011-06-02 Smart Technologies Ulc Interactive input system and bezel therefor
CN102096526B (zh) * 2009-12-15 2015-11-25 乐金显示有限公司 光学传感单元、显示模块和使用光学传感单元的显示装置
JP2011175543A (ja) * 2010-02-25 2011-09-08 Sanyo Electric Co Ltd 指示体検出装置及びタッチパネル
CN102236477B (zh) * 2010-04-21 2013-05-08 广达电脑股份有限公司 背景影像更新方法及触控屏幕
US8338725B2 (en) * 2010-04-29 2012-12-25 Au Optronics Corporation Camera based touch system
US9883786B2 (en) 2010-05-06 2018-02-06 Aic Innovations Group, Inc. Method and apparatus for recognition of inhaler actuation
US10116903B2 (en) 2010-05-06 2018-10-30 Aic Innovations Group, Inc. Apparatus and method for recognition of suspicious activities
US9875666B2 (en) 2010-05-06 2018-01-23 Aic Innovations Group, Inc. Apparatus and method for recognition of patient activities
CN102346599B (zh) * 2010-08-04 2015-06-03 北京汇冠新技术股份有限公司 触摸定位方法和触摸屏
US9471179B2 (en) 2010-08-20 2016-10-18 Serafim Technologies Inc. Laser optical touch control module analog-to-digital conversion system and method of the same
TWI494824B (zh) * 2010-08-24 2015-08-01 Quanta Comp Inc 光學觸控系統及方法
CN102402340B (zh) * 2010-09-08 2014-07-09 北京汇冠新技术股份有限公司 触摸定位方法、触摸屏、触摸系统和显示器
EP2447811B1 (en) * 2010-11-02 2019-12-18 LG Display Co., Ltd. Infrared sensor module, touch sensing method thereof, and auto calibration method applied to the same
GB2487043B (en) * 2010-12-14 2013-08-14 Epson Norway Res And Dev As Camera-based multi-touch interaction and illumination system and method
US9019239B2 (en) * 2010-11-29 2015-04-28 Northrop Grumman Systems Corporation Creative design systems and methods
US9665767B2 (en) 2011-02-28 2017-05-30 Aic Innovations Group, Inc. Method and apparatus for pattern tracking
US9116553B2 (en) 2011-02-28 2015-08-25 AI Cure Technologies, Inc. Method and apparatus for confirmation of object positioning
US8963883B2 (en) 2011-03-17 2015-02-24 Symbol Technologies, Inc. Touchless interactive display system
US9262011B2 (en) 2011-03-30 2016-02-16 Smart Technologies Ulc Interactive input system and method
CN103547990B (zh) 2011-04-13 2016-05-04 谷歌公司 触敏输入装置上的点击消歧
CN102294119A (zh) * 2011-08-02 2011-12-28 广州市迪拓信息科技有限公司 一种触控设备感应控制方法及系统
US9305384B2 (en) 2011-08-16 2016-04-05 Imax Emea Limited Hybrid image decomposition and projection
US10558845B2 (en) 2011-08-21 2020-02-11 Aic Innovations Group, Inc. Apparatus and method for determination of medication location
CN102306053B (zh) * 2011-08-29 2014-09-10 Tcl集团股份有限公司 一种基于虚拟触摸屏的人机交互方法、装置及电子设备
CN102323866B (zh) * 2011-09-01 2013-08-21 广东威创视讯科技股份有限公司 一种摄像式触摸控制方法及其装置
US9503711B2 (en) 2011-10-20 2016-11-22 Imax Corporation Reducing angular spread in digital image projection
EP2769265B1 (en) 2011-10-20 2021-06-16 Imax Corporation Invisibility or low perceptibility of image alignment in dual projection systems
US8896688B2 (en) 2011-11-04 2014-11-25 Hewlett-Packard Development Company, L.P. Determining position in a projection capture system
US11493998B2 (en) 2012-01-17 2022-11-08 Ultrahaptics IP Two Limited Systems and methods for machine control
US9501152B2 (en) 2013-01-15 2016-11-22 Leap Motion, Inc. Free-space user interface and control using virtual constructs
US8638989B2 (en) 2012-01-17 2014-01-28 Leap Motion, Inc. Systems and methods for capturing motion in three-dimensional space
US8693731B2 (en) 2012-01-17 2014-04-08 Leap Motion, Inc. Enhanced contrast for object detection and characterization by optical imaging
US10691219B2 (en) 2012-01-17 2020-06-23 Ultrahaptics IP Two Limited Systems and methods for machine control
US9070019B2 (en) 2012-01-17 2015-06-30 Leap Motion, Inc. Systems and methods for capturing motion in three-dimensional space
US9679215B2 (en) 2012-01-17 2017-06-13 Leap Motion, Inc. Systems and methods for machine control
CN102609153A (zh) * 2012-01-29 2012-07-25 胡世曦 一种计算物体与工作平面的接触位置的装置
JP6057407B2 (ja) * 2012-02-22 2017-01-11 学校法人東京電機大学 タッチ位置入力装置及びタッチ位置入力方法
TWI470510B (zh) * 2012-04-19 2015-01-21 Wistron Corp 光學觸控裝置及觸控感測方法
TWI475446B (zh) * 2012-04-24 2015-03-01 Wistron Corp 光學式觸控系統及其擷取訊號調整之方法
CN103488348B (zh) * 2012-06-11 2016-09-07 东友科技股份有限公司 影像感测器群组的定位方法
CN102789340B (zh) * 2012-06-27 2015-12-16 深圳市巨龙科教高技术股份有限公司 一种电子白板的白板坐标获取方法、装置及电子白板
CN102778979A (zh) * 2012-06-28 2012-11-14 广州视睿电子科技有限公司 光学触摸方法及其装置
DE102012217638A1 (de) 2012-09-27 2014-03-27 Robert Bosch Gmbh Interaktive Tafel und Haussteuerungssystem
US10234941B2 (en) 2012-10-04 2019-03-19 Microsoft Technology Licensing, Llc Wearable sensor for tracking articulated body-parts
TWI495949B (zh) * 2012-10-24 2015-08-11 Pixart Imaging Inc 光學觸控系統之曝光機制及使用該機制之光學觸控系統
TWI462033B (zh) * 2012-11-02 2014-11-21 Wistron Corp 觸控系統及觸控系統的繪圖方法
US9285893B2 (en) 2012-11-08 2016-03-15 Leap Motion, Inc. Object detection and tracking with variable-field illumination devices
US10609285B2 (en) 2013-01-07 2020-03-31 Ultrahaptics IP Two Limited Power consumption in motion-capture systems
US9465461B2 (en) 2013-01-08 2016-10-11 Leap Motion, Inc. Object detection and tracking with audio and optical signals
US9459697B2 (en) 2013-01-15 2016-10-04 Leap Motion, Inc. Dynamic, free-space user interactions for machine control
US9632658B2 (en) 2013-01-15 2017-04-25 Leap Motion, Inc. Dynamic user interactions for display control and scaling responsiveness of display objects
JP2014140942A (ja) * 2013-01-25 2014-08-07 Seiko Epson Corp ロボット制御システム、ロボット、ロボット制御方法及びプログラム
US9399111B1 (en) 2013-03-15 2016-07-26 Aic Innovations Group, Inc. Method and apparatus for emotional behavior therapy
WO2014200589A2 (en) 2013-03-15 2014-12-18 Leap Motion, Inc. Determining positional information for an object in space
US10620709B2 (en) 2013-04-05 2020-04-14 Ultrahaptics IP Two Limited Customized gesture interpretation
US9317916B1 (en) 2013-04-12 2016-04-19 Aic Innovations Group, Inc. Apparatus and method for recognition of medication administration indicator
US9916009B2 (en) 2013-04-26 2018-03-13 Leap Motion, Inc. Non-tactile interface systems and methods
US9436851B1 (en) 2013-05-07 2016-09-06 Aic Innovations Group, Inc. Geometric encrypted coded image
US9747696B2 (en) 2013-05-17 2017-08-29 Leap Motion, Inc. Systems and methods for providing normalized parameters of motions of objects in three-dimensional space
US10281987B1 (en) 2013-08-09 2019-05-07 Leap Motion, Inc. Systems and methods of free-space gestural interaction
JP6202942B2 (ja) * 2013-08-26 2017-09-27 キヤノン株式会社 情報処理装置とその制御方法、コンピュータプログラム、記憶媒体
US9721383B1 (en) 2013-08-29 2017-08-01 Leap Motion, Inc. Predictive information for free space gesture control and communication
CN104423720B (zh) * 2013-09-02 2018-01-05 颜涌 一种基于摄像头的电脑输入设备和方法
CN104423560B (zh) * 2013-09-09 2018-11-13 联想(北京)有限公司 一种信息处理方法和电子设备
US9824297B1 (en) 2013-10-02 2017-11-21 Aic Innovations Group, Inc. Method and apparatus for medication identification
US9632572B2 (en) 2013-10-03 2017-04-25 Leap Motion, Inc. Enhanced field of view to augment three-dimensional (3D) sensory space for free-space gesture interpretation
US9625992B2 (en) 2013-10-21 2017-04-18 I-Interactive Llc Remote control with dual activated touch sensor input
US9478124B2 (en) 2013-10-21 2016-10-25 I-Interactive Llc Remote control with enhanced touch surface input
US9996638B1 (en) 2013-10-31 2018-06-12 Leap Motion, Inc. Predictive information for free space gesture control and communication
CN103530061B (zh) * 2013-10-31 2017-01-18 京东方科技集团股份有限公司 显示装置及控制方法
CN104679353B (zh) * 2013-11-29 2017-08-25 纬创资通股份有限公司 光学触控装置及触控点坐标的计算方法
US9317150B2 (en) * 2013-12-28 2016-04-19 Intel Corporation Virtual and configurable touchscreens
TWI528226B (zh) * 2014-01-15 2016-04-01 緯創資通股份有限公司 影像式觸控裝置及其控制方法
US9613262B2 (en) 2014-01-15 2017-04-04 Leap Motion, Inc. Object detection and tracking for providing a virtual device experience
GB2522248A (en) * 2014-01-20 2015-07-22 Promethean Ltd Interactive system
LU92408B1 (en) * 2014-03-21 2015-09-22 Olivier Raulot User gesture recognition
CN103973975B (zh) * 2014-04-10 2017-11-07 北京智谷睿拓技术服务有限公司 交互方法、装置及用户设备
TWI578295B (zh) * 2014-04-21 2017-04-11 緯創資通股份有限公司 顯示器及其亮度調整方法
US9679113B2 (en) 2014-06-11 2017-06-13 Aic Innovations Group, Inc. Medication adherence monitoring system and method
CN106462222B (zh) * 2014-07-30 2020-03-10 惠普发展公司,有限责任合伙企业 透明白板显示器
DE202014103729U1 (de) 2014-08-08 2014-09-09 Leap Motion, Inc. Augmented-Reality mit Bewegungserfassung
JP6464624B2 (ja) * 2014-09-12 2019-02-06 株式会社リコー 画像処理システム、画像処理装置、方法およびプログラム
JP6665415B2 (ja) * 2015-03-30 2020-03-13 セイコーエプソン株式会社 プロジェクター、及び、プロジェクターの制御方法
US10289239B2 (en) 2015-07-09 2019-05-14 Microsoft Technology Licensing, Llc Application programming interface for multi-touch input detection
US11170484B2 (en) 2017-09-19 2021-11-09 Aic Innovations Group, Inc. Recognition of suspicious activities in medication administration
WO2019147612A1 (en) 2018-01-25 2019-08-01 Neonode Inc. Polar coordinate sensor
US11875012B2 (en) 2018-05-25 2024-01-16 Ultrahaptics IP Two Limited Throwable interface for augmented reality and virtual reality environments
KR102469722B1 (ko) 2018-09-21 2022-11-22 삼성전자주식회사 디스플레이 장치 및 그 제어 방법
US11281337B1 (en) 2019-09-24 2022-03-22 Apple Inc. Mirror accessory for camera based touch detection

Family Cites Families (132)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4144449A (en) 1977-07-08 1979-03-13 Sperry Rand Corporation Position detection apparatus
CA1109539A (en) 1978-04-05 1981-09-22 Her Majesty The Queen, In Right Of Canada, As Represented By The Ministe R Of Communications Touch sensitive computer input device
US4558313A (en) 1981-12-31 1985-12-10 International Business Machines Corporation Indicator to data processing interface
US4507557A (en) 1983-04-01 1985-03-26 Siemens Corporate Research & Support, Inc. Non-contact X,Y digitizer using two dynamic ram imagers
JPS61262917A (ja) 1985-05-17 1986-11-20 Alps Electric Co Ltd 光電式タツチパネルのフイルタ−
DE3616490A1 (de) 1985-05-17 1986-11-27 Alps Electric Co Ltd Optische koordinaten-eingabe-vorrichtung
US4822145A (en) 1986-05-14 1989-04-18 Massachusetts Institute Of Technology Method and apparatus utilizing waveguide and polarized light for display of dynamic images
JPS6375918A (ja) 1986-09-19 1988-04-06 Alps Electric Co Ltd 座標入力装置
US4782328A (en) 1986-10-02 1988-11-01 Product Development Services, Incorporated Ambient-light-responsive touch screen data input method and system
US4746770A (en) 1987-02-17 1988-05-24 Sensor Frame Incorporated Method and apparatus for isolating and manipulating graphic objects on computer video monitor
US4907156A (en) * 1987-06-30 1990-03-06 University Of Chicago Method and system for enhancement and detection of abnormal anatomic regions in a digital image
JPH01320521A (ja) 1988-06-22 1989-12-26 Wacom Co Ltd 電子黒板装置及びその筆記具等
US5109435A (en) 1988-08-08 1992-04-28 Hughes Aircraft Company Segmentation method for use against moving objects
US5130794A (en) 1990-03-29 1992-07-14 Ritchey Kurtis J Panoramic display system
US5097516A (en) 1991-02-28 1992-03-17 At&T Bell Laboratories Technique for illuminating a surface with a gradient intensity line of light to achieve enhanced two-dimensional imaging
CA2058219C (en) 1991-10-21 2002-04-02 Smart Technologies Inc. Interactive display system
GB9201949D0 (en) 1992-01-30 1992-03-18 Jenkin Michael Large-scale,touch-sensitive video display
US5483261A (en) 1992-02-14 1996-01-09 Itu Research, Inc. Graphical input controller and method with rear screen image detection
US5880411A (en) 1992-06-08 1999-03-09 Synaptics, Incorporated Object position detector with edge motion feature and gesture recognition
US5724743A (en) 1992-09-04 1998-03-10 Snap-On Technologies, Inc. Method and apparatus for determining the alignment of motor vehicle wheels
JP3244798B2 (ja) 1992-09-08 2002-01-07 株式会社東芝 動画像処理装置
US5982352A (en) 1992-09-18 1999-11-09 Pryor; Timothy R. Method for providing human input to a computer
DE69331433T2 (de) 1992-10-22 2002-10-02 Advanced Interconnection Tech Einrichtung zur automatischen optischen Prüfung von Leiterplatten mit darin verlegten Drähten
US5317140A (en) * 1992-11-24 1994-05-31 Dunthorn David I Diffusion-assisted position location particularly for visual pen detection
US5502568A (en) 1993-03-23 1996-03-26 Wacom Co., Ltd. Optical position detecting unit, optical coordinate input unit and optical position detecting method employing a pattern having a sequence of 1's and 0's
US5359155A (en) 1993-03-25 1994-10-25 Tiger Scientific Corp. Illumination apparatus for a digitizer tablet
US5729704A (en) 1993-07-21 1998-03-17 Xerox Corporation User-directed method for operating on an object-based model data structure through a second contextual image
JPH07230352A (ja) * 1993-09-16 1995-08-29 Hitachi Ltd タッチ位置検出装置及びタッチ指示処理装置
US5484966A (en) 1993-12-07 1996-01-16 At&T Corp. Sensing stylus position using single 1-D image sensor
GB2286100A (en) 1994-01-19 1995-08-02 Ibm Touch-sensitive display apparatus
US5577733A (en) 1994-04-08 1996-11-26 Downing; Dennis L. Targeting system
US5771039A (en) 1994-06-06 1998-06-23 Ditzik; Richard J. Direct view display device integration techniques
US5528263A (en) * 1994-06-15 1996-06-18 Daniel M. Platzker Interactive projected video image display system
US5737740A (en) 1994-06-27 1998-04-07 Numonics Apparatus and method for processing electronic documents
US5638092A (en) 1994-12-20 1997-06-10 Eng; Tommy K. Cursor control system
JPH08179888A (ja) 1994-12-21 1996-07-12 Hitachi Ltd 大画面ディスプレイ用入力装置
US5554828A (en) 1995-01-03 1996-09-10 Texas Instruments Inc. Integration of pen-based capability into a field emission device system
US5736686A (en) 1995-03-01 1998-04-07 Gtco Corporation Illumination apparatus for a digitizer tablet with improved light panel
KR19990008158A (ko) 1995-04-28 1999-01-25 모리시타요우이치 인터페이스 장치
JP3436828B2 (ja) 1995-05-08 2003-08-18 株式会社リコー 画像処理装置
US5786810A (en) 1995-06-07 1998-07-28 Compaq Computer Corporation Method of determining an object's position and associated apparatus
JPH09106320A (ja) 1995-08-24 1997-04-22 Symbios Logic Inc 図形入力装置および図形入力方法
US5818424A (en) 1995-10-19 1998-10-06 International Business Machines Corporation Rod shaped device and data acquisition apparatus for determining the position and orientation of an object in space
US5825352A (en) 1996-01-04 1998-10-20 Logitech, Inc. Multiple fingers contact sensing method for emulating mouse buttons and mouse operations on a touch sensor pad
JPH09190284A (ja) 1996-01-11 1997-07-22 Canon Inc 情報処理装置およびその方法
TW394879B (en) 1996-02-09 2000-06-21 Sega Enterprises Kk Graphics processing system and its data input device
US5991456A (en) * 1996-05-29 1999-11-23 Science And Technology Corporation Method of improving a digital image
US6002808A (en) 1996-07-26 1999-12-14 Mitsubishi Electric Information Technology Center America, Inc. Hand gesture control system
US5745116A (en) 1996-09-09 1998-04-28 Motorola, Inc. Intuitive gesture-based graphical user interface
US5936615A (en) * 1996-09-12 1999-08-10 Digital Equipment Corporation Image-based touchscreen
US5819201A (en) 1996-09-13 1998-10-06 Magellan Dis, Inc. Navigation system with vehicle service information
JPH10124689A (ja) 1996-10-15 1998-05-15 Nikon Corp 画像記録再生装置
JP3625349B2 (ja) * 1997-02-12 2005-03-02 株式会社東芝 画像入力装置および画像入力方法
AU5156198A (en) 1996-10-29 1998-05-22 Xeotron Corporation Optical device utilizing optical waveguides and mechanical light-switches
US6061177A (en) 1996-12-19 2000-05-09 Fujimoto; Kenneth Noboru Integrated computer display and graphical input apparatus and method
US6252989B1 (en) 1997-01-07 2001-06-26 Board Of The Regents, The University Of Texas System Foveated image coding system and method for image bandwidth reduction
JP3624070B2 (ja) 1997-03-07 2005-02-23 キヤノン株式会社 座標入力装置及びその制御方法
US5914709A (en) 1997-03-14 1999-06-22 Poa Sana, Llc User input device for a computer system
WO1998044316A1 (en) 1997-04-02 1998-10-08 Goszyk Kurt A Adjustable area coordinate position data-capture system
JP3876942B2 (ja) 1997-06-13 2007-02-07 株式会社ワコム 光デジタイザ
US6161066A (en) * 1997-08-18 2000-12-12 The Texas A&M University System Advanced law enforcement and response technology
US6720949B1 (en) 1997-08-22 2004-04-13 Timothy R. Pryor Man machine interfaces and applications
US20020036617A1 (en) 1998-08-21 2002-03-28 Timothy R. Pryor Novel man machine interfaces and applications
US6243074B1 (en) 1997-08-29 2001-06-05 Xerox Corporation Handedness detection for a physical manipulatory grammar
US6072494A (en) 1997-10-15 2000-06-06 Electric Planet, Inc. Method and apparatus for real-time gesture recognition
WO1999021122A1 (en) * 1997-10-22 1999-04-29 Ascent Technology, Inc. Voice-output reading system with gesture-based navigation
JP3794180B2 (ja) 1997-11-11 2006-07-05 セイコーエプソン株式会社 座標入力システム及び座標入力装置
TW449709B (en) 1997-11-17 2001-08-11 Hewlett Packard Co A method for distinguishing a contact input
US6310610B1 (en) 1997-12-04 2001-10-30 Nortel Networks Limited Intelligent touch display
EP2256605B1 (en) 1998-01-26 2017-12-06 Apple Inc. Method and apparatus for integrating manual input
WO1999040562A1 (en) * 1998-02-09 1999-08-12 Joseph Lev Video camera computer touch screen system
JP2000105671A (ja) 1998-05-11 2000-04-11 Ricoh Co Ltd 座標入力/検出装置および電子黒板システム
JP4033582B2 (ja) * 1998-06-09 2008-01-16 株式会社リコー 座標入力/検出装置および電子黒板システム
US6064354A (en) 1998-07-01 2000-05-16 Deluca; Michael Joseph Stereoscopic user interface method and apparatus
JP2000089913A (ja) 1998-09-08 2000-03-31 Gunze Ltd タッチパネル入力座標変換装置
DE19845030A1 (de) 1998-09-30 2000-04-20 Siemens Ag Bildsystem
US6972753B1 (en) 1998-10-02 2005-12-06 Semiconductor Energy Laboratory Co., Ltd. Touch panel, display device provided with touch panel and electronic equipment provided with display device
US6335724B1 (en) 1999-01-29 2002-01-01 Ricoh Company, Ltd. Method and device for inputting coordinate-position and a display board system
US6545669B1 (en) 1999-03-26 2003-04-08 Husam Kinawi Object-drag continuity between discontinuous touch-screens
TW459192B (en) * 1999-06-25 2001-10-11 Toshiba Corp Electronic apparatus and electronic system provided with the same
US6671419B1 (en) * 1999-07-02 2003-12-30 Intel Corporation Method for reducing shadows and/or noise in a digital image
JP2001060145A (ja) 1999-08-23 2001-03-06 Ricoh Co Ltd 座標入力/検出システムおよびその位置合わせ調整方法
JP3905670B2 (ja) 1999-09-10 2007-04-18 株式会社リコー 座標入力検出装置、情報記憶媒体及び座標入力検出方法
JP4057200B2 (ja) 1999-09-10 2008-03-05 株式会社リコー 座標入力装置および座標入力装置の記録媒体
US6512838B1 (en) 1999-09-22 2003-01-28 Canesta, Inc. Methods for enhancing performance and data acquired from three-dimensional image systems
JP4052498B2 (ja) 1999-10-29 2008-02-27 株式会社リコー 座標入力装置および方法
US6710770B2 (en) 2000-02-11 2004-03-23 Canesta, Inc. Quasi-three-dimensional method and apparatus to detect and localize interaction of user-object and virtual transfer device
JP3934846B2 (ja) 2000-03-06 2007-06-20 株式会社リコー 座標入力/検出装置、電子黒板システム、受光素子の位置ズレ補正方法及び記憶媒体
JP2001265516A (ja) 2000-03-16 2001-09-28 Ricoh Co Ltd 座標入力装置
JP2001282445A (ja) 2000-03-31 2001-10-12 Ricoh Co Ltd 座標入力/検出装置および情報表示入力装置
JP3834766B2 (ja) 2000-04-03 2006-10-18 独立行政法人科学技術振興機構 マンマシーン・インターフェース・システム
US6864882B2 (en) 2000-05-24 2005-03-08 Next Holdings Limited Protected touch panel display system
US6690397B1 (en) 2000-06-05 2004-02-10 Advanced Neuromodulation Systems, Inc. System for regional data association and presentation and method for the same
US6690363B2 (en) 2000-06-19 2004-02-10 Next Holdings Limited Touch panel display system
US6803906B1 (en) 2000-07-05 2004-10-12 Smart Technologies, Inc. Passive touch system and method of detecting user input
ATE453147T1 (de) 2000-07-05 2010-01-15 Smart Technologies Ulc Verfahren für ein kamerabasiertes berührungssystem
US7466843B2 (en) 2000-07-07 2008-12-16 Pryor Timothy R Multi-functional control and entertainment systems
US6531999B1 (en) 2000-07-13 2003-03-11 Koninklijke Philips Electronics N.V. Pointing direction calibration in video conferencing and other camera-based system applications
US6747663B2 (en) 2000-08-24 2004-06-08 Sun Microsystems, Inc. Interpolating sample values from known triangle vertex values
NO20004514A (no) 2000-09-11 2002-01-14 Njoelstad Tormod Tegne-, skrive- og peke-redskap for datamaskinbaserte presentasjoner og kontorarbeid
JP3793014B2 (ja) 2000-10-03 2006-07-05 キヤノン株式会社 電子源の製造装置、電子源の製造方法及び画像形成装置の製造方法
US7058204B2 (en) * 2000-10-03 2006-06-06 Gesturetek, Inc. Multiple camera control system
US6680834B2 (en) * 2000-10-04 2004-01-20 Honeywell International Inc. Apparatus and method for controlling LED arrays
US6774889B1 (en) 2000-10-24 2004-08-10 Microsoft Corporation System and method for transforming an ordinary computer monitor screen into a touch screen
US7016532B2 (en) * 2000-11-06 2006-03-21 Evryx Technologies Image capture and identification system and process
US6518600B1 (en) 2000-11-17 2003-02-11 General Electric Company Dual encapsulation for an LED
US7030861B1 (en) 2001-02-10 2006-04-18 Wayne Carl Westerman System and method for packing multi-touch gestures onto a hand
JP4551018B2 (ja) 2001-04-05 2010-09-22 富士通株式会社 画像結合装置
US6919880B2 (en) 2001-06-01 2005-07-19 Smart Technologies Inc. Calibrating camera offsets to facilitate object position determination using triangulation
GB2378073B (en) 2001-07-27 2005-08-31 Hewlett Packard Co Paper-to-computer interfaces
JP2003162370A (ja) 2001-09-14 2003-06-06 Ricoh Co Ltd 画像処理装置、タッチパネル付きディスプレイ装置、画像処理方法、および画像処理方法をコンピュータに実行させるプログラム
US7007236B2 (en) 2001-09-14 2006-02-28 Accenture Global Services Gmbh Lab window collaboration
JP2003173237A (ja) 2001-09-28 2003-06-20 Ricoh Co Ltd 情報入出力システム、プログラム及び記憶媒体
US7254775B2 (en) 2001-10-03 2007-08-07 3M Innovative Properties Company Touch panel system and method for distinguishing multiple touch inputs
JP3920067B2 (ja) 2001-10-09 2007-05-30 株式会社イーアイティー 座標入力装置
JP2003167669A (ja) 2001-11-22 2003-06-13 Internatl Business Mach Corp <Ibm> 情報処理装置、プログラム及び座標入力方法
US6628216B2 (en) 2002-02-13 2003-09-30 Intersil Americas Inc. Calibration of resistor ladder using difference measurement and parallel resistive correction
US7038659B2 (en) 2002-04-06 2006-05-02 Janusz Wiktor Rajkowski Symbol encoding apparatus and method
US20040144760A1 (en) 2002-05-17 2004-07-29 Cahill Steven P. Method and system for marking a workpiece such as a semiconductor wafer and laser marker for use therein
US20030226968A1 (en) 2002-06-10 2003-12-11 Steve Montellese Apparatus and method for inputting data
US7260257B2 (en) 2002-06-19 2007-08-21 Microsoft Corp. System and method for whiteboard and audio capture
US6972401B2 (en) 2003-01-30 2005-12-06 Smart Technologies Inc. Illuminated bezel and touch system incorporating the same
US7629967B2 (en) 2003-02-14 2009-12-08 Next Holdings Limited Touch screen signal processing
US6947032B2 (en) 2003-03-11 2005-09-20 Smart Technologies Inc. Touch system and method for determining pointer contacts on a touch surface
US7532206B2 (en) 2003-03-11 2009-05-12 Smart Technologies Ulc System and method for differentiating between pointers used to contact touch surface
US7665041B2 (en) 2003-03-25 2010-02-16 Microsoft Corporation Architecture for controlling a computer using hand gestures
US20050052427A1 (en) 2003-09-10 2005-03-10 Wu Michael Chi Hung Hand gesture interaction with touch surface
US7411575B2 (en) 2003-09-16 2008-08-12 Smart Technologies Ulc Gesture recognition method and touch system incorporating the same
US7274356B2 (en) 2003-10-09 2007-09-25 Smart Technologies Inc. Apparatus for determining the location of a pointer within a region of interest
US7265752B2 (en) 2004-01-09 2007-09-04 Microsoft Corporation Multi-chart geometry images
US7538759B2 (en) 2004-05-07 2009-05-26 Next Holdings Limited Touch panel display system with illumination and detection provided from a single edge
US20080129707A1 (en) 2004-07-27 2008-06-05 Pryor Timothy R Method and apparatus employing multi-functional controls and displays

Also Published As

Publication number Publication date
US20050077452A1 (en) 2005-04-14
DE60124549T2 (de) 2007-09-06
JP2004502261A (ja) 2004-01-22
CA2412878C (en) 2015-02-03
DE60140909D1 (de) 2010-02-04
ATE345525T1 (de) 2006-12-15
ES2340945T3 (es) 2010-06-11
EP1739529B1 (en) 2010-12-01
ATE490501T1 (de) 2010-12-15
ATE453147T1 (de) 2010-01-15
ES2279823T3 (es) 2007-09-01
WO2002003316A1 (en) 2002-01-10
US20100188370A1 (en) 2010-07-29
CA2412878A1 (en) 2002-01-10
DE60143592D1 (de) 2011-01-13
EP1739529A1 (en) 2007-01-03
EP1297488A1 (en) 2003-04-02
US7692625B2 (en) 2010-04-06
EP1739528A1 (en) 2007-01-03
DE60124549D1 (de) 2006-12-28
JP5042437B2 (ja) 2012-10-03
EP1297488B1 (en) 2006-11-15
US9176627B2 (en) 2015-11-03
CN1310126C (zh) 2007-04-11
EP1739528B1 (en) 2009-12-23
AU2001272250A1 (en) 2002-01-14
ES2396587T3 (es) 2013-02-22
CN1440539A (zh) 2003-09-03

Similar Documents

Publication Publication Date Title
ES2435248T3 (es) Sistema y método táctil basado en cámaras
ES2361457T3 (es) Sistema y procedimiento táctil en base a cámara.
JP4437748B2 (ja) プロジェクタによる位置および向きの読み取り
ES2394586T3 (es) Sistema y método para diferenciar entre punteros utilizados para hacer contacto con superficie táctil
JP4820285B2 (ja) 自動位置合わせタッチシステムおよび方法
ES2374246T3 (es) Determinación de tamaño/escala y orientación de un puntero en un sistema táctil basado en una cámara.
JP3950837B2 (ja) プロジェクタ並びにプロジェクタを使用した電子黒板システム及び指示位置取得方法
US20090296991A1 (en) Human interface electronic device
US20030095708A1 (en) Capturing hand motion
US11048363B2 (en) Floating display device and method for a floating display device to indicate touch position
WO2003105074A2 (en) Apparatus and method for inputting data
WO2007131087A2 (en) Efficiently focusing light
JPH08240407A (ja) 位置検出入力装置
CN108257177B (zh) 基于空间标识的定位系统与方法
KR20010051563A (ko) 곡선 모양의 미러를 사용하는 광 디지타이저
JP6643825B2 (ja) 装置及び方法
JP6233941B1 (ja) 非接触式の三次元タッチパネル、非接触式の三次元タッチパネルシステム、非接触式の三次元タッチパネルの制御方法、プログラム及び記録媒体
TWI697810B (zh) 具備手勢感測功能之三維顯示器
Bradley et al. Feedback-driven acquisition of artist-generated images with an ultrasonic interface