ES2394587T3 - Sistema de ingreso interactivo y método - Google Patents

Sistema de ingreso interactivo y método Download PDF

Info

Publication number
ES2394587T3
ES2394587T3 ES07855466T ES07855466T ES2394587T3 ES 2394587 T3 ES2394587 T3 ES 2394587T3 ES 07855466 T ES07855466 T ES 07855466T ES 07855466 T ES07855466 T ES 07855466T ES 2394587 T3 ES2394587 T3 ES 2394587T3
Authority
ES
Spain
Prior art keywords
image
pointer
assembly
touch
image data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
ES07855466T
Other languages
English (en)
Inventor
Gerald Morrison
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Smart Technologies ULC
Original Assignee
Smart Technologies ULC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Smart Technologies ULC filed Critical Smart Technologies ULC
Application granted granted Critical
Publication of ES2394587T3 publication Critical patent/ES2394587T3/es
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/042Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
    • G06F3/0428Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means by sensing at the edges of the touch surface the interruption of optical paths, e.g. an illumination plane, parallel to the touch surface which may be virtual
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0354Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0412Digitisers structurally integrated in a display
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0416Control or interface arrangements specially adapted for digitisers
    • G06F3/04166Details of scanning methods, e.g. sampling time, grouping of sub areas or time sharing with display driving

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Position Input By Displaying (AREA)
  • Studio Devices (AREA)
  • User Interface Of Digital Computer (AREA)
  • Image Analysis (AREA)

Abstract

Un sistema táctil (50) que comprende:una superficie táctil (60) en la cual una imagen es visible;ensamblajes de imágenes (70) cerca de la periferia de dicha superficie táctil(60), teniendo dichos ensamblajes de imágenes campos de visión al menosparcialmente superpuestos que abarcan dicha superficie táctil; yuna estructura de procesamiento (54) que procesa datos generados mediantelos ensamblajes de imágenes (70) para determinar la ubicación de al menosun puntero con relación a la superficie táctil (60),caracterizados porque cada ensamblaje de imágenes (70) comprende almenos dos dispositivos de imágenes (72, 74) que adquieren datos deimágenes, teniendo cada dispositivo de imágenes una longitud focal diferente;y cada ensamblaje de imágenes (70) genera datos del puntero usando losdatos de imágenes adquiridos mediante solamente uno de los dispositivos deimágenes de los mismos.

Description

5 Campo de la invención [0001] La presente invención se refiere a un sistema de ingreso interactivo o táctil y método.
Antecedentes de la invención
10 [0002] Los sistemas táctiles son bien conocidos en la técnica y normalmente incluyen una pantalla o panel táctil que tiene una superficie táctil con la cual se hace contacto mediante el uso de un puntero para generar un ingreso del usuario. Los contactos del puntero con la superficie táctil se detectan y se utilizan para generar las salidas correspondientes dependiendo de las áreas de la superficie táctil donde hace
15 contacto. Los sistemas táctiles comunes utilizan visión analógica resistiva, electromagnética, capacitiva, acústica o del ordenador para identificar las interacciones del puntero con la superficie táctil. [0003] Por ejemplo, la Solicitud PCT Internacional No. PCT/CA01/00980 presentada el 5 de julio de 2001 y publicada con el No. WO 02/03316 el 10 de enero de 2002,
20 cedida a SMART Technologies Inc., cesionario de la presente solicitud, divulga un sistema táctil basado en cámaras que comprende una pantalla táctil que define una superficie táctil con la cual se presenta una imagen generada por el ordenador. Dependiendo de la aplicación, puede usarse un dispositivo de proyección frontal o trasero para proyectar la imagen que es visible en la superficie táctil. Un bisel o
25 cuadro rectangular rodea la superficie táctil y soporta las cámaras digitales gran angulares. Las cámaras digitales tienen campos de visión superpuestos que abarcan y miran generalmente hacia la superficie táctil completa desde diferentes puntos de vista. Las cámaras digitales adquieren imágenes que miran hacia la superficie táctil y generan datos de imágenes. Los datos de imágenes adquiridos mediante cámaras
30 digitales se procesan por medio de procesadores digitales de señales para determinar si existe un puntero en los datos de imágenes capturados. Cuando se determina que existe un puntero en los datos de imágenes capturados, los procesadores digitales de señales trasmiten los datos característicos del puntero a un controlador maestro, el cual, a su vez, procesa los datos característicos del puntero para determinar la
35 ubicación del puntero en las coordenadas (x, y) con relación a la superficie táctil usando una triangulación. Los datos de coordenadas del puntero se transmiten a un ordenador ejecutando uno o más programas de aplicación. El ordenador usa los datos de coordenadas del puntero para actualizar la imagen generada por el ordenador que se presenta en la superficie táctil. Los contactos del puntero en la superficie táctil pueden por lo tanto grabarse como escritura o dibujo o usarse para controlar la
5 ejecución de programas de aplicación ejecutados por el ordenador. [0004] En muchos entornos, tal como en instituciones de enseñanza, se desean sistemas táctiles a gran escala para realizar exposiciones visibles a grupos grandes. Para satisfacer esta necesidad, se ha desarrollado un sistema táctil a gran escala como se divulgó en la Solicitud de Patente de los Estados Unidos No. de serie
10 10/750.219 de Hill et al. y cedida a SMART Technologies Inc., cesionario de la presente solicitud. Este sistema táctil a gran escala incluye un panel táctil que tiene una pluralidad de sub-regiones de ingreso. Las sub-regiones de ingreso se superponen para definir una superficie de ingreso generalmente contigua. Cada subregión de ingreso de coordenadas comprende un grupo de cámaras digitales gran
15 angulares que tienen diferentes puntos de vista que miran hacia una porción asociada de la superficie de ingreso. Cada sub-región de ingreso procesa los datos de imágenes capturados mediante las cámaras digitales y genera datos de coordenadas del puntero en respuesta a los contactos del puntero en la porción asociada de la superficie de ingreso. Los datos de coordenadas del puntero se procesan para
20 actualizar los datos de imágenes que se presentan en la superficie de ingreso. Cuando se establece un contacto del puntero en una sub-región de ingreso de coordenadas que no se superpone con una sub-región de ingreso de coordenadas adyacente, la sub-región de ingreso de coordenadas procesa las imágenes adquiridas para obtener datos del puntero y triangula la posición del puntero usando los datos del
25 puntero obtenidos para determinar de este modo la posición del contacto del puntero relativo a la superficie de ingreso. Cuando se establece un contacto del puntero en una sub-región de ingreso de coordenadas que se superpone con una sub-región de ingreso de coordenadas adyacente, cada sub-región de ingreso de coordenadas superpuesta procesa las imágenes adquiridas para obtener datos del puntero y
30 triangula la posición del puntero usando los datos del puntero obtenidos. Después de eso, las posiciones trianguladas generadas mediante las sub-regiones de ingreso de coordenadas superpuestas se procesan de acuerdo con la lógica definida para determinar de este modo la posición del contacto del puntero con relación a la superficie de ingreso.
35 [0005] Aunque los sistemas táctiles anteriores funcionan extremadamente bien, surgen problemas de resolución puesto que el tamaño de la superficie táctil aumenta.
Normalmente las cámaras con campos de visión muy amplios se emplean de modo que cada cámara ve la superficie táctil completa. Sin embargo, cuando un puntero se pone en contacto con la superficie táctil en una ubicación que está lejos de una o más de las cámaras, el puntero puede parecer muy pequeño para aquellas cámaras. De
5 hecho, para las cámaras, el puntero puede parecer de solamente (1) o dos (2) píxeles de ancho haciendo que la detección del puntero sea difícil y poco fiable. Como se apreciará, existe una necesidad de mejorar la detección del puntero especialmente en sistemas táctiles que tienen superficies táctiles muy grandes. [0006] Por lo tanto, es un objeto de la presente invención proporcionar un novedoso
10 sistema de ingreso interactivo y método.
Compendio de la invención
[0007] Por consiguiente, en un aspecto se proporciona un sistema de ingreso 15 interactivo que comprende:
dispositivos de imágenes con diferentes puntos de vista y que tienen campos de visión al menos parcialmente superpuestos que abarcan una región de interés, teniendo al menos dos de dichos dispositivos de imágenes diferentes
20 longitudes focales; y una estructura de procesamiento que procesa datos de imágenes adquiridos mediante los dispositivos de imágenes para detectar la existencia de un puntero y determinar la ubicación del puntero dentro de la región de interés.
25 [0008] En una realización, al menos algunos de los dispositivos de imágenes están dispuestos en pares. Un dispositivo de imágenes de cada par tiene un campo de visión amplio y el otro dispositivo de imágenes de cada par tiene un campo de visión estrecho. El campo de visión amplio abarca completamente el campo de visión estrecho. Los dispositivos de imágenes de cada par pueden estar apilados
30 verticalmente o dispuestos uno al lado del otro. [0009] En una realización, una superficie táctil está asociada con la región de interés. Los pares de dispositivos de imágenes están posicionados adyacentes a las esquinas de la superficie táctil. Los dispositivos de imágenes de cada par generalmente miran hacia la superficie táctil. Para cada par de dispositivos de imágenes, la estructura de
35 procesamiento procesa datos de imágenes adquiridos mediante cada dispositivo de imágenes del par para determinar si se cree que existe un puntero en los datos de imágenes con un nivel de confianza deseado y además procesa los datos de imágenes para determinar la ubicación del puntero. El nivel de confianza deseado es la existencia de un puntero más allá de un tamaño umbral. La estructura de procesamiento procesa los datos de imágenes adquiridos mediante los dispositivos
5 de imágenes de cada par para verificar al menos la existencia de un puntero y la ubicación del puntero. [0010] De acuerdo con otro aspecto se proporciona un sistema táctil que comprende:
una superficie táctil en la cual una imagen es visible;
10 ensamblajes de imágenes cerca de la periferia de dicha superficie táctil, teniendo dichos ensamblajes de imágenes campos de visión al menos parcialmente superpuestos que abarcan dicha superficie táctil, comprendiendo cada ensamblaje de imágenes al menos dos dispositivos de imágenes, teniendo cada dispositivo de imágenes diferentes longitudes focales; y
15 una estructura de procesamiento que procesa datos generados mediante los ensamblajes de imágenes para determinar la ubicación de al menos un puntero con relación a la superficie táctil.
[0011] De acuerdo con otro aspecto adicional se proporciona un sistema de ingreso 20 interactivo que comprende:
ensamblajes de cámaras con diferentes puntos de vista y que tienen campos de visión que abarcan una región de interés, comprendiendo cada ensamblaje de cámaras al menos dos sensores de imágenes, teniendo los sensores de
25 imágenes diferentes longitudes focales; y una estructura de procesamiento que procesa datos de imágenes adquiridos mediante dichos ensamblajes de cámaras para detectar uno o más punteros en dicha región de interés.
30 [0012] El sistema de ingreso interactivo y su método proporcionan ventajas en cuanto a que se puede alcanzar una detección del puntero fiable aun en instancias donde el puntero está apartado de uno o más dispositivos de imágenes. Además, mientras en algunas instancias los dispositivos de imágenes de diferentes longitudes focales ven el mismo objeto, los datos extraídos de las imágenes adquiridas mediante los
35 dispositivos de imágenes pueden usarse para calibrar los dispositivos de imágenes y verificar la ubicación del puntero.
Breve descripción de los dibujos
[0013] A continuación se describen realizaciones en más detalle con referencia a los
5 dibujos adjuntos en donde: [0014] la Figura 1 es una vista en planta frontal de un sistema de ingreso interactivo basado en cámaras; [0015] la Figura 2 es un diagrama esquemático del sistema de ingreso interactivo de la Figura 1;
10 [0016] la Figura 3 es una vista en planta frontal ampliada de una esquina del panel táctil de la Figura 2; [0017] la Figura 4 es una vista en planta frontal de un ensamblaje de cámaras que forma parte del panel táctil de la Figura 2; y [0018] la Figura 5 es una vista en planta frontal del panel táctil de la Figura 2 que
15 muestra los campos de visión de los ensamblajes de cámaras.
Descripción detallada de las realizaciones
[0019] Ahora, en lo que se refiere a las Figuras 1 y 2, se muestra un sistema táctil 20 basado en cámaras y que es generalmente identificado por el número de referencia
50. El sistema táctil basado en cámaras 50 es similar al divulgado en la Solicitud PTC Internacional No. de serie WO 02/03316 mencionada anteriormente, cedida a SMART Technologies Inc., cesionario de la presente solicitud. [0020] Como se puede ver, el sistema táctil 50 incluye un panel táctil 52 unido a un
25 controlador maestro basado en un procesador digital de señales (DSP) 54. El controlador maestro 54 también está unido a un ordenador 56. El ordenador 56 ejecuta uno o más programas de aplicación y proporciona una salida de imagen generada por el ordenador a un dispositivo de proyección 58. El dispositivo de proyección 58 presenta, a su vez, una imagen generada por el ordenador que es
30 visible en la superficie 60 de la pantalla táctil 52. El panel táctil 52, el controlador maestro 54, el ordenador 56 y el dispositivo de proyección 58 forman un circuito cerrado de modo que los contactos del puntero en la superficie táctil 60 pueden grabarse como escritura o dibujos o usarse para controlar la ejecución de los programas de aplicación ejecutados por el ordenador 56.
35 [0021] La superficie táctil 60 está limitada por un bisel o marco 62 similar al divulgado en la Patente de los Estados Unidos No. 6.972.401 de Akitt et al. otorgada el 6 de
diciembre de 2005, cedida a SMART Technologies, Inc. cesionario de la presente solicitud. Un ensamblaje de cámaras digitales basado en DSP 70 que tiene capacidades de procesamiento integradas, que se aprecia mejor en las Figuras 3 y 4, se posiciona adyacente a cada esquina superior de la superficie táctil 60 y está 5 alojado en el bisel 62. En esta realización, cada ensamblaje de cámaras digitales 70 comprende un par de sensores de cámara 72 y 74 que miran hacia de la superficie táctil 60 y una unidad de procesamiento (no se muestra) que se comunica con los sensores de cámara. Como se describirá, las longitudes focales de los sensores de cámara 72 y 74 son diferentes. Los sensores de cámara 72 y 74 de cada ensamblaje
10 de cámaras digitales 70 están apilados verticalmente uno sobre el otro. Los ejes ópticos de los sensores de cámara 72 y 74 están alineados con las diagonales de la superficie táctil 60 y, por lo tanto, los ejes ópticos atraviesan las esquinas opuestas diagonalmente de la superficie táctil 60. [0022] El sensor de cámara inferior 72 de cada ensamblaje de cámaras digitales 70
15 tiene una lente gran angular que le da al sensor de cámara 72 un campo de visión amplio de modo que el sensor de cámara inferior 72 ve la superficie táctil completa
60. El sensor de cámara superior 74 de cada ensamblaje de cámaras digitales 70 tiene una lente de ángulo estrecho que le da al sensor de cámara 74 un campo de visión largo y estrecho de modo que el sensor de cámara superior 74 ve solamente 20 una porción de la superficie táctil 60. En esta realización, el sensor de cámara inferior 72 tiene un campo de visión equivalente a aproximadamente 95°. El sensor de cámara superior 74 tiene un campo de visión en el rango de aproximadamente 30° a 60°. Sin embargo, los expertos en la técnica apreciarán que se pueden seleccionar otras combinaciones de campos de visión para los sensores de cámara inferiores y 25 superiores 72 y 74. Dado que los sensores de cámara 72 y 74 están apilados uno sobre el otro, el campo de visión (FOV1) del sensor de cámara inferior 72 abarca completamente el campo de visión (FOV2) del sensor de cámara superior 74 como se muestra en la Figura 5. De esta manera, los sensores de cámara superiores 74 son más apropiados para detectar de manera precisa los punteros que están distantes de
30 los ensamblajes de cámaras digitales 70 mientras que los sensores de cámara inferiores 72 son más apropiados para detectar de manera precisa los punteros que están próximos a los ensamblajes de cámaras digitales 70. [0023] Durante la operación del sistema táctil 50, los sensores de cámara 72 y 74 de cada ensamblaje de cámaras digitales 70, miran hacia la superficie táctil 60 y
35 adquieren imágenes. Para cada ensamblaje de cámaras digitales 70, los datos de imágenes adquiridos mediante cada sensor de cámara 72 y 74 de los mismos, se
procesan mediante la unidad de procesamiento para determinar si se cree que existe un puntero en cada imagen capturada con un nivel de confianza deseado (es decir, el puntero está por encima de un tamaño umbral en la imagen capturada). Como se apreciará, cuando el puntero está apartado de un ensamblaje de cámaras digitales 5 70, solamente su sensor de cámara superior 74 detectará la existencia de un puntero con el nivel de precisión deseado y cuando el puntero está cerca del ensamblaje de cámaras digitales 70, solamente su sensor de cámara inferior 72 detectará la existencia del puntero con el nivel de precisión deseado. Cuando se determina que un puntero existe en una de las imágenes capturadas con el nivel de confianza deseado,
10 los datos característicos del puntero se obtienen de aquella imagen capturada identificando la posición del puntero en la imagen capturada. Si se determina que el puntero existe en ambas imágenes capturadas con el nivel de confianza deseado, los datos característicos del puntero se obtienen de la imagen capturada en la cual el puntero parece más grande.
15 [0024] Los datos característicos del puntero obtenidos mediante cada ensamblaje de cámaras digitales 70 se transmiten después al controlador maestro 54, que procesa, a su vez, los datos característicos del puntero de una manera similar a la descrita en la Patente de los Estados Unidos No. 6.954.197 de Morrison et al. otorgada el 4 de octubre de 2005, cedida a SMART Technologies Inc., cesionario de la presente
20 solicitud, de modo tal que se determina un cuadro delimitador que rodea el contacto del puntero en la superficie táctil 60 permitiendo la ubicación del puntero en las coordenadas (x,y) a calcular. [0025] Los datos de coordenadas del puntero se reportan entonces al ordenador 56, que graba, a su vez, los datos de coordenadas del puntero como escritura o dibujo si
25 el contacto del puntero es un evento escrito o infunde los datos de coordenadas del puntero en el programa de solicitud activo siendo ejecutado por el ordenador 56 si el contacto del puntero es un evento del ratón. Como se mencionó anteriormente, el ordenador 56 también actualiza los datos de imágenes transmitidos al dispositivo de proyección 58 de modo que la imagen presentada en la superficie táctil 60 refleja la
30 actividad del puntero. [0026] Si se desea, los resultados del procesamiento de imagen durante la determinación de la existencia del puntero para los sensores de cámara superiores e inferiores 72 y 74 de cada ensamblaje de cámaras digitales 70 pueden compararse para verificar la existencia del puntero. Los datos característicos del puntero para
35 cada imagen capturada también se pueden generar y comparar para verificar la ubicación del puntero dentro de las imágenes capturadas. Asimismo, mientras los sensores de cámara 72 y 74 de cada ensamblaje de cámaras digitales 70 ven el mismo puntero cuando el puntero se trae hacia la superficie táctil 60, los datos del puntero obtenidos de las imágenes adquiridas pueden usarse para calibrar los sensores de cámara 72 y 74 de los ensamblajes de cámaras digitales 70.
5 [0027] Aunque los ensamblajes de cámaras digitales 70 se describen como que tienen sensores de cámara 72 y 74 apilados verticalmente con el campo de visión del sensor de cámara gran angular 72 que abarca completamente el campo de visión del sensor de cámara de ángulo estrecho 74, los expertos en la técnica apreciarán que son posibles otros arreglos de ensamblaje de cámaras. Por ejemplo, los sensores de
10 cámara 72 y 74 de los ensamblajes de cámaras digitales 70 pueden estar dispuestos uno al lado del otro con el campo de visión de los sensores de cámara gran angular 72 que aun abarcan completamente el campo de visión de los sensores de cámara de ángulo estrecho 74. Por supuesto, son posibles otras orientaciones del sensor de cámara. El campo de visión del sensor de cámara gran angular 72 no necesita
15 abarcar completamente el campo de visión del sensor de cámara de ángulo estrecho
74. Los campos de visión de los sensores de cámara gran angular y de ángulo estrecho pueden, obviamente, superponerse parcialmente. Como se apreciará, en este arreglo hay menos redundancia. [0028] En la realización descrita anteriormente, aunque cada ensamblaje de cámaras
20 70 se describe de forma tal que comprende dos sensores de cámara 72 y 74 que se comunican con una unidad de procesamiento sola, cada sensor de cámara se puede comunicar con una unidad de procesamiento asociada. En este caso, las unidades de procesamiento de cada ensamblaje de cámaras 70 se comunica para determinar cuál unidad de procesamiento proporcionará los datos del puntero al controlador maestro
25 54. En situaciones en las que un puntero se ve mejor mediante un sensor de cámara pero el puntero se mueve en una dirección que es mejor captada por el otro sensor de cámara, las unidades de procesamiento pueden comunicar los datos de los punteros entre sí para asegurar un rastreo del puntero preciso, dado que la responsabilidad del rastreo del puntero se pasa de una unidad de procesamiento a otra.
30 [0029] Como se describió anteriormente, el sistema táctil 50 comprende un par de ensamblajes de cámaras digitales 70 posicionados adyacentes a las esquinas superiores de la superficie táctil 60. Los expertos en la técnica apreciarán que los ensamblajes de cámaras adicionales 70 pueden estar colocados cerca de la periferia de la superficie táctil 60, especialmente cuando la superficie táctil es muy grande
35 como se describió en la mencionada Patente de los Estados Unidos No. 10/750.219 de Hill et al.
[0030] Como se apreciará por los expertos en la técnica, el puntero puede ser un dedo, un lápiz óptico pasivo o activo u otro objeto, un foco de luz u otra radiación u otro indicador que puede ser visto por las cámaras. Aunque se describe que el sistema táctil incluye cámaras digitales, se pueden emplear otros dispositivos de
5 imágenes tales como por ejemplo sensores ópticos lineales que son capaces de generar una imagen. [0031] En las realizaciones descritas anteriormente, se detectan y rastrean los contactos del puntero establecidos en una superficie táctil. Los expertos en la técnica apreciarán que no se requiere una superficie táctil y que se pueden detectar y rastrear
10 los punteros que interceptan un plano bidimensional o dentro de un volumen tridimensional que es visto mediante dispositivos de imágenes. [0032] Aunque anteriormente se han descrito realizaciones, los expertos en la técnica también apreciarán que se pueden realizar variaciones y modificaciones sin apartarse del alcance de las mismas, tal como se define mediante las reivindicaciones adjuntas.

Claims (15)

  1. Reivindicaciones
    1. Un sistema táctil (50) que comprende:
    5 una superficie táctil (60) en la cual una imagen es visible; ensamblajes de imágenes (70) cerca de la periferia de dicha superficie táctil (60), teniendo dichos ensamblajes de imágenes campos de visión al menos parcialmente superpuestos que abarcan dicha superficie táctil; y una estructura de procesamiento (54) que procesa datos generados mediante
    10 los ensamblajes de imágenes (70) para determinar la ubicación de al menos un puntero con relación a la superficie táctil (60), caracterizados porque cada ensamblaje de imágenes (70) comprende al menos dos dispositivos de imágenes (72, 74) que adquieren datos de imágenes, teniendo cada dispositivo de imágenes una longitud focal diferente;
    15 y cada ensamblaje de imágenes (70) genera datos del puntero usando los datos de imágenes adquiridos mediante solamente uno de los dispositivos de imágenes de los mismos.
  2. 2. Un sistema táctil de acuerdo con la reivindicación 1, en donde un dispositivo
    20 de imágenes (72) de cada ensamblaje de imágenes (70) tiene un campo de visión amplio que generalmente abarca la superficie táctil completa (60) y el otro dispositivo de imágenes (74) de cada ensamblaje de imágenes (70) tiene un campo de visión estrecho, preferiblemente estando los dispositivos de imágenes de cada ensamblaje de imágenes apilados verticalmente y uno al lado del otro.
  3. 3. Un sistema táctil de acuerdo con la reivindicación 1 o 2, en donde cada ensamblaje de imágenes (70) procesa datos de imágenes adquiridos para detectar la existencia de un puntero, utilizándose los datos de imágenes adquiridos mediante el dispositivo de imágenes de cada ensamblaje de imágenes (70) que mejor ve el
    30 puntero para generar los datos del puntero que se procesan mediante dicha estructura de procesamiento (54).
  4. 4. Un sistema táctil de acuerdo con la reivindicación 3, en donde los dispositivos
    de imágenes de cada ensamblaje de imágenes (70) usan los datos de imágenes 35 adquiridos de este modo para verificar la existencia del puntero.
  5. 5.
    Un sistema táctil de acuerdo con la reivindicación 1, en donde dicha superficie táctil (60) es rectangular y en donde los ensamblajes de imágenes (70) están posicionados en las esquinas de dicha superficie táctil.
  6. 6.
    Un sistema de ingreso interactivo (50) que comprende:
    ensamblajes de cámaras (70) con diferentes puntos de vista y que tienen campos de visión que abarcan una región de interés; y
    10 estructura de procesamiento (70) que procesa datos de imágenes adquiridos mediante dichos ensamblajes de cámaras para detectar uno o más punteros en dicha región de interés, caracterizados porque cada ensamblaje de cámaras (70) comprende al menos dos sensores de imágenes (72, 74) que adquieren datos de imágenes
    15 con los sensores de imágenes que tienen diferentes longitudes focales; y los datos de imágenes adquiridos mediante solamente uno de los sensores de imágenes de cada ensamblaje de cámaras (70) se usan para determinar la ubicación de cada puntero en dicha región de interés.
    20 7. Un sistema de ingreso interactivo de acuerdo con la reivindicación 6, en donde para cada ensamblaje de cámaras (70), dicha estructura de procesamiento procesa los datos de imágenes adquiridos mediante cada sensor de imágenes (72, 74) de los mismos para determinar si se cree que existe un puntero en los datos de imágenes con un nivel de confianza deseado, y además procesa los datos de
    25 imágenes para obtener datos característicos del puntero usados para determinar la ubicación del puntero.
  7. 8. Un sistema de ingreso interactivo de acuerdo con la reivindicación 7, en donde dicha estructura de procesamiento procesa los datos de imágenes adquiridos
    30 mediante los sensores de imágenes (72, 74) para verificar al menos la existencia de un puntero y la ubicación del puntero.
  8. 9. Un sistema de ingreso interactivo de acuerdo con cualquiera de las
    reivindicaciones 6 a 8, en donde cada ensamblaje de cámaras (70) comprende un par 35 de sensores de imágenes (72, 74), un sensor de imágenes (72) de cada par que tiene un campo de visión amplio y el otro sensor de imágenes (74) de cada par que tiene un campo de visión estrecho.
  9. 10. Un sistema de ingreso interactivo de acuerdo con cualquiera de las
    5 reivindicaciones 6 a 9 que comprende además una superficie táctil (60) asociada con dicha región de interés.
  10. 11. Un sistema de ingreso interactivo de acuerdo con la reivindicación 7, en
    10 donde dicho nivel de confianza deseado es la existencia de un puntero en datos de imágenes capturados que tienen un tamaño mayor que un tamaño umbral.
  11. 12. Un sistema de ingreso interactivo de acuerdo con la reivindicación 10 en donde los ensamblajes de cámaras (70) se posicionan adyacentes a las esquinas de
    15 la superficie táctil (60), mirando los sensores de imágenes (72, 74) de cada ensamblaje de cámaras (70) hacia dicha superficie táctil.
  12. 13. Un sistema de ingreso interactivo de acuerdo con la reivindicación 9, en
    donde el campo de visión amplio abarca completamente o parcialmente el campo de 20 visión estrecho.
  13. 14. Un sistema de ingreso interactivo de acuerdo con la reivindicación 13, en donde el campo de visión amplio es equivalente a aproximadamente 95 grados y el campo de visión estrecho está en el rango de aproximadamente 30 grados a 60
    25 grados.
  14. 15. Un sistema de ingreso interactivo de acuerdo con la reivindicación 14, en donde el sensor de imágenes (74) de cada ensamblaje de cámaras (70) que tiene un campo de visión estrecho es más apropiado para detectar punteros distantes del
    30 ensamblaje de cámaras y en donde el sensor de imágenes (72) de cada ensamblaje de cámaras (70) que tiene un campo de visión amplio es más apropiado para detectar punteros próximos al ensamblaje de cámaras.
  15. 16. Un sistema de ingreso interactivo de acuerdo con la reivindicación 10 en
    35 donde un ordenador (56) actualiza los datos de imágenes que se presentan en la superficie táctil (60) en respuesta a la ubicación determinada de cada puntero.
ES07855466T 2006-12-04 2007-12-04 Sistema de ingreso interactivo y método Active ES2394587T3 (es)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US566515 1983-12-29
US11/566,515 US9442607B2 (en) 2006-12-04 2006-12-04 Interactive input system and method
PCT/CA2007/002184 WO2008067660A1 (en) 2006-12-04 2007-12-04 Interactive input system and method

Publications (1)

Publication Number Publication Date
ES2394587T3 true ES2394587T3 (es) 2013-02-04

Family

ID=39493215

Family Applications (1)

Application Number Title Priority Date Filing Date
ES07855466T Active ES2394587T3 (es) 2006-12-04 2007-12-04 Sistema de ingreso interactivo y método

Country Status (14)

Country Link
US (1) US9442607B2 (es)
EP (1) EP2089791B1 (es)
JP (1) JP2010511945A (es)
KR (1) KR20090085160A (es)
CN (1) CN101627356B (es)
AU (1) AU2007329152B2 (es)
BR (1) BRPI0720076A2 (es)
CA (1) CA2670357C (es)
ES (1) ES2394587T3 (es)
MX (1) MX2009005943A (es)
NZ (1) NZ577064A (es)
RU (1) RU2009125556A (es)
WO (1) WO2008067660A1 (es)
ZA (1) ZA200903799B (es)

Families Citing this family (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8692768B2 (en) * 2009-07-10 2014-04-08 Smart Technologies Ulc Interactive input system
JP5532300B2 (ja) * 2009-12-24 2014-06-25 ソニー株式会社 タッチパネル装置およびタッチパネル制御方法、プログラム、並びに記録媒体
US20110187678A1 (en) * 2010-01-29 2011-08-04 Tyco Electronics Corporation Touch system using optical components to image multiple fields of view on an image sensor
JP5516102B2 (ja) * 2010-06-11 2014-06-11 セイコーエプソン株式会社 光学式位置検出装置、電子機器及び表示装置
WO2012025159A1 (en) * 2010-08-27 2012-03-01 Brainlab Ag Multiple-layer pointing position determination on a medical display
KR101632311B1 (ko) * 2010-12-30 2016-06-22 삼성전자주식회사 패널 형태의 면 카메라, 이를 적용한 광 터치스크린 및 디스플레이 장치
CN102221941A (zh) * 2011-06-24 2011-10-19 武汉传威光控科技有限公司 框架式基于光学传感多点定位触摸监测控制系统及方法
CN102306067B (zh) * 2011-08-25 2014-09-24 武汉传威光控科技有限公司 基于光学传感分布式多系统并行检测多点测控系统及方法
US11314368B2 (en) 2012-09-14 2022-04-26 Samsung Display Co., Ltd. Display device and method of driving the same in two modes
KR102061569B1 (ko) * 2013-05-16 2020-01-03 삼성디스플레이 주식회사 표시장치 및 표시장치의 구동방법
JP6022330B2 (ja) * 2012-12-05 2016-11-09 セコム株式会社 カメラシステム
US11528448B1 (en) * 2021-07-19 2022-12-13 Ipevo, Inc. Camera devices and systems for video conferences

Family Cites Families (435)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6512513B2 (en) 1919-04-01 2003-01-28 Wacom Co., Ltd. Pointer for use in digitizer systems
US2769374A (en) 1951-10-19 1956-11-06 Sick Erwin Electrical light screen
US3025406A (en) * 1959-02-05 1962-03-13 Flightex Fabrics Inc Light screen for ballistic uses
US3187185A (en) * 1960-12-22 1965-06-01 United States Steel Corp Apparatus for determining surface contour
US3128340A (en) * 1961-12-21 1964-04-07 Bell Telephone Labor Inc Electrographic transmitter
DE1221927B (de) 1964-05-06 1966-07-28 Sick Erwin Lichtschranke, insbesondere Unfallschutzvorrichtung
US3478220A (en) 1966-05-11 1969-11-11 Us Navy Electro-optic cursor manipulator with associated logic circuitry
US3613066A (en) 1968-10-22 1971-10-12 Cii Computer input equipment
US3775560A (en) 1972-02-28 1973-11-27 Univ Illinois Infrared light beam x-y position encoder for display devices
US3764813A (en) 1972-04-12 1973-10-09 Bell Telephone Labor Inc Coordinate detection system
US3860754A (en) * 1973-05-07 1975-01-14 Univ Illinois Light beam position encoder apparatus
US3857022A (en) 1973-11-15 1974-12-24 Integrated Sciences Corp Graphic input device
DE2550653C3 (de) 1975-11-11 1978-12-21 Erwin Sick Gmbh Optik-Elektronik, 7808 Waldkirch Drehstrahl-Lichtvorhang
US4144449A (en) 1977-07-08 1979-03-13 Sperry Rand Corporation Position detection apparatus
GB1575420A (en) 1978-02-01 1980-09-24 Marconi Co Ltd Position resolving apparatus
CA1109539A (en) 1978-04-05 1981-09-22 Her Majesty The Queen, In Right Of Canada, As Represented By The Ministe R Of Communications Touch sensitive computer input device
US4243879A (en) * 1978-04-24 1981-01-06 Carroll Manufacturing Corporation Touch panel with ambient light sampling
US4373804A (en) 1979-04-30 1983-02-15 Diffracto Ltd. Method and apparatus for electro-optically determining the dimension, location and attitude of objects
US4420261A (en) 1980-09-02 1983-12-13 Lowbar, Inc. Optical position location apparatus
US4468694A (en) 1980-12-30 1984-08-28 International Business Machines Corporation Apparatus and method for remote displaying and sensing of information using shadow parallax
US4639720A (en) 1981-01-12 1987-01-27 Harris Corporation Electronic sketch pad
JPS5936295B2 (ja) 1981-06-23 1984-09-03 株式会社日立国際電気 光学式座標入力装置
JPS5863171U (ja) 1981-10-23 1983-04-27 富士重工業株式会社 フ−ドステ−兼用スペアタイヤ保持装置
US4558313A (en) 1981-12-31 1985-12-10 International Business Machines Corporation Indicator to data processing interface
US4459476A (en) 1982-01-19 1984-07-10 Zenith Radio Corporation Co-ordinate detection system
US4507557A (en) * 1983-04-01 1985-03-26 Siemens Corporate Research & Support, Inc. Non-contact X,Y digitizer using two dynamic ram imagers
US4553842A (en) 1983-05-09 1985-11-19 Illinois Tool Works Inc. Two dimensional optical position indicating apparatus
FR2554261B1 (fr) 1983-10-28 1987-04-30 Thomson Csf Dispositif sensitif d'affichage comportant un ecran a balayage
US4550250A (en) 1983-11-14 1985-10-29 Hei, Inc. Cordless digital graphics input device
US4766424A (en) 1984-03-30 1988-08-23 Zenith Electronics Corporation Light collecting and redirecting means
US4672364A (en) * 1984-06-18 1987-06-09 Carroll Touch Inc Touch input device having power profiling
US4943806A (en) 1984-06-18 1990-07-24 Carroll Touch Inc. Touch input device having digital ambient light sampling
US4703316A (en) 1984-10-18 1987-10-27 Tektronix, Inc. Touch panel input apparatus
US4673918A (en) * 1984-11-29 1987-06-16 Zenith Electronics Corporation Light guide having focusing element and internal reflector on same face
JPS61196317A (ja) 1985-02-27 1986-08-30 Nippon Telegr & Teleph Corp <Ntt> 情報入力方式
US4710760A (en) 1985-03-07 1987-12-01 American Telephone And Telegraph Company, At&T Information Systems Inc. Photoelastic touch-sensitive screen
DE3616490A1 (de) 1985-05-17 1986-11-27 Alps Electric Co Ltd Optische koordinaten-eingabe-vorrichtung
JPS61262917A (ja) 1985-05-17 1986-11-20 Alps Electric Co Ltd 光電式タツチパネルのフイルタ−
US4980547A (en) 1985-05-24 1990-12-25 Wells-Gardner Electronics Corp. Light distribution and detection apparatus
US4762990A (en) 1985-10-21 1988-08-09 International Business Machines Corporation Data processing input interface determining position of object
US4831455A (en) 1986-02-21 1989-05-16 Canon Kabushiki Kaisha Picture reading apparatus
US4822145A (en) 1986-05-14 1989-04-18 Massachusetts Institute Of Technology Method and apparatus utilizing waveguide and polarized light for display of dynamic images
JPS6375918A (ja) 1986-09-19 1988-04-06 Alps Electric Co Ltd 座標入力装置
US4782328A (en) 1986-10-02 1988-11-01 Product Development Services, Incorporated Ambient-light-responsive touch screen data input method and system
US4893120A (en) * 1986-11-26 1990-01-09 Digital Electronics Corporation Touch panel using modulated light
US4868912A (en) 1986-11-26 1989-09-19 Digital Electronics Infrared touch panel
US5025411A (en) * 1986-12-08 1991-06-18 Tektronix, Inc. Method which provides debounced inputs from a touch screen panel by waiting until each x and y coordinates stop altering
JPH0816931B2 (ja) 1987-02-06 1996-02-21 富士通株式会社 輪郭線抽出方式
US4746770A (en) 1987-02-17 1988-05-24 Sensor Frame Incorporated Method and apparatus for isolating and manipulating graphic objects on computer video monitor
US4820050A (en) 1987-04-28 1989-04-11 Wells-Gardner Electronics Corporation Solid-state optical position determining apparatus
US4811004A (en) * 1987-05-11 1989-03-07 Dale Electronics, Inc. Touch panel system and method for using same
US4990901A (en) * 1987-08-25 1991-02-05 Technomarket, Inc. Liquid crystal display touch screen having electronics on one side
US4928094A (en) * 1988-01-25 1990-05-22 The Boeing Company Battery-operated data collection apparatus having an infrared touch screen data entry device
JP2705156B2 (ja) 1988-03-07 1998-01-26 ソニー株式会社 タッチパネル装置
JPH01314324A (ja) 1988-06-14 1989-12-19 Sony Corp タッチパネル装置
US5164714A (en) 1988-06-20 1992-11-17 Amp Incorporated Modulated touch entry system and method with synchronous detection
JPH01320521A (ja) 1988-06-22 1989-12-26 Wacom Co Ltd 電子黒板装置及びその筆記具等
US4851664A (en) 1988-06-27 1989-07-25 United States Of America As Represented By The Secretary Of The Navy Narrow band and wide angle hemispherical interference optical filter
US5109435A (en) 1988-08-08 1992-04-28 Hughes Aircraft Company Segmentation method for use against moving objects
US5196835A (en) 1988-09-30 1993-03-23 International Business Machines Corporation Laser touch panel reflective surface aberration cancelling
US4916308A (en) * 1988-10-17 1990-04-10 Tektronix, Inc. Integrated liquid crystal display and optical touch panel
DE3836429A1 (de) 1988-10-26 1990-05-03 Paul Nolden Sensormatrix fuer bildschirme
JPH0354618A (ja) 1989-07-22 1991-03-08 Fujitsu Ltd 光学式位置指示装置
DE3932030A1 (de) 1989-09-26 1991-04-04 Philips Patentverwaltung Hochdruckgasentladungslampe
US5179369A (en) * 1989-12-06 1993-01-12 Dale Electronics, Inc. Touch panel and method for controlling same
JP2917155B2 (ja) 1989-12-18 1999-07-12 株式会社日立製作所 画像結合装置及び方法
JP2896183B2 (ja) 1990-02-22 1999-05-31 株式会社ワコム 光学式複数2次元座標同時入力装置
US5130794A (en) 1990-03-29 1992-07-14 Ritchey Kurtis J Panoramic display system
US5105186A (en) * 1990-05-25 1992-04-14 Hewlett-Packard Company Lcd touch screen
US5162783A (en) 1990-07-23 1992-11-10 Akzo N.V. Infrared touch screen device for a video monitor
US5025314A (en) 1990-07-30 1991-06-18 Xerox Corporation Apparatus allowing remote interactive use of a plurality of writing surfaces
US5103085A (en) * 1990-09-05 1992-04-07 Zimmerman Thomas G Photoelectric proximity detector and switch
US6736321B2 (en) * 1995-12-18 2004-05-18 Metrologic Instruments, Inc. Planar laser illumination and imaging (PLIIM) system employing wavefront control methods for reducing the power of speckle-pattern noise digital images acquired by said system
US5239152A (en) 1990-10-30 1993-08-24 Donnelly Corporation Touch sensor panel with hidden graphic mode
US5162618A (en) 1990-11-16 1992-11-10 Exzec, Inc. Acoustic touch position sensor with first order lamb wave reflective arrays
US5148015A (en) 1990-12-24 1992-09-15 Pitney Bowes Inc. Touch switch input device for computer system
US5239373A (en) 1990-12-26 1993-08-24 Xerox Corporation Video computational shared drawing space
JP3318897B2 (ja) 1991-01-29 2002-08-26 ソニー株式会社 ビデオモニタ付リモートコントローラ
US5097516A (en) 1991-02-28 1992-03-17 At&T Bell Laboratories Technique for illuminating a surface with a gradient intensity line of light to achieve enhanced two-dimensional imaging
JPH04355815A (ja) 1991-06-03 1992-12-09 Pfu Ltd タッチスクリーン
US5168531A (en) 1991-06-27 1992-12-01 Digital Equipment Corporation Real-time recognition of pointing information from video
US5196836A (en) * 1991-06-28 1993-03-23 International Business Machines Corporation Touch panel display
US5272470A (en) 1991-10-10 1993-12-21 International Business Machines Corporation Apparatus and method for reducing system overhead while inking strokes in a finger or stylus-based input device of a data processing system
US5448263A (en) 1991-10-21 1995-09-05 Smart Technologies Inc. Interactive display system
US6141000A (en) 1991-10-21 2000-10-31 Smart Technologies Inc. Projection display system with touch sensing on screen, computer assisted alignment correction and network conferencing
CA2367864C (en) 1991-10-21 2010-05-25 Smart Technologies Inc. Interactive display apparatus for displaying computer-generated image projected thereon
JPH05181605A (ja) 1991-12-27 1993-07-23 Seiko Instr Inc 座標読み取り機能付き投影表示装置およびその表示スクリーンおよびその表示装置
JPH05189137A (ja) 1992-01-16 1993-07-30 Sumitomo Heavy Ind Ltd 計算機用コマンド入力装置
JPH05197810A (ja) 1992-01-20 1993-08-06 Nippon Telegr & Teleph Corp <Ntt> 映像によるコマンド入力処理方法
GB2263765A (en) 1992-01-25 1993-08-04 Paul Philip Oliver Touch screen systems
GB9201949D0 (en) 1992-01-30 1992-03-18 Jenkin Michael Large-scale,touch-sensitive video display
US5483261A (en) 1992-02-14 1996-01-09 Itu Research, Inc. Graphical input controller and method with rear screen image detection
US5880411A (en) 1992-06-08 1999-03-09 Synaptics, Incorporated Object position detector with edge motion feature and gesture recognition
US5605406A (en) 1992-08-24 1997-02-25 Bowen; James H. Computer input devices with light activated switches and light emitter protection
US5724743A (en) 1992-09-04 1998-03-10 Snap-On Technologies, Inc. Method and apparatus for determining the alignment of motor vehicle wheels
JP3244798B2 (ja) 1992-09-08 2002-01-07 株式会社東芝 動画像処理装置
US5982352A (en) 1992-09-18 1999-11-09 Pryor; Timothy R. Method for providing human input to a computer
US7084859B1 (en) 1992-09-18 2006-08-01 Pryor Timothy R Programmable tactile touch screen displays and man-machine interfaces for improved vehicle instrumentation and telematics
US5422494A (en) * 1992-10-16 1995-06-06 The Scott Fetzer Company Barrier transmission apparatus
DE69331433T2 (de) 1992-10-22 2002-10-02 Advanced Interconnection Tech Einrichtung zur automatischen optischen Prüfung von Leiterplatten mit darin verlegten Drähten
US5317140A (en) 1992-11-24 1994-05-31 Dunthorn David I Diffusion-assisted position location particularly for visual pen detection
US5751355A (en) 1993-01-20 1998-05-12 Elmo Company Limited Camera presentation supporting system
US5374971A (en) 1993-03-12 1994-12-20 Picturetel Corporation Two-view video camera stand and support method
US5502568A (en) 1993-03-23 1996-03-26 Wacom Co., Ltd. Optical position detecting unit, optical coordinate input unit and optical position detecting method employing a pattern having a sequence of 1's and 0's
US5359155A (en) 1993-03-25 1994-10-25 Tiger Scientific Corp. Illumination apparatus for a digitizer tablet
US5729704A (en) 1993-07-21 1998-03-17 Xerox Corporation User-directed method for operating on an object-based model data structure through a second contextual image
US5490655A (en) 1993-09-16 1996-02-13 Monger Mounts, Inc. Video/data projector and monitor ceiling/wall mount
JPH07230352A (ja) 1993-09-16 1995-08-29 Hitachi Ltd タッチ位置検出装置及びタッチ指示処理装置
JPH07110733A (ja) 1993-10-13 1995-04-25 Nippon Signal Co Ltd:The 入力装置
US7310072B2 (en) 1993-10-22 2007-12-18 Kopin Corporation Portable communication display device
JP3419050B2 (ja) 1993-11-19 2003-06-23 株式会社日立製作所 入力装置
US5739850A (en) 1993-11-30 1998-04-14 Canon Kabushiki Kaisha Apparatus for improving the image and sound processing capabilities of a camera
US5484966A (en) 1993-12-07 1996-01-16 At&T Corp. Sensing stylus position using single 1-D image sensor
US5712658A (en) * 1993-12-28 1998-01-27 Hitachi, Ltd. Information presentation apparatus and information display apparatus
GB2286100A (en) 1994-01-19 1995-08-02 Ibm Touch-sensitive display apparatus
US5457289A (en) 1994-03-16 1995-10-10 Microtouch Systems, Inc. Frontally shielded capacitive touch sensor system
US5577733A (en) * 1994-04-08 1996-11-26 Downing; Dennis L. Targeting system
KR100300397B1 (ko) 1994-04-21 2001-10-22 김순택 터치판넬및디지타이저기능을겸비한시스템및구동방법
JPH08108689A (ja) 1994-05-31 1996-04-30 Nippon Typewriter Co Ltd 電子黒板
US5771039A (en) 1994-06-06 1998-06-23 Ditzik; Richard J. Direct view display device integration techniques
US5525764A (en) 1994-06-09 1996-06-11 Junkins; John L. Laser scanning graphic input system
US5528263A (en) 1994-06-15 1996-06-18 Daniel M. Platzker Interactive projected video image display system
US5737740A (en) 1994-06-27 1998-04-07 Numonics Apparatus and method for processing electronic documents
JPH0863326A (ja) 1994-08-22 1996-03-08 Hitachi Ltd 画像処理装置及び方法
US5528290A (en) 1994-09-09 1996-06-18 Xerox Corporation Device for transcribing images on a board using a camera based board scanner
JPH0888785A (ja) 1994-09-16 1996-04-02 Toshiba Corp 画像入力装置
US5686942A (en) 1994-12-01 1997-11-11 National Semiconductor Corporation Remote computer input system which detects point source on operator
JPH08237407A (ja) 1994-12-09 1996-09-13 Xerox Corp 画像タイルの相対的なアラインメントを見当合わせすると共に透視歪みを修正するための方法
US5638092A (en) 1994-12-20 1997-06-10 Eng; Tommy K. Cursor control system
JPH08179888A (ja) 1994-12-21 1996-07-12 Hitachi Ltd 大画面ディスプレイ用入力装置
US5554828A (en) 1995-01-03 1996-09-10 Texas Instruments Inc. Integration of pen-based capability into a field emission device system
US5804773A (en) 1995-02-16 1998-09-08 Elo Touchsystems, Inc. Simplified touch screen with improved position accuracy
US5594469A (en) 1995-02-21 1997-01-14 Mitsubishi Electric Information Technology Center America Inc. Hand gesture machine control system
US5736686A (en) 1995-03-01 1998-04-07 Gtco Corporation Illumination apparatus for a digitizer tablet with improved light panel
JPH08240407A (ja) 1995-03-02 1996-09-17 Matsushita Electric Ind Co Ltd 位置検出入力装置
US5591945A (en) * 1995-04-19 1997-01-07 Elo Touchsystems, Inc. Acoustic touch position sensor using higher order horizontally polarized shear wave propagation
US6191773B1 (en) 1995-04-28 2001-02-20 Matsushita Electric Industrial Co., Ltd. Interface apparatus
JP3436828B2 (ja) 1995-05-08 2003-08-18 株式会社リコー 画像処理装置
JPH08315152A (ja) 1995-05-22 1996-11-29 Sony Corp 画像認識装置
US5698845A (en) 1995-05-23 1997-12-16 Stanley Electric Co., Ltd. Optical detection apparatus for detecting light interruption
US5786810A (en) 1995-06-07 1998-07-28 Compaq Computer Corporation Method of determining an object's position and associated apparatus
US5764223A (en) 1995-06-07 1998-06-09 International Business Machines Corporation Touch-screen input device using the monitor as a light source operating at an intermediate frequency
US5734375A (en) 1995-06-07 1998-03-31 Compaq Computer Corporation Keyboard-compatible optical determination of object's position
JPH09106320A (ja) 1995-08-24 1997-04-22 Symbios Logic Inc 図形入力装置および図形入力方法
JPH0991094A (ja) 1995-09-21 1997-04-04 Sekisui Chem Co Ltd タッチパネルの座標検出装置
US5818424A (en) 1995-10-19 1998-10-06 International Business Machines Corporation Rod shaped device and data acquisition apparatus for determining the position and orientation of an object in space
US6384743B1 (en) * 1999-06-14 2002-05-07 Wisconsin Alumni Research Foundation Touch screen for the vision-impaired
US5825352A (en) 1996-01-04 1998-10-20 Logitech, Inc. Multiple fingers contact sensing method for emulating mouse buttons and mouse operations on a touch sensor pad
JPH09190284A (ja) 1996-01-11 1997-07-22 Canon Inc 情報処理装置およびその方法
TW394879B (en) 1996-02-09 2000-06-21 Sega Enterprises Kk Graphics processing system and its data input device
JPH09224111A (ja) 1996-02-16 1997-08-26 Hitachi Denshi Ltd 電子黒板
US5739479A (en) * 1996-03-04 1998-04-14 Elo Touchsystems, Inc. Gentle-bevel flat acoustic wave touch sensor
US5940065A (en) 1996-03-15 1999-08-17 Elo Touchsystems, Inc. Algorithmic compensation system and method therefor for a touch sensor panel
US5784054A (en) 1996-03-22 1998-07-21 Elo Toughsystems, Inc. Surface acoustic wave touchscreen with housing seal
JP3807779B2 (ja) 1996-05-29 2006-08-09 富士通株式会社 座標検出装置
US7098392B2 (en) * 1996-07-10 2006-08-29 Sitrick David H Electronic image visualization system and communication methodologies
US6075905A (en) 1996-07-17 2000-06-13 Sarnoff Corporation Method and apparatus for mosaic image construction
US6002808A (en) 1996-07-26 1999-12-14 Mitsubishi Electric Information Technology Center America, Inc. Hand gesture control system
JP3217972B2 (ja) 1996-08-02 2001-10-15 松下電器産業株式会社 タッチパネル付き携帯通信機器
US6208329B1 (en) 1996-08-13 2001-03-27 Lsi Logic Corporation Supplemental mouse button emulation system, method and apparatus for a coordinate based data input device
KR100269070B1 (ko) * 1996-08-30 2000-10-16 모리 하루오 차량용네비게이션장치
US5745116A (en) 1996-09-09 1998-04-28 Motorola, Inc. Intuitive gesture-based graphical user interface
US5936615A (en) 1996-09-12 1999-08-10 Digital Equipment Corporation Image-based touchscreen
US5819201A (en) 1996-09-13 1998-10-06 Magellan Dis, Inc. Navigation system with vehicle service information
JPH10124689A (ja) 1996-10-15 1998-05-15 Nikon Corp 画像記録再生装置
JP3625349B2 (ja) 1997-02-12 2005-03-02 株式会社東芝 画像入力装置および画像入力方法
US6144366A (en) 1996-10-18 2000-11-07 Kabushiki Kaisha Toshiba Method and apparatus for generating information input using reflected light image of target object
JP3943674B2 (ja) * 1996-10-25 2007-07-11 キヤノン株式会社 カメラ制御システム並びにカメラサーバ及びその制御方法
US5953469A (en) 1996-10-29 1999-09-14 Xeotron Corporation Optical device utilizing optical waveguides and mechanical light-switches
US6061177A (en) 1996-12-19 2000-05-09 Fujimoto; Kenneth Noboru Integrated computer display and graphical input apparatus and method
DE69626208T2 (de) 1996-12-20 2003-11-13 Hitachi Europ Ltd Verfahren und System zur Erkennung von Handgesten
IL130345A0 (en) 1996-12-25 2000-06-01 Elo Touchsystems Inc Grating transducer for acoustic touchscreen
US6252989B1 (en) 1997-01-07 2001-06-26 Board Of The Regents, The University Of Texas System Foveated image coding system and method for image bandwidth reduction
JP3624070B2 (ja) 1997-03-07 2005-02-23 キヤノン株式会社 座標入力装置及びその制御方法
US6122865A (en) * 1997-03-13 2000-09-26 Steelcase Development Inc. Workspace display
US5914709A (en) 1997-03-14 1999-06-22 Poa Sana, Llc User input device for a computer system
US6153836A (en) 1997-04-02 2000-11-28 Goszyk; Kurt A. Adjustable area coordinate position data-capture system
US6104387A (en) 1997-05-14 2000-08-15 Virtual Ink Corporation Transcription system
JP3876942B2 (ja) 1997-06-13 2007-02-07 株式会社ワコム 光デジタイザ
US6346966B1 (en) * 1997-07-07 2002-02-12 Agilent Technologies, Inc. Image acquisition system for machine vision applications
US5790910A (en) 1997-08-04 1998-08-04 Peerless Industries, Inc. Camera mounting apparatus
JPH11110116A (ja) 1997-08-07 1999-04-23 Fujitsu Ltd 光学式位置検出装置
EP0897161B1 (en) 1997-08-07 2007-10-10 Fujitsu Limited Optical scanning-type touch panel
JPH1164026A (ja) 1997-08-12 1999-03-05 Fujitsu Ten Ltd ナビゲーション装置
US6161066A (en) 1997-08-18 2000-12-12 The Texas A&M University System Advanced law enforcement and response technology
US6188939B1 (en) 1997-08-18 2001-02-13 The Texas A&M University System Advanced law enforcement and response technology
US20020036617A1 (en) 1998-08-21 2002-03-28 Timothy R. Pryor Novel man machine interfaces and applications
US6720949B1 (en) * 1997-08-22 2004-04-13 Timothy R. Pryor Man machine interfaces and applications
US6243074B1 (en) 1997-08-29 2001-06-05 Xerox Corporation Handedness detection for a physical manipulatory grammar
JP3846981B2 (ja) 1997-09-02 2006-11-15 富士通株式会社 光学式位置検出装置付き情報表示装置
US6072494A (en) 1997-10-15 2000-06-06 Electric Planet, Inc. Method and apparatus for real-time gesture recognition
EP1050010A1 (en) 1997-10-22 2000-11-08 Ascent Technology Inc. Voice-output reading system with gesture-based navigation
US6215477B1 (en) 1997-10-22 2001-04-10 Smart Technologies Inc. Touch sensitive display panel
CA2219886A1 (en) 1997-10-31 1999-04-30 Smart Technologies Inc. Method and system for interfacing applications software with electronic writeboard
JP3794180B2 (ja) 1997-11-11 2006-07-05 セイコーエプソン株式会社 座標入力システム及び座標入力装置
TW449709B (en) 1997-11-17 2001-08-11 Hewlett Packard Co A method for distinguishing a contact input
US6310610B1 (en) 1997-12-04 2001-10-30 Nortel Networks Limited Intelligent touch display
US7614008B2 (en) 2004-07-30 2009-11-03 Apple Inc. Operation of a computer with touch screen interface
KR100595925B1 (ko) 1998-01-26 2006-07-05 웨인 웨스터만 수동 입력 통합 방법 및 장치
JPH11212692A (ja) 1998-01-28 1999-08-06 Ricoh Co Ltd タッチパネル入力装置とグラフィカルユーザインタフェース方法
WO1999040562A1 (en) 1998-02-09 1999-08-12 Joseph Lev Video camera computer touch screen system
US6226035B1 (en) * 1998-03-04 2001-05-01 Cyclo Vision Technologies, Inc. Adjustable imaging system with wide angle capability
US6222175B1 (en) 1998-03-10 2001-04-24 Photobit Corporation Charge-domain analog readout for an image sensor
US6847737B1 (en) 1998-03-13 2005-01-25 University Of Houston System Methods for performing DAF data filtering and padding
CA2268208C (en) 1998-04-06 2011-06-14 Smart Technologies, Inc. Method for erasing on an electronic writeboard
US6031531A (en) 1998-04-06 2000-02-29 International Business Machines Corporation Method and system in a graphical user interface for facilitating cursor object movement for physically challenged computer users
CA2267733A1 (en) 1998-04-06 1999-10-06 Smart Technologies, Inc. Method for editing objects representing writing on an electronic writeboard
JP2000105671A (ja) 1998-05-11 2000-04-11 Ricoh Co Ltd 座標入力/検出装置および電子黒板システム
US6232962B1 (en) 1998-05-14 2001-05-15 Virtual Ink Corporation Detector assembly for use in a transcription system
JP4033582B2 (ja) 1998-06-09 2008-01-16 株式会社リコー 座標入力/検出装置および電子黒板システム
US6496122B2 (en) 1998-06-26 2002-12-17 Sharp Laboratories Of America, Inc. Image display and remote control system capable of displaying two distinct images
US6064354A (en) 1998-07-01 2000-05-16 Deluca; Michael Joseph Stereoscopic user interface method and apparatus
JP2000043484A (ja) * 1998-07-30 2000-02-15 Ricoh Co Ltd 電子黒板システム
WO2000011596A1 (en) * 1998-08-18 2000-03-02 Digital Ink, Inc. Handwriting device with detection sensors for absolute and relative positioning
US7057647B1 (en) 2000-06-14 2006-06-06 E-Watch, Inc. Dual-mode camera system for day/night or variable zoom operation
JP4016526B2 (ja) 1998-09-08 2007-12-05 富士ゼロックス株式会社 3次元物体識別装置
JP2000089913A (ja) 1998-09-08 2000-03-31 Gunze Ltd タッチパネル入力座標変換装置
US6570612B1 (en) * 1998-09-21 2003-05-27 Bank One, Na, As Administrative Agent System and method for color normalization of board images
DE19845030A1 (de) 1998-09-30 2000-04-20 Siemens Ag Bildsystem
US6972753B1 (en) 1998-10-02 2005-12-06 Semiconductor Energy Laboratory Co., Ltd. Touch panel, display device provided with touch panel and electronic equipment provided with display device
US6690357B1 (en) 1998-10-07 2004-02-10 Intel Corporation Input device using scanning sensors
US6731270B2 (en) 1998-10-21 2004-05-04 Luidia Inc. Piezoelectric transducer for data entry device
CA2252302C (en) 1998-10-30 2009-01-20 Smart Technologies Inc. Keyboard for an electronic writeboard and method
US6741267B1 (en) 1998-10-30 2004-05-25 Smart Technologies, Inc. Keyboard for an electronic writeboard and method
US6414673B1 (en) 1998-11-10 2002-07-02 Tidenet, Inc. Transmitter pen location system
DE19856007A1 (de) * 1998-12-04 2000-06-21 Bayer Ag Anzeigevorrichtung mit Berührungssensor
US6147678A (en) 1998-12-09 2000-11-14 Lucent Technologies Inc. Video hand image-three-dimensional computer interface with multiple degrees of freedom
US6633328B1 (en) 1999-01-05 2003-10-14 Steris Corporation Surgical lighting system with integrated digital video camera
US6335724B1 (en) 1999-01-29 2002-01-01 Ricoh Company, Ltd. Method and device for inputting coordinate-position and a display board system
JP2000222110A (ja) * 1999-01-29 2000-08-11 Ricoh Elemex Corp 座標入力装置
JP4043128B2 (ja) 1999-02-24 2008-02-06 富士通株式会社 光走査型タッチパネル
US6179426B1 (en) * 1999-03-03 2001-01-30 3M Innovative Properties Company Integrated front projection system
US6530664B2 (en) 1999-03-03 2003-03-11 3M Innovative Properties Company Integrated front projection system with enhanced dry erase screen configuration
US6545669B1 (en) 1999-03-26 2003-04-08 Husam Kinawi Object-drag continuity between discontinuous touch-screens
US7161616B1 (en) * 1999-04-16 2007-01-09 Matsushita Electric Industrial Co., Ltd. Image processing device and monitoring system
JP3481498B2 (ja) 1999-04-28 2003-12-22 日本航空電子工業株式会社 光学式タッチパネル
US6614422B1 (en) 1999-11-04 2003-09-02 Canesta, Inc. Method and apparatus for entering data using a virtual input device
JP3830121B2 (ja) * 1999-06-10 2006-10-04 株式会社 ニューコム 物体検出用光学ユニット及びそれを用いた位置座標入力装置
TW459192B (en) 1999-06-25 2001-10-11 Toshiba Corp Electronic apparatus and electronic system provided with the same
JP2001014091A (ja) * 1999-06-30 2001-01-19 Ricoh Co Ltd 座標入力装置
JP3986710B2 (ja) * 1999-07-15 2007-10-03 株式会社リコー 座標検出装置
JP2001060145A (ja) 1999-08-23 2001-03-06 Ricoh Co Ltd 座標入力/検出システムおよびその位置合わせ調整方法
JP4083941B2 (ja) 1999-09-03 2008-04-30 株式会社リコー 座標入力装置
JP3905670B2 (ja) 1999-09-10 2007-04-18 株式会社リコー 座標入力検出装置、情報記憶媒体及び座標入力検出方法
JP4094794B2 (ja) * 1999-09-10 2008-06-04 株式会社リコー 座標検出装置、情報記憶媒体および座標検出方法
JP4057200B2 (ja) 1999-09-10 2008-03-05 株式会社リコー 座標入力装置および座標入力装置の記録媒体
US6512838B1 (en) 1999-09-22 2003-01-28 Canesta, Inc. Methods for enhancing performance and data acquired from three-dimensional image systems
WO2001024157A1 (en) 1999-09-29 2001-04-05 James Loke Kie Chan A method and apparatus for detecting depression pressure in a stylus
WO2003007049A1 (en) * 1999-10-05 2003-01-23 Iridigm Display Corporation Photonic mems and structures
JP2003515800A (ja) 1999-10-27 2003-05-07 デジタル インク インコーポレーテッド 筆記用具の動きの追跡
JP4052498B2 (ja) 1999-10-29 2008-02-27 株式会社リコー 座標入力装置および方法
US6710770B2 (en) 2000-02-11 2004-03-23 Canesta, Inc. Quasi-three-dimensional method and apparatus to detect and localize interaction of user-object and virtual transfer device
JP3819654B2 (ja) * 1999-11-11 2006-09-13 株式会社シロク 指示体の識別機能を有する光デジタイザ
US6328270B1 (en) 1999-11-12 2001-12-11 Elbex Video Ltd. Swivel joint with cable passage for a television camera or a case
US6429857B1 (en) 1999-12-02 2002-08-06 Elo Touchsystems, Inc. Apparatus and method to improve resolution of infrared touch systems
JP2001184161A (ja) 1999-12-27 2001-07-06 Ricoh Co Ltd 情報入力方法、情報入力装置、筆記入力装置、筆記データ管理方法、表示制御方法、携帯型電子筆記装置および記録媒体
JP2001209487A (ja) * 2000-01-25 2001-08-03 Uw:Kk 筆跡通信システムおよび該システムで使用される筆跡入力装置及び筆跡表示装置
US6529189B1 (en) 2000-02-08 2003-03-04 International Business Machines Corporation Touch screen stylus with IR-coupled selection buttons
JP3881148B2 (ja) 2000-02-18 2007-02-14 株式会社リコー 座標検出用受光装置、座標入力/検出装置、電子黒板、装着位置検出方法及び記憶媒体
EP1128318A3 (en) 2000-02-21 2002-01-23 Cyberboard A/S Position detection device
JP3934846B2 (ja) 2000-03-06 2007-06-20 株式会社リコー 座標入力/検出装置、電子黒板システム、受光素子の位置ズレ補正方法及び記憶媒体
JP2001265516A (ja) 2000-03-16 2001-09-28 Ricoh Co Ltd 座標入力装置
JP2001282445A (ja) 2000-03-31 2001-10-12 Ricoh Co Ltd 座標入力/検出装置および情報表示入力装置
JP3834766B2 (ja) 2000-04-03 2006-10-18 独立行政法人科学技術振興機構 マンマシーン・インターフェース・システム
WO2001079981A1 (fr) 2000-04-14 2001-10-25 Fujitsu Limited Detecteur de position optique
US6624833B1 (en) 2000-04-17 2003-09-23 Lucent Technologies Inc. Gesture-based input interface system with shadow detection
US7084868B2 (en) 2000-04-26 2006-08-01 University Of Louisville Research Foundation, Inc. System and method for 3-D digital reconstruction of an oral cavity from a sequence of 2-D images
US7859519B2 (en) 2000-05-01 2010-12-28 Tulbert David J Human-machine interface
US6985937B1 (en) 2000-05-11 2006-01-10 Ensim Corporation Dynamically modifying the resources of a virtual server
US6864882B2 (en) 2000-05-24 2005-03-08 Next Holdings Limited Protected touch panel display system
EP1316055A4 (en) 2000-05-29 2006-10-04 Vkb Inc DEVICE FOR ENTERING VIRTUAL DATA AND METHOD FOR ENTERING ALPHANUMERIC AND OTHER DATA
USRE40368E1 (en) 2000-05-29 2008-06-10 Vkb Inc. Data input device
US6650318B1 (en) 2000-10-13 2003-11-18 Vkb Inc. Data input device
US6690397B1 (en) 2000-06-05 2004-02-10 Advanced Neuromodulation Systems, Inc. System for regional data association and presentation and method for the same
US6690363B2 (en) 2000-06-19 2004-02-10 Next Holdings Limited Touch panel display system
EP1739529B1 (en) 2000-07-05 2010-12-01 Smart Technologies ULC Camera-based touch system and method
US6803906B1 (en) * 2000-07-05 2004-10-12 Smart Technologies, Inc. Passive touch system and method of detecting user input
US7466843B2 (en) 2000-07-07 2008-12-16 Pryor Timothy R Multi-functional control and entertainment systems
US6531999B1 (en) 2000-07-13 2003-03-11 Koninklijke Philips Electronics N.V. Pointing direction calibration in video conferencing and other camera-based system applications
US7227526B2 (en) * 2000-07-24 2007-06-05 Gesturetek, Inc. Video-based image control system
JP3851763B2 (ja) * 2000-08-04 2006-11-29 株式会社シロク 位置検出装置、位置指示器、位置検出方法及びペンダウン検出方法
US6778207B1 (en) 2000-08-07 2004-08-17 Koninklijke Philips Electronics N.V. Fast digital pan tilt zoom video
JP4208394B2 (ja) 2000-08-09 2009-01-14 株式会社リコー 座標入力装置
US6747663B2 (en) 2000-08-24 2004-06-08 Sun Microsystems, Inc. Interpolating sample values from known triangle vertex values
NO311740B1 (no) 2000-09-11 2002-01-14 Tormod Njoelstad Tegne-, skrive- og peke-redskap for datamaskinbaserte presentasjoner og kontorarbeid
JP3793014B2 (ja) 2000-10-03 2006-07-05 キヤノン株式会社 電子源の製造装置、電子源の製造方法及び画像形成装置の製造方法
US7058204B2 (en) * 2000-10-03 2006-06-06 Gesturetek, Inc. Multiple camera control system
US20030046401A1 (en) * 2000-10-16 2003-03-06 Abbott Kenneth H. Dynamically determing appropriate computer user interfaces
US6774889B1 (en) 2000-10-24 2004-08-10 Microsoft Corporation System and method for transforming an ordinary computer monitor screen into a touch screen
US6518600B1 (en) 2000-11-17 2003-02-11 General Electric Company Dual encapsulation for an LED
US6590568B1 (en) 2000-11-20 2003-07-08 Nokia Corporation Touch screen drag and drop input technique
US6530702B2 (en) 2000-12-02 2003-03-11 Thomas H. S. Harris Operator supported remote camera positioning and control system
US7190348B2 (en) 2000-12-26 2007-03-13 International Business Machines Corporation Method for touchscreen data input
US6540679B2 (en) 2000-12-28 2003-04-01 Guided Therapy Systems, Inc. Visual imaging system for ultrasonic probe
US7914453B2 (en) 2000-12-28 2011-03-29 Ardent Sound, Inc. Visual imaging system for ultrasonic probe
CN100489881C (zh) 2001-01-08 2009-05-20 Vkb有限公司 数据输入装置和数据输入方法
JP3977018B2 (ja) 2001-02-07 2007-09-19 株式会社リコー 情報入力システム
US6741250B1 (en) * 2001-02-09 2004-05-25 Be Here Corporation Method and system for generation of multiple viewpoints into a scene viewed by motionless cameras and for presentation of a view path
TW487593B (en) 2001-02-09 2002-05-21 Sampo Technology Corp Remote-controlled toy car set with camera and rear view mirror
US7030861B1 (en) 2001-02-10 2006-04-18 Wayne Carl Westerman System and method for packing multi-touch gestures onto a hand
JP4639293B2 (ja) 2001-02-27 2011-02-23 オプテックス株式会社 自動ドアセンサ
CA2341918A1 (en) 2001-03-19 2002-09-19 Robert Sirotich Overhead projection system
US6540366B2 (en) * 2001-03-19 2003-04-01 Smart Technologies, Inc. Overhead projection system
JP4768143B2 (ja) * 2001-03-26 2011-09-07 株式会社リコー 情報入出力装置、情報入出力制御方法およびプログラム
GB2374266A (en) * 2001-04-04 2002-10-09 Matsushita Comm Ind Uk Ltd Virtual user interface device
JP4551018B2 (ja) 2001-04-05 2010-09-22 富士通株式会社 画像結合装置
US6738051B2 (en) * 2001-04-06 2004-05-18 3M Innovative Properties Company Frontlit illuminated touch panel
US6517266B2 (en) 2001-05-15 2003-02-11 Xerox Corporation Systems and methods for hand-held printing on a surface or medium
US6919880B2 (en) 2001-06-01 2005-07-19 Smart Technologies Inc. Calibrating camera offsets to facilitate object position determination using triangulation
CA2350152A1 (en) 2001-06-08 2002-12-08 Smart Technologies Inc. Camera-based system for capturing images of a target area
GB2378073B (en) 2001-07-27 2005-08-31 Hewlett Packard Co Paper-to-computer interfaces
US6927384B2 (en) 2001-08-13 2005-08-09 Nokia Mobile Phones Ltd. Method and device for detecting touch pad unit
US7202857B2 (en) 2001-08-29 2007-04-10 Microsoft Corporation Manual controlled scrolling
JP2003162370A (ja) 2001-09-14 2003-06-06 Ricoh Co Ltd 画像処理装置、タッチパネル付きディスプレイ装置、画像処理方法、および画像処理方法をコンピュータに実行させるプログラム
US7007236B2 (en) 2001-09-14 2006-02-28 Accenture Global Services Gmbh Lab window collaboration
JP2003173237A (ja) 2001-09-28 2003-06-20 Ricoh Co Ltd 情報入出力システム、プログラム及び記憶媒体
US7254775B2 (en) 2001-10-03 2007-08-07 3M Innovative Properties Company Touch panel system and method for distinguishing multiple touch inputs
JP3920067B2 (ja) 2001-10-09 2007-05-30 株式会社イーアイティー 座標入力装置
JP4032390B2 (ja) 2001-11-09 2008-01-16 ミネベア株式会社 タッチパネルアッセンブリー
JP2003167669A (ja) 2001-11-22 2003-06-13 Internatl Business Mach Corp <Ibm> 情報処理装置、プログラム及び座標入力方法
US7121470B2 (en) * 2002-01-11 2006-10-17 Hand Held Products, Inc. Transaction terminal having elongated finger recess
JP3805259B2 (ja) * 2002-01-29 2006-08-02 富士写真フイルム株式会社 画像処理方法、画像処理装置及び電子カメラ
US7091926B2 (en) 2002-02-08 2006-08-15 Kulas Charles J Computer display system using multiple screens
US6628216B2 (en) 2002-02-13 2003-09-30 Intersil Americas Inc. Calibration of resistor ladder using difference measurement and parallel resistive correction
CA2372868A1 (en) 2002-02-19 2003-08-19 Smart Technologies Inc. Method and system for cleaning images to highlight information recorded on a background surface
US7305115B2 (en) 2002-02-22 2007-12-04 Siemens Energy And Automation, Inc. Method and system for improving ability of a machine vision system to discriminate features of a target
JP2005535004A (ja) * 2002-03-27 2005-11-17 ネルコアー ピューリタン ベネット インコーポレイテッド 赤外線タッチフレームシステム
US20030210803A1 (en) 2002-03-29 2003-11-13 Canon Kabushiki Kaisha Image processing apparatus and method
US7038659B2 (en) 2002-04-06 2006-05-02 Janusz Wiktor Rajkowski Symbol encoding apparatus and method
US20040144760A1 (en) 2002-05-17 2004-07-29 Cahill Steven P. Method and system for marking a workpiece such as a semiconductor wafer and laser marker for use therein
JP2004005272A (ja) * 2002-05-31 2004-01-08 Cad Center:Kk 仮想空間移動制御装置及び制御方法並びに制御プログラム
US7499033B2 (en) 2002-06-07 2009-03-03 Smart Technologies Ulc System and method for injecting ink into an application
US20030226968A1 (en) 2002-06-10 2003-12-11 Steve Montellese Apparatus and method for inputting data
CA2390506C (en) 2002-06-12 2013-04-02 Smart Technologies Inc. System and method for recognizing connector gestures
CA2390503C (en) 2002-06-12 2010-08-17 Smart Technologies Inc. System and method for providing gesture suggestions to enhance interpretation of user input
US7283126B2 (en) 2002-06-12 2007-10-16 Smart Technologies Inc. System and method for providing gesture suggestions to enhance interpretation of user input
US7260257B2 (en) 2002-06-19 2007-08-21 Microsoft Corp. System and method for whiteboard and audio capture
US20040001144A1 (en) 2002-06-27 2004-01-01 Mccharles Randy Synchronization of camera images in camera-based touch system to enhance position determination of fast moving objects
US20040204129A1 (en) 2002-08-14 2004-10-14 Payne David M. Touch-sensitive user interface
JP2004078613A (ja) * 2002-08-19 2004-03-11 Fujitsu Ltd タッチパネル装置
WO2004034244A1 (en) * 2002-10-10 2004-04-22 Waawoo Technology Inc. Pen-shaped optical mouse
AU2003287176A1 (en) * 2002-10-18 2004-05-04 Bae Systems Information And Electronic Systems Integration Inc. Method and apparatus of using optical distortion in a directed countermeasure system to provide a variable field of view
US7160496B2 (en) * 2002-11-01 2007-01-09 Delphi Technologies, Inc. Thermoplastic compositions containing metal material
US6954197B2 (en) * 2002-11-15 2005-10-11 Smart Technologies Inc. Size/scale and orientation determination of a pointer in a camera-based touch system
US20040125086A1 (en) 2002-12-30 2004-07-01 Hagermoser Edward S. Touch input device having removable overlay
US6972401B2 (en) 2003-01-30 2005-12-06 Smart Technologies Inc. Illuminated bezel and touch system incorporating the same
US20040221265A1 (en) 2003-02-07 2004-11-04 Smart Technologies Inc. Connected and overlapped shapes enhancements
US7629967B2 (en) 2003-02-14 2009-12-08 Next Holdings Limited Touch screen signal processing
WO2004072843A1 (en) 2003-02-14 2004-08-26 Next Holdings Limited Touch screen signal processing
US7176905B2 (en) 2003-02-19 2007-02-13 Agilent Technologies, Inc. Electronic device having an image-based data input system
US20040169639A1 (en) 2003-02-28 2004-09-02 Pate Michael A. Visible pointer tracking with separately detectable pointer tracking signal
US7532206B2 (en) 2003-03-11 2009-05-12 Smart Technologies Ulc System and method for differentiating between pointers used to contact touch surface
US6947032B2 (en) 2003-03-11 2005-09-20 Smart Technologies Inc. Touch system and method for determining pointer contacts on a touch surface
US7665041B2 (en) 2003-03-25 2010-02-16 Microsoft Corporation Architecture for controlling a computer using hand gestures
US7256772B2 (en) 2003-04-08 2007-08-14 Smart Technologies, Inc. Auto-aligning touch system and method
US7133032B2 (en) 2003-04-24 2006-11-07 Eastman Kodak Company OLED display and touch screen
KR101033428B1 (ko) * 2003-05-19 2011-05-09 가부시키가이샤 시로쿠 에어리어 이미지 센서를 사용한 위치 검출 장치
AU2003304127A1 (en) 2003-05-19 2004-12-03 Itzhak Baruch Optical coordinate input device comprising few elements
US7432893B2 (en) 2003-06-14 2008-10-07 Massachusetts Institute Of Technology Input device based on frustrated total internal reflection
US20050012573A1 (en) * 2003-07-19 2005-01-20 Exh Inc. Method and apparatus for the conversion of rigid coaxial transmission line for broadband use.
US7190496B2 (en) 2003-07-24 2007-03-13 Zebra Imaging, Inc. Enhanced environment visualization using holographic stereograms
JP4125200B2 (ja) 2003-08-04 2008-07-30 キヤノン株式会社 座標入力装置
JP4405766B2 (ja) * 2003-08-07 2010-01-27 キヤノン株式会社 座標入力装置、座標入力方法
US20050052427A1 (en) 2003-09-10 2005-03-10 Wu Michael Chi Hung Hand gesture interaction with touch surface
US7411575B2 (en) 2003-09-16 2008-08-12 Smart Technologies Ulc Gesture recognition method and touch system incorporating the same
WO2005029172A2 (en) 2003-09-22 2005-03-31 Koninklijke Philips Electronics N.V. Touch input screen using a light guide
JP2005107607A (ja) 2003-09-29 2005-04-21 Eit:Kk 光学式位置検出装置
US7274356B2 (en) 2003-10-09 2007-09-25 Smart Technologies Inc. Apparatus for determining the location of a pointer within a region of interest
US7145766B2 (en) 2003-10-16 2006-12-05 Hewlett-Packard Development Company, L.P. Display for an electronic device
US7265748B2 (en) * 2003-12-11 2007-09-04 Nokia Corporation Method and device for detecting touch pad input
JP2005182423A (ja) 2003-12-19 2005-07-07 Totoku Electric Co Ltd 座標入力装置
US7355593B2 (en) 2004-01-02 2008-04-08 Smart Technologies, Inc. Pointer tracking across multiple overlapping coordinate input sub-regions defining a generally contiguous input region
US7265752B2 (en) 2004-01-09 2007-09-04 Microsoft Corporation Multi-chart geometry images
US7232986B2 (en) * 2004-02-17 2007-06-19 Smart Technologies Inc. Apparatus for detecting a pointer within a region of interest
US7460110B2 (en) 2004-04-29 2008-12-02 Smart Technologies Ulc Dual mode touch system
US7687736B2 (en) 2004-04-29 2010-03-30 Smart Technologies Ulc Tensioned touch panel and method of making same
US7218444B2 (en) * 2004-05-03 2007-05-15 Raytheon Company Dual-band, dual-focal-length, relayed refractive imager
US7492357B2 (en) 2004-05-05 2009-02-17 Smart Technologies Ulc Apparatus and method for detecting a pointer relative to a touch surface
US7538759B2 (en) * 2004-05-07 2009-05-26 Next Holdings Limited Touch panel display system with illumination and detection provided from a single edge
US7178947B2 (en) 2004-06-04 2007-02-20 Dale Marks Lighting device with elliptical fresnel mirror
US7372456B2 (en) 2004-07-07 2008-05-13 Smart Technologies Inc. Method and apparatus for calibrating an interactive touch system
JP4442877B2 (ja) * 2004-07-14 2010-03-31 キヤノン株式会社 座標入力装置およびその制御方法
US20080129707A1 (en) 2004-07-27 2008-06-05 Pryor Timothy R Method and apparatus employing multi-functional controls and displays
FR2874300B1 (fr) 2004-08-11 2006-11-24 Renault Sas Procede de calibration automatique d'un systeme de stereovision
US7619616B2 (en) 2004-12-21 2009-11-17 Microsoft Corporation Pressure sensitive controls
US7559664B1 (en) 2004-12-27 2009-07-14 John V. Walleman Low profile backlighting using LEDs
TWI259409B (en) 2005-01-07 2006-08-01 Au Optronics Corp Touch panel for recognizing fingerprint and method of making the same
US20060158437A1 (en) 2005-01-20 2006-07-20 Blythe Michael M Display device
US7800594B2 (en) 2005-02-03 2010-09-21 Toshiba Matsushita Display Technology Co., Ltd. Display device including function to input information from screen by light
US7261388B2 (en) 2005-02-28 2007-08-28 Hewlett-Packard Development Company, L.P. Error reduction by print masks
US7696987B2 (en) 2005-03-04 2010-04-13 Smart Technologies Ulc Touch panel and method of manufacturing the same
EP1859339A2 (en) 2005-03-10 2007-11-28 Koninklijke Philips Electronics N.V. System and method for detecting the location, size and shape of multiple objects that interact with a touch screen display
CA2501214A1 (en) 2005-03-18 2006-09-18 Smart Technologies Inc. Overhead projection system
US7705835B2 (en) 2005-03-28 2010-04-27 Adam Eikman Photonic touch screen apparatus and method of use
US7499037B2 (en) * 2005-03-29 2009-03-03 Wells Gardner Electronics Corporation Video display and touchscreen assembly, system and method
JP4455392B2 (ja) * 2005-04-15 2010-04-21 キヤノン株式会社 座標入力装置及びその制御方法、プログラム
US8487910B2 (en) 2005-05-02 2013-07-16 Smart Technologies Ulc Large scale touch system and methods for interacting with same
EP1907918A2 (en) 2005-07-05 2008-04-09 O-Pen ApS A touch pad system
US20070019103A1 (en) * 2005-07-25 2007-01-25 Vkb Inc. Optical apparatus for virtual interface projection and sensing
EP1915600A4 (en) 2005-08-19 2011-06-22 Silverbrook Res Pty Ltd ELECTRONIC PEN WITH FORCE REDIRECTION COUPLING
US8847924B2 (en) 2005-10-03 2014-09-30 Hewlett-Packard Development Company, L.P. Reflecting light
US7599520B2 (en) 2005-11-18 2009-10-06 Accenture Global Services Gmbh Detection of multiple targets on a plane of interest
US20070125652A1 (en) 2005-12-02 2007-06-07 Buckley Paul W Electroform, methods of making electroforms, and products made from electroforms
TWI333572B (en) 2005-12-20 2010-11-21 Ind Tech Res Inst Light source package structure
US7812826B2 (en) 2005-12-30 2010-10-12 Apple Inc. Portable electronic device with multi-touch input
US20070165007A1 (en) 2006-01-13 2007-07-19 Gerald Morrison Interactive input system
US20070205994A1 (en) 2006-03-02 2007-09-06 Taco Van Ieperen Touch system and method for interacting with the same
JP4518092B2 (ja) 2006-03-31 2010-08-04 ソニー株式会社 物体認識装置、物体認識方法、物体認識プログラム、特徴量登録装置、特徴量登録方法、及び特徴量登録プログラム
WO2007132033A1 (es) 2006-05-17 2007-11-22 Smart Technology, S.A. Sistema de detección, guiado o seguimiento de dispositivos o personas
US7984995B2 (en) 2006-05-24 2011-07-26 Smart Technologies Ulc Method and apparatus for inhibiting a subject's eyes from being exposed to projected light
TW200803482A (en) 2006-06-01 2008-01-01 Micro Nits Co Ltd Image processing method of indicator input system
US7307801B1 (en) * 2006-06-07 2007-12-11 The Boeing Company Dual field of view lens system
KR20110059776A (ko) * 2006-06-09 2011-06-03 애플 인크. 터치 스크린 액정 디스플레이
US7333094B2 (en) * 2006-07-12 2008-02-19 Lumio Inc. Optical touch screen
US7333095B1 (en) * 2006-07-12 2008-02-19 Lumio Inc Illumination for optical touch panel
US7302156B1 (en) 2006-07-12 2007-11-27 Lumio Inc. Optical system
US8441467B2 (en) * 2006-08-03 2013-05-14 Perceptive Pixel Inc. Multi-touch sensing display through frustrated total internal reflection
TWI355631B (en) * 2006-08-31 2012-01-01 Au Optronics Corp Liquid crystal display with a liquid crystal touch
TWI354962B (en) * 2006-09-01 2011-12-21 Au Optronics Corp Liquid crystal display with a liquid crystal touch
US8564544B2 (en) * 2006-09-06 2013-10-22 Apple Inc. Touch screen device, method, and graphical user interface for customizing display of content category icons
TW200818603A (en) * 2006-10-05 2008-04-16 Advanced Connectek Inc Coupled multi-band antenna
US8094129B2 (en) 2006-11-27 2012-01-10 Microsoft Corporation Touch sensing using shadow and reflective modes
US7268692B1 (en) 2007-02-01 2007-09-11 Lumio Inc. Apparatus and method for monitoring hand propinquity to plural adjacent item locations
WO2008128096A2 (en) 2007-04-11 2008-10-23 Next Holdings, Inc. Touch screen system with hover and click input methods
US8325154B2 (en) 2007-04-20 2012-12-04 Pixart Imaging Incorporation Optical touch control apparatus and method thereof
US20080259050A1 (en) 2007-04-20 2008-10-23 Pixart Imaging Incorporation Optical touch control apparatus and method thereof
US8094948B2 (en) * 2007-04-27 2012-01-10 The Regents Of The University Of California Photo classification using optical parameters of camera from EXIF metadata
CA2697856A1 (en) 2007-08-30 2009-03-05 Next Holdings, Inc. Low profile touch panel systems
CN101802760B (zh) * 2007-08-30 2013-03-20 奈克斯特控股有限公司 具有改进照明的光学触摸屏
US8716614B2 (en) * 2007-10-10 2014-05-06 Flatfrog Laboratories Ab Touch pad and a method of operating the touch pad
CA2726877A1 (en) 2008-06-05 2009-12-10 Smart Technologies Ulc Multiple pointer ambiguity and occlusion resolution
US8339378B2 (en) 2008-11-05 2012-12-25 Smart Technologies Ulc Interactive input system with multi-angle reflector
US20100309169A1 (en) * 2009-06-03 2010-12-09 Lumio Inc. Optical Touch Screen with Reflectors
US8692768B2 (en) * 2009-07-10 2014-04-08 Smart Technologies Ulc Interactive input system
TWI417774B (zh) * 2010-06-28 2013-12-01 Pixart Imaging Inc 光學距離判斷裝置、光學觸控螢幕系統及光學觸控測距之方法

Also Published As

Publication number Publication date
US9442607B2 (en) 2016-09-13
EP2089791B1 (en) 2012-08-22
BRPI0720076A2 (pt) 2013-12-24
NZ577064A (en) 2012-05-25
US20080129700A1 (en) 2008-06-05
CN101627356B (zh) 2013-01-16
EP2089791A1 (en) 2009-08-19
WO2008067660A1 (en) 2008-06-12
CN101627356A (zh) 2010-01-13
CA2670357A1 (en) 2008-06-12
CA2670357C (en) 2016-10-04
AU2007329152B2 (en) 2012-04-12
MX2009005943A (es) 2009-06-19
AU2007329152A1 (en) 2008-06-12
EP2089791A4 (en) 2010-09-08
RU2009125556A (ru) 2011-01-20
ZA200903799B (en) 2010-08-25
KR20090085160A (ko) 2009-08-06
JP2010511945A (ja) 2010-04-15

Similar Documents

Publication Publication Date Title
ES2394587T3 (es) Sistema de ingreso interactivo y método
ES2392228T3 (es) Sistema táctil de alineación automática y método correspondiente
ES2340945T3 (es) Procedimiento para un sistema tactil basado en camaras.
US7492357B2 (en) Apparatus and method for detecting a pointer relative to a touch surface
US20120068974A1 (en) Optical Position Detection Apparatus
JP2005107607A (ja) 光学式位置検出装置
US20120113062A1 (en) Display with an optical sensor
KR20060096182A (ko) 에어리어 이미지 센서를 사용한 위치 검출 장치
JPS59211128A (ja) 光学的位置検出装置
US20110074738A1 (en) Touch Detection Sensing Apparatus
US20110115904A1 (en) Object-detecting system
JP4054847B2 (ja) 光デジタイザ
US20120120030A1 (en) Display with an Optical Sensor
US20120105374A1 (en) Touch device and touch method
US10037107B2 (en) Optical touch device and sensing method thereof
TWI498790B (zh) 多點觸控系統與多點觸控訊號處理方法
JP3349818B2 (ja) 座標検出装置
JP2013191005A (ja) デジタイザ装置
JP3085482U (ja) 入力装置
JP2010079818A (ja) イメージセンサを用いた位置検出装置
JP2023006167A (ja) 空中映像表示装置
TWI423095B (zh) 利用不同時形成的光域之物體偵測系統及方法
TWM409651U (en) Image reading module