BRPI0706531A2 - sistema de entrada interativo - Google Patents

sistema de entrada interativo Download PDF

Info

Publication number
BRPI0706531A2
BRPI0706531A2 BRPI0706531-0A BRPI0706531A BRPI0706531A2 BR PI0706531 A2 BRPI0706531 A2 BR PI0706531A2 BR PI0706531 A BRPI0706531 A BR PI0706531A BR PI0706531 A2 BRPI0706531 A2 BR PI0706531A2
Authority
BR
Brazil
Prior art keywords
pointer
input system
interactive input
data
receiver
Prior art date
Application number
BRPI0706531-0A
Other languages
English (en)
Inventor
Gerald Morrison
Trevor Akitt
Vaughn Edward Keenan
Original Assignee
Smart Technologies Ulc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Smart Technologies Ulc filed Critical Smart Technologies Ulc
Publication of BRPI0706531A2 publication Critical patent/BRPI0706531A2/pt

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/042Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
    • G06F3/0428Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means by sensing at the edges of the touch surface the interruption of optical paths, e.g. an illumination plane, parallel to the touch surface which may be virtual
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/042Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0354Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0354Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
    • G06F3/03545Pens or stylus

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Position Input By Displaying (AREA)
  • Studio Devices (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

SISTEMA DE ENTRADA INTERATIVO. Um sistema de entrada interativo compreende pelo menos dois dispositivos de formação de imagem associados a uma região de interesse. Pelo menos dois dispositivos de formação de imagem adquirem imagens da região de interesse a partir de localizações diferentes e têm campos de visão sobrepostos. Pelo menos um receptor é operável para receber dados extraídos por um ponteiro ativo, quando o ponteiro estiver dentro e fora dos campos de visão dos dispositivos de formação de imagem. Uma estrutura de processador processa dados adquiridos por pelo menos dois dispositivos de formação de imagem e pelo menos um receptor para a detecção da existência de um ponteiro ativo e para determinação da localização do ponteiro dentro da região de interesse

Description

SISTEMA DE ENTRADA INTERATIVO
Referência Cruzada a Pedidos Relacionados
Este pedido está relacionado ao Pedido de Patente U.S.N0 10/312.983, depositado em 7 de setembro de 2004,intitulado "Camera-Based Touch System", o qual estárelacionado ao Pedido de Patente U.S. N° 09/610.481,depositado em 5 de julho de 2 000, agora Patente U.S. N06.803.906, cujos conteúdos são incorporados aqui comoreferência.
Campo da Invenção
A presente invenção se refere geralmente a sistemas deentrada e, em particular, a um sistema de entradainterativo.
Antecedentes da Invenção
Sistemas de entrada interativos são bem conhecidos natécnica e, tipicamente, incluem uma tela de toque que temuma superfície de toque na qual contatos são feitos usando-se um ponteiro, de modo a se gerar uma entrada de usuário.
Os contatos de ponteiro com a superfície de toque sãodetectados e são usados para a geração de uma saídacorrespondente, dependendo das áreas da superfície de toqueem que os contatos forem feitos. Os sistemas de toquecomuns utilizam uma visão analógica resistiva,eletromagnética, capacitiva, acústica ou de máquina para aidentificação de instruções de ponteiro com a superfície detoque.
Por exemplo, o Pedido de Patente U.S. N0 10/312.983 deMorrison et al. mostra um sistema de toque baseado emcâmera que compreende uma tela de toque que inclui umasuperfície de toque passiva na qual se pretende que umaimagem gerada em computador seja mostrada. Um biselretangular ou quadro circunda a superfície de toque esuporta câmeras digitais em seus cantos. As câmerasdigitais têm campos de visão sobrepostos que envolvem eolham através da superfície de toque. As câmeras digitaisadquirem imagens a partir de localizações diferentes egeram dados de imagem. Os dados de imagem adquiridos pelascâmeras digitais são processados por processadores de sinaldigital para se determinar se existe um ponteiro nos dadosde imagem capturados. Quando é determinado que existe umponteiro nos dados de imagem capturados, os processadoresde sinal digital levam os dados característicos de ponteiropara um controlador mestre, o qual, por sua vez, processaos dados característicos de ponteiro para a determinação dalocalização do ponteiro em coordenadas (x, y) em relação àsuperfície de toque, usando triangulação. Os dados decoordenada de ponteiro são levados para um computadorexecutando um ou mais programas aplicativos. 0 computadorusa os dados de coordenada de ponteiro para atualização daimagem gerada em computador que é apresentada na superfíciede toque. Os contatos de ponteiro na superfície de toque,portanto, podem ser gravados como escrita ou desenho ouusados para controle da execução de programas aplicativosexecutados pelo computador.
0 pedido de Patente U.S. N° 10/838.536 de Morrison etal mostra ainda um outro sistema de toque baseado emcâmera. Este sistema de toque compreende uma superfície detoque geralmente retangular que compreende pelo menos doisdispositivos de formação de imagem espaçados tendo camposde visão sobrepostos envolvendo a superfície de toque. Osdispositivos de formação de imagem vêem a superfície detogue em três dimensões como uma vista em perspectiva com avista no mínimo incluindo os quatro cantos da superfície detoque. Os dispositivos de formação de imagem adquiremimagens sobrepostas a partir de localizações diferentes. Umprocessador recebe e processa os dados de imagem geradosprocessador pelo menos um dos dispositivos de formação deimagem para determinar a localização do ponteiro em relaçãoà superfície de toque usando triangulação.
Os sistemas de toque baseados em câmera descritosacima são particularmente adequados para uso com umponteiro passivo, tal como um dedo ou um cilindro dematerial, embora ponteiros possam ser usados. Em ambientesde luz baixa, quando um ponteiro passivo é usado, um biseliluminado, tal como aquele descrito no pedido de PatenteU.S. N0 10/354.168 de Akitt et al. , agora Patente U.S. N06.972.401, pode ser empregado para circundar a superfíciede toque e prover uma iluminação traseira adequada paramelhoria da detecção do ponteiro passivo.
Os sistemas de toque projetados para uso com ponteirosativos também são bem conhecidos. Por exemplo, a PatenteU.S. N0 6.52 9.18 9 de Colgan et al. mostra uma caneta detela de toque com botões de seleção acoplados de IR. Acaneta é sem fio e inclui um emissor de infravermelho paracomunicação com um receptor associado a um computador. Acaneta é provida com botões de apertar próximo de suaponta, que podem ser atuados por um usuário no decorrer doapontamento da caneta em uma localização de tela de toque.As atuações combinadas de tela de toque e uma atuaçãoconcorrente de um ou mais dos botões de apertar permite queuma entrada de mouse no computador seja realizada.
Embora os sistemas de toque acima sejam satisfatórios,melhoramentos nos sistemas de entrada interativos sãodesejados. Portanto, é um objeto da presente invençãoprover um sistema de entrada interativo inovador.
Sumário da Invenção
De acordo com um aspecto, é provido um sistema deentrada interativo que compreende:
pelo menos dois dispositivos de formação de imagemassociados a uma região de interesse, pelo menos doisreferidos dispositivos de formação de imagem adquirindoimagens da referida região de interesse a partir delocalizações diferentes e tendo campos de visãosobrepostos;
pelo menos um receptor operável para receber uma saídade dados por um ponteiro ativo, quando o referido ponteiroestiver dentro e fora dos campos de visão dos referidosdispositivos de formação de imagem; e
uma estrutura de processador processando dadosadquiridos por pelo menos dois referidos dispositivos deformação de imagem e pelo menos um referido receptor para adetecção da existência de um ponteiro ativo e para adeterminação da localização do referido ponteiro nareferida região de interesse.
De acordo com um outro aspecto, é provido um sistemade exibição interativo baseado em câmera, que compreende:
um visor;
uma região de interesse na frente do referido visor;pelo menos dois dispositivos de gravação óticosadquirindo imagens da referida região de interesse a partirde localizações diferentes e tendo campos de visãosobrepostos;
pelo menos um receptor operável para receber os dadosextraídos por um ponteiro ativo, quando o referido ponteiroestiver dentro e fora dos campos de visão dos referidosdispositivos de gravação óticos; e
uma estrutura de processamento que recebe e processadados adquiridos por pelo menos dois referidos dispositivosde gravação óticos e pelo menos um referido receptor para adetecção da existência de um ponteiro e para a determinaçãoda localização do referido ponteiro na referida região deinteresse.
Breve Descrição dos Desenhos
As modalidades serão descritas, agora, maisplenamente, com referência aos desenhos associados, nosquais:
a Figura 1 é um diagrama esquemático de um sistema deentrada interativo baseado em câmera;
a Figura 2 é um diagrama de blocos esquemático de umponteiro ativo;
a Figura 3 é um sinal de portadora de IR moduladoextraído pelo ponteiro ativo da Figura 2;
a Figura 4 é um diagrama esquemático de uma porção dosistema de entrada interativo da Figura 1, mostrando aslinhas de visão de receptores de IR para um ponteiro ativoadjacente a uma superfície de toque; e
a Figura 5 é um outro diagrama esquemático de umaporção do sistema de entrada interativo da Figura 1mostrando a linha de visão de cada receptor de IR para umponteiro ativo posicionado remoto da superfície de toque.Descrição Detalhada das Modalidades
Voltando-nos, agora, para a Figura 1, um sistema deentrada interativo baseado em câmera é mostrado e éidentificado, geralmente, pelo número de referência 50.Conforme pode ser visto, o sistema de toque 50 inclui umatela de toque 52 que tem uma superfície de toque 54 quedefine uma região de interesse na qual contatos de ponteirosão para serem feitos. Nesta modalidade, a tela de toque 52é a superfície geralmente plana de um dispositivo deexibição de tela plana, tal como, por exemplo, umdispositivo de exibição de LCD, plasma, HDTV ou outro detelevisão. Um conjunto de sensor 56 se estende ao longo deum lado da tela de toque 52. O conjunto de sensor 56 incluiuma valência 58 presa a uma borda lateral da tela de toque52. As câmeras digitais 60 são posicionadas adjacentes aextremidades opostas da valência 58. Os campos de visão dascâmeras digitais 60 se sobrepõem pela área ativa inteira dasuperfície de toque 54, de modo que contatos de ponteirofeitos na superfície de toque possam ser visualmentedetectados.
Um receptor de infravermelho (IR) 62 é posicionadoadjacente a e se comunica com uma câmera digital associada60. Cada receptor de IR 62 é similar àqueles encontrados emeletrônicos de conexão e compreende um detector de IR delente acoplado a um amplificador de ganho controlado. Ascâmeras digitais 60 são acopladas a um computador ou a umoutro dispositivo de processamento adequado 64 através deum barramento de dados de alta velocidade 66, tal como, porexemplo, um USB-2. O computador 64 executa um ou maisprogramas aplicativos e provê uma saída de exibição que évisível na tela de toque 52. A tela de toque 52, ocomputador 64 e o dispositivo de exibição formam um laçofechado, de modo que os contatos de ponteiro na tela detoque 52 possam ser gravados como escrita ou desenho ouusados para controle da execução de programas aplicativosexecutados pelo computador 64.
Cada câmera digital 60 inclui um sensor de imagem deCMOS bidimensional e um conjunto de lente associado e umdispositivo de processamento on-board, tal como umprocessador de sinal digital (DSP) ou um outro dispositivode processamento. Conforme será apreciado, as câmerasdigitais são similares àquelas descritas no Pedido dePatente U.S. N0 10/312.983. O sensor de imagem éconfigurado para a captura de imagens por uma faixa amplade taxas de quadro de até 200 quadros por segundo.
Nesta modalidade, um ponteiro ativo 7 0 é usado parainteragir com a superfície de toque 54. Conforme mostradona Figura 2, o ponteiro ativo 70 inclui um corpo deponteiro 72 que tem uma ponta 74 em uma extremidadeprojetada para ser colocada em contato com a superfície detoque. Uma roda de rolagem 80, um comutador de seleção decor 82 e um ou mais controles de ponteiro 84, tais como,por exemplo, um botão de clique de mouse direito, um botãode ajuda, um botão seletor de caneta de tinta e botões deresposta de múltipla escolha ou votação (bom para ambientesde sala de aula/ensino) , são providos no corpo de ponteiro72. Um microcontrolador 90 é disposto no corpo de ponteiro72 e se comunica com a roda de rolagem 80, o comutador deseleção de cor 82 e outros controles de ponteiro 84. 0microcontrolador 90 recebe potência a partir de uma bateriarecarregável 92 que também é acomodada no corpo de ponteiro72. Um transdutor de força 94 no corpo de ponteiro 72 provêuma entrada para o microcontrolador 90, quando o ponteirofor colocado em contato com a superfície de toque. Umtransmissor de infravermelho (IR) 96 na forma de um diodoemissor de luz (LED) de IR circundado por um difusor 98também é provido na ponta do corpo de ponteiro 72.
A operação geral do sistema de toque 50 será descrita,agora. Cada câmera digital 60 adquire imagens aparecendoatravés da câmera digital 60 em seu campo de visão a umataxa de quadro desejada. Quando o ponteiro 7 0 é colocado emcontato com a superfície de toque 54 com força suficientepara atuação do transdutor de força 94, o microcontrolador90 energiza o transmissor de IR 96 na ponta 74, desse modofazendo com que o ponteiro 70 se ilumine. Em particular,quando o transmissor de IR 96 é energizado, outro de IRextrai um sinal de portadora de IR. Assim, conforme ascâmeras digitais 60 capturam imagens aparecendo através dasuperfície de toque 54, a ponta de ponteiro iluminada 74aparece como um ponto brilhante de iluminação contra umfundo escuro.
Além disso, mediante uma atuação do transdutor deforça 94, como resultado de um contato de ponteiro sobre asuperfície de toque 54, o microcontrolador 90 modula osinal de portadora de IR extraído pelo braço 92, de modoque o sinal de portadora de IR modulado porte dadossignificando a condição do ponteiro para baixo. O sinal deportadora de IR é suficientemente forte para permitir queele seja adquirido pelos receptores de IR 62. O nível dedeslocamento DC do sinal de portadora de IR também ésuficiente para garantir que energia ótica suficiente sejarecebida pelas câmeras digitais 60, durante um contato deponteiro com a superfície de toque, para a detecção deforma confiável do ponteiro iluminado na taxa de quadro decâmera selecionada e na distância de ponteiro máxima apartir das câmeras digitais 60, conforme mostrado na Figura3. Usando-se este esquema, as câmeras digitais 60 verão umailuminação constante do ponteiro 70, quando estiver emcontato com a superfície de toque 54.
Quando os receptores de IR 62 recebem o sinal deportadora de IR modulado extraído pelo ponteiro 70, osamplif icadores dos receptores de IR 62, os quais estãosintonizados na freqüência do sinal de portadora de IR,decodificam o sinal de portadora de IR modulado. Destamaneira, os dados concretizados no sinal de portadora de IRsão extraídos e são tirados como uma transmissão contínuade dados para o DSP de cada câmera digital 60.
O DSP de cada câmera digital 60 sincroniza os dadosrecebidos a partir do receptor de IR 62 com os dados deimagem adquiridos, comprime os dados e transmite os dadospara o computador 64 através do enlace de alta velocidade66. Mediante o recebimento dos dados, o computador 64processa os dados extraídos pelos receptores de IR 62 paraverificar que um evento de ponteiro para baixo ocorreu. Umavez que o evento de ponteiro para baixo tenha sidoverificado, o computador 64 processa as imagens capturadaspara a determinação da localização do ponteiro 70.
Durante um processamento de imagens capturadas, se umponteiro estiver nas imagens adquiridas e a condição deponteiro para baixo tiver sido verificada, as imagens serãoprocessadas pelo computador 64 para a geração de dadoscaracterísticos identificando a posição de ponteiro nasimagens adquiridas. Os dados característicos de ponteiroentão são usados pelo computador 64 para a determinação dalocalização do ponteiro em coordenadas (x, y) , usando-setriangulação. Em particular, as imagens são processadaspelo computador 64 de uma maneira similar àquela descritano pedido de Patente U.S. N0 10/294.917 de Morrison et al. ,cedido à SMART Technologies Inc., cessionária do presentepedido, cujo conteúdo é incorporado como referência. Destamaneira, uma caixa de delimitação circundando o contato deponteiro na superfície de toque 54 é determinada,permitindo que a localização do ponteiro em coordenadas (x,y) seja calculada. Os dados de posição de ponteiro sãogravados como escrita ou desenho, se o contato de ponteirofor um evento de escrita ou for injetado no programaaplicativo ativo sendo rodado no computador 64, se ocontato de ponteiro for um evento de mouse. 0 computador 64também atualiza uma saída portada para o dispositivo deexibição, de modo que a imagem visível na superfície detoque 54 reflita uma atividade de ponteiro. Conforme seráapreciado, de modo que as imagens sejam processadas, dadosde ponteiro para baixo devem ser recebidos. Desta maneira,os engodos de ponteiro aparecendo em imagens adquiridaspodem ser resolvidos e desconsiderados.
Quando um evento de ponteiro para cima ocorre, omicrocontrolador 90 modula o sinal de portadora de IR demodo que ele porte dados significando a condição deponteiro para cima. Em resposta ao recebimento de dadosrepresentando a condição de ponteiro para cima, ocomputador 64 limpa a condição de ponteiro para baixoimpedindo imagens de serem processadas até o próximo eventode ponteiro para baixo ocorrer e ser verificado. Conformeserá apreciado, isto melhora adicionalmente a capacidade dosistema 50 de resolver e desconsiderar engodos de ponteiroaparecendo nas imagens adquiridas.
Quando o computador 64 recebe dados das câmerasdigitais 60 e uma condição de ponteiro para baixo não foiverificada, as imagens não são processadas para detecção daexistência e da localização de um ponteiro, a menos que obotão de pairar no ponteiro 7 0 tenha sido pressionado.Neste caso, uma atuação do botão de pairar resulta em dadosde pairar serem usados para modulação do sinal de portadorade IR. Como resultado, os dados de pairar são recebidospelo computador 64 com os dados de imagem. Em resposta aosdados de pairar, o computador 64 processa as imagens para adeterminação da localização de ponteiro.
Em outros casos, quando os dados gerados pelosreceptores de IR 62 são processados pelo computador 64, demodo que as funções apropriadas sejam invocadas, tais comorolagem, ajuste de caneta de tinta, etc. Em particular,quando uma entrada de usuário é gerada através da atuaçãoda roda de rolagem 80, do comutador de seleção de cor 82 oude outros controles de ponteiro 84, o microcontrolador 90modula o sinal de portadora de IR de modo que inclua dadosrepresentando a entrada de usuário. Além dos dadosrepresentando a entrada de usuário, o microcontrolador 90também modula o sinal de portadora de IR para incluir dadosrepresentando a força aplicada à superfície de toque 54,usando-se o ponteiro 70, bem como dados representando ostatus da bateria 92. Isto permite que a espessura de linhaseja variada com base na força aplicada durante eventos deescrita e permite que uma exibição em tela visual da vidade bateria de ponteiro seja provida.
Embora o comutador de seleção de cor 82 possa serselecionado em qualquer momento, os dados representando acor selecionada são extraídos apenas pelo ponteiro quando oponteiro 70 estiver em contato com a superfície de toque54. Assim, mudanças de cor ocorrem apenas durante eventosde escrita. Por outro lado, como a roda de rolagem 80 estáativa independentemente de o ponteiro 7 0 estar em contatocom a superfície de toque 54, comandos de rolagem podem serextraídos pelo ponteiro 70, mesmo quando o ponteiro estiverremoto da superfície de toque e fora dos campos de visãodas câmeras digitais 60. Para se permitir essa operação, oscampos de visão dos receptores de IR 62 são suficientementelargos para detectarem um sinal de portadora de IR extraídodo ponteiro 70, quando o ponteiro estiver próximo dasuperfície de toque 54, conforme mostrado na Figura 4, bemcomo quando o ponteiro 70 estiver remoto da superfície detoque 54, conforme mostrado na Figura 5. No cenáriomostrado na Figura 5, nas posições de ponteiro AeB,apenas um dos receptores de IR 62 recebe o sinal deportadora de IR extraído do ponteiro 70.
Embora o sistema de toque 50 tenha sido descrito comoincluindo um dispositivo de exibição para a provisão deimagens que são visíveis na superfície de toque 54, aquelesde conhecimento na técnica apreciarão que o dispositivo deexibição não é requerido. Também, ao invés de ser umdispositivo de exibição de tela plana, o dispositivo deexibição pode ser um projetor dianteiro ou traseiroprojetando imagens sobre a superfície de toque, um monitorde vídeo sobre o qual a tela de toque 52 é colocada, ou umoutro dispositivo que apresente uma imagem que seja visívelquando se olhar para a superfície de toque 54. Também, asuperfície de toque 54 não precisa ser retangular. De fato,a tela de toque pode ser virtualmente qualquer superfíciebasicamente de qualquer formato, tal como, por exemplo, umtopo de mesa, uma superfície de parede, etc.
Embora câmeras digitais similares àquelas no Pedido dePatente U.S. N0 10/312.983 sejam descritas, será apreciadoque outros dispositivos de formação de imagem ou gravaçãoótica podem ser usados para a aquisição de imagenssobrepostas da região de interesse. Por exemplo, as câmeraspodem ser dispositivos de formação de imagem independentes,tais como aqueles mostrados no Pedido de Patente U.S. N010/838.536 de Morrison et al. Neste caso, as câmeras têmcampos de visão sobrepostos envolvendo um volume deinteresse. Como as câmeras são independentes, a necessidadede valência não é requerida. Também será apreciado que osreceptores de IR podem ser integrados nos dispositivos decâmera.
Embora o computador 64 seja descrito como processandoos dados de imagem, aqueles de conhecimento na técnicaapreciarão que as capacidades de processamento on-board dascâmeras digitais pode ser usada para se lidar com parte outodo o processamento de imagem.
Na modalidade discutida acima, as câmeras digitais sãodescritas como se comunicando com o computador 64 atravésde um enlace de dados de alta velocidade com fio. Aquelesde conhecimento na técnica apreciarão que variações sãopossíveis e que outras conexões com fio podem ser usadaspara se levarem os dados para o computador. Por exemplo, asaída dos receptores de IR 62 pode ser transportadadiretamente para o computador 64 via UART7 USB ou outrasconexões adequadas. Alternativamente, os dados dosreceptores de IR e das câmeras digitais podem ser levadospara o computador por um enlace de comunicações sem fio.
A configuração do ponteiro 7 0 é de exemplo, evariações são possíveis, obviamente. Por exemplo, o arranjode transmissor de LED de IR e difusor pode ser substituídopor múltiplos LEDs de IR montados em torno da ponta comcampos de visão sobrepostos. Obviamente, meios diferentesde transmissão de dados podem ser empregados pelo ponteiro.Por exemplo, comunicações por freqüência de rádio (RF)podem ser empregadas. Também, um comutador de ponta podeser usado ao invés do transdutor de força para se permitirque o microcontrolador detecte quando eventos de ponteiropara baixo ocorreram. 0 ponteiro também pode empregar umafonte de potência não recarregável. Se desejado, o ponteiropode incluir um microfone e o microcontrolador 90 podeexecutar um software de reconhecimento de voz para sepermitir que um usuário introduza uma entrada de dadosatravés de comandos de voz, ao invés da ou além da atuaçãode botões no ponteiro.
Além disso, o ponteiro pode incluir um receptor decomunicações sem fio para se permitir que o ponteiro recebacomandos a partir do computador 64. Desta maneira, funçõesdo ponteiro podem ser habilitadas ou desabilitadas oufunções atribuídas aos botões no ponteiro reatribuídas oumudadas, provendo o ponteiro com capacidades de botãovirtual sensíveis a contexto.
Embora as modalidades preferidas da presente invençãotenham sido descritas, aqueles de conhecimento na técnicaapreciarão que variações e modificações podem ser feitas,sem que se desvie do conceito inventivo e do escopo damesma, conforme definido pelas reivindicações em apenso.

Claims (22)

1. Sistema de entrada interativo, caracterizado pelofato de compreender:pelo menos dois dispositivos de formação de imagemassociados a uma região de interesse, pelo menos doisreferidos dispositivos de formação de imagem adquirindoimagens da referida região de interesse a partir delocalizações diferentes e tendo campos de visãosobrepostos;pelo menos um receptor operável para receber uma saídade dados por um ponteiro ativo, quando o referido ponteiroestiver dentro e fora dos campos de visão dos referidosdispositivos de formação de imagem; euma estrutura de processador processando dadosadquiridos por pelo menos dois referidos dispositivos deformação de imagem e pelo menos um referido receptor para adetecção da existência de um ponteiro ativo e para adeterminação da localização do referido ponteiro nareferida região de interesse.
2. Sistema de entrada interativo, de acordo com areivindicação 1, caracterizado pelo fato de compreenderpelo menos dois receptores, cada receptor sendo posicionadoadjacente a um dispositivo diferente dos referidosdispositivos de formação de imagem.
3. Sistema de entrada interativo, de acordo com areivindicação 1, caracterizado pelo fato de aindacompreender uma superfície de toque posicionada na referidaregião de interesse.
4. Sistema de entrada interativo, de acordo com areivindicação 3, caracterizado pelo fato de cadadispositivo de formação de imagem ser posicionado adjacentea um canto diferente da referida superfície de toque.
5. Sistema de entrada interativo, de acordo com areivindicação 2, caracterizado pelo fato de os dadosrecebidos pelos referidos receptores serem sincronizadoscom dados de imagem adquiridos pelos referidos dispositivosde formação de imagem.
6. Sistema de entrada interativo, de acordo com areivindicação 5, caracterizado pelo fato de os dadosrecebidos por cada receptor serem levados para o referidodispositivo de formação de imagem associado antes datransmissão para a referida estrutura de processamento peloreferido dispositivo de formação de imagem.
7. Sistema de entrada interativo, de acordo com areivindicação 6, caracterizado pelo fato de os referidosdispositivos de formação de imagem transmitirem dados paraa referida estrutura de processamento por um enlace decomunicações com fio.
8. Sistema de entrada interativo, de acordo com areivindicação 6, caracterizado pelo fato de os referidosdispositivos de formação de imagem transmitirem dados paraa referida estrutura de processamento por um enlace decomunicações sem fio.
9. Sistema de entrada interativo, de acordo com areivindicação 5, caracterizado pelo fato de os referidosreceptores e dispositivos de formação de imagemtransmitirem independentemente dados para a referidaestrutura de processamento.
10. Sistema de entrada interativo, de acordo com areivindicação 9, caracterizado pelo fato de os referidosdispositivos de formação de imagem e receptorestransmitirem dados para a referida estrutura deprocessamento por um enlace de comunicações com fio.
11. Sistema de entrada interativo, de acordo com areivindicação 9, caracterizado pelo fato de os referidosdispositivos de formação de imagem e receptorestransmitirem dados para a referida estrutura deprocessamento por um enlace de comunicações sem fio.
12. Sistema de entrada interativo, de acordo com areivindicação 3, caracterizado pelo fato de aindacompreender um ponteiro ativo, o referido ponteiroextraindo dados em resposta a um contato com a referidasuperfície de toque.
13. Sistema de entrada interativo, de acordo com areivindicação 12, caracterizado pelo fato de o referidoponteiro extrair dados em resposta a um contato com areferida superfície de toque feito com uma força de limite.
14. Sistema de entrada interativo, de acordo com areivindicação 13, caracterizado pelo fato de o referidoponteiro incluir pelo menos um controle atuávelmanualmente, o referido ponteiro extraindo dados emresposta a uma atuação de controle.
15. Sistema de entrada interativo, de acordo com areivindicação 14, caracterizado pelo fato de o referidoponteiro extrair dados em resposta a uma atuação decontrole apenas quando uma condição de contato de ponteiroexistir.
16. Sistema de entrada interativo, de acordo com areivindicação 3, caracterizado pelo fato de o referidoponteiro se iluminar, em resposta a um contato com areferida superfície de toque.
17. Sistema de entrada interativo, de acordo com areivindicação 16, caracterizado pelo fato de o referidoponteiro se iluminar em resposta a um contato com areferida superfície de toque feito com uma força de limite.
18. Sistema de entrada interativo, de acordo com areivindicação 17, caracterizado pelo fato de o referidoponteiro incluir pelo menos um controle atuávelmanualmente, o referido ponteiro extraindo dados emresposta a uma atuação de controle.
19. Sistema de entrada interativo, de acordo com areivindicação 18, caracterizado pelo fato de o referidoponteiro extrair dados em resposta a uma atuação decontrole apenas quando uma condição de ponteiro existir.
20. Sistema de entrada interativo, de acordo com areivindicação 19, caracterizado pelo fato de os referidosdados serem usados para modulação de luz extraída peloreferido ponteiro.
21. Sistema de exibição interativo baseado em câmera,caracterizado pelo fato de compreender:um visor;uma região de interesse na frente do referido visor;pelo menos dois dispositivos de gravação óticosadquirindo imagens da referida região de interesse a partirde localizações diferentes e tendo campos de visãosobrepostos;pelo menos um receptor operável para receber os dadosextraídos por um ponteiro ativo, quando o referido ponteiroestiver dentro e fora dos campos de visão dos referidosdispositivos de gravação óticos; euma estrutura de processamento que recebe e processadados adquiridos por pelo menos dois referidos dispositivosde gravação óticos e pelo menos um referido receptor para adetecção da existência de um ponteiro e para a determinaçãoda localização do referido ponteiro na referida região deinteresse.
22. Sistema de exibição interativo baseado em câmera,de acordo com a reivindicação 21, caracterizado pelo fatode ainda compreender um ponteiro ativo.
BRPI0706531-0A 2006-01-13 2007-01-12 sistema de entrada interativo BRPI0706531A2 (pt)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US11/331,448 2006-01-13
US11/331,448 US20070165007A1 (en) 2006-01-13 2006-01-13 Interactive input system
PCT/CA2007/000051 WO2007079590A1 (en) 2006-01-13 2007-01-12 Interactive input system

Publications (1)

Publication Number Publication Date
BRPI0706531A2 true BRPI0706531A2 (pt) 2011-03-29

Family

ID=38255949

Family Applications (1)

Application Number Title Priority Date Filing Date
BRPI0706531-0A BRPI0706531A2 (pt) 2006-01-13 2007-01-12 sistema de entrada interativo

Country Status (12)

Country Link
US (1) US20070165007A1 (pt)
EP (1) EP1971964A4 (pt)
JP (1) JP5154446B2 (pt)
KR (1) KR20080107361A (pt)
CN (1) CN101375297B (pt)
AU (1) AU2007204570B2 (pt)
BR (1) BRPI0706531A2 (pt)
CA (1) CA2636823A1 (pt)
MX (1) MX2008009016A (pt)
NZ (1) NZ569754A (pt)
RU (2) RU2008133213A (pt)
WO (1) WO2007079590A1 (pt)

Families Citing this family (49)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6803906B1 (en) 2000-07-05 2004-10-12 Smart Technologies, Inc. Passive touch system and method of detecting user input
US6954197B2 (en) 2002-11-15 2005-10-11 Smart Technologies Inc. Size/scale and orientation determination of a pointer in a camera-based touch system
US8508508B2 (en) 2003-02-14 2013-08-13 Next Holdings Limited Touch screen signal processing with single-point calibration
US7629967B2 (en) 2003-02-14 2009-12-08 Next Holdings Limited Touch screen signal processing
US8456447B2 (en) 2003-02-14 2013-06-04 Next Holdings Limited Touch screen signal processing
US7532206B2 (en) 2003-03-11 2009-05-12 Smart Technologies Ulc System and method for differentiating between pointers used to contact touch surface
US7411575B2 (en) 2003-09-16 2008-08-12 Smart Technologies Ulc Gesture recognition method and touch system incorporating the same
US7274356B2 (en) 2003-10-09 2007-09-25 Smart Technologies Inc. Apparatus for determining the location of a pointer within a region of interest
US7355593B2 (en) 2004-01-02 2008-04-08 Smart Technologies, Inc. Pointer tracking across multiple overlapping coordinate input sub-regions defining a generally contiguous input region
US7460110B2 (en) 2004-04-29 2008-12-02 Smart Technologies Ulc Dual mode touch system
US7538759B2 (en) 2004-05-07 2009-05-26 Next Holdings Limited Touch panel display system with illumination and detection provided from a single edge
US8120596B2 (en) 2004-05-21 2012-02-21 Smart Technologies Ulc Tiled touch system
US8190785B2 (en) * 2006-05-26 2012-05-29 Smart Technologies Ulc Plug-and-play device and method for enhancing features and settings in an interactive display system
US9442607B2 (en) 2006-12-04 2016-09-13 Smart Technologies Inc. Interactive input system and method
US8115753B2 (en) 2007-04-11 2012-02-14 Next Holdings Limited Touch screen system with hover and click input methods
US8094137B2 (en) 2007-07-23 2012-01-10 Smart Technologies Ulc System and method of detecting contact on a display
KR20100075460A (ko) 2007-08-30 2010-07-02 넥스트 홀딩스 인코포레이티드 저 프로파일 터치 패널 시스템
US8432377B2 (en) 2007-08-30 2013-04-30 Next Holdings Limited Optical touchscreen with improved illumination
KR101338114B1 (ko) * 2007-12-31 2013-12-06 엘지디스플레이 주식회사 Ir 광원을 적용한 액정표시장치 및 이를 이용한 멀티터치시스템
US8405636B2 (en) 2008-01-07 2013-03-26 Next Holdings Limited Optical position sensing system and optical position sensor assembly
US8902193B2 (en) 2008-05-09 2014-12-02 Smart Technologies Ulc Interactive input system and bezel therefor
JP2010019822A (ja) * 2008-07-10 2010-01-28 Pixart Imaging Inc センシングシステム
EP2350792B1 (en) * 2008-10-10 2016-06-22 Qualcomm Incorporated Single camera tracker
US8339378B2 (en) 2008-11-05 2012-12-25 Smart Technologies Ulc Interactive input system with multi-angle reflector
US20120044143A1 (en) * 2009-03-25 2012-02-23 John David Newton Optical imaging secondary input means
EP2417513A4 (en) * 2009-04-05 2013-10-30 Radion Engineering Co Ltd SYSTEM AND METHOD FOR UNIFIED DISPLAY AND INPUT
US20110032215A1 (en) 2009-06-15 2011-02-10 Smart Technologies Ulc Interactive input system and components therefor
EP2287713A3 (en) * 2009-06-17 2012-06-27 SMART Technologies ULC Interactive input system and method
US20110095989A1 (en) * 2009-10-23 2011-04-28 Smart Technologies Ulc Interactive input system and bezel therefor
US8917262B2 (en) 2010-01-08 2014-12-23 Integrated Digital Technologies, Inc. Stylus and touch input system
TW201126397A (en) * 2010-01-18 2011-08-01 Acer Inc Optical touch control display and method thereof
CN102200862B (zh) * 2010-03-26 2014-04-02 北京京东方光电科技有限公司 红外触摸装置和红外触摸方法
US9189086B2 (en) * 2010-04-01 2015-11-17 Smart Technologies Ulc Interactive input system and information input method therefor
US8872772B2 (en) 2010-04-01 2014-10-28 Smart Technologies Ulc Interactive input system and pen tool therefor
JP5516102B2 (ja) * 2010-06-11 2014-06-11 セイコーエプソン株式会社 光学式位置検出装置、電子機器及び表示装置
EP2591410A4 (en) * 2010-07-06 2017-08-16 T-Data Systems (S) Pte Ltd Data storage device with data input function
US20120105373A1 (en) * 2010-10-31 2012-05-03 Chih-Min Liu Method for detecting touch status of surface of input device and input device thereof
US20120179994A1 (en) * 2011-01-12 2012-07-12 Smart Technologies Ulc Method for manipulating a toolbar on an interactive input system and interactive input system executing the method
US9292109B2 (en) * 2011-09-22 2016-03-22 Smart Technologies Ulc Interactive input system and pen tool therefor
KR101892266B1 (ko) * 2011-10-06 2018-08-28 삼성전자주식회사 입력 판단 방법 및 그 장치
CA2862446C (en) * 2012-01-11 2018-07-10 Smart Technologies Ulc Interactive input system and method
US9134814B2 (en) * 2012-04-05 2015-09-15 Seiko Epson Corporation Input device, display system and input method
US9507462B2 (en) * 2012-06-13 2016-11-29 Hong Kong Applied Science and Technology Research Institute Company Limited Multi-dimensional image detection apparatus
GB2506849A (en) * 2012-09-26 2014-04-16 Light Blue Optics Ltd A touch sensing system using a pen
US9465486B2 (en) * 2014-07-14 2016-10-11 Hong Kong Applied Science and Technology Research Institute Company Limited Portable interactive whiteboard module
WO2016018274A1 (en) * 2014-07-30 2016-02-04 Hewlett-Packard Development Company, L.P. Transparent whiteboard display
US10565463B2 (en) * 2016-05-24 2020-02-18 Qualcomm Incorporated Advanced signaling of a most-interested region in an image
US11859961B2 (en) 2018-01-25 2024-01-02 Neonode Inc. Optics for vehicle occupant monitoring systems
CN118672470A (zh) * 2019-04-10 2024-09-20 希迪普公司 电子设备及其控制方法和控制系统

Family Cites Families (106)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4144449A (en) * 1977-07-08 1979-03-13 Sperry Rand Corporation Position detection apparatus
CA1109539A (en) * 1978-04-05 1981-09-22 Her Majesty The Queen, In Right Of Canada, As Represented By The Ministe R Of Communications Touch sensitive computer input device
US4507557A (en) * 1983-04-01 1985-03-26 Siemens Corporate Research & Support, Inc. Non-contact X,Y digitizer using two dynamic ram imagers
US4672364A (en) * 1984-06-18 1987-06-09 Carroll Touch Inc Touch input device having power profiling
DE3616490A1 (de) * 1985-05-17 1986-11-27 Alps Electric Co Ltd Optische koordinaten-eingabe-vorrichtung
JPS61262917A (ja) * 1985-05-17 1986-11-20 Alps Electric Co Ltd 光電式タツチパネルのフイルタ−
US4831455A (en) * 1986-02-21 1989-05-16 Canon Kabushiki Kaisha Picture reading apparatus
JPS6375918A (ja) * 1986-09-19 1988-04-06 Alps Electric Co Ltd 座標入力装置
US4746770A (en) * 1987-02-17 1988-05-24 Sensor Frame Incorporated Method and apparatus for isolating and manipulating graphic objects on computer video monitor
US4820050A (en) * 1987-04-28 1989-04-11 Wells-Gardner Electronics Corporation Solid-state optical position determining apparatus
JPH01314324A (ja) * 1988-06-14 1989-12-19 Sony Corp タッチパネル装置
US5109435A (en) * 1988-08-08 1992-04-28 Hughes Aircraft Company Segmentation method for use against moving objects
US5196835A (en) * 1988-09-30 1993-03-23 International Business Machines Corporation Laser touch panel reflective surface aberration cancelling
US5025314A (en) * 1990-07-30 1991-06-18 Xerox Corporation Apparatus allowing remote interactive use of a plurality of writing surfaces
US6736321B2 (en) * 1995-12-18 2004-05-18 Metrologic Instruments, Inc. Planar laser illumination and imaging (PLIIM) system employing wavefront control methods for reducing the power of speckle-pattern noise digital images acquired by said system
JP3318897B2 (ja) * 1991-01-29 2002-08-26 ソニー株式会社 ビデオモニタ付リモートコントローラ
US5097516A (en) * 1991-02-28 1992-03-17 At&T Bell Laboratories Technique for illuminating a surface with a gradient intensity line of light to achieve enhanced two-dimensional imaging
US6141000A (en) * 1991-10-21 2000-10-31 Smart Technologies Inc. Projection display system with touch sensing on screen, computer assisted alignment correction and network conferencing
US5483261A (en) * 1992-02-14 1996-01-09 Itu Research, Inc. Graphical input controller and method with rear screen image detection
EP0594146B1 (en) * 1992-10-22 2002-01-09 Advanced Interconnection Technology, Inc. System for automatic optical inspection of wire scribed circuit boards
US5317140A (en) * 1992-11-24 1994-05-31 Dunthorn David I Diffusion-assisted position location particularly for visual pen detection
US5751355A (en) * 1993-01-20 1998-05-12 Elmo Company Limited Camera presentation supporting system
US5502568A (en) * 1993-03-23 1996-03-26 Wacom Co., Ltd. Optical position detecting unit, optical coordinate input unit and optical position detecting method employing a pattern having a sequence of 1's and 0's
US5490655A (en) * 1993-09-16 1996-02-13 Monger Mounts, Inc. Video/data projector and monitor ceiling/wall mount
US7310072B2 (en) * 1993-10-22 2007-12-18 Kopin Corporation Portable communication display device
JP3419050B2 (ja) * 1993-11-19 2003-06-23 株式会社日立製作所 入力装置
US5739850A (en) * 1993-11-30 1998-04-14 Canon Kabushiki Kaisha Apparatus for improving the image and sound processing capabilities of a camera
US5712658A (en) * 1993-12-28 1998-01-27 Hitachi, Ltd. Information presentation apparatus and information display apparatus
US5525764A (en) * 1994-06-09 1996-06-11 Junkins; John L. Laser scanning graphic input system
US5528263A (en) * 1994-06-15 1996-06-18 Daniel M. Platzker Interactive projected video image display system
US5737740A (en) * 1994-06-27 1998-04-07 Numonics Apparatus and method for processing electronic documents
US5528290A (en) * 1994-09-09 1996-06-18 Xerox Corporation Device for transcribing images on a board using a camera based board scanner
US5638092A (en) * 1994-12-20 1997-06-10 Eng; Tommy K. Cursor control system
US5594469A (en) * 1995-02-21 1997-01-14 Mitsubishi Electric Information Technology Center America Inc. Hand gesture machine control system
DE69634913T2 (de) * 1995-04-28 2006-01-05 Matsushita Electric Industrial Co., Ltd., Kadoma Schnittstellenvorrichtung
JP3436828B2 (ja) * 1995-05-08 2003-08-18 株式会社リコー 画像処理装置
US5764223A (en) * 1995-06-07 1998-06-09 International Business Machines Corporation Touch-screen input device using the monitor as a light source operating at an intermediate frequency
US5734375A (en) * 1995-06-07 1998-03-31 Compaq Computer Corporation Keyboard-compatible optical determination of object's position
US6075905A (en) * 1996-07-17 2000-06-13 Sarnoff Corporation Method and apparatus for mosaic image construction
US6208329B1 (en) * 1996-08-13 2001-03-27 Lsi Logic Corporation Supplemental mouse button emulation system, method and apparatus for a coordinate based data input device
US5745116A (en) * 1996-09-09 1998-04-28 Motorola, Inc. Intuitive gesture-based graphical user interface
US6130666A (en) * 1996-10-07 2000-10-10 Persidsky; Andre Self-contained pen computer with built-in display
JP3624070B2 (ja) * 1997-03-07 2005-02-23 キヤノン株式会社 座標入力装置及びその制御方法
US6122865A (en) * 1997-03-13 2000-09-26 Steelcase Development Inc. Workspace display
JP3876942B2 (ja) * 1997-06-13 2007-02-07 株式会社ワコム 光デジタイザ
US20020036617A1 (en) * 1998-08-21 2002-03-28 Timothy R. Pryor Novel man machine interfaces and applications
JP3794180B2 (ja) * 1997-11-11 2006-07-05 セイコーエプソン株式会社 座標入力システム及び座標入力装置
US6226035B1 (en) * 1998-03-04 2001-05-01 Cyclo Vision Technologies, Inc. Adjustable imaging system with wide angle capability
US6031531A (en) * 1998-04-06 2000-02-29 International Business Machines Corporation Method and system in a graphical user interface for facilitating cursor object movement for physically challenged computer users
JP4033582B2 (ja) * 1998-06-09 2008-01-16 株式会社リコー 座標入力/検出装置および電子黒板システム
US6064354A (en) * 1998-07-01 2000-05-16 Deluca; Michael Joseph Stereoscopic user interface method and apparatus
IL141400A0 (en) * 1998-08-18 2002-03-10 Digital Ink Inc Handwriting device with detection sensors for absolute and relative positioning
JP2000089913A (ja) * 1998-09-08 2000-03-31 Gunze Ltd タッチパネル入力座標変換装置
US6570612B1 (en) * 1998-09-21 2003-05-27 Bank One, Na, As Administrative Agent System and method for color normalization of board images
DE19845030A1 (de) * 1998-09-30 2000-04-20 Siemens Ag Bildsystem
US6690357B1 (en) * 1998-10-07 2004-02-10 Intel Corporation Input device using scanning sensors
US6335724B1 (en) * 1999-01-29 2002-01-01 Ricoh Company, Ltd. Method and device for inputting coordinate-position and a display board system
US6179426B1 (en) * 1999-03-03 2001-01-30 3M Innovative Properties Company Integrated front projection system
US6530664B2 (en) * 1999-03-03 2003-03-11 3M Innovative Properties Company Integrated front projection system with enhanced dry erase screen configuration
US6264830B1 (en) * 1999-08-13 2001-07-24 The Coca-Cola Company On premise water treatment system and method
JP2001060145A (ja) * 1999-08-23 2001-03-06 Ricoh Co Ltd 座標入力/検出システムおよびその位置合わせ調整方法
JP4057200B2 (ja) * 1999-09-10 2008-03-05 株式会社リコー 座標入力装置および座標入力装置の記録媒体
US6512838B1 (en) * 1999-09-22 2003-01-28 Canesta, Inc. Methods for enhancing performance and data acquired from three-dimensional image systems
WO2003007049A1 (en) * 1999-10-05 2003-01-23 Iridigm Display Corporation Photonic mems and structures
AU1351001A (en) * 1999-10-27 2001-05-08 Digital Ink, Inc. Tracking motion of a writing instrument
JP4052498B2 (ja) * 1999-10-29 2008-02-27 株式会社リコー 座標入力装置および方法
US6710770B2 (en) * 2000-02-11 2004-03-23 Canesta, Inc. Quasi-three-dimensional method and apparatus to detect and localize interaction of user-object and virtual transfer device
JP2001209487A (ja) * 2000-01-25 2001-08-03 Uw:Kk 筆跡通信システムおよび該システムで使用される筆跡入力装置及び筆跡表示装置
US6529189B1 (en) * 2000-02-08 2003-03-04 International Business Machines Corporation Touch screen stylus with IR-coupled selection buttons
EP1128318A3 (en) * 2000-02-21 2002-01-23 Cyberboard A/S Position detection device
ES2340945T3 (es) * 2000-07-05 2010-06-11 Smart Technologies Ulc Procedimiento para un sistema tactil basado en camaras.
US6531999B1 (en) * 2000-07-13 2003-03-11 Koninklijke Philips Electronics N.V. Pointing direction calibration in video conferencing and other camera-based system applications
US6530702B2 (en) * 2000-12-02 2003-03-11 Thomas H. S. Harris Operator supported remote camera positioning and control system
US7190348B2 (en) * 2000-12-26 2007-03-13 International Business Machines Corporation Method for touchscreen data input
US7242388B2 (en) * 2001-01-08 2007-07-10 Vkb Inc. Data input device
US6741250B1 (en) * 2001-02-09 2004-05-25 Be Here Corporation Method and system for generation of multiple viewpoints into a scene viewed by motionless cameras and for presentation of a view path
US7030861B1 (en) * 2001-02-10 2006-04-18 Wayne Carl Westerman System and method for packing multi-touch gestures onto a hand
JP4639293B2 (ja) * 2001-02-27 2011-02-23 オプテックス株式会社 自動ドアセンサ
JP4768143B2 (ja) * 2001-03-26 2011-09-07 株式会社リコー 情報入出力装置、情報入出力制御方法およびプログラム
GB2374266A (en) * 2001-04-04 2002-10-09 Matsushita Comm Ind Uk Ltd Virtual user interface device
US6517266B2 (en) * 2001-05-15 2003-02-11 Xerox Corporation Systems and methods for hand-held printing on a surface or medium
US6919880B2 (en) * 2001-06-01 2005-07-19 Smart Technologies Inc. Calibrating camera offsets to facilitate object position determination using triangulation
GB2378073B (en) * 2001-07-27 2005-08-31 Hewlett Packard Co Paper-to-computer interfaces
US7007236B2 (en) * 2001-09-14 2006-02-28 Accenture Global Services Gmbh Lab window collaboration
JP2003173237A (ja) * 2001-09-28 2003-06-20 Ricoh Co Ltd 情報入出力システム、プログラム及び記憶媒体
JP3920067B2 (ja) * 2001-10-09 2007-05-30 株式会社イーアイティー 座標入力装置
JP2003167669A (ja) * 2001-11-22 2003-06-13 Internatl Business Mach Corp <Ibm> 情報処理装置、プログラム及び座標入力方法
US7038659B2 (en) * 2002-04-06 2006-05-02 Janusz Wiktor Rajkowski Symbol encoding apparatus and method
US20040001144A1 (en) * 2002-06-27 2004-01-01 Mccharles Randy Synchronization of camera images in camera-based touch system to enhance position determination of fast moving objects
JP2004062656A (ja) * 2002-07-30 2004-02-26 Canon Inc 座標入力装置及びその制御方法、プログラム
US6954197B2 (en) * 2002-11-15 2005-10-11 Smart Technologies Inc. Size/scale and orientation determination of a pointer in a camera-based touch system
US7557935B2 (en) * 2003-05-19 2009-07-07 Itzhak Baruch Optical coordinate input device comprising few elements
US7190496B2 (en) * 2003-07-24 2007-03-13 Zebra Imaging, Inc. Enhanced environment visualization using holographic stereograms
JP4405766B2 (ja) * 2003-08-07 2010-01-27 キヤノン株式会社 座標入力装置、座標入力方法
US20050052427A1 (en) * 2003-09-10 2005-03-10 Wu Michael Chi Hung Hand gesture interaction with touch surface
US7411575B2 (en) * 2003-09-16 2008-08-12 Smart Technologies Ulc Gesture recognition method and touch system incorporating the same
US7274356B2 (en) * 2003-10-09 2007-09-25 Smart Technologies Inc. Apparatus for determining the location of a pointer within a region of interest
US7145766B2 (en) * 2003-10-16 2006-12-05 Hewlett-Packard Development Company, L.P. Display for an electronic device
JP2005174186A (ja) * 2003-12-15 2005-06-30 Sanyo Electric Co Ltd 電子ペン、電子ペンの位置検出装置、電子ペンの位置表示システム
US7355593B2 (en) * 2004-01-02 2008-04-08 Smart Technologies, Inc. Pointer tracking across multiple overlapping coordinate input sub-regions defining a generally contiguous input region
US7232986B2 (en) * 2004-02-17 2007-06-19 Smart Technologies Inc. Apparatus for detecting a pointer within a region of interest
US20070019103A1 (en) * 2005-07-25 2007-01-25 Vkb Inc. Optical apparatus for virtual interface projection and sensing
US8847924B2 (en) * 2005-10-03 2014-09-30 Hewlett-Packard Development Company, L.P. Reflecting light
US7599520B2 (en) * 2005-11-18 2009-10-06 Accenture Global Services Gmbh Detection of multiple targets on a plane of interest
TWI333572B (en) * 2005-12-20 2010-11-21 Ind Tech Res Inst Light source package structure
TW200818603A (en) * 2006-10-05 2008-04-16 Advanced Connectek Inc Coupled multi-band antenna

Also Published As

Publication number Publication date
CN101375297B (zh) 2011-08-31
AU2007204570B2 (en) 2012-11-08
NZ569754A (en) 2011-07-29
RU2008133213A (ru) 2010-02-20
RU2011101366A (ru) 2012-07-20
EP1971964A4 (en) 2011-01-05
CN101375297A (zh) 2009-02-25
CA2636823A1 (en) 2007-07-19
JP2009523335A (ja) 2009-06-18
MX2008009016A (es) 2009-01-07
EP1971964A1 (en) 2008-09-24
AU2007204570A1 (en) 2007-07-19
US20070165007A1 (en) 2007-07-19
WO2007079590A1 (en) 2007-07-19
KR20080107361A (ko) 2008-12-10
JP5154446B2 (ja) 2013-02-27

Similar Documents

Publication Publication Date Title
BRPI0706531A2 (pt) sistema de entrada interativo
US7414617B2 (en) Coordinate input device working with at least display screen and desk-top surface as the pointing areas thereof
US6947032B2 (en) Touch system and method for determining pointer contacts on a touch surface
US8619027B2 (en) Interactive input system and tool tray therefor
US8872772B2 (en) Interactive input system and pen tool therefor
US8624835B2 (en) Interactive input system and illumination system therefor
TWI450159B (zh) Optical touch device, passive touch system and its input detection method
US20100201812A1 (en) Active display feedback in interactive input systems
US20090277697A1 (en) Interactive Input System And Pen Tool Therefor
US20090277694A1 (en) Interactive Input System And Bezel Therefor
US20140160089A1 (en) Interactive input system and input tool therefor
US9213440B2 (en) System and method for remote touch detection
US9329700B2 (en) Interactive system with successively activated illumination sources
US20110095989A1 (en) Interactive input system and bezel therefor
US20140137015A1 (en) Method and Apparatus for Manipulating Digital Content
JP4296607B2 (ja) 情報入出力装置及び情報入出力方法
US20110242005A1 (en) Interactive input device with palm reject capabilities
US20140267193A1 (en) Interactive input system and method
AU2012241081A1 (en) Interactive input system
JP2007272927A (ja) 情報入出力装置、及び情報入出力方法
CN105867700A (zh) 光学式触控面板

Legal Events

Date Code Title Description
B08F Application dismissed because of non-payment of annual fees [chapter 8.6 patent gazette]

Free format text: REFERENTE A 8A ANUIDADE.

B08K Patent lapsed as no evidence of payment of the annual fee has been furnished to inpi [chapter 8.11 patent gazette]

Free format text: REFERENTE AO DESPACHO 8.6 PUBLICADO NA RPI 2288 DE 11/11/2014.