BR112014002448B1 - Dispositivo de captura de projeção - Google Patents

Dispositivo de captura de projeção Download PDF

Info

Publication number
BR112014002448B1
BR112014002448B1 BR112014002448-0A BR112014002448A BR112014002448B1 BR 112014002448 B1 BR112014002448 B1 BR 112014002448B1 BR 112014002448 A BR112014002448 A BR 112014002448A BR 112014002448 B1 BR112014002448 B1 BR 112014002448B1
Authority
BR
Brazil
Prior art keywords
camera
projector
capture
light
space
Prior art date
Application number
BR112014002448-0A
Other languages
English (en)
Other versions
BR112014002448A2 (pt
Inventor
Geoffrey C. Mayne
David Bradley Short
Original Assignee
Hewlett-Packard Development Company, L.P.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hewlett-Packard Development Company, L.P. filed Critical Hewlett-Packard Development Company, L.P.
Publication of BR112014002448A2 publication Critical patent/BR112014002448A2/pt
Publication of BR112014002448B1 publication Critical patent/BR112014002448B1/pt

Links

Images

Classifications

    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B15/00Special procedures for taking photographs; Apparatus therefor
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B21/00Projectors or projection-type viewers; Accessories therefor
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B17/00Details of cameras or camera bodies; Accessories therefor
    • G03B17/48Details of cameras or camera bodies; Accessories therefor adapted for combination with other photographic or optical apparatus
    • G03B17/54Details of cameras or camera bodies; Accessories therefor adapted for combination with other photographic or optical apparatus with projector
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B21/00Projectors or projection-type viewers; Accessories therefor
    • G03B21/14Details
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B21/00Projectors or projection-type viewers; Accessories therefor
    • G03B21/14Details
    • G03B21/28Reflectors in projection beam
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0354Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
    • G06F3/03545Pens or stylus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/042Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/50Constructional details
    • H04N23/51Housings
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/56Cameras or camera modules comprising electronic image sensors; Control thereof provided with illuminating means
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/12Picture reproducers
    • H04N9/31Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
    • H04N9/3102Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM] using two-dimensional electronic spatial light modulators
    • H04N9/3111Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM] using two-dimensional electronic spatial light modulators for displaying the colours sequentially, e.g. by using sequentially activated light sources
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B21/00Projectors or projection-type viewers; Accessories therefor
    • G03B21/14Details
    • G03B21/147Optical correction of image distortions, e.g. keystone
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B21/00Projectors or projection-type viewers; Accessories therefor
    • G03B21/14Details
    • G03B21/20Lamp housings
    • G03B21/2006Lamp housings characterised by the light source
    • G03B21/2033LED or laser light sources
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B27/00Photographic printing apparatus
    • G03B27/32Projection printing apparatus, e.g. enlarger, copying camera
    • G03B27/323Copying cameras
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B33/00Colour photography, other than mere exposure or projection of a colour film
    • G03B33/06Colour photography, other than mere exposure or projection of a colour film by additive-colour projection apparatus
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B5/00Adjustment of optical system relative to image or object surface other than for focusing
    • G03B5/02Lateral adjustment of lens

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Human Computer Interaction (AREA)
  • Studio Devices (AREA)
  • Projection Apparatus (AREA)
  • Accessories Of Cameras (AREA)
  • Transforming Electric Information Into Light Information (AREA)
  • Camera Bodies And Camera Details Or Accessories (AREA)
  • Video Image Reproduction Devices For Color Tv Systems (AREA)

Abstract

dispositivo de captura de projeção portátil. em um exemplo, um dispositivo de captura de projeção portátil inclui uma câmera digital e um projetor montado abaixo da câmera. a câmera define uma área de captura sobre uma superfície de trabalho dentro da qual a câmera é configurada para ainda capturar imagens de vídeo. o projetor define uma área de exposição sobre a superfície de trabalho sobrepondo a área de captura. o projetor é configurado para projetar dentro da área de captura de ambas, a imagem capturada por meio da câmera e a luz branca para iluminação real dos objetos na área de captura para a captura da imagem da câmera.

Description

Campo técnico
[001] Um novo sistema de captura de projeção foi desenvolvido em um esforço para melhorar a captura de imagens digitais de documentos e de outros objetos e, para melhorar a experiência de trabalho interativo do usuário com objetos reais e com objetos projetados em uma superfície de trabalho física.
Descrição dos desenhos
[002] As figuras 1A e 1B são perspectivas, de uma vista externa, ilustrando um novo sistema de captura da projeção, de acordo com um exemplo da invenção. Na figura 1A, a imagem de um objeto bidimensional (uma fotografia impressa) foi capturada e exposta. Na figura 1B, a imagem de um objeto tridimensional (um cubo) foi capturada e exposta;
[003] A figura 2 ilustra uma vista em perspectiva, de uma vista interna, ilustrando um sistema de captura da projeção, tal como o sistema da figura 1, de acordo com um exemplo da invenção;
[004] A figura 3 ilustra um diagrama de blocos do sistema de captura da projeção mostrado na figura 2;
[005] A figura 4 ilustra um diagrama de blocos apresentando um exemplo de um dispositivo de entrada de usuário no sistema ilustrado nas figuras 2 e 3;
[006] As figuras 5 e 6 são vistas laterais e em elevação frontal, respectivamente, ilustrando o posicionamento da câmera e do projetor no sistema de captura de projeção, ilustrado nas figuras 2 e 3;
[007] As figuras 7 a 11 são uma progressão as vistas em elevação lateral, mostrando várias posições para o projetor e a câmera em um sistema de captura de projeção, ilustrando alguns dos problemas associados com a mudança do ponto de brilho fora da área de captura da câmera;
[008] As figuras 12 e 13 ilustram um exemplo da câmera no sistema de captura de projeção mostrado nas figuras 2 e 3;
[009] A figura 14 ilustra um exemplo do projetor no sistema de captura de projeção ilustrado nas figuras 2 e 3;
[010] As figuras 14 e 16 ilustram exemplos do dispositivo de entrada do usuário no sistema de captura de projeção, ilustrado nas figuras 2 e 3; e
[011] As figuras 17 a 19 ilustram, vistas em perspectivas de um novo dispositivo de captura de projeção portátil, de acordo com um outro exemplo da invenção.
[012] Os números das mesmas partes são utilizados para designar as mesmas partes ou partes similares em todas as figuras.
Descrição detalhada da invenção
[013] Os exemplos ilustrados nas figuras e descritos abaixo ilustram, mas não limitam a invenção, que é definida nas reivindicações após esta descrição.
[014] Em um exemplo do novo sistema de captura de projeção, uma câmera digital e um projetor são alojados juntos em um dispositivo portátil no qual as funções do projetor, ambas para iluminar os objetos na área de captura da câmera para capturar a imagem e projetar as imagens capturadas pela câmera em uma área de exposição que sobrepõe à área de captura. Em um exemplo, o projetor é posicionado abaixo da câmera e configurado para projetar a luz na área de exposição ao longo de um caminho de luz que é maior que uma altura da câmera acima da superfície de trabalho, por exemplo, usando um espelho posicionado acima do projetor para refletir a luz a partir do projetor dentro da área de exposição. O projetor não está limitado às imagens de exposição capturadas pela câmera. O projetor pode também expor, por exemplo, conteúdo digital, adquirido a partir de fontes externas incluindo o conteúdo adquirido a partir de outros dispositivos de captura de projeção ligados em um meio colaborativo.
[015] As figuras 1A e 1B são vistas em perspectivas externas ilustrando um exemplo de um novo sistema de captura de projeção 10 e, em um espaço de trabalho interativo 12, associado com o sistema 10. A figura 2 representa uma vista em perspectiva ilustrando um exemplo de um sistema de captura de projeção 10 com o alojamento externo 13 removido. A figura 3 é um diagrama de blocos do sistema 10 ilustrado na figura 2. Com referência às figuras 1 A, 1B, 2, e 3, o sistema de captura de projeção 10 inclui uma câmera digital 14, um projetor 16, e um controlador 18. A câmera 14 e o projetor 16 são operativamente conectados ao controlador 18 para a câmera 14 capturando uma imagem de um objeto 20 no espaço de trabalho12 e o projetor 16 projetando a imagem do objeto 22 dentro do espaço de trabalho 12 e, em alguns exemplos, para a câmera 14 capturando uma imagem da imagem do objeto projetado22. A parte inferior do alojamento 13 inclui uma janela transparente 21 sobre o projetor 16 (e a câmera de infravermelho 30).
[016] No exemplo ilustrado na figura 1 A, um objeto bidimensional 20 (uma fotografia impressa) colocada sobre uma superfície de trabalho 24 no espaço de trabalho 12 foi fotografada pela câmera 14 (figura 2), o objeto 20 foi removido para o lado do espaço de trabalho 12, e a imagem do objeto 22 projetada sobre uma superfície de trabalho 24 onde ele pode ser fotografado pela câmera 14 (figura 2) e/ou de outra forma manipulado por um usuário. No exemplo ilustrado na figura 1B, um objeto tridimensional 20 (um cubo) colocado sobre a superfície de trabalho 24 foi fotografado pela câmera 14 (figura 2), o objeto 20 foi removido para o lado do espaço de trabalho 12, e a imagem do objeto 22 projetada dentro do espaço de trabalho 12, onde ele pode ser fotografado pela câmera 14 e/ou de outra forma manipulado por um usuário.
[017] O sistema 10 também inclui um dispositivo de entrada do usuário 26 que permite ao usuário interagir com o sistema 10. Um usuário pode interagir com o objeto 20 e/ou a imagem do objeto 22 no espaço de trabalho 12 através do dispositivo de entrada 26, a imagem do objeto 22 transmitida aos outros espaços de trabalho 12 em sistemas remotos 10 (não ilustrados) para interação colaborativa com o usuário e, se desejado, a imagem do objeto 22 talvez fotografada pela câmera 14 e reprojetada dentro do local e/ou espaço remoto de trabalho1 2 para interação adicional com o usuário. Na figura 1A, a superfície de trabalho 24 é parte da área de trabalho ou de outra estrutura de suporte designada 23. Na figura 1B, a superfície de trabalho 24 está sobre uma placa portátil 25 que pode incluir áreas sensíveis ao toque. Na figura 1A, por exemplo, um painel de controle pelo usuário 27 é projetado sobre a superfície de trabalho 24 enquanto, na figura 1B, o painel de controle 27 ode ser embutido em uma área sensível ao toque da placa 25. Similarmente, uma área de posicionamento 29 de documento em formato padrão A4, carta ou outro tamanho padrão, pode ser projetado sobre a superfície de trabalho 24 na figura 1A ou impressa em uma placa 25 na figura 1B. É claro, outras configurações para a superfície de trabalho 24 são possíveis. Por exemplo, pode ser desejável em algumas aplicações para o sistema 10, utilizar um outro tipo de placa 25 em branco para controlar a cor, textura, ou outras características da superfície de trabalho 24 e, assim, o painel de controle 27 e a área de posicionamento de documento 29 podem ser projetados na placa em branco 25, na figura 1B, apenas quando eles são projetados sobre a área de trabalho 23 na figura 1A.
[018] No exemplo ilustrado na figura 4, o dispositivo de entrada de usuário 26 inclui uma caneta digital infravermelha 28 e uma câmera infravermelha 30 para detecção a caneta 28 no espaço de trabalho 12. Apesar de qualquer dispositivo de entrada de usuário apropriado poder ser utilizado, uma caneta digital tem a vantagem de permitir a entrada em três dimensões, incluindo ao longo da superfície de trabalho 24, sem uma almofada sensor ou outra superfície especial. Assim, o sistema 10 pode ser utilizado em uma variedade maior de superfícies de trabalho 24. Ademais, a orientação usualmente horizontal a superfície de trabalho 24 trona ele útil para muitas tarefas comuns. A capacidade de utilizar os instrumentos de escrita tradicionais sobre a superfície de trabalho 24 é vantajosa em relação às interfaces de computadores verticais ou móveis. A projeção em um expositor interativo sobre uma área de trabalho mistura tarefas de computação com objetos padrões que podem existir em uma área de trabalho real, assim, objetos físicos podem coexistir com objetos projetados. Como tal, o conforto do uso de instrumentos reais de escrita, bem como suas contrapartes digitais (tal como a caneta 28) é um modelo de uso eficaz. Uma caneta digital livre de superfície tridimensional permite a anotação no topo de ou próximo a objetos físicos sem ter um dispositivo sensor no caminho para uso de instrumentos tradicionais na superfície de trabalho 24.
[019] Em um exemplo de implementação para o sistema 10, o projetor 16 serve como uma fonte de luz para a câmera 14. A área de captura da câmera 32 (figura 12) e a área de exposição do projetor 34 (figura 14) sobrepõem sobre a superfície de trabalho 24. Assim, uma substancial eficiência operacional pode ser conseguida usando o projetor 16, em ambos, para projeção de imagens e para iluminação da câmera. O caminho da luz a partir do projetor 16 através do espaço de trabalho 12 para a superfície de trabalho 24 pode ser posicionado com relação à câmera 14, para possibilitar a interação de exposição do usuário com oclusão mínima de sombras, enquanto evita o brilho especular fora da superfície de trabalho 24 e nos objetos no espaço de trabalho 12 que poderia de outra forma ofuscar a câmera 14. A configuração do sistema descrito abaixo evita o brilho induzido por artefatos que poderia resultar a partir de uma geometria de luz de câmera convencional, enquanto mantém um ângulo incidente suficientemente inclinado para o caminho de luz do projetor desejado para iluminação adequada e projeção de objetos biou tridimensionais no espaço de trabalho 12.
[020] Idealmente, o projetor 16 poderia ser montado diretamente sobre o espaço de trabalho 12 em uma altura infinita acima da superfície de trabalho 24 para garantir linhas de luz paralelas. Esta configuração, é claro, não é realista. Mesmo se o projetor 16 for movido para baixo em uma altura realística acima da superfície de trabalho 24 (mas ainda apontando em linha reta para baixo), a luz do projetor poderia ser refletida fora das superfícies de brilho e semi- brilho e os objetos de costas dentro da câmera 14, criando um brilho especular ofuscante. Assim, o ponto de brilho deve ser movido para fora da área de captura da câmera 32. (brilho especular se refere ao brilho a partir de uma reflexão especular na qual o ângulo de incidência da linha de luz incidente e do ângulo de reflexão da linha de luz refletida são iguais a e incidentes, refletidas, e as direções normais são coplanares).
[021] Para se conseguir uma solução comercialmente razoável para este problema de brilho especular, a câmera 14 e o projetor 16 são desviados a partir do centro das áreas de captura e de exposição 32, 34 e o projetor 16 é posicionado abaixo, próximo da base 36, como mostrado nas figuras 5 e 6, e a dobra do espelho 38 é introduzida dentro do caminho de luz do projetor para simular uma posição de projetor alta acima da superfície de trabalho 24. A posição simulada do projetor 16 e o correspondente caminho da luz acima do espelho 38 são mostrados em linhas pontilhadas nas figuras 5 e 6. Entretanto, antes de descrever a configuração mostrada nas figuras 5 e 6 em maiores detalhes, é de ajuda considerar os problemas associados com outras possíveis configurações para alteração do ponto de brilho fora da área de captura da câmera 32.
[022] Na figura 7, a câmera 14 está posicionada no centro da área de captura 32 com um projetor 16 no alto, levemente fora do centro de modo que a câmera 14 não bloqueie o caminho da luz do projetor. Na configuração da figura 7, o ponto de brilho especular 39 (na intersecção a linha de luz incidente 41 e da linha de luz refletida 43) falha dentro da área de captura 32 e, assim, ofuscar câmera 14 para alguns objetos e imagens na área de captura 32. Em adição, para a configuração mostrada na figura 7, onde a câmera 14 e o projetor 16 são ambos, posicionados acima da base, o sistema 10 seria na parte superior pesada e, assim, não desejável para a implementação do produto comercial. Se o projetor 16 está posicionado ao lado da distância necessária para mover o ponto de brilho 39 fora da área de captura da câmera 32, como mostrado na figura 8, a compensação das lentes do projetor correspondente requerida não seria possível. Ademais, qualquer implementação do produto para a configuração do sistema 10 mostrado na figura 8 seria indesejavelmente ampla e pesada no topo.
[023] O movimento da câmera 14 fora do centro acima da área de captura 32 induz o projetor 16 torna o sistema menos amplo, como mostrado na figura 9, mas as lentes do projetor compensadas ainda estão muito grandes e o produto ainda pesa no topo. Na configuração mostrada na figura 10, o projetor 16 é levantado em uma altura de modo que ele possa ser trazido próximo o suficiente para uma compensação aceitável da lente, mas é claro, o produto é agora muito alto no topo pesado. A solução mais desejável é um caminho de luz “dobrada” para o projetor 16, mostrado nas figuras 5 e 11, no qual a configuração de “alto e rígido” da figura 10 é simulado usando um espelho 38 dobrado. Nas figuras 5 e 11, o projetor 16 e o caminho de luz superior são dobrados acima da superfície de reflexo do espelho 38 para projetor o mesmo caminho de luz sobre a superfície de trabalho 24 como na configuração da figura 10. Este efeito de dobra é melhor visto na figura 5, onde os ângulos de dobra θ1 = θ2 e Φ1 = Φ2 .
[024] Como mostrado nas figuras 5 e 6, a câmera 14 é colocada em frente ao espelho 38 sobre o espaço de trabalho 12 de modo que ele não bloqueie o caminho da luz do projetor. A câmera 14 está posicionada fora do centro da direção (figura 5) como parte da geometria completa para manter o ponto de brilho 39 foram da área de captura 32 com uma compensação aceitável para ambos, a câmera 14 e o projetor 16. O projetor 16 está focalizado sobre o espelho 38 de modo que a luz a partir do projetor 16 seja refletida fora do espelho 38 dentro do espaço de trabalho 12. Através do movimento do projetor 16 para baixo e a introdução de um espelho dobrado 38 dentro do caminho de luz do projetor, o ponto de brilho 39 é mantido fora da área de captura 32 com uma compensação aceitável do projetor e o sistema 10 suficientemente reduzido, curto e estável (não no topo pesado) para suportar uma implementação do produto comercialmente atrativo.
[025] Assim, e referindo novamente à figura 1A, 1B, e 2, os componentes do sistema 10 podem ser alojados juntos como um dispositivo único 40. Referindo também à figura 3, para auxiliar o sistema implemento 10 como um dispositivo padrão único integrado 40, o controlador 18 pode incluir um processador 42, uma memória 44, e uma entrada/saída 46 alojada junto no dispositivo 40. Para esta configuração do controlador 18, a programação do sistema para controlar e coordenar as funções da câmera 14 e do projetor 16 pode residir substancialmente na memória do controlador 44 para execução pelo processador 42, capacitando assim, em um dispositivo padrão único 40 e na redução da necessidade de uma programação especial da câmera 14 e do projetor 16. Embora outras configurações sejam possíveis, por exemplo, onde o controlador 18 é formado no todo ou em parte usando um computador ou servidor remoto a partir da câmera 14 e do projetor 16, uma ferramenta independente (“standalone”), tal como um dispositivo 40 mostrado nas figuras 1 A, 1B e 2 oferece ao usuário a funcionalidade completa em um dispositivo móvel compacto integrado 40.
[026] Referindo agora à figura 12, a câmera 14 está posicionada em frente ao espelho 38 acima do espaço de trabalho1 2 em um local fora do centro da área de captura 32. Como observado acima, esta posição fora, para a câmara 14 ajuda a evitar o brilho especular quando os objetos fotografados no espaço de trabalho 12 sem bloquear o caminho da luz do projeto 16. Embora a câmera 14 represente geralmente qualquer câmera digital apropriada para capturar, seletivamente ainda, e as imagens de vídeos no espaço de trabalho 12, é esperado que uma câmera digital de alta resolução fosse utilizada em muitas aplicações para o sistema 10. Uma câmera digital de “alta resolução” como utilizado neste documento significa uma câmera tendo um arranjo sensor de pelo menos 12 megapixels. As câmeras de menor resolução podem ser aceitáveis para algumas varreduras básicas e funções de cópia, mas as resoluções abaixo de 12 megapixels atualmente não são adequadas para gerar uma imagem digital suficientemente detalhada para um arranjo completo de funções manipulativas e colaborativas. As câmeras digitais de alta qualidade e de tamanho pequeno, com sensores de alta resolução são agora muito comuns e comercialmente disponíveis a partir de uma variedade de mercados de câmeras. Um sensor de alta resolução ligado com um chip de processamento do sinal digital de alto desempenho (DSP) disponível em muitas câmeras digitais provê tempo de processamento de imagem suficientemente rápido, por exemplo, um tempo de visualização (“click-to-preview”) menor que um segundo, para liberar um desempenho aceitável para muitas aplicações do sistema 10.
[027] Referindo agora também à figura 13, no exemplo mostrado, o sensor da câmera 50 é orientado em um plano paralelo ao plano da superfície de trabalho 24 e a luz é focalizada sobre o sensor 50 através de uma troca de lente 52. Esta configuração para o sensor 50 e as lentes 52 pode ser utilizada para corrigir opticamente a distorção angular (“keystone”), sem correção angular digital na imagem do objeto. O campo de vista da câmera 14 define um espaço de captura tridimensional 51 no espaço de trabalho 12 dentro do qual a câmera 14 pode efetivamente capturar as imagens. O espaço de captura 51 é delimitado nas dimensões X e Y através da área de captura 32 sobre a superfície de trabalho 24. As lentes 52 podem ser otimizadas para uma distância fixa, um foco fixo, e um zoom (aumento) fixo correspondente ao espaço de captura 51.
[028] Referindo à figura 14, o projetor 16 está posicionado próximo à base 36 fora da área de exposição do projetor 34 e focalizado sobre o espelho 38, de modo que a luz a partir do projetor 16 seja refletida fora do espelho 38 dentro do espaço de trabalho 12. O projetor 16 e o espelho 38 define um espaço de exposição tridimensional 53 no espaço de trabalho 12 dentro do qual o projetor 16 pode efetivamente expor as imagens. O espaço de exposição do projetor 53 sobrepõe o espaço de captura da câmera 51 (figura 12) e é delimitado nas dimensões X e Y pela área de exposição 34 sobre a superfície de trabalho 24. Embora o projetor 16 represente geralmente qualquer projetor de luz apropriado, o tamanho compacto e a eficiência de energia de um projetor de LED ou DLP a base de laser (processamento de luz digital) será desejável para muitas aplicações do sistema 10. O projetor 16 pode também empregar uma mudança de lente para permitir a correção da distorção óptica completa na imagem projetada. Como observado acima, o uso de espelho 38 aumenta o comprimento do caminho de luz efetivo do projetor, imitando um deslocamento por cima do projetor 16, embora ainda permitindo uma altura comercialmente razoável para um dispositivo independente integrado 40.
[029] Um exemplo de características apropriadas para o sistema 10, como um dispositivo independente 40, está representado na tabela 1 (as referências da dimensão na tabela 1 estão mencionadas nas figuras 5 e 6).
Figure img0001
Figure img0002
[030] Uma vez que o projetor 16 age como a fonte de luz para a câmera 12, para ainda capturar a imagem, a luz do projetor deve ser brilhante o suficiente para inundar qualquer luz ambiente que possa causar defeitos a partir do brilho especular. Foi determinado que uma luz de projetor 200 lumens (unidade de luminosidade) ou maior será suficientemente brilhante para ofuscar a luz ambiente para aplicação da mesa de trabalho típica para o sistema 10 e o dispositivo 40. Para a captura de vídeo e colaboração de vídeo em tempo real, o projetor 16 brilha uma luz branca no espaço de trabalho 12 para iluminar os objetos 20. Para um projetor de LED 16, o tempo de sequenciamento dos LEDs vermelho, verde e azul que o constituem enquanto as luzes brancas são sincronizadas com a taxa estrutural do vídeo da câmera 14. A taxa de renovação do projetor 16 e de cada período de renovação da subestrutura de LED deveria ser um número integral do tempo de exposição à câmera para cada quadro capturado para evitar a “ligação do arco-íris” e outros efeitos indesejados na imagem de vídeo. Ademais, a taxa de quadro de vídeo da câmera deveria ser sincronizada com a frequência de qualquer luz fluorescente no ambiente que flutua duas vezes na frequência de linha AC (por exemplo, 120Hz para uma linha de energia AC de 60Hz0. Um sensor de luz ambiente pode ser utilizado para sentir a frequência de luz no ambiente e ajustar a taxa de quadro de vídeos para a câmera 14, consequentemente. Ainda para captura a imagem, os LEDs vermelho, verde e azuis do projetor podem ser retornados, simultaneamente, para o flash da câmera para aumentar a intensidade da luz no espaço de trabalho 12, ajudando a diminuir a luz do ambiente e permitir velocidades rápidas do obturador e/ou aberturas menores para reduzir o ruído na imagem.
[031] A configuração exemplificativa para o sistema 10 integrado dentro de um dispositivo independente (“standlonde”) 40 mostrado nas figuras e descrito acima, consegue um balanço desejado entre o tamanho do produto, desempenho, utilidade e custo. A rota de luz dobrada para o projetor 16 reduz a altera do dispositivo 40 enquanto mantém um deslocamento efetivo do projetor alto, acima do espaço de trabalho 12 para prevenir o brilho especular na área de captura da câmera 12. A rota de luz do projetor brilha em uma superfície de trabalho horizontal 2 em um ângulo inclinado, capacitando a captura da imagem do objeto 3D. Esta combinação de um caminho de luz maior e um ângulo inclinado minimiza a falha de luz através da área de captura para maximizar a uniformidade de luz para o flash da câmera. Ademais, a rota de luz dobrada capacita o deslocamento do projetor 16 próximo à base 36 para a estabilidade do produto.
[032] Os dispositivos de entrada apropriados e técnicas para uso no sistema 10 incluem, por exemplo, o toco com o dedo, gestos para toque, canela digital, gestos no ar, reconhecimento de voz, seguir o movimento de cabeça, e o movimento dos olhos. Uma almofada de toque pode ser utilizada apara capacitar uma interface de múltiplos toques, para navegação em uma interface gráfica com o usuário ou o desempenho de ações com gestos intuitivos, tais como, puxar, bater, pancada forte, rolar, apertar o zoom, e rotacionar duas vezes com o dedo. As câmeras de profundidade usando luz estruturada, tempo de voo, padrão de luz deformado, ou visão estereoscópica podem também ser utilizados para capacitar gestos no ar ou limitado ao toque e detecção de gestos de toque sem uma almofada de toque. Uma caneta digital livre de toque é, particularmente, bem apropriada como uma entrada para o usuário no sistema 26 para o sistema 10. Assim, no exemplo mostrado nas figuras, a entrada do usuário 26 inclui uma caneta digital 28 infravermelha e uma câmera de infravermelho 30 para detecção a caneta 28 no espaço de trabalho 12. Como observado acima, uma caneta digital livre de toque tem a desvantagem de permitir a entra da nas três dimensões, incluindo a superfície de trabalho juntas 24, sem uma almofada sensor ou outra superfície especial.
[033] Referindo agora as figuras 4 e 15, o dispositivo de entrada 26 inclui a caneta de infravermelho 28, a câmera de infravermelho 30 e uma estação de carga da caneta 45. A caneta 28 inclui uma luz infravermelha 56, um comutador de ponta sensível ao toque 58 para ligar e desligar 56 automaticamente com base no toque, e um interruptor manual de liga/desliga 60 manualmente para ligar e desligar a luz 56. (o comutador de ponta 58 e um comutador manual 60 são mostrados no diagrama em blocos da figura 4). A luz 56 pode ser posicionada, por exemplo, na ponta da caneta 28 como mostrada na figura 15 para auxiliar a manter uma linha de visão entre a câmera 30 e a luz 56. A luz 56 pode também emitir luz visível para auxiliar ao usuário para determinar se a luz está ligada ou desligada.
[034] O comutador de ponta sensível 58 pode ser sensível ao toque em cerca de 2g força, por exemplo, para simular um instrumento de escrita tradicional. Quando a ponta da caneta toca a superfície de trabalho 24 ou um outro objeto, a ponta do comutador 58 detecta o contato e liga a luz 56. A luz 56 ligada é detectada pela câmera 30, a qual sinaliza um evento de contato/toque (similar a um click do botão do mouse ou um toque do dedo sobre a almofada de toque). A câmera 30 continua a sinalizar o contato, controlando qualquer movimento da caneta 28, enquanto a luz 56 permanecer. O usuário pode deslizar a caneta 28 em torno de qualquer superfície, tal como uma caneta para traçar a superfície ou para ativar as funções de controle. Quando a ponta da caneta não estiver em contato com um objeto, a luz 56 é comutada e os sinais da câmera 30 não são contatados. O comutador de luz manual 60 pode ser utilizado para sinalizar um evento de não- toque. Por exemplo, quando se trabalhe em um espaço de trabalho tridimensional 12, o usuário pode desejar modificar, alterar, ou de outra forma manipular uma imagem projetada acima da superfície de trabalho2 4 através da sinalização manual de um evento de contato “virtual”.
[035] A câmera infravermelha 30 e o espelho 38 definem um espaço de captura infravermelho tridimensional 61 no espaço de trabalho 12 dentro do qual a câmera infravermelha 30 pode efetivamente detectar a luz a partir da caneta 28. O espaço de captura 61 é limitado nas dimensões X e Y através de uma área de captura da câmera de infravermelho 62 sobre a superfície de trabalho 24. No exemplo mostrado, como melhor observado através da comparação das figuras 14 e 15, o espaço de captura da câmera infravermelha 30 pode capturar a ativação da caneta em qualquer lugar no espaço de exposição 53.
[036] Em um exemplo de implementação mostrada na figura 16, a câmera 30 é integrada dentro do caminho de luz de projeção, de modo que o campo de visão do projetor e o campo de visão da câmera infravermelha são coincidentes para auxiliar a dar certeza à caneta 28 e, assim, o sinal de controle a partir da câmera infravermelha 30 é adequadamente alinhado com o projetor de exposição em qualquer lugar no espaço de trabalho 12. Referindo à figura 16, a luz visível 64 gerada por LEDs vermelhos, verdes e azuis 66, 68 e 70 no projetor 16 passa através de várias ópticas 72 (incluindo uma troca de lente 74) fora do espelho 38 (figura 14). A luz infravermelha 75 da caneta 28 no espaço de trabalho 12 refletido fora do espelho 38 em relação ao projetor 16 é dirigido ao sensor de câmera infravermelha 76 através de um divisor de feixes infravermelho 78 através de uma troca de lentes 80. (Similar a configuração exemplificativa para a câmera 14 descrita acima, o sensor de luz infravermelho 76 para a câmera 30 pode ser orientada em um plano paralelo ao plano da superfície de trabalho24 e a luz focalizada sobre o sensor 76 através da troca de lente 80 para a correção da base óptica completa).
[037] Pode ser desejável para algumas implementações comerciais, alojar o projetor 16 e a câmera infravermelho 30 juntas em um alojamento único 82, como mostrado na figura 16. A configuração geométrica para a câmera infravermelha 30 mostrada na figura 16 ajuda a garantir que o sinal de sinalização da caneta seja alinhado com a não exposição da matéria que aumenta a caneta 28 acima da superfície de trabalho 24. Se o ponto de vista do projetor e o ponto de vista da caneta infravermelho não são coincidentes, ele pode ser difícil calibrar o rastro da caneta em mais do que uma altura acima da superfície de trabalho 24, criando o risco de uma estrutura paralaxe (desvio) entre a posição de entrada desejada da caneta e a posição exposta resultante.
[038] Apesar de ser esperado que o espaço de trabalho 12 usualmente inclua uma superfície de trabalho física 24, para suporte em um objeto 20, o espaço de trabalho 12 poderia também ser implementada como um espaço de trabalho projetado completamente sem uma superfície de trabalho física. Em adição, o espaço de trabalho 12 pode ser implementado como um espaço de trabalho tridimensional para trabalho apenas com objetos dimensionais. Embora a configuração do espaço de trabalho 12 usualmente seja determinada amplamente pelo hardware e os elementos de programação do sistema 10, a configuração do espaço de trabalho 12 pode também ser afetado pelas características de uma superfície de trabalho físico 24. Assim, em alguns exemplos para o sistema 10 e o dispositivo 40 pode ser apropriado por considerar que o espaço de trabalho 12 é parte do sistema 10 no senso que o espaço de trabalho virtual acompanhe o sistema 10 a ser manifestado em um espaço de trabalho físico quando o dispositivo 36 é operacional, e em outros exemplos ele pode ser apropriado por considerar que o espaço de trabalho 12 não é parte do sistema 10.
[039] As figuras 17-19 são vistas em perspectivas ilustrando um outro exemplo de um dispositivo de captura de projeção portátil 40 e um espaço de trabalho interativo 12 associado com o dispositivo 40. Referindo às figuras 17 a 19, o dispositivo portátil 40 inclui uma câmera digital 14 para captura de imagens de vídeos de um objeto 20 na área de captura 32 (e no espaço de captura 51) e um projetor 16 para iluminação de um objeto de uma área de captura 32 (e do espaço de captura 51) e para projeção das imagens sobre a área de exposição 34 (e dentro de um espaço de exposição 53). Um objeto bidimensional 20 (uma fotografia impressa) colocado na área de captura 32 foi fotografado pela câmera 14 (figuras 17 e 18), o objeto 20 removido a partir da área de captura 32, e uma imagem do objeto 22 projetada sobre a área de exposição 34 (figura 19) onde ele possa ser fotografado pela câmera 14 e/ou de outro modo manipulado por um usuário.
[040] Neste exemplo, o dispositivo 40 também inclui uma exposição eletrônica 84 para expor seletivamente uma alimentação viva da câmera 14, uma imagem previamente capturada pela câmera 14, ou na representação de uma imagem quando ela é manipulada por um usuário através de uma interface gráfica de usuário (GUI) 86 projetada dentro do espaço de exposição 53. (GUI 86 é projetado sobre a área de exposição 32 no exemplo mostrado nas figuras 17-19). A câmera 14, o projetor 16, e o expositor 84 são operativamente conectados junto através de um controlador 18 e alojado junto no alojamento 13 como um dispositivo portátil único 40. O projetor 16 está posicionado abaixo da câmera 14 alta no alojamento 13 para projetar luz diretamente dentro do espaço de exposição 53 e sobre a área de exposição 34. O espaço de exposição do projetor 53 e a área de exposição 34 sobrepõem o espaço de captura da câmera 51 e a área de captura 32 de modo que o projetor 16 pode servir como a fonte de luz para a câmera 14 capturando a imagem de objetos reais 20 no espaço 51 e sobre a área 32 e de modo que a câmera 14 pode capturar as imagens da imagem 20 projetada dentro do espaço 51 e sobre a área 32.
[041] O controlador 18 é programado para gerar e o projetor 16 projete um GUI 86 que inclui, por exemplo, o “botão” do controle do dispositivo, tal como o botão de captura 88, nas figuras 17 e 18 e botões de cancelar, fixar, e o botão de OK 90, 92, e 94, respectivamente, na figura 19. Apesar de o dispositivo 40 nas figuras 17-19 pode também inclui um GUI mais complexo e, a programação do controle correspondente no controlador 18, bem como outro dispositivo de entrada do usuário, a configuração do dispositivo das figuras 17-19 ilustra a copia digital básica e as funções de manipulação das imagens mais apropriadas para um mercado de produto de área de trabalho menos oneroso para o consumidor.
[042] Os exemplos do sistema 10 e o dispositivo 40 mostrado nas figuras, com uma câmera 14 e um projetor 16, não elimina o uso de duas ou mais câmeras 14 e/ou dois ou mais projetores 16. Ao contrário, pode ser desejável em algumas aplicações para um sistema 10 e um dispositivo 40, incluir mais do que uma câmera, mais do que um projetor ou mais do que um de outros componentes de sistema. Assim, os artigos “um” e “uma” como utilizado neste documento significa um ou mais.
[043] Como observado no início deste relatório descritivo, os exemplos mostrados nas figuras e descritos acima ilustram, mas não limitam a invenção. Outros exemplos, configurações, e implementações são possíveis. Portanto, a descrição acima mencionada poderia não ser construída para limitar o escopo da invenção, que é definido nas reivindicações a seguir.

Claims (12)

1. Dispositivo de captura de projeção caracterizado por compreender: - uma câmera suportada por uma base sobre uma superfície de trabalho horizontal plana, a câmera definindo um espaço de captura tridimensional delimitado em duas dimensões por uma área de captura sobre a superfície de trabalho dentro da qual um sensor de câmera incluído na câmera é para capturar luz visível de imagens focadas no sensor de câmera por uma lente de transferência incluída na câmera que desloca a luz visível de imagens estáticas e de vídeo em uma direção Y em relação ao sensor de câmera, em que a câmera está posicionada na direção Z sobre a área de captura em um local deslocado pelo menos na direção Y a partir do centro da área de captura com o sensor de câmera voltado para a área de captura; - um projetor suportado pela base abaixo da câmera, o projetor definindo um espaço de exposição tridimensional delimitado em duas dimensões por uma área de exposição sobre a superfície de trabalho sobrepondo pelo menos parte da área de captura; e - um controlador suportado pela base para: com o projetor, iluminar os objetos no espaço de captura; com a câmera, capturar luz visível das imagens dos objetos no espaço de captura iluminado pelo projetor; e, com o projetor, projetar luz visível representativa das imagens dos objetos capturadas pela câmera dentro do espaço de exposição; - um espelho posicionado na direção Z sobre o espaço de captura e em que a câmera é colocada na frente do espelho para não bloquear o caminho da luz do projetor.
2. Dispositivo, de acordo com a reivindicação 1, caracterizado por compreender ainda um alojamento que tem uma primeira parte que aloja a câmera sobre a base e uma segunda parte que aloja o projetor e o controlador na base.
3. Dispositivo, de acordo com a reivindicação 2, caracterizado por compreender ainda um espelho alojado junto com a câmera na primeira parte do alojamento, o projetor e o espelho posicionados um em relação ao outro, de modo que a luz do projetor refletida no espelho ilumina o espaço de captura.
4. Dispositivo, de acordo com a reivindicação 1, caracterizado pelo fato do projetor ser para projetar luz branca de pelo menos 200 lúmens dentro da área de captura com diodos emissores de luz vermelha, verde e luz azul (LEDs) sincronizados com uma taxa de estrutura de vídeo da câmera.
5. Dispositivo, de acordo com a reivindicação 4, caracterizado pelo fato de uma taxa de atualização do projetor e um período de atualização de cada subestrutura de LED ser um número inteiro de um tempo de exposição da câmera para cada quadro capturado.
6. Dispositivo, de acordo com a reivindicação 1, caracterizado pelo fato do projetor ser posicionado abaixo da câmera fora de um volume delimitado em duas dimensões pela área de exposição.
7. Dispositivo, de acordo com a reivindicação 6, caracterizado pelo fato do projetor ser para projetar luz dentro da área de exposição ao longo de um caminho de luz que é maior do que a altura da câmera acima da superfície de trabalho.
8. Dispositivo, de acordo com a reivindicação 1, caracterizado pelo fato da câmera e do projetor serem operativamente conectados um ao outro através do controlador para projetar uma interface gráfica ao usuário dentro do espaço de exposição.
9. Dispositivo, de acordo com a reivindicação 1, caracterizado por compreender ainda um expositor eletrônico alojado junto com o controlador, o projetor e a câmera, o expositor operativamente conectado ao controlador para expor uma imagem capturada pela câmera.
10. Dispositivo, de acordo com a reivindicação 1, caracterizado por compreender ainda um dispositivo de entrada do usuário, operativamente conectado ao controlador, para capacitar um usuário a interagir com o dispositivo no espaço de exposição.
11. Dispositivo, de acordo com a reivindicação 10, caracterizado pelo fato do dispositivo de entrada do usuário incluir uma caneta digital infravermelha e uma câmera infravermelha alojada junto com o controlador, o projetor, e a câmera para captura da luz infravermelha emitida pela caneta em um espaço de captura da câmera infravermelha que é coincidente com o espaço de exposição.
12. Dispositivo, de acordo com a reivindicação 11, caracterizado pelo fato da câmera infravermelha ser integrada dentro do caminho de luz da luz do projetor, de modo que o campo de visão do projetor e o campo de visão da câmera infravermelha sejam coincidentes.
BR112014002448-0A 2011-08-02 2011-09-29 Dispositivo de captura de projeção BR112014002448B1 (pt)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
USPCT/US2011/046253 2011-08-02
PCT/US2011/046253 WO2013019217A1 (en) 2011-08-02 2011-08-02 Projection capture system and method
PCT/US2011/053947 WO2013019252A1 (en) 2011-08-02 2011-09-29 Portable projection capture device

Publications (2)

Publication Number Publication Date
BR112014002448A2 BR112014002448A2 (pt) 2017-02-21
BR112014002448B1 true BR112014002448B1 (pt) 2021-12-07

Family

ID=47629565

Family Applications (2)

Application Number Title Priority Date Filing Date
BR112014002463-4A BR112014002463B1 (pt) 2011-08-02 2011-08-02 sistemas de captura de projeções, sistema de captura de projeções interativo e método de captura de projeções
BR112014002448-0A BR112014002448B1 (pt) 2011-08-02 2011-09-29 Dispositivo de captura de projeção

Family Applications Before (1)

Application Number Title Priority Date Filing Date
BR112014002463-4A BR112014002463B1 (pt) 2011-08-02 2011-08-02 sistemas de captura de projeções, sistema de captura de projeções interativo e método de captura de projeções

Country Status (8)

Country Link
US (1) US20140139668A1 (pt)
EP (2) EP2740008A4 (pt)
JP (2) JP6059223B2 (pt)
KR (2) KR101825779B1 (pt)
CN (2) CN103827744B (pt)
BR (2) BR112014002463B1 (pt)
IN (1) IN2014CN00543A (pt)
WO (2) WO2013019217A1 (pt)

Families Citing this family (29)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9582083B2 (en) * 2011-12-22 2017-02-28 Apple Inc. Directional light sensors
JP6175866B2 (ja) * 2013-04-02 2017-08-09 富士通株式会社 インタラクティブプロジェクタ
EP3028113A4 (en) * 2013-07-31 2017-04-05 Hewlett-Packard Development Company, L.P. System with projector unit and computer
CN105683866B (zh) * 2013-08-22 2020-01-10 惠普发展公司,有限责任合伙企业 投影计算系统
US9569892B2 (en) 2013-09-26 2017-02-14 Qualcomm Incorporated Image capture input and projection output
CN104656869B (zh) * 2013-11-20 2018-07-06 联想(北京)有限公司 一种数据处理方法及电子设备
JP5841587B2 (ja) * 2013-12-25 2016-01-13 株式会社Pfu 撮像システム
US10241616B2 (en) 2014-02-28 2019-03-26 Hewlett-Packard Development Company, L.P. Calibration of sensors and projector
JP2015215416A (ja) * 2014-05-08 2015-12-03 富士通株式会社 プロジェクタ装置
US10073567B2 (en) * 2014-05-23 2018-09-11 Piqs Technology (Shenzhen) Limited Interactive display systems
CN106796388A (zh) * 2014-07-31 2017-05-31 惠普发展公司,有限责任合伙企业 来自发光二极管(led)投影仪的白色闪光生成
WO2016018406A1 (en) * 2014-07-31 2016-02-04 Hewlett-Packard Development Company, L.P. Image projection and capture with adjustment for white point
WO2016018413A1 (en) * 2014-07-31 2016-02-04 Hewlett-Packard Development Company, L.P. Object capture and illumination
WO2016018416A1 (en) * 2014-07-31 2016-02-04 Hewlett-Packard Development Company, L.P. Determining the location of a user input device
US20170223321A1 (en) * 2014-08-01 2017-08-03 Hewlett-Packard Development Company, L.P. Projection of image onto object
CN106796446B (zh) * 2014-08-04 2020-05-12 惠普发展公司,有限责任合伙企业 工作空间元数据管理
EP3192243A4 (en) * 2014-09-10 2018-05-02 Hewlett-Packard Development Company, L.P. Image projection and capture with simultaneous display of led light
CN107003714B (zh) * 2014-09-12 2020-08-11 惠普发展公司,有限责任合伙企业 从图像开发上下文信息
WO2016118173A1 (en) * 2015-01-23 2016-07-28 Hewlett-Packard Development Company, L.P. Tracking a handheld device on surfaces with optical patterns
WO2016172506A1 (en) 2015-04-23 2016-10-27 Hasbro, Inc. Context-aware digital play
US9659371B2 (en) * 2015-10-08 2017-05-23 Christie Digital Systems Usa, Inc. System and method for online projector-camera calibration from one or more images
CN106210702A (zh) * 2016-08-30 2016-12-07 四川川大智胜软件股份有限公司 一种同步三维数据采集仪、采集系统及采集方法
JP6981997B2 (ja) * 2016-11-29 2021-12-17 ヌヴォトンテクノロジージャパン株式会社 距離測定装置
WO2018136029A1 (en) * 2017-01-17 2018-07-26 Hewlett-Packard Development Company, L.P. Input device with touch sensitive surface
CN106791747A (zh) * 2017-01-25 2017-05-31 触景无限科技(北京)有限公司 台灯互动展示的分时处理方法、装置以及台灯
JP6969606B2 (ja) * 2017-03-23 2021-11-24 ソニーグループ株式会社 検出機能付きプロジェクタ
JP6399135B1 (ja) * 2017-03-30 2018-10-03 日本電気株式会社 画像入出力装置及び画像入出力方法
EP3857307A4 (en) 2018-09-26 2022-05-04 Hewlett-Packard Development Company, L.P. IMAGE CAPTURE ARRANGEMENTS
CN115379063B (zh) * 2022-07-19 2024-01-16 北京麦哲科技有限公司 一种高拍仪

Family Cites Families (52)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US2529664A (en) * 1948-02-14 1950-11-14 Ward Hickok Visual educational projector
DE69430967T2 (de) * 1993-04-30 2002-11-07 Xerox Corp Interaktives Kopiersystem
JPH08336065A (ja) * 1995-06-09 1996-12-17 Nikon Corp 原稿照明装置及び画像入力装置
US5639151A (en) * 1996-02-16 1997-06-17 Mcnelley; Steve H. Pass-through reflective projection display
GB9614837D0 (en) * 1996-07-12 1996-09-04 Rank Xerox Ltd Interactive desktop system with multiple image capture and display modes
US6095661A (en) * 1998-03-19 2000-08-01 Ppt Vision, Inc. Method and apparatus for an L.E.D. flashlight
US7136090B1 (en) * 1999-08-10 2006-11-14 Teleportec, Inc. Communications system
JP4023048B2 (ja) * 1999-10-05 2007-12-19 株式会社日立製作所 背面投写型映像表示システム
US6618076B1 (en) * 1999-12-23 2003-09-09 Justsystem Corporation Method and apparatus for calibrating projector-camera system
US6965460B1 (en) * 2000-08-08 2005-11-15 Hewlett-Packard Development Company, L.P. Method and system for scanning an image using a look-down linear array scanner
US20020180726A1 (en) * 2000-11-06 2002-12-05 Jianbo Shi Paper-based remote sketching system
JP4608766B2 (ja) * 2000-11-27 2011-01-12 ソニー株式会社 固体撮像素子の駆動方法、及びカメラ
US6431711B1 (en) * 2000-12-06 2002-08-13 International Business Machines Corporation Multiple-surface display projector with interactive input capability
US6554434B2 (en) * 2001-07-06 2003-04-29 Sony Corporation Interactive projection system
JP2003152851A (ja) * 2001-11-14 2003-05-23 Nec Corp 携帯端末装置
JP2003276399A (ja) * 2002-03-25 2003-09-30 Matsushita Electric Ind Co Ltd 位置検出方法および装置ならびに電子黒板装置
US7710391B2 (en) * 2002-05-28 2010-05-04 Matthew Bell Processing an image utilizing a spatially varying pattern
US6840627B2 (en) * 2003-01-21 2005-01-11 Hewlett-Packard Development Company, L.P. Interactive display device
JP2004265185A (ja) * 2003-03-03 2004-09-24 Canon Inc デジタイザ付きカメラ付き画像投影装置
JP2004320123A (ja) * 2003-04-11 2004-11-11 Nec Viewtechnology Ltd 資料提示装置
US20050068442A1 (en) * 2003-09-26 2005-03-31 Corey Billington Presentation system and method of use
JP2005128413A (ja) * 2003-10-27 2005-05-19 Pentax Corp 照明制御装置
US7496229B2 (en) * 2004-02-17 2009-02-24 Microsoft Corp. System and method for visual echo cancellation in a projector-camera-whiteboard system
JP2005250392A (ja) * 2004-03-08 2005-09-15 Olympus Corp カメラ
JP2006004010A (ja) * 2004-06-15 2006-01-05 Brother Ind Ltd 画像入出力装置
JP2005354306A (ja) * 2004-06-09 2005-12-22 Brother Ind Ltd 画像入出力装置
US7519223B2 (en) * 2004-06-28 2009-04-14 Microsoft Corporation Recognizing gestures and using gestures for interacting with software applications
US7557966B2 (en) * 2004-08-11 2009-07-07 Acushnet Company Apparatus and method for scanning an object
JP4433960B2 (ja) * 2004-09-21 2010-03-17 株式会社ニコン 携帯型情報機器
JP3901185B2 (ja) * 2004-09-27 2007-04-04 カシオ計算機株式会社 投影装置、投影画像の撮影方法及びプログラム
US7843470B2 (en) * 2005-01-31 2010-11-30 Canon Kabushiki Kaisha System, image processing apparatus, and information processing method
WO2007004502A1 (ja) * 2005-06-30 2007-01-11 Ricoh Company, Ltd. 投影画像表示装置
US7614753B2 (en) * 2005-10-31 2009-11-10 Hewlett-Packard Development Company, L.P. Determining an adjustment
US7599561B2 (en) * 2006-02-28 2009-10-06 Microsoft Corporation Compact interactive tabletop with projection-vision
US8649848B2 (en) * 2006-03-28 2014-02-11 The United States Of America, As Represented By The Secretary Of The Air Force Synchronization of illumination source and sensor for improved visualization of subcutaneous structures
JP4697087B2 (ja) * 2006-08-09 2011-06-08 富士ゼロックス株式会社 画像処理装置
US7690795B2 (en) * 2006-10-06 2010-04-06 Hewlett-Packard Development Company, L.P. Projector/camera system
US7907781B2 (en) * 2007-06-21 2011-03-15 Mitsubishi Electric Research Laboraties, Inc. System and method for determining geometries of scenes
US9377874B2 (en) * 2007-11-02 2016-06-28 Northrop Grumman Systems Corporation Gesture recognition light and video image projector
JP5504570B2 (ja) * 2008-03-27 2014-05-28 カシオ計算機株式会社 カメラ内蔵プロジェクタ及びカメラ内蔵プロジェクタの撮影方法
JP5277703B2 (ja) * 2008-04-21 2013-08-28 株式会社リコー 電子機器
JP5309724B2 (ja) * 2008-06-24 2013-10-09 船井電機株式会社 プロジェクタ
US8355038B2 (en) * 2009-01-28 2013-01-15 Hewlett-Packard Development Company, L.P. Systems for capturing images through a display
US8619178B2 (en) * 2009-01-28 2013-12-31 Hewlett-Packard Development Company, L.P. Image rendition and capture
JP2010224015A (ja) * 2009-03-19 2010-10-07 Sanyo Electric Co Ltd 投写型映像表示装置及び記載ボード及び投写映像システム
JP2010238213A (ja) * 2009-03-30 2010-10-21 Plus Vision Corp タブレットpcシステム及び電子筆記シート
JP5395507B2 (ja) * 2009-05-21 2014-01-22 キヤノン株式会社 三次元形状測定装置、三次元形状測定方法及びコンピュータプログラム
NO331527B1 (no) * 2009-12-23 2012-01-23 Cisco Systems Int Sarl Metode for a fjerne flimring i videoopptak
US8842096B2 (en) * 2010-01-08 2014-09-23 Crayola Llc Interactive projection system
US8490002B2 (en) * 2010-02-11 2013-07-16 Apple Inc. Projected display shared workspaces
US8751049B2 (en) * 2010-05-24 2014-06-10 Massachusetts Institute Of Technology Kinetic input/output
US8928735B2 (en) * 2011-06-14 2015-01-06 Microsoft Corporation Combined lighting, projection, and image capture without video feedback

Also Published As

Publication number Publication date
EP2740008A1 (en) 2014-06-11
JP2014239441A (ja) 2014-12-18
KR101825779B1 (ko) 2018-02-05
JP6068392B2 (ja) 2017-01-25
CN103828341A (zh) 2014-05-28
KR20140054146A (ko) 2014-05-08
BR112014002463B1 (pt) 2020-12-08
JP2014529925A (ja) 2014-11-13
EP2740259A1 (en) 2014-06-11
KR20140068902A (ko) 2014-06-09
US20140139668A1 (en) 2014-05-22
BR112014002463A2 (pt) 2017-02-21
CN103827744B (zh) 2016-04-06
CN103828341B (zh) 2017-02-15
IN2014CN00543A (pt) 2015-04-03
CN103827744A (zh) 2014-05-28
EP2740008A4 (en) 2015-09-16
WO2013019217A1 (en) 2013-02-07
WO2013019252A1 (en) 2013-02-07
JP6059223B2 (ja) 2017-01-11
EP2740259A4 (en) 2015-04-22
BR112014002448A2 (pt) 2017-02-21
KR101787180B1 (ko) 2017-10-18

Similar Documents

Publication Publication Date Title
BR112014002448B1 (pt) Dispositivo de captura de projeção
US9521276B2 (en) Portable projection capture device
US9560281B2 (en) Projecting an image of a real object
JP6078884B2 (ja) カメラ式マルチタッチ相互作用システム及び方法
TWI645244B (zh) 智慧型照明裝置及其控制方法
JP5950130B2 (ja) カメラ式マルチタッチ相互作用装置、システム及び方法
CN106687887B (zh) 投影的交互式虚拟桌面
WO2013035553A1 (ja) ユーザインタフェース表示装置

Legal Events

Date Code Title Description
B06F Objections, documents and/or translations needed after an examination request according [chapter 6.6 patent gazette]
B06U Preliminary requirement: requests with searches performed by other patent offices: procedure suspended [chapter 6.21 patent gazette]
B09A Decision: intention to grant [chapter 9.1 patent gazette]
B16A Patent or certificate of addition of invention granted [chapter 16.1 patent gazette]

Free format text: PRAZO DE VALIDADE: 20 (VINTE) ANOS CONTADOS A PARTIR DE 29/09/2011, OBSERVADAS AS CONDICOES LEGAIS. PATENTE CONCEDIDA CONFORME ADI 5.529/DF, QUE DETERMINA A ALTERACAO DO PRAZO DE CONCESSAO.

B21F Lapse acc. art. 78, item iv - on non-payment of the annual fees in time

Free format text: REFERENTE A 12A ANUIDADE.

B24J Lapse because of non-payment of annual fees (definitively: art 78 iv lpi, resolution 113/2013 art. 12)

Free format text: EM VIRTUDE DA EXTINCAO PUBLICADA NA RPI 2742 DE 25-07-2023 E CONSIDERANDO AUSENCIA DE MANIFESTACAO DENTRO DOS PRAZOS LEGAIS, INFORMO QUE CABE SER MANTIDA A EXTINCAO DA PATENTE E SEUS CERTIFICADOS, CONFORME O DISPOSTO NO ARTIGO 12, DA RESOLUCAO 113/2013.