BR112014018565B1 - Sistema, método e mídia de armazenamento para exibir uma imagem - Google Patents

Sistema, método e mídia de armazenamento para exibir uma imagem Download PDF

Info

Publication number
BR112014018565B1
BR112014018565B1 BR112014018565-4A BR112014018565A BR112014018565B1 BR 112014018565 B1 BR112014018565 B1 BR 112014018565B1 BR 112014018565 A BR112014018565 A BR 112014018565A BR 112014018565 B1 BR112014018565 B1 BR 112014018565B1
Authority
BR
Brazil
Prior art keywords
orientation
image
display
capture device
determined
Prior art date
Application number
BR112014018565-4A
Other languages
English (en)
Other versions
BR112014018565A8 (pt
BR112014018565A2 (pt
Inventor
Geoffrey Mayne
David Short
Daniel Weinstein
Dan Riedler
Original Assignee
Hewlett-Packard Development Company, L.P.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hewlett-Packard Development Company, L.P. filed Critical Hewlett-Packard Development Company, L.P.
Publication of BR112014018565A2 publication Critical patent/BR112014018565A2/pt
Publication of BR112014018565A8 publication Critical patent/BR112014018565A8/pt
Publication of BR112014018565B1 publication Critical patent/BR112014018565B1/pt

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/14Systems for two-way working
    • H04N7/15Conference systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/14Systems for two-way working
    • H04N7/141Systems for two-way working between two video terminals, e.g. videophone
    • H04N7/142Constructional details of the terminal equipment, e.g. arrangements of the camera and the display
    • H04N7/144Constructional details of the terminal equipment, e.g. arrangements of the camera and the display camera and display on the same optical axis, e.g. optically multiplexing the camera and display for eye to eye contact
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G3/00Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes
    • G09G3/001Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes using specific devices not provided for in groups G09G3/02 - G09G3/36, e.g. using an intermediate record carrier such as a film slide; Projection systems; Display of non-alphanumerical information, solely or in combination with alphanumerical information, e.g. digital display on projected diapositive as background
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/2628Alteration of picture size, shape, position or orientation, e.g. zooming, rotation, rolling, perspective, translation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/14Systems for two-way working
    • H04N7/141Systems for two-way working between two video terminals, e.g. videophone
    • H04N7/142Constructional details of the terminal equipment, e.g. arrangements of the camera and the display
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/14Systems for two-way working
    • H04N7/141Systems for two-way working between two video terminals, e.g. videophone
    • H04N7/147Communication arrangements, e.g. identifying the communication as a video-communication, intermediate storage of the signals

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • Computer Hardware Design (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Processing Or Creating Images (AREA)
  • Image Processing (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Transforming Electric Information Into Light Information (AREA)
  • Controls And Circuits For Display Device (AREA)

Abstract

sistema para exibir uma imagem. um sistema e um método para exibir uma imagem são revelados neste documento. o sistema inclui uma superfície na qual a imagem é exibida e um dispositivo de renderização de exibição para exibir a imagem na superfície. o sistema também inclui um dispositivo de captura para detectar a superfície, um processador e uma mídia de armazenamento não transitório legível por computador incluindo instruções que induzem o processador para: determinar dimensões da superfície, determinar uma primeira orientação da superfície, converter a imagem para exibição na superfície com base nas dimensões determinadas da superfície e na primeira orientação determinada da superfície, detectar reposicionamento da superfície para uma segunda orientação, determinar a segunda orientação da superfície, e converter a imagem para exibição na superfície com base nas dimensões determinadas da superfície e na segunda orientação determinada da superfície em relação ao dispositivo de captura.

Description

ANTECEDENTES
[001] Consumidores apreciam facilidade de uso e flexibilidade em dispositivos eletrônicos. Adaptabilidade às necessidades de consumidores também é desejável. Empresas, portanto, podem se esforçar para projetar dispositivos eletrônicos direcionados para um ou mais destes objetivos.
DESCRIÇÃO RESUMIDA DOS DESENHOS
[002] A descrição detalhada a seguir faz referências para os desenhos, em que: A figura 1 é um exemplo de um sistema para exibir uma imagem em uma superfície. A figura 2 é um outro exemplo do sistema da figura 1 para exibir uma imagem em duas superfícies. As figuras 3 e 4 são exemplos de calibração de sensores de um dispositivo de captura do sistema da figura 1. A figura 5 é um exemplo de um modo no qual cantos de uma superfície podem ser localizados pelo uso de detecção de profundidade. A figura 6 é um exemplo de um outro modo em que cantos de uma superfície podem ser localizados pelo uso de detecção de infravermelho (IR) ou de Vermelho, Verde e Azul (RGB). A figura 7 ilustra um exemplo da determinação das dimensões e orientação de uma superfície dentro de um ambiente de trabalho. A figura 8 ilustra um exemplo da determinação do ângulo fi (Φ) de uma superfície de um ambiente de trabalho. A figura 9 é um exemplo de transformação de uma imagem bidimensional fornecida por um dispositivo de renderização de exibição para uma retroprojeção bidimensional de um plano tridimensional de uma tela. A figura 10 é um exemplo de uma cunha ou elemento angulado tendo uma tela na qual uma imagem pode ser exibida. A figura 11 é um exemplo de um método de exibir uma imagem em uma superfície localizada em um ambiente de trabalho. A figura 12 é um exemplo de elementos adicionais do método da figura 11. A figura 13 é um exemplo de elementos adicionais do método da figura 11.
DESCRIÇÃO DETALHADA
[003] Pessoas frequentemente valorizam contato visual durante conversas por causa de uma variedade de motivos, tal como aprimorar um sentido de concatenação, atenção, interesse e entendimento. Isto pode ser desafiador para alcançar no contexto de sistemas de videoconferência por causa da colocação de câmeras de sistema em relação a mostradores de sistema. Por exemplo, quando um usuário de um sistema de videoconferência em uma localização olha a imagem de uma outra pessoa em uma localização diferente conectada ao sistema, esse usuário também não pode simultaneamente olhar diretamente para a câmera capturando sua imagem. Quanto maior a distância entre a câmera e o mostrador exibindo a pessoa projetada em uma localização particular tanto maior pode ser a falta de contato visual entre esse usuário e a pessoa.
[004] Esta situação pode ser exacerbada durante videoconferências envolvendo múltiplos usuários em uma localização onde somente uma câmera está presente. Por exemplo, todos os usuários em uma localização não podem ser visíveis ao mesmo tempo no mostrador na outra localização remota. Se múltiplos usuários em uma localização forem visíveis, então suas distâncias para a câmera nessa localização podem ser diferentes. Isto pode resultar em graus diferentes de falta de contato visual de suas imagens na localização remota.
[005] Um outro problema que pode surgir com tais sistemas de videoconferência ocorre no contexto de usuários remotos trabalhando com conteúdo compartilhado. Por exemplo, a imagem exibida de um usuário remoto pode obscurecer parte ou todo um ambiente de trabalho local no qual o conteúdo compartilhado é posicionado ou exibido. Adicionalmente ou de forma alternativa, o usuário remoto pode estar muito longe do ambiente de trabalho remoto para que sua imagem seja visível em um mostrador local, impedindo desse modo o objetivo de colaboração através de tal videoconferência.
[006] Tal como usado neste documento, os termos “exibindo”, “exibição” e “exibido” são definidos para incluir, mas não estão limitados a isto, projetar e projeção. O termo “imagem” é definido para incluir, mas não está limitado a isto, um ou mais fluxos de vídeo do mesmo ou de conteúdo diferente. Esta imagem pode vir de qualquer uma de uma variedade de fontes tais como a Internet, um computador, um dispositivo de mão (por exemplo, telefone móvel, tablet ou assistente digital pessoal (PDA)), etc. Esta imagem também pode estar em qualquer um de uma variedade de formatos tais como MPEG, PDF, WAV, JPEG, etc.
[007] A expressão “dispositivo de renderização de exibição” é definida para incluir, mas não está limitada a isto, um projetor. O termo “câmera” é definido para incluir, mas não está limitado a isto, um dispositivo que captura conteúdo visível ou dados associados com uma ou mais pessoas ou objetos para exibição subsequente. O termo “superfície” é definido para incluir, mas não está limitado a isto, qualquer objeto bidimensional ou tridimensional tendo uma área ou volume no qual uma imagem pode ser exibida (por exemplo, uma tela). O termo “orientação” inclui, mas não está limitado a isto, as coordenadas cartesianas X, Y e Z em um ambiente de trabalho, assim como ângulos em relação ao ambiente de trabalho (por exemplo, Ex, Ey e Ez ou giro, altura e mudança de direção). A expressão “dispositivo de captura” é definida para incluir, mas não está limitada a isto, um dispositivo de imageamento, sensor ou detector.
[008] Tal como usado neste documento, as expressões “mídia de armazenamento não transitório” e “mídia de armazenamento não transitório legível por computador” se referem a quaisquer mídias que possam conter, armazenar ou manter programas, informação e dados. Mídia de armazenamento não transitório e mídia de armazenamento não transitório legível por computador podem incluir qualquer uma de muitas mídias físicas tais como, por exemplo, mídias eletrônicas, magnética, ótica, eletromagnéticas ou semicondutoras. Exemplos mais específicos de mídia de armazenamento não transitório e mídia de armazenamento não transitório legível por computador adequadas incluem, mas não estão limitados a estes, um disquete de computador magnético tal como discos flexíveis ou unidades rígidas, fita magnética, uma memória de acesso aleatório (RAM), uma memória somente de leitura (ROM), uma memória somente de leitura programável e apagável, uma unidade flash, um disco compacto (CD), ou um disco de vídeo digital (DVD).
[009] Tal como usado neste documento, o termo “processador” se refere a um sistema de execução de instruções tal como um sistema baseado em computador/processador, um Circuito Integrado de Aplicação Específica (ASIC), ou um sistema de hardware e/ou de software que pode recuperar ou obter a lógica de uma mídia de armazenamento não transitório ou de uma mídia de armazenamento não transitório legível por computador e executar as instruções contidas na mesma.
[010] Um exemplo de um sistema 10 para exibir uma imagem 12 que é direcionada para abordar essas questões discutidas anteriormente com sistemas de videoconferência está mostrado na figura 1. Tal como pode ser visto na figura 1, o sistema 10 inclui uma superfície 14 na qual a imagem 12 é exibida. O sistema 10 também inclui um dispositivo de renderização de exibição 16 para exibir a imagem 12 na superfície 14, tal como indicado pelas setas 18, 20 e 22, e um dispositivo de captura 24 para detectar a superfície 14, tal como indicado pela seta 26. O sistema 10 inclui adicionalmente um processador 28 acoplado ao dispositivo de captura 24, tal como indicado pela seta 30, e ao dispositivo de renderização de exibição 16 via dispositivo de conversão de imagem 32, tal como indicado pelas setas 34 e 36. O dispositivo de conversão de imagem 32 executa processamento na imagem 12, tal como indicado pela seta 33, de tal maneira que ela fica em um formato apropriado para ser utilizado pelo dispositivo de renderização de exibição 16.
[011] O sistema 10 inclui adicionalmente uma mídia de armazenamento não transitório legível por computador 38. A mídia de armazenamento não transitório legível por computador 38 inclui instruções que, quando executadas pelo processador 28, fazem com que o processador 28 determine as dimensões (por exemplo, comprimento e largura) da superfície 14 detectada pelo dispositivo de captura 24 e determine uma primeira orientação no espaço da superfície 14 em relação ao dispositivo de captura 24. A mídia de armazenamento não transitório legível por computador 38 inclui instruções adicionais que, quando executadas pelo processador 28, fazem com que o processador 28 converta a imagem 12 pelo uso do dispositivo de conversão de imagem 32 para exibir na superfície 14 via dispositivo de renderização de exibição 16 com base nas dimensões determinadas da superfície 14 e na primeira orientação determinada da superfície 14 em relação ao dispositivo de captura 24.
[012] Tal como também pode ser visto na figura 1, a superfície 14 pode ser deslocada por um usuário do sistema 10 da primeira orientação mostrada em linhas cheias para a segunda orientação mostrada em linhas tracejadas, tal como indicado pela seta 40. O usuário do sistema 10 pode deslocar a superfície 14 da primeira orientação para a segunda orientação por causa de uma variedade de motivos tais como melhorar a detecção de contato visual entre o usuário e um ou mais usuários em uma localização remota. Um outro motivo pelo qual o usuário do sistema 10 pode deslocar a superfície 14 da primeira orientação para a segunda orientação é minimizar a quantidade de ambiente de trabalho que é ocultada ou bloqueada pela superfície 14. Isto pode ser útil quando conteúdo compartilhado está sendo projetado ou exibido no ambiente de trabalho.
[013] A mídia de armazenamento não transitório legível por computador 38 inclui adicionalmente instruções que, quando executadas pelo processador 28, fazem com que o processador 28 detecte este reposicionamento da superfície 14 para a segunda orientação em relação ao dispositivo de captura 24, tal como indicado pela seta tracejada 42, e determine a segunda orientação no espaço da superfície 14 em relação ao dispositivo de captura 24. A mídia de armazenamento não transitório legível por computador 38 também inclui adicionalmente instruções que, quando executadas pelo processador 28, fazem com que o processador 28 converta a imagem 12 pelo uso do dispositivo de conversão de imagem 32 para exibir na superfície 14 via dispositivo de renderização de exibição 16 com base nas dimensões determinadas anteriormente da superfície 14 e na segunda orientação determinada da superfície 14 em relação ao dispositivo de captura 24, tal como indicado pelas setas tracejadas 44, 46 e 48.
[014] Um outro exemplo do sistema 10 para exibir a imagem 12 nas duas superfícies 50 e 52 está mostrado na figura 2. Uso destas duas superfícies 50 e 52 pode se comprovar útil em uma variedade de contextos e por causa de uma variedade de motivos. Por exemplo, podem existir muitos usuários em uma localização para serem exibidos em somente uma das superfícies 50 e 52. Como um outro exemplo, se múltiplos usuários em uma localização forem visíveis em uma única superfície, suas distâncias para a câmera nessa localização podem ser diferentes. Isto pode resultar em graus diferentes de falta de contato visual de suas imagens na localização remota. Como um exemplo adicional, uma imagem pode ser exibida na superfície 50 diferente daquela imagem exibida na superfície 52.
[015] Tal como pode ser visto na figura 2, o dispositivo de renderização de exibição 16 exibe a imagem 12 na superfície 50, tal como indicado pelas setas 54, 56 e 58, e na superfície 52, tal como indicado pelas setas 60, 62 e 64. Tal como também pode ser visto na figura 2, o dispositivo de captura 24 detecta a superfície 50, tal como indicado pela seta 66 e a superfície 52, tal como indicado pela seta 68. A mídia de armazenamento não transitório legível por computador 38 inclui instruções que, quando executadas pelo processador 28, fazem com que o processador 28 determine as dimensões (por exemplo, comprimento e largura) da superfície 50 detectada pelo dispositivo de captura 24 e determine uma primeira orientação no espaço da superfície 50 em relação ao dispositivo de captura 24. A mídia de armazenamento não transitório legível por computador 38 também inclui instruções que, quando executadas pelo processador 28, fazem com que o processador 28 determine as dimensões (por exemplo, comprimento e largura) da superfície 52 detectada pelo dispositivo de captura 24 e determine uma segunda orientação no espaço da superfície 52 em relação ao dispositivo de captura 24. A mídia de armazenamento não transitório legível por computador 38 inclui instruções adicionais que, quando executadas pelo processador 28, fazem com que o processador 28 converta a imagem 12 pelo uso do dispositivo de conversão de imagem 32 para exibir nas superfícies 50 e 52 via dispositivo de renderização de exibição 16 com base nas dimensões determinadas das superfícies 50 e 52 e nas primeira e segunda orientações determinadas respectivamente das superfícies 50 e 52 em relação ao dispositivo de captura 24.
[016] Tal como também pode ser visto na figura 2, as superfícies 50 e 52 podem ser deslocadas por um ou mais usuários do sistema 10 das respectivas primeira e segunda orientações mostradas em linhas cheias para as respectivas terceira e quarta orientações mostradas em linhas tracejadas, tal como indicado pela seta 70. O usuário ou usuários do exemplo do sistema 10 mostrado na figura 2 podem deslocar as superfícies 50 e 52 das respectivas primeira e segunda orientações para as respectivas terceira e quarta orientações por causa de uma variedade de motivos tais como aqueles discutidos anteriormente em conexão com a figura 1.
[017] A mídia de armazenamento não transitório legível por computador 38 inclui adicionalmente instruções que, quando executadas pelo processador 28, fazem com que o processador 28 detecte este reposicionamento das superfícies 50 e 52 para as respectivas terceira e quarta orientações em relação ao dispositivo de captura 24, tal como indicado pelas setas tracejadas 72 e 74, e determine as respectivas terceira e quarta orientações no espaço das superfícies 50 e 52 em relação ao dispositivo de captura 24. A mídia de armazenamento não transitório legível por computador 38 também inclui adicionalmente instruções que, quando executadas pelo processador 28, fazem com que o processador 28 converta a imagem 12 pelo uso do dispositivo de conversão de imagem 32 para exibir nas superfícies 50 e 52 via dispositivo de renderização de exibição 16 com base nas dimensões determinadas anteriormente das superfícies 50 e 52, e nas respectivas terceira e quarta orientações determinadas das superfícies 50 e 52 em relação ao dispositivo de captura 24, tal como indicado pelas setas tracejadas 76, 78 e 80 para a superfície 50 e pelas setas tracejadas 82, 84 e 86 para a superfície 52.
[018] Um exemplo de calibração de sensores do dispositivo de captura 24 está mostrado nas figuras 3 e 4. Tal como pode ser visto na figura 3, uma área 88 coberta por sensores do dispositivo de captura 24 inclui uma largura 90 e uma altura 92. Tal como também pode ser visto na figura 3, o dispositivo de renderização de exibição 16 tem uma área de projeção 94 limitada ou definida pelo canto p1 96, canto p2 98, canto p3 100 e pelo canto p4 102. No exemplo mostrado nas figuras 3 e 4, a área 88 está ilustrada como sendo substancialmente retangular e a área 94 está ilustrada como sendo substancialmente trapezoidal. É para ser entendido, entretanto, que em outros exemplos do sistema para exibir uma imagem estas áreas podem ter formas diferentes. Isto é porque qualquer forma de imagem pode ser projetada em qualquer forma de superfície desde que pelo menos dois pontos da imagem projetada contactam a borda externa da superfície na qual a imagem é projetada.
[019] Uma matriz de homografia (H) 104 pode ser criada, tal como indicado pela seta 106, para executar esta calibração tal como se segue: largura 90 = WidthPixels de dispositivo de captura / WidthPixels de dispositivo de renderização de exibição altura 92 = HeightPixels de dispositivo de captura / HeightPixels de dispositivo de renderização de exibição s1 = {(WidthPixels-1 de dispositivo de renderização de exibição)*largura 90, 0} s2 = {0, 0} s3 = {0, (HeightPixels-1 de dispositivo de renderização de exibição)*altura 92} s4 = {(WidthPixels-1 de dispositivo de renderização de exibição)*largura 90, (HeightPixels-1 de dispositivo de renderização de exibição)*altura 92} In = {p1, p2, p3, p4} Out = {s1, s2, s3, s4} H104 = perspectiveXfrm(In, Out).
[020] Uma vez que os cantos p1 96, p2 98, p3 100 e p4 102 da área de projeção 94 dentro da área 88 coberta por sensores do dispositivo de captura 24 tenham sido determinados e uma matriz de homografia (H) 104 criada, tal como ilustrado na figura 3 e discutido anteriormente, dados provenientes do dispositivo de captura 24 são transformados com a matriz de homografia (H) 104, tal como indicado pela seta 108 e ilustrado na figura 4. Isto resulta em uma transformação da forma substancialmente trapezoidal da área 94 do dispositivo de renderização de exibição 16 para uma área 110 que tem uma forma substancialmente retangular que melhor encaixa ou enche a área 88 coberta por sensores do dispositivo de captura 24, a qual também tem uma forma substancialmente retangular, tal como ilustrado na figura 4.
[021] Os cantos c1 112, c2 114, c3 116 e c4 118 da superfície 120 da cunha 121 na qual a imagem 12 é exibida no ambiente de trabalho 122 necessitam ser localizados. A figura 5 é um exemplo de um modo no qual os cantos c1, c2, c3 e c4 podem ser localizados pelo dispositivo de captura 24 ao usar detecção de profundidade. Especificamente, os cantos 112, 114, 116 e 118 são determinados a partir do perímetro 124 de segmentação da cunha 121. A orientação da superfície 120 no espaço é determinada pelo dispositivo de captura 24 com base na altura relativa dos cantos c1, c2, c3 e c4 a partir do ambiente de trabalho 122.
[022] Um exemplo de um outro modo no qual os cantos c1 126, c2 128, c3 130 e c4 132 da superfície 134 de uma cunha diferente 136, em que a imagem 12 é exibida no ambiente de trabalho 138, podem ser localizados pelo uso de detecção de infravermelho (IR) ou de Vermelho, Verde e Azul (RGB) pelo dispositivo de captura 24 está mostrado na figura 6. Esta técnica envolve o uso dos fiduciais 140, 142, 144 e 146 adjacentes aos respectivos cantos c1, c2, c3 e c4. No caso de detecção RGB, estes fiduciais podem ser marcas exclusivas que são projetadas de maneira que os fiduciais 140 e 144 adjacentes aos respectivos cantos 126 e 130 sejam diferentes dos fiduciais 142 e 146 adjacentes aos respectivos cantos 128 e 132. No caso de detecção IR pelo dispositivo de captura 24, estes fiduciais podem ser LEDs infravermelhos adjacentes a cada um dos cantos c1, c2, c3 e c4, com os LEDs infravermelhos adjacentes aos cantos 126 e 130 sendo diferentes daqueles localizados nos cantos 128 e 132. Esta diferença pode ser escolhida para ser qualquer uma de uma variedade de características diferentes tais como cor (isto é, comprimento de onda), intensidade, tamanho, etc.
[023] O dispositivo de captura 24, utilizando esta técnica exemplar ilustrada na figura 6, localiza os fiduciais 140, 142, 144 e 146. O dispositivo de captura 24 é capaz de determinar a orientação da cunha 136 no espaço porque os fiduciais superiores 142 e 146 são distintos dos fiduciais inferiores 140 e 144. Isto por sua vez permite que o dispositivo de captura 24 determine as localizações dos cantos c1, c2, c3 e c4 adjacentes aos respectivos fiduciais 140, 142, 144 e 146.
[024] Um exemplo da determinação das dimensões (por exemplo, comprimento e largura) de uma superfície, tal como a superfície 134 da cunha 136, e sua orientação no espaço está ilustrado na figura 7. Tal como pode ser visto na figura 7, o canto c1 126 representa o canto inferior esquerdo da cunha 136 (ver a figura 6). Adicionalmente, a parte do ambiente de trabalho 138 detectável ou monitorada pelo dispositivo de captura 24 é dividida em quatro quadrantes, isto é, o quadrante 1 148, o quadrante 2 150, o quadrante 3 152 e o quadrante 4 154. Os cantos c1 126 e c3 130 são distinguíveis dos cantos c2 128 e c4 132, tal como discutido anteriormente, e representam a frente da superfície 134 da cunha 136. Instruções na mídia de armazenamento não transitório legível por computador 38 fazem com que o processador 28 determine em qual dos quatro quadrantes está o canto c3 com relação ao canto c1 que está representado como estando em uma origem ou interseção 156 de todos os quatro quadrantes 148, 150, 152 e 154. O ângulo teta (θ) 158 do vetor W 160 do canto c1 126 para o canto c3 130 é o ângulo de orientação da superfície 134 da cunha 136 dentro do ambiente de trabalho 138 detectável ou monitorado pelo dispositivo de captura 24. A distância do canto c1 para o canto c3 representa o comprimento do vetor W 160 que corresponde a uma das duas dimensões da superfície 134 da cunha 136. A distância do canto c3 para o canto c4 representa o comprimento do vetor L 162 que corresponde à outra das duas dimensões da superfície 134 da cunha 136.
[025] Um exemplo da determinação do ângulo fi (Φ) de uma superfície, tal como a superfície 134 da cunha 136, em relação ao ambiente de trabalho 138 está ilustrado na figura 8. Tal como pode ser visto na figura 8, o ângulo fi pode ser determinado tal como se segue: Φ = tan-1 (z / L), onde: L é a distância do canto c3 130 ao canto c4 132 e é igual ao comprimento do vetor L 162, discutido anteriormente em conexão com a figura 7; e z é a “altura” relativa de c3 para c4 que pode ser determinada pelo uso de um sensor de profundidade do tipo discutido anteriormente em conexão com a figura 5.
[026] Um exemplo de transformação de uma imagem bidimensional fornecida pelo dispositivo de renderização de exibição 164 para uma retroprojeção bidimensional de um plano tridimensional da superfície 166 posicionada em um ambiente de trabalho 168 está mostrado na figura 9. O método básico usado é construir um vetor a partir do dispositivo de renderização de exibição 164 para cada canto da superfície 166. Neste exemplo, o vetor 170 a partir do dispositivo de renderização de exibição 164 para o canto c1 172 da superfície 166, o vetor 174 a partir do dispositivo de renderização de exibição 164 para o canto c2 176 da superfície 166, o vetor 178 a partir do dispositivo de renderização de exibição 164 para o canto c3 180 da superfície 166, e o vetor 182 a partir do dispositivo de renderização de exibição 164 para o canto c4 da superfície 166. A seguir, cada um dos vetores 170, 174, 178 e 182 é alongado (tal como necessário) até que ele toque no ambiente de trabalho 168 (neste caso, os vetores 174 e 182). A seguir, cada vetor é acrescentado à localização correspondente do dispositivo de renderização de exibição 164. Esta soma fornece a transformação tridimensional para bidimensional para esse canto.
[027] Por exemplo, dado que: c1, c2, c3 e c4 são as localizações de cantos da tela 166; I 186 é a distância do topo da tela 166 ao ambiente de trabalho 168; P 188 = [Px, 0, Pz] é a coordenada esquerda de topo do dispositivo de renderização de exibição 164; e h é o deslocamento do topo do dispositivo de renderização de exibição 164 para ambiente de trabalho 168.
[028] Deixamos C2 ser os coordenada tridimensional de c2.
[029] Então C1 = [c1x, c2y + h, I] e C4 = [c4x, c4y + h, I].
[030] Um vetor (V) é construído a partir do dispositivo de renderização de exibição 164 para cada canto (C) da tela 166 tal como se segue: V = C - P.
[031] Cada vetor (V) é alongado de maneira que ele toca no ambiente de trabalho 168: V = V * (Pz / (Pz-1)).
[032] Cada vetor (V) é então acrescentado à localização correspondente do dispositivo de renderização de exibição 164 fornecendo a transformação de tridimensional para bidimensional para esse canto: s = P + V.
[033] No exemplo mostrado na figura 9, s1 = c1, s2 está localizado no ponto 190 no ambiente de trabalho 168, s3 = c3, e s4 está localizado no ponto 192 no ambiente de trabalho 168.
[034] A seguir, as coordenadas do dispositivo de captura (não mostrado na figura 9) são transformadas para as coordenadas do dispositivo de renderização de exibição 164. Por exemplo: largura de dispositivo de captura = WidthPixels de dispositivo de renderização de exibição/WidthPixels de dispositivo de captura altura de dispositivo de captura = HeightPixels de dispositivo de renderização de exibição/HeightPixels de dispositivo de captura 51 = {(WidthPixels - 1 de dispositivo de captura) * largura de dispositivo de captura, 0} 52 = {0, 0} 53 = {0, (HeightPixels - 1 de dispositivo de captura) * altura de dispositivo de captura} 54 = {(WidthPixels - 1 de dispositivo de captura) * largura de dispositivo de captura, (HeightPixels - 1 de dispositivo de captura) * altura de dispositivo de captura} p1 = {(WidthPixels - 1 de dispositivo de renderização de exibição) * largura de dispositivo de captura, 0} p2 = {0, 0} p3 = {0, (Heightpixels - 1 de dispositivo de renderização de exibição) * altura de dispositivo de captura} p4 = {(WidthPixels - 1 de dispositivo de renderização de exibição) * largura de dispositivo de captura, (HeightPixels -1 de dispositivo de renderização de exibição) * altura de dispositivo de captura} In = {s1, s2, s3, s4} Out = {p1, p2, P3, p4} Matriz de Homografia (H) = perspectiveXfrm (In, Out) S = {s1, s2, s3, s4} W = H x S W = coordenadas bidimensionais transformadas da superfície 166.
[035] Um exemplo de uma cunha ou elemento angulado 194 tendo uma tela 196 na qual a imagem 12 pode ser exibida está mostrado na figura 10. Tal como pode ser visto na figura 10, a cunha 194 inclui uma base 198 que pode ser colocada em qualquer lugar em um ambiente de trabalho (não mostrado) em uma localização e orientação no espaço conveniente para um ou mais usuários. Tal como também pode ser visto na figura 10, a tela 196 está posicionada em um ângulo predeterminado fixado 200 com relação à base 198. No exemplo mostrado na figura 10, o ângulo 200 está selecionado para estar dentro de uma faixa de aproximadamente 40 a 70 graus. Em um outro exemplo de uma cunha ou elemento angulado para uso com o sistema 10, o ângulo 200 pode ser selecionado para estar dentro de uma faixa de aproximadamente 20 a 40 graus.
[036] Tal como pode ser visto adicionalmente na figura 10, a cunha ou elemento angulado 194 inclui uma câmera 202 posicionada em uma localização na cunha ou elemento angulado 194 adjacente à superfície 196. A câmera 202 é projetada para capturar uma ou mais imagens do usuário ou usuários da cunha ou elemento angulado 194 para exibição em uma localização remota. Embora a cunha ou elemento angulado 194 esteja ilustrada como tendo uma superfície fixa 196 em um ângulo predeterminado 200 em relação à base 198, é para ser entendido que em outros exemplos a superfície 196 pode ser móvel através de uma faixa de ângulos com relação à base 198.
[037] Um exemplo de um método 204 de exibir uma imagem em uma superfície localizada em um ambiente de trabalho está mostrado na figura 11. Tal como pode ser visto na figura 11, o método 204 começa em 206 ao determinar as dimensões da superfície, tal como indicado pelo bloco 208, e ao determinar uma primeira orientação no espaço da superfície em relação ao ambiente de trabalho, tal como indicado pelo bloco 210. O método 204 então converte a imagem para exibir na superfície com base nas dimensões determinadas da superfície e na primeira orientação determinada da superfície em relação ao ambiente de trabalho, tal como indicado pelo bloco 212. O método 204 pode então detectar reposicionamento da superfície para uma localização diferente no ambiente de trabalho, tal como indicado pelo bloco 214, e pode determinar uma segunda orientação no espaço da superfície na localização diferente em relação ao ambiente de trabalho, tal como indicado pelo bloco 216. O método 204 pode então converter a imagem para exibição na superfície com base nas dimensões determinadas da superfície e na segunda orientação determinada no espaço da superfície na localização diferente em relação ao ambiente de trabalho, tal como indicado pelo bloco 218. O método 204 pode então terminar em 220.
[038] Tal como pode ser visto na figura 12, o método 204 também pode incluir os elementos adicionais seguintes. O método 204 pode calibrar as coordenadas de um dispositivo de captura usado ao determinar as dimensões da superfície e a primeira orientação no espaço da superfície em relação ao ambiente de trabalho para as coordenadas de um dispositivo de renderização de exibição que exibe a imagem na superfície, tal como indicado pelo bloco 222, e pode determinar coordenadas dos cantos da superfície nas coordenadas calibradas do dispositivo de captura, tal como indicado pelo bloco 224. Em tais casos, o método 204 adicionalmente pode transformar as coordenadas de cantos da superfície para as coordenadas do dispositivo de renderização de exibição, tal como indicado pelo bloco 226, e pode transformar as coordenadas de dispositivo de captura para as coordenadas do dispositivo de renderização de exibição, tal como indicado pelo bloco 228.
[039] Tal como pode ser visto na figura 13, o método 204 ainda pode incluir os elementos adicionais seguintes. O método 204 pode detectar uma superfície adicional no ambiente de trabalho, tal como indicado pelo bloco 230, e pode determinar as dimensões da superfície adicional, tal como indicado pelo bloco 232. O método 204 também pode determinar uma terceira orientação no espaço da superfície adicional em relação ao ambiente de trabalho, tal como indicado pelo bloco 234, e pode converter a imagem para exibição na superfície adicional com base nas dimensões determinadas da superfície adicional e na terceira orientação determinada da superfície adicional em relação ao ambiente de trabalho, tal como indicado pelo bloco 236. Em tais casos, o método 204 pode detectar adicionalmente reposicionamento da superfície adicional para uma quarta orientação em relação ao ambiente de trabalho, tal como indicado pelo bloco 238, e pode determinar a quarta orientação no espaço da superfície adicional em relação ao ambiente de trabalho, tal como indicado pelo bloco 240. O método 204 pode então converter a imagem para exibição na superfície adicional com base nas dimensões determinadas da superfície adicional e na quarta orientação determinada no espaço da superfície adicional na localização diferente no ambiente de trabalho, tal como indicado pelo bloco 242.
[040] Embora diversos exemplos tenham sido descritos e ilustrados detalhadamente, é para ser entendido claramente que os mesmos são fornecidos somente a título de ilustração e exemplo. Estes exemplos não são pretendidos para serem exaustivos ou para limitar a invenção à forma precisa ou às modalidades exemplares reveladas. Modificações e variações podem bem ficar aparentes para as pessoas de conhecimento comum na técnica. Por exemplo, embora as duas superfícies 50 e 52 tenham sido ilustradas na figura 2, é para ser entendido que outros exemplos do sistema 10 podem usar superfícies adicionais com a mesma ou com imagens adicionais, dependendo das necessidades particulares do usuário ou usuários ou do sistema 10. Como um outro exemplo, embora o dispositivo de captura 24 esteja ilustrado nas figuras 1 e 2 como estando abaixo das superfícies 14, 50 e 52, é para ser entendido que em outros exemplos do sistema para exibir uma imagem o dispositivo de captura 24 pode ficar localizado em outro lugar (por exemplo, acima da superfície ou superfícies e/ou para um lado). Como um exemplo adicional, embora o sistema para exibir uma imagem tenha sido ilustrado no contexto de duas localizações, é para ser entendido que ele não está assim limitado. Particularmente, outros exemplos do sistema para exibir uma imagem podem ser usados para videoconferência em três ou mais localizações. O espírito e escopo da presente invenção são para ser limitados somente pelos termos das reivindicações a seguir.
[041] Adicionalmente, referência para um elemento no singular não é pretendida para significar um e somente um, a não ser que explicitamente assim relatado, mas em vez disto significa um ou mais. Além disso, nenhum elemento ou componente não é pretendido para ser dedicado ao público independente de se o elemento ou componente está explicitamente relatado nas reivindicações a seguir.

Claims (15)

1. Sistema para exibir uma imagem (12), caracterizado pelo fato de que compreende: uma superfície (196) na qual a imagem (12) é exibida; um dispositivo de renderização de exibição (16) para exibir a imagem (12) na superfície (196); um dispositivo de captura (24) para detectar a superfície (196); um processador acoplado ao dispositivo de captura (24) e ao dispositivo de renderização de exibição (16); e uma mídia de armazenamento não transitório legível por computador incluindo instruções que, quando executadas pelo processador (28), induzem o processador (28) para: determinar (208) dimensões da superfície (196) detectada pelo dispositivo de captura (24), determinar (210) uma primeira orientação no espaço da superfície (196) em relação ao dispositivo de captura (24), converter (212) a imagem (12) para exibição na superfície (196) via dispositivo de renderização de exibição (16) com base nas dimensões determinadas da superfície (196) e na primeira orientação determinada da superfície (196) em relação ao dispositivo de captura (24), detectar (214) reposicionamento da superfície (196) para uma segunda orientação em relação ao dispositivo de captura (24), determinar (196) a segunda orientação no espaço da superfície (196) em relação ao dispositivo de captura (24), e converter (218) a imagem (12) para exibição na superfície (196) via dispositivo de renderização de exibição (16) com base nas dimensões determinadas da superfície (196) e na segunda orientação determinada da superfície em relação ao dispositivo de captura (24).
2. Sistema, de acordo com a reivindicação 1, caracterizado pelo fato de que compreende adicionalmente uma pluralidade de fiduciais (140-146) adjacentes à superfície (196) que são utilizados pelo dispositivo de captura (24) para detectar a superfície (196).
3. Sistema, de acordo com a reivindicação 1, caracterizado pelo fato de que compreende adicionalmente: um ambiente de trabalho; e uma câmera (202) para gravar objetos dentro de uma parte do ambiente de trabalho, em que a câmera (202) é acoplada à superfície (196) e móvel com a superfície (196).
4. Sistema, de acordo com a reivindicação 1, caracterizado pelo fato de que compreende ainda uma superfície adicional na qual a imagem (12) é exibida via dispositivo de renderização de exibição (16); em que o dispositivo de captura (24) detecta (230) a superfície adicional; e adicionalmente em que a mídia de armazenamento não transitório legível por computador inclui instruções adicionais que, quando executadas pelo processador (28), induzem o processador (28) para: Determinar (232) dimensões da superfície adicional detectada pelo dispositivo de captura (24), Determinar (234) uma terceira orientação no espaço da superfície adicional em relação ao dispositivo de captura (24), e Converter (236) a imagem (12) para exibição na superfície adicional via dispositivo de renderização de exibição (16) com base nas dimensões determinadas da superfície adicional e na terceira orientação determinada da superfície adicional em relação ao dispositivo de captura (24).
5. Sistema, de acordo com a reivindicação 4, caracterizado pelo fato de que a mídia de armazenamento não transitório legível por computador inclui instruções adicionais que, quando executadas pelo processador (28), induzem o processador (28) para: Detectar (238) reposicionamento da superfície adicional para uma quarta orientação em relação ao dispositivo de captura (24), Determinar (240) a quarta orientação no espaço da superfície (196) em relação ao dispositivo de captura (24), e Converter (242) a imagem (12) para exibição na superfície (196) via dispositivo de renderização de exibição (16) com base nas dimensões determinadas da superfície (196) e na quarta orientação determinada da superfície (196) em relação ao dispositivo de captura (24).
6. Método de exibir uma imagem (12) em uma superfície (196) localizada em um ambiente de trabalho, caracterizado pelo fato de que compreende: Determinar (208) dimensões da superfície (196); Determinar (210) uma primeira orientação no espaço da superfície (196) em relação ao ambiente de trabalho; Converter (212) a imagem (12) para exibição na superfície (196) com base nas dimensões determinadas da superfície (196) e na primeira orientação determinada da superfície (196) em relação ao ambiente de trabalho; Detectar (214) reposicionamento da superfície (196) para uma localização diferente no ambiente de trabalho; Determinar (216) uma segunda orientação no espaço da superfície (196) na localização diferente em relação ao ambiente de trabalho; e Converter (218) a imagem (12) para exibição na superfície (196) com base nas dimensões determinadas da superfície e na segunda orientação determinada no espaço da superfície (196) na localização diferente em relação ao ambiente de trabalho.
7. Método, de acordo com a reivindicação 6, caracterizado pelo fato de que compreende adicionalmente: Calibrar (222) coordenadas de um dispositivo de captura (24) usado ao determinar as dimensões da superfície (196) e a primeira orientação no espaço da superfície (196) em relação ao ambiente de trabalho para coordenadas de um dispositivo de renderização de exibição (16) que exibe a imagem (12) na superfície (196); e Determinar (224) coordenadas de cantos da superfície (196) nas coordenadas calibradas do dispositivo de captura (24).
8. Método, de acordo com a reivindicação 7, caracterizado pelo fato de que converter a imagem (12) para exibição na superfície (196) com base nas dimensões determinadas da superfície (196) e na primeira orientação determinada no espaço da superfície (196) em relação ao ambiente de trabalho inclui: Transformar (226) as coordenadas de cantos da superfície (196) para as coordenadas do dispositivo de renderização de exibição (16), e Transformar (228) as coordenadas de dispositivo de captura para as coordenadas do dispositivo de renderização de exibição (16).
9. Método, de acordo com a reivindicação 6, caracterizado pelo fato de que compreende adicionalmente: Detectar (230) uma superfície adicional no ambiente de trabalho; Determinar (232) dimensões da superfície adicional; Determinar (234) uma terceira orientação no espaço da superfície adicional em relação ao ambiente de trabalho; e Converter (236) a imagem para exibição na superfície adicional com base nas dimensões determinadas da superfície adicional e na terceira orientação determinada da superfície adicional em relação ao ambiente de trabalho.
10. Método, de acordo com a reivindicação 9, caracterizado pelo fato de que compreende adicionalmente: Detectar (238) reposicionamento da superfície adicional para uma quarta orientação em relação ao ambiente de trabalho; Determinar (240) a quarta orientação no espaço da superfície adicional em relação ao ambiente de trabalho; e Converter (242) a imagem (12) para exibição na superfície adicional com base nas dimensões determinadas da superfície adicional e na quarta orientação determinada no espaço da superfície adicional na localização diferente no ambiente de trabalho.
11. Método, de acordo com a reivindicação 6, caracterizado pelo fato de que compreende adicionalmente gravar objetos dentro de uma parte do ambiente de trabalho.
12. Mídia de armazenamento não transitório legível por computador (38), caracterizada pelo fato de que compreende instruções que, quando executadas por um processador (28) de um sistema para exibir uma imagem (12) em uma superfície (196) em um ambiente de trabalho, induzem o processador (28) para: Determinar (208) dimensões da superfície (196) no ambiente de trabalho; Determinar (210) uma primeira orientação no espaço da superfície (196) em relação ao ambiente de trabalho; Converter (212) a imagem para exibição na superfície (196) com base nas dimensões determinadas da superfície (196) e na primeira orientação determinada da superfície (196) em relação ao ambiente de trabalho; Detectar (214) reposicionamento da superfície (196) para uma localização diferente no ambiente de trabalho; Determinar (216) uma segunda orientação no espaço da superfície (196) na localização diferente em relação ao ambiente de trabalho; e Converter (218) a imagem para exibição na superfície (196) com base nas dimensões determinadas da superfície (196) e na segunda orientação determinada no espaço da superfície (196) na localização diferente em relação ao ambiente de trabalho.
13. Mídia de armazenamento não transitório legível por computador (38), de acordo com a reivindicação 12, caracterizada pelo fato de que compreende adicionalmente instruções que, quando executadas pelo processador (28), induzem o processador (28) para: Calibrar (222) coordenadas de um dispositivo de captura (24) do sistema usado ao determinar as dimensões da superfície (196) e a primeira orientação no espaço da superfície (196) em relação ao ambiente de trabalho para coordenadas de um dispositivo de renderização de exibição (16) que exibe a imagem (12) na superfície (196); e Determinar (224) coordenadas de cantos da superfície (196) nas coordenadas calibradas do dispositivo de captura (24).
14. Mídia de armazenamento não transitório legível por computador (38), de acordo com a reivindicação 12, caracterizada pelo fato de que compreende adicionalmente instruções que, quando executadas pelo processador (28), induzem o processador (28) para: Detectar (230) uma superfície adicional no ambiente de trabalho; Determinar (232) dimensões da superfície adicional; Determinar (234) uma terceira orientação no espaço da superfície adicional em relação ao ambiente de trabalho; e Converter (236) a imagem (12) para exibição na superfície adicional com base nas dimensões determinadas da superfície adicional e na terceira orientação determinada da superfície adicional em relação ao ambiente de trabalho.
15. Mídia de armazenamento não transitório legível por computador (38), de acordo com a reivindicação 14, caracterizada pelo fato de que compreende adicionalmente instruções que, quando executadas pelo processador (28), induzem o processador (28) para: Detectar (238) reposicionamento da superfície adicional para uma quarta orientação em relação ao ambiente de trabalho; Determinar (240) a quarta orientação no espaço da superfície adicional em relação ao ambiente de trabalho; e Converter (242) a imagem (12) para exibição na superfície adicional com base nas dimensões determinadas da superfície adicional e na quarta orientação determinada no espaço da superfície adicional na localização diferente no ambiente de trabalho.
BR112014018565-4A 2012-04-24 2012-04-24 Sistema, método e mídia de armazenamento para exibir uma imagem BR112014018565B1 (pt)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/US2012/034787 WO2013162515A1 (en) 2012-04-24 2012-04-24 System for displaying an image

Publications (3)

Publication Number Publication Date
BR112014018565A2 BR112014018565A2 (pt) 2017-06-20
BR112014018565A8 BR112014018565A8 (pt) 2017-07-11
BR112014018565B1 true BR112014018565B1 (pt) 2021-07-27

Family

ID=49483628

Family Applications (1)

Application Number Title Priority Date Filing Date
BR112014018565-4A BR112014018565B1 (pt) 2012-04-24 2012-04-24 Sistema, método e mídia de armazenamento para exibir uma imagem

Country Status (6)

Country Link
US (1) US9565394B2 (pt)
EP (1) EP2842121B1 (pt)
JP (1) JP6084285B2 (pt)
CN (1) CN104081450B (pt)
BR (1) BR112014018565B1 (pt)
WO (1) WO2013162515A1 (pt)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20150089453A1 (en) * 2013-09-25 2015-03-26 Aquifi, Inc. Systems and Methods for Interacting with a Projected User Interface
JP6337269B2 (ja) * 2014-04-09 2018-06-06 パナソニックIpマネジメント株式会社 車両評価装置

Family Cites Families (33)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7209160B2 (en) 1995-09-20 2007-04-24 Mcnelley Steve H Versatile teleconferencing eye contact terminal
JPH11327042A (ja) * 1998-05-20 1999-11-26 Mitsubishi Electric Corp プロジェクタの位置決め装置
US6753907B1 (en) 1999-12-23 2004-06-22 Justsystem Corporation Method and apparatus for automatic keystone correction
JP2002027419A (ja) 2000-07-05 2002-01-25 Hitachi Ltd 画像端末装置及びそれを用いる通信システム
JP4961628B2 (ja) 2000-08-11 2012-06-27 日本電気株式会社 投射映像補正システム及びその方法
US6520647B2 (en) * 2000-08-17 2003-02-18 Mitsubishi Electric Research Laboratories Inc. Automatic keystone correction for projectors with arbitrary orientation
US7352913B2 (en) * 2001-06-12 2008-04-01 Silicon Optix Inc. System and method for correcting multiple axis displacement distortion
JP2003153126A (ja) 2001-11-13 2003-05-23 Canon Inc プロジェクションディスプレイ装置
US7203384B2 (en) 2003-02-24 2007-04-10 Electronic Scripting Products, Inc. Implement for optically inferring information from a planar jotting surface
JP2004274283A (ja) 2003-03-07 2004-09-30 Casio Comput Co Ltd 投影システム、及び投影装置、画像供給装置、プログラム
US7110100B2 (en) 2003-11-04 2006-09-19 Electronic Scripting Products, Inc. Apparatus and method for determining an inclination of an elongate object contacting a plane surface
US7038846B2 (en) 2003-11-24 2006-05-02 Electronic Scripting Products, Inc. Solid catadioptric lens with a single viewpoint
US7268956B2 (en) 2003-11-24 2007-09-11 Electronic Scripting Products, Inc. Solid catadioptric lens with two viewpoints
US7088440B2 (en) 2003-12-22 2006-08-08 Electronic Scripting Products, Inc. Method and apparatus for determining absolute position of a tip of an elongate object on a plane surface with invariant features
US7826641B2 (en) 2004-01-30 2010-11-02 Electronic Scripting Products, Inc. Apparatus and method for determining an absolute pose of a manipulated object in a real three-dimensional environment with invariant features
US8542219B2 (en) 2004-01-30 2013-09-24 Electronic Scripting Products, Inc. Processing pose data derived from the pose of an elongate object
US7729515B2 (en) 2006-03-08 2010-06-01 Electronic Scripting Products, Inc. Optical navigation apparatus using fixed beacons and a centroid sensing device
US9229540B2 (en) 2004-01-30 2016-01-05 Electronic Scripting Products, Inc. Deriving input from six degrees of freedom interfaces
US7961909B2 (en) 2006-03-08 2011-06-14 Electronic Scripting Products, Inc. Computer interface employing a manipulated object with absolute pose detection component and a display
US7023536B2 (en) 2004-03-08 2006-04-04 Electronic Scripting Products, Inc. Apparatus and method for determining orientation parameters of an elongate object
US7161664B2 (en) 2004-04-13 2007-01-09 Electronic Scripting Products, Inc. Apparatus and method for optical determination of intermediate distances
US8599239B2 (en) 2004-04-21 2013-12-03 Telepresence Technologies, Llc Telepresence systems and methods therefore
US7113270B2 (en) 2004-06-18 2006-09-26 Electronics Scripting Products, Inc. Determination of an orientation parameter of an elongate object with a scan beam apparatus
JP3994290B2 (ja) * 2005-01-17 2007-10-17 セイコーエプソン株式会社 画像処理システム、プロジェクタ、プログラム、情報記憶媒体および画像処理方法
JP2006251604A (ja) * 2005-03-14 2006-09-21 Seiko Epson Corp テーブル型ディスプレイ
JP4222420B2 (ja) * 2006-02-21 2009-02-12 パナソニック電工株式会社 映像表示装置、映像表示装置の映像歪み補正方法
JP5110912B2 (ja) * 2007-02-28 2012-12-26 日本放送協会 画像投射システムおよび画像投射方法
JP2010041452A (ja) * 2008-08-06 2010-02-18 Sharp Corp コンテンツ視聴装置、携帯端末、通話方法、プログラム、記録媒体、及び、コンテンツ視聴システム
US8393740B2 (en) * 2009-03-12 2013-03-12 Canon Kabushiki Kaisha Image projection system with keystone correction
US8203595B2 (en) 2009-05-21 2012-06-19 Alcatel Lucent Method and apparatus for enabling improved eye contact in video teleconferencing applications
US8514260B2 (en) 2009-05-28 2013-08-20 Microsoft Corporation Establishing eye contact in video conferencing
US8388146B2 (en) 2010-08-01 2013-03-05 T-Mobile Usa, Inc. Anamorphic projection device
US8970709B2 (en) 2013-03-13 2015-03-03 Electronic Scripting Products, Inc. Reduced homography for recovery of pose parameters of an optical apparatus producing image data with structural uncertainty

Also Published As

Publication number Publication date
CN104081450A (zh) 2014-10-01
JP6084285B2 (ja) 2017-02-22
CN104081450B (zh) 2016-09-07
US20150244983A1 (en) 2015-08-27
EP2842121A4 (en) 2015-12-09
BR112014018565A8 (pt) 2017-07-11
US9565394B2 (en) 2017-02-07
WO2013162515A1 (en) 2013-10-31
EP2842121A1 (en) 2015-03-04
JP2015517244A (ja) 2015-06-18
BR112014018565A2 (pt) 2017-06-20
EP2842121B1 (en) 2020-05-27

Similar Documents

Publication Publication Date Title
CN110809786B (zh) 校准装置、校准图表、图表图案生成装置和校准方法
JP6237326B2 (ja) 姿勢推定装置、姿勢推定方法及び姿勢推定用コンピュータプログラム
US7733404B2 (en) Fast imaging system calibration
US8538084B2 (en) Method and apparatus for depth sensing keystoning
Lébraly et al. Flexible extrinsic calibration of non-overlapping cameras using a planar mirror: Application to vision-based robotics
US8369578B2 (en) Method and system for position determination using image deformation
US11282232B2 (en) Camera calibration using depth data
KR102354299B1 (ko) 단일 영상을 이용한 카메라 캘리브레이션 방법 및 이를 위한 장치
US10268318B2 (en) Touch sensitive mat of a system with a projector unit
US10663291B2 (en) Method and system for reproducing visual content
TWI651657B (zh) 擴增實境系統與方法
US20140125819A1 (en) Image processing apparatus and method, image processing system and program
JP6088864B2 (ja) キャリブレーションシステム、およびキャリブレーション方法
BR112014018565B1 (pt) Sistema, método e mídia de armazenamento para exibir uma imagem
EP3216005B1 (en) Image processing device and method for geometric calibration of images
WO2017112036A2 (en) Detection of shadow regions in image depth data caused by multiple image sensors
US10097736B2 (en) Image processing device and image processing method
TW201234235A (en) Method and system for calculating calibration information for an optical touch apparatus
Anwar Calibrating projector flexibly for a real-time active 3D scanning system
US10664100B2 (en) Misalignment detection
Yan et al. Hue-based feature detection for geometry calibration of multiprojector arrays
US20090033654A1 (en) System and method for visually representing an object to a user
Deng et al. Motion estimation of multiple depth cameras using spheres
Badamikar Automatic registration of multiple texel images to form a 3-dimensional texel image
Vigueras-Gomez Fast vision-based multiplanar scene modeling in unprepared environments

Legal Events

Date Code Title Description
B06F Objections, documents and/or translations needed after an examination request according [chapter 6.6 patent gazette]
B06U Preliminary requirement: requests with searches performed by other patent offices: procedure suspended [chapter 6.21 patent gazette]
B25G Requested change of headquarter approved

Owner name: HEWLETT-PACKARD DEVELOPMENT COMPANY, L.P. (US)

B09A Decision: intention to grant [chapter 9.1 patent gazette]
B16A Patent or certificate of addition of invention granted [chapter 16.1 patent gazette]

Free format text: PRAZO DE VALIDADE: 20 (VINTE) ANOS CONTADOS A PARTIR DE 24/04/2012, OBSERVADAS AS CONDICOES LEGAIS.

B21F Lapse acc. art. 78, item iv - on non-payment of the annual fees in time

Free format text: REFERENTE A 11A ANUIDADE.

B24J Lapse because of non-payment of annual fees (definitively: art 78 iv lpi, resolution 113/2013 art. 12)

Free format text: EM VIRTUDE DA EXTINCAO PUBLICADA NA RPI 2719 DE 14-02-2023 E CONSIDERANDO AUSENCIA DE MANIFESTACAO DENTRO DOS PRAZOS LEGAIS, INFORMO QUE CABE SER MANTIDA A EXTINCAO DA PATENTE E SEUS CERTIFICADOS, CONFORME O DISPOSTO NO ARTIGO 12, DA RESOLUCAO 113/2013.