BR112020005808A2 - exibição de uma cena ao vivo e de um objeto auxiliar - Google Patents
exibição de uma cena ao vivo e de um objeto auxiliar Download PDFInfo
- Publication number
- BR112020005808A2 BR112020005808A2 BR112020005808-4A BR112020005808A BR112020005808A2 BR 112020005808 A2 BR112020005808 A2 BR 112020005808A2 BR 112020005808 A BR112020005808 A BR 112020005808A BR 112020005808 A2 BR112020005808 A2 BR 112020005808A2
- Authority
- BR
- Brazil
- Prior art keywords
- mobile device
- component
- image
- auxiliary object
- enlarged image
- Prior art date
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T11/00—2D [Two Dimensional] image generation
- G06T11/60—Editing figures and text; Combining figures or text
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/20—Instruments for performing navigational calculations
- G01C21/206—Instruments for performing navigational calculations specially adapted for indoor navigation
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/26—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
- G01C21/34—Route searching; Route guidance
- G01C21/36—Input/output arrangements for on-board computers
- G01C21/3667—Display of a road map
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/26—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
- G01C21/34—Route searching; Route guidance
- G01C21/36—Input/output arrangements for on-board computers
- G01C21/3697—Output of additional, non-guidance related information, e.g. low fuel level
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
- G06F3/04883—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q30/00—Commerce
- G06Q30/02—Marketing; Price estimation or determination; Fundraising
- G06Q30/0207—Discounts or incentives, e.g. coupons or rebates
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T11/00—2D [Two Dimensional] image generation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/006—Mixed reality
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N7/00—Television systems
- H04N7/18—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
- H04N7/183—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a single remote source
- H04N7/185—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a single remote source from a mobile camera, e.g. for remote control
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Remote Sensing (AREA)
- Radar, Positioning & Navigation (AREA)
- General Engineering & Computer Science (AREA)
- Business, Economics & Management (AREA)
- Finance (AREA)
- Strategic Management (AREA)
- Development Economics (AREA)
- Accounting & Taxation (AREA)
- Automation & Control Theory (AREA)
- Human Computer Interaction (AREA)
- General Business, Economics & Management (AREA)
- Economics (AREA)
- Marketing (AREA)
- Game Theory and Decision Science (AREA)
- Software Systems (AREA)
- Computer Hardware Design (AREA)
- Computer Graphics (AREA)
- Entrepreneurship & Innovation (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Processing Or Creating Images (AREA)
- Navigation (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
Um dispositivo móvel compreendo um ou mais processadores acoplados com uma câmera configurada para captura uma imagem de uma cena ao vivo, um vídeo e uma memória pode compreender o um ou mais processadores configurados para apresentar uma imagem de realidade aumentada no vídeo. A imagem aumentada pode ser baseada na imagem capturada e pode incluir uma imagem de um objeto auxiliar, tal como um mapa, um navegador, uma visualização de câmera adicional (local ou remota) e/ou uma interface de uma aplicativo do móvel, ancorada ao componente compreendo um objeto físico visível na imagem capturada. O componente pode ser um piso, um canto, uma parede, um teto, uma frente de loja, uma janela ou outro objeto ou componente físico ou arquitetônico, ou um sistema arbitrário ou área definida pelo usuário dentro da imagem. O um ou mais processadores atualizam a imagem aumentada de modo que o objeto auxiliar permanece ancorado ao componente à medida que a imagem aumentada é atualizada.
Description
”EXIBIÇÃO DE UMA CENA AO VIVO E DE UM OBJETO AUXILIAR” Reivindicação de Prioridade Sob o 35 U.S.C. §119
[0001] O presente Pedido de Patente reivindica prioridade para o Pedido de Patente Não-Provisório No 15/721,095, denominado de “DISPLAY OF A LIVE SCENE AND AUXILIARY OBJECT”, depositado em 29 de Setembro de 2017, atribuído para o cessionário deste e expressamente incorporado por referência neste documento.
ANTECEDENTES Campo
[0002] O assunto revelado neste documento se relaciona com exibir dados para usuários, incluindo exibir dados de realidade aumentada para aumentar uma cena ao vivo, mapas, comunicações pessoais e outras comunicações e outros dados. Antecedentes
[0003] Os usuários podem capturar imagens ou vídeo de uma cena ao vivo utilizando a câmera de um dispositivo móvel e podem visualizar as imagens ou o vídeo capturados da cena ao vivo em um vídeo do dispositivo móvel. Entretanto, não existem aplicativos que gerem uma imagem aumentada para apresentação ao usuário que possam incluir informação adicional que adicionalmente não seja existente na cena ao vivo capturada. Portanto, existe interesse em aplicativos que proporcionem para o usuário informação útil por exibir uma imagem aumentada.
[0004] Um método ilustrativo para exibir, em um dispositivo móvel, uma imagem aumentada pode incluir capturar, por uma câmera do dispositivo móvel, uma imagem de uma cena ao vivo; exibir a imagem aumentada, baseado na imagem capturada, a imagem aumentada incluindo pelo menos um objeto auxiliar ancorado a um componente compreendendo um objeto físico visível na imagem capturada; e atualizar a imagem aumentada à medida que o dispositivo móvel é movido, onde pelo menos um objeto auxiliar permanece ancorado no componente à medida que a imagem aumentada é atualizada. O método pode opcionalmente incluir adicionalmente receber uma entrada designando o componente para ancorar o pelo menos um objeto auxiliar; e exibir o objeto auxiliar ancorado no componente designado. O método também pode opcionalmente incluir adicionalmente determinar uma localização do dispositivo móvel. O método pode incluir responsivo ao componente que não está mais visível na imagem devido ao movimento do dispositivo móvel, remover pelo menos um objeto auxiliar a partir da imagem aumentada ou exibir o pelo menos um objeto auxiliar para outro componente visível na imagem capturada. O objeto auxiliar pode incluir um mapa de cima para baixo com uma indicação da localização determinada do dispositivo móvel. O objeto auxiliar ancorado no componente pode ser dimensionável independentemente enquanto estiver ancorado no componente. O método pode adicionalmente incluir exibir, em adição do pelo menos um objeto auxiliar, dados de realidade aumentada gerados pelo sistema, os quais podem incluir, por exemplo, marcas determinadas baseadas na localização determinada do dispositivo móvel.
[0005] Um dispositivo móvel ilustrativo pode incluir uma câmera configurada para capturar uma imagem de uma cena ao vivo, um vídeo, uma memória e um ou mais processadores ancorados com a câmera, com o vídeo e com a memória do dispositivo móvel.
O um ou mais processadores podem ser configurados para apresentar uma imagem aumentada no vídeo baseado na imagem capturada, a imagem aumentada incluindo pelo menos um objeto auxiliar ancorado a um componente compreendendo um objeto físico visível na imagem capturada.
O um ou mais processadores podem ser adicionalmente configurados para atualizar a imagem aumentada à medida que o dispositivo móvel é movido, onde o objeto auxiliar permanece ancorado no componente à medida que a imagem aumentada é atualizada.
Adicionalmente, o vídeo do dispositivo móvel pode compreender um vídeo com tela sensível ao toque configurado para proporcionar uma entrada designando o componente para acoplar o pelo menos um objeto auxiliar.
Em resposta à entrada, o um ou mais processadores podem ser configurados para exibir o objeto auxiliar ancorado no componente designado.
Para proporcionar a entrada designando o componente, o vídeo com tela sensível ao toque pode ser configurado para receber um gesto de toque ou de arrastar por um usuário.
Adicionalmente, o dispositivo móvel pode incluir um subsistema de comunicações configurado para se comunicar com um ou mais servidores para receber dados para exibir o objeto auxiliar ou para exibir os dados de realidade aumentada.
Adicionalmente, o dispositivo móvel pode incluir um mecanismo de localização configurado para determinar uma localização do dispositivo móvel, onde a localização determinada é exibida em um mapa exibido como o objeto auxiliar.
O um ou mais processadores do dispositivo móvel podem ser adicionalmente configurados para, em resposta ao componente que não está mais visível na imagem devido ao movimento do dispositivo móvel, remover pelo menos um objeto auxiliar a partir da imagem aumentada ou ancorar o pelo menos um objeto auxiliar junto a outro componente que é visível na imagem capturada.
[0006] Um aparelho ilustrativo para exibir uma imagem aumentada pode incluir meio para capturar uma imagem de uma cena ao vivo; meio para exibir a imagem aumentada baseado na imagem capturada e meio para atualizar a imagem aumentada. O meio para exibir a imagem aumentada pode incluir meio para exibir a imagem aumentada, de modo que a imagem aumentada inclua pelo menos um objeto auxiliar ancorado a um componente compreendendo um objeto físico visível na imagem capturada. O meio para atualizar a imagem aumentada pode incluir meio para atualizar a imagem aumentada, de modo que, à medida que o dispositivo móvel é movido, pelo menos um objeto auxiliar permaneça ancorado no componente à medida que a imagem aumentada é atualizada. O aparelho pode adicionalmente incluir meio para receber uma entrada designando o componente para ancorar o pelo menos um objeto auxiliar. O meio para receber a entrada designando o componente pode compreender meio para receber um gesto de toque ou um gesto de arrasto para designar o componente. O aparelho pode adicionalmente incluir meio para determinar uma localização do dispositivo móvel, e o objeto auxiliar pode ser associado com a localização determinada. Em um exemplo, o meio para exibir a imagem aumentada compreende meio para exibir um mapa de cima para baixo associado com a localização determinada. O meio para atualizar a imagem aumentada pode compreender meio para remover pelo menos um objeto auxiliar responsivo ao componente que não está mais visível na imagem capturada devido ao movimento do dispositivo móvel. Alternativamente, o meio para atualizar a imagem aumentada pode compreender meio para ancorar pelo menos um objeto auxiliar a outro componente que é visível na imagem capturada em resposta ao componente que não está mais visível na imagem capturada devido ao movimento do dispositivo móvel.
[0007] Um exemplo de um meio não temporário legível por computador armazenando instruções para execução por um ou mais processadores de um dispositivo móvel para executar operações compreendendo capturar, utilizando uma câmera do dispositivo móvel, uma imagem de uma cena ao vivo; exibir, em um vídeo do dispositivo móvel, uma imagem aumentada baseada na imagem capturada, a imagem aumentada incluindo pelo menos um objeto auxiliar ancorado a um componente compreendendo um objeto físico visível na imagem capturada; e atualizar a imagem aumentada no vídeo do dispositivo móvel à medida que o dispositivo móvel é movido, onde o objeto auxiliar permanece ancorado no componente à medida que a imagem aumentada é atualizada. Em uma implementação, meio não temporário legível por computador adicionalmente inclui instruções para processar uma entrada designando o componente para ancorar o pelo menos um objeto auxiliar e instruções para exibir o objeto auxiliar ancorado no componente designado.
[0008] A FIG. 1A ilustra um usuário navegando em um ponto de encontro.
[0009] A FIG. O IB ilustra um mapa de cima para baixo apresentando uma localização do usuário dentro do ponto de encontro.
[0010] A FIG. 1C ilustra uma imagem de uma visualização da câmera do dispositivo móvel de uma cena ao vivo exibida na tela de um dispositivo móvel, onde a imagem da visualização da câmera do dispositivo móvel é aumentada com dados de realidade aumentada.
[0011] A FIG. 2A ilustra uma imagem de uma visualização de câmera de dispositivo móvel de uma cena ao vivo exibida na tela de um dispositivo móvel onde a imagem é aumentada com dados de realidade aumentada enquanto um objeto auxiliar é ancorado em um componente visível na imagem.
[0012] A FIG. 2B ilustra uma imagem de uma visualização de câmera de dispositivo móvel de uma cena ao vivo similar à ilustrada na FIG. 2A, onde o objeto auxiliar é ancorado em um componente diferente na imagem da FIG. 2A.
[0013] As FIGs. 3A até 3B ilustram concretizações de uma imagem de uma visualização de câmera de dispositivo móvel de uma cena ao vivo exibida na tela de um dispositivo móvel enquanto um objeto auxiliar é ancorado em um componente visível na imagem.
[0014] As FIGs. 4A até 4D ilustram concretizações de uma imagem de uma visualização de câmera de dispositivo móvel de uma cena ao vivo exibida na tela de um dispositivo móvel enquanto um objeto auxiliar está ancorado em um componente na imagem.
[0015] A FIG. 5A ilustra um exemplo de um método para exibir, em um dispositivo móvel, uma imagem aumentada.
[0016] A FIG. 5B ilustra um exemplo de um método para exibir uma imagem de uma visualização de câmera de dispositivo móvel de uma cena ao vivo enquanto exibindo pelo menos um objeto auxiliar.
[0017] A FIG. 6 ilustra um exemplo de um dispositivo móvel de acordo com concretizações da revelação.
[0018] Algumas técnicas ilustrativas são apresentadas neste documento as quais podem ser implementadas em vários métodos, meios e aparelhos em um dispositivo móvel e/ou em realidade aumentada e/ou em um sistema relacionado à navegação para proporcionar ou apoiar a capacidade de exibir vários tipos de informações e/ou de dados para um usuário.
[0019] As técnicas ilustrativas apresentadas neste documento tratam de vários métodos e aparelhos em um dispositivo móvel para possivelmente proporcionar ou apoiar a exibição de uma cena ao vivo simultaneamente com pelo menos um objeto que não seja de cena ao vivo ou auxiliar. Os aplicativos de navegação são um exemplo de aplicativos que poderiam ser aprimorados pela exibição simultânea ou exibição alternativa baseada em gestos da cena ao vivo com um objeto auxiliar, tal como, em um exemplo, um mapa de cima para baixo associado com a localização de um dispositivo móvel. Em um contexto de realidade aumentada, a cena ao vivo também pode ser aumentada por dados de realidade aumentada.
[0020] A FIG. 1A ilustra um usuário navegando em um ponto de encontro 100. Como ilustrado, o ponto de encontro 100 é um shopping, mas entende-se que o ponto de encontro pode incluir qualquer ponto de encontro interno ou externo. De um modo mais geral, o ponto de encontro pode incluir qualquer localização onde um usuário esteja utilizando o dispositivo móvel e os arredores da localização. Como ilustrado, uma mão 110 de um usuário está segurando um dispositivo móvel 112. O dispositivo móvel 112 inclui uma tela 114 para exibição de imagens, dados e/ou de informação para o usuário. O usuário pode utilizar o dispositivo móvel 112 para navegar dentro do ponto de encontro 100 e, adicionalmente ou alternativamente, o usuário pode utilizar o dispositivo móvel 112 para acessar dados sobre o ambiente. Ao navegar dentro do ponto de encontro 100, o usuário pode utilizar um mapa de cima para baixo para entender a localização do usuário dentro do ponto de encontro e, por exemplo, para navegar para uma localização particular dentro do ponto de encontro ou de outro modo para aprender mais sobre o ponto de encontro. Tal mapa é ilustrado na FIG. IB.
[0021] Com referência continuada à FIG. 1A, a FIG. 1B ilustra um mapa 140 apresentando uma localização do usuário dentro do ponto de encontro 100. O mapa 140 indica a localização do usuário por exibir um indicador de localização 142, aqui ilustrado como um alfinete de localização. O mapa 140 pode, em várias implementações, ser exibido na tela 114 do dispositivo móvel 112 para auxiliar o usuário a navegar dentro do ponto de encontro
100. No exemplo ilustrado, o mapa 140 é um mapa de cima para baixo e inclui uma rota 144 para um localização de destino 146, aqui ilustrada como a localização "KidsZone". A rota 144 pode ser adicionalmente aumentada com a orientação baseada texto 148 ou com a orientação baseada em áudio para navegar até a localização de destino 146. O mapa 140 também pode ilustrar ou destacar pontos de interesse ao longo da rota 144, as condições de tráfego (incluindo as condições de tráfego de pedestres), e/ou áreas de tráfego lento. O dispositivo móvel 112 também pode receber o tempo estimado para percorrer a rota ou partes dela, a distância estimada da rota e outra informação relacionada à rota. Em uma concretização, a informação pode ser atualizada conforme as condições mudam. Em uma concretização, a informação recebida atualizada pode ser enviada juntamente com as atualizações contínuas da instrução de navegação.
[0022] Embora não ilustrado, também é entendido que o mapa 140 pode ser aumentado com dados relacionados a localizações no ponto de encontro 100 ou nos arredores do usuário. No exemplo ilustrado, uma ou mais localizações de shopping ilustradas, “5 Dollars or Less”, “All About Hair”, “Sunglasses +”, “Cold Cream”, “Games Plus, Res Publica Coffee”, e “KidsZone” também poderiam ser associadas com dados de realidade aumentada, tal como uma marca exibida indicando uma categoria (tal como uma caixa ou outra marca indicando o tipo de loja que é, por exemplo, "loja de variedades", "loja de departamentos", "loja de departamentos com preços baixos", "acessórios"), "alimentação", "jogos/hobbies", "parque infantil coberto" etc.), uma informação sobre mercadorias ou serviços vendidos por cada uma das localizações de um ou mais shoppings e/ou a informação de comercialização sobre promoções ou vendas atualmente em vigor em cada uma da uma ou mais lojas.
[0023] Com referência continuada às FIGs 1A e IB, a FIG. 1C ilustra uma imagem da visualização da câmera do dispositivo móvel 160 correspondente a uma imagem de uma cena ao vivo exibida na tela 114 de um dispositivo móvel 112, onde a imagem da visualização da câmera do dispositivo móvel 160 da cena ao vivo é aumentada com dados de realidade aumentada (AR) 162a, 162b e 162c. Conforme utilizado neste documento, AR é uma visualização direta ou indireta ao vivo de um ambiente físico do mundo real cujos elementos são "aumentados" por entradas sensoriais geradas por computador, tal como som, vídeo, texto e/ou gráficos ou outros dados. Como ilustrado, os dados AR são exibidos em uma imagem de uma visualização da câmera do dispositivo móvel (a imagem de uma visualização da câmera do dispositivo móvel correspondente a uma imagem da cena ao vivo capturada por uma câmera do dispositivo móvel 112) e exibidos na tela 114 em tempo real. Como utilizado neste documento, a “cena ao vivo” é pretendida para indicar uma imagem ou série de imagens (por exemplo, um vídeo) de uma visualização da câmera do dispositivo móvel do ambiente ao redor do dispositivo móvel em tempo real. As técnicas de aumento utilizados para exibir os dados AR 162a até 162c são tipicamente executadas em tempo real e utilizam o contexto semântico com elementos ambientais, tal como sobrepor dados AR 162a até 162c próximos ou em objetos do mundo real, tal como a sinalização para as localizações do shopping “5 Dollars or Less“, “All About Hair”) e “Cold
Cream”, baseado no reconhecimento dos objetos do mundo real e/ou na localização de dispositivo móvel. AR pode ser utilizada para integrar a comercialização com a imagem da visualização da câmera do dispositivo móvel 160 para gerar uma imagem aumentada. Os objetos do mundo real, os elementos ambientais, e/ou o contexto semântico reconhecido nas imagens de uma cena ao vivo, por exemplo, como ilustrado na sinalização 164a, 164b, 164c em localizações de shopping portando o nome das localizações, pode proporcionar o contexto e o servidor do mundo real como um "gatilho" para um sistema AR exibir os dados AR 162a até 162c. Em outras implementações, as imagens do mundo real contendo dados legíveis por máquina, tal como um código de barras bidimensional, por exemplo, um código de resposta rápida (QR), podem servir como um gatilho.
[0024] Os dados AR 162 até 162c podem incluir a informação relacionada com as localizações. Por exemplo, os dados AR 162a até 162c podem incluir informação sobre promoções ou vendas em uma localização particular. Os dados AR 162a até 162c podem incluir marcas, por exemplo, determinadas baseadas na localização determinada do dispositivo móvel 112 ou baseadas nos componentes identificados na imagem capturada da cena ao vivo. Os dados AR 162a até 162c podem incluir links, por exemplo, um link para um site da web associado com a localização, um link para um vídeo introdutório sobre os bens e serviços vendidos no local ou um link para um cupom (tal como dados AR 162c) ou outro material promocional. Os dados AR 162a até 162c também podem permitir que um cliente ou cliente em potencial visualize o interior da localização ("interior"
aqui referente ao interior em relação ao corredor ilustrado 166 do shopping), seja por proporcionar um link que possa fazer com que o dispositivo móvel 112 exiba uma nova tela com imagens ou vídeo do interior da loja ou, adicionalmente ou alternativamente, por apresentar essas imagens ou vídeo dentro de um dos balões de chamada ilustrados para exibir dados AR 162a até 162c, ou outro método apropriado para exibir tais vídeo junto com, ou alternativamente à imagem da visualização da câmera do dispositivo móvel 160. Em algumas implementações, os dados AR 162a até 162c são específicos do usuário e direcionados a um usuário em particular baseado em outros dados que o sistema possui sobre o usuário, tal como o perfil de usuário, as preferências ou os favoritos do usuário e/ou as compras anteriores. Por exemplo, baseado na data da última compra do condicionador para um usuário particular e nos dados de histórico sobre as compras do condicionador, os dados AR 162b lembram ao usuário que ele pode precisar comprar o condicionador, o qual é vendido na localização do shopping “All About Hair”.
[0025] No contexto da imagem da visualização da câmera do dispositivo móvel 160 aprimorada com os dados AR 162a até 162c, o dispositivo móvel 112 pode ser capaz de, independentemente ou em conjunto com um servidor, identificar elementos do ambiente ou outros componentes relacionados ao mundo real (onde os componentes correspondem a áreas dentro da imagem) dentro da imagem de visualização de câmera de dispositivo móvel 160 que possui, por exemplo, um significado semântico útil para o usuário ou não possui um significado semântico, mas são componentes distinguíveis de outros componentes na imagem.
Por exemplo, dentro da imagem da visualização da câmera do dispositivo móvel 160 ilustrada na FIG. 1C, o componente 168a pode ser identificado como um piso.
Técnicas tais como a homografia do solo, podem identificar, dentro de uma imagem, um plano de solo que pode ser utilizado para identificar o piso.
Utilizando outras técnicas de visualização de máquina, tal como a detecção de crista, a detecção de borda, e/ou análise de borrão e outras técnicas de visualização de máquina, outros elementos ambientais dentro da imagem também podem ser identificados como "componentes" que são distintos de outros componentes.
Por exemplo, o componente 168b pode ser identificado como um caminho de passagem através do qual o corredor 166 entra em um novo corredor e/ou corredor 166 continua à esquerda da referida passagem.
Na concretização ilustrada, o caminho de passagem forma um quadrilátero associado ao componente 168b correspondente ao caminho de passagem.
Da mesma forma, o componente 168c pode ser reconhecido como um teto e os componentes 168d e 168e podem ser reconhecidos como paredes.
O reconhecimento de elementos ambientais que definem componentes pode ser baseado em máquina por um sistema de realidade aumentada ou, adicionalmente ou alternativamente, eles podem ser definidos pelo usuário.
Embora os componentes ilustrados 168a até 168e correspondam a polígonos ou formas poligonais, entende-se que um componente dentro da imagem da visualização da câmera da cena ao vivo pode ser irregular (embora, também seja entendido que mesmo formas irregulares podem aproximadas como polígonos com um número suficiente de lados). Por exemplo, um componente pode incluir um corredor ou estrada sinuosa, ou uma poça, lago ou outro corpo de água, para citar apenas alguns exemplos não limitativos.
[0026] Desde que os usuários do dispositivo móvel 112 podem se beneficiar da exibição simultânea e/ou alternativa de dados do mapa, tal como ilustrado na FIG. 1B e dos dados AR como ilustrado na FIG. 1C, métodos para permitir a exibição simultânea ou alternativa de tal informação podem proporcionar uma melhor experiência ao usuário.
[0027] A FIG. 2A ilustra uma imagem de uma visualização de câmera de dispositivo móvel 210 de uma cena ao vivo exibida na tela de um dispositivo móvel (similar à tela 114 do dispositivo móvel 112 da FIG. 1A) onde a imagem é aumentada com dados de realidade aumentada enquanto um objeto auxiliar está ancorado em um componente visível na imagem. A FIG. 2B ilustra uma imagem de uma visualização de câmera de dispositivo móvel 220 de uma cena ao vivo similar à imagem da visualização de câmera de dispositivo móvel 210 ilustrada na FIG. 2A, onde o objeto auxiliar é ancorado em um componente diferente na imagem a partir da FIG. 2A. Com referência contínua às figuras 2A e 2B, como ilustrado, o objeto auxiliar compreende um mapa 240 similar ao mapa 140 da FIG. 1B. Por exemplo, o mapa 240 pode ser um mapa de cima para baixo associado com a cena ao vivo (e também é associado com uma localização do dispositivo móvel). Similarmente, como ilustrado na FIG. 1C, a imagem é aumentada com os dados AR 262a, 262b e 262c similares aos dados AR 162a até 162c. Como ilustrado na FIG. 2A, o mapa 240 está ancorado a um componente 268a correspondente a um elemento ambiental correspondente a um piso na imagem, enquanto na FIG. 2B, o mapa 240 está ancorado a um componente 268b correspondente a um elemento ambiental correspondente a uma passagem no final do corredor 266. Embora os elementos ambientais correspondam a componentes físicos/do mundo real, tais como objetos físicos, coisas ou componentes de arquitetura na cena ao vivo, a partir da perspectiva da imagem da câmera, da cena ao vivo exibida na tela do dispositivo móvel, o elemento ambiental é simplesmente uma área dentro da imagem.
O objeto auxiliar, neste exemplo o mapa 240, pode, portanto, ser exibido "ancorado" para a área da cena ao vivo correspondente ao objeto físico, por exemplo.
Exemplos de objetos físicos correspondentes a um componente visível em uma imagem capturada na qual um objeto auxiliar pode ser ancorado podem incluir uma parede, um canto, um piso, uma aresta (tal como uma aresta entre um piso e uma parede), uma fachada de loja, uma janela ou outro objeto físico e/ou arquitetônico ou uma combinação dos mesmos.
Entende-se, entretanto, que o "componente" visível na imagem não precisa necessariamente corresponder a um objeto físico, mas pode corresponder a uma coleção de objetos físicos ou a uma forma arbitrária dentro da imagem.
Em um aspecto do objeto auxiliar sendo ancorado em um componente visível na imagem, o objeto auxiliar cobre uma parte da imagem associada ao componente.
Entende-se que o objeto pode estar ancorado com um componente visível na imagem capturada, mas que tal componente pode não estar, em algumas implantações, visível na imagem aumentada à medida que o componente pode estar obscurecido pelo objeto auxiliar.
[0028] O mapa 240 sendo ancorado no componente a (tal como os componentes 268a e 268b) visível na imagem capturada pode ser entendido como significando que a imagem aumentada da visualização da câmera do dispositivo móvel da cena ao vivo é atualizada para ser exibida em tempo real no vídeo do dispositivo móvel, o objeto auxiliar permanece ancorado ao componente da imagem capturada conforme a visualização da câmera do dispositivo móvel muda à medida que, por exemplo, o dispositivo móvel é movido. Por exemplo, uma orientação do dispositivo móvel pode alterar de modo que mais ou menos da área na imagem capturada correspondente ao componente no qual o mapa 240 está ancorado apresenta a imagem capturada da visualização da câmera do dispositivo móvel e, portanto, mais ou menos, conforme o caso, do mapa 240 pode ser exibido nas imagens aumentadas exibidas subsequentes da visualização da câmera do dispositivo móvel. No caso de um componente que não corresponde a um objeto físico, por exemplo, uma área arbitrariamente definida dentro da imagem capturada, o dispositivo móvel, ou um processador dentro do dispositivo móvel, podem então ancorar a área arbitrariamente definida a pontos chave dentro da imagem capturada (por exemplo, cantos, linhas, formatos, etc.) de modo que à medida que o dispositivo móvel se move dentro do ambiente e devido à translação e/ou rotação geométrica do dispositivo móvel, o objeto auxiliar permaneça ancorado na área arbitrariamente definida, entrando e saindo da visualização à medida que os pontos chave dentro da imagem capturada entram e saem da visualização devido às alterações na posição e orientação do dispositivo móvel.
[0029] Referindo-se novamente à FIG. 1C, na imagem da visualização da câmera do dispositivo móvel 160, vários componentes 168a até 168e foram identificados. Em uma implementação, um usuário interagindo com a imagem da visualização da câmera do dispositivo móvel 160 pode selecionar um dos componentes para exibição do mapa 240. Como tal, o dispositivo móvel, um processador dentro do dispositivo móvel e/ou um dispositivo de entrada do dispositivo móvel (tal como uma tela sensível ao toque, por exemplo, a qual pode, por exemplo, ser sobreposta sobre um vídeo/tela do dispositivo móvel), pode receber uma entrada designando o componente ou a área da imagem capturada para ancorar o pelo menos um objeto auxiliar. Como ilustrado nas figuras 2A e 2B, o usuário selecionou, por exemplo, os componentes 168a e 168b na FIG. 1C, respectivamente, para a exibição do mapa 240. Entretanto, em algumas implementações, o objeto auxiliar poderia ser ancorado automaticamente em uma localização ou componente padrão que pode ou não ser alterado pelo usuário. Embora o mapa tenha sido referido neste documento como um objeto auxiliar, entende-se que, em algumas implementações, também pode ser considerado um tipo de dados AR, pois é uma imagem (a imagem sendo um tipo de dado) que não está fisicamente na cena ao vivo, mas é adicionada à imagem capturada da visualização da câmera da cena ao vivo pelo dispositivo móvel para gerar uma imagem aumentada. Embora o objeto auxiliar possa ser um tipo de dados AR, ele está sendo referido aqui como um "objeto auxiliar" para distingui-lo de outros tipos de dados AR, tal como os dados AR 262a até
262c. Portanto, conforme ilustrado nas FIG. 2A e 2B, o dispositivo móvel pode exibir a imagem da visualização da câmera do dispositivo móvel com o objeto auxiliar ancorado aos componentes 268a, 268b enquanto adicionalmente exibindo, em adição a pelo menos um objeto auxiliar, os dados AR gerados pelo sistema 262a até 262c.
[0030] O Mapa 240 apresentado na FIG. 2A pode ser exibido e orientado de diferentes maneiras. Por exemplo, em uma implementação, o mapa pode ser dimensionado independentemente, enquanto ancorado ao componente 268a da imagem da visualização da câmera do dispositivo móvel 210 da cena ao vivo. Adicionalmente ou alternativamente, o mapa pode ser ampliado, reduzido, ser posto em panorama, transladado ou orientado independentemente do restante da imagem aumentada. Em tal concretização, o componente 268a, neste exemplo, o piso, serve como uma localização dentro da imagem capturada onde o mapa pode ser exibido. Isso pode ser útil, por exemplo, para que os componentes dentro da imagem capturada que são de menos interesse para o usuário sejam utilizados para exibir o mapa, permitindo o restante da imagem para outros tipos de anotação dos dados AR 262a até 262c. Como ilustrado, o mapa 240 corresponde à topologia real do corredor na cena ao vivo e inclui um percurso de navegação 244 indicando uma rota para um destino, por exemplo, o destino 146 com referência à FIG.
146. Entretanto, entende-se que o objeto auxiliar ancorado, neste exemplo, no piso, pode incluir um mapa que não corresponde à topologia real. Por exemplo, o mapa poderia ser um mapa de todo o ponto de encontro sem coincidir com localizações no mapa com objetos visíveis na cena ao vivo. Alternativamente, o mapa ancorado no piso poderia ser um mapa de uma localização diferente do ponto de encontro onde o dispositivo móvel está localizado. Conforme descrito em outra parte deste documento, o objeto auxiliar não precisa ser um mapa e pode incluir um navegador, uma interface com o usuário para qualquer aplicativo no dispositivo móvel (tal como um aplicativo de troca de mensagens de texto, um aplicativo de telefone, etc.), uma área de exibição para uma imagem ou um vídeo, etc.
[0031] Embora as FIG. 2A e 2B apresentem concretizações em um corredor de um shopping, entende-se que a imagem da visualização da câmera também pode incluir o interior de uma loja, por exemplo, um dos locais de shopping “5 Dollars or Less“, “All About Hair”, “Sunglasses +”, etc. Por exemplo, na FIG. 2A com o mapa 240 ancorado no piso, ao entrando em uma loja, um mapa do interior da loja pode ser exibido na área do piso. Os dados AR relacionados com os itens na loja, similares aos dados AR 262a até 262c, podem ser exibidos em coordenação com o mapa
240. Em um exemplo não ilustrado, ao invés dos balões de chamada ilustrados na FIG. 2A, os dados AR 262a até 262c podem incluir ícones de exibição ou de letreiro dentro dos quais a informação, tal como etiquetas indicando a mercadoria exibida em diferentes áreas da loja ou outras informações de interesse e/ou informação de comercialização para os compradores dentro da loja, podem ser exibidas ou gravadas. Tais exibições ou placas de sinalização poderiam, em um exemplo, se elevar do piso à medida que o usuário se aproxima de uma região dentro da loja. Em uma implementação, exibições e placas de sinalização são associadas com o mapa 240 que é exibido no piso e/ou nos corredores no piso.
[0032] A FIG. 3A até 3B ilustra concretizações de uma imagem de uma câmera de dispositivo móvel de uma cena ao vivo exibida na tela de um dispositivo móvel enquanto um objeto auxiliar é ancorado em um componente visível na imagem. Neste exemplo, a FIG. 3A ilustra uma imagem de uma visualização de câmera do dispositivo móvel 310 similar à da FIG. 2A, enquanto 3B ilustra uma imagem da visualização da câmera do dispositivo móvel 320 onde o dispositivo móvel foi movido e/ou girado de modo que o piso do ponto de encontro cubra mais a tela do dispositivo móvel em comparação com a FIG. 3A. Devido à alteração no campo de visualização da imagem capturada da visualização da câmera do dispositivo móvel, a sinalização física “5 Dollars or Less“ não é mais visível e, portanto, os dados AR agora incluem uma etiqueta 362a' indicando o nome da loja, bem como uma categoria de loja, “5 Dollars ou Less. Discount Store”. Adicionalmente, os dados AR 262a continuam a ser exibidos apontando para o que resta da parede externa da localização “5 Dollars or Less“, enquanto na visualização ilustrada na FIG. 3A, os dados AR 362a apontam para a sinalização física.
[0033] Notavelmente, o componente 368a' na FIG. 3B cobre muito mais da imagem capturada da visualização da câmera do dispositivo móvel 320 exibida no dispositivo móvel do que o componente 368a na FIG. 3A. Deste modo, o mapa 340 é ilustrado preenchendo mais a imagem aumentada exibida no dispositivo móvel na FIG. 3B em comparação com a FIG. 3A.
Portanto, à medida que a imagem aumentada da visualização da câmera do dispositivo móvel 320 foi atualizada em tempo real devido ao dispositivo móvel ser movido, girado ou reorientado a partir do momento da captura e exibição da imagem aumentada da visualização da câmera do dispositivo móvel 310 na FIG. 3A até o momento da captura e exibição da imagem aumentada da visualização da câmera do dispositivo móvel 320 na FIG. 3B, o objeto auxiliar, ilustrado aqui como o mapa 340, permanece ancorado aos componentes 368a, 368a' da cena ao vivo à medida que os componentes 368a, 368a' aumentam de tamanho, diminuem de tamanho e/ou se movem e/ou entram, e saem da visualização dentro da imagem capturada.
Como ilustrado, o mapa 340 é apresentado em uma escala maior já que o componente 368a' na FIG. 3B é maior que 368a na FIG. 3A.
Entretanto, em implementações alternativas, responsivo ao aumento no tamanho do componente 368a na imagem capturada da visualização da câmera do dispositivo móvel devido ao movimento do dispositivo móvel, a tela exibe uma parte maior do pelo menos um objeto auxiliar em uma escala consistente à medida que o componente 368a vai de menor para maior.
Além disso, como ilustrado, embora exista uma alteração na orientação e/ou atitude do dispositivo móvel a partir da FIG. 3A até FIG. 3B, uma orientação do objeto auxiliar permanece consistente em relação, neste exemplo, à borda entre o piso e a parede.
Em concretizações alternativas, a orientação do objeto auxiliar, no exemplo ilustrado, o mapa 340, poderia alterar à medida que a orientação do dispositivo móvel é alterada.
Adicionalmente, como ilustrado na FIG. 3A, o mapa 340 exibido no piso corresponde aos outros objetos reais na imagem exibida na tela. Entretanto, como ilustrado na FIG. 3B, o mapa não corresponde mais aos outros objetos reais na imagem, pois o mapa 340 ainda exibe as lojas "All About Hair", "Sunglasses +" e "Cold Cream", embora somente a entrada para a loja de “Five Dollars or Less” permaneça visível na imagem.
[0034] As FIGs. 4A até 4D ilustram concretizações de uma imagem de uma visualização de câmera de dispositivo móvel da cena ao vivo exibida na tela de um dispositivo móvel enquanto um objeto auxiliar está ancorado em um componente na imagem. Neste exemplo, a FIG. 4A ilustra uma situação similar à da FIG. 2B, enquanto as FIGS. 4B até 4D ilustram imagens sucessivas da visualização da câmera do dispositivo móvel 410, 420, 430, 450, onde o dispositivo móvel está sendo movido pelo corredor 466, aproximando-se assim (e eventualmente, na FIG. 4D, cruzando) da passagem (correspondente aos componentes 468b, 468b', 468b") no final do corredor 466. Como resultado, os componentes 468b, 468b', 468b" na imagem da visualização da câmera do dispositivo móvel 410, 420, 430 aumentam sucessivamente na imagem da visualização da câmera do dispositivo móvel. Embora no exemplo ilustrado, os componentes 468b aumentem em tamanho a partir das FIGs. 4A até 4C, o mapa 440 é ilustrado aumentado em escala. Entretanto, em implementações alternativas, responsivo ao aumento no tamanho do componente 468b, 468b', 468b" dentro da imagem da visualização da câmera do dispositivo móvel 410, 420, 430 devido ao movimento do dispositivo móvel, a tela exibe uma parte maior do pelo menos um objeto auxiliar em uma escala consistente, à medida que os componentes 468b, 468b', 468b" vão de menor para maior.
[0035] No exemplo apresentado na FIGs. 4A até 4D, a imagem aumentada da visualização da câmera do dispositivo móvel 410, 420, 430, 450 é atualizada em tempo real à medida que o dispositivo móvel é movido, onde o objeto auxiliar, no exemplo ilustrado, o mapa 440, permanece ancorado no componente 468b da visualização da câmera do dispositivo móvel à medida que o dispositivo móvel é movido. Finalmente, na FIG. 4D, o usuário e, por extensão, o dispositivo móvel, passou pela passagem correspondente aos componentes 468b, 468b', 468b". Neste exemplo, o mapa 440 apareceu no vídeo como uma" parede" na qual o mapa 440 foi projetado. Uma vez que o usuário passou pela "parede" na FIG. 4D, o mapa 440 não é mais visível. O mapa 440 permaneceu ancorado aos componentes 468b, 468b', 468b" através de toda as FIGs. 4A até 4C, até que, na FIG. 4D, responsivo ao componente 468b não mais estando dentro da imagem capturada da visualização da câmera do dispositivo móvel devido ao movimento do dispositivo móvel, o vídeo ou a tela não exibe mais o pelo menos um objeto auxiliar, neste exemplo, o mapa 440. Nesse caso, o dispositivo móvel, ou um ou mais processadores dentro do dispositivo móvel, remove pelo menos um objeto auxiliar a partir da imagem aumentada. Agora que "Res Publica Coffee" está na visualização na FIG. 4D, em um exemplo, os dados AR 462d relacionados com essa localização do shopping são exibidos na imagem aumentada da visualização da câmera do dispositivo móvel 450. Em uma implementação alternativa não ilustrada, uma vez que o mapa não é mais exibido no componente 468b devido ao componente 468b não mais permanecendo dentro da visualização da câmera do dispositivo móvel 450, o mapa pode ser automaticamente, por padrão, ancorado em outro componente na imagem capturada da visualização da câmera do dispositivo móvel, por exemplo, o componente 470 correspondente ao piso.
Em uma implementação, por exemplo, o mapa (ou qualquer outro objeto auxiliar) pode, devido ao componente 468b, não permanecer mais dentro da visualização da câmera do dispositivo móvel 450, ancorar em outro componente, onde o outro componente é visível na imagem capturada.
O outro componente pode ser, por exemplo, um componente similar ao componente 468b ou, alternativamente, um componente padrão para acoplar o objeto auxiliar.
Por exemplo, supondo que o componente 468b fosse uma primeira janela (ou primeira vitrine, etc.) e, devido ao movimento do dispositivo móvel, a primeira janela (ou primeira vitrine, etc.) não permaneceu mais dentro da visualização da câmera do dispositivo móvel 450, o mapa poderia se ancorar automaticamente em uma segunda janela (ou segunda vitrine de loja, etc.). Consequentemente, supondo que um objeto auxiliar foi ancorado à entrada da loja “Five Dollars or Less! na FIG. 4A para gerar a imagem aumentada, responsivo a essa entrada não mais estando dentro do campo de visualização da imagem capturada na FIG. 4B, o objeto auxiliar pode ancorar na entrada da “Sunglasses +” da FIG. 4B e ser exibido na imagem aumentada como ancorado na entrada da loja “Sunglasses +”). Finalmente, na FIG. 4C, onde somente uma parte da entrada da loja “Sunglasses +” é visível, o objeto auxiliar poderia se ancorar na entrada da loja “Cold Cream” e ser exibido na imagem aumentada como ancorado na entrada da loja “Cold Creme”.
[0036] Em um aspecto das FIGs. 4A até 4D, o mapa 440 também é atualizado à medida que a imagem da visualização da câmera do dispositivo móvel muda devido ao movimento do dispositivo móvel. Como apresentado na FIG. 4A, uma indicação de uma localização determinada do dispositivo móvel é indicada com o alfinete de localização, ilustrando que o usuário está próximo da loja de "5 Dollars or Less!". À medida que o dispositivo móvel se move e uma imagem aumentada subsequente da visualização da câmera do dispositivo móvel é exibida, o mapa 440 também é atualizado por atualizar a indicação da localização determinada do dispositivo móvel. Na FIG. 4B, o mapa 440 é atualizado por atualizar a indicação da localização determinada do dispositivo móvel e, portanto, o alfinete de localização indica agora que o usuário está próximo da loja "Sunglasses +". Finalmente, na FIG. 4C, o mapa 440 é atualizado e o alfinete de localização agora apresenta que o usuário está próximo da loja “Cold Cream”.
[0037] Como ilustrado nas FIGs. 4A até 4C, o mapa 440 permaneceu ancorado no caminho de passagem (correspondente aos “componentes 468b, 468b’, 468b”) da visualização da câmera do dispositivo móvel enquanto o dispositivo móvel se movia, onde o componente 468b está estacionário no mundo real enquanto o dispositivo móvel se aproxima da passagem. Em outra concretização similar a ilustrado nas FIGs. 4A até 4C, o mapa 440 (ou outro objeto auxiliar) poderia ser ancorado em um plano no corredor que permanece a alguma distância do usuário, à medida que o usuário se move pelo corredor. À medida que o usuário se move, o mapa 440 permanece ancorado a uma distância fixa, mas o restante da imagem aumentada muda à medida que a cena muda devido ao movimento do usuário segurando o dispositivo móvel, por exemplo, à medida que novas lojas aparecem e lojas antigas desaparecem de vista.
[0038] A FIG. 5A ilustra um exemplo de um método para exibir, em um dispositivo móvel, uma imagem aumentada, por exemplo, as imagens aumentadas ilustradas nas FIGs. 2A, 2B, 3 A, 3B, 4A, 4B e 4C. O método 500A pode incluir o bloco 525A com capturar, por uma câmera do dispositivo móvel, uma imagem de uma cena ao vivo. A imagem da cena ao vivo, por exemplo, pode incluir, como um exemplo, a imagem da cena ao vivo exibida na tela 114 do dispositivo móvel 112 com referência à FIG. 1A. Meios para executar a funcionalidade do bloco 525A podem incluir, mas não se limitam a câmera(s) 650, o barramento 605, a memória funcional 635 e/ou processador (processadores) 610 da FIG.
6. O método 500A continua no bloco 530A com a exibição da imagem aumentada baseada na imagem capturada. Uma vez que a imagem é capturada no bloco 525A, o dispositivo móvel ou um ou mais processadores no dispositivo móvel, pode determinar (ou receber uma entrada designando) um componente na imagem capturada na qual ancorar o objeto auxiliar e gerar uma imagem aumentada com o objeto auxiliar ancorado no componente. A imagem aumentada é gerada baseado na imagem capturada e no objeto auxiliar e a imagem aumentada inclui, portanto, o objeto auxiliar. Em algumas implementações, o objeto auxiliar pode ser opaco ou semitransparente. Em uma implementação opaca, a imagem aumentada inclui o objeto auxiliar e partes da imagem capturada não coberta pelo objeto auxiliar. Em uma implementação semitransparente, a imagem aumentada pode incluir a imagem capturada com o objeto auxiliar semitransparente cobrindo partes da imagem capturada, mas com aspectos da imagem capturada nas partes cobertas adicionalmente permanecendo visíveis "atrás" do objeto auxiliar. O Bloco 530A e o bloco 530B do método 500B da FIG. 5B descritos abaixo podem corresponder um ao outro, e os ensinamentos com referência a um bloco podem ser aplicados ao outro bloco. O método 500A continua no bloco 540A com atualizar a imagem aumentada à medida que o dispositivo móvel é movido, onde pelo menos um objeto auxiliar permanece ancorado ao componente à medida que a imagem aumentada é atualizada. O Bloco 540A e o bloco 540B do método 500B da FIG. 5B descritos abaixo podem corresponder um ao outro, e os ensinamentos com referência a um bloco podem ser aplicados ao outro bloco.
[0039] A FIG. 5B ilustra um exemplo de um método para exibir uma imagem de uma visualização de câmera de dispositivo móvel de uma cena ao vivo enquanto exibindo pelo menos um objeto auxiliar, por exemplo, as imagens da visualização de câmera de dispositivo móvel ilustradas nas FIGs. 2A, 2B, 3 A, 3B e 4A até 4D. O método 500B para exibir, em um dispositivo móvel, tal como o dispositivo móvel 112 da FIG. 1A, uma imagem de uma visualização de câmera de dispositivo móvel de uma cena ao vivo capturada por uma câmera do dispositivo móvel pode opcionalmente incluir o bloco opcional 510B com a determinação da localização do dispositivo móvel. Um exemplo de um dispositivo móvel é ilustrado com referência à FIG. 6. Tal implementação para um dispositivo móvel pode incluir componentes capazes de calcular uma localização do dispositivo móvel, tal como um mecanismo de localização. A localização do dispositivo móvel opcionalmente calculada pode ser utilizada em vários aspectos do método discutido neste documento. Meios para executar a funcionalidade do bloco opcional 510B podem incluir, mas não estão limitados ao receptor 660 do sistema global de navegação por satélite (GNSS), ao subsistema(s) de comunicação 630, ao mecanismo de localização 670, ao barramento 605, ao dispositivo(s) de armazenamento 625, à memória funcional 635 e/ou ao processador (processadores) 610 da FIG. 6.
[0040] O método 500B continua no bloco opcional 520B com o recebimento de uma entrada que designa a área ou o componente da imagem da visualização da câmera do dispositivo móvel de uma cena ao vivo para atracar o pelo menos um objeto auxiliar. Com referência à FIG. 1C, os componentes 168a, 168b, 168c, 168d (por exemplo) podem ser identificados automaticamente pelo dispositivo móvel ou podem ser especificados pelo usuário. Nas implementações onde os componentes visíveis na imagem para ancorar o objeto auxiliar são identificados automaticamente ou identificados por padrão, o local padrão poderia ser definido pelo usuário. Alternativamente, o componente padrão para ancorar o objeto auxiliar poderia ser o último componente ou um componente similar ao último componente no qual o objeto auxiliar foi ancorado. Portanto, em uma concretização onde um usuário selecionou anteriormente uma janela para ancorar o objeto auxiliar, o dispositivo móvel pode selecionar uma janela visível na imagem para acoplar o objeto auxiliar, a qual o usuário pode, por exemplo, alterar manualmente.
Em uma implementação, o usuário pode tocar ou selecionar um dos componentes 168a, 168b, 168c, 168d (por exemplo) para ancorar o objeto auxiliar no componente selecionado da imagem da visualização da câmera do dispositivo móvel, com a tela sensível ao toque do dispositivo móvel gerando um sinal em resposta ao mesmo.
Em uma de tais implementações, o usuário pode tocar ou clicar na borda de um dos componentes 168a, 168b, 168c, 168d ou em qualquer ponto dentro dos componentes 168a, 168b, 168c, 168d, para designar o componente para ancorar.
Adicionalmente ou alternativamente, o usuário pode arrastar o objeto auxiliar, ou um ícone representando o objeto auxiliar, através de diferentes partes da imagem da cena ao vivo.
O dispositivo móvel pode então destacar um componente, por exemplo, um dos componentes 168a, 168b, 168c, 168d, sobre o qual o objeto auxiliar está atualmente pairando enquanto o usuário arrasta o componente auxiliar.
Quando o usuário para de tocar na tela sensível ao toque, o dispositivo móvel pode receber o toque liberado como uma entrada para selecionar o componente sobre o qual o objeto auxiliar, ou o ícone do objeto auxiliar, estava pairando no momento onde o toque do usuário foi liberado.
Portanto, uma tela sensível ao toque pode ser configurada para, ou um ou mais processadores controlando a tela sensível ao toque podem ser configurados para, receber um gesto de toque ou um gesto de arrasto por um usuário e gerar a entrada para ancorar o objeto auxiliar baseado no gesto de toque ou de arraste.
O(s) processador(es) do dispositivo móvel recebe tal sinal e o reconhece como uma entrada para acoplar o objeto auxiliar ao componente selecionado.
Em seguida, um ou mais processadores do dispositivo móvel são configurados para ancorar, responsivos à entrada, o objeto auxiliar ao componente designado.
Em uma implementação, a entrada designando o componente para ancorar o objeto auxiliar pode incluir um componente de ancorar na borda ou ancorar no canto, permitindo que um usuário mova o objeto auxiliar através da imagem da visualização da câmera da cena ao vivo, onde o dispositivo móvel é configurado para ancorar as bordas ou os cantos do objeto auxiliar em bordas ou cantos dos vários componentes da imagem, de modo que o usuário não precise colocar perfeitamente o objeto auxiliar sobre o componente junto ao qual ele deve ser ancorado.
Meios para executar a funcionalidade do bloco opcional 520B podem incluir, mas não estão limitados ao dispositivo(s) de entrada 615 (tal como, por exemplo, a tela sensível ao toque 617), ao barramento 605, à memória funcional 635 e/ou ao processador(s) 610 da FIG. 6. Nas concretizações onde um usuário seleciona um componente na imagem exibida da visualização da câmera do dispositivo móvel para ancorar o objeto auxiliar, a tela sensível ao toque pode receber uma entrada para ancorar o objeto auxiliar no componente da imagem da visualização da câmera do dispositivo móvel.
A tela sensível ao toque também pode gerar um sinal responsivo à seleção de toque do usuário e, portanto, o processador também pode receber uma entrada, por exemplo, o sinal a partir da tela sensível ao toque, para ancorar o objeto auxiliar.
Posteriormente ao processador receber a entrada, o processador pode então executar as instruções para exibir o pelo menos um objeto auxiliar ancorado no componente designado.
[0041] O método 500B continua no bloco 530B com exibir a imagem da visualização da câmera do dispositivo móvel, incluindo pelo menos um objeto auxiliar ancorado ao componente da imagem da visualização da câmera do dispositivo móvel. Como observado acima, a imagem da visualização da câmera do dispositivo móvel pode ser gerada por primeiro capturar uma imagem da cena ao vivo utilizando uma câmera do dispositivo móvel, a qual pode então ser exibida em um vídeo ou tela do dispositivo móvel. Com referência às FIGs. 2A e 2B, o objeto auxiliar pode incluir um mapa, tal como um mapa de cima para baixo, associado à localização do dispositivo móvel determinado no bloco opcional 510B. Em tal exemplo, o mapa de cima para baixo pode ser exibido em ou sobre um objeto físico na imagem da visualização da câmera do dispositivo móvel. Em outras implementações, o objeto auxiliar pode incluir um navegador, uma interface para um aplicativo baseado em móvel (por exemplo, um teclado numérico para um aplicativo de telefone nativo do dispositivo móvel, um aplicativo de troca de mensagens de texto, um aplicativo de notícias do dispositivo móvel (o qual pode incluir imagens, texto ou vídeo), um aplicativo de exibição de vídeo, etc.), etc. Como ilustrado, por exemplo, na FIGs. 3A, 3B e 4A até 4D, a imagem do objeto auxiliar substitui a parte da imagem da visualização da câmera do dispositivo móvel na área correspondente ao componente junto ao qual o objeto auxiliar é ancorado. Entretanto, em outros exemplos não ilustrados, o objeto auxiliar pode ser transparente ou semitransparente, permitindo que alguns aspectos da cena ao vivo na área correspondente ao componente sejam visíveis como se o objeto auxiliar fosse uma janela semitransparente através da qual a cena ao vivo pode ser vista. Meios para executar a funcionalidade do bloco 530B podem incluir, mas não está limitado ao vídeo(s) 620, a câmera(s) 650, o barramento 605, a memória funcional 635 e/ou o processador(es) 610 da FIG. 6.
[0042] O método 500B continua no bloco 540B com atualizar a imagem da visualização da câmera do dispositivo móvel à medida que o dispositivo móvel é movido enquanto o objeto auxiliar permanece ancorado ao componente da imagem. Com referência às FIGs. 3A, 3B e 4A até 4D, à medida que a câmera do dispositivo móvel captura novas imagens da cena ao vivo em tempo real, à medida que o usuário se move através do ambiente do usuário, a imagem da visualização da câmera do dispositivo móvel é atualizada na tela do dispositivo móvel e o objeto auxiliar permanece ancorado no componente da imagem da visualização da câmera do dispositivo móvel. O objeto auxiliar permanece ancorado à medida que o tamanho, a forma e/ou a orientação do componente na imagem da visualização da câmera do dispositivo móvel são alterados devido ao movimento do usuário segurando o dispositivo móvel com a câmera que está capturando a imagem da visualização do dispositivo móvel. Em algumas implementações, a orientação do objeto auxiliar também pode responder a alterações na orientação da imagem. Portanto, responsivo a alterações na imagem da visualização da câmera do dispositivo móvel devido a alterações na orientação da câmera do dispositivo móvel capturando a imagem, o dispositivo móvel pode alterar a orientação da imagem do objeto auxiliar exibido na imagem da visualização da câmera do dispositivo móvel. Similarmente, à medida que o componente entra e sai da visualização dentro da imagem da visualização da câmera do dispositivo móvel, o objeto auxiliar permanece ancorado no componente. Em uma concretização, onde o objeto auxiliar é um mapa de cima para baixo, o mapa de cima para baixo pode incluir uma indicação da localização determinada (bloco 510B) do dispositivo móvel, como apresentado pelo alfinete de localização na FIG. 4A, 4B e 4C. Como apresentado nas imagens ilustrativas nas FIGs. 4A, 4B e 4C, à medida que a imagem da visualização da câmera do dispositivo móvel é atualizada à medida que o dispositivo móvel se move, isso também inclui atualizar o mapa de cima para baixo, por exemplo, por atualizar a indicação da localização determinada do dispositivo móvel à medida que a localização altera à medida que o dispositivo móvel é movido. Nas FIGs. 4A, 4B e 4C, isso é apresentado à medida que o alfinete de localização se move de figura para figura. Meios para executar a funcionalidade do bloco 540B podem incluir, mas não estão limitados ao vídeo(s) 620, o dispositivo(s) de entrada 615 (incluindo, por exemplo, a câmera(s) 650, o acelerômetro(s), o magnetômetro(s), o giroscópio(s)), o barramento 605, a memória funcional 635 e/ou o processador(es) 610 da FIG. 6.
[0043] O método 500B continua opcionalmente no bloco opcional 550B com exibir os dados de realidade aumentada gerados pelo sistema associados com objetos na imagem da visualização da câmera do dispositivo móvel. Com referência a, por exemplo, as FIGs. 2A e 2B, a imagem da visualização da câmera do dispositivo móvel pode incluir, em adição ao objeto auxiliar ancorado no componente, outros dados AR 262a, 262b, 262c. Tais dados AR podem ser associados à localização do dispositivo móvel determinada no bloco opcional 510B. Tais dados podem adicionalmente ou alternativamente ser associados com objetos detectados pelo dispositivo móvel dentro da imagem da visualização da câmera do dispositivo móvel com ou sem referência à localização do dispositivo móvel. Meios para executar a funcionalidade do bloco opcional 550B podem incluir, mas não estão limitados ao vídeo(s) 620, o barramento 605, a memória funcional 635, e/ou o processador (processadores) 610 da FIG. 6.
[0044] A FIG. 6 ilustra um exemplo de um dispositivo móvel de acordo com concretizações da revelação, tal como o dispositivo móvel possuindo uma tela exibindo as várias imagens descritas em outras partes ao longo desta revelação. O dispositivo móvel também pode ser considerado um dispositivo de computação 600 ou, alternativamente, o dispositivo de computação 600 pode representar alguns dos componentes de um dispositivo móvel ou qualquer outro dispositivo de computação. Exemplos do dispositivo móvel e/ou do dispositivo de computação 600 incluem, mas não estão limitados aos consoles de videogame, tablets, smartphones, laptops, netbooks ou outros dispositivos portáteis. A FIG. 6 proporciona uma ilustração esquemática de uma concretização do dispositivo de computação 600 que pode executar as várias funções descritas neste documento, incluindo, por exemplo, o método
500A da FIG. 5A e/ou o método 500B da FIG. 5B. A FIG. 6 é pretendida somente para proporcionar uma ilustração generalizada de vários componentes, qualquer um ou todos os quais podem ser utilizados conforme apropriado. A FIG. 6, portanto, ilustra amplamente como elementos individuais do sistema podem ser implementados de uma maneira relativamente separada ou relativamente mais integrada.
[0045] O dispositivo de computação 600 é apresentado compreendendo elementos de hardware que podem ser ancorados eletricamente via um barramento 605 (ou podem estar de outra forma em comunicação, conforme apropriado). Os elementos de hardware podem incluir um ou mais processadores 610, incluindo, sem limitação, um ou mais processadores de propósito geral e/ou um ou mais processadores de propósito especial (tal como chips de processamento de sinal digital, processadores de aceleração de gráficos, e/ou semelhantes). O um ou mais processadores 610 são acoplados à memória 635, à câmera(s) 650 e ao vídeo(s) 620 via o barramento 605 e podem ser configurados para apresentar uma imagem aumentada no vídeo(s) 620 baseado em uma imagem capturado pela câmera(s) 650, a imagem aumentada incluindo pelo menos um objeto auxiliar ancorado a um componente que compreende um objeto físico visível na imagem capturada e subsequentemente atualizar a imagem aumentada à medida que o dispositivo móvel é movido de modo que o pelo menos um objeto auxiliar permaneça ancorado no componente à medida que a imagem aumentada é atualizada. Os elementos de hardware podem adicionalmente incluir um ou mais dispositivos de entrada 615, os quais podem incluir, sem limitação, uma tela de toque 617, um mouse, um teclado e/ou semelhantes; e um ou mais vídeos 620, os quais podem ser configurados, por exemplo, para exibir uma imagem de uma câmera de dispositivo móvel, exibir dados AR e/ou exibir uma imagem aumentada baseada em uma imagem capturada de uma cena ao vivo e de um objeto auxiliar ancorado em um componente visível na imagem capturada). Enquanto a tela de toque 617 e o vídeo 620 são ilustradas como blocos separados na FIG. 6, é entendido que eles podem ser integrados em um único dispositivo como um vídeo com tela sensível ao toque capaz de exibir imagens e/ou vídeo enquanto também recebendo entrada de toque de um usuário.
O sensor(es) 680 pode incluir as câmeras(s) 650, embora ilustrado como separado.
A câmera(s) 650 pode capturar quadros sucessivos de imagens de um ambiente, capturando, assim, imagens de uma visualização de câmera de uma cena ao vivo em tempo real, conforme descrito em outra parte do relatório descritivo.
O sensor(es) 680 também pode incluir o sensor(es) de movimento 685. O sensor(es) de movimento 685 pode incluir, por exemplo, o acelerômetro(s) (por exemplo, um acelerômetro de três eixos), um magnetômetro(s), um giroscópio(s) (por exemplo, um giroscópio de três eixos), que podem ser utilizados, em algumas concretizações, para ajudar a determinar uma posição, orientação, e/ou atitude do dispositivo móvel.
Por exemplo, uma vez que uma boa posição é determinada utilizando os sinais não cabeados, tais como sinais de satélite, sinais de rede de longa distância ou sinais de rede de área local não cabeada, as posições subsequentes podem ser calculadas utilizando métodos de cálculo de posição com tais sensores por algum tempo antes que os erros eventualmente se tornem muito grandes.
[0046] O dispositivo de computação 600 pode adicionalmente incluir (e/ou estar em comunicação com) um ou mais dispositivos de armazenamento não temporário 625, os quais podem compreender, sem limitação, armazenamento acessível local e/ou por rede e/ou podem incluir, sem limitação, uma unidade de disco rígido, um arranjo de unidades, um dispositivo de armazenamento óptico, um dispositivo de armazenamento de forma sólida, tal como uma memória de acesso aleatório (RAM) e/ou uma memória somente para leitura (ROM), os quais podem ser programáveis, atualizáveis por flash e/ou coisa parecida. Tais dispositivos de armazenamento podem ser configurados para implementar qualquer armazenamento de dados apropriado, incluindo, sem limitação, vários sistemas de arquivos, estruturas de banco de dados e/ou dentre outros.
[0047] O dispositivo de computação 600 também pode incluir um subsistema(s) de comunicação 630. O(s) subsistema(s) de comunicação 630 pode incluir um transceptor para receber e transmitir dados ou um meio cabeado e/ou não cabeado. O subsistema(s) de comunicação 630 também pode incluir, sem limitação, um modem, uma placa de rede (cabeada ou não cabeada), um dispositivo de comunicação por infravermelho, um transceptor não cabeado e/ou o dispositivo de comunicação e/ou o chipset (tal como um dispositivo Bluetooth™, um dispositivo de rede local não cabeada (WLAN), um dispositivo 802.11, um dispositivo Wi- Fi, um dispositivo de rede de área local não cabeada (WWAN), uma interoperabilidade mundial para o dispositivo de acesso por microondas (WiMax), instalações de comunicação celular etc.), e/ou dentre outros.
O subsistema(s) de comunicação 630 pode permitir que dados sejam trocados com uma rede, com outros dispositivos de computação e/ou com quaisquer outros dispositivos descritos neste documento.
Em um exemplo, o subsistema(s) de comunicação 630 pode ser utilizado para transmitir solicitações de dados e receber dados, tal como, por exemplo, o mapa associado a uma localização do dispositivo móvel, os dados AR associados à localização do dispositivo móvel e/ou associados com elementos ambientais e/ou objetos em uma imagem de uma visualização da câmera de uma cena ao vivo associada com a localização do dispositivo móvel.
Mais geralmente, os dados associados com um objeto auxiliar, tal como uma imagem do objeto auxiliar, dados para gerar tal imagem do objeto auxiliar ou outros dados associados com o objeto auxiliar também podem ser recebidos utilizando o subsistema(s) de comunicação 630. Em uma implementação, o subsistema(s) de comunicação 630 pode ser configurado para se comunicar com um ou mais servidores, por exemplo, transmitir solicitações de dados para um ou mais servidores associados com o objeto auxiliar (ou dados de realidade aumentada) de modo a exibir o objeto auxiliar (ou os dados de realidade aumentada) e receber os dados a partir de um ou mais servidores e comunicar o dados recebidos para o processador(es) 610 para processamento adicional, de modo a, por exemplo, exibir o objeto auxiliar na imagem aumentada.
Em um exemplo, o subsistema(s) de comunicação 630 transmite uma localização determinada para o dispositivo móvel para um servidor de mapa, recebe dados para exibir o mapa a partir do servidor de mapa e comunica os dados recebidos para, por exemplo, o processador(es) 610 para exibir o mapa ancorado ao componente no vídeo(s) 620. Nas implementações onde o mapa também exibirá uma rota para navegar ou caminhar para uma localização, o subsistema(s) de comunicação 630 também pode solicitar dados de rota a partir de um servidor de rota para permitir que o dispositivo móvel adicionalmente exiba uma rota no mapa exibido. Em outros exemplos, os dados associados com o objeto auxiliar ou com os dados de realidade aumentada podem incluir uma realimentação de vídeo a partir de uma câmera remota, dados a partir de servidores associados com a exibição de dados de realidade aumentada (tal como dados a partir de servidores de marketing ou servidores pertencentes a uma empresa dentro do ponto de encontro), dados a partir de servidores que entregam dados associados a um navegador (onde o objeto auxiliar é uma janela do navegador) ou dados associados com um aplicativo do dispositivo móvel onde o aplicativo do dispositivo móvel recebe esses dados a partir de um servidor remoto. Adicionalmente, em implementações onde o subsistema(s) de comunicação 630 incluí transceptor(es) não cabeado, tal transceptor(es) não cabeado pode auxiliar a determinar a localização do dispositivo móvel por executar medições de sinais não cabeados, tal como sinais WLAN e WWAN.
[0048] O dispositivo de computação 600 também pode incluir um receptor de sistema global de navegação por satélite (GNSS) 660 e a antena GNSS 662. O receptor GNSS 660 pode medir vários sinais recebidos a partir de satélites pertencentes a um sistema de posicionamento por satélite (SPS), tal como o sistema de posicionamento global
(GPS), o Sistema por Satélite de NAvegação GLobal (GLONASS), Galileo ou Beidou. Essas medições de sinal podem ser utilizadas para determinar uma localização do dispositivo móvel sozinho ou em combinação com os sinais terrestres, tais como WAN, WLAN e/ou outros sinais não cabeados os quais podem ser recebidos e/ou medidos, por exemplo, pelo subsistema(s) de comunicações 630. Em um exemplo opcional, o dispositivo de computação 600 também pode incluir um mecanismo de localização 670 o qual pode residir dentro da memória funcional 635, do subsistema(s) de comunicação 630, do receptor GNSS 660 e/ou em outro local, o qual pode ser configurado para receber entradas a partir destes vários subsistemas, incluindo, mas não limitado, por exemplo, o receptor GNSS 660, o subsistema(s) de comunicações 630, o dispositivo(s) de entrada 615 tal como sensores (particularmente, sensores de movimento), para calcular uma localização do dispositivo móvel.
[0049] Em várias concretizações, o dispositivo de computação 600 pode adicionalmente compreender uma memória não temporária funcional 635, a qual pode incluir um dispositivo de memória somente para leitura (ROM). O dispositivo de computação 600 pode compreender elementos de software, apresentados como estando atualmente localizados dentro da memória funcional 635, incluindo um sistema operacional 640, as unidades de dispositivo, as bibliotecas executáveis e/ou outro código, tal como um ou mais programas aplicativos 645, os quais podem compreender programas de computador proporcionados por várias concretizações e/ou podem ser projetados para implementar métodos e/ou configurar sistemas, proporcionados por outras concretizações, conforme descrito neste documento. Uma interface para um ou mais programas aplicativos 645 poderia ser um objeto auxiliar que está ancorado a um componente de uma visualização de câmera de dispositivo móvel exibida na tela de um dispositivo móvel. Adicionalmente ou alternativamente, um programa aplicativo poderia funcionar para exibir a imagem da visualização da câmera do dispositivo móvel com o objeto auxiliar ancorado no componente da imagem. Apenas a título de exemplo, um ou mais procedimentos descritos com relação aos métodos discutidos acima podem ser implementados como código e/ou instruções executáveis por um computador (e/ou processador dentro de um computador), tais como os métodos ilustrativos ilustrados nas FIGs. 5A e/ou 5B; em um aspecto, então, tal código e/ou instruções podem ser utilizados para configurar e/ou adaptar um computador de propósito geral (ou outro dispositivo) para executar uma ou mais operações de acordo com os métodos descritos.
[0050] Como descrito em outro lugar em maiores detalhes, tais instruções armazenadas em um meio não temporário legível por computador para execução por um ou mais processadores de um dispositivo móvel podem, em várias implementações, incluir instruções para executar as operações correspondentes a qualquer uma das funções reveladas neste documento, por exemplo, estas ilustradas nas FIGs. 5A e/ou 5B, as operações compreendendo, por exemplo, capturar, utilizando a câmera(s) 650, uma imagem de uma cena ao vivo, exibir, no vídeo(s) 620, uma imagem aumentada baseada na imagem capturada, a imagem aumentada incluindo pelo menos um objeto auxiliar ancorado em um componente compreendo um objeto físico visível na imagem captura, a atualizar a imagem aumentada no vídeo(s) 620 à medida que o dispositivo móvel é movido, em que o objeto auxiliar permanece ancorado ao componente à medida que a imagem aumentada é atualizada. As operações podem adicionalmente compreender processar uma entrada designando o componente da imagem para ancorar o pelo menos um objeto auxiliar e/ou exibir o pelo menos um objeto auxiliar ancorado no componente designado. As operações também podem incluir exibir, no vídeo do dispositivo móvel, dados de realidade aumentada gerados pelo sistema.
[0051] Um conjunto dessas instruções e/ou código pode ser armazenado em um meio de armazenamento legível por computador, tal como o(s) dispositivo(s) de armazenamento 625 descrito acima. Em alguns casos, o meio de armazenamento pode ser incorporado dentro de um dispositivo de computação, tal como o dispositivo de computação 600. Em outras concretizações, o meio de armazenamento pode ser separado a partir de um dispositivo de computação (por exemplo, um meio removível, tal como um disco compacto), e/ou proporcionado em um pacote de instalação, de modo que o meio de armazenamento possa ser utilizado para programar, configurar e/ou adaptar um computador de propósito geral com as instruções/código armazenados nele. Essas instruções podem assumir a forma de código executável, o qual é executável pelo dispositivo de computação 600 e/ou podem assumir a forma de código- fonte e/ou instalável, o qual, durante a compilação e/ou instalação no dispositivo de computação 600 (por exemplo, utilizando quaisquer uns dentre uma variedade de compiladores geralmente disponíveis, programas de instalação, utilidades de compactação/descompactação, etc.) então toma a forma de código executável.
[0052] Algumas concretizações podem empregar um dispositivo de computação (tal como o dispositivo de computação 600) para executar métodos de acordo com a revelação. Por exemplo, alguns ou todos os procedimentos dos métodos descritos podem ser executados pelo dispositivo de computação 600 em resposta ao(s) processador (processadores) 610 executando uma ou mais sequências de uma ou mais instruções (as quais podem ser incorporadas no sistema operacional 640 e/ou em outro código, tal como um programa aplicativo 645) contido na memória funcional 635. Tais instruções podem ser lidas para a memória funcional 635 a partir de outro meio legível por computador, tal como um ou mais dispositivos de armazenamento 625. Simplesmente a título de exemplo, a execução das sequências de instruções/código contidas na memória funcional 635 pode instruir o(s) processador (processadores) 610 a executar um ou mais procedimentos dos métodos descritos neste documento, por exemplo, os métodos ilustrados nas FIGs. 5A e/ou 5B. Similarmente, a memória funcional 635 pode juntamente com o(s) processador (processadores) 610 ser configurada para executar um ou mais blocos a partir dos métodos ilustrados nas FIGs. 5A e/ou 5B. Adicionalmente ou alternativamente, as instruções contidas na memória funcional 635 podem instruir o(s) processador (processadores) 610 a executar, e/ou a memória funcional 635 juntamente com o(s) processador(es) 610 podem ser configurados para executar qualquer uma das funcionalidades descritas em qualquer das FIGs. 2A, 2B, 3A, 3B e 4A até 4D. Entende-se que o processador(es) 610 executando a funcionalidade associada com qualquer uma dentre as FIGs. 2A, 2B, 3A, 3B, 4A até 4D, 5A e 5B pode incluir um ou mais processadores principais trabalhando em coordenação com o processador(es) gráfico e/ou outro processador(es) associado ao vídeo(s) 620.
[0053] Com referência às figuras anexas, os componentes que podem incluir a memória podem incluir mídia não temporária legível por máquina. Os termos "meio legível por máquina" e "meio legível por computador", conforme utilizados neste documento, referem-se a qualquer meio de armazenamento que participe em proporcionar dados que fazem com que uma máquina opere de uma maneira específica. Em uma concretização implementada utilizando o dispositivo de computação 600, várias mídias legíveis por computador podem estar envolvidas em proporcionar instruções/código para o processador(es) 610 para execução e/ou podem ser utilizadas para armazenar e/ou transportar tais instruções/código (por exemplo, como sinais). Formas comuns de mídia legível por computador física e/ou tangível incluem, por exemplo, um disquete, um disco flexível, um disco rígido, uma fita magnética ou qualquer outro meio magnético, um CD-ROM, qualquer outro meio óptico, cartões perfurados, fita de papel, qualquer outro meio físico com padrões de orifícios, uma RAM, uma ROM programável (PROM), uma PROM apagável (EPROM), uma PROM eletricamente apagável (EEPROM), uma FLASH-EPROM, qualquer outro chip ou cartucho de memória, uma onda portadora como descrito a seguir, ou qualquer outro meio a partir do qual um computador possa ler instruções e/ou código. Em várias implementações, um meio legível por computador é um meio de armazenamento físico e/ou tangível. Tal meio pode assumir várias formas, incluindo, entre outros, mídia não volátil, mídia volátil e mídia de transmissão. A Mídia não volátil inclui, por exemplo, discos ópticos e/ou magnéticos, tal como dispositivo(s) de armazenamento 625. A Mídia volátil inclui, sem limitação, memória dinâmica, tal como a memória funcional 635. A mídia de transmissão inclui, sem limitação, cabos coaxiais, fios de cobre e fibras ópticas, incluindo os fios compreendendo o barramento 605, bem como os vários componentes do subsistema de comunicações 630 (e/ou a mídia pela qual o subsistema de comunicações 630 proporciona a comunicação com outros dispositivos, incluindo ar para dispositivos não cabeados). Portanto, a mídia de transmissão também pode assumir a forma de ondas (incluindo, sem limitação, ondas de rádio, acústicas e/ou de luz, tal como as geradas durante as comunicações de dados de ondas de rádio e infravermelho). Em uma concretização alternativa, componentes e dispositivos acionados por eventos, tal como câmeras, podem ser utilizados, onde parte do processamento pode ser executada no domínio analógico.
[0054] Várias formas de mídia legível por computador podem estar envolvidas no transporte de uma ou mais sequências de uma ou mais instruções para o(s) processador(es) 610 para execução. Apenas a título de exemplo, as instruções podem ser inicialmente transportadas em um disco magnético e/ou disco óptico de um computador remoto. Um computador remoto pode carregar as instruções em sua memória dinâmica e enviar as instruções como sinais através de um meio de transmissão para serem recebidos e/ou executadas pelo dispositivo de computação 600. Esses sinais, os quais podem estar na forma de sinais eletromagnéticos, sinais acústicos, sinais ópticos e/ou coisa parecida, são todos exemplos de ondas portadoras nas quais as instruções podem ser codificadas, de acordo com várias concretizações da revelação.
[0055] O subsistema de comunicações 630 (e/ou seus componentes) geralmente irá receber os sinais, e o barramento 605 pode então transportar os sinais (e/ou os dados, as instruções, etc., transportados pelos sinais) para a memória funcional 635, a partir da qual o processador(es) 610 recupera e executa as instruções. As instruções recebidas pela memória funcional 635 podem opcionalmente ser armazenadas no dispositivo(s) não temporário de armazenamento 625 antes ou após a execução pelo processador (processadores) 610.
[0056] Os métodos, sistemas e dispositivos discutidos acima são exemplos. Várias concretizações podem omitir, substituir ou adicionar vários procedimentos ou componentes, conforme apropriado. Por exemplo, em configurações alternativas, os métodos descritos podem ser realizados em uma ordem diferente da descrita e/ou vários estágios podem ser adicionados, omitidos e/ou combinados. Além disso, os componentes descritos em relação a algumas concretizações podem ser combinados em várias outras concretizações. Diferentes aspectos e elementos das concretizações podem ser combinados de maneira similar. Além disso, a tecnologia evolui e, portanto, muitos dos elementos são exemplos que não limitam o escopo da revelação a esses exemplos específicos.
[0057] Detalhes específicos são dados na descrição para proporcionar um entendimento completo das concretizações. Entretanto, as concretizações podem ser praticadas sem esses detalhes específicos. Por exemplo, circuitos, processos, algoritmos, estruturas e técnicas bem conhecidos foram apresentados sem detalhes desnecessários, de modo a evitar obscurecer as concretizações. Esta descrição proporciona apenas concretizações ilustrativas e não é pretendida para limitar o escopo, a aplicabilidade ou a configuração da revelação. Ao invés disso, a descrição precedente das concretizações proporcionará aos versados na técnica uma descrição capacitadora a para implementar concretizações da revelação. Várias alterações podem ser feitas na função e disposição dos elementos sem divergir do espírito e do escopo da revelação.
[0058] Além disso, algumas concretizações foram descritas como processos representados como diagramas de fluxo ou diagramas de blocos. Embora cada um possa descrever as operações como um processo sequencial, muitas das operações podem ser executadas em paralelo ou simultaneamente. Adicionalmente, a ordem das operações pode ser reorganizada. Um processo pode possuir etapas adicionais não incluídas na figura. Adicionalmente, as concretizações dos métodos podem ser implementadas por hardware, software, firmware, middleware, microcódigo, linguagens de descrição de hardware ou qualquer combinação dos mesmos. Quando implementado em software, firmware, middleware ou microcódigo, o código do programa ou os segmentos de código para executar as tarefas associadas podem ser armazenados em uma mídia legível por computador, tal como uma mídia de armazenamento. Os processadores podem executar as tarefas associadas.
[0059] Será evidente para os versados na técnica que variações substanciais podem ser feitas de acordo com requisitos específicos. Por exemplo, o hardware personalizado também pode ser utilizado e/ou elementos particulares podem ser implementados em hardware, software (incluindo software portátil, como applets, etc.) ou ambos. Adicionalmente, a conexão com outros dispositivos de computação, tal como dispositivos de entrada/saída de rede, pode ser empregada.
[0060] Os versados na técnica apreciarão que as informação e os sinais utilizados para comunicar as mensagens descritas neste documento podem ser representados utilizando qualquer uma de uma variedade de diferentes tecnologias e técnicas. Por exemplo, dados, instruções, comandos, informação, sinais, bits, símbolos e chips que podem ser referenciados através de toda a descrição acima podem ser representados por tensões, correntes, ondas eletromagnéticas, campos ou partículas magnéticas, campos ou partículas ópticas ou qualquer combinação dos mesmos.
[0061] Os termos "e" e "ou", conforme utilizados neste documento, podem incluir uma variedade de significados que também devem depender, pelo menos em parte, do contexto onde esses termos são utilizados. Normalmente, "ou" se utilizado para associar uma lista, tal como A, B ou C, é pretendido para significar A, B e C, aqui utilizados no sentido inclusivo, bem como A, B ou C, aqui utilizado no sentido exclusivo. Adicionalmente, o termo "um ou mais", conforme utilizado neste documento, pode ser utilizado para descrever qualquer componente, estrutura ou característica do singular ou pode ser utilizado para descrever alguma combinação de componentes, estruturas ou características. Entretanto, deve ser notado que este é apenas um exemplo ilustrativo e o assunto reivindicado não se limita a este exemplo. Adicionalmente, o termo "pelo menos um dentre” se utilizado para associar uma lista, tal como A, B ou C, pode ser interpretado como qualquer combinação de A, B e/ou C, tal como A, AB, AA, AAB, AABBCCC, etc.
[0062] Tendo descrito várias concretizações, várias modificações, construções alternativas e equivalentes podem ser utilizados sem divergir do espírito da revelação. Por exemplo, os elementos acima podem ser meramente um componente de um sistema maior, onde outras regras podem ter precedência sobre ou modificar a aplicação das concretizações descritas neste documento. Além disso, várias etapas podem ser realizadas antes, durante ou após a consideração dos elementos acima. Consequentemente, a descrição acima não limita o escopo da revelação.
Claims (30)
1. Método para exibir, em um dispositivo móvel, uma imagem aumentada, o método compreendendo: capturar, por uma câmera do dispositivo móvel, uma imagem de uma cena ao vivo; exibir a imagem aumentada baseado na imagem capturada, a imagem aumentada incluindo pelo menos um objeto auxiliar ancorado a um componente compreendendo um objeto físico visível na imagem capturada; e atualizar a imagem aumentada à medida que o dispositivo móvel é movido, em que pelo menos um objeto auxiliar permanece ancorado no componente à medida que a imagem aumentada é atualizada.
2. Método, de acordo com a reivindicação 1, adicionalmente compreendendo: receber uma entrada designando o componente para ancorar o pelo menos um objeto auxiliar; e exibir o pelo menos um objeto auxiliar ancorado no componente designado.
3. Método, de acordo com a reivindicação 1, em que o objeto físico compreende uma parede, um canto, uma borda, um piso, uma frente de loja ou uma janela ou uma combinação dos mesmos.
4. Método, de acordo com a reivindicação 3, adicionalmente compreendendo determinar uma localização do dispositivo móvel.
5. Método, de acordo com a reivindicação 4, em que um objeto auxiliar compreende um mapa de cima para baixo associado à localização determinada, o mapa de cima para baixo adicionalmente incluindo uma indicação da localização determinada do dispositivo móvel.
6. Método, de acordo com a reivindicação 5, em que atualizar a imagem aumentada adicionalmente compreende atualizar o mapa de cima para baixo por atualizar a indicação da localização determinada do dispositivo móvel à medida que o dispositivo móvel é movido.
7. Método, de acordo com a reivindicação 6, adicionalmente compreendendo exibir, em adição ao pelo menos um objeto auxiliar, os dados de realidade aumentada gerados pelo sistema.
8. Método, de acordo com a reivindicação 7, em que os dados de realidade aumentada gerados pelo sistema incluem marcas determinadas baseadas na localização determinada do dispositivo móvel.
9. Método, de acordo com a reivindicação 1, em que o pelo menos um objeto auxiliar ancorado no componente é escalonável independentemente enquanto ancorado no componente.
10. Método, de acordo com a reivindicação 1, em que responsivo ao componente não estando mais visível na imagem capturada devido ao movimento do dispositivo móvel, remover o pelo menos um objeto auxiliar a partir da imagem aumentada.
11. Método, de acordo com a reivindicação 1, em que responsivo ao componente não estando mais visível na imagem capturada devido ao movimento do dispositivo móvel, ancorar o pelo menos um objeto auxiliar em outro componente que está visível na imagem capturada.
12. Método, de acordo com a reivindicação 1, em que responsivo a um aumento em um tamanho do componente dentro da imagem capturada devido ao movimento do dispositivo móvel, exibir uma parte maior do pelo menos um objeto auxiliar.
13. Método, de acordo com a reivindicação 1, alterando uma orientação do pelo menos um objeto auxiliar em resposta a uma alteração na orientação do dispositivo móvel.
14. Dispositivo móvel, compreendendo: uma câmera configurada para capturar uma imagem de uma cena ao vivo; um vídeo; uma memória; um ou mais processadores acoplados com a câmera, com o vídeo e com a memória, o um ou mais processadores configurados para: apresentar uma imagem aumentada no vídeo baseado na imagem capturada, a imagem aumentada incluindo pelo menos um objeto auxiliar ancorado a um componente compreendendo um objeto físico visível na imagem capturada; e atualizar a imagem aumentada à medida que o dispositivo móvel é movido, em que o pelo menos um objeto auxiliar permanece ancorado no componente à medida que a imagem aumentada é atualizada.
15. Dispositivo móvel, de acordo com a reivindicação 14, em que o vídeo compreende um vídeo de tela sensível ao toque configurado para proporcionar uma entrada que designa o componente para ancorar o pelo menos um objeto auxiliar e em que o um ou mais processadores estão configurados para apresentar, responsivo à entrada, o pelo menos um objeto auxiliar ancorado no componente designado.
16. Dispositivo móvel, de acordo com a reivindicação 15, em que o vídeo de tela sensível ao toque é configurado para receber um gesto de toque ou um gesto de arrasto por um usuário para proporcionar a entrada designando o componente.
17. Dispositivo móvel, de acordo com a reivindicação 14, adicionalmente compreendendo um subsistema de comunicações configurado para se comunicar com um ou mais servidores para receber os dados apresentados dentro do objeto auxiliar ou apresentados como objetos de realidade aumentada.
18. Dispositivo móvel, de acordo com a reivindicação 17, adicionalmente compreendendo um mecanismo de localização configurado para determinar uma localização do dispositivo móvel, e em que um ou mais processadores são adicionalmente configurados para apresentar a localização determinada em um mapa apresentado como o objeto auxiliar.
19. Dispositivo móvel, de acordo com a reivindicação 14, o um ou mais processadores adicionalmente configurados para, responsivo ao componente não mais estando visível na imagem capturada devido ao movimento do dispositivo móvel, remover o pelo menos um objeto auxiliar a partir da imagem aumentada, ou ancorar o pelo menos um objeto auxiliar em outro componente que está visível na imagem capturada.
20. Aparelho para exibir uma imagem aumentada, compreendendo:
meio para capturar uma imagem de uma cena ao vivo; meio para exibir a imagem aumentada baseado na imagem capturada, a imagem aumentada incluindo pelo menos um objeto auxiliar ancorado a um componente compreendendo um objeto físico visível na imagem capturada; e meio para atualizar a imagem aumentada à medida que um dispositivo móvel é movido, em que o pelo menos um objeto auxiliar permanece ancorado ao componente à medida que a imagem aumentada é atualizada.
21. Aparelho, de acordo com a reivindicação 20, adicionalmente compreendendo meio para receber uma entrada designando o componente para ancorar o pelo menos um objeto auxiliar.
22. Aparelho, de acordo com a reivindicação 21, em que o meio para receber a entrada designando o componente compreende meio para receber um gesto de toque ou um gesto de arrasto para designar o componente.
23. Aparelho, de acordo com a reivindicação 20, adicionalmente compreendendo meio para determinar uma localização do dispositivo móvel.
24. Aparelho, de acordo com a reivindicação 23, em que o meio para exibir a imagem aumentada compreende meio para exibir um mapa de cima para baixo associado com a localização determinada.
25. Aparelho, de acordo com a reivindicação 23, adicionalmente compreendendo meio para exibir dados de realidade aumentada gerados pelo sistema.
26. Aparelho, de acordo com a reivindicação 25, em que os dados de realidade aumentada gerados pelo sistema incluem marcas determinadas baseadas na localização determinada do dispositivo móvel.
27. Aparelho, de acordo com a reivindicação 20, em que o meio para atualizar a imagem compreende meio para remover o pelo menos um objeto auxiliar a partir da imagem aumentada responsivo ao componente que não estando mais visível na imagem capturada devido ao movimento do dispositivo móvel, ou meio para ancorar pelo menos um objeto auxiliar com outro componente que está visível na imagem capturada responsivo ao componente não estando mais visível na imagem capturada devido ao movimento do dispositivo móvel.
28. Meio não temporário legível por computador armazenando instruções para execução por um ou mais processadores de um dispositivo móvel para executar as operações compreendendo: capturar, utilizando uma câmera do dispositivo móvel, uma imagem de uma cena ao vivo; exibir, em um vídeo do dispositivo móvel, uma imagem aumentada baseada na imagem capturada, a imagem aumentada incluindo pelo menos um objeto auxiliar ancorado a um componente compreendendo um objeto físico visível na imagem capturada; e atualizar a imagem aumentada no vídeo do dispositivo móvel à medida que o dispositivo móvel é movido, em que o pelo menos um objeto auxiliar permanece ancorado no componente à medida que a imagem aumentada é atualizada.
29. Meio não temporário legível por computador, de acordo com a reivindicação 28, em que as operações adicionalmente compreendem: processar uma entrada designando o componente para ancorar pelo menos um objeto auxiliar; e exibir o pelo menos um objeto auxiliar ancorado no componente designado.
30. Meio não temporário legível por computador, de acordo com a reivindicação 28, em que as operações adicionalmente compreendem exibir os dados de realidade aumentada gerados pelo sistema no vídeo do dispositivo móvel.
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US15/721,095 US10489951B2 (en) | 2017-09-29 | 2017-09-29 | Display of a live scene and auxiliary object |
US15/721,095 | 2017-09-29 | ||
PCT/US2018/052019 WO2019067305A1 (en) | 2017-09-29 | 2018-09-20 | DISPLAYING A LIVE SCENE AND AN AUXILIARY OBJECT |
Publications (1)
Publication Number | Publication Date |
---|---|
BR112020005808A2 true BR112020005808A2 (pt) | 2020-09-24 |
Family
ID=63998745
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
BR112020005808-4A BR112020005808A2 (pt) | 2017-09-29 | 2018-09-20 | exibição de uma cena ao vivo e de um objeto auxiliar |
Country Status (6)
Country | Link |
---|---|
US (6) | US10489951B2 (pt) |
EP (2) | EP3688724A1 (pt) |
CN (1) | CN111095361A (pt) |
BR (1) | BR112020005808A2 (pt) |
SG (1) | SG11202001422RA (pt) |
WO (1) | WO2019067305A1 (pt) |
Families Citing this family (19)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10754496B2 (en) * | 2017-08-24 | 2020-08-25 | Microsoft Technology Licensing, Llc | Virtual reality input |
US10489951B2 (en) | 2017-09-29 | 2019-11-26 | Qualcomm Incorporated | Display of a live scene and auxiliary object |
JP7020860B2 (ja) * | 2017-10-25 | 2022-02-16 | 東芝テック株式会社 | 商品管理装置及び商品管理プログラム、商品管理システム |
WO2019130827A1 (ja) * | 2017-12-25 | 2019-07-04 | キヤノン株式会社 | 画像処理装置およびその制御方法 |
US11126846B2 (en) * | 2018-01-18 | 2021-09-21 | Ebay Inc. | Augmented reality, computer vision, and digital ticketing systems |
US10573025B2 (en) * | 2018-06-03 | 2020-02-25 | CUSEUM, Inc. | Method and system for generating indoor wayfinding instructions |
US11176737B2 (en) | 2018-11-27 | 2021-11-16 | Snap Inc. | Textured mesh building |
US11625806B2 (en) * | 2019-01-23 | 2023-04-11 | Qualcomm Incorporated | Methods and apparatus for standardized APIs for split rendering |
WO2020226832A1 (en) | 2019-05-06 | 2020-11-12 | Apple Inc. | Device, method, and computer-readable medium for presenting computer-generated reality files |
US11232646B2 (en) * | 2019-09-06 | 2022-01-25 | Snap Inc. | Context-based virtual object rendering |
CN110879068A (zh) * | 2019-11-20 | 2020-03-13 | 浙江口碑网络技术有限公司 | 室内地图导航方法及其装置 |
US11579847B2 (en) * | 2020-06-10 | 2023-02-14 | Snap Inc. | Software development kit engagement monitor |
US11656681B2 (en) * | 2020-08-31 | 2023-05-23 | Hypear, Inc. | System and method for determining user interactions with visual content presented in a mixed reality environment |
US11341728B2 (en) | 2020-09-30 | 2022-05-24 | Snap Inc. | Online transaction based on currency scan |
US11620829B2 (en) | 2020-09-30 | 2023-04-04 | Snap Inc. | Visual matching with a messaging application |
US11386625B2 (en) * | 2020-09-30 | 2022-07-12 | Snap Inc. | 3D graphic interaction based on scan |
US11640700B2 (en) * | 2021-02-26 | 2023-05-02 | Huawei Technologies Co., Ltd. | Methods and systems for rendering virtual objects in user-defined spatial boundary in extended reality environment |
USD953371S1 (en) * | 2021-10-22 | 2022-05-31 | BioReference Health, LLC | Display screen or portion thereof with animated graphical user interface |
CN114817204A (zh) * | 2022-04-02 | 2022-07-29 | 深圳市大梦龙途文化传播有限公司 | 游戏地图管理方法、装置、设备及计算机可读存储介质 |
Family Cites Families (37)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0784519A (ja) | 1993-09-17 | 1995-03-31 | Sony Corp | ナビゲーションシステム |
US6198462B1 (en) | 1994-10-14 | 2001-03-06 | Hughes Electronics Corporation | Virtual display screen system |
JPH10133840A (ja) | 1996-11-01 | 1998-05-22 | Olympus Optical Co Ltd | 情報処理用システム装置 |
JP2000284214A (ja) | 1999-03-30 | 2000-10-13 | Suzuki Motor Corp | ヘルメット搭載用表示手段制御装置 |
WO2005043218A1 (ja) | 2003-10-30 | 2005-05-12 | Brother Kogyo Kabushiki Kaisha | 画像表示装置 |
JP5008556B2 (ja) | 2004-06-03 | 2012-08-22 | メイキング バーチャル ソリッド,エル.エル.シー. | ヘッドアップ表示を使用する途上ナビゲーション表示方法および装置 |
US20060028674A1 (en) | 2004-08-03 | 2006-02-09 | Silverbrook Research Pty Ltd | Printer with user ID sensor |
EP2078229A2 (en) | 2006-11-02 | 2009-07-15 | Sensics, Inc. | Systems and methods for a head-mounted display |
US20090322671A1 (en) | 2008-06-04 | 2009-12-31 | Cybernet Systems Corporation | Touch screen augmented reality system and method |
US20100238161A1 (en) | 2009-03-19 | 2010-09-23 | Kenneth Varga | Computer-aided system for 360º heads up display of safety/mission critical data |
US9477368B1 (en) | 2009-03-31 | 2016-10-25 | Google Inc. | System and method of indicating the distance or the surface of an image of a geographical object |
US8400548B2 (en) | 2010-01-05 | 2013-03-19 | Apple Inc. | Synchronized, interactive augmented reality displays for multifunction devices |
US20130278631A1 (en) | 2010-02-28 | 2013-10-24 | Osterhout Group, Inc. | 3d positioning of augmented reality information |
US8964298B2 (en) | 2010-02-28 | 2015-02-24 | Microsoft Corporation | Video display modification based on sensor input for a see-through near-to-eye display |
US8488246B2 (en) | 2010-02-28 | 2013-07-16 | Osterhout Group, Inc. | See-through near-eye display glasses including a curved polarizing film in the image source, a partially reflective, partially transmitting optical element and an optically flat film |
JP2011203823A (ja) | 2010-03-24 | 2011-10-13 | Sony Corp | 画像処理装置、画像処理方法及びプログラム |
KR101667715B1 (ko) | 2010-06-08 | 2016-10-19 | 엘지전자 주식회사 | 증강현실을 이용한 경로 안내 방법 및 이를 이용하는 이동 단말기 |
US8860760B2 (en) | 2010-09-25 | 2014-10-14 | Teledyne Scientific & Imaging, Llc | Augmented reality (AR) system and method for tracking parts and visually cueing a user to identify and locate parts in a scene |
US20120075167A1 (en) | 2010-09-29 | 2012-03-29 | Eastman Kodak Company | Head-mounted display with wireless controller |
US20120233003A1 (en) * | 2011-03-08 | 2012-09-13 | Bank Of America Corporation | Providing retail shopping assistance |
US9217867B2 (en) | 2011-03-24 | 2015-12-22 | Seiko Epson Corporation | Head-mounted display device and control method for the head-mounted display device |
JP5724543B2 (ja) * | 2011-03-31 | 2015-05-27 | ソニー株式会社 | 端末装置、オブジェクト制御方法及びプログラム |
US10627860B2 (en) | 2011-05-10 | 2020-04-21 | Kopin Corporation | Headset computer that uses motion and voice commands to control information display and remote devices |
US20130007672A1 (en) | 2011-06-28 | 2013-01-03 | Google Inc. | Methods and Systems for Correlating Head Movement with Items Displayed on a User Interface |
US10019962B2 (en) * | 2011-08-17 | 2018-07-10 | Microsoft Technology Licensing, Llc | Context adaptive user interface for augmented reality display |
US9081177B2 (en) | 2011-10-07 | 2015-07-14 | Google Inc. | Wearable computer with nearby object response |
US8866852B2 (en) | 2011-11-28 | 2014-10-21 | Google Inc. | Method and system for input detection |
US20130139082A1 (en) | 2011-11-30 | 2013-05-30 | Google Inc. | Graphical Interface Having Adjustable Borders |
US9058054B2 (en) | 2012-02-29 | 2015-06-16 | Google Inc. | Image capture apparatus |
US8878846B1 (en) | 2012-10-29 | 2014-11-04 | Google Inc. | Superimposing virtual views of 3D objects with live images |
US9959674B2 (en) | 2013-02-26 | 2018-05-01 | Qualcomm Incorporated | Directional and X-ray view techniques for navigation using a mobile device |
US9041741B2 (en) | 2013-03-14 | 2015-05-26 | Qualcomm Incorporated | User interface for a head mounted display |
WO2014162852A1 (ja) * | 2013-04-04 | 2014-10-09 | ソニー株式会社 | 画像処理装置、画像処理方法およびプログラム |
WO2017012662A1 (en) * | 2015-07-22 | 2017-01-26 | Deutsche Telekom Ag | A system for providing recommendation information for user device |
US9762851B1 (en) | 2016-05-31 | 2017-09-12 | Microsoft Technology Licensing, Llc | Shared experience with contextual augmentation |
US10489951B2 (en) | 2017-09-29 | 2019-11-26 | Qualcomm Incorporated | Display of a live scene and auxiliary object |
EP3864493A1 (en) | 2018-10-09 | 2021-08-18 | Google LLC | Selecting augmented reality objects for display based on contextual cues |
-
2017
- 2017-09-29 US US15/721,095 patent/US10489951B2/en active Active
-
2018
- 2018-09-20 EP EP18793296.7A patent/EP3688724A1/en active Pending
- 2018-09-20 SG SG11202001422RA patent/SG11202001422RA/en unknown
- 2018-09-20 WO PCT/US2018/052019 patent/WO2019067305A1/en unknown
- 2018-09-20 BR BR112020005808-4A patent/BR112020005808A2/pt unknown
- 2018-09-20 CN CN201880060889.9A patent/CN111095361A/zh active Pending
- 2018-09-20 EP EP24179039.3A patent/EP4401044A3/en active Pending
-
2019
- 2019-10-30 US US16/668,878 patent/US11127179B2/en active Active
-
2021
- 2021-06-24 US US17/357,447 patent/US11295500B2/en active Active
-
2022
- 2022-02-01 US US17/649,609 patent/US11887227B2/en active Active
- 2022-10-12 US US18/046,051 patent/US11854133B2/en active Active
-
2023
- 2023-05-16 US US18/318,707 patent/US11915353B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
US11887227B2 (en) | 2024-01-30 |
EP3688724A1 (en) | 2020-08-05 |
EP4401044A3 (en) | 2024-08-14 |
US20210319609A1 (en) | 2021-10-14 |
US20230290025A1 (en) | 2023-09-14 |
US11127179B2 (en) | 2021-09-21 |
CN111095361A (zh) | 2020-05-01 |
US20200066020A1 (en) | 2020-02-27 |
US20220156996A1 (en) | 2022-05-19 |
SG11202001422RA (en) | 2020-04-29 |
US11295500B2 (en) | 2022-04-05 |
US20230056006A1 (en) | 2023-02-23 |
US10489951B2 (en) | 2019-11-26 |
US11854133B2 (en) | 2023-12-26 |
EP4401044A2 (en) | 2024-07-17 |
WO2019067305A1 (en) | 2019-04-04 |
US11915353B2 (en) | 2024-02-27 |
US20190102922A1 (en) | 2019-04-04 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
BR112020005808A2 (pt) | exibição de uma cena ao vivo e de um objeto auxiliar | |
US10354452B2 (en) | Directional and x-ray view techniques for navigation using a mobile device | |
JP5383930B2 (ja) | 端末装置の視野に含まれている客体に関する情報を提供するための方法、端末装置及びコンピュータ読み取り可能な記録媒体 | |
JP5728775B2 (ja) | 情報処理装置、及び情報処理方法 | |
KR20220040494A (ko) | 모바일 디바이스 내비게이션 시스템 | |
US20130162665A1 (en) | Image view in mapping | |
CN109313039A (zh) | 检测与计划的公共交通路线的偏差 | |
JP2015503740A (ja) | Poiを表示する装置、方法、およびコンピュータ・プログラム | |
US10229543B2 (en) | Information processing device, information superimposed image display device, non-transitory computer readable medium recorded with marker display program, non-transitory computer readable medium recorded with information superimposed image display program, marker display method, and information-superimposed image display method | |
US9245366B1 (en) | Label placement for complex geographic polygons | |
US20220075387A1 (en) | Electronic device and control method thereof | |
Ahmetovic | Smartphone-assisted mobility in urban environments for visually impaired users through computer vision and sensor fusion | |
CN109618131B (zh) | 一种用于呈现决策辅助信息的方法与设备 | |
Gotlib et al. | Cartographical aspects in the design of indoor navigation systems | |
KR102555924B1 (ko) | 증강현실 뷰를 사용하는 경로 안내 방법 및 장치 | |
Cai et al. | Interactive indoor localization on helmet | |
KR102421370B1 (ko) | 위치 기반 ar 서비스에서 지도와 ar 상의 poi 하이라이팅을 연동하는 방법 및 시스템 | |
KR102243138B1 (ko) | 환경 정보 취득을 이용한 혼합 현실 기기 지원 장치 및 그 방법 | |
KR20230041461A (ko) | 외부의 측위 장치를 이용하여 전역 위치를 추정하기 위한 컴퓨팅 장치 및 그의 방법 | |
Cheliotis et al. | UnityGeoAR: A geolocation Augmented Reality package for Unity3D |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
B350 | Update of information on the portal [chapter 15.35 patent gazette] |