ES2813096T3 - Visualización de objetos de red en dispositivos móviles basándose en geolocalización - Google Patents

Visualización de objetos de red en dispositivos móviles basándose en geolocalización Download PDF

Info

Publication number
ES2813096T3
ES2813096T3 ES07700014T ES07700014T ES2813096T3 ES 2813096 T3 ES2813096 T3 ES 2813096T3 ES 07700014 T ES07700014 T ES 07700014T ES 07700014 T ES07700014 T ES 07700014T ES 2813096 T3 ES2813096 T3 ES 2813096T3
Authority
ES
Spain
Prior art keywords
location
mobile device
determining
view
network
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
ES07700014T
Other languages
English (en)
Inventor
Kimmo Hamynen
Pasi Korhonen
Markus Kahari
Antti Sorvari
Ika Huhtala
David Murphy
Joonas Paalasmaa
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nokia Technologies Oy
Original Assignee
Nokia Technologies Oy
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nokia Technologies Oy filed Critical Nokia Technologies Oy
Application granted granted Critical
Publication of ES2813096T3 publication Critical patent/ES2813096T3/es
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/16Analogue secrecy systems; Analogue subscription systems
    • H04N7/173Analogue secrecy systems; Analogue subscription systems with two-way working, e.g. subscriber sending a programme selection signal
    • H04N7/17309Transmission or handling of upstream communications
    • H04N7/17318Direct or substantially direct transmission and handling of requests
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/90Details of database functions independent of the retrieved data types
    • G06F16/95Retrieval from the web
    • G06F16/953Querying, e.g. by the use of web search engines
    • G06F16/9537Spatial or temporal dependent retrieval, e.g. spatiotemporal queries
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • G06F3/147Digital output to display device ; Cooperation and interconnection of the display device with other functional units using display panels
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B29/00Maps; Plans; Charts; Diagrams, e.g. route diagram
    • G09B29/10Map spot or coordinate position indicators; Map reading aids
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/72Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
    • H04M1/724User interfaces specially adapted for cordless or mobile telephones
    • H04M1/72448User interfaces specially adapted for cordless or mobile telephones with means for adapting the functionality of the device according to specific conditions
    • H04M1/72457User interfaces specially adapted for cordless or mobile telephones with means for adapting the functionality of the device according to specific conditions according to geographic location
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/25Management operations performed by the server for facilitating the content distribution or administrating data related to end-users or client devices, e.g. end-user or client device authentication, learning user preferences for recommending movies
    • H04N21/258Client or end-user data management, e.g. managing client capabilities, user preferences or demographics, processing of multiple end-users preferences to derive collaborative data
    • H04N21/25808Management of client data
    • H04N21/25841Management of client data involving the geographical location of the client
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/414Specialised client platforms, e.g. receiver in car or embedded in a mobile appliance
    • H04N21/41407Specialised client platforms, e.g. receiver in car or embedded in a mobile appliance embedded in a portable device, e.g. video client on a mobile phone, PDA, laptop
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/422Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
    • H04N21/42202Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS] environmental sensors, e.g. for detecting temperature, luminosity, pressure, earthquakes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/422Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
    • H04N21/4223Cameras
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/45Management operations performed by the client for facilitating the reception of or the interaction with the content or administrating data related to the end-user or to the client device itself, e.g. learning user preferences for recommending movies, resolving scheduling conflicts
    • H04N21/4508Management of client data or end-user data
    • H04N21/4524Management of client data or end-user data involving the geographical location of the client
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/472End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content
    • H04N21/4722End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content for requesting additional data associated with the content
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/478Supplemental services, e.g. displaying phone caller identification, shopping application
    • H04N21/4788Supplemental services, e.g. displaying phone caller identification, shopping application communicating with other users, e.g. chatting
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/60Network structure or processes for video distribution between server and client or between remote clients; Control signalling between clients, server and network components; Transmission of management data between server and client, e.g. sending from server to client commands for recording incoming content stream; Communication details between server and client 
    • H04N21/61Network physical structure; Signal processing
    • H04N21/6106Network physical structure; Signal processing specially adapted to the downstream path of the transmission network
    • H04N21/6125Network physical structure; Signal processing specially adapted to the downstream path of the transmission network involving transmission via Internet
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/60Network structure or processes for video distribution between server and client or between remote clients; Control signalling between clients, server and network components; Transmission of management data between server and client, e.g. sending from server to client commands for recording incoming content stream; Communication details between server and client 
    • H04N21/61Network physical structure; Signal processing
    • H04N21/6106Network physical structure; Signal processing specially adapted to the downstream path of the transmission network
    • H04N21/6131Network physical structure; Signal processing specially adapted to the downstream path of the transmission network involving transmission via a mobile phone network
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S19/00Satellite radio beacon positioning systems; Determining position, velocity or attitude using signals transmitted by such systems
    • G01S19/38Determining a navigation solution using signals transmitted by a satellite radio beacon positioning system
    • G01S19/39Determining a navigation solution using signals transmitted by a satellite radio beacon positioning system the satellite radio beacon positioning system transmitting time-stamped messages, e.g. GPS [Global Positioning System], GLONASS [Global Orbiting Navigation Satellite System] or GALILEO
    • G01S19/42Determining position
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M2250/00Details of telephonic subscriber devices
    • H04M2250/10Details of telephonic subscriber devices including a GPS signal receiver
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M2250/00Details of telephonic subscriber devices
    • H04M2250/12Details of telephonic subscriber devices including a sensor for measuring a physical value, e.g. temperature or motion
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M2250/00Details of telephonic subscriber devices
    • H04M2250/52Details of telephonic subscriber devices including functional features of a camera

Landscapes

  • Engineering & Computer Science (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Databases & Information Systems (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Remote Sensing (AREA)
  • Environmental & Geological Engineering (AREA)
  • Computer Graphics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Business, Economics & Management (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Computer Hardware Design (AREA)
  • Biodiversity & Conservation Biology (AREA)
  • Ecology (AREA)
  • Emergency Management (AREA)
  • Data Mining & Analysis (AREA)
  • Environmental Sciences (AREA)
  • Software Systems (AREA)
  • Automation & Control Theory (AREA)
  • Educational Technology (AREA)
  • Educational Administration (AREA)
  • Mathematical Physics (AREA)
  • Information Transfer Between Computers (AREA)
  • User Interface Of Digital Computer (AREA)
  • Telephone Function (AREA)
  • Mobile Radio Communication Systems (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Processing Or Creating Images (AREA)

Abstract

Un método que comprende: obtener resultados de una petición de contenido de red a través de un dispositivo móvil; determinar una geolocalización de al menos un objeto asociado a los resultados de la petición de contenido de red; determinar una vista de cámara asociada al dispositivo móvil; determinar una ubicación virtual en la vista de cámara que representa la ubicación real del objeto en relación con una escena contenida en la vista de cámara; y visualizar una vista tridimensional (310) a través del dispositivo móvil que incluye un gráfico que representa el objeto en la ubicación virtual en la vista de cámara, en donde determinar la ubicación virtual en la vista de cámara del dispositivo móvil comprende determinar una geolocalización del dispositivo móvil; en donde determinar la geolocalización del dispositivo móvil comprende determinar una orientación del dispositivo móvil en relación con la superficie de la Tierra; comprendiendo el método adicionalmente: visualizar selectivamente a través del dispositivo móvil al menos una de a) la vista tridimensional (310); y b) una vista bidimensional (320) que incluye un primer gráfico que representa el objeto y un segundo gráfico que representa una ubicación del dispositivo móvil en relación con el objeto; y conmutar entre la vista tridimensional y la vista bidimensional basándose en una orientación del dispositivo móvil en relación con la superficie de la Tierra.

Description

DESCRIPCIÓN
Visualización de objetos de red en dispositivos móviles basándose en geolocalización
Campo de la invención
Esta invención se refiere en general a redes informáticas, y más particularmente a visualizar búsquedas de contenido de red en dispositivos móviles.
Antecedentes de la invención
La ubicuidad de teléfonos celulares y electrónica móvil similar ha conducido a demandas de características más avanzadas en estos dispositivos. Una característica que es de un valor particular en tales dispositivos es la capacidad de conectarse a la Internet y otras redes. En un futuro cercano, muchos aspectos de las redes globales, tales como la red informática mundial, se desplazarán para satisfacer a usuarios de dispositivos móviles. Habitualmente, las aplicaciones móviles para contenido web se centraron en tratar con el ancho de banda, potencia y capacidades de visualización limitados inherentes en dispositivos móviles. Sin embargo, el hecho de que los dispositivos móviles pueden usarse para proporcionar datos desde donde quiera que esté ubicado el usuario proporcionará oportunidades adicionales para adaptar el contenido web y aumentar el valor de tal contenido para el usuario final.
Los teléfonos móviles se están volviendo cada vez más en dispositivos multipropósito. Por ejemplo, se está volviendo mucho más común que los teléfonos móviles incluyan una cámara integrada. La gente se está acostumbrando al hecho de que están transportando una cámara con ellos, y siempre pueden hacer una foto cuando quieran. Adicionalmente, algunos teléfonos celulares están transportando sensores avanzados para varios usos. La tecnología de sensores ha evolucionado rápidamente, y pueden incluirse varios sensores de forma económica en teléfonos móviles. Un ejemplo de esto son sensores de ubicación, tales como receptores de Satélite de Posicionamiento Global (GPS) y brújulas digitales, que permiten que un usuario determine su ubicación exacta. Estos sensores de ubicación pueden usarse para aplicaciones tradicionales, tales como mapa y guía. También es posible que pueda usarse una integración satisfactoria de características de detección de ubicación con aplicaciones de red para proporcionar contenido más relevante y focalizado al usuario de dispositivo móvil. Por lo tanto, serán particularmente útiles aplicaciones de red que pueden usar datos de ubicación de dispositivo móvil.
El documento EP 0867690 A1 se refiere a un dispositivo y sistema de etiquetado de vista que comprende una sección de adquisición de imagen, una sección de adquisición de información de posición, una sección de adquisición de información descriptiva de cámara, una sección de gestión de información de mapa, una sección de preparación de información de etiqueta, una sección de emisión de información de etiqueta y una sección de control.
Sumario de la invención
Para superar las limitaciones en la técnica anterior descritas anteriormente, y para superar otras limitaciones que serán evidentes tras la lectura y entendimiento de la presente memoria descriptiva, la presente invención divulga un medio legible por ordenador, aparato y método de acuerdo con las reivindicaciones independientes adjuntas para visualizar búsquedas de contenido de red en dispositivos móviles.
El método implica obtener resultados de una petición de contenido de red a través de un dispositivo móvil. Se determina una geolocalización de al menos un objeto asociado con los resultados de la petición de contenido de red. Se determina una vista de cámara asociada con el dispositivo móvil, ya que es una ubicación virtual en la vista de cámara la que representa la ubicación real del objeto en relación con una escena contenida en la vista de cámara. Se visualiza un gráfico a través del dispositivo móvil en la ubicación virtual en la vista de cámara, representando el gráfico el objeto.
En más realizaciones particulares, determinar la ubicación virtual en la vista de cámara implica determinar la ubicación dentro de una imagen visible capturada por el dispositivo móvil. Visualizar el gráfico puede implicar superponer el gráfico en la imagen visible. Determinar la ubicación virtual en la vista de cámara del dispositivo móvil implica determinar una geolocalización del dispositivo móvil, tal como accediendo a un receptor de satélite de posicionamiento global a través del dispositivo móvil. Determinar la geolocalización del móvil también implica determinar una orientación del dispositivo móvil en relación con la superficie de la Tierra, tal como determinando un rumbo de brújula de la vista de cámara, y/o determinar uno o más ángulos de rotación del dispositivo móvil en relación con la superficie de la Tierra.
El método adicionalmente implica visualizar selectivamente a través del dispositivo móvil al menos una de: a) una vista tridimensional que incluye la escena superpuesta con el gráfico; y b) una vista bidimensional que incluye un primer gráfico que representa el objeto y un segundo gráfico que representa una ubicación del dispositivo móvil en relación con el objeto. Puede superponerse selectivamente un mapa con el primer y segundo gráficos en la vista bidimensional. El método implica conmutar entre la vista tridimensional y la vista bidimensional basándose en una orientación del dispositivo móvil en relación con la superficie de la Tierra. En otra disposición, el método implica visualizar selectivamente a través del dispositivo móvil una vista bidimensional que incluye una flecha que indica la ubicación del objeto en relación con la ubicación del dispositivo móvil.
En otras realizaciones más particulares, el método adicionalmente implica reproducir un sonido en un auricular del dispositivo móvil. El sonido se orienta espacialmente para dirigir a un usuario del dispositivo hasta el objeto. En una disposición, el método adicionalmente implica determinar una distancia entre el al menos un objeto y el terminal móvil, y modificar una característica del sonido basándose en la distancia.
En otras realizaciones más particulares, obtener los resultados de la petición de contenido de red a través del dispositivo móvil implica enviar una consulta de búsqueda a un servidor a través de la red, y obtener los resultados de la petición de contenido de red desde el servidor en respuesta a la consulta de búsqueda. La consulta puede formarse detectando texto en la escena usando reconocimiento óptico de caracteres, y formando la consulta basándose en el texto.
En otras realizaciones más particulares, el método implica adicionalmente determinar una distancia entre el al menos un objeto y el terminal móvil, y modificar características visuales del gráfico basándose en la distancia. El método también puede implicar adicionalmente proporcionar la capacidad de seleccionar el gráfico a través del dispositivo móvil, y visualizar datos suplementarios relacionados con el objeto a través del dispositivo móvil en respuesta a la selección del gráfico.
En otra realización de la invención, un aparato incluye una cámara, un visualizador; una interfaz de red capaz de comunicarse a través de una red, y un procesador acoplado a la interfaz de red, la cámara y el visualizador. La memoria se acopla al procesador. La memoria incluye instrucciones que provocan que el procesador envíe una petición de contenido de red a través de la interfaz de red. Se obtienen resultados de la petición de contenido de red a través de la interfaz de red, y se determina una geolocalización de al menos un objeto asociado con los resultados. Se determina una escena en una vista de la cámara, y se determina una ubicación virtual en la vista que representa la ubicación real del objeto en relación con la escena. Se visualiza un gráfico en el visualizador en la ubicación virtual en la vista; el gráfico representa el objeto. En otra realización más particular, la memoria incluye adicionalmente un explorador web. Las instrucciones se configuran como una extensión al explorador web.
En otra realización de la invención, un medio legible por ordenador tiene instrucciones almacenadas en el mismo que son ejecutables por una disposición de procesamiento de datos capaz de acoplarse a una red. Las instrucciones son para realizar etapas que incluyen enviar una petición de contenido de red a través de la red; obtener resultados de la petición de contenido de red a través de la red; determinar una geolocalización de al menos un objeto asociado con los resultados; detectar una escena en una vista de cámara de la disposición de procesamiento de datos; determinar una ubicación virtual en la vista de cámara que representa la ubicación real del objeto en relación con la escena; y visualizar un gráfico que representa el objeto en la ubicación virtual en la vista de cámara a través de un visualizador de la disposición de procesamiento de datos.
En un ejemplo que no forma parte de la invención de la invención, un sistema incluye medios para obtener resultados de una petición de red en un dispositivo móvil; medios para determinar una geolocalización de al menos un objeto asociado con los resultados; y medios para visualizar un gráfico que representa el objeto en una ubicación de una escena tridimensional que representa la ubicación real del objeto en relación con la escena basándose en la geolocalización del objeto.
En un ejemplo que no forma parte de la invención, un método implica determinar una geolocalización de un dispositivo móvil. La geolocalización del dispositivo móvil se embebe en una petición de contenido. La petición de contenido se envía a través de una red, y el dispositivo móvil recibe un documento capaz de visualizarse a través del dispositivo móvil en respuesta a la petición de contenido. El documento se personaliza basándose en la geolocalización del dispositivo móvil.
En otros ejemplos que no forman parte de la invención, embeber la geolocalización del dispositivo móvil en la petición de contenido implica embeber la geolocalización en una petición de Protocolo de Transporte de Hipertexto (HTTP), tal como en un encabezamiento de HTTP. El método también puede implicar embeber un indicador de actualización de ubicación en el documento, y provocar que el terminal móvil solicite una nueva versión del documento basándose en una comparación del indicador de actualización de ubicación y la geolocalización del dispositivo móvil. En otras realizaciones más particulares, el método también puede implicar embeber un objeto con reconocimiento de ubicación en el documento; y cambiar una característica de visualización del objeto con reconocimiento de ubicación basándose en cambios de geolocalización del dispositivo móvil.
Estas y diversas otras ventajas y características de novedad que caracterizan la invención se indican con particularidad en las reivindicaciones adjuntadas a la misma y forman una parte de este documento. Sin embargo, para un mejor entendimiento de la invención, sus ventajas y los objetos obtenidos por su uso, debería hacerse referencia a los dibujos que forman una parte adicional de este documento, y a materia descriptiva adjunta, en la que se ilustran y describen ejemplos representativos de sistemas, aparatos y métodos de acuerdo con la invención.
Breve descripción de los dibujos
La invención se describe en conexión con las realizaciones ilustradas en los siguientes diagramas.
La Figura 1 es un diagrama de bloques de un sistema de acuerdo con realizaciones de la presente invención; La Figura 2 es un diagrama de bloques que muestra la superposición de datos de red en una imagen de dispositivo móvil de acuerdo con realizaciones de la presente invención;
La Figura 3 es una vista en perspectiva y diagrama de bloques que muestra detalles adicionales relacionados con la superposición de datos de red en una imagen de dispositivo móvil de acuerdo con realizaciones de la presente invención;
La Figura 4 es un diagrama de bloques que ilustra la provisión de datos de red únicos basándose en ubicación de acuerdo con una realización de la invención;
La Figura 5 es un diagrama de bloques que ilustra un sistema para proporcionar contenido con reconocimiento de ubicación de acuerdo con una realización de la presente invención;
La Figura 6 es un diagrama de bloques que ilustra otro sistema con reconocimiento de ubicación de acuerdo con una realización de la presente invención;
La Figura 7 es un diagrama de bloques que ilustra una disposición informática móvil representativa capaz de realizar operaciones de acuerdo con realizaciones de la invención;
La Figura 8 es un diagrama de bloques que ilustra una estructura informática de ejemplo adecuada para proporcionar servicios con reconocimiento de ubicación de acuerdo con realizaciones de la presente invención; La Figura 9 es un diagrama de flujo que muestra etapas en la provisión de resultados de búsquedas de contenido de red a dispositivos móviles de acuerdo con realizaciones de la presente invención; y
La Figura 10 es un diagrama de flujo que muestra etapas en contenido de red basado en ubicación de acuerdo con una realización de la presente invención.
Descripción detallada de las realizaciones de la invención
Una parte de la divulgación de este documento de patente contiene material que está sometido a protección de derechos de autor. El propietario de los derechos de autor no tiene ninguna objeción a la reproducción facsímil por cualquiera del documento de patente o la divulgación de patente, tal como aparece en el archivo o registros de patentes de la Oficina de Patentes y Marcas, pero de otra manera se reserva todos los derechos de derecho de autor cualesquiera que sean.
En la siguiente descripción de diversas realizaciones ilustrativas, se hace referencia a los dibujos adjuntos que forman una parte de este documento, y en los que se muestra por medio de ilustración diversas realizaciones en las que la invención puede practicarse. Debe apreciarse que pueden utilizarse otras realizaciones, ya que pueden hacerse cambios estructurales y operativos sin alejarse del alcance de la presente invención.
En general, la presente invención implica fusionar datos de ubicación desde un dispositivo de electrónica móvil con datos de red específicos tales como páginas web. En un ejemplo, imágenes disponibles de un dispositivo de cámara portátil se combinan con datos de red para ubicar bienes, servicios u otros puntos de interés. Puede usarse un teléfono de cámara o dispositivo similar para ver una escena tal como una calle de ciudad. Usando diversos dispositivos que pueden embeberse en el teléfono de cámara (por ejemplo, receptores GPS, brújula digital, acelerómetros), el teléfono de cámara puede determinar la orientación espacial del visor de la cámara. El dispositivo también puede ser capaz de buscar datos de red relacionados con objetos (por ejemplo, edificios, puntos de referencia) que tienen datos de ubicación asociados con los mismos. Estos datos de red localizados pueden combinarse con la orientación espacial y datos de ubicación del teléfono. Una superposición de resultados de búsqueda puede superponerse en la imagen de teléfono de cámara. La superposición muestra la ubicación de los objetos en relación con la escena contenida en la imagen.
La capacidad de supervisar continuamente la ubicación del dispositivo también significa que las superposiciones de imágenes pueden combinarse con otras características que ayudan al usuario a encontrar una ubicación objetivo. En un ejemplo, puede visualizare un mapa bidimensional en el dispositivo mostrando instrucciones sobre cómo llegar al objetivo. En otro ejemplo más, el dispositivo móvil puede proporcionar audio en 3D para ayudar a un usuario a encontrar una ubicación asociada con contenido de red.
La localización de resultados de búsqueda puede usarse para proporcionar mejoras adicionales a aplicaciones de red informática portátiles. Por ejemplo, el comportamiento de una página web u otra aplicación puede variar basándose en la ubicación física actual del dispositivo. Determinar la ubicación de un usuario móvil significa que contenido web suministrado a esos usuarios puede optimizarse más para esa ubicación específica. A menudo, es más útil tener información acerca de lugares y situaciones en los que el contenido es el más valioso, particularmente esos lugares y situaciones que están cerca de la ubicación del usuario actual. La información de ubicación puede usarse para seleccionar con más precisión objetos y contenido web en el contexto de aplicaciones de navegación u otras aplicaciones de Internet.
En referencia ahora a la Figura 1, se ilustra un sistema 100 de acuerdo con realizaciones de la presente invención. Un usuario 102 tiene un dispositivo móvil 104 que puede usarse para cualquier tipo de comunicaciones de datos portátiles. Dispositivos móviles 104 típicos incluyen teléfonos celulares y PDA, pero también puede incluir ordenadores portátiles, reproductores de música/vídeo portátiles, electrónica de automoción, etc. Las funciones del dispositivo móvil 104 también pueden incluirse en aparatos que habitualmente no son móviles, tales como ordenadores de sobremesa.
El dispositivo móvil puede incluir cualquier número de dispositivos periféricos 106 para procesar entradas y salidas. Por ejemplo, los dispositivos periféricos 106 pueden incluir una cámara 108, equipo de audio 110 (por ejemplo, micrófonos y altavoces) y visualizadores 112 (por ejemplo, visualizadores LCD y LED). El dispositivo móvil 104 también puede contener dispositivos de detección de ubicación 114. Los dispositivos de detección de ubicación 114 pueden incluir cualquier combinación de aparatos que habilitan que el dispositivo móvil 104 determine su posición absoluta o relativa. Dispositivos de detección de ubicación típicos incluyen GPS 116, brújula/nivel digital 118, acelerómetros 120 y detectores de proximidad 122 (por ejemplo, etiquetas de ID de frecuencia de radio, receptores de radio de corto alcance, detectores de infrarrojos). Se apreciará que los sensores de ubicación 114 pueden considerarse una clase particular de dispositivos periféricos 106 , y la categorización de tales dispositivos es únicamente ilustrativa y no pretende limitar los fines para los que los dispositivos pueden emplearse.
El dispositivo móvil 104 contiene módulos funcionales que habilitan al mismo para realizar mejoras específicas de localización como se describe en este documento. El dispositivo móvil 104 incluye aplicaciones con reconocimiento de ubicación 124 que se habilitan para aprovecharse del dispositivo periférico 106 y sensores de ubicación 114. Las aplicaciones con reconocimiento de ubicación 124 también pueden ser capaces de acceder a una o más redes 126 a través de las interface de red por cable o inalámbricas del dispositivo móvil 104.
Las redes 126 pueden incluir cualquier combinación de redes privadas o públicas, y pueden oscilar en tamaño desde pequeñas redes par a par ad-hoc hasta una red de área global tal como la Internet. En general, las redes 126 proporcionan servicios de datos de red al dispositivo móvil 104, como se representan por el servidor 128 y base de datos 130 que son accesibles a través de las redes 126.
Los datos obtenidos en el dispositivo móvil 104 a través de las redes 126 pueden incluir cualquier dato conocido en la técnica, incluyendo texto, imágenes y sonido. De interés particular en datos que pueden indexarse/referenciarse por ubicación, como se representan por los servicios indexados geográficamente 132. Los servicios indexados geográficamente 132 generalmente proporcionan la capacidad de buscar entidades basándose en la proximidad a una localización geográfica particular. El servicio 132 también puede proporcionar otra categorización estándar de servicios, incluyendo por nombres de empresas, tipo de producto o servicio disponible, servicios gubernamentales, puntos de interés geográficos, sitios de interés, etc.
En una configuración, las aplicaciones con reconocimiento de ubicación 124 proporcionan ubicación tridimensional de objetos de datos usando la cámara 108 y el visualizador 112. Un ejemplo de esto se muestra en la Figura 2, que ilustra un dispositivo móvil 200 de acuerdo con una realización de la presente invención. El dispositivo móvil 200 generalmente es capaz de encontrar datos de objeto relacionados con ubicaciones físicas y superponer iconos relacionados con esos datos en una vista de cámara tridimensional. Por ejemplo, supóngase que el usuario final está intentando encontrar tiendas y restaurantes cerca de su ubicación actual. El usuario puede comenzar la búsqueda formando una consulta 202 (por ejemplo, "encuentra a mi alrededor: tiendas y restaurantes") en una aplicación del terminal móvil 200.
El terminal móvil 200 puede utilizar dispositivos de detección de ubicación (por ejemplo, dispositivos 114 en la Figura 1) para determinar la ubicación actual del terminal móvil 200. El terminal 200 puede incluir estos datos de ubicación en la consulta 202 y, a continuación, enviar la consulta a un servidor de búsqueda 204 a través de una red 206. El servidor de búsqueda 204 devolverá los resultados 208 que pueden incluir todas las URL relevantes y coordenadas de ubicación asociadas con las URL. Una descripción de cómo pueden realizarse búsquedas basadas en ubicación se describe en la solicitud de patente del mismo solicitante con número de serie 10/822.641 presentada el 12 de abril de 2004 y titulada "Methods and Apparatus for Geographically Based Web Services" por Hamynen, et al, que se incorpora por la presente por referencia en su totalidad.
Los resultados 208 proporcionados desde el servidor 204 pueden incluir información adicional relacionada con las URL que satisfacen la consulta 202. Por ejemplo, un icono personalizado u otro elemento gráfico puede asociarse con la URL. El usuario final puede ser capaz de ver los resultados 208 usando una página web de texto o gráfica estándar (no mostrada). Sin embargo, el usuario también puede ser capaz de utilizar una cámara digital 210 del terminal 200 para ver la consulta resultados 208 superpuesta en una imagen de los alrededores actuales del usuario. El usuario puede tomar una instantánea estática o dinámica (por ejemplo, flujo de vídeo) del paisaje usando la cámara 210. La imagen se muestra en un visualizador 212 del dispositivo. Parte de los resultados 208 se superponen a continuación en el visualizador 212 usando elementos gráficos, tales como los iconos 214 y texto 216.
Los iconos 214 pueden ser un gráfico de fin general como se muestra, o puede personalizarse, tal como usando a marca comercial o marca de servicio. Los iconos 214 y texto 216 pueden incluir diversas características adicionales que aumentan su utilidad para el usuario. Por ejemplo, las características de un icono 214 y texto 216 pueden cambiar dependiendo de la distancia del objeto representativo (por ejemplo, empresa) del usuario. Por ejemplo, el icono 214 podría visualizare más pequeño si el objeto representativo está más lejos. Puede usarse cualquier combinación de tamaño, color, estilo de línea, transparencia y similares para indicar distancia del usuario. Los iconos 214 y texto 216 también pueden tener otras características de objetos de página web. Por ejemplo, los iconos 214 y texto 216 pueden ser seleccionables por el usuario y contener hipervínculos y texto descriptivo.
Aunque el visualizador 212 y cámara 210 ilustrados se integran con el dispositivo móvil 200, se apreciará que pueden usarse dispositivos de cámara y visualización alternativos. Por ejemplo, el visualizador 212 y/o cámara 210 pueden integrarse en gafas o sombreros, de modo que el usuario puede no requerir un visualizador separado del paisaje porque el paisaje ya está en el campo de visión actual del usuario. Sin embargo, los iconos 214 y/o texto 216 podrían superponerse en el campo de visión actual del usuario usando, por ejemplo, un protector de gafas o una pantalla de visualización frontal en miniatura. En un caso de este tipo, el dispositivo móvil 200 no requeriría siquiera una cámara 210, aunque probablemente aún se calcularía una vista de cámara virtual para situar correctamente los gráficos 214, 216 en el campo de visión del usuario. Una vista virtual de este tipo podría calcularse a partir del aparato de detección de ubicación contenido en el dispositivo móvil 200 o en cualquier otro sitio en la persona (por ejemplo, gafas).
En la Figura 3 se muestran detalles adicionales relacionados con la superposición de datos de red en una imagen de cámara móvil de acuerdo con realizaciones de la presente invención. En general, un usuario 300 apunta un dispositivo móvil con capacidad de cámara 302 en el área de interés. Un volumen delimitador imaginario 304 define un espacio teórico que sería visible desde el dispositivo móvil 302 si ningún objeto estuviera bloqueando la vista. El volumen delimitador 304 generalmente tiene forma piramidal o cónica, y sus dimensiones pueden calcularse basándose en la orientación del dispositivo de cámara 302 y diversos aspectos de la lente (por ejemplo, pasos de luz, ángulo de ampliación, etc.). Algoritmos usados para calcular el volumen delimitador 304 pueden truncar la base del volumen 304 a una distancia máxima dictada por las distancias usadas en búsquedas geográficas. Por ejemplo, si la búsqueda (por ejemplo, como se muestra en la cadena de búsqueda 305) era para un bar a dos kilómetros, el volumen 304 se extendería dos kilómetros desde el dispositivo de cámara 302.
Los datos de posicionamiento 308, junto con características conocidas de la lente de cámara, pueden usarse para determinar el volumen 304. El aparato de detección de ubicación del dispositivo puede producir los datos de posicionamiento 308, que pueden incluir latitud, longitud, altitud, rumbo de brújula, inclinación y rotación. Las primeras tres medidas de los datos 308 fijan el origen el volumen 304. Las últimas tres medidas se toman en relación con la lente del dispositivo de cámara 302, y fijan la orientación del volumen 304. Una vez que se determinan los límites de volumen, el volumen 304 puede usarse para filtrar los resultados de búsquedas indexadas geográficamente y superponer esos resultados sobre la imagen de cámara 306.
Cualquier artículo inmediatamente visible dentro del volumen imaginario 304 se incluye en la imagen de escena resultante 306 y puede visualizare en el dispositivo 302. La ubicación de los resultados de búsqueda puede superponerse a continuación en la imagen de escena 306. En general, una búsqueda basada geográficamente proporcionará resultados (por ejemplo, URL) limitados a límites geográficos específicos. Estos límites pueden definirse de cualquier forma, incluyendo un límite circular (por ejemplo, dentro de un radio de 5 km desde el usuario) y/o un límite poligonal (por ejemplo, dentro de segmentos de líneas delimitadores). Cuando se visualizan tales resultados, los resultados se limitan adicionalmente para incluir únicamente esos dentro de la vista actual (por ejemplo, dentro del volumen delimitador 304). Los resultados restantes pueden mapearse dentro de la vista actual para formar una vista compuesta 310. En este ejemplo, los resultados finales se muestran como un icono 312 y texto 314.
Cuando el usuario final está apuntando el dispositivo de cámara 302 en la dirección correcta, los iconos y texto 312, 314 que representan los resultados de búsqueda son visibles en la pantalla 310. El usuario puede seleccionar estos objetos 312, 314 para acceder a los datos subyacentes (por ejemplo, una URL de página web). El usuario puede limitar adicionalmente el visualizador de los objetos 312, 314, tal como estableciendo algunos objetos a activos, y el resto a inactivos. Si el usuario ha seleccionado un subconjunto de URL como activas, y el dispositivo de cámara 302 no está apuntando en la dirección correcta para ver algunos o todos estos objetos, puede mostrarse al usuario un indicador tal como la flecha 316. La flecha 316 muestra al usuario final en qué dirección girar el dispositivo 302 para ver el objeto que representa la URL activa en la pantalla.
Algunos o todos los resultados de búsqueda en el ejemplo anterior pueden mostrarse como iconos (por ejemplo, el icono 312) en la vista de entorno tridimensional 310. El usuario puede abrir páginas web asociadas con el icono 312 activando (por ejemplo, clicando) el icono 312. El usuario final también puede realizar acciones adicionales seleccionado que el icono o iconos 312 estén activos. Por ejemplo, el usuario puede seleccionar un icono 312 para que se le proporcionen direcciones hacia el icono, o para marcar la URL representada por el icono.
Aunque el usuario puede proporcionar directrices generales cuando inicia una búsqueda basada en ubicación (por ejemplo, "restaurantes"), el número resultante de aciertos puede ser demasiado grande para su visualización efectiva en una vista de mapa. El sistema puede proporcionar toda forma de información relevante para ayudar al usuario final a refinar adicionalmente la búsqueda. Por ejemplo, pueden usarse factores, tales como distancia, tiempo esperado de llegar al objeto, horario de apertura, palabras clave, etc., para clasificar y/o filtrar resultados. También puede ser beneficioso permitir que el usuario acceda a los resultados de búsqueda en una vista bidimensional, como se representa por la vista 320. La vista bidimensional 320 puede incluir un icono 322 que representa la ubicación actual del usuario, y los iconos 324, 326 que representan resultados de búsqueda. La vista bidimensional 320 también puede usarse para proporcionar direcciones al usuario. Por ejemplo, el icono 324 está seleccionado en la actualidad (como se representa por la caja alrededor del icono 324), y la vista 320 también muestra una flecha 326 que dirige al usuario al objetivo representado por el icono 324.
La vista bidimensional 320 también puede incluir un fondo de mapa 330. El fondo de mapa 330 puede implementarse usando Gráficos Vectoriales Escalables (SVG) u otros formatos gráficos. Los datos usados para formar el fondo de mapa 330 pueden almacenarse en el dispositivo 302 o pueden proporcionarse a través de la red. El mapa, iconos 322, 324, 326 y flecha 326 pueden configurarse para rotar junto con rotaciones del dispositivo móvil 302. La vista 320 ilustrada puede incluir demasiada información para representarse satisfactoriamente en algunas pantallas de dispositivo. Si es así, podría utilizarse un subconjunto de las características ilustradas para ayudar al usuario a dirigirse al destino. Por ejemplo, la vista 320 puede solo mostrar la flecha 328 que indica la dirección de movimiento requerida para llegar al objetivo.
El terminal 302 también podría proporcionan mejoras adicionales a las vistas bidimensionales y tridimensionales 320, 310 para ayudar al usuario 300 a encontrar la ubicación objetivo. Por ejemplo, el terminal podría situar respectivas animaciones tridimensionales y bidimensionales en los visualizadores 320, 310, ilustrando las animaciones una trayectoria virtual para llegar a los destinos previstos. Esta animación podría ser en forma de un cursor en movimiento, y "simulación aérea" virtual, u otra secuencia de acción que ilustran la trayectoria de destino. El usuario 300 podría tener la opción de guardar esta trayectoria como un marcador de navegador u otro almacenamiento persistente para recordar esta trayectoria en un momento posterior.
El dispositivo móvil 302 puede configurarse para conmutar fácilmente entre la vista de visor de cámara tridimensional 310 y vista de mapa bidimensional 320 para optimizar la experiencia de usuario. Por ejemplo, el usuario puede ser capaz de alternar entre las vistas 310, 320 a través de una única presión de tecla. En otra disposición, podrían usarse acelerómetros u otros dispositivos de detección de nivel para detectar cuándo el dispositivo 302 está inclinado horizontal o verticalmente, y para conmutar automáticamente entre la vista bidimensional 320 o la vista tridimensional 310 por consiguiente.
Aunque la flecha 326 puede ser útil en proporcionar al usuario 300 una indicación visual de la dirección en la que él o ella desea ir, puede no ser práctico que el usuario 300 supervise continuamente el visualizador 310, 320. Un visualizador típico también consume una porción significativa de la potencia de batería disponible del dispositivo. Por lo tanto, puede no ser eficiente en potencia requerir que el usuario 300 supervise un visualizador 310, 320 durante largos periodos de tiempo. También, puede ser difícil caminar mientras se mira a un visualizador. Sin embargo, el dispositivo móvil 302 habitualmente contiene interfaces de usuario adicionales, y estas interfaces pueden usarse para suplementar la información proporcionada por los visualizadores 310, 320.
Por ejemplo, el dispositivo 302 puede incluir un módulo de sonido en 3D 331 asociado con un navegador u otro software de red. En general, sonido en 3D se refiere a tecnologías que permiten que se procesen y reproduzcan sonidos de modo que partes del sonido resultante se perciben como que están en una ubicación predeterminada. Tal procesamiento en 3D se incluye comúnmente en sistemas de cine en casa que pueden usar tres o más canales distintos que son cada uno encaminados a altavoces separados. Para propósitos del dispositivo móvil 302, sin embargo, existen algoritmos de procesamiento en 3D que permiten que un efecto multicanal simulado se experimente en los auriculares 332. Incluso auriculares 332 estándar que procesan una señal de audio de dos canales pueden proporcionar una espacialización de izquierda y derecha significativa. El módulo de sonido en 3D 331 puede proporcionar incluso efectos de espacialización más efectivos que provocan que el sonido se perciba en todas las direcciones alrededor del usuario 300, incluso usando auriculares 332 estándar.
El módulo de sonido en 3D 331 puede usarse en conexión con los auriculares 332 y un motor de búsqueda para ayudar a encontrar una ubicación objetivo. Esta aplicación de sonido puede ser particularmente útil donde el usuario está buscando ubicaciones en una ubicación desconocida y no desea distraerse teniendo que mirar continuamente el dispositivo móvil 302. Por ejemplo, mientras camina en una ciudad desconocida, el usuario 300 puede buscar "bar de sushi" y el motor de búsqueda puede devolver el mapa o mapas 310, 320 de la ubicación y reproducir un sonido en 3D (por ejemplo, tono o efecto de sonido) en los auriculares 332 que corresponde a la dirección del bar de sushi más cercano. El usuario 300 a continuación sitúa el dispositivo 302 en su bolsillo y camina en la dirección del sonido en 3D, que puede localizarse de nuevo repetitivamente a medida que la ubicación del usuario cambia. De esta manera, el usuario 300 puede disfrutar del paseo mientras se le recuerda cuidadosamente el destino correcto.
El módulo 3D 331 también podría proporcionar diferentes sonidos para propósitos. Por ejemplo, si el usuario quisiera que se le notificará que el dispositivo 302 detecta una zona de acceso inalámbrico 802.11 local, en los auriculares 332 podría reproducirse un sonido diferente que corresponde a la ubicación estimada de la zona de acceso. De manera similar, el módulo 3D 331 podría modificar características del sonido (por ejemplo, volumen, tono, contenido) dependiendo de la distancia al destino. Como con las vistas en 2D y 3D 310, 320, el módulo de sonido en 3D 331 puede usar cualquier combinación de GPS, brújula digital, acelerómetros y otro aparato para determinar y actualizar la ubicación del usuario. El módulo de sonido en 3D 331 puede ser una aplicación autónoma o una extensión a un programa existente (por ejemplo, extensión de navegador).
Una ventaja de detección de ubicación en dispositivos móviles es que los usuarios pueden usar el dispositivo móvil 302 como una combinación de mapa, brújula y guía turística. El usuario puede usar el dispositivo 302 para descubrir la existencia de un lugar deseado, determinar la ubicación de los lugares y, a continuación, dirigirse ahí. Puede haber mejoras adicionales que dependen de la ubicación que pueden proporcionarse al dispositivo móvil. Por ejemplo, vendedores y proveedores de servicios pueden desear usar servicios de localización en tales dispositivos 302 para proporcionar una experiencia de usuario más única y, de esta forma, atraer más clientes.
En la Figura 4 se muestra un aspecto de proporcionar datos de red únicos basándose en ubicación de acuerdo con una realización de la invención. Un objeto de ubicación 402 es el tema de contenido de red tal como una página web. El objeto de ubicación 402 puede ser cualquier edificio, punto de interés, máquina expendedora u otro objeto con una ubicación determinable. Un terminal con reconocimiento de ubicación 404 tiene la capacidad de determinar su propia ubicación, al menos en relación con el objeto de ubicación 402. El terminal 404 también es capaz de acceder a datos de red, tal como mediante la entrada de una URL 406. En respuesta a la introducción de una URL, el terminal 404 descarga o accede a contenido, como se representa por una página web 408.
El terminal descarga la página web 408 usando mecanismos que se conocen bien en la técnica, tales como Protocolo de Transporte de Hipertexto (HTTP) y HTTP seguro (HTTPS). Habitualmente, la URL 406 se usa para formar una petición de HTTP GET o POST. Habitualmente también se incluyen otros datos en la petición, incluyendo un indicador de versión, tipo de navegador usado en el terminal 404, etc. Un parámetro adicional que el terminal 404 puede usar como parte de la petición es la ubicación del terminal 404. La ubicación del terminal puede adjuntarse la petición, pasarse en encabezamientos de HTTP o comunicarse directa o indirectamente de otras formas conocidas en la técnica.
La respuesta que el terminal 404 recibe de la petición puede variar basándose en la ubicación del terminal 404. En el ejemplo ilustrado, un servidor de contenido 410 proporciona contenido relacionado con el objeto de ubicación 402 como se representa por la línea discontinua 413. El servidor de contenido 410 recibe las peticiones a través de una red 412 y forma respuestas basándose en las ubicaciones (si hubiera alguna) recibidas en las peticiones. El servidor puede calcular la ubicación del solicitante (por ejemplo, el terminal 404) en relación con el objeto de ubicación, y proporcionar contenido personalizado a medida dependiendo de la ubicación. En el ejemplo ilustrado, existen tres zonas 414, 416 y 418 diferentes que se delimitan mediante círculos concéntricos. Si no se detecta ninguna ubicación de terminal, o si la ubicación está en la zona más alejada 414 como se representa por la ubicación 420, a continuación se suministra una respuesta por defecto 422 al terminal 404.
Si el terminal se ubica en la segunda zona 416 como se representa por la ubicación 424, a continuación se presenta una respuesta diferente 426 al terminal 404. Esta segunda zona 416 puede representar, por ejemplo, una única ciudad o área metropolitana. Si el terminal 404 se ubica en la tercera y más cercana zona 418 como se representa por la ubicación 428, a continuación se presenta una tercera respuesta 430. Esta tercera zona 418 puede representar una distancia a pie razonable del objeto de ubicación 402, y el vendedor o proveedor de servicios puede querer atraer la atención del usuario con una oferta especial si el usuario hace una visita. Así como proporcionar respuesta personalizada a una única zona particular 414, 416, 418, el servidor de contenido 410 puede proporcionar una combinación de respuestas 420, 424, 426 personalizadas para dos o más de las zonas 414, 416, 418. Por ejemplo, si el objeto 402 es una tienda que es parte de una cadena de tiendas, el usuario podría ver una respuesta detallada 428 que describe la tienda cercana 402 mientras el usuario está en la zona 418. Esta respuesta 428 puede combinarse con una respuesta menos detallada 424 que describe otras ubicaciones de tienda dentro de la zona más grande 416 (por ejemplo, dentro de la misma ciudad).
No únicamente puede el terminal 404 proporcionar información de ubicación en una petición, sino que el servidor de contenido 410 también puede proporcionar información de ubicación en respuesta a peticiones. La información de ubicación puede añadirse al contenido, tal como mediante la inserción de comentarios u otras etiquetas en un documento HTML. Analizando esta información de ubicación añadida por el servidor 410, el terminal 404 puede limitar la visualización de información a la que tiene relevancia de ubicación a alguna distancia del terminal 404. Si el servidor 410 proporciona contenido de red basado en ubicación, puede ser deseable actualizar el contenido de red tal como la página web 408 cuando el terminal 404 entra en nuevas ubicaciones relacionadas con la página web 408.
Los objetos dentro de la página web 408 pueden estar habilitados para detectar información de ubicación para controlar el comportamiento de los objetos. Por ejemplo, una imagen 432 en la página web 408 puede incluir una animación de SVG del objeto de ubicación 402. La imagen 432 podría configurarse para cambiar el tamaño en relación con la distancia del objeto de ubicación real 402. Obsérvese que este comportamiento puede requerir conocer tanto el terminal ubicación real como la ubicación del objeto 402. Mientras el terminal 404 está cambiando de posición, puede no ser necesario descargar comportamientos adicionales de la imagen 432, ya que los cambios de ubicación pueden detectarse internamente en el terminal 404. Esto puede conservar el uso de ancho de banda de red.
Sin embargo, puede haber otros casos en los que la información de ubicación fuerza la recarga de información a través de la red 412. Por ejemplo, si un usuario pasa de la zona 416 a la zona 418, el servidor de contenido 410 puede querer que el terminal recargue la página web 408 para obtener más información relevante. Para hacer esto, el servidor de contenido 410 puede incluir instrucciones que provocan que la página web 408 u otros objetos descargables se descarguen de nuevo. Esto podría funcionar similar a las etiquetas de "actualizar" que fuerzan al navegador a recargar una página después de que haya transcurrido un cierto periodo de tiempo. En lugar de tiempo, una "actualización por ubicación" podría forzar una recarga basándose en una distancia de una ubicación dada.
Comportamiento de contenido de red con reconocimiento de ubicación puede aplicarse a otros objetos de red. Por ejemplo, objetos de audio que se reproducen en la página web 408 (o a través de otros programas) podrían cambiar las características basándose en la distancia al objeto objetivo 402. Las características del sonido que podrían cambiar incluyen contenido, volumen, tono, etc. En general, cualquier contenido que puede representarse a través del terminal 404 puede tener comportamiento dependiente de ubicación, incluyendo texto, vídeo, gráficos, sonido, vibración, comportamiento de LED y otros indicadores, etc. El comportamiento puede estar incorporado en el navegador del terminal o puede proporcionarse por medio de una extensión de objetos de ubicación. El navegador y/o extensión podría tratar el análisis e interpretación de la información de objeto de ubicación, determinar la ubicación del terminal 404, y actualizar contenido de red de acuerdo con las directrices de objeto de ubicación.
En una disposición, la información de ubicación puede situarse en la página web 408 en forma de un archivo de Lenguaje de Marcas Extensible (XML) de ubicación. La página de XML de Ubicación también podría contener la información de control que define el comportamiento de objeto. Sistemas y/o software que no soportan ubicación información de control pueden mostrar el contenido de página 408 sin ningún comportamiento de control. Una descripción de segmento de HTML y documento XML de ejemplo para actualización e imagen se muestra en Listado 1. La imagen "menu_L1_selected_begin.gif' cambiará después de que se detecta una desviación de 100 metros de la posición original. En general, pueden implementarse objetos con reconocimiento de ubicación de modo que existen archivos XML separados para cada objeto. Cada archivo XML podría tener un comando de control basado en ubicación único para los respectivos objetos.
--- página HTML----<?xml-location type="text/location"
href="location_XML_1A.loca"?>
<td><img src= "/mnc/framework/skins/mnc/images/
menu_L1 selected_begin.gif" alt="" width="12"
height="22" border="0"/>
</td>
--- Documento de XML de Ubicación----<?xml version="1.0"?>
<LOCATION XML>
<IMG1> src="/mnc/framework/skins/mnc/images/
menu_L1_selected_begin.gif"
</IMG1>
<LOCATION CNTR CMD1>deviation 100m
</ LOCATION CNTR CMD1 >
<CNTR CMD1 UPDATE>
src="/mnc/framework/skins/mnc/images
/menu_L1_selected_100m.gif"
</CNTR CMD1 UPDATE >
</LOCATION XML>
©2005, Nokia Corporation
Listado 1
En general, los sistemas descritos anteriormente proporcionan contenido con reconocimiento de ubicación para aplicaciones de usuario, particularmente para aplicaciones de dispositivos móviles. Un sistema 500 más particular para proporcionar este contenido de acuerdo con una realización de la presente invención se muestra en la Figura 5. El software de cliente 502 se adapta para ejecutarse en equipo de procesamiento de usuario final, tal como un terminal móvil. El software de cliente 502 incluye un módulo de posicionamiento/mapeado 504 que permite que el software 502 determine la ubicación actual, y puede proporcionar otras funciones de mapas y ubicación.
El software de cliente 502 contiene una interfaz de usuario 506 para acceder a bases de datos con reconocimiento de ubicación 510. Un módulo de protocolo 508 permite que el cliente 502 dirija búsquedas a las bases de datos con reconocimiento de ubicación 510. Las bases de datos con reconocimiento de ubicación 510 pueden configurarse para responder a consultas basándose en nombres de objeto, coordenadas de posición y otra información tal como números de teléfono, direcciones, iconos, imágenes del lugar u objeto de destino, etc. Las respuestas proporcionadas por las bases de datos 510 pueden incluir una URL que identifica una trayectoria de red en la que puede encontrarse en contenido localizado. Las consultas también pueden dirigirse a bases de datos 510 particulares basándose en una selección de categoría. Por ejemplo, las bases de datos 510 pueden incluir bases de datos especializadas tales como directorios de empresas 512, directorios personales 514, servicios gubernamentales 516, ubicaciones de otros usuarios móviles 518, servicios de mapas 520, 522, bases de datos personalizadas 524 personalizadas para cada cliente 502, y cualquier otra base de datos 525.
La base de datos personalizada 524 puede incluirse como parte de la infraestructura de red (como se ilustra) y/o incluirse en el mismo dispositivo como el cliente 502. La base de datos personalizada 524 puede actualizarse automáticamente con contenido desde las bases de datos con reconocimiento de ubicación 510. Por ejemplo cuando el usuario final viaja a una nueva ciudad, el cliente 502 puede detectar la nueva ubicación y usar la base de datos personalizada 524 para determinar si enlaces de bases de datos relacionados están disponibles para la presente ubicación. El cliente 502 también puede consultar al usuario final si acepta nuevos enlaces de base de datos locales para el cliente interfaz de usuario 506. Si se aceptan los nuevos servicios, el cliente 502 puede descargar nuevos enlaces en la interfaz de usuario 506 y situar iconos y otros gráficos por consiguiente. Por ejemplo, los iconos pueden representar bancos, cajeros automáticos, máquinas expendedoras u otros servicios de interés para el usuario final. El software de cliente 502 mapea estos gráficos en mapas en 2D o 3D, como se describe en otro sitio en este documento.
El software de cliente 502 puede acceder a las bases de datos 510 directa o indirectamente, usando tales herramientas como HTTP, Protocolo Simple de Acceso a Objetos (SOAP), Páginas Activas de Servidor (ASP), PHP o cualquier otro protocolo de acceso de datos basado en red. En el ejemplo ilustrado, el software de cliente 502 interactúa con un servicio con reconocimiento de ubicación 530. El servicio 530 puede implementarse en cualquier número de dispositivos de servidor de red. El servicio 530 contiene una interfaz de acceso de extremo frontal 532 genérica que puede utilizarse por diversos tipos de software de cliente 502. De nuevo, la interfaz de acceso 532 puede usar tecnologías tales como XML, SOAP, ASP, PHP. La interfaz de acceso 532 puede ser capaz de tratar una amplia variedad de formatos de datos y protocolos para encontrar y presentar información dependiente de ubicación. Por ejemplo, la interfaz de acceso 532 puede usarse para proporcionar datos desde bases de datos con reconocimiento de ubicación 510 en tales formatos como páginas web, documento XML, documentos de texto, objetos binarios (por ejemplo, programas, controles de ActiveX, Java Beans), correo electrónico, mensajes de texto, mensajes instantáneos, medios de difusión en continuo, etc.
La interfaz de acceso 532 comunica con la lógica empresarial 534. La lógica empresarial decodifica peticiones y formatea respuestas. La lógica empresarial 534 actúa como un intermediario entre la interfaz de acceso 532 e interfaces de base de datos de extremo final 536. Las interfaces de base de datos de extremo final 536 son unidades funcionales de menor nivel capaces de proporcionar un método uniforme de acceso a las varias bases de datos 510. Las interfaces de base de datos de extremo final 536 pueden incluir adaptadores personalizados (por ejemplo, el adaptador 538) que se personalizan para bases de datos 510 particulares. Por ejemplo, el adaptador 538 se personaliza para estructuras de datos y protocolos de acceso usados por la base de datos de directorio de empresas 512.
El servicio con reconocimiento de ubicación 530 puede incluir servicios adicionales necesitados por los clientes 502 y otras entidades con reconocimiento de ubicación. Puede haber módulos funcionales tales como gestión de cuentas 538, servicios de descarga de mapas 540 y estadísticas de uso 542. El servicio de estadísticas de uso 542 puede rastrear los accesos al sitio para determinar la efectividad publicitaria, determinar correlación entre consultas de búsquedas y resultados, etc.
En la Figura 6 se muestra un ejemplo más particular de un sistema con reconocimiento de ubicación de acuerdo con una realización de la presente invención. Una aplicación de cliente con reconocimiento de ubicación 600 se ejecuta en un terminal móvil 602, y es capaz de detectar la ubicación del terminal 602. La aplicación 600 incluye una interfaz de usuario 604 que es accesible por el usuario del terminal. La interfaz de usuario 604 puede incluir un campo de entrada 606 para entrar consultas de búsqueda dirigidas a una o más bases de datos localizadas 610. La interfaz de usuario 604 también puede incluir enlaces 608 para acceder a una base de datos localizada 610 particular.
Los enlaces 608 son una herramienta rápida y fácil para encontrar objetos locales basándose en categorías predefinidas. Por ejemplo, seleccionar un enlace de "banco" 612 puede provocar que una consulta se envíe a una base de datos de banca 614 para encontrar sucursales bancarias o cajeros automáticos cerca de la ubicación del terminal 602. En general, la aplicación 602 comunica con las bases de datos 610 a través de un servidor con reconocimiento de ubicación 616, que proporciona una interfaz común para todos los servicios con reconocimiento de ubicación.
Las bases de datos con reconocimiento de ubicación 610 pueden rellenarse usando una entidad de búsqueda independiente, tal como un motor de búsqueda. Las bases de datos 610 también pueden complementarse mediante entidades de comercialización local 618 y comercialización global 620 para aumentar la visibilidad de servicios localizados para los usuarios de dispositivo móvil. En general, las entidades de comercialización 618, 620 tienen un incentivo para garantizar la precisión de los datos de ubicación y, por lo tanto, pueden proporcionar fiabilidad aumentada sobre métodos tales como la identificación y análisis de direcciones a través de un motor de búsqueda.
Muchos tipos de aparatos pueden ser capaces de operar aplicaciones de cliente con reconocimiento de ubicación como se describe en este documento. Dispositivos móviles son particularmente útiles en esta función. En referencia ahora a la Figura 7, se ilustra un ejemplo de una disposición informática móvil 700 representativa capaz de realizar operaciones de acuerdo con realizaciones de la invención. Los expertos en la materia apreciarán que la disposición informática móvil 700 ilustrativa es meramente representativa de funciones generales que pueden asociarse con tales dispositivos móviles, y también que sistemas informáticos fijos incluyen de forma similar circuitería informática para realizar tales operaciones.
La unidad de procesamiento 702 controla las funciones básicas de la disposición 700. Esas funciones asociadas pueden incluirse como instrucciones almacenadas en un almacenamiento/memoria de programa 704. En una realización de la invención, los módulos de programa asociados con el almacenamiento/memoria 704 se almacenan en memoria de sólo lectura no volátil eléctricamente borrable y programable (EEPROM), memoria de sólo lectura (ROM) flash, disco duro, etc. de modo que la información no se pierde tras apagar el terminal móvil. El software relevante para llevar a cabo operaciones de terminal móvil convencionales y operaciones de acuerdo con la presente invención también puede transmitirse a la disposición informática móvil 700 a través de señales de datos, tal como descargándose electrónicamente a través de una o más redes, tal como la Internet y una red o redes inalámbricas intermedias.
La disposición informática móvil 700 incluye componentes de hardware y software acoplados a la unidad de procesamiento/control 702 para realizar intercambios de datos de red. La disposición informática móvil 700 puede incluir múltiples interfaces de red para mantener cualquier combinación de conexiones de datos por cable o inalámbricas. En particular, la disposición informática móvil 700 ilustrada incluye circuitería de transmisión de datos inalámbrica para realizar intercambios de datos de red.
Esta circuitería inalámbrica incluye un procesador de señales digitales (DSP) 706 empleado para realizar diversas funciones, incluyendo conversión de analógico a digital (A/D), conversión de digital a analógico (D/A), codificación/decodificación de voz, encriptación/desencriptación, detección y corrección de errores, traducción de flujo de bits, filtrado, etc. Un transceptor 708, generalmente acoplado a una antena 710, transmite las señales de radio salientes 712 y recibe las señales de radio entrantes 714 asociadas con el dispositivo inalámbrico.
La disposición informática móvil 700 también puede incluir una interfaz de datos/red alternativa 716 acoplada a la unidad de procesamiento/control 702. La interfaz de datos/red alternativa 716 puede incluir la capacidad de comunicarse en redes secundarias usando cualquier manera de medio de transmisión de datos, incluyendo medios por cable e inalámbricos. Ejemplos de interfaces de datos/red alternativas 716 incluyen USB, Bluetooth, Ethernet, Wi-Fi 802.11, IRDA, etc. El procesador 702 también se acopla a elementos de interfaz de usuario 718 asociados con el terminal móvil. La interfaz de usuario 718 del terminal móvil puede incluir, por ejemplo, un visualizador 720, tal como una pantalla de cristal líquido, y una cámara 722. En la interfaz 718 pueden incluirse otros mecanismos de interfaz de usuario, tales como teclados numéricos, altavoces, micrófonos, comandos de voz, conmutadores, pantalla/panel táctil, interfaz gráfica de usuario usando un dispositivo apuntador, bola de mando, palanca de mando, etc. Estos y otros componentes de interfaz de usuario se acoplan al procesador 702 como se conoce en la técnica.
Otro hardware acoplado a la unidad de procesamiento 702 incluye hardware de detección de ubicación 724. En general, el hardware de detección de ubicación 724 permite que la lógica de procesamiento de la disposición 700 determine la ubicación absoluta y/o relativa y orientación de la disposición. La ubicación puede expresarse en cualquier formato conocido, tal como latitud/longitud y UTM. La orientación puede expresarse usando ángulos de un componente de la disposición (por ejemplo, la lente de la cámara 722) en relación con referencias conocidas. Por ejemplo, pueden usarse mediciones de cabeceo y balanceo para definir ángulos entre el componente y la superficie de la Tierra. De manera similar, una medición de rumbo puede definir un ángulo entre el componente y el norte magnético. El hardware de detección de ubicación 724 puede incluir cualquier combinación de receptores GPS 726, brújulas 728, acelerómetros 730 y sensores de proximidad 732, y cualquier otra tecnología de detección conocida en la técnica.
El almacenamiento/memoria de programa 704 habitualmente incluye sistemas operativos para llevar a cabo funciones y aplicaciones asociadas con funciones en la disposición informática móvil 700. El almacenamiento de programa 704 puede incluir uno o más de memoria de sólo lectura (ROM), flash ROM, ROM programable y/o borrable, Memoria de Acceso Aleatorio (RAM), módulo de interfaz de abonado (SIM), módulo de interfaz inalámbrico (WIM), tarjeta inteligente, disco duro u otro dispositivo de memoria extraíble. El almacenamiento/memoria 704 de la disposición informática móvil 700 también puede incluir módulos de software para realizar funciones de acuerdo con realizaciones de la presente invención.
En particular, el almacenamiento/memoria de programa 704 incluye un módulo de funcionalidad principal 734 que proporciona parte o toda la funcionalidad de cliente con reconocimiento de ubicación como se describe anteriormente en este documento. La funcionalidad principal 734 puede usarse por una aplicación de cliente con reconocimiento de ubicación 736 autónoma. La funcionalidad principal 734 también puede incluirse como un módulo de extensión con reconocimiento de ubicación 738. El módulo de extensión 738 puede usarse para extender la funcionalidad de otras aplicaciones tal como un navegador 740 u otras aplicaciones de red 742. Estas aplicaciones 740, 742 tienen respectivas interfaces de extensión genéricas 744, 746 que permiten que terceros extiendan la funcionalidad de la aplicación principal 740, 742.
El módulo de funcionalidad principal 732 incluye un módulo de protocolo de red con reconocimiento de ubicación 748 que permite que la disposición 700 descargue, cargue, busque, indexe y procese de otra manera contenido de red que incluye ubicaciones de objeto. Estos datos de ubicación pueden intercambiarse con otras entidades a través de una red 750. El contenido de ubicación puede proporcionarse, por ejemplo, por un servidor web 752 y/o base de datos accesible por red 754. El módulo de protocolo de red con reconocimiento de ubicación 748 también puede determinar ubicaciones de la disposición 700 a través de un módulo de ubicación/orientación 756. El módulo de ubicación/orientación 756 se adapta para detectar ubicación y/u orientación a partir del hardware de detección de ubicación 724 y realizar transformaciones para presentar información de ubicación y orientación en un formato común para otros componentes del módulo de funcionalidad principal 734.
Parte de la funcionalidad incluida en el núcleo module 734 se refiere a visualizar resultados de búsqueda y otros datos de ubicación específicos a través del hardware de interfaz de usuario 718. Un módulo de marco multimedia 758 incluye la capacidad de capturar y visualizar datos relevantes para presentar búsquedas con reconocimiento de ubicación a usuarios. Por ejemplo, un módulo de formación de imágenes digital 760 puede ser capaz de capturar imágenes a través de la cámara 722 y visualizar las imágenes en el visualizador 720. Estas imágenes pueden sincronizarse con datos de ubicación/orientación del módulo de ubicación/orientación 756. El módulo de formación de imágenes digital 760 puede usar las imágenes capturadas y datos de ubicación para superponer uno o más objetos de ubicación 761 en la imagen. Los objetos de ubicación 761 habitualmente corresponden a resultados de búsquedas de datos de red llevados a cabo a través del módulo de protocolo de red 748.
El módulo de formación de imágenes digital 760 también puede configurarse para acceder local o remotamente a mapas almacenados a través de un módulo de mapas 762. Estos mapas pueden superponerse con (por ejemplo, situarse como fondos de) la vista bidimensional, o formatearse en un formato en perspectiva y superponerse encima de las imágenes tridimensionales tomadas a través de la cámara 722. El módulo de formación de imágenes digital 760 también puede controlar la alternancia entre las vistas bidimensionales y tridimensionales basándose en datos de orientación obtenidos del módulo de ubicación/orientación 756.
Los objetos de ubicación 761 generalmente representan resultados de búsqueda u otros datos obtenidos de la red 750 a través del módulo de protocolo de red 748. Los objetos 761 pueden presentarse al usuario como texto, gráficos, sonidos, realimentación táctil y cualquier otro elemento de interfaz de salida de usuario conocido en la técnica. Los objetos 761 pueden ser el resultado de consultas que se introducen manualmente por el usuario, o el resultado de búsquedas de categorías predefinidas.
Otra forma que la disposición 700 puede formar consultas es utilizando un módulo de reconocimiento óptico de caracteres (OCR) 764 para detectar información capturada a través de la cámara 722 u otro dispositivo. El módulo de OCR 764 puede interactuar con el módulo de formación de imágenes digital para leer caracteres de flujos de vídeo o imágenes fijas. Cuando el módulo de OCR 764 detecta caracteres en el vídeo/imágenes, los caracteres podrían usarse como entradas para encontrar páginas web locales de otro contenido a través del módulo de protocolo de red 748. Las coincidencias encontradas a través del módulo de OCR 764 también podrían situarse en imágenes compuestas producidas por el módulo de formación de imágenes 760. Aunque el módulo de OCR 764 habitualmente captura datos de texto, se apreciará que el módulo 764 puede adaptarse para tareas relacionadas con reconocimiento de imágenes, tales como reconocer logotipos, puntos de referencia, ubicaciones, etc.
El módulo de formación de imágenes digital 760 también puede representar diversos gráficos que guían al usuario a una ubicación deseada. Un ejemplo de esto es situar flechas o animaciones en vistas bidimensionales o tridimensionales para indicar dónde debería ir el usuario. El módulo de formación de imágenes 760 también puede interactuar con otros módulos de entrada/salida para realizar funciones similares. Por ejemplo, la disposición podría reproducir sonidos orientados espacialmente al usuario a través de un módulo de audio en 3D 766 para dirigir al usuario a la ubicación final. El módulo de formación de imágenes digital 760 también puede controlar el comportamiento de objetos de ubicación 761 basándose en actualizaciones de ubicación recibidas a través de módulo de ubicación/orientación 756. Por ejemplo, un objeto particular 761 puede ser un icono que cambia tamaño, color, transparencia, etc., dependiendo de una distancia de la disposición 700 del objetivo que representa el icono.
La disposición informática móvil 700 de la Figura 7 se proporciona como un ejemplo representativo de un entorno informático en el que pueden aplicarse los principios de la presente invención. A partir de la descripción proporcionada en este documento, los expertos en la materia apreciarán que la presente invención es igualmente aplicable en otros diversos entornos informáticos móviles o fijos conocidos en la actualidad o futuros. Por ejemplo, dispositivos informáticos de sobremesa incluyen de forma similar un procesador, memoria, una interfaz de usuario y circuitería de comunicación de datos. Por lo tanto, la presente invención es aplicable en cualquier estructura informática conocida en la que pueden comunicarse datos a través de una red.
Las aplicaciones de cliente con reconocimiento de ubicación pueden ser capaces de detectar ubicaciones de objeto usando técnicas de motor de búsqueda estándar. Por ejemplo, un motor de búsqueda puede ser capaz de analizar direcciones a partir de páginas web y asociar una coordenada geográfica con esa dirección. Sin embargo, pueden obtenerse una base de datos de objetos más completa y precisa y ubicaciones asociadas proporcionando bases de datos especializadas que asocian la ubicación de objetos particulares (por ejemplo, edificios, puntos de referencia) con direcciones web. Una forma de hacer esto, como se describe anteriormente en este documento, es proporcionar uno o más componentes de red que centralizan y normalizan diversos tipos de datos referenciados a ubicación. La Figura 8 muestra una estructura informática 800 de ejemplo adecuada para proporcionar servicios con reconocimiento de ubicación de acuerdo con realizaciones de la presente invención.
La estructura informática 800 incluye una disposición informática 801. La disposición informática 801 puede incluir componentes electrónicos personalizados o de fin general. La disposición informática 801 incluye un procesador central (CPU) 802 que puede acoplarse a la memoria de acceso aleatorio (RAM) 804 y/o memoria de sólo lectura (ROM) 806. La ROM 806 puede incluir diversos tipos de medios de almacenamiento, tales como ROM programable (PROM), PROM borrable (EPROM), etc. El procesador 802 puede comunicarse con otros componentes internos o externos a través de circuitería de entrada/salida (E/S) 808. El procesador 802 efectúa diversas funciones como se conoce en la técnica, como se indican mediante instrucciones de software y/o firmware.
La disposición informática 801 puede incluir uno o más dispositivos de almacenamiento de datos, incluyendo unidades de disco duro y disco flexible 812, unidades de CD-ROM 814 y otro hardware capaz de leer y/o almacenar información tal como DVD, etc. En una realización, software para llevar a cabo las operaciones de acuerdo con la presente invención puede almacenarse y distribuirse en un CD-ROM 816, disquete 818 u otra forma de medio capaz de almacenar de forma portátil información. Estos medios de almacenamiento pueden insertarse en, y leerse por, dispositivos tales como la unidad de CD-ROM 814, la unidad de disco 812, etc. El software también puede transmitirse a la disposición informática 801 a través de señales de datos, tales como descargándose electrónicamente a través de una red, tal como la Internet. La disposición informática 801 puede acoplarse a un usuario interfaz de entrada/salida 822 para interacción de usuario. El usuario interfaz de entrada/salida 822 puede incluir aparatos tales como un ratón, teclado, micrófono, panel táctil, pantalla táctil, sistema de reconocimiento de voz, monitor, pantalla LED, pantalla LCD, etc.
La disposición informática 801 puede acoplarse a otros dispositivos informáticos a través de redes. En particular, la disposición informática incluye una interfaz de red 824 para interactuar con bases de datos de referencia de ubicación 826 y aplicaciones de cliente 828 (por ejemplo, software de terminal móvil) a través de una red 830. La interfaz de red 824 puede incluir una combinación de componentes de hardware y software, incluyendo circuitería de acceso a medios, controladores, programas y módulos de protocolo.
La disposición informática 801 incluye instrucciones de procesador ejecutables 831 para llevar a cabo tareas de la disposición informática 801. Estas instrucciones incluyen interfaces de cliente 832 capaces de comunicarse con aplicaciones de cliente 828. Las interfaces de cliente 832 generalmente son capaces de recibir consultas de búsqueda, suministrar resultados de búsqueda, determinar capacidades y ubicaciones de cliente, etc. Las interfaces de cliente 832 pueden interactuar con una base de datos de cliente 834 para almacenar datos relacionados con aplicaciones de cliente 828, incluyendo preferencias, capacidades, consultas de búsquedas personalizadas, estadísticas de uso, etc. Una o más aplicaciones con reconocimiento de ubicación 838 pueden controlar la lógica empresarial para comunicarse con aplicaciones de cliente 828. Las aplicaciones con reconocimiento de ubicación 838 reciben consultas, ejecutan búsquedas en bases de datos de ubicación 826, formatean resultados para la aplicación de clientes 828, etc. Las aplicaciones con reconocimiento de ubicación 838 pueden utilizar una o más interfaces de base de datos 836 para comunicarse con las bases de datos de ubicación 826.
La estructura informática 800 es únicamente un ejemplo representativo de hardware de infraestructura de red que puede usarse para proporcionar servicios basados en ubicación como se describe en este documento. En general, las funciones de la estructura informática 800 pueden distribuirse en un gran número de elementos de procesamiento y de red, y pueden integrarse con otros servicios, tales como servicios web, pasarelas, mensajería de comunicaciones móviles, etc.
En referencia ahora a la Figura 9, un diagrama de flujo ilustra un procedimiento 900 para visualizar búsquedas de contenido de red en dispositivos móviles de acuerdo con realizaciones de la presente invención. El procedimiento implica obtener (902) resultados de una búsqueda de contenido de red a través de un dispositivo móvil. Se obtiene (904) una geolocalización de al menos un objeto asociado con los resultados de la búsqueda de contenido de red. Se ve (906) una escena en una vista de cámara del dispositivo móvil. Se determina (908) una ubicación virtual en la vista de cámara. La ubicación virtual representa la ubicación real del objeto en relación con la escena contenida en la vista de cámara. A continuación se visualiza (910) un gráfico que representa el objeto en la ubicación en la vista de cámara.
En referencia ahora a la Figura 10, un diagrama de flujo ilustra un procedimiento 1000 para conseguir contenido de red basado en ubicación, tal como a través de un dispositivo móvil. Se determina (1002) una geolocalización del dispositivo móvil, y la geolocalización se embebe (1004) en una petición de contenido. Embeber (1004) la geolocalización puede implicar, por ejemplo, situar la geolocalización en el encabezamiento o cuerpo de una petición de HTTP. La petición de contenido se envía (1006) a través de una red y, en respuesta, se recibe un documento que es capaz de visualizarse a través del móvil. El documento se personaliza basándose en la geolocalización del dispositivo móvil.
La descripción anterior de las realizaciones ilustrativas de la invención se ha presentado para los propósitos de ilustración y descripción. No pretende ser exhaustiva o limitar la invención a la forma precisa divulgada. Son posibles muchas modificaciones y variaciones a la vista de los contenidos anteriores. Se concibe que el alcance de la invención no se limita con esta descripción detallada, sino que se determina mediante las reivindicaciones adjuntas a la misma.

Claims (9)

REIVINDICACIONES
1. Un método que comprende:
obtener resultados de una petición de contenido de red a través de un dispositivo móvil;
determinar una geolocalización de al menos un objeto asociado a los resultados de la petición de contenido de red; determinar una vista de cámara asociada al dispositivo móvil;
determinar una ubicación virtual en la vista de cámara que representa la ubicación real del objeto en relación con una escena contenida en la vista de cámara; y
visualizar una vista tridimensional (310) a través del dispositivo móvil que incluye un gráfico que representa el objeto en la ubicación virtual en la vista de cámara,
en donde determinar la ubicación virtual en la vista de cámara del dispositivo móvil comprende determinar una geolocalización del dispositivo móvil;
en donde determinar la geolocalización del dispositivo móvil comprende determinar una orientación del dispositivo móvil en relación con la superficie de la Tierra; comprendiendo el método adicionalmente:
visualizar selectivamente a través del dispositivo móvil al menos una de
a) la vista tridimensional (310); y
b) una vista bidimensional (320) que incluye un primer gráfico que representa el objeto y un segundo gráfico que representa una ubicación del dispositivo móvil en relación con el objeto; y
conmutar entre la vista tridimensional y la vista bidimensional basándose en una orientación del dispositivo móvil en relación con la superficie de la Tierra.
2. El método de la reivindicación 1, en el que determinar la ubicación virtual en la vista de cámara comprende determinar la ubicación dentro de una imagen visible capturada por el dispositivo móvil.
3. El método de la reivindicación 2, en el que visualizar el gráfico comprende superponer el gráfico en la imagen visible.
4. El método de la reivindicación 1, en el que determinar la geolocalización del dispositivo móvil comprende acceder a un receptor de satélite de posicionamiento global a través del dispositivo móvil.
5. El método de la reivindicación 1, en el que determinar la orientación del dispositivo móvil en relación con la superficie de la Tierra comprende determinar un rumbo de brújula de la vista de cámara.
6. El método de la reivindicación 1, en el que determinar la orientación del dispositivo móvil en relación con la superficie de la Tierra comprende determinar uno o más ángulos de rotación del dispositivo móvil en relación con la superficie de la Tierra.
7. Un aparato que comprende:
una cámara;
un visualizador;
una interfaz de red capaz de comunicarse a través de una red;
un procesador acoplado a la interfaz de red, la cámara y el visualizador; y
una memoria acoplada al procesador, incluyendo la memoria instrucciones que provocan que el procesador,
envíe una petición de contenido de red a través de la interfaz de red;
obtenga resultados de la petición de contenido de red a través de la interfaz de red;
determine una geolocalización de al menos un objeto asociado a los resultados;
detecte una escena en una vista de la cámara;
determine una ubicación virtual en la vista de la cámara que representa la ubicación real del objeto en relación con la escena; y
visualice una vista tridimensional (310) en el visualizador que incluye un gráfico que representa el objeto en la ubicación virtual en la vista de cámara, en donde provocar que el procesador determine la ubicación virtual en la vista de la cámara comprende determinar una geolocalización del aparato, en donde determinar la geolocalización del aparato comprende determinar una orientación del aparato en relación con la superficie de la Tierra; en donde las instrucciones provocan que el procesador adicionalmente:
visualice selectivamente a través del visualizador al menos una de
a) la vista tridimensional (310); y
b) una vista bidimensional (320) que incluye un primer gráfico que representa el objeto y un segundo gráfico que representa una ubicación del aparato en relación con el objeto; y
conmute entre la vista tridimensional y la vista bidimensional basándose en una orientación del aparato en relación con la superficie de la Tierra.
8. El aparato de la reivindicación 7, en el que las instrucciones provocan además que el procesador visualice el gráfico superpuesto con la escena en el visualizador.
9. Un medio legible por ordenador que tiene instrucciones almacenadas en el mismo que son ejecutables por una disposición de procesamiento de datos capaz de acoplarse a una red para realizar las etapas que comprenden:
enviar una petición de contenido de red a través de la red;
obtener resultados de la petición de contenido de red a través de la red;
determinar una geolocalización de al menos un objeto asociado a los resultados;
detectar una escena en una vista de cámara de la disposición de procesamiento de datos;
determinar una ubicación virtual en la vista de cámara que representa la ubicación real del objeto en relación con la escena; y
visualizar una vista tridimensional (310) que incluye un gráfico que representa el objeto en la ubicación virtual en la vista de cámara a través de un visualizador de la disposición de procesamiento de datos,
en donde determinar la ubicación virtual en la vista de cámara comprende determinar una geolocalización de la disposición de procesamiento de datos;
en donde determinar la geolocalización de la disposición de procesamiento de datos comprende determinar una orientación de la disposición de procesamiento de datos en relación con la superficie de la Tierra; comprendiendo las etapas adicionalmente:
visualizar selectivamente a través del visualizador de la disposición de procesamiento de datos al menos una de
a) la vista tridimensional (310); y
b) una vista bidimensional (320) que incluye un primer gráfico que representa el objeto y un segundo gráfico que representa una ubicación de la disposición de procesamiento de datos en relación con el objeto; y
conmutar entre la vista tridimensional y la vista bidimensional basándose en una orientación de la disposición de procesamiento de datos en relación con la superficie de la Tierra.
ES07700014T 2006-01-09 2007-01-03 Visualización de objetos de red en dispositivos móviles basándose en geolocalización Active ES2813096T3 (es)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US11/328,298 US7720436B2 (en) 2006-01-09 2006-01-09 Displaying network objects in mobile devices based on geolocation
PCT/IB2007/000033 WO2007080473A1 (en) 2006-01-09 2007-01-03 Displaying network objects in mobile devices based on geolocation

Publications (1)

Publication Number Publication Date
ES2813096T3 true ES2813096T3 (es) 2021-03-22

Family

ID=38234227

Family Applications (1)

Application Number Title Priority Date Filing Date
ES07700014T Active ES2813096T3 (es) 2006-01-09 2007-01-03 Visualización de objetos de red en dispositivos móviles basándose en geolocalización

Country Status (8)

Country Link
US (2) US7720436B2 (es)
EP (2) EP3702733B1 (es)
KR (1) KR20080084859A (es)
CN (1) CN101379369B (es)
ES (1) ES2813096T3 (es)
PL (1) PL1971825T3 (es)
RU (1) RU2417437C2 (es)
WO (1) WO2007080473A1 (es)

Families Citing this family (365)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7680324B2 (en) 2000-11-06 2010-03-16 Evryx Technologies, Inc. Use of image-derived information as search criteria for internet and other search engines
US7899243B2 (en) 2000-11-06 2011-03-01 Evryx Technologies, Inc. Image capture and identification system and process
US8224078B2 (en) 2000-11-06 2012-07-17 Nant Holdings Ip, Llc Image capture and identification system and process
US7565008B2 (en) 2000-11-06 2009-07-21 Evryx Technologies, Inc. Data capture and identification system and process
US9310892B2 (en) 2000-11-06 2016-04-12 Nant Holdings Ip, Llc Object information derived from object images
EP1814101A1 (en) * 2004-11-19 2007-08-01 Daem Interactive, Sl Personal device with image-acquisition functions for the application of augmented reality resources and corresponding method
US8301159B2 (en) * 2004-12-31 2012-10-30 Nokia Corporation Displaying network objects in mobile devices based on geolocation
US7720436B2 (en) 2006-01-09 2010-05-18 Nokia Corporation Displaying network objects in mobile devices based on geolocation
US7848765B2 (en) 2005-05-27 2010-12-07 Where, Inc. Location-based services
US8849821B2 (en) * 2005-11-04 2014-09-30 Nokia Corporation Scalable visual search system simplifying access to network and device functionality
US20070142059A1 (en) * 2005-12-15 2007-06-21 Lucent Technologies Inc. User plane location architecture with mobile server for location based services
US9459622B2 (en) 2007-01-12 2016-10-04 Legalforce, Inc. Driverless vehicle commerce network and community
US20070218900A1 (en) * 2006-03-17 2007-09-20 Raj Vasant Abhyanker Map based neighborhood search and community contribution
US8874489B2 (en) * 2006-03-17 2014-10-28 Fatdoor, Inc. Short-term residential spaces in a geo-spatial environment
WO2007076555A2 (en) * 2005-12-29 2007-07-05 Aechelon Technology, Inc. A location based wireless collaborative environment with a visual user interface
JP2007218896A (ja) * 2006-01-23 2007-08-30 Ricoh Co Ltd 撮像装置、位置情報記録方法およびプログラム
US20080201156A1 (en) * 2007-02-21 2008-08-21 Fatdoor, Inc. User-generated community publication in a geo-spatial environment
US8738545B2 (en) * 2006-11-22 2014-05-27 Raj Abhyanker Map based neighborhood search and community contribution
US8965409B2 (en) 2006-03-17 2015-02-24 Fatdoor, Inc. User-generated community publication in an online neighborhood social network
US9070101B2 (en) 2007-01-12 2015-06-30 Fatdoor, Inc. Peer-to-peer neighborhood delivery multi-copter and method
US8732091B1 (en) 2006-03-17 2014-05-20 Raj Abhyanker Security in a geo-spatial environment
US9098545B2 (en) 2007-07-10 2015-08-04 Raj Abhyanker Hot news neighborhood banter in a geo-spatial social network
US9064288B2 (en) 2006-03-17 2015-06-23 Fatdoor, Inc. Government structures and neighborhood leads in a geo-spatial environment
US9373149B2 (en) 2006-03-17 2016-06-21 Fatdoor, Inc. Autonomous neighborhood vehicle commerce network and community
US9037516B2 (en) 2006-03-17 2015-05-19 Fatdoor, Inc. Direct mailing in a geo-spatial environment
US9071367B2 (en) * 2006-03-17 2015-06-30 Fatdoor, Inc. Emergency including crime broadcast in a neighborhood social network
US9002754B2 (en) 2006-03-17 2015-04-07 Fatdoor, Inc. Campaign in a geo-spatial environment
DE102007015513B4 (de) * 2006-03-30 2015-06-03 Citizen Electronics Co., Ltd. Mobiltelefon
US8788613B2 (en) * 2006-03-31 2014-07-22 Blackberry Limited Method and system for distribution of map content to mobile communication devices
EP2485168B1 (en) * 2006-03-31 2019-06-26 BlackBerry Limited System and method for searching disparate datastores via a remote device
JP4938351B2 (ja) * 2006-05-16 2012-05-23 トヨタ自動車株式会社 車両用測位情報更新装置
US8775452B2 (en) * 2006-09-17 2014-07-08 Nokia Corporation Method, apparatus and computer program product for providing standard real world to virtual world links
US20080071770A1 (en) * 2006-09-18 2008-03-20 Nokia Corporation Method, Apparatus and Computer Program Product for Viewing a Virtual Database Using Portable Devices
US20080082254A1 (en) * 2006-10-02 2008-04-03 Yka Huhtala Route-assisted GPS location sensing via mobile device
US11341202B2 (en) * 2006-10-04 2022-05-24 Craxel, Inc. Efficient method of location-based content management and delivery
US8863245B1 (en) 2006-10-19 2014-10-14 Fatdoor, Inc. Nextdoor neighborhood social network method, apparatus, and system
US8565815B2 (en) * 2006-11-16 2013-10-22 Digimarc Corporation Methods and systems responsive to features sensed from imagery or other data
US20080176542A1 (en) * 2007-01-18 2008-07-24 Richard Zaffino Wireless landmark-based content delivery
US8140093B2 (en) * 2007-01-18 2012-03-20 At&T Mobility Ii, Llc Wireless landmark-based operation of a wireless device
US20080195978A1 (en) * 2007-02-12 2008-08-14 Garmin Ltd. Method and apparatus for communicating navigation information
US20080221791A1 (en) * 2007-03-08 2008-09-11 Predrag Sukovic Landmark identifier
US8688368B2 (en) * 2007-04-09 2014-04-01 Microsoft Corporation Image-based localization for addresses
US20080268876A1 (en) * 2007-04-24 2008-10-30 Natasha Gelfand Method, Device, Mobile Terminal, and Computer Program Product for a Point of Interest Based Scheme for Improving Mobile Visual Searching Functionalities
US8243596B2 (en) * 2007-06-21 2012-08-14 Intel Corporation Distributing intelligence across networks
US20090015702A1 (en) * 2007-07-11 2009-01-15 Sony Ericsson Communicatins Ab Enhanced image capturing functionality
US8725712B2 (en) * 2007-07-16 2014-05-13 Nokia Corporation Context based media content presentation
JP5113253B2 (ja) * 2007-07-27 2013-01-09 インタートラスト テクノロジーズ コーポレイション コンテンツ公開システム及び方法
US9329052B2 (en) * 2007-08-07 2016-05-03 Qualcomm Incorporated Displaying image data and geographic element data
US8994851B2 (en) * 2007-08-07 2015-03-31 Qualcomm Incorporated Displaying image data and geographic element data
KR101423928B1 (ko) 2007-08-20 2014-07-28 삼성전자주식회사 전자지도에 포함된 이미지 파일을 이용한 이미지 재생장치, 이의 재생 방법 및 상기 방법을 실행하기 위한프로그램을 기록한 기록매체.
US20090054077A1 (en) * 2007-08-23 2009-02-26 Telefonaktiebolaget Lm Ericsson (Publ) Method and apparatus for sending data relating to a target to a mobile device
US20090061834A1 (en) * 2007-08-31 2009-03-05 Symbol Technologies, Inc. Methods and apparatus for location-based services in wireless networks
US8644842B2 (en) 2007-09-04 2014-02-04 Nokia Corporation Personal augmented reality advertising
US8862710B2 (en) * 2007-09-11 2014-10-14 Telecommunication Systems, Inc. Dynamic configuration of mobile station location services
US8180396B2 (en) * 2007-10-18 2012-05-15 Yahoo! Inc. User augmented reality for camera-enabled mobile devices
US8947421B2 (en) * 2007-10-29 2015-02-03 Interman Corporation Method and server computer for generating map images for creating virtual spaces representing the real world
US20090133091A1 (en) * 2007-11-20 2009-05-21 Broadcom Corporation Wireless communications device and integrated circuits with digital television receiver and methods for use therewith
US20090150433A1 (en) * 2007-12-07 2009-06-11 Nokia Corporation Method, Apparatus and Computer Program Product for Using Media Content as Awareness Cues
KR100912369B1 (ko) 2007-12-13 2009-08-19 한국전자통신연구원 현장 체험 안내 서비스 시스템 및 방법
US20090161963A1 (en) * 2007-12-20 2009-06-25 Nokia Corporation Method. apparatus and computer program product for utilizing real-world affordances of objects in audio-visual media data to determine interactions with the annotations to the objects
US9582937B2 (en) * 2008-01-02 2017-02-28 Nokia Technologies Oy Method, apparatus and computer program product for displaying an indication of an object within a current field of view
US8239132B2 (en) 2008-01-22 2012-08-07 Maran Ma Systems, apparatus and methods for delivery of location-oriented information
US20110040625A1 (en) * 2008-02-12 2011-02-17 David Woodruff System and method for advertising on a mobile device
US20090204672A1 (en) * 2008-02-12 2009-08-13 Idelix Software Inc. Client-server system for permissions-based locating services and location-based advertising
US20090215426A1 (en) * 2008-02-27 2009-08-27 Dimsdale Engineering, Llc Personal security system and method
US7966306B2 (en) * 2008-02-29 2011-06-21 Nokia Corporation Method, system, and apparatus for location-aware search
US8428869B2 (en) * 2008-04-07 2013-04-23 Telecommunication Systems, Inc. Context enabled address selection
US8711176B2 (en) * 2008-05-22 2014-04-29 Yahoo! Inc. Virtual billboards
US20090289955A1 (en) * 2008-05-22 2009-11-26 Yahoo! Inc. Reality overlay device
CA2725542C (en) * 2008-05-28 2016-12-13 Google Inc. Motion-controlled views on mobile computing devices
US20090315766A1 (en) 2008-06-19 2009-12-24 Microsoft Corporation Source switching for devices supporting dynamic direction information
US8700301B2 (en) * 2008-06-19 2014-04-15 Microsoft Corporation Mobile computing devices, architecture and user interfaces based on dynamic direction information
US8467991B2 (en) * 2008-06-20 2013-06-18 Microsoft Corporation Data services based on gesture and location information of device
US20090315775A1 (en) * 2008-06-20 2009-12-24 Microsoft Corporation Mobile computing services based on devices with dynamic direction information
US10095375B2 (en) * 2008-07-09 2018-10-09 Apple Inc. Adding a contact to a home screen
US9191238B2 (en) * 2008-07-23 2015-11-17 Yahoo! Inc. Virtual notes in a reality overlay
TWI403156B (zh) 2008-08-08 2013-07-21 尼康股份有限公司 Carrying information machines, photographic devices, and information acquisition systems
US8433722B2 (en) 2008-08-27 2013-04-30 Kiwiple Co., Ltd. Object identification system, wireless internet system having the same and method servicing a wireless communication based on an object using the same
KR101179206B1 (ko) * 2008-08-27 2012-09-05 키위플 주식회사 위치기반 무선 콘텐츠 제공 시스템
TW201011259A (en) * 2008-09-12 2010-03-16 Wistron Corp Method capable of generating real-time 3D map images and navigation system thereof
US8433244B2 (en) * 2008-09-16 2013-04-30 Hewlett-Packard Development Company, L.P. Orientation based control of mobile device
US7966024B2 (en) 2008-09-30 2011-06-21 Microsoft Corporation Virtual skywriting
US9285239B2 (en) * 2008-10-07 2016-03-15 Telecommunication Systems, Inc. User interface for content channel HUD (heads-up display) and channel sets for location-based maps
WO2010042173A1 (en) * 2008-10-07 2010-04-15 Telecommunication Systems, Inc. User interface for dynamic user-defined stopovers during guided navigation ("side trips")
US8935292B2 (en) * 2008-10-15 2015-01-13 Nokia Corporation Method and apparatus for providing a media object
EP2353111A1 (en) * 2008-10-23 2011-08-10 Lokesh Bitra Virtual tagging method and system
US8181212B2 (en) * 2008-10-30 2012-05-15 Frederic Sigal Method of providing a frame-based object redirection overlay for a video stream
US20110276556A1 (en) * 2008-11-25 2011-11-10 Metaio Gmbh Computer-implemented method for providing location related content to a mobile device
EP2377001A4 (en) * 2008-12-22 2015-04-15 Intelligent Spatial Technologies Inc SHOW SYSTEM AND METHOD FOR CONNECTING REAL BJECTS AND OBJECT REPRESENTATIONS BY MEANS
EP2368174A4 (en) * 2008-12-22 2014-05-07 Intelligent Spatial Technologies Inc SYSTEM AND METHOD FOR TRIGGERING ACTIONS AND COMMUNICATING POINT RETURN AT AN INTERESTING OBJECT
US8483519B2 (en) * 2008-12-22 2013-07-09 Ipointer Inc. Mobile image search and indexing system and method
JP5328810B2 (ja) * 2008-12-25 2013-10-30 パナソニック株式会社 情報表示装置および情報表示方法
CA2748178A1 (en) 2008-12-30 2010-07-08 Intelligent Spatial Technologies, Inc. Mobile image search and indexing system and method
JP4691697B2 (ja) * 2009-01-27 2011-06-01 Necカシオモバイルコミュニケーションズ株式会社 電子機器、および、プログラム
US8294766B2 (en) * 2009-01-28 2012-10-23 Apple Inc. Generating a three-dimensional model using a portable electronic device recording
WO2010096193A2 (en) * 2009-02-18 2010-08-26 Exbiblio B.V. Identifying a document by performing spectral analysis on the contents of the document
TWI649730B (zh) 2009-02-20 2019-02-01 日商尼康股份有限公司 資訊取得系統、攜帶型終端、伺服器、以及攜帶資訊機器用程式
US20100222140A1 (en) * 2009-03-02 2010-09-02 Igt Game validation using game play events and video
US8718707B2 (en) * 2009-03-20 2014-05-06 Johnson Controls Technology Company Devices, systems, and methods for communicating with rooftop air handling units and other HVAC components
US8335495B1 (en) * 2009-03-27 2012-12-18 Sprint Communications Company L.P. Displaying business directory information on a mobile handset
US20100253787A1 (en) * 2009-04-02 2010-10-07 Isaac Grant Method for Object Recognition and Communication of Associated Label and Other Information
US20100278379A1 (en) * 2009-05-01 2010-11-04 Lmr Inventions, Llc Location based image acquisition
US8274571B2 (en) * 2009-05-21 2012-09-25 Google Inc. Image zooming using pre-existing imaging information
US8244462B1 (en) * 2009-05-21 2012-08-14 Google Inc. System and method of determining distances between geographic positions
US20100309225A1 (en) * 2009-06-03 2010-12-09 Gray Douglas R Image matching for mobile augmented reality
US8427508B2 (en) * 2009-06-25 2013-04-23 Nokia Corporation Method and apparatus for an augmented reality user interface
US20100332324A1 (en) * 2009-06-25 2010-12-30 Microsoft Corporation Portal services based on interactions with points of interest discovered via directional device information
US8872767B2 (en) 2009-07-07 2014-10-28 Microsoft Corporation System and method for converting gestures into digital graffiti
US8331611B2 (en) * 2009-07-13 2012-12-11 Raytheon Company Overlay information over video
DE102009037835B4 (de) * 2009-08-18 2012-12-06 Metaio Gmbh Verfahren zur Darstellung von virtueller Information in einer realen Umgebung
KR101092104B1 (ko) * 2009-08-26 2011-12-12 주식회사 팬택 3차원 위치영상 제공 방법 및 시스템
US8755815B2 (en) 2010-08-31 2014-06-17 Qualcomm Incorporated Use of wireless access point ID for position determination
US8682391B2 (en) 2009-08-27 2014-03-25 Lg Electronics Inc. Mobile terminal and controlling method thereof
US8395547B2 (en) 2009-08-27 2013-03-12 Hewlett-Packard Development Company, L.P. Location tracking for mobile computing device
KR101622196B1 (ko) 2009-09-07 2016-05-18 삼성전자주식회사 휴대용 단말기에서 피오아이 정보 제공 방법 및 장치
US8243097B2 (en) * 2009-10-21 2012-08-14 Apple Inc. Electronic sighting compass
US8121618B2 (en) 2009-10-28 2012-02-21 Digimarc Corporation Intuitive computing methods and systems
US20110106783A1 (en) * 2009-11-03 2011-05-05 Kalbhavi Srinivas Mobile search with a landmark
US8566029B1 (en) 2009-11-12 2013-10-22 Google Inc. Enhanced identification of interesting points-of-interest
KR101229078B1 (ko) * 2009-12-21 2013-02-04 한국전자통신연구원 실내외 상황인식 기반의 모바일 혼합현실 콘텐츠 운용 장치 및 방법
US20110161875A1 (en) * 2009-12-29 2011-06-30 Nokia Corporation Method and apparatus for decluttering a mapping display
US8400548B2 (en) 2010-01-05 2013-03-19 Apple Inc. Synchronized, interactive augmented reality displays for multifunction devices
US20110169947A1 (en) * 2010-01-12 2011-07-14 Qualcomm Incorporated Image identification using trajectory-based location determination
JP5617246B2 (ja) * 2010-01-12 2014-11-05 ソニー株式会社 画像処理装置、物体選択方法及びプログラム
US8315673B2 (en) * 2010-01-12 2012-11-20 Qualcomm Incorporated Using a display to select a target object for communication
US9378223B2 (en) * 2010-01-13 2016-06-28 Qualcomm Incorporation State driven mobile search
AU2013242831B2 (en) * 2010-01-29 2016-01-14 Intel Corporation Method for providing information on object which is not included in visual field of terminal device, terminal device and computer readable recording medium
KR101082487B1 (ko) * 2010-01-29 2011-11-11 키위플 주식회사 객체 인식시스템 및 이를 이용하는 객체 인식 방법
RU2557084C2 (ru) * 2010-01-29 2015-07-20 Конинклейке Филипс Электроникс Н.В. Система и способ управления интерактивным освещением
KR100989663B1 (ko) * 2010-01-29 2010-10-26 (주)올라웍스 단말 장치의 시야에 포함되지 않는 객체에 대한 정보를 제공하기 위한 방법, 단말 장치 및 컴퓨터 판독 가능한 기록 매체
KR100985737B1 (ko) * 2010-02-05 2010-10-06 (주)올라웍스 단말 장치의 시야에 포함되는 객체에 대한 정보를 제공하기 위한 방법, 단말 장치 및 컴퓨터 판독 가능한 기록 매체
US9420251B2 (en) 2010-02-08 2016-08-16 Nikon Corporation Imaging device and information acquisition system in which an acquired image and associated information are held on a display
US20110237274A1 (en) * 2010-03-25 2011-09-29 Palm, Inc. Mobile computing device having relative positioning circuit
US8554731B2 (en) * 2010-03-31 2013-10-08 Microsoft Corporation Creating and propagating annotated information
KR101116434B1 (ko) * 2010-04-14 2012-03-07 엔에이치엔(주) 이미지를 이용한 쿼리 제공 방법 및 시스템
KR101674946B1 (ko) * 2010-04-16 2016-11-22 엘지전자 주식회사 이동 단말기 및 그 제어 방법
US8682879B2 (en) * 2010-04-16 2014-03-25 Bizmodeline Co., Ltd. Marker search system for augmented reality service
US8391789B2 (en) * 2010-04-19 2013-03-05 Nokia Corporation Apparatus for facilitating peripheral device selection
KR101572892B1 (ko) * 2010-05-06 2015-11-30 엘지전자 주식회사 이동 단말기 및 이것의 영상 디스플레이 방법
KR101643869B1 (ko) * 2010-05-06 2016-07-29 엘지전자 주식회사 휴대 단말기 및 그 동작 방법
KR101657120B1 (ko) * 2010-05-06 2016-09-13 엘지전자 주식회사 이동 단말기 및 이것의 영상 디스플레이 방법
US9020753B2 (en) * 2010-05-12 2015-04-28 Telefonaktiebolaget L M Ericsson (Publ) Method, computer program and apparatus for determining an object in sight
JP2011244058A (ja) * 2010-05-14 2011-12-01 Sony Corp 情報処理装置、情報処理システム、及びプログラム
US20110279453A1 (en) * 2010-05-16 2011-11-17 Nokia Corporation Method and apparatus for rendering a location-based user interface
US20110279446A1 (en) 2010-05-16 2011-11-17 Nokia Corporation Method and apparatus for rendering a perspective view of objects and content related thereto for location-based services on mobile device
KR101660743B1 (ko) * 2010-06-01 2016-09-28 엘지전자 주식회사 이동 단말기 및 그 제어 방법
US8640020B2 (en) * 2010-06-02 2014-01-28 Microsoft Corporation Adjustable and progressive mobile device street view
KR101458805B1 (ko) * 2010-06-09 2014-11-10 에스케이플래닛 주식회사 증강 현실 메시지 송수신 방법과 그를 위한 단말기 및 컴퓨터로 읽을 수 있는 기록매체
KR101638914B1 (ko) * 2010-06-15 2016-07-12 엘지전자 주식회사 이동 단말기 및 이것의 객체 관련 정보 디스플레이 방법
US9684989B2 (en) 2010-06-16 2017-06-20 Qualcomm Incorporated User interface transition between camera view and map view
KR101606727B1 (ko) * 2010-06-25 2016-03-28 엘지전자 주식회사 휴대 단말기 및 그 동작 방법
KR101667585B1 (ko) * 2010-06-25 2016-10-19 엘지전자 주식회사 이동 단말기 및 이것의 객체 정보 디스플레이 방법
US8963954B2 (en) * 2010-06-30 2015-02-24 Nokia Corporation Methods, apparatuses and computer program products for providing a constant level of information in augmented reality
US20120006610A1 (en) 2010-07-09 2012-01-12 Erik Wallace Telematics enhanced mobile device safety interlock
US20120019557A1 (en) * 2010-07-22 2012-01-26 Sony Ericsson Mobile Communications Ab Displaying augmented reality information
JP5436676B2 (ja) * 2010-07-28 2014-03-05 京セラ株式会社 携帯電子機器、画面制御方法および付加表示プログラム
KR101259598B1 (ko) * 2010-07-30 2013-04-30 주식회사 팬택 로드뷰 제공 장치 및 방법
KR101357262B1 (ko) * 2010-08-13 2014-01-29 주식회사 팬택 필터 정보를 이용한 객체 인식 장치 및 방법
US9118832B2 (en) 2010-08-17 2015-08-25 Nokia Technologies Oy Input method
KR101315399B1 (ko) * 2010-08-20 2013-10-07 주식회사 팬택 객체 정보 제공 단말 장치 및 그 방법
KR101669521B1 (ko) * 2010-08-23 2016-10-26 엘지전자 주식회사 이동 단말기 및 그 제어방법
KR101661950B1 (ko) * 2010-08-24 2016-10-04 엘지전자 주식회사 휴대 단말기 및 그 동작 제어방법
KR101317401B1 (ko) * 2010-08-25 2013-10-10 주식회사 팬택 객체 저장이 가능한 단말 장치 및 방법
US9727128B2 (en) * 2010-09-02 2017-08-08 Nokia Technologies Oy Methods, apparatuses, and computer program products for enhancing activation of an augmented reality mode
US9024997B2 (en) * 2010-09-03 2015-05-05 At&T Intellectual Property L.L.P. Virtual presence via mobile
KR101719985B1 (ko) * 2010-09-03 2017-03-27 엘지전자 주식회사 이동 단말기 및 그 제어방법
KR101719653B1 (ko) * 2010-09-16 2017-03-24 엘지전자 주식회사 이동 단말기, 전자 시스템 및 이를 이용한 데이터 송수신 방법
US9710554B2 (en) * 2010-09-23 2017-07-18 Nokia Technologies Oy Methods, apparatuses and computer program products for grouping content in augmented reality
EP4344257A2 (en) 2010-09-29 2024-03-27 QUALCOMM Incorporated Location tracking for mobile computing device
US9317133B2 (en) * 2010-10-08 2016-04-19 Nokia Technologies Oy Method and apparatus for generating augmented reality content
IL208600A (en) * 2010-10-10 2016-07-31 Rafael Advanced Defense Systems Ltd Real-time network-based laminated reality for mobile devices
KR101317532B1 (ko) * 2010-10-13 2013-10-15 주식회사 팬택 마커 또는 마커리스를 융합하는 증강현실 장치 및 방법
KR101740435B1 (ko) * 2010-10-18 2017-05-26 엘지전자 주식회사 이동 단말기 및 이것의 객체 관련 정보 관리 방법
KR101357260B1 (ko) * 2010-10-22 2014-02-03 주식회사 팬택 증강 현실 사용자 인터페이스 제공 장치 및 방법
US8660369B2 (en) * 2010-10-25 2014-02-25 Disney Enterprises, Inc. Systems and methods using mobile devices for augmented reality
US8698843B2 (en) 2010-11-02 2014-04-15 Google Inc. Range of focus in an augmented reality application
US8952983B2 (en) * 2010-11-04 2015-02-10 Nokia Corporation Method and apparatus for annotating point of interest information
US8550903B2 (en) 2010-11-15 2013-10-08 Bally Gaming, Inc. System and method for bonus gaming using a mobile device
KR101350033B1 (ko) * 2010-12-13 2014-01-14 주식회사 팬택 증강 현실 제공 단말기 및 방법
US9134137B2 (en) 2010-12-17 2015-09-15 Microsoft Technology Licensing, Llc Mobile search based on predicted location
KR101334171B1 (ko) * 2010-12-29 2013-11-28 키위플 주식회사 위치기반 무선 콘텐츠 제공 방법
US8634852B2 (en) 2011-01-04 2014-01-21 Qualcomm Incorporated Camera enabled headset for navigation
US9652046B2 (en) 2011-01-06 2017-05-16 David ELMEKIES Augmented reality system
WO2012094605A1 (en) * 2011-01-06 2012-07-12 Cypher Entertainment Augmented reality system
US20120194547A1 (en) * 2011-01-31 2012-08-02 Nokia Corporation Method and apparatus for generating a perspective display
US8527483B2 (en) 2011-02-04 2013-09-03 Mikko VÄÄNÄNEN Method and means for browsing by walking
US10063996B2 (en) * 2011-02-11 2018-08-28 Thermopylae Sciences and Technology Methods and systems for providing geospatially-aware user-customizable virtual environments
US20120208456A1 (en) * 2011-02-15 2012-08-16 Ontario, Canada) Mobile wireless communications device providing object reference data based upon near field communication (nfc) and related methods
WO2012112822A2 (en) * 2011-02-16 2012-08-23 Visa International Service Association Snap mobile payment apparatuses, methods and systems
US8326281B2 (en) * 2011-02-16 2012-12-04 Research In Motion Limited Mobile wireless communications device providing object reference data based upon near field communication (NFC) and related methods
US10586227B2 (en) 2011-02-16 2020-03-10 Visa International Service Association Snap mobile payment apparatuses, methods and systems
WO2012116125A1 (en) 2011-02-22 2012-08-30 Visa International Service Association Universal electronic payment apparatuses, methods and systems
US20120221552A1 (en) * 2011-02-28 2012-08-30 Nokia Corporation Method and apparatus for providing an active search user interface element
US9317860B2 (en) 2011-03-08 2016-04-19 Bank Of America Corporation Collective network of augmented reality users
US9224166B2 (en) 2011-03-08 2015-12-29 Bank Of America Corporation Retrieving product information from embedded sensors via mobile device video analysis
US9773285B2 (en) 2011-03-08 2017-09-26 Bank Of America Corporation Providing data associated with relationships between individuals and images
KR101660505B1 (ko) * 2011-03-08 2016-10-10 엘지전자 주식회사 이동 단말기 및 그 제어방법
US9317835B2 (en) * 2011-03-08 2016-04-19 Bank Of America Corporation Populating budgets and/or wish lists using real-time video image analysis
EP2498520B1 (fr) 2011-03-10 2014-04-30 Alcatel Lucent Procédé d'obtention de contenus vidéos issus de caméras et relatifs à un usager d'un équipement de communication, et dispositif associé
US11145215B1 (en) 2011-03-11 2021-10-12 Sitting Man, Llc Methods, systems, and computer program products for providing feedback to a user of a portable electronic in motion
US8601380B2 (en) * 2011-03-16 2013-12-03 Nokia Corporation Method and apparatus for displaying interactive preview information in a location-based user interface
US20120244945A1 (en) * 2011-03-22 2012-09-27 Brian Kolo Methods and systems for utilizing global positioning information with an online game
US9489773B2 (en) 2011-06-21 2016-11-08 Telefonaktiebolaget Lm Ericsson (Publ) Caching support for visual search and augmented reality in mobile networks
WO2013028101A2 (ru) * 2011-06-29 2013-02-28 ЛИСОВСКИЙ, Пётр Петрович Устройство представления информации для восприятия ее с пассажирского конвейера
US9600933B2 (en) 2011-07-01 2017-03-21 Intel Corporation Mobile augmented reality system
AU2012278963B2 (en) 2011-07-05 2017-02-23 Visa International Service Association Electronic wallet checkout platform apparatuses, methods and systems
JP2013015788A (ja) * 2011-07-06 2013-01-24 Sony Corp 表示制御装置、表示制御方法およびプログラム
CN102915686A (zh) * 2011-08-06 2013-02-06 董亮 一种基于三维场景的移动终端广告展示方法
US20130039535A1 (en) * 2011-08-08 2013-02-14 Cheng-Tsai Ho Method and apparatus for reducing complexity of a computer vision system and applying related computer vision applications
US10825001B2 (en) 2011-08-18 2020-11-03 Visa International Service Association Multi-directional wallet connector apparatuses, methods and systems
US9710807B2 (en) 2011-08-18 2017-07-18 Visa International Service Association Third-party value added wallet features and interfaces apparatuses, methods and systems
US10242358B2 (en) 2011-08-18 2019-03-26 Visa International Service Association Remote decoupled application persistent state apparatuses, methods and systems
US20130044220A1 (en) * 2011-08-19 2013-02-21 Dane Demicell Method and system for enabling remote inspection communication and documentation
US20130061147A1 (en) * 2011-09-07 2013-03-07 Nokia Corporation Method and apparatus for determining directions and navigating to geo-referenced places within images and videos
US10223730B2 (en) 2011-09-23 2019-03-05 Visa International Service Association E-wallet store injection search apparatuses, methods and systems
WO2013128078A1 (en) 2012-02-29 2013-09-06 Nokia Corporation Method and apparatus for rendering items in a user interface
US9639857B2 (en) 2011-09-30 2017-05-02 Nokia Technologies Oy Method and apparatus for associating commenting information with one or more objects
WO2013048329A2 (en) * 2011-09-30 2013-04-04 13Th Lab A method for capturing events in front of a camera device
US9779114B2 (en) * 2011-10-07 2017-10-03 Henk B. Rogers Media geotagging
US10169339B2 (en) 2011-10-31 2019-01-01 Elwha Llc Context-sensitive query enrichment
JP6121647B2 (ja) * 2011-11-11 2017-04-26 ソニー株式会社 情報処理装置、情報処理方法およびプログラム
WO2013078345A1 (en) * 2011-11-21 2013-05-30 Nant Holdings Ip, Llc Subscription bill service, systems and methods
JP5858754B2 (ja) * 2011-11-29 2016-02-10 キヤノン株式会社 撮影装置、表示方法及びプログラム
KR101873525B1 (ko) * 2011-12-08 2018-07-03 삼성전자 주식회사 휴대단말기의 콘텐츠 표시장치 및 방법
US9779450B2 (en) 2011-12-13 2017-10-03 Ebay Inc. Mobile application to conduct an auction based on physical presence
US20130167013A1 (en) * 2011-12-23 2013-06-27 Qnx Software Systems Limited Method of presenting digital data on an electronic device operating under different environmental conditions
US8973147B2 (en) * 2011-12-29 2015-03-03 Mcafee, Inc. Geo-mapping system security events
US9569057B2 (en) * 2012-01-05 2017-02-14 Sony Corporation Information processing apparatus and method for outputting a guiding operation to a user
US9602718B2 (en) 2012-01-06 2017-03-21 Blackberry Limited System and method for providing orientation of a camera
AU2013214801B2 (en) 2012-02-02 2018-06-21 Visa International Service Association Multi-source, multi-dimensional, cross-entity, multimedia database platform apparatuses, methods and systems
JP5891843B2 (ja) * 2012-02-24 2016-03-23 ソニー株式会社 クライアント端末、サーバ、およびプログラム
US20130231157A1 (en) * 2012-03-02 2013-09-05 Jeffrey Chung Cellular phone with camera at front edge area
JP2013183433A (ja) * 2012-03-05 2013-09-12 Sony Corp クライアント端末、サーバ、およびプログラム
KR20130118820A (ko) * 2012-04-20 2013-10-30 삼성전자주식회사 증강현실 서비스를 위한 미디어 파일의 제공 방법 및 장치
US20130325795A1 (en) * 2012-05-31 2013-12-05 Google Inc. Systems and Methods for Dynamically Loading Web Fonts and Dynamic Availability for Fonts Based on Language Settings
US8861858B2 (en) * 2012-06-01 2014-10-14 Blackberry Limited Methods and devices for providing companion services to video
US9690465B2 (en) 2012-06-01 2017-06-27 Microsoft Technology Licensing, Llc Control of remote applications using companion device
US10354004B2 (en) 2012-06-07 2019-07-16 Apple Inc. Intelligent presentation of documents
US9736434B2 (en) * 2012-06-25 2017-08-15 The Boeing Company Apparatus and method for displaying a view corresponding to a position of a mobile display device
US9395875B2 (en) * 2012-06-27 2016-07-19 Ebay, Inc. Systems, methods, and computer program products for navigating through a virtual/augmented reality
US9020537B2 (en) * 2012-06-28 2015-04-28 Experience Proximity, Inc. Systems and methods for associating virtual content relative to real-world locales
US20140089850A1 (en) * 2012-09-22 2014-03-27 Tourwrist, Inc. Systems and Methods of Using Motion Control to Navigate Panoramas and Virtual Tours
RU2504833C1 (ru) * 2012-07-19 2014-01-20 Общество с ограниченной ответственностью "Инновационная лаборатория" Способ отображения окружающей среды
DE102012214450A1 (de) * 2012-08-14 2014-02-20 Siemens Aktiengesellschaft Verfahren zur Überwachung des Betriebszustandes einer Turbinenanlage sowie Computerprogrammprodukt, elektronisches Mobilfunkendgerät und System zur Durchführung des Verfahrens
US10713846B2 (en) 2012-10-05 2020-07-14 Elwha Llc Systems and methods for sharing augmentation data
US10269179B2 (en) 2012-10-05 2019-04-23 Elwha Llc Displaying second augmentations that are based on registered first augmentations
US9077647B2 (en) 2012-10-05 2015-07-07 Elwha Llc Correlating user reactions with augmentations displayed through augmented views
US10180715B2 (en) 2012-10-05 2019-01-15 Elwha Llc Correlating user reaction with at least an aspect associated with an augmentation of an augmented view
US20150062114A1 (en) * 2012-10-23 2015-03-05 Andrew Ofstad Displaying textual information related to geolocated images
EP2728773A1 (en) * 2012-11-06 2014-05-07 Alcatel Lucent Method and device for allowing mobile communication equipments to access to multimedia streams played on multimedia screens
US9424472B2 (en) * 2012-11-26 2016-08-23 Ebay Inc. Augmented reality information system
CN104995666B (zh) * 2012-12-21 2019-04-23 苹果公司 用于在真实环境中表示虚拟信息的方法
US9959674B2 (en) * 2013-02-26 2018-05-01 Qualcomm Incorporated Directional and X-ray view techniques for navigation using a mobile device
US20140267000A1 (en) * 2013-03-12 2014-09-18 Jenny Yuen Systems and Methods for Automatically Entering Symbols into a String of Symbols Based on an Image of an Object
US20140267411A1 (en) * 2013-03-15 2014-09-18 Elwha Llc Indicating observation or visibility patterns in augmented reality systems
US20140281475A1 (en) * 2013-03-15 2014-09-18 Openpeak Inc. Method and system for provisioning a computing device based on location
US10109075B2 (en) 2013-03-15 2018-10-23 Elwha Llc Temporal element restoration in augmented reality systems
US10025486B2 (en) 2013-03-15 2018-07-17 Elwha Llc Cross-reality select, drag, and drop for augmented reality systems
US9639964B2 (en) 2013-03-15 2017-05-02 Elwha Llc Dynamically preserving scene elements in augmented reality systems
DE102013205486A1 (de) 2013-03-27 2014-10-02 Deere & Company Anordnung und Verfahren zur Positionserfassung mit einem Handgerät
JP5790692B2 (ja) * 2013-03-29 2015-10-07 ソニー株式会社 情報処理装置、情報処理方法および記録媒体
US20140354868A1 (en) * 2013-06-04 2014-12-04 Corning Incorporated Portable hyperspectral imager
WO2014207941A1 (ja) * 2013-06-28 2014-12-31 楽天株式会社 判定装置、判定方法、及びプログラム
US20150019352A1 (en) * 2013-07-12 2015-01-15 Michael Flynn On-page marketplace banner advertising system
JP6225538B2 (ja) * 2013-07-24 2017-11-08 富士通株式会社 情報処理装置、システム、情報提供方法および情報提供プログラム
US9429754B2 (en) 2013-08-08 2016-08-30 Nissan North America, Inc. Wearable assembly aid
DE102013217223A1 (de) * 2013-08-29 2015-03-05 Robert Bosch Gmbh Überwachungsanlage sowie Verfahren zur Darstellung eines Überwachungsbereichs
KR20150034997A (ko) * 2013-09-27 2015-04-06 네이버 주식회사 경로 안내에 따른 목적지를 명확히 인지시켜 주기 위한 방법 및 그 시스템
US9106840B2 (en) 2013-11-07 2015-08-11 Freescale Semiconductor Inc. Devices having automatically adjustable polarizers and related operating methods
US10816945B2 (en) * 2013-11-11 2020-10-27 Osram Sylvania Inc. Human presence detection commissioning techniques
US9165339B2 (en) 2013-11-22 2015-10-20 Google Inc. Blending map data with additional imagery
CN104750711A (zh) * 2013-12-27 2015-07-01 珠海金山办公软件有限公司 一种文档推送提醒方法及装置
KR102200246B1 (ko) * 2013-12-31 2021-01-08 주식회사 케이티 콘텐츠 검색 방법, 웨어러블 디바이스 및 컴퓨터 판독가능 매체
US20150215730A1 (en) * 2014-01-25 2015-07-30 Spayce, Inc. Location-based content enablement system
US9439367B2 (en) 2014-02-07 2016-09-13 Arthi Abhyanker Network enabled gardening with a remotely controllable positioning extension
WO2015120019A1 (en) 2014-02-10 2015-08-13 Google Inc. Smart camera user interface
US9311639B2 (en) 2014-02-11 2016-04-12 Digimarc Corporation Methods, apparatus and arrangements for device to device communication
US10120896B2 (en) 2014-02-18 2018-11-06 International Business Machines Corporation Synchronizing data-sets
FR3018124B1 (fr) * 2014-02-28 2016-03-25 Thales Sa Systeme de visualisation de casque comportant un zoom numerique
JP5660746B1 (ja) * 2014-04-09 2015-01-28 パナソニックIpマネジメント株式会社 監視カメラシステム
US9457901B2 (en) 2014-04-22 2016-10-04 Fatdoor, Inc. Quadcopter with a printable payload extension system and method
US9004396B1 (en) 2014-04-24 2015-04-14 Fatdoor, Inc. Skyteboard quadcopter and method
US9022324B1 (en) 2014-05-05 2015-05-05 Fatdoor, Inc. Coordination of aerial vehicles through a central server
JP6620740B2 (ja) * 2014-05-09 2019-12-18 ソニー株式会社 情報処理装置、情報処理方法およびプログラム
US10026226B1 (en) * 2014-06-10 2018-07-17 Ripple Inc Rendering an augmented reality object
US10930038B2 (en) 2014-06-10 2021-02-23 Lab Of Misfits Ar, Inc. Dynamic location based digital element
US9971985B2 (en) 2014-06-20 2018-05-15 Raj Abhyanker Train based community
US9441981B2 (en) 2014-06-20 2016-09-13 Fatdoor, Inc. Variable bus stops across a bus route in a regional transportation network
US9451020B2 (en) 2014-07-18 2016-09-20 Legalforce, Inc. Distributed communication of independent autonomous vehicles to provide redundancy and performance
CN106575299A (zh) * 2014-08-01 2017-04-19 索尼公司 信息处理装置、信息处理方法和程序
JP6417797B2 (ja) * 2014-09-03 2018-11-07 株式会社リコー 情報端末装置、情報処理方法、システムおよびプログラム
US9612722B2 (en) * 2014-10-31 2017-04-04 Microsoft Technology Licensing, Llc Facilitating interaction between users and their environments using sounds
CN104394219A (zh) * 2014-11-27 2015-03-04 英业达科技有限公司 云端管理方法
US9904450B2 (en) 2014-12-19 2018-02-27 At&T Intellectual Property I, L.P. System and method for creating and sharing plans through multimodal dialog
US9953446B2 (en) * 2014-12-24 2018-04-24 Sony Corporation Method and system for presenting information via a user interface
JP6481456B2 (ja) * 2015-03-26 2019-03-13 富士通株式会社 表示制御方法、表示制御プログラム、及び情報処理装置
FR3034946B1 (fr) * 2015-04-10 2017-04-28 Sagem Defense Securite Procede de communication dans un reseau ad hoc
CN112492519A (zh) * 2015-05-05 2021-03-12 诺基亚技术有限公司 方法、系统及装置
DE102015210900A1 (de) * 2015-06-15 2016-12-15 BSH Hausgeräte GmbH Verfahren zum Verarbeiten von Daten eines Haushaltsgeräts
US10133931B2 (en) 2015-08-04 2018-11-20 Fmr Llc Alert notification based on field of view
EP3345109A1 (en) * 2015-09-01 2018-07-11 Draeger Medical Systems, Inc. Display having position sensitive keyboard
CN105141981B (zh) * 2015-09-07 2018-08-24 天脉聚源(北京)传媒科技有限公司 一种机顶盒分布图的显示方法及装置
CN105392117B (zh) * 2015-10-19 2020-06-02 腾讯科技(深圳)有限公司 一种查询近距离对象的方法和装置
US9635079B1 (en) 2015-11-12 2017-04-25 International Business Machines Corporation Social media sharing based on video content
WO2017087251A1 (en) * 2015-11-17 2017-05-26 Pcms Holdings, Inc. System and method for using augmented reality to visualize network service quality
US10530723B2 (en) 2015-12-21 2020-01-07 Google Llc Automatic suggestions for message exchange threads
KR102174346B1 (ko) 2015-12-21 2020-11-04 구글 엘엘씨 메시징 애플리케이션들을 위한 자동적인 제안들 및 다른 콘텐츠
CN105472560B (zh) * 2015-12-22 2019-02-12 珠海市魅族通讯设备有限公司 一种信息提示方法及终端
US10469246B2 (en) 2016-02-29 2019-11-05 Craxel, Inc. Efficient encrypted data management system and method
CN105848105A (zh) * 2016-04-28 2016-08-10 青岛海信移动通信技术股份有限公司 一种定位信息的处理方法和装置
RU2632189C1 (ru) * 2016-06-08 2017-10-04 Общество С Ограниченной Ответственностью "Яндекс" Способ и система передачи сообщений пользовательскому электронному устройству
JP2018005091A (ja) * 2016-07-06 2018-01-11 富士通株式会社 表示制御プログラム、表示制御方法および表示制御装置
RU2636702C1 (ru) 2016-07-07 2017-11-27 Общество С Ограниченной Ответственностью "Яндекс" Способ и устройство для выбора сетевого ресурса в качестве источника содержимого для системы рекомендаций
US10387461B2 (en) 2016-08-16 2019-08-20 Google Llc Techniques for suggesting electronic messages based on user activity and other context
CN106338828A (zh) * 2016-08-31 2017-01-18 京东方科技集团股份有限公司 车载增强现实系统、方法和设备
US11047702B1 (en) * 2016-09-16 2021-06-29 Apple Inc. Tracking systems for electronic devices
US10015124B2 (en) 2016-09-20 2018-07-03 Google Llc Automatic response suggestions based on images received in messaging applications
US10511450B2 (en) 2016-09-20 2019-12-17 Google Llc Bot permissions
CN109952572B (zh) 2016-09-20 2023-11-24 谷歌有限责任公司 基于消息贴纸的建议响应
RU2642371C1 (ru) * 2016-11-06 2018-01-24 Илья Владимирович Редкокашин Способ распределения заказов
US10416846B2 (en) 2016-11-12 2019-09-17 Google Llc Determining graphical element(s) for inclusion in an electronic communication
TWI615776B (zh) * 2016-12-23 2018-02-21 李雨暹 移動物件的虛擬訊息建立方法、搜尋方法與應用系統
TWI603227B (zh) * 2016-12-23 2017-10-21 李雨暹 移動物件的虛擬訊息遠距管理方法與應用系統
USD882600S1 (en) 2017-01-13 2020-04-28 Yandex Europe Ag Display screen with graphical user interface
US10345818B2 (en) 2017-05-12 2019-07-09 Autonomy Squared Llc Robot transport method with transportation container
CN107193908B (zh) * 2017-05-12 2018-09-04 腾讯科技(深圳)有限公司 视野列表的更新方法及装置
US10891485B2 (en) 2017-05-16 2021-01-12 Google Llc Image archival based on image categories
CN107197200A (zh) * 2017-05-22 2017-09-22 北斗羲和城市空间科技(北京)有限公司 一种实现监控视频显示的方法及装置
US10348658B2 (en) 2017-06-15 2019-07-09 Google Llc Suggested items for use with embedded applications in chat conversations
US10404636B2 (en) 2017-06-15 2019-09-03 Google Llc Embedded programs and interfaces for chat conversations
EP3420889B1 (en) * 2017-06-28 2020-01-15 Vestel Elektronik Sanayi ve Ticaret A.S. Apparatus for checking the eyesight of a user
WO2019005066A1 (en) * 2017-06-29 2019-01-03 Hewlett-Packard Development Company, L.P. DETECTION OF THE DIRECTION OF A MOBILE COMPUTING DEVICE TO A VISUAL CODE
AU2018295566A1 (en) * 2017-07-04 2020-01-23 GeoInt-SafeNet Pty Ltd A system and method for automatically generating geographic specific data
US20190068880A1 (en) * 2017-08-25 2019-02-28 Rosemount Aerospace Inc. Image optimization by aircraft exterior camera system
US10382883B2 (en) * 2017-09-08 2019-08-13 Netscout Systems, Inc. Automatic calibration of geolocation analytic systems and operator network equipment parameters
RU2679200C1 (ru) * 2018-04-10 2019-02-06 ООО "Ай Ти Ви групп" Способ и система отображения данных с видеокамеры
US11164380B2 (en) * 2017-12-05 2021-11-02 Samsung Electronics Co., Ltd. System and method for transition boundaries and distance responsive interfaces in augmented and virtual reality
US10891526B2 (en) 2017-12-22 2021-01-12 Google Llc Functional image archiving
CN108319709B (zh) * 2018-02-06 2021-03-30 Oppo广东移动通信有限公司 位置信息处理方法、装置、电子设备及存储介质
WO2019159044A1 (ru) * 2018-02-19 2019-08-22 ГИОРГАДЗЕ, Анико Тенгизовна Способ размещения виртуального рекламного объекта для демонстрации его пользователю
US11429086B1 (en) * 2018-05-31 2022-08-30 Amazon Technologies, Inc. Modifying functions of computing devices based on environment
US11195336B2 (en) * 2018-06-08 2021-12-07 Vulcan Inc. Framework for augmented reality applications
US11080238B2 (en) 2018-07-31 2021-08-03 World Software Corporation System and method for interactive visual representation of metadata within a networked heterogeneous workflow environment
RU2714594C1 (ru) 2018-09-14 2020-02-18 Общество С Ограниченной Ответственностью "Яндекс" Способ и система определения параметра релевантность для элементов содержимого
RU2720952C2 (ru) 2018-09-14 2020-05-15 Общество С Ограниченной Ответственностью "Яндекс" Способ и система для создания рекомендации цифрового содержимого
RU2720899C2 (ru) 2018-09-14 2020-05-14 Общество С Ограниченной Ответственностью "Яндекс" Способ и система для определения зависящих от пользователя пропорций содержимого для рекомендации
RU2725659C2 (ru) 2018-10-08 2020-07-03 Общество С Ограниченной Ответственностью "Яндекс" Способ и система для оценивания данных о взаимодействиях пользователь-элемент
RU2731335C2 (ru) 2018-10-09 2020-09-01 Общество С Ограниченной Ответственностью "Яндекс" Способ и система для формирования рекомендаций цифрового контента
US11321411B1 (en) * 2018-12-28 2022-05-03 Meta Platforms, Inc. Systems and methods for providing content
KR102222687B1 (ko) * 2019-07-19 2021-03-04 대진기술정보 (주) 모바일앱 기반의 측량기준점 시스템
KR102605342B1 (ko) * 2019-08-06 2023-11-22 엘지전자 주식회사 오브젝트 인식 기반의 정보 제공 방법 및 장치와 이를 위한 매핑 장치
RU2757406C1 (ru) 2019-09-09 2021-10-15 Общество С Ограниченной Ответственностью «Яндекс» Способ и система для обеспечения уровня сервиса при рекламе элемента контента
WO2021062293A1 (en) * 2019-09-25 2021-04-01 Noodle Technology Inc. Augmenting reality by capturing signals using wireless radios
CN110908504B (zh) * 2019-10-10 2021-03-23 浙江大学 一种增强现实博物馆协作交互方法与系统
RU2718151C1 (ru) * 2019-10-24 2020-03-30 Общество с ограниченной ответственностью "Музеторий" Система и способ приема и обработки персонифицированных данных и передачи релевантных данных пользователю
US10777017B1 (en) * 2020-01-24 2020-09-15 Vertebrae Inc. Augmented reality presentation using a uniform resource identifier
EP4111696A1 (en) * 2020-02-28 2023-01-04 Google LLC System and method for playback of augmented reality content triggered by image recognition
US11263787B2 (en) * 2020-03-05 2022-03-01 Rivian Ip Holdings, Llc Augmented reality detection for locating autonomous vehicles
US20220178713A1 (en) * 2020-07-06 2022-06-09 Google Llc Stable Orientation Cues for Augmented Reality (AR)
US11887260B2 (en) * 2021-12-30 2024-01-30 Snap Inc. AR position indicator
US11928783B2 (en) 2021-12-30 2024-03-12 Snap Inc. AR position and orientation along a plane
US11740788B2 (en) 2022-01-18 2023-08-29 Craxel, Inc. Composite operations using multiple hierarchical data spaces
US11880608B2 (en) 2022-01-18 2024-01-23 Craxel, Inc. Organizing information using hierarchical data spaces
US11954762B2 (en) 2022-01-19 2024-04-09 Snap Inc. Object replacement system
WO2024019752A1 (en) * 2022-07-18 2024-01-25 Google Llc Systems and methods for place search in augmented reality

Family Cites Families (40)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6037936A (en) * 1993-09-10 2000-03-14 Criticom Corp. Computer vision system with a graphic user interface and remote camera control
FI97085C (fi) 1995-03-29 1996-10-10 Valtion Teknillinen Menetelmä ja kuvauslaitteisto etäisyyden määrittämiseen ja sen käyttö
US6282362B1 (en) 1995-11-07 2001-08-28 Trimble Navigation Limited Geographical position/image digital recording and display system
US5884224A (en) 1997-03-07 1999-03-16 J.R. Simplot Company Mobile mounted remote sensing/application apparatus for interacting with selected areas of interest within a field
US6222583B1 (en) 1997-03-27 2001-04-24 Nippon Telegraph And Telephone Corporation Device and system for labeling sight images
CN1262734A (zh) 1997-06-03 2000-08-09 斯蒂芬·拜德 包含方向检测器、位置检测器及数据库的便携式导航系统
KR20010071512A (ko) 1998-07-20 2001-07-28 찰스 더블유 프란즈 정전기 방지성 핸들을 포함하는 근접 치료 장치
US6173239B1 (en) 1998-09-30 2001-01-09 Geo Vector Corporation Apparatus and methods for presentation of information relating to objects being addressed
SE520822C2 (sv) 1999-02-17 2003-09-02 Telia Ab System för presentation av användaranpassad positionsberoende information på terminalutrustning
US6396475B1 (en) 1999-08-27 2002-05-28 Geo Vector Corp. Apparatus and methods of the remote address of objects
US6529827B1 (en) 1999-11-01 2003-03-04 Garmin Corporation GPS device with compass and altimeter and method for displaying navigation information
DE19957550C2 (de) 1999-11-30 2001-12-13 Bosch Gmbh Robert Navigationsgerät
US6522889B1 (en) * 1999-12-23 2003-02-18 Nokia Corporation Method and apparatus for providing precise location information through a communications network
JP2002132806A (ja) 2000-10-18 2002-05-10 Fujitsu Ltd サーバシステム及び情報提供サービスシステム並びに情報提供サービス方法
US7680324B2 (en) 2000-11-06 2010-03-16 Evryx Technologies, Inc. Use of image-derived information as search criteria for internet and other search engines
US6377793B1 (en) 2000-12-06 2002-04-23 Xybernaut Corporation System and method of accessing and recording messages at coordinate way points
US7007243B2 (en) 2000-12-20 2006-02-28 Eastman Kodak Company Method and apparatus for producing digital images with embedded image capture location icons
US7031875B2 (en) 2001-01-24 2006-04-18 Geo Vector Corporation Pointing systems for addressing objects
US8750480B2 (en) 2001-08-03 2014-06-10 Nokia Corporation Mobile browsing
US6684176B2 (en) * 2001-09-25 2004-01-27 Symbol Technologies, Inc. Three dimensional (3-D) object locator system for items or sites using an intuitive sound beacon: system and method of operation
DE10156832B4 (de) 2001-11-20 2004-01-29 Siemens Ag Verfahren und Vorrichtung zur Anzeige von Informationen
US20030218638A1 (en) 2002-02-06 2003-11-27 Stuart Goose Mobile multimodal user interface combining 3D graphics, location-sensitive speech interaction and tracking technologies
JP2003283664A (ja) 2002-03-25 2003-10-03 Nippon Telegr & Teleph Corp <Ntt> 場所案内システムおよびサーバー装置
KR100863039B1 (ko) 2002-07-15 2008-10-13 엘지전자 주식회사 이동통신 단말기를 이용한 광고 서비스 방법
US6985240B2 (en) 2002-12-23 2006-01-10 International Business Machines Corporation Method and apparatus for retrieving information about an object of interest to an observer
US7146188B2 (en) * 2003-01-31 2006-12-05 Nokia Corporation Method and system for requesting photographs
US6795768B2 (en) 2003-02-20 2004-09-21 Motorola, Inc. Handheld object selector
KR20040008241A (ko) 2004-01-05 2004-01-28 정철호 인터넷과 무선단말기를 이용한 개인의 광고 제작과 배포 시스템 및 그 방법
US7872669B2 (en) * 2004-01-22 2011-01-18 Massachusetts Institute Of Technology Photo-based mobile deixis system and related techniques
KR20040028880A (ko) 2004-02-06 2004-04-03 태준건 핸드폰 카메라를 이용한 인터렛티브 미디어 광고 기법
JP2006105640A (ja) * 2004-10-01 2006-04-20 Hitachi Ltd ナビゲーション装置
US7707239B2 (en) * 2004-11-01 2010-04-27 Scenera Technologies, Llc Using local networks for location information and image tagging
US7720436B2 (en) 2006-01-09 2010-05-18 Nokia Corporation Displaying network objects in mobile devices based on geolocation
US9451219B2 (en) 2004-12-31 2016-09-20 Nokia Technologies Oy Provision of target specific information
US20060190812A1 (en) 2005-02-22 2006-08-24 Geovector Corporation Imaging systems including hyperlink associations
TW200705338A (en) 2005-07-28 2007-02-01 David Yen Interaction advertisement board
US8933889B2 (en) 2005-07-29 2015-01-13 Nokia Corporation Method and device for augmented reality message hiding and revealing
US8849821B2 (en) 2005-11-04 2014-09-30 Nokia Corporation Scalable visual search system simplifying access to network and device functionality
US20080046320A1 (en) 2006-06-30 2008-02-21 Lorant Farkas Systems, apparatuses and methods for identifying reference content and providing proactive advertising
US20080268876A1 (en) 2007-04-24 2008-10-30 Natasha Gelfand Method, Device, Mobile Terminal, and Computer Program Product for a Point of Interest Based Scheme for Improving Mobile Visual Searching Functionalities

Also Published As

Publication number Publication date
EP3702733A1 (en) 2020-09-02
US7720436B2 (en) 2010-05-18
RU2008132293A (ru) 2010-02-20
US20130012237A1 (en) 2013-01-10
WO2007080473A8 (en) 2008-08-21
CN101379369B (zh) 2013-03-06
EP3702733B1 (en) 2024-02-21
CN101379369A (zh) 2009-03-04
US8483712B2 (en) 2013-07-09
RU2417437C2 (ru) 2011-04-27
WO2007080473A1 (en) 2007-07-19
US20070162942A1 (en) 2007-07-12
EP1971825B1 (en) 2020-07-08
PL1971825T3 (pl) 2020-10-19
KR20080084859A (ko) 2008-09-19
EP1971825A1 (en) 2008-09-24
EP1971825A4 (en) 2017-01-25

Similar Documents

Publication Publication Date Title
ES2813096T3 (es) Visualización de objetos de red en dispositivos móviles basándose en geolocalización
US8301159B2 (en) Displaying network objects in mobile devices based on geolocation
US8947457B2 (en) Method for providing information on object which is not included in visual field of terminal device, terminal device and computer readable recording medium
US8098894B2 (en) Mobile imaging device as navigator
JP5739874B2 (ja) 向きに基づいた検索システム及び方法
US9104293B1 (en) User interface points of interest approaches for mapping applications
AU2011211601B2 (en) Method for providing information on object within view of terminal device, terminal device for same and computer-readable recording medium
US20120093369A1 (en) Method, terminal device, and computer-readable recording medium for providing augmented reality using input image inputted through terminal device and information associated with same input image
US20090319178A1 (en) Overlay of information associated with points of interest of direction based data services
JP2016004571A (ja) 関心地点情報をプッシュするための方法及びシステム
Carswell et al. Mobile visibility querying for LBS
Fröhlich et al. Comparing conceptual designs for mobile access to geo-spatial information
KR20120014976A (ko) 위치 정보를 이용한 증강 현실 장치
Robinson et al. Exploring casual point-and-tilt interactions for mobile geo-blogging
Yin Mobile 2D and 3D Spatial Query Techniques for the Geospatial Web
AU2013242831B2 (en) Method for providing information on object which is not included in visual field of terminal device, terminal device and computer readable recording medium
Simon et al. Comparing conceptual designs for mobile access to geo-spatial information
Fröhlich et al. On the Move, Wirelessly Connected to the World How to experience real-world landmarks through a wave, gaze, location coordinates, or touch, prompting delivery of useful digital information.