MX2009001948A - Interfase de usuario de timbre panoramico. - Google Patents

Interfase de usuario de timbre panoramico.

Info

Publication number
MX2009001948A
MX2009001948A MX2009001948A MX2009001948A MX2009001948A MX 2009001948 A MX2009001948 A MX 2009001948A MX 2009001948 A MX2009001948 A MX 2009001948A MX 2009001948 A MX2009001948 A MX 2009001948A MX 2009001948 A MX2009001948 A MX 2009001948A
Authority
MX
Mexico
Prior art keywords
target location
map
user
media objects
media
Prior art date
Application number
MX2009001948A
Other languages
English (en)
Inventor
Eyal Ofek
Ricky Dean Welsh
Original Assignee
Microsoft Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Microsoft Corp filed Critical Microsoft Corp
Publication of MX2009001948A publication Critical patent/MX2009001948A/es

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/90Details of database functions independent of the retrieved data types
    • G06F16/95Retrieval from the web
    • G06F16/953Querying, e.g. by the use of web search engines
    • G06F16/9537Spatial or temporal dependent retrieval, e.g. spatiotemporal queries
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/20Information retrieval; Database structures therefor; File system structures therefor of structured data, e.g. relational data
    • G06F16/29Geographical information databases
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/0486Drag-and-drop

Abstract

Se describen un medio legible por computadora e interfase de usuario para presentar objeto de medios en un mapa geográfico para un usuario. Se reciben indicaciones del usuario especificando una ubicación geográfica y una dirección de vista en el mapa geográfico. Se accede a una base de datos para recuperar objetos de medios, ya sea individualmente o en una vista panorámica, que se capturó en una ubicación geográfica cerca de la ubicación objetivo. Los objetos de medios recuperados se presentan en el mapa de acuerdo con su ubicación geográfica de la ubicación objetivo. Las versiones ampliadas de cualquiera de los objetos de medios recuperados capturados en la dirección de vista de la ubicación objetivo entonces se presentan al usuario.

Description

I NTERFASE DE USUARIO DE TIMBRE PANORAMICO ANTECEDENTES El Internet se ha convetido en una herramienta crecientemente popular para localizar ubicaciones geográficas. Los servicios de mapas populares, tal como MapQuest®, presentan mapas interactivos que los usuarios pueden utilizar para localizar una ubicación específica. Al simplemente proporcionar una dirección de calle o identificar una intersección, se puede delinear rápidamente la ubicación. Mientras tales servicios proporcionan un mapa exacto, no le dicen al usuario nada sobre cómo se ve la ubicación realmente. Los servicios de mapa de hoy en día van un paso más allá de generar un mapa. Además de delinear ubicaciones, los servicios de mapa tradicionales presentan fotografías aéreas o imágenes satelitales de varias ubicaciones. Por ejemplo, servicios en línea tales como Búsqueda Local En vivo de Windows® o mapas de Google® proporcionan una vista aérea de casi cualquier ubicación en el planeta. Las vistas aéreas, sin embargo, sólo proporcionan una vista limitada de una ubicación dada, lo que dificulta entender exactamente cómo se ve. Otro servicio ilustrativo, ofrecido por A9® de Amazon o la prevista de tecnología de local en vivo de Windows®, permite a un usuario seleccionar una ubicación en un mapa dentro de una lista de ciudades y navegar a través de fotografías de esa ubicación. Las fotografías para la ubicación seleccionadas se presentan al usuario en una presentación de diapositivas. La presentación de diapositivas simplemente presenta fotografías, sin embargo, no se proporciona la dirección en donde se tomó cada fotografía o el tiempo, ángulo, o perspectiva de cada fotografía. Como un resultado, es difícil para el usuario valorar como se ve realmente la ubicación. Por ejemplo, supongamos que un usuario selecciona una intersección de dos caminos para ver. Las fotografías correspondientes asociadas con esa intersección entonces se presentarán. Pero sin saber en qué dirección se tomaron las fotografías, el usuario no puede determinar en donde se localizan los objetos ilustrados en las fotografías. En consecuencia, el usuario debe adivinar como realmente se ve la ubicación especificada de las imágenes proporcionadas. Además, las fotografías pueden no ser actuales, lo que muestran objetos en la intersección que ya no existen. O el usuario puede desear ver fotografías o la intersección desde hace años. De esa forma, los servicios de mapa de hoy en día no proporcionan tal flexibilidad, y la experiencia de usuario sufre debido a que la perspectiva de lo que se está viendo no puede determinarse de forma exacta. Además, los servicios de mapa interactivos de hoy en día no proporcionan una forma de interactuar con una imagen panorámica (360°) para que un usuario pueda determinar la ubicación real de la escena presentada por el panorama. Tradicionalmente, cuando las imágenes panorámicas se presentaron en un mapa interactivo, comúnmente se presenta con una dirección de vista específica que puede cambiarse selectivamente. Un ejemplo de tal imagen es la característica de "tour virtual" utilizado en muchos sitios web para listas de departamentos y casas. Un usuario puede interactuar con una presentación panorámica y cambiar su dirección de vista. Sin embargo esta experiencia es separada del mapa. En un caso análogo al caso de ver imágenes de lado de calle, el usuario tuvo que delinear mentalmente las imágenes, a la posición y orientación en el mapa.
BREVE DESCRIPCION DE LA INVENCION Esta breve descripción se proporciona para introducir una selección de conceptos en una forma simplificadas que además se describe posteriormente en la descripción detallada. Esta breve descripción no pretende identificar características clave o características esenciales del tema reclamado, ni pretende utilizarse como un auxiliar al determinar el alcance del tema reclamado. Las modalidades de la presente invención se dirigen a una interfase de usuario y medio legible por computadora para presentar uno o más objetos de medios relacionados con una ubicación objetivo geográfica en un mapa interactivo para un usuario. Una ubicación objetivos se indica (por ejemplo, por un usuario que selecciona un punto en el mapa que hace referencia a una ubicación geográfica) que corresponde a una ubicación geográfica en el mapa interactivo, o al percibir la posición actual del usuario, por ejemplo, con un dispositivo de Sistema de Posicionamiento Global ("GPS"). Una base de datos entonces se accede para recuperar objetos de medios o imágenes panorámicas capturadas en ubicaciones geográficas cerca de la ubicación objetivos. Una vez recuperados, los objetos de medios se colocan y presentan en el mapa interactivo en las direcciones respectivas de la ubicación objetivo en cada uno de los objetos de medios que se capturó. El usuario indica una dirección de vista de la ubicación objetivo. Las versiones ampliadas de los objetos de medios con una ubicación geográfica en la dirección de vista de la ubicación objetivo entonces se presentan. Las modalidades también se dirigen a una interfase de usuario para presentar el mapa interactivo, ubicación objetivo, dirección de vista, objetos de medio recuperados, y versión ampliada de objetos de medios en la dirección de vista.
BREVE DESCRIPCION DE LAS VARIAS VISTA DE LOS DIBUJOS La presente invención se describe en detalle posteriormente con referencia a las figuras de dibujo anexos, en donde: la Figura 1 es un diagrama de bloques de un ambiente de sistema de cómputo para usarse en la implementación de una modalidad de la presente invención; la Figura 2 es un diagrama de bloques de un ambiente en red para usarse en la implementación de una modalidad de la presente invención; las Figuras 3A-3C son presentaciones ilustrativas de una interfase de usuario para un mapa geográfico interactivo, de acuerdo con modalidades de la presente invención; las Figuras 4A-4C son presentaciones ilustrativas de una interfase de usuario para un mapa geográfico interactivo para presentar una imagen panorámica, de acuerdo con modalidades de la presente invención; la Figura 5 es un diagrama de flujo que ilustra un método para presentar objetos de medios o imágenes panorámicas a un usuario, de acuerdo con modalidades de la presente invención; y la Figura 6 es un diagrama de flujo que ilustra un método para presentar objetos de medios a un usuario, de acuerdo con modalidades de la presente invención.
DESCRIPCION DETALLADA El tema aquí descrito se presenta con la especificación para satisfacer requerimientos obligatorios. Sin embargo, la descripción aquí no pretende limitar el alcance de esta patente. En lugar de esto, se contempla que el tema reclamado también puede representarse en otras formas, para incluir diferentes pasos o combinaciones de pasos similares a los descritos en este documento, en conjunto con otras tecnologías presentes o futuras. Además, aunque los términos "paso" y/o "bloque" pueden utilizarse aquí para connotar diferentes elementos de métodos empleados, los términos no deben interpretarse como implicando cualquier orden particular entre dos o más varios pasos aquí descritos a menos y excepto cuando el orden de pasos individuales se describe explícitamente. En general, las modalidades aquí descritas se refieren a un gráfico de un medio legible por computadora e interfase de usuario para una de interactivo para presentar objetos de medios alrededor de una ubicación objetivo seleccionada. Los objetos de medios pueden describirse como cualquier forma de medio electrónico almacenado, tal como, por ejemplo, fotografías digitales, archivos de audio digitales, videos digitales, etc. Objetos de medios pueden almacenarte como cualquier archivo de imagen RAW, archivos de JPEG, archivo de TIFF, o similares. Las modalidades no deben limitarse, sin embargo, a ningún tipo particular de objeto de medios, ya que tipos numerosos son evidentes para un experto en la técnica. Al haber descrito brevemente una revisión general de las modalidades aquí descritas, posteriormente se describe un ambiente operativo ilustrativo. Haciendo referencia inicialmente a la Figura 1 en particular, un ambiente operativo ilustrativo para implementar la presente invención se muestra y designa generalmente como dispositivo de cómputo 100. El dispositivo de cómputo 100 sólo es un ejemplo de un ambiente de cómputo adecuado y no pretende sugerir ninguna limitación al alcance de uso o funcionalidad de la invención. El dispositivo de cómputo 100 tampoco debe interpretarse como teniendo ninguna dependencia o requerimiento que se relaciona con cualquiera o combinación de componentes ilustrados. En una modalidad, el dispositivo de cómputo 100 es una computadora personal. Pero en otras modalidades, el dispositivo de cómputo 100 puede ser un teléfono celular, teléfono digital, dispositivo portátil, asistente digital personal ("PDA"), u otro dispositivo capaz de ejecutar instrucciones de computadora. La invención puede describirse en el contexto general de código de computadora o instrucciones útiles por máquina, que incluyen instrucciones ejecutables por computadora tal como módulos de programa, que se ejecutan por una computadora u otra máquina, tal como un asistente de datos personal u otro dispositivo portátil. Generalmente, los módulos de programa que incluyen rutinas, programas, objetos, componentes, estructuras de datos, y similares, se refieren a código que realiza tareas particulares o implementa tipo de datos abstractos particulares. La invención puede practicarse en una variedad de configuraciones de sistema, que incluyen dispositivos portátiles, electrónica de consumidor, computadoras de propósito general, dispositivos de cómputo de más especialidad, etc. La invención también puede practicarse en ambientes de cómputo distribuidos en donde las tareas se realizan por dispositivos de procesamiento remotos que se enlazan a través de una red de comunicaciones. Con referencia continua a la Figura 1, el dispositivo de cómputo 100 incluye un conductor común 110 que directa o indirectamente se acopla a los siguientes dispositivos: memoria 112, uno o más procesadores 114, uno o más componentes de presentación 116, puertos de entrada/salida 118, componentes de entrada/salida 120, y un suministro de energía ilustrativo 122. El conductor común 110 representa lo que puede ser uno o más conductores comunes (tal como un conductor común de dirección, conductor común de datos, o combinación de los mismos). Aunque los varios bloques de la Figura 1 se muestran con líneas por claridad, en realidad, el delineado de varios componentes no está tan claro, y metafóricamente, las líneas pueden ser más exactamente grises y confusas. Por ejemplo, uno puede considerar un componente de presentación tal como un dispositivo de presentación para ser un componente de l/O. También, los procesadores tienen memoria. Se reconoce que tal es la naturaleza de la técnica, y se reitera que el diagrama de la Figura 1 simplemente es ilustrativo de un dispositivo de cómputo ilustrativo que puede utilizarse en conexión con una o más modalidades de la presente invención. La distinción no se hace entre tales categorías como "estación de trabajo", "servidor", "laptop", "dispositivo móvil", etc., ya que todos se contemplan dentro del alcance de la Figura 1 y referencia a "dispositivo de cómputo". El dispositivo de cómputo 100 típicamente incluye una variedad de medios legibles por computadora. A manera de ejemplo, y no de limitación, medios legibles por computadora pueden comprender Memoria de acceso aleatorio (RAM); Memoria de sólo lectura (ROM); Memoria de sólo lectura programable eléctricamente borrarble (EEPROM); memoria flash u otras tecnologías de memoria; CD-ROM, discos versátiles digitales (DVD) u otros medios ópticos u holográficos; cassettes magnéticos, cinta magnética, almacenamiento de disco magnético u otros dispositivos de almacenamiento magnético, onda portadora o cualquier otro medio que puede utilizarse para codificar información deseada y puede accederse por el dispositivo de cómputo 100. La memoria 112 incluye medios de almacenamiento por computadora en la forma de memoria volátil y/o no volátil. La memoria puede ser removible, no removible, o una combinación de las mismas. Dispositivos de hardware ilustrativos incluyen memoria de estado sólido, unidades duras, unidades de disco óptico, etc. El dispositivo de cómputo 100 incluye uno o más procesadores que leen datos de varias entidades tal como memoria 112 ó componentes de l/O 120. El componente(s) de presentación 116 presentan indicaciones de datos a un usuario u otro dispositivo. Los componentes de presentación ilustrativos incluyen un dispositivo de presentación, bocina, componente de impresión, componente vibrador, etc. Los puertos de l/O 118 permiten al dispositivo de cómputo 100 acoplarse lógicamente a otros dispositivos que incluyen componentes de l/O 120, algunos de los cuales pueden construirse. Componentes ilustrativos incluyen un micrófono, palanca de mandos, almohadilla de juegos, antena parabólica, escáner, impresora, dispositivo inalámbrico, etc. La Figura 2 ilustra un diagrama de bloques de una arquitectura en red para uso al implementar una modalidad de la presente invención. La arquitectura en red, generalmente referenciada por el número 200, comprende un dispositivo de cómputo de cliente 202, servidor 204, y una base de datos 208 que se comunica a través de una red 206. Se apreciará por un experto en la técnica que la arquitectura en red 200 es simplemente un ejemplo de un ambiente en red adecuado y no pretende sugerir ninguna limitación al alcance de uso o funcionalidad de la presente invención. En la arquitectura de red 200 tampoco debe interpretarse como teniendo ninguna dependencia o requerimiento relacionado con cualquier componente individual o combinación de componentes aquí ilustrados. El dispositivo de cómputo de cliente 202 puede ser cualquier tipo de dispositivo de cómputo, tal como dispositivo 100 descrito anteriormente con referencia a la Figura 1. A manera de ejemplo solamente y no de limitación, el dispositivo de cómputo de cliente 202 puede ser una computadora personal, computadora de escritorio, computadora portátil, dispositivo móvil, teléfono celular, teléfono digital, PDA, o similares. Se debe notar que la invención no se limita a la implementación en tales dispositivos de cómputo, pero puede ¡mplementarse en cualquiera de una variedad de diferentes tipos de dispositivos de cómputo. La red 206 puede incluir cualquier red de computadora o combinación de la misma. Ejemplos de redes de computadora configurables para operar como la red 206 incluyen, sin limitación, una red inalámbrica, línea terrestre, línea por cable, línea de fibra óptica, LAN, WAN, o similares. La red 206 no se limita, sin embargo, a conexiones que se acoplan a unidades de computadoras separadas. En lugar de esto, la red 206 también puede comprender subsistemas que transfieren datos entre servidores o dispositivos de cómputo. Por ejemplo, la red 206 también puede incluir una conexión de punto a punto, sistema interno de Ethernet, un conductor común de tarjeta madre, un conductor común eléctrico, una red neural, u otro sistema interno. En una modalidad en donde la red 206 comprende un ambiente en red de LAN, los componentes se conectan a la LAN a través de una interfase o adaptador de red. En una modalidad en donde la red 206 comprende un ambiente en red de WAN, los componentes utilizan un módem, u otros medios para establecer comunicaciones a través de la WAN, para comunicarse. En modalidades en donde la red 206 comprende un ambiente en red MAN, los componentes se conectan a la MAN que utilizan interfases inalámbricas o conexiones de fibra óptica. Tales ambientes en red comúnmente están ubicados en oficinas, redes de computadoras extendidas en empresa, Intranets, y/o Internet. Se apreciará que las conexiones en red mostradas son ilustrativas y pueden utilizarse también otros medios para establecer un enlace de comunicaciones entre las computadoras. El servidor 204 puede incluir cualquier tipo de servidor de aplicación, servidor de base de datos, o un servidor de archivo configurable para realizar los métodos aqui descritos. Además, el servidor 204 pueden ser un servidor dedicado o compartido. Un ejemplo, sin limitación, de un servidor que es configurable para operar como el servidor 204 es un servidor de lenguaje de consulta estructurado ("SQL") que ejecuta software del servidor tal como SQL Server 2005, que se desarrolló por Microsoft® Corporation con oficinas generales en Redmond, Washington. Los componentes de servidor 204 (no mostrados para claridad) pueden incluir, sin limitación, una unidad de procesamiento, memoria de sistema interna, y un conductor común de sistema adecuado para acoplar varios componentes de sistema, que incluye una o más bases de datos para almacenar información (por ejemplo, archivos y metadatos asociados con ésta). Cada servidor típicamente incluye, o tiene acceso a, una variedad de medios legibles por computadora. A manera de ejemplo, y no de limitación, medios legibles por computadora pueden incluir medios de almacenamiento por computadora y medios de comunicación. En general, los medios de comunicación permiten a cada servidor intercambiar datos a través de la red 206. Más específicamente, los medios de comunicación pueden representar instrucciones legibles por computadora, estructuras de datos, módulos de programa, u otros datos en una señal de datos modulada, tal como una onda portadora u otro mecanismo de transporte, y pueden incluir cualquier medio de entrega de información. Como se utiliza aquí, el término "señal de datos modulada" se refiere a una señal que tiene uno o más de sus atributos establecidos o cambiados de tal forma para codificar información en la señal. A manera de ejemplo, y no de limitación, medios de comunicación incluyen medios por cable tal como conexión de red por cable o por cable directa, y medios inalámbricos tal como medios acústicos, RF, infrarrojos, y otros inalámbricos. También pueden incluirse combinaciones de cualquiera de los anteriores dentro del alcance de medios elegibles por computadora.
Se entenderá por aquellos expertos en la técnica que la arquitectura en red 200 es simplemente ilustrativa. Mientras el servidor 204 se ilustra con un cuadro individual, un experto en la técnica apreciará que el servidor 204 es escalable. Por ejemplo, el servidor 204 puede realmente incluir 100 servidores en comunicación. Además, la base de datos 208 puede incluirse dentro del servidor 204 de un dispositivo de cómputo de cliente 202 como un medio de almacenamiento por computadora. Las ilustraciones de unidad individual son para claridad, y no limitan en alcance de las modalidades de ninguna forma. En operación, un usuario interactúa con el dispositivo de cómputo de cliente 202 a través de una interfase de usuario gráfica. En una modalidad, la interfase de usuario gráfica utiliza un navegador de web para acceder a un servicio de mapa que se ejecuta en el servidor 204. En modalidades alternativas, la interfase de usuario gráfica accede al servicio de mapa a través de una aplicación que se ejecuta en el dispositivo de cómputo de cliente 202. Por ejemplo, el servicio de mapa puede incorporarse en una aplicación tal como Pockets Streets 2008 de Microsoft®. En otras modalidades, el servidor 204 o la base de datos 208 puede implementarse en el dispositivo de cómputo de cliente 202. En tales configuraciones, no hay necesidad de la red 206. En una modalidad, el servicio de mapa es un servicio web configurado para soportar comunicación de máquina a máquina Interoperable entre el dispositivo de cómputo de cliente 202 y el servidor 204. En una modalidad alternativa, el servicio de mapa incluye una interfase de programación de aplicación ("API") configurable para acceder a la base de datos 208. Ejemplo de tales APIs incluyen, sin limitación, objetos de datos activos ("ADO"), objetos de datos remotos ("RDO"), y similares. En una modalidad alternativa, el dispositivo de cómputo de cliente 202 contiene una aplicación de cliente, el servicio de mapa y datos de mapa relevantes. Las Figuras 3A-3C ilustran presentaciones ilustrativas de una interfase de usuario para un mapa geográfico interactivo generado por el servicio de mapa, de acuerdo con modalidades de la presente invención. El mapa geográfico interactivo puede ser cualquiera presentación electrónica de ubicaciones geográficas presentadas en un dispositivo de cómputo, tal como, por ejemplo, un mapa topográfico, un mapa de camino, mapa de fotografías aéreas, mapa físico, mapa de recurso, mapa de clima, mapa oblicuo bajo, marca oblicuo alto, mapa en línea, mapa de vector, mapa de bit, mapa global, o similares. El mapa interactivo aquí descritos se presenta en el dispositivo de cómputo de cliente 202. Un usuario puede interactuar con el mapa presentado que utiliza componentes de entrada bien conocidos, tal como, por ejemplo, un ratón, palanca de mandos, aguja, pantalla táctil o similares. En operación, el servicio de mapa presenta un mapa interactivo (generalmente denominado como 300) que ilustra ubicaciones geográficas en el dispositivo de cómputo de cliente 202. El usuario puede indicar una ubicación objetivo 302 (ilustrada en la Figura 3B) en el mapa interactivo a través de varios métodos bien conocidos para aquellos expertos en la técnica. Por ejemplo, un usuario puede ingresar una dirección de calle en un campo de texto, seleccionar un punto con un indicador de ratón, acercarse y alejarse de una región que utiliza una barra de deslizamiento, seleccionar un hipervínculo de un sitio web independiente, tocar una pantalla táctil, o utilizar una seguibola. Además, la ubicación geográfica 302 puede ser cualquier ubicación geográfica en un mapa seleccionado por el usuario. Alternativamente, la ubicación objetivo 302 puede indicarse por un usuario administrativo que maneja el mapa interactivo. Por ejemplo, el usuario administrativo puede especificar múltiples puntos en un mapa que diseñan puntos de interés en una ciudad dada con objetos de medios asociados presentados alrededor de los diferentes puntos. En esa situación, cada punto de interés será una ubicación objetivo 302. Se entenderá que la ubicación objetivo 302 también puede designarse a través de otro método para manejar un sitio web o mapa interactivo bien conocido por aquellos expertos en la técnica.
Una vez indicada, la ubicación objetivo 302 se presenta en la interfase de usuario en el mapa en un área de presentación, como se indicó por el punto en la Figura 3B. Una vez que el usuario selecciona la ubicación geográfica, el servicio de mapa se configurada para recuperar objetos de medios en proximidad a la ubicación objetivo de la base de datos 208. La base de datos 208 es un medio de almacenamiento por computadora que es accesible por el servicio de mapa y configurable para almacenar objetos de medios junto con sus metadatos asociados por miles de ubicaciones geográficas. Los metadatos pueden incluir varios parámetros, tal como fecha, tiempo, titulo, ubicación, ángulo, claridad, calidad, o cualquier otra de las características distintivas. Por ejemplo, una fotografía de una marca histórica puede capturarse por una cámara digital con una funcionalidad de Sistema de Posicionamiento Global ("GPS") que geocodifica la fotografía al almacenar automáticamente información de longitud y latitud en el formato de Archivo de Imagen Intercambiable ("EXIF") dentro del archivo de fotografía. Además, los métodos adicionales para etiquetar objetos de medios con varios parámetros son bien conocidos por aquellos expertos en la técnica y pueden emplearse en modalidades alternativas. En una modalidad, el servicio de mapa entonces localiza objetos de medios almacenados en la base de datos 208 que ilustran imágenes alrededor de la ubicación objetivo 302. Tal determinación puede hacerse ai comparar los parámetros almacenados de objetos de medios capturados para valorar aquellos tomados en una ubicación en la cercanía de la ubicación objetivo 302. Por ejemplo, los parámetros de latitud y longitud de objetos de medios almacenados en la base de datos 208 que corresponden con la latitud y longitud en el mapa pueden compararse con los parámetros de latitud y longitud de la ubicación objetivo 302. En una modalidad, los objetos de medios o versiones de los objetos de medios, tal como versiones pequeñas, recuperadas de la base de datos 208 se presentan alrededor de la ubicación objetivo en el mapa interactivo de acuerdo con su orientación hacia a la ubicación objetivo 302. Por ejemplo, la Figura 3B ilustra objetos de medios 304, 306, 308, y 310, que respectivamente son imágenes de la ubicación objetivo 302 al oeste, noreste, este, y suroeste. Por consiguiente, el servicio de mapa se configura para presentar estos objetos de medios alrededor de la ubicación objetivo en la dirección en la que se tomaron con respecto a la ubicación objetivo. Por ejemplo, una fotografía por un individuo que se para en la ubicación objetivo 302 mientras el individuo va hacia el este se localizará como objeto de medios 308 en la Figura 3B. Además, los objetos de medios localizados se presentan en una o más áreas de presentación o la interfase de usuario en el mapa, como se indico en la Figura 3B de con referencia a objetos de medios 304, 306, 308, y 310. En una modalidad, el tamaño de objetos de medios 304, 306, 308 y 310 puede representar el ángulo de vista del objeto de medios. Por ejemplo, si 304 se toma por una cámara con ángulo de vista de 40°, entonces 304 se presentará en un tamaño que ilustra un ángulo de 40° de la ubicación objetivo 202. Adicionalmente, el usuario puede indicar una dirección de vista 312 (ilustrada en la Figura 3C) para organizar objetos de medios alrededor de la ubicación objetivo 302. La dirección de vista 312 puede indicarse por el usuario, en una modalidad, por un gesto individual, tal como arrastrar un indicador de ratón en una dirección específica, designar una dirección cardinal en una brújula, arrastrar una aguja a través de una pantalla táctil, revolver una rueda, seleccionar otra ubicación además de la ubicación objetivo 302, o cualquier otra tal indicación. El servicio de mapa se configura para presentar una mayor versión del objeto de medios en la dirección de vista 312 de la ubicación objetivo 302. Como se ilustra en la Figura 3C, cuando la dirección de vista 312 se designa al este, una versión mayor 314 del objeto de medios 308 se presentó en un área de presentación en la interfase de usuario. Esto permite al usuario ver objetos de medios desde una perspectiva deseada. Se apreciará que un usuario puede utilizar un gesto individual en cualquier dirección y el objeto de medios más cercano a la dirección asociada se presenta. Por ejemplo, si un usuario indica una dirección de norte de vida en la Figura 3C una versión mayor de objeto de medios 306, que está en una vista de noreste se presentará. El usuario puede desear restringir el número de objetos de medios presentados alrededor de la ubicación objetivo 302 por un parámetro específico. Por ejemplo, el usuario sólo puede desear ver las fotografías más recientes. O el usuario sólo puede desear ver imágenes de hace dos años. Alternativamente, el usuario puede desear ver imágenes tomadas en una calidad de imagen específica. En una modalidad, el servicio web proporciona opciones (no ¡lustradas en las Figura 3A-3C para claridad) - tal como una opción de menú, entrada de texto, menú de elección, o similares, para restringir objetos de medios presentados por un parámetro, tal como tiempo, calidad, claridad, ubicación, ángulo, y dirección. En operación, el servicio web utiliza los parámetros como un criterio de búsqueda adicional para buscar la base de datos 208 para objetos de medios. En consecuencia, sólo las imágenes que satisfacen los parámetros se presentan alrededor de la ubicación objetivo 302. Alternativamente, la interfase de usuario puede configurarse para presentar múltiples objetos de medios en la misma dirección de vista almacenada por el parámetro. Por ejemplo, si existen varias fotografías tomadas al este de la ubicación objetivo 302 de una calidad diferente pueden presentarse al este de la ubicación objetivo 302, y pueden ponerse en capas una sobre otra con la fotografía de cavidad superior que es el objeto de medios 308. Como se mencionó previamente, los métodos tradicionales para ver imágenes panorámicas no proporcionan un método para determinar la orientación geográfica de una escena presentada en un panorama. Por ejemplo, un usuario que ve una imagen panorámica tomada entre cuatro edificios adyacentes en un campo universitario no le dice que edificio está al norte, sur, este, u oeste. En otro ejemplo, si el usuario se permite que vea la imagen panorámica interactivamente al cambiar selectivamente la dirección de vista (tal como en un "tour virtual"), el usuario aún no puede descifrar la orientación geográfica de la imagen. En ambos ejemplos, el usuario puede ver como se ve cada edificio, pero no tiene idea en donde se localiza el edificio. Las Figuras 4A-4C son presentaciones ilustrativas de una interfase de usuario para un mapa geográfico interactivo para presentar una imagen panorámica, de acuerdo con modalidades de la presente invención. El servicio de mapa aquí descrito también es configurable para presentar imágenes panorámicas. Al hacerlo, el usuario selecciona la ubicación objetivo 302 de la misma forma como se describió previamente. El usuario también indica en una opción de menú (no mostrada para claridad) un deseo de ver una imagen panorámica 404 alrededor de la ubicación objetivo 302. El servicio web puede generar la imagen panorámica 404 alrededor de la ubicación objetivo en un número de formas bien conocidas por aquellos expertos en la técnica. Por ejemplo, la imagen panorámica 404 puede almacenarse en la base de datos 208 como una imagen panorámica con un geocódigo cerca de la ubicación objetivo 302, en cuyo caso el panorama simplemente se recupera. Tales imágenes pueden capturarse por una cámara panorámica, tal como Mark III por Panoscan®. Alternativamente, el servicio web puede construir imágenes panorámicas de una pluralidad de imágenes individuales. En una modalidad, el servicio de mapa se configura para buscar la base de datos 208 para imágenes individuales con geocódigos que indican que las imágenes rodean la ubicación objetivo 302. El servicio de mapa entonces fija cada imagen a otro para crear una imagen panorámica. Otros métodos para ensamblar o recuperar imágenes panorámicas también pueden utilizarse y se generan como se conoce por aquéllos expertos en la técnica. Haciendo referencia a la Figura 4B, una vez que la imagen panorámica se presenta al usuario, el usuario puede indicar la dirección de vista 312 de la ubicación objetivo 302 en cualquiera de las formas antes mencionadas. Como un resultado, una imagen ampliada 416 de una porción de la imagen panorámica 404 en la dirección de observación se presenta al usuario. Con referencia a la Figura 4C, el usuario también puede indicar parámetros para ver imágenes en la imagen panorámica 404. Por ejemplo, supongamos que un usuario deseó ver una imagen de un árbol ilustrado en la imagen panorámica 404 cómo se observó hace diez años. Al indicar un tiempo para ver la imagen y la dirección especificada 312, el servicio web puede localizar y presentar una imagen de hace diez años 418 del árbol 408. Se entenderá que cualquiera de los parámetros anteriores (por ejemplo, tiempo, dirección, ángulo, calidad, etc.) también puede utilizarse de la misma forma. En una modalidad, objetos de medios adicionales con diferentes parámetros pueden presentarse como porción de un anillo más allá de la imagen panorámica 404. Por ejemplo, con referencia a la Figura 4C, la imagen de hace diez años 418 se presenta como una porción de una imagen panorámica adicional más allá de la imagen panorámica 404. Esto indica al usuario que la imagen de hace diez años 418 se tomó en un tiempo diferente que la imagen panorámica 404. Un método similar para indicar objetos de medios separados de la misma ubicación pero con diferentes parámetros también pueden utilizarse aún con objetos de medios. Por ejemplo, con referencia a la Figura 3C, una fotografía tomada en un ángulo diferente al objeto de medios 308, puede presentarse además al este de la ubicación objetivo 302 que el objeto de medios 308. Alternativamente, los objetos de medios pueden presentarse alrededor de la ubicación objetivo 302 en distancias relativas a las imágenes ahí capturadas. Por ejemplo, los objetos de medios 304, 306, 308, y 310 pueden colocarse lejos de la ubicación objetivo 302 a distancias que corresponden a la distancias reales de las imágenes capturadas en los objetos de medios que yacen lejos de la ubicación objetivo 302. Como se mencionó previamente, se entenderá que cualquiera de los parámetros antes mencionados también pueden utilizarse de la misma forma. Con referencia a la Figura 5, un diagrama de flujo se ilustra al mostrar un método 500 para presentar objetos de medios o imágenes panorámicas a un usuario de acuerdo con una modalidad de la presente invención. Inicialmente, una indicación de un usuario que especifica una ubicación objetivo en un mapa geográfico se recibe, como se indica en 502. La indicación pueden enviarse, por ejemplo al seleccionar una ubicación en el mapa aleatoriamente o cuando una ubicación objetivo ya tiene objetos de medios presentados alrededor de ésta (por ejemplo, un administrador tiene puntos designados de interés para una ciudad). En una modalidad, una indicación para una imagen panorámica se recibe independientemente, como se indica en 504. Subsecuentemente, una base de datos (por ejemplo, base de datos 208) se busca con el fin de recuperar una imagen panorámica, uno o más objetos de medios, o una combinaca en 506 y 508. En una modalidad, los parámetros de los objetos de medios en la base de datos se comparan con los parámetros de la ubicación objetivo para encontrar objetos de medios en la misma proximidad. Como se mencionó previamente, tales parámetros pueden incluir ubicación geográfica, geocódigos, tiempo, datos, claridad, resolución, ángulo, etc. En otra modalidad, los objetos/imágenes de medios están alrededor de la ubicación objetivo que se encontraron al comparar la latitud y longitud de los objetos de medios en la base de datos con la latitud y longitud de la ubicación objetivo. Los objetos/imagen de medios recuperados entonces se presentan al usuario, como se indica en 510, en el mapa a través de una interfase usuario. Se colocan en el mapa para que cada objeto de medios se coloque en la dirección desde la ubicación objetivo que el objeto de medios se capturó. En una modalidad, los objetos de medios se presentaron en una forma similar a la ilustrada en la Figura 3B. En otra modalidad, se presentó una imagen panorámica recuperada en una forma similar a la ilustrada en la Figura 4A. El usuario también puede indicar una dirección de vista de la ubicación objetivo en el mapa geográfico, como se indica en 512, por un gesto. En una modalidad, el usuario arrastra un indicador de ratón en cierta dirección para indicar la dirección de vista. Alternativamente, el usuario selecciona una ubicación final en el mapa y la dirección de vista se calcula de la ubicación objetivo a la ubicación final. La dirección de vista puede indicarse por cualquiera de los gestos antes mencionados. Se entenderá por aquellos expertos en la técnica que también pueden utilizarse varios otros métodos. Después, una versión de uno o más objetos/imágenes de medios en la dirección de vista se presentan al usuario, como se indicó en 514. Con referencia a la Figura 6, se ilustra un diagrama de flujo que muestra un método 600 para presentar objetos de medios a un usuario, de acuerdo con una modalidad de la presente invención. Inicialmente, una indicación de un usuario que especifica una dirección de vista se recibe, como se indicó en 602. La dirección de vista puede indicarse por cualquiera de los métodos antes mencionados. Después, una base de datos se accede para uno o más objetos de medios capturados en la dirección especificada por usuario de la ubicación objetivo, como se indica en 604. Los objetos de medios pueden encontrarse en la base datos que utiliza cualquiera de los métodos antes mencionados, tal como comparar latitudes y longitudes de objetos de medios guardados o comparar varios otros parámetros. Una vez encontradas, versiones ampliadas de los objetos de medios se presentan al usuario en áreas de presentación de una interfase de usuario gráfica. Tales versiones pueden incluir, por ejemplo, versiones pequeñas, versiones de pantalla completa, presentaciones separadas, o cualquier otra ilustración de un objeto de medios. La presente invención se describió aquí con relación a modalidades particulares, las cuales pretenden en todos los aspectos ser ilustrativas en lugar de restrictivas. Las modalidades alternativas se volverán evidentes para aquellos expertos en la técnica a los cuales pertenece la invención sin apartarte de su alcance. A partir de lo anterior, se observará que esta invención está bien adaptada para obtener todos los fines y objetos mencionados anteriormente, junto con otras ventajas que son obvias e inherentes para el sistema y método. Se entenderá que ciertas características de subcombinaciones son de utilidad y pueden emplearse sin referencia a otras características y subcombinaciones. Esto se contempla por y está dentro del alcance de las reivindicaciones.

Claims (1)

  1. REIVINDICACIONES 1.- Una interfase de usuario gráfica representada en un medio legible por computadora y ejecutable en una computadora, dicha interfase de usuario gráfica comprende: una primer área de presentación configurada para ilustrar una ubicación objetivo en un mapa interactivo (302); y una segunda área de presentación configurada para presentar un primer objeto de medios alrededor de la ubicación objetivo (304, 306, 308, 310), en donde la segunda área de representación se coloca para que el objeto de medios se coloque en el mapa interactivo en la dirección de la ubicación objetivo en la que se capturó el objeto de medios. 2 - La interfase de usuario gráfica de acuerdo con la reivindicación 1, que además comprende una tercer área de presentación configurada para presentar un segundo objeto de medios alrededor de la ubicación geográfica, en donde la tercer área de presentación se coloca para que el segundo objeto de medios so coloque en el mapa interactivo en la dirección desde la ubicación objetivo en donde se capturó el segundo objeto de medios. 3.- La interfase de usuario gráfica de acuerdo con la reivindicación 1, que además comprende una cuarta área de presentación configurada para presentar una versión ampliada del primer objeto de medios. 4.- La interfase de usuario gráfica de acuerdo con la reivindicación 1, en donde el primer objeto de medios es una imagen fotográfica . 5. - La interfase de usuario gráfica de acuerdo con la reivindicación 4, en donde la imagen fotográfica es una imagen panorámica. 6. - Un medio legible por computadora que tiene instrucciones ejecutables por computadora para realizar pasos para presentar uno o más objetos de medios en un mapa geográfico, en donde uno o más objetos de medios se relacionan con una ubicación objetivo y dirección de vista especificada por un usuario, que comprende: recibir una indicación de un usuario especificando una dirección de vista en el mapa geográfico de la ubicación objetivo (602); acceder a una base de datos para uno o más objetos de medios que se capturaron en la dirección especificada por usuario desde la ubicación objetivo (604); y presentar uno o más objetos de medios al usuario (606). 7. - El medio legible por computadora de acuerdo con la reivindicación 6, en donde la ubicación objetivo es especificado por uno de cualquiera de una indicación del usuario o un administrador. 8. - El medio legible por computadora de acuerdo con la reivindicación 6, en donde recibir la indicación del usuario que especifica la dirección de vista en el mapa geográfico de la ubicación objetivo además comprende el usuario que arrastra un indicador de ratón en una dirección en el mapa geográfico. 9. - El medio legible por computadora de acuerdo con la reivindicación 6, que además comprende: acceder a la base de datos para al menos un objeto de medios que se capturó alrededor de la ubicación objetivo; y presentar al menos un objeto de medios alrededor de la ubicación objetivo en el mapa geográfico, en donde al menos un objeto de medios está colocado en el mapa geográfico de acuerdo con la ubicación en la cual se capturó. 10. - El medio legible por computadora de acuerdo con la reivindicación 6, que además comprende: recibir una indicación de uno o más parámetros; buscar al menos uno de uno o más objetos de medios que contiene uno o más parámetros; y presentar al menos uno de uno o más objetos de medios que contiene uno o más parámetros. 11. - El medio legible por computadora de acuerdo con la reivindicación 6, en donde acceder a la base de datos para uno o más objetos de medios además comprende buscar la base de datos para objetos de medios asignados con un geocódigo en la cercanía de la ubicación objetivo. 12. - El medio legible por computadora de acuerdo con la reivindicación 6, que además comprende: recibir una indicación de una imagen panorámica alrededor de la ubicación objetivo; localizar la imagen panorámica alrededor de la ubicación objetivo; y presentar la imagen panorámica en el mapa geográfico alrededor de la ubicación objetivo. 13. - En un sistema de computadora que tiene interfase de usuario gráfica que incluye una presentación y un dispositivo de selección de interfase de usuario, un método para proporcionar un mapa geográfico en la presentación y presentar uno o más objetos de medios relacionados con una ubicación objetivo y dirección de vista seleccionada por un usuario en el mapa geográfico, que comprende: presentar uno o más objetos de medios alrededor de una ubicación objetivo en el mapa geográfico, para que cada uno de los uno o más objetos de medios se coloque en la dirección desde la ubicación objetivo de como cada uno de uno o más objetos de medios se capturaron (510); recibir una indicación del usuario que especifica una dirección de la ubicación objetivo en el mapa geográfico (512); y presentar una versión ampliada de uno o más objetos de medios en la dirección especificada (514). 14. - El método de acuerdo con la reivindicación 13, que además comprende: recibir una indicación de uno o más parámetros; buscar al menos uno de uno o más objetos de medios que contiene uno o más parámetros; y presentar al menos uno de uno o más objetos de medios que contiene uno o más parámetros. 15.- El método de acuerdo con la reivindicación 13, que además comprende acceder a la base de datos para objetos de medios asignados con un geocódigo en la proximidad de la ubicación objetivo. 16.- El método de acuerdo con la reivindicación 13, en donde recibir la indicación del usuario que especifica la dirección de vista en el mapa geográfico de la ubicación objetivo además comprende el usuario que arrastra un indicador de ratón en una dirección en el mapa geográfico. 17.- El método de acuerdo con la reivindicación 13, en donde recibir la indicación del usuario que especifica la dirección de vista en el mapa geográfico de la ubicación objetivo además comprende el usuario que ingresa una dirección de calle en un campo de texto. 18. - El método de acuerdo con la reivindicación 13, en donde la ubicación objetivo es especificado por uno de cualquiera de una indicación del usuario o un administrador. 19. - El método de acuerdo con la reivindicación 13, en donde uno o más objetos de medios además comprende una imagen panorámica. 20.- El método de acuerdo con la reivindicación 13, que además comprende: recibir una indicación de uno o más parámetros; buscar una porción de la imagen panorámica que contiene uno o más parámetros; y presentar la porción de la imagen panorámica que contiene uno o más parámetros.
MX2009001948A 2006-08-25 2007-08-03 Interfase de usuario de timbre panoramico. MX2009001948A (es)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US11/467,532 US8453060B2 (en) 2006-08-25 2006-08-25 Panoramic ring user interface
PCT/US2007/017311 WO2008027154A1 (en) 2006-08-25 2007-08-03 Panoramic ring user interface

Publications (1)

Publication Number Publication Date
MX2009001948A true MX2009001948A (es) 2009-03-05

Family

ID=39136228

Family Applications (1)

Application Number Title Priority Date Filing Date
MX2009001948A MX2009001948A (es) 2006-08-25 2007-08-03 Interfase de usuario de timbre panoramico.

Country Status (11)

Country Link
US (1) US8453060B2 (es)
EP (1) EP2054793A4 (es)
JP (1) JP5138687B2 (es)
KR (1) KR101411038B1 (es)
CN (1) CN101506764B (es)
AU (1) AU2007290815B2 (es)
BR (1) BRPI0715347B1 (es)
CA (1) CA2658304C (es)
MX (1) MX2009001948A (es)
TW (1) TW200817958A (es)
WO (1) WO2008027154A1 (es)

Families Citing this family (54)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8701040B2 (en) * 2008-09-29 2014-04-15 Microsoft Corporation Panoramic graphical user interface
US8493408B2 (en) * 2008-11-19 2013-07-23 Apple Inc. Techniques for manipulating panoramas
US20100235078A1 (en) * 2009-03-12 2010-09-16 Microsoft Corporation Driving directions with maps and videos
JP5792424B2 (ja) * 2009-07-03 2015-10-14 ソニー株式会社 地図情報表示装置、地図情報表示方法およびプログラム
US8543917B2 (en) * 2009-12-11 2013-09-24 Nokia Corporation Method and apparatus for presenting a first-person world view of content
KR20110139375A (ko) * 2010-06-23 2011-12-29 삼성전자주식회사 위치 정보가 포함된 이미지의 디스플레이 방법 및 장치
JP5558233B2 (ja) * 2010-07-05 2014-07-23 オリンパスイメージング株式会社 撮像装置および方位設定方法
JP5853359B2 (ja) 2010-11-11 2016-02-09 ソニー株式会社 撮像装置、撮像装置の制御方法およびプログラム
US9384216B2 (en) 2010-11-16 2016-07-05 Microsoft Technology Licensing, Llc Browsing related image search result sets
US9342998B2 (en) 2010-11-16 2016-05-17 Microsoft Technology Licensing, Llc Techniques to annotate street view images with contextual information
US8908923B2 (en) * 2011-05-13 2014-12-09 International Business Machines Corporation Interior location identification
JP2013034081A (ja) 2011-08-02 2013-02-14 Sony Corp 画像処理装置、その制御方法およびプログラム
US20130106990A1 (en) 2011-11-01 2013-05-02 Microsoft Corporation Planar panorama imagery generation
US9406153B2 (en) 2011-12-14 2016-08-02 Microsoft Technology Licensing, Llc Point of interest (POI) data positioning in image
US9324184B2 (en) 2011-12-14 2016-04-26 Microsoft Technology Licensing, Llc Image three-dimensional (3D) modeling
US10008021B2 (en) 2011-12-14 2018-06-26 Microsoft Technology Licensing, Llc Parallax compensation
JP5325354B1 (ja) * 2012-02-02 2013-10-23 パナソニック株式会社 サーバー、端末装置、画像検索方法、およびプログラム
US8869058B1 (en) * 2012-05-25 2014-10-21 Google Inc. Interface elements for specifying pose information for photographs in an online map system
US9619138B2 (en) * 2012-06-19 2017-04-11 Nokia Corporation Method and apparatus for conveying location based images based on a field-of-view
US9201974B2 (en) * 2012-08-31 2015-12-01 Nokia Technologies Oy Method and apparatus for incorporating media elements from content items in location-based viewing
US8928666B2 (en) 2012-10-11 2015-01-06 Google Inc. Navigating visual data associated with a point of interest
US9171527B2 (en) * 2012-11-20 2015-10-27 Google Inc. System and method for displaying geographic imagery
US10642376B2 (en) * 2012-11-28 2020-05-05 Intel Corporation Multi-function stylus with sensor controller
CN103870145B (zh) * 2012-12-17 2017-03-01 联想(北京)有限公司 一种显示方法及电子设备
JP6009584B2 (ja) * 2012-12-26 2016-10-19 グリー株式会社 表示処理方法及び情報装置
US9063582B2 (en) 2012-12-28 2015-06-23 Nokia Technologies Oy Methods, apparatuses, and computer program products for retrieving views extending a user's line of sight
JP6548203B2 (ja) * 2013-03-18 2019-07-24 任天堂株式会社 情報処理プログラム、情報処理装置、情報処理システム、および、パノラマ動画表示方法
US10070048B2 (en) * 2013-03-26 2018-09-04 Htc Corporation Panorama photographing method, panorama displaying method, and image capturing method
EP3022712A1 (en) * 2013-07-19 2016-05-25 Hewlett Packard Enterprise Development LP Map with different degrees of overlapping geocoded pixels
US9310987B2 (en) 2013-08-19 2016-04-12 Google Inc. Projections to fix pose of panoramic photos
US20150130843A1 (en) * 2013-11-14 2015-05-14 Microsoft Corporation Lens view for map
US10598780B2 (en) * 2013-12-04 2020-03-24 Groundprobe Pty Ltd Method and system for displaying an area
US9972121B2 (en) * 2014-04-22 2018-05-15 Google Llc Selecting time-distributed panoramic images for display
USD781318S1 (en) 2014-04-22 2017-03-14 Google Inc. Display screen with graphical user interface or portion thereof
USD780777S1 (en) 2014-04-22 2017-03-07 Google Inc. Display screen with graphical user interface or portion thereof
US9934222B2 (en) 2014-04-22 2018-04-03 Google Llc Providing a thumbnail image that follows a main image
USD781317S1 (en) 2014-04-22 2017-03-14 Google Inc. Display screen with graphical user interface or portion thereof
US10120878B2 (en) * 2015-03-02 2018-11-06 Aerial Sphere, Llc User interaction event data capturing system for use with aerial spherical imagery
US10410413B2 (en) * 2015-05-29 2019-09-10 Hover Inc. Image capture for a multi-dimensional building model
EP3112986B1 (en) 2015-07-03 2020-02-26 Nokia Technologies Oy Content browsing
KR101695697B1 (ko) * 2015-07-29 2017-01-12 엘지전자 주식회사 이동 단말기 및 이의 제어방법
US9766712B2 (en) * 2016-01-14 2017-09-19 Google Inc. Systems and methods for orienting a user in a map display
CN105843541A (zh) * 2016-03-22 2016-08-10 乐视网信息技术(北京)股份有限公司 全景视频中的目标追踪显示方法和装置
US10990198B2 (en) 2016-06-30 2021-04-27 Intel Corporation Wireless stylus with grip force expression capability
KR102525575B1 (ko) * 2016-08-12 2023-04-25 삼성전자주식회사 영상 표시 장치 및 그 동작 방법
CN106446857A (zh) * 2016-09-30 2017-02-22 百度在线网络技术(北京)有限公司 全景区域的信息处理方法和装置
KR102314594B1 (ko) * 2017-03-03 2021-10-18 후아웨이 테크놀러지 컴퍼니 리미티드 이미지 디스플레이 방법 및 전자 장치
GB2569130B (en) * 2017-12-05 2020-11-04 Ali Musallam Ibrahim Method and system for sharing an item of media content
US10649550B2 (en) 2018-06-26 2020-05-12 Intel Corporation Predictive detection of user intent for stylus use
EP3588257A1 (en) * 2018-06-26 2020-01-01 ABB Schweiz AG Adaptive visualization of device symbols by computers that control a technical system
JP7378243B2 (ja) * 2019-08-23 2023-11-13 キヤノン株式会社 画像生成装置、画像表示装置および画像処理方法
JP7332445B2 (ja) * 2019-11-25 2023-08-23 パイオニア株式会社 表示制御装置、表示制御方法及び表示制御用プログラム
CN112306332B (zh) * 2020-10-29 2023-02-10 腾讯科技(深圳)有限公司 确定选中目标的方法、装置、设备及存储介质
KR102343267B1 (ko) * 2020-11-23 2021-12-23 한국항공대학교산학협력단 다중 위치에서 촬영된 비디오를 이용한 360도 비디오 서비스 제공 장치 및 방법

Family Cites Families (44)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3388779B2 (ja) * 1992-05-14 2003-03-24 株式会社日立国際電気 電子案内装置及び電子道案内装置及び自動車等運行体装置
WO1996024216A1 (en) * 1995-01-31 1996-08-08 Transcenic, Inc. Spatial referenced photography
JPH09210707A (ja) * 1996-02-02 1997-08-15 Casio Comput Co Ltd ナビゲーション装置
JPH11122638A (ja) 1997-10-15 1999-04-30 Oki Electric Ind Co Ltd 画像処理装置および画像処理方法ならびに画像処理プログラムが記録されたコンピュータ読み取り可能な情報記録媒体
JP2000193468A (ja) 1998-12-28 2000-07-14 Casio Comput Co Ltd 地図表示装置及び地図表示方法
US6388688B1 (en) 1999-04-06 2002-05-14 Vergics Corporation Graph-based visual navigation through spatial environments
US6563529B1 (en) * 1999-10-08 2003-05-13 Jerry Jongerius Interactive system for displaying detailed view and direction in panoramic images
JP3410703B2 (ja) * 2000-01-31 2003-05-26 ディー・リンク株式会社 画像表示方法
US7174301B2 (en) * 2000-10-23 2007-02-06 Costar Group, Inc. System and method for accessing geographic-based data
FI111901B (fi) * 2000-12-29 2003-09-30 Ekahau Oy Sijainnin arviointi langattomissa tietoliikenneverkoissa
JP2002251396A (ja) * 2001-02-21 2002-09-06 Mapnet Co Ltd 地理空間案内装置
JP2002281496A (ja) * 2001-03-19 2002-09-27 Sanyo Electric Co Ltd 画像表示システム、端末装置、コンピュータプログラム及び記録媒体
ES2885435T3 (es) * 2001-04-30 2021-12-13 Activemap Llc Mapa interactivo presentado electrónicamente
US7389181B2 (en) * 2004-08-31 2008-06-17 Visre, Inc. Apparatus and method for producing video drive-by data corresponding to a geographic location
US6636803B1 (en) * 2001-11-30 2003-10-21 Corus Home Realty Real-estate information search and retrieval system
JP3982273B2 (ja) 2002-02-05 2007-09-26 三菱電機株式会社 ナビゲーション装置
US7075512B1 (en) * 2002-02-07 2006-07-11 Palmsource, Inc. Method and system for navigating a display screen for locating a desired item of information
JP2003242152A (ja) 2002-02-19 2003-08-29 Sharp Corp 地図情報システム、情報処理機器、地図情報提供サーバ、地図情報提供プログラム、情報処理プログラム、および、記録媒体
US7076505B2 (en) * 2002-07-11 2006-07-11 Metrobot Llc Method, apparatus, and computer program product for providing a graphical user interface with a linear map component
US20040044571A1 (en) * 2002-08-27 2004-03-04 Bronnimann Eric Robert Method and system for providing advertising listing variance in distribution feeds over the internet to maximize revenue to the advertising distributor
US7567274B2 (en) * 2002-12-09 2009-07-28 Frank Edughom Ekpar Method and apparatus for creating interactive virtual tours
US6885939B2 (en) * 2002-12-31 2005-04-26 Robert Bosch Gmbh System and method for advanced 3D visualization for mobile navigation units
US7526718B2 (en) * 2003-04-30 2009-04-28 Hewlett-Packard Development Company, L.P. Apparatus and method for recording “path-enhanced” multimedia
US7475060B2 (en) * 2003-05-09 2009-01-06 Planeteye Company Ulc Browsing user interface for a geo-coded media database
KR100703444B1 (ko) * 2003-06-03 2007-04-03 삼성전자주식회사 네비게이션 시스템에서 위치 정보에 관련된 영상의 다운로드 및 표시 장치 및 방법
US7467356B2 (en) * 2003-07-25 2008-12-16 Three-B International Limited Graphical user interface for 3d virtual display browser using virtual display windows
EP1531322A3 (en) * 2003-11-13 2007-09-05 Matsushita Electric Industrial Co., Ltd. Map display apparatus
US8042056B2 (en) * 2004-03-16 2011-10-18 Leica Geosystems Ag Browsers for large geometric data visualization
CN103398718B (zh) * 2004-03-23 2017-04-12 咕果公司 数字地图描绘系统
JP4424031B2 (ja) * 2004-03-30 2010-03-03 株式会社日立製作所 画像生成装置、システムまたは画像合成方法。
US7623045B2 (en) * 2004-04-21 2009-11-24 Mitsubishi Electric Corporation Facility display unit
JP2006072068A (ja) 2004-09-03 2006-03-16 Zenrin Co Ltd 地図表示制御装置
US7441201B1 (en) * 2004-10-19 2008-10-21 Sun Microsystems, Inc. Method for placing graphical user interface components in three dimensions
US7298378B1 (en) * 2004-12-13 2007-11-20 Hagenbuch Andrew M Virtual reality universe realized as a distributed location network
JP4247684B2 (ja) 2005-01-19 2009-04-02 ソニー株式会社 地図表示装置及び地図表示方法
AU2005200888B2 (en) * 2005-02-28 2009-01-08 Canon Kabushiki Kaisha Visualising camera position in recorded video
US7353114B1 (en) * 2005-06-27 2008-04-01 Google Inc. Markup language for an interactive geographic information system
US20070038945A1 (en) * 2005-08-10 2007-02-15 Miller Jacob J System and method allowing one computer system user to guide another computer system user through a remote environment
US7884849B2 (en) * 2005-09-26 2011-02-08 Objectvideo, Inc. Video surveillance system with omni-directional camera
US7823068B2 (en) * 2006-02-28 2010-10-26 Mark Anthony Ogle Cowtan Internet-based, dual-paned virtual tour presentation system with orientational capabilities and versatile tabbed menu-driven area for multi-media content delivery
WO2007115273A2 (en) * 2006-03-31 2007-10-11 Geospot, Inc. Methods for interaction, sharing, and exploration over geographical locations
WO2007146967A2 (en) * 2006-06-12 2007-12-21 Google Inc. Markup language for interactive geographic information system
US7990394B2 (en) * 2007-05-25 2011-08-02 Google Inc. Viewing and navigating within panoramic images, and applications thereof
US8515207B2 (en) * 2007-05-25 2013-08-20 Google Inc. Annotations in panoramic images, and applications thereof

Also Published As

Publication number Publication date
BRPI0715347A8 (pt) 2017-01-17
EP2054793A1 (en) 2009-05-06
CA2658304A1 (en) 2008-03-06
BRPI0715347A2 (pt) 2013-06-18
KR20090047487A (ko) 2009-05-12
AU2007290815B2 (en) 2011-09-15
JP5138687B2 (ja) 2013-02-06
CN101506764B (zh) 2013-10-30
AU2007290815A1 (en) 2008-03-06
BRPI0715347B1 (pt) 2019-06-18
CA2658304C (en) 2015-02-03
TW200817958A (en) 2008-04-16
EP2054793A4 (en) 2010-04-07
JP2010501931A (ja) 2010-01-21
CN101506764A (zh) 2009-08-12
US8453060B2 (en) 2013-05-28
KR101411038B1 (ko) 2014-06-27
US20080066000A1 (en) 2008-03-13
WO2008027154A1 (en) 2008-03-06

Similar Documents

Publication Publication Date Title
US8453060B2 (en) Panoramic ring user interface
US8447787B2 (en) System and method for geocoding content
US9020529B2 (en) Computer based location identification using images
US7933929B1 (en) Network link for providing dynamic data layer in a geographic information system
US20070173956A1 (en) System and method for presenting geo-located objects
US20110131500A1 (en) System and method of providing enhanced listings
US20090010491A1 (en) Method and apparatus for providing picture file
US20180112996A1 (en) Point of Interest Selection Based on a User Request
WO2010075155A2 (en) Method and system for searching for information pertaining target objects
CN112236764A (zh) 数字制图的视口外位置指示
Beeharee et al. Exploiting real world knowledge in ubiquitous applications
US10521943B1 (en) Lot planning
EP3488355A1 (en) Point of interest selection based on a user request
KR100563085B1 (ko) 수치지도와 사진영상의 복합 디스플레이 방법
Yan et al. Design and implementation of a mobile gis for field data collection
Baldauf et al. A device-aware spatial 3D visualization platform for mobile urban exploration
Baldauf et al. A lightweight 3d visualization approach for mobile city exploration

Legal Events

Date Code Title Description
FC Refusal