MX2007015348A - Dispositivo de navegacion con informacion de camara. - Google Patents

Dispositivo de navegacion con informacion de camara.

Info

Publication number
MX2007015348A
MX2007015348A MX2007015348A MX2007015348A MX2007015348A MX 2007015348 A MX2007015348 A MX 2007015348A MX 2007015348 A MX2007015348 A MX 2007015348A MX 2007015348 A MX2007015348 A MX 2007015348A MX 2007015348 A MX2007015348 A MX 2007015348A
Authority
MX
Mexico
Prior art keywords
camera
navigation device
navigation
directions
screen
Prior art date
Application number
MX2007015348A
Other languages
English (en)
Inventor
Pieter Andreas Geelen
Marc Daniel Mattu
Original Assignee
Tomtom Int Bv
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tomtom Int Bv filed Critical Tomtom Int Bv
Publication of MX2007015348A publication Critical patent/MX2007015348A/es

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3626Details of the output of route guidance instructions
    • G01C21/3647Guidance involving output of stored or live camera images or video streams

Abstract

La presente invencion se refiere a un dispositivo (10) de navegacion. El dispositivo (10) de navegacion se dispone para visualizar direcciones (3, 4, 5) de navegacion en una pantalla (18). El dispositivo (10) de navegacion ademas se dispone para recibir una alimentacion de una camara (24). El dispositivo (10) de navegacion ademas se dispone para visualizar una combinacion de una imagen de camara de la alimentacion de la camara (24) y las direcciones (3, 4, 5) de navegacion en la pantalla (18).

Description

DISPOSITIVO DE NAVEGACIÓN CON INFORMACIÓN DE CÁMARA CAMPO DE LA INVENCIÓN La presente invención se refiere a un dispositivo de navegación, el dispositivo de navegación siendo dispuesto para visualizar direcciones de navegación en una pantalla. También, la presente invención se refiere a un vehículo que comprende un dispositivo de navegación, y a un método para proporcionar direcciones de navegación. Además, la presente invención se refiere a un programa de cómputo y un portador de datos .
ESTADO DE LA TÉCNICA Los dispositivos de navegación de la técnica anterior basados en GPS (Sistema de Posicionamiento Global) se conocen bien y se emplean ampliamente como sistemas de navegación en autos. Tal dispositivo de navegación basado en GPS se refiere a un dispositivo de cómputo con una conexión funcional en un receptor de GPS externo (interno) que es capaz de determinar su posición global. Además, el dispositivo de cómputo es capaz de determinar una ruta entre las direcciones de inicio y de destino, las cuales pueden ingresarse por un usuario del dispositivo de cómputo.
Típicamente, el dispositivo de cómputo es habilitado por software para calcular una ruta "mejor" u "óptima" entre las ubicaciones de dirección de inicio y de destino de una base de datos de mapas. Una ruta "mejor" u "óptima" se determina en la base de los criterios predeterminados y no necesita ser necesariamente la ruta más rápida o más corta. El dispositivo de navegación típicamente puede montarse en el tablero de un vehículo, pero también puede formarse como parte de una computadora a bordo del vehículo o la radio del automóvil. El dispositivo de navegación también puede ser (parte de) un sistema portátil, tal como un PDA. Al utilizar información posicional derivada del receptor de GPS, el dispositivo de cómputo puede determinar a intervalos regulares su posición y puede visualizar la posición actual del vehículo para el usuario. El dispositivo de navegación también comprende dispositivos de memoria para almacenar datos de mapas y una pantalla para visualizar una porción seleccionada de los datos de mapas. También, puede proporcionar instrucciones sobre cómo navegar la ruta determinada por direcciones de navegación apropiadas visualizadas en la pantalla y/o generadas como señales audibles de un altavoz (por ejemplo, 'en 100 m vuelta a la izquierda'). Gráficas que representan las acciones que van a lograrse (por ejemplo, una flecha a la izquierda que indica una vuelta a la izquierda más adelante) puede visualizarse en una barra de estado y también puede superponerse sobre desviaciones/vueltas aplicables, etc.; en el mapa mismo. Se sabe que habilitar sistemas de navegación en automóviles para permitir que el conductor, mientras conduce en un automóvil a lo largo de una carretera calculada por el sistema de navegación, inicie un recálculo de ruta. Esto es útil donde el vehículo se enfrenta con una obra de construcción o congestionamiento pesado. También se sabe permitir que un usuario elija el tipo de algoritmo de cálculo de ruta desplegado por el dispositivo de navegación, seleccionado por ejemplo de un modo 'Normal' y un modo 'Rápido' (el cual calcula la ruta en el tiempo más corto, pero no explora tantas rutas alternativas como el modo Normal) . También se sabe permitir que una ruta sea calculada con criterios definidos por el usuario; por ejemplo, el usuario puede preferir que se calcule una ruta escénica por el dispositivo. El software de dispositivo entonces puede calcular varias rutas y ponderar más favorablemente aquellas que incluyen a lo largo de su ruta el número más alto de puntos de interés (conocidos como POI) indicados por ejemplo, como siendo de belleza escénica. En la técnica anterior, los dispositivos de navegación visualizan mapas que son, como la mayoría de los mapas, una representación altamente estilizada o esquemática del mundo real. Muchas personas encuentran difícil traducir esta versión bastante abstracta del mundo real en algo que puede reconocerse y entenderse fácilmente. Se conocen dispositivos de navegación que visualizan una proyección (semi) tridimensional del mapa, como puede observarse desde arriba y/o detrás del vehículo. Esto se hace para hacer más fácil que el usuario interprete los datos de mapas visualizados, como corresponde a la percepción visual del mundo por el usuario. Sin embargo, tal vista en (semi) perspectiva es una representación estilizada o esquemática que aún es relativamente difícil de interpretarse por usuarios . Incluso la necesidad de permitir que personas sigan fácil y rápidamente direcciones que se muestran en la pantalla es especialmente aguda en un sistema de navegación personal, tal como puede utilizarse en un sistema de navegación en automóvil. Se entenderá que un conductor de un vehículo debe pasar tan poco tiempo como sea posible observando e interpretando los datos de mapas visualizados, ya que su atención principal debe enfocarse en la carretera y el tráfico.
BREVE DESCRIPCIÓN DE LA INVENCIÓN Por lo tanto, es un objeto de la invención proporcionar un dispositivo de navegación que solucione por lo menos uno de los problemas antes mencionados y visualice instrucciones para el usuario permitiendo una interpretación fácil . Para poder obtener este objeto, la invención proporciona un dispositivo de navegación de acuerdo con el preámbulo, caracterizado porque el dispositivo de navegación además se dispone para recibir una alimentación de una cámara y el dispositivo de navegación se dispone para visualizar una combinación de una imagen de la cámara con la alimentación de la cámara y las direcciones de navegación en la pantalla. Al superponer o combinar direcciones de navegación en una imagen de cámara, una vista amigable con el usuario se presenta al conductor lo cual permite una interpretación fácil y rápida. No existe necesidad de que el usuario traduzca una representación abstracta del mundo real debido a que la imagen de la cámara es una representación de uno a uno de la visión de la vida real como la ve el usuario. La combinación de la alimentación de la cámara y las direcciones de navegación podría ser todo tipo de combinaciones, tales como superposición de una sobre la otra, que se muestra simultáneamente sobre diferentes partes de la pantalla. La combinación sin embargo también puede ser una combinación en tiempo, es decir, que muestra alternamente la alimentación de la cámara y las direcciones de navegación. Esto puede cambiarse después de un intervalo de tiempo predeterminado (por ejemplo, 5 segundos) o puede cambiarse como resultado de una entrada por el usuario. De acuerdo con una modalidad adicional, la invención se refiere a un dispositivo de navegación, donde la cámara se forma integralmente con el dispositivo de navegación. Tal dispositivo de navegación no requiere de una alimentación de cámara externa. El dispositivo de navegación, por ejemplo, puede montarse simplemente en un tablero de un vehículo de tal manera que la cámara proporciona una imagen a través de la pantalla frontal. De acuerdo con una modalidad adicional, la invención se refiere a un dispositivo de navegación donde las direcciones de navegación son una o más de flecha de posición, ruta, flecha, puntos de interés, carreteras, edificios, datos de mapas tales como datos de vector, almacenados en por lo menos una unidad de memoria, tal como un disco duro, una Memoria de Sólo Lectura, Memoria de Sólo Lectura Eléctricamente Borrable y Programable y una Memoria de Acceso Aleatorio. Todo tipo de direcciones de navegación puede visualizarse. Se observa que estas direcciones de navegación también pueden proporcionar información que de por sí no se necesitan para navegación (encontrar una ruta) , pero también pueden proporcionar información adicional al usuario. De acuerdo con una modalidad adicional, la invención se refiere a un dispositivo de navegación que se dispone además para superponer las direcciones de navegación sobre la imagen de la cámara de tal manera que la posición de las direcciones de navegación está en una relación espacial predefinida con respecto a las partes correspondientes de la imagen de la cámara. Esto proporciona al usuario con una imagen que puede interpretarse muy fácil, ya que todas las direcciones de navegación pueden visualizarse de tal manera que concuerden con la posición actual del elemento correspondiente en la imagen de la cámara. Por ejemplo, una flecha que indica una vuelta a la derecha puede superponerse sobre la imagen de la cámara de tal manera que concuerde con la vuelta que es visible en la imagen de la cámara. De acuerdo con una modalidad adicional, la invención se refiere a un dispositivo de navegación, donde el dispositivo de navegación comprende una unidad de procesamiento, un dispositivo de posicionamiento y sensores de orientación, el dispositivo de posicionamiento y los sensores de orientación se disponen para comunicarse con la unidad de procesamiento, la unidad de procesamiento se dispone para utilizar lecturas del dispositivo de posicionamiento y los sensores de orientación para calcular una posición y una orientación de la cámara y/o el dispositivo de navegación, basándose en qué posición de las direcciones de navegación en la pantalla se calcula por la unidad de procesamiento. Saber la posición exacta y la orientación de la cámara y/o el dispositivo de navegación permite una superposición más exacta de las direcciones de navegación sobre la alimentación de la cámara. De acuerdo con una modalidad adicional, la invención se refiere a un dispositivo de navegación, donde el dispositivo de posicionamiento determina una ubicación geográfica, utilizando tecnología de detección de posición, tal como GPS, el sistema Europeo Galileo o cualquier otro sistema satelital de navegación global, o tecnología de detección de posición basada en balizas terrestres. De acuerdo con una modalidad adicional, la invención se refiere a un dispositivo de navegación, donde la unidad de procesamiento calcula la orientación de la cámara con respecto a un primer eje de rotación que en uso es sustancialmente vertical, al comparar las posiciones de la cámara y/o el dispositivo de navegación determinadas por el dispositivo de posicionamiento en puntos subsecuentes en el tiempo. Al comparar las posiciones de la cámara y/o el dispositivo de navegación en puntos subsecuentes en el tiempo, la dirección de viaje de la cámara y/o el dispositivo de navegación puede calcularse. A partir de esto, la orientación y el cambio de orientación de la cámara pueden calcularse. De acuerdo con una modalidad adicional, la invención se refiere a un dispositivo de navegación, donde el dispositivo de navegación comprende una brújula que proporciona lecturas de brújula a la unidad de procesamiento, la unidad de procesamiento se dispone para calcular la orientación de la cámara con respecto al primer eje de rotación que en uso es sustancialmente vertical, basándose en las lecturas de la brújula. Una brújula proporciona una forma fácil y ventajosa para determinar la orientación de la cámara . De acuerdo con una modalidad adicional, la invención se refiere a un dispositivo de navegación, donde los sensores de orientación comprenden sensores de inclinación para determinar la orientación de la cámara con respecto al segundo y tercer ejes de rotación, el segundo y tercer ejes de rotación en uso son sustancialmente horizontales, para poder combinar o superponer las direcciones de navegación en una forma más precisa con respecto a la imagen de la cámara, la orientación de rotación de la cámara se mide con respecto a una segunda y/o tercera dirección. De acuerdo con una modalidad adicional, la invención se refiere a un dispositivo de navegación, donde la unidad de procesamiento utiliza técnicas de reconocimiento de patrones para superponer las direcciones de navegación sobre la imagen de la cámara de tal manera que la posición de las direcciones de navegación está en una relación espacial predefinida con respecto a las partes correspondientes de la imagen de la cámara. Al utilizar las técnicas de reconocimiento de patrones, las direcciones de navegación pueden combinarse y/o superponerse sobre la alimentación de la cámara sin saber la orientación exacta de la cámara. Determinar la posición de las direcciones de navegación sobre la imagen de la cámara visualizada puede hacerse solamente al utilizar técnicas de reconocimiento de patrones, pero las técnicas de reconocimiento de patrones también pueden utilizarse en combinación con una orientación determinada de la cámara, para incrementar adicionalmente la precisión. De acuerdo con una modalidad adicional, la invención se refiere a un dispositivo de navegación, donde el dispositivo de navegación utiliza datos de mapa como entrada para las técnicas de reconocimiento de patrones. Al utilizar datos de mapas se pueden simplificar las técnicas de reconocimiento de patrones, ya que es más fácil reconocer por ejemplo una carretera, cuando se conoce más o menos donde está la carretera a partir de los datos de mapas. Esto hace al reconocimiento de patrones más preciso y/o puede ahorrar tiempo de cálculo. De acuerdo con una modalidad adicional, la invención se refiere a un dispositivo de navegación, donde el dispositivo de navegación se dispone para recibir correcciones de calibración, para almacenar estas correcciones de calibración, y para aplicar las correcciones de calibración cuando se combinan las direcciones de navegación y la imagen de la cámara. Ésta es una ventaja particular cuando las direcciones de navegación se combinan de tal manera que las direcciones de navegación se superponen sobre la imagen de la cámara para tener una relación espacial predefinida con respecto a la imagen de la cámara. Las correcciones de calibración pueden utilizarse para ocultar errores de desplazamiento. De acuerdo con una modalidad adicional, la invención se refiere a un dispositivo de navegación, donde el dispositivo de navegación se dispone para recibir o leer en la cámara ajustes y utilizar los ajustes de la cámara para calcular la posición de las direcciones de navegación en la pantalla. Diferentes ajustes de la cámara pueden resultar en diferentes alimentaciones de la cámara. Proporcionar al dispositivo de navegación con estos ajustes de la cámara incrementa adicionalmente la precisión de la combinación de las direcciones de navegación con la imagen de la cámara. De acuerdo con una modalidad adicional, la invención se refiere a un dispositivo de navegación, donde el dispositivo de navegación se dispone además para recibir alimentaciones de más de una cámara, y el dispositivo de navegación se dispone para seleccionar una de las alimentaciones para visualizarse en la pantalla. Más de una de las alimentaciones de la cámara, proporciona diferentes perspectivas, por ejemplo puede utilizarse por las técnicas de reconocimiento de patrones para incrementar la calidad del reconocimiento de patrones utilizando matemáticas. Más de una cámara también puede utilizarse para proporcionar al usuario con la opción de elegir entre diferentes ángulos de cámara. De acuerdo con una modalidad adicional, la invención se refiere a un dispositivo de navegación, donde la cámara es sensible a la radiación electromagnética fuera del margen del espectro electromagnético que es visible por el ojo humano. De acuerdo con una modalidad adicional, la invención se refiere a un dispositivo de navegación, donde la cámara es una cámara infrarroja. Tal cámara permite el uso del dispositivo de navegación en la noche. De acuerdo con una modalidad adicional, la invención se refiere a un dispositivo de navegación, donde la cámara se dispone para alejar y acercar mediante zoom. Esto permite al usuario ajustar la vista de la cámara de acuerdo con sus preferencias. De acuerdo con una modalidad adicional, la invención se refiere a un dispositivo de navegación, donde la cámara se dispone para alejar o acercar mediante zoom dependiendo de por ejemplo, la necesidad del dispositivo de navegación/vehículo. Esto proporciona una alimentación de cámara que se ajusta automáticamente a la velocidad del dispositivo de navegación. De esta manera, en caso de que la velocidad del dispositivo de navegación sea relativamente elevada, la cámara puede acercar mediante zoom para dar al usuario una mejor vista más adelante. De acuerdo con un aspecto adicional, la invención se refiere a un tablero, que comprende un dispositivo de navegación de acuerdo con lo anterior. De acuerdo con un aspecto adicional, la invención se refiere a un vehículo, que comprende un dispositivo de navegación de acuerdo con lo anterior. De acuerdo con una modalidad adicional, la invención se refiere a un vehículo, donde el vehículo comprende un sensor de inclinación de vehículo para determinar la inclinación del vehículo, proporcionar lecturas de inclinación del vehículo al dispositivo de navegación. Ésta es una forma ventajosa para medir la inclinación del vehículo . De acuerdo con un aspecto adicional, la invención se refiere a un método para proporcionar direcciones de navegación, el método comprende: visualizar direcciones de navegación en una pantalla, caracterizado porque, el método además comprende: - recibir una alimentación de una cámara y - visualizar una combinación de una imagen de la cámara de la alimentación de la cámara y las direcciones de navegación sobre la imagen de la cámara en la pantalla. De acuerdo con un aspecto adicional, la invención se refiere a un programa de cómputo, cuando se carga en una disposición de computadora, dispuesto para realizar el método anterior. De acuerdo con un aspecto adicional, la invención se refiere a un portador de datos, que comprende un programa de cómputo como se describe en lo anterior.
BREVE DESCRIPCIÓN DE LOS DIBUJOS Modalidades de la invención ahora se describirán por medio del ejemplo solamente, con referencia a los dibujos esquemáticos anexos en los cuales símbolos de referencia correspondientes indican partes correspondientes, y en los cuales: la Figura 1 representa esquemáticamente un diagrama de bloque esquemático de un dispositivo de navegación, la Figura 2 representa esquemáticamente una vista esquemática de un dispositivo de navegación, la Figura 3 representa esquemáticamente un diagrama de bloque esquemático de un dispositivo de navegación de acuerdo con la modalidad de la invención, la Figura 4 representa esquemáticamente un vehículo que comprende un dispositivo de navegación de acuerdo con una modalidad de la invención, la Figura 5 representa esquemáticamente un dispositivo de navegación de acuerdo con una modalidad de la invención, - la Figura 6 representa esquemáticamente un dispositivo de navegación de acuerdo con una modalidad de la invención, la Figura 7 representa esquemá icamente una cámara de acuerdo con una modalidad de la invención, - la Figura 8a y la Figura 8b representan esquemáticamente diferentes movimientos de la imagen de la cámara en la pantalla como resultado de las diferentes inclinaciones de la cámara, la Figura 9 representa esquemáticamente un diagrama de flujo de la funcionalidad del dispositivo de navegación de acuerdo con una modalidad de la invención, la Figura 10 representa esquemáticamente un dispositivo de navegación de acuerdo con una modalidad de la invención, - la Figura 11 representa un dispositivo de navegación de acuerdo con una modalidad de la invención, y la Figura 12 representa un dispositivo de navegación de acuerdo con una modalidad adicional de la invención.
DESCRIPCIÓN DETALLADA DE LA INVENCIÓN La Figura 1 muestra un diagrama de bloque esquemático de una modalidad de un dispositivo 10 de navegación, que comprende una unidad 11 procesadora para realizar operaciones aritméticas. La unidad 11 procesadora se dispone para comunicarse con las unidades de memoria que almacenan instrucciones y datos, tales como un disco 12 duro, una Memoria 13 de Sólo Lectura (ROM) , Memoria 14 de Sólo Lectura Eléctricamente Borrable y Programable (EEPROM) y una Memoria 15 de Acceso Aleatorio (RAM) . Las unidades de memoria pueden comprender datos 22 de mapas. Estos datos de mapas pueden ser datos de mapas bidimensionales (latitud y longitud) , pero también pueden comprender tridimensionales (altura) . Los datos de mapas además pueden comprender información adicional tal como información sobre estaciones de petróleo/gas, puntos de interés. Los datos de mapas también pueden comprender información sobre la forma de los edificios y los objetos a lo largo de la carretera. La unidad 11 procesadora también puede disponerse para comunicarse con uno o más dispositivos de entrada, tal como un teclado 16 y un ratón 17. El teclado 16 por ejemplo puede ser un teclado virtual, proporcionado en una pantalla 18, que es una pantalla digital. La unidad 11 procesadora además puede disponerse para comunicarse con uno o más dispositivos de salida, tal como una pantalla 18, un altavoz 19 y una o más unidades 19 de lectura para leer por ejemplo discos 20 flexibles o CD-ROM 21. La pantalla 18 podría ser una pantalla de cómputo convencional (por ejemplo, LCD) o podría ser una pantalla de tipo proyección, tal como la pantalla tipo aérea utilizada para proyectar datos de instrumentos en un parabrisas o cristal frontal del vehículo. La pantalla 18 también puede ser una pantalla dispuesta para funcionar como una pantalla digital, la cual permite al usuario ingresar instrucciones y/o información al tocar la pantalla 18 con sus dedos. La unidad 11 procesadora además puede disponerse para comunicarse con otros dispositivos de cómputo o dispositivos de comunicación utilizando un dispositivo 25 de entrada/salida. El dispositivo 25 de entrada/salida se muestra para disponerse en comunicación de equipo mediante una red 27. El altavoz 29 puede formarse como parte del dispositivo 10 de navegación. En caso de que el dispositivo 10 de navegación se utilice como un dispositivo de navegación en automóvil, el dispositivo 10 de navegación puede utilizar altavoces de la radio del automóvil, la computadora a bordo y similares . La unidad 11 procesadora además puede disponerse para comunicarse con un dispositivo 23 de posicionamiento, tal como un receptor de GPS, que proporciona información sobre la posición del dispositivo 10 de navegación. De acuerdo con esta modalidad, el dispositivo 23 de posicionamiento es un dispositivo 23 de posicionamiento de GPS. Sin embargo, se entenderá que el dispositivo 10 de navegación puede implementar cualquier tipo de tecnología de detección de posición y no se limita a GPS. Por lo tanto, puede implementarse utilizando otros tipos de GNSS (sistema satelital de navegación global) tal como el sistema Europeo Galileo. Igualmente, no se limita a sistemas de ubicación/velocidad basados en satélites ya que pueden desplegarse igualmente utilizando balizas terrestres o cualquier otro tipo de sistema que permita al dispositivo determinar su ubicación geográfica. Sin embargo, se debe entender que pueden proporcionarse más unidades de memoria y/u otras, dispositivos de entrada y dispositivos de lectura conocidos por personas con experiencia en la técnica. Además, uno o más de los mismos pueden localizarse físicamente alejados de la unidad 11 procesadora, si se requiere. La unidad 11 procesadora se muestra como una caja, sin embargo, puede comprender varias unidades de procesamiento que funcionan en paralelo o se controlan por un procesador principal que puede localizarse alejado uno del otro, como se conoce por personas con experiencia en la técnica. El dispositivo 10 de navegación se muestra como un sistema de cómputo, pero puede ser cualquier sistema de procesamiento de señales con tecnología análoga y/o digital y/o de software dispuesta para realizar las funciones descritas aquí. Se entenderá que aunque el dispositivo 10 de navegación se muestra en la Figura 1 como una pluralidad de componentes, el dispositivo 10 de navegación puede formarse como un dispositivo sencillo. El dispositivo 10 de navegación puede utilizar software de navegación, tal como el software de navegación de TomTom B.V. llamado Navigator. El software Navigator puede ejecutarse en un dispositivo de PDA impulsado por Pocket PC de pantalla digital (es decir, controlado por estilete) , tal como la Compaq iPaq, así como dispositivos que tienen un receptor 23 de GPS integral. El sistema receptor de PDA y GPS combinados se diseña para utilizarse como un sistema de navegación en el vehículo. La invención también puede implementarse en cualquier otra disposición del dispositivo de navegación, tal como uno con un receptor/computadora/pantalla de GPS integral, o un dispositivo no diseñado para su utilización en vehículo (por ejemplo, para peatones) o vehículos diferentes a automóviles (por ejemplo, aeronaves) . La Figura 2 representa un dispositivo 10 de navegación como se describe en lo anterior. El software Navigator, cuando se ejecuta en el dispositivo 10 de navegación, provoca que un dispositivo 10 de navegación visualice una pantalla de modo de navegación normal en la pantalla 18, como se muestra en la Figura 2. Esta vista puede proporcionar instrucciones de conducción utilizando una combinación de texto, símbolos, guía de voz y un mapa de movimientos. Elementos de interfaz de usuario clave son los siguientes: un mapa 3D ocupa la mayor parte de la pantalla. SE observa que el mapa también puede mostrarse como un mapa 2D. El mapa muestra la posición del dispositivo 10 de navegación y sus alrededores inmediatos, girado de tal manera que la dirección en la cual el dispositivo 10 de navegación se está moviendo siempre está "hacia arriba" . Corriendo a través de la cuarta parte de la parte inferior de la pantalla pueden encontrarse una barra 2 de estado. La ubicación actual del dispositivo 10 de navegación (ya que el dispositivo 10 de navegación se determina así mismo utilizando hallazgo de ubicación de GPS convencional) y su orientación (como inferida a partir de su dirección de viaje) se representa por una flecha 3 de posición. Una ruta 4 calculada por el dispositivo (utilizando algoritmos de cálculo de rutas almacenados en los dispositivos 11, 12, 13, 14, 15 de memoria como aplicados a los datos de mapas almacenados en una base de datos de mapas en los dispositivos 11, 12, 13, 14, 15 de memoria) se muestran como trayectoria oscurecida. En la ruta 4 todas las acciones principales (por ejemplo, dar vuelta en las esquinas, intersecciones, glorietas, etc.), se representan esquemáticamente por las flechas 5 que yacen sobre la ruta 4. La barra 2 de estado también incluye en su lado izquierdo un icono esquemático que representa la siguiente acción 6 (aquí, una vuelta a la derecha) . La barra 2 de estado también muestra la distancia hacia la siguiente acción (es decir, la vuelta a la derecha - aquí la distancia es de 50 metros) como extraída de una base de datos de toda la ruta calculada por el dispositivo (es decir, una lista de todas las carreteras y acciones relacionadas que definen la ruta que va a tomarse) . La barra 2 de estado también muestra el nombre de la carretera 8 actual, el tiempo estimado antes de su llegada 9 (aquí 2 minutos y 40 segundos) , el tiempo 25 de llegada estimado actual (11.36 am) y la distancia hacia el destino 26 (1.4 km) . La barra 2 de estado además puede mostrar información adicional, tal como una resistencia de señal de GPS en un indicador de resistencia de señal tipo teléfono móvil . Como ya se menciona en lo anterior, el dispositivo de navegación puede comprender dispositivos de entrada, tal como una pantalla digital, que permite a los usuarios visualizar en pantalla un menú de navegación (no mostrado) . Para este menú, otras funciones de navegación pueden iniciarse o controlarse. Permitir que funciones de navegación se seleccionen a partir de una pantalla de menú que se visualiza en pantalla fácilmente por sí misma (por ejemplo, un paso más allá de la visualización de mapas a la pantalla de menú) simplifica mayormente la interacción del usuario y la vuelve más fácil y más rápida. El menú de navegación incluye la opción para que el usuario ingrese un destino. La estructura física actual del dispositivo 10 de navegación por sí misma puede ser fundamentalmente muy diferente de cualquier computadora portátil convencional, diferente al receptor 23 de GPS integral o la alimentación de datos de GPS de un receptor de GPS externo. Por lo tanto, los dispositivos 12, 13, 14, 15 de memoria almacenan los algoritmos de cálculo de rutas, base de datos de mapas y software de interfaz de usuario; una unidad 12 procesadora interpreta y procesa la entrada de usuario (por ejemplo, utilizando una pantalla digital para ingresar las direcciones de inicio y de destino y las otras entradas de control) y visualiza los algoritmos de cálculo de rutas para calcular la ruta óptima. 'Óptima' puede referirse a criterios tales como el tiempo más corto o la distancia más corta, o algunos otros factores relacionados con el usuario. Más específicamente, el usuario ingresa su posición de inicio y el destino requerido en el software de navegación que se ejecuta en el dispositivo 10 de navegación, utilizando los dispositivos de entrada proporcionados, tal como una pantalla 18 digital, teclado 16, etc. El usuario entonces selecciona la forma en la cual se calcula una ruta de viaje: varios modos se ofrecen, tal como un modo 'rápido' que calcula la ruta muy rápidamente, pero la ruta puede no ser la más corta; un modo 'completo' que busca todas las rutas posibles y localiza la más corta, pero toma más tiempo de calcular, etc. Otras opciones son posibles, con un usuario definiendo una ruta que es escénica - por ejemplo, pasa la mayoría de los POI marcados como vistas de belleza imponente (puntos de interés) , o pasa la mayoría de los POI de posible interés para niños o utiliza la menor cantidad de desviaciones, etc. Las carreteras por sí mismas se describen en la base de datos de mapas que es parte del software de navegación (o de otra forma se accede por el mismo) que se ejecuta en el dispositivo 10 de navegación como líneas - es decir, vectores (por ejemplo, punto de inicio, punto de finalización, dirección de una carretera, con toda una carretera siendo formada de muchos cientos de secciones, cada una definida por los parámetros de dirección de punto de inicio/punto de finalización) . Un mapa entonces es un conjunto de vectores de carretera, más puntos de interés (POI) , más nombres de carreteras, más otras características geográficas como demarcaciones de estacionamiento, demarcaciones de ríos, etc., de las cuales todas se definen en términos de vectores. Todas las características de mapas (por ejemplo, vectores de carretera, POI, etc.) se definen en un sistema de coordenadas que corresponde o se refiere al sistema de coordenadas de GPS, que permite a la posición del dispositivo como determinada a través de un sistema de GPS localizarse en la carretera relevante mostrada en un mapa. El cálculo de ruta utiliza algoritmos complejos que son parte del software de navegación. Los algoritmos se aplican a números de gran escala de potenciales de rutas diferentes. El software de navegación entonces las evalúa con los criterios definidos por el usuario (o acciones por defecto del dispositivo) , tal como una exploración de modo completo, con ruta escénica, museos del pasado, y ninguna cámara de velocidad. La ruta que cumple mejor los criterios definidos entonces se calcula por la unidad 11 procesadora y después se almacena en una base de datos en los dispositivos 12, 13, 14, 15 de memoria como una secuencia de vectores, nombres de carreteras y acciones que deben hacerse en los puntos de finalización de vectores (por ejemplo, que corresponden con las distancias predeterminadas junto con cada carretera de la ruta, tal como después de 100 metros, vuelta a la izquierda en la calle x) . La Figura 3 representa un diagrama de bloque esquemático de un dispositivo 10 de navegación de acuerdo con la invención, en el cual símbolos de referencia correspondientes se refieren a partes correspondientes como en las Figuras 1 y 2. De acuerdo con la invención, se proporciona una cámara 24 la cual se dispone para proporcionar una alimentación en tiempo real a la unidad 11 procesadora. La cámara 24 en uso, se coloca de manera que graba la carretera delante del usuario. Cuando se coloca en un automóvil, la cámara 24 se coloca de tal manera que graba la carretera delante del vehículo. La cámara 24 puede ser parte integral del dispositivo 10 de navegación, o puede estar físicamente separada del mismo. Si se separa, la cámara 24 puede conectarse a la unidad 11 procesadora mediante cableado o mediante una conexión inalámbrica. La cámara 24 puede colocarse en el techo del vehículo o en la parte frontal del vehículo, por ejemplo, cerca de los faros delanteros. El dispositivo 10 de navegación también puede proporcionarse con más de una cámara 24, para permitir al usuario cambiar entre diferentes ángulos de cámara. También una cámara de vista posterior puede proporcionarse. La cámara puede ser cualquier tipo de cámara, tal como una cámara digital o una cámara análoga. La imagen como grabada por la cámara 24 se visualiza en la pantalla 18. La cámara 24 también puede ser una cámara que es sensible a la radiación electromagnética fuera del espectro electromagnético que es visible por el ojo humano. La cámara puede ser una cámara infrarroja que permite su uso en la noche . La Figura 4 muestra un ejemplo de un dispositivo 10 de navegación, colocado en el tablero de un automóvil 1. El dispositivo 10 de navegación comprende una cámara 24 que se dirige hacia la carretera delante del automóvil 1. La Figura 4 muestra además que la pantalla 18 confronta al usuario. De acuerdo con la invención, el dispositivo 10 de navegación se dispone para visualizar la alimentación en tiempo real de la cámara en la pantalla 18 y para combinar o superponer una o más direcciones de navegación. Las direcciones de navegación pueden ser una o más de lo siguiente: flecha 3 de navegación, la ruta 4, la flecha 5, puntos de interés, carreteras, edificios y todas las direcciones de navegación adicionales almacenadas en el dispositivo 10 de navegación. Esto también puede incluir los datos de mapas, por ejemplo, los datos de vector que describen las carreteras. Una descripción más detallada de cómo se logra esto sigue a continuación. Las imágenes proporcionadas por la cámara 24 no serán estables, debido a la inestabilidad de la carretera, vibraciones del vehículo provocadas por el motor, etc. Por lo tanto, el dispositivo 10 de navegación pude proporcionarse con software que oculta estas vibraciones indeseadas para proporcionar una imagen estable. El software que oculta las vibraciones indeseadas de las imágenes proporcionadas por la cámara 24 se utiliza ampliamente en videocámaras , donde se utiliza bajo el nombre de cámara estable. Ésta se conoce por una persona con experiencia en la técnica. La alimentación de la cámara 24 además puede procesarse para incrementar la calidad de las imágenes. Este procesamiento puede comprender ajustar el brillo, contraste, pero puede ser cualquier filtro adecuado. Los filtros pueden utilizarse para incrementar la calidad de las imágenes en condiciones de lluvia. La alimentación de la cámara 24 puede visualizarse en la pantalla en tiempo real, pero también puede visualizarse como fija la cual se actualiza en ciertos puntos de tiempo, por ejemplo cada 0.5 segundos. Los intervalos de tiempo apropiados entre actualizaciones sucesivas pueden determinarse en dependencia de la velocidad del vehículo con el dispositivo 10 de navegación, el cambio de dirección de viaje (al tomar curvas) . También, el dispositivo de navegación puede disponerse para realizar acercamiento o alejamiento con zoom dependiendo de por ejemplo, la velocidad del dispositivo de navegación/vehículo. Esta operación de zoom puede realizarse al enviar una señal de control a la cámara 24 que proporciona instrucciones para realizar una operación de zoom. La operación de zoom también puede realizarse sin embargo al visualizar una parte de la alimentación de la cámara recibida en una forma alargada en la pantalla 18.
MODALIDAD 1 La Figura 5 representa un primer ejemplo de la invención. La Figura 5 muestra una imagen fija de la imagen grabada por la cámara 24 como visualizada por el dispositivo 10 de navegación. Como puede observarse, una flecha 5 que indica una vuelta a la derecha se superpone por la unidad 11 procesadora. De acuerdo con esta modalidad, una imagen amigable con el usuario se visualiza para el usuario, que permite una fase de interpretación. Esta modalidad tiene la ventaja de que ninguna matemática compleja y procesamiento de datos se necesitan. En lugar de la dirección de navegación representada en la Figura 5, también otras direcciones de navegación como se menciona en lo anterior pueden visualizarse, que incluyen direcciones de navegación de conformación perspectiva, tal como flechas de forma perspectiva.
MODALIDAD 2 La Figura 6 muestra otra imagen fija de la imagen grabada por la cámara 24. De acuerdo con este ejemplo, el dispositivo 10 de navegación superpone la ruta 4 y la flecha 5 la ruta 5. La ruta 4 y la flecha 5 se superponen de tal manera que su posición en la pantalla 18 corresponde con la imagen que se proporciona por la cámara 24. La Figura 6 muestra claramente que la ruta 4 se visualiza de tal manera que corresponde con la carretera como se muestra en la pantalla 18. También, la flecha 5 se visualiza de tal manera que indica precisamente una vuelta a la derecha en la imagen como se proporciona por la cámara 24. Se entenderá que la modalidad mostrada en la Figura 5 puede obtenerse fácilmente al superponer o combinar la imagen como se proporciona por la cámara 24 y una dirección de navegación, como por ejemplo la flecha 5. Sin embargo, para poder crear la imagen como se proporciona en la Figura 6, se requiere un procesamiento de datos más complicado para poder correlacionar la imagen que se proporciona por la cámara 24 con las direcciones de navegación. Esto se explicará en mayor detalle en lo siguiente. Para poder superponer las direcciones de navegación de manera que tengan una relación espacial predefinida con respecto a las partes correspondientes de la imagen de la cámara, la posición exacta de la cámara, necesitan conocerse los ajustes de dirección y de la cámara. Si toda esta información se conoce, la unidad 11 de procesamiento calcula la posición por ejemplo de la carretera en la pantalla 18 y superpone la ruta 4. Primero, la posición de la cámara 24 necesita determinarse. Esto puede hacerse simplemente al utilizar la información de GPS como determinada por la unidad 11 de procesamiento y/o el dispositivo 23 de posicionamiento. La información de posición del dispositivo 10 de navegación, y de este modo la cámara 24 ya está disponible en el dispositivo 10 de navegación de acuerdo con el uso de la técnica anterior. En segundo lugar, la orientación de la cámara 24 necesita determinarse. Esto se hace utilizando sensores de orientación, dispuestos para comunicarse con la unidad 11 de procesamiento. Los sensores de orientación pueden ser el dispositivo 23 de posicionamiento y los sensores 27, 28 de inclinación. Los sensores 27, 28 de inclinación pueden ser giroscopios . La Figura 7 representa una cámara 24 de acuerdo con una modalidad de la invención. Una primera dirección de rotación necesita determinarse con respecto a un eje C, como se representa en la Figura 7. También, esto puede hacerse simplemente al utilizar información de GPS como determinada por la unidad 11 de procesamiento y/o el dispositivo 23 de posicionamiento. Al comparar la posición del dispositivo 10 de navegación en puntos sucesivos en el tiempo, la dirección de movimiento del dispositivo 10 de navegación puede determinarse. Esa información también está fácilmente disponible en el dispositivo 10 de navegación de acuerdo con el uso de la técnica anterior. Se asume que la cámara 24 confronta la dirección de viaje del dispositivo 10 de navegación. Sin embargo, este no necesariamente es el caso, como se explicará además en lo siguiente. La primera dirección C de rotación de la cámara 24 también puede determinarse al utilizar una brújula (electrónica) comprendida por el dispositivo de navegación o cámara 24. La brújula puede ser una brújula electrónica o una brújula análoga. La brújula proporciona lecturas de brújula que se comunican a la unidad 11 de procesamiento. Basándose en las lecturas de la brújula, la unidad 11 de procesamiento determina la primera dirección de rotación de la cámara 24. Para determinar adicionalmente la orientación de la cámara 24, la cámara 24 puede proporcionarse con sensores 27, 28 de inclinación como se representa por la Figura 7. Los sensores 27, 28 de inclinación se disponen para medir la inclinación de la cámara 24. El primer sensor 27 de inclinación se dispone para medir la inclinación en una segunda dirección de rotación como se indica por la flecha A curvada en la Figura 7, es decir, una rotación sobre un eje que es sustancialmente perpendicular a la superficie de los dibujos. La inclinación en la segunda dirección de rotación determina la altura del horizonte en la imagen de la cámara como visualizada en la pantalla 18. El efecto de tal rotación sobre la imagen de la cámara como se visualiza se representa esquemáticamente en la Figura 8a. El segundo sensor 28 de inclinación se dispone para medir la inclinación como resultado de la rotación sobre un tercer eje de rotación, que es un eje central de la cámara 24 representado en la Figura 7 por la línea B punteada. El efecto de tal rotación sobre la imagen de la cámara como visualizada se representa esquemáticamente en la Figura 8b. En uso, el primer eje de rotación es sustancialmente vertical y el segundo y tercer ejes de rotación son sustancialmente perpendiculares con respecto al primer eje de rotación y con respecto entre sí. Los valores de inclinación como determinados por los sensores 27, 28 de inclinación se comunican a la unidad 11 procesadora. Los sensores 27 y 28 de inclinación también pueden formarse como un sensor de inclinación integral sencillo. También, los ajustes de la cámara, en particular el factor de zoom de la lente de la cámara 24, el ángulo de la cámara, la longitud focal, etc., pueden comunicarse a la unidad 11 procesadora. Basándose en esta información disponible para la unidad 11 procesadora para describir la posición, dirección y ajustes de la cámara 24, la unidad 11 procesadora determina la posición donde la carretera, cruces, bifurcaciones, puntos de interés, etc., que corresponden con los datos de mapas almacenados en los dispositivos 11, 12, 12, 14, 15 de memoria se visualizaran en la pantalla 18. Basándose en esta información, la unidad 11 procesadora puede superponer las direcciones de navegación, tal como la ruta 4, la flecha 5, los puntos interés, POI, etc., sobre la imagen de la cámara como visualizada por la unidad 11 procesadora, de tal manera que coincidan con la vista de la cámara. Puede ser útil superponer las direcciones de navegación de tal manera que parezca que flotan sobre la superficie de la carretera o tienen otra cierta relación espacial predefinida para la misma. Puesto que el dispositivo 10 de navegación calcula que tan lejos está cualquier desviación o curva (u otra forma direccional) , puede funcionar aproximadamente como se debe conformar una dirección de navegación visualizada en la pantalla 18 y donde debe colocarse para poder corresponder a la ubicación actual del cambio en la dirección como se muestra en la alimentación de la cámara 24. Sin embargo, pueden presentarse errores debido a varias razones. En primer lugar, el dispositivo 10 de navegación puede montarse en el tablero de vehículo de muchas maneras. Por ejemplo, cuando se determina la primera dirección de rotación de la cámara 24 con respecto al eje C al comparar las posiciones del dispositivo 24 de navegación en puntos sucesivos en el tiempo, se asume que la cámara 24 se dirige directamente hacia delante. Sin embargo, en caso de que la cámara 24 no se alinee perfectamente con el vehículo, una mala correlación de las direcciones de navegación superpuestas puede presentarse. Como se discute en lo anterior, en el caso en el que la cámara 24 se proporciona con una brújula integrada, la primera orientación de rotación de la cámara con respecto al eje C puede calcularse al comparar las lecturas de la brújula con las direcciones de viaje determinadas del dispositivo 10 de navegación. Sin embargo, incluso un error puede estar presente lo cual resulta en una mala correlación entre las direcciones de navegación superpuestas y la alimentación de la cámara. También, los sensores 27, 28 de inclinación pueden ser capaces de medir sólo la inclinación relativa, y no la inclinación absoluta. Esto quiere decir que el dispositivo 10 de navegación necesita calibrarse para poder permitir una posición precisa de las direcciones de navegación sobre la imagen de la cámara. Para poder compensar estos errores, el dispositivo de navegación puede proporcionarse con una opción de menú que permite al usuario ajustar la posición relativa de la imagen visualizada con respecto a la imagen de la cámara visualizada. Este ajuste puede llevarse a cabo por el dispositivo 10 de navegación al cambiar la posición de las direcciones de navegación que se visualizan, y/o al cambiar la posición donde la imagen de la cámara se visualiza, y/o al cambiar la orientación de la cámara 24. Para la última opción, la cámara 24 puede proporcionarse con un dispositivo de activación para cambiar su orientación. La cámara 24 puede accionarse independiente del dispositivo 10 de navegación. En caso de que la cámara 24 se forme integralmente con el dispositivo 10 de navegación, el dispositivo de activación puede cambiar la orientación del dispositivo 10 de navegación, o la cámara 24 solamente con respecto al dispositivo 10 de navegación. El usuario simplemente puede utilizar las teclas de flecha para calibrar la posición de las direcciones de navegación para hacer que se correlacionen con la imagen de la cámara. Por ejemplo, si la cámara 24 se coloca de tal manera que se inclina hacia la parte izquierda a].rededor del eje C como se representa en la Figura 7, las direcciones de navegación están a la derecha de las partes correspondientes en la imagen de la cámara. El usuario simplemente puede corregir este error al utilizar una tecla de flecha izquierda para arrastrar las direcciones de navegación a la izquierda. El dispositivo 10 de navegación además puede disponerse para proporcionar al usuario con opciones para ajustar la orientación de rotación visualizada de las direcciones de navegación superpuestas con respecto a la imagen de la cámara visualizada. El dispositivo 10 de navegación también puede disponerse para proporcionar al usuario con opciones para corregir la mala correlación perspectiva, por ejemplo provocada por diferentes alturas de la cámara 24. Una cámara 24 colocada en la parte superior de un automóvil proporciona una vista diferente de la carretera (forma de perspectiva diferente) que una cámara 24 colocada en el tablero o entre los faros delanteros de un vehículo. Para poder hacer las direcciones de navegación, tal como direcciones 3D (por ejemplo, una flecha 3D) o la representación de vector de la carretera, para ajustar la vista en la cámara, una deformación de perspectiva de las direcciones de navegación necesita aplicarse. Esta deformación de perspectiva depende de la altura de la cámara 24, los ajustes de la cámara y la segunda dirección de rotación de la cámara 24 en la dirección de la flecha A como se representa en la Figura 7. La unidad 11 procesadora almacena estas correcciones de calibración ingresadas y aplica correcciones de calibración similares a todas las imágenes visualizadas adicionales. Todos los cambios adicionales en la posición medida, dirección y orientación de la cámara 24 pueden procesarse por la unidad 11 procesadora para asegurar continuamente una superposición precisa de las direcciones de navegación. Esto permite una compensación precisa de los movimientos de la cámara provocados por el cambio de dirección del vehículo, o provocados por las rampas de velocidad, esquinas cerradas, aceleraciones, frenado, etc., y otras causas que influencian la orientación de la cámara 24. La Figura 9 representa un diagrama de flujo que representa la funcionalidad del dispositivo 10 de navegación de acuerdo con la segunda modalidad de la invención. Las etapas mostradas en el diagrama de flujo pueden realizarse por la unidad 11 de procesamiento. Se observa que todas las etapas que se refieren al ingreso de una dirección de destino, seleccionar una ruta, etc., se omiten en esta figura ya que estas etapas ya se conocen en la técnica anterior. En una primera etapa 101, el dispositivo 10 de navegación se enciende y el usuario selecciona el modo de la cámara. Esto se representa en la Figura 9 con "inicio". En una segunda etapa 102, la unidad 11 de procesamiento determina la posición del dispositivo 10 de navegación. Esto se hace al utilizar la entrada del dispositivo 23 de posicionamiento, tal como un dispositivo de GPS, como se discute en lo anterior. En una siguiente etapa 103, la unidad 11 de procesamiento determina la dirección de viaje del dispositivo 10 de navegación. Nuevamente, la entrada del dispositivo 23 de posicionamiento se utiliza para esto. Después, en la etapa 104, la orientación de la cámara 24 y los ajustes de la cámara se determinan por la unidad 11 de procesamiento. Nuevamente, se utiliza la entrada del dispositivo 23 de posicionamiento para esto. También se utiliza la entrada de los sensores 27, 28 de inclinación para determinar la orientación de la cámara 24. De acuerdo con la etapa 105, la imagen de la cámara se visualiza en la pantalla 18 por la unidad 11 de procesamiento. En la etapa 106, la unidad 11 de procesamiento superpone un número seleccionado de direcciones de navegación (tal como la flecha 3 de posición, la ruta 4, la flecha 5, puntos de interés, carreteras, datos de mapas, etc.) . Para hacer esto, toda la información recolectada se utiliza para calcular la posición y forma de las direcciones de navegación visualizadas. Si se necesita, el usuario puede calibrar este cálculo al ajustar la posición y/o forma de las direcciones de navegación superpuestas. Esta etapa opcional se representa por la etapa 107. Las etapas 102-107 pueden repetirse tan frecuentemente como se necesite o se desee durante su uso. Otros tipos de señalización virtual además de las flechas 5 de dirección también pueden almacenarse en los dispositivos 12, 13, 14, 15 de memoria. Por ejemplo, pueden almacenarse iconos que se refieren a nombres de carreteras, señales de tráfico, límites de velocidad, cámaras de velocidad o puntos de interés almacenados en los dispositivos 12, 13, 14, 15 de memoria. Todos estos también pueden superponerse sobre la alimentación de la cámara 24, con una ubicación espacial en la imagen de la cámara visualizada que corresponde con la característica del mundo real con la se refiere la señalización virtual. Por lo tanto, la unidad 11 de procesamiento puede tomar los datos de mapas 2D de software de navegación que incluyeron los datos de ubicación para estas características del mundo real, y aplicar una transformación geométrica que provoque que se localicen correctamente cuando se superponen en la alimentación de video . En el caso en que, por ejemplo, un vehículo que lleva un dispositivo 10 de navegación conduce hacia arriba o hacia abajo de una ladera, los sensores 27, 28 de inclinación detectan una inclinación en la dirección de la flecha A como se representa en la Figura 7. Sin embargo, para superponer correctamente las direcciones de navegación sobre la imagen de la cámara de manera que las direcciones de navegación coincidan con la imagen de la cámara, esa inclinación no debe corregirse. Esto puede disponerse al proporcionar al dispositivo de navegación con datos de mapas que comprenden información de altura. Basándose en los datos de altura del mapa, el dispositivo 10 de navegación calcula la inclinación de la cámara 24 que corresponde con la orientación de la carretera en la que está viajando el vehículo. Esta inclinación representada se compara con la inclinación que se detecta por los sensores 27, 28 de inclinación. La diferencia entre la inclinación pronosticada y la inclinación detectada se utiliza para ajustar la posición de las direcciones de navegación superpuestas. En el caso en que los datos de mapas no comprenden información de altura, el vehículo puede proporcionarse con un sensor 30 de inclinación de vehículo. El sensor 30 de inclinación de vehículo se dispone para proporcionar lecturas de inclinación de vehículo a la unidad 11 de procesamiento. Las lecturas del sensor 30 de inclinación de vehículo entonces se comparan con las lecturas de los sensores 27, 28 de inclinación y la diferencia provocada por las vibraciones indeseadas, etc., se utiliza para ajustar la posición de las direcciones de navegación superpuestas. Se entenderá que puede pensarse en todos los tipos de vibraciones para el ejemplo explicado y mostrado en lo anterior. La Figura 10 representa un ejemplo en el cual los datos de mapas también comprenden datos que describen objetos a lo largo de la carretera, tal como edificios 31. De acuerdo con este ejemplo, las direcciones 3, 4, 5 de navegación que se superponen sobre un edificio 31 pueden mostrarse por rayas o líneas discontinuas. Esto permite a un usuario visualizar los datos de mapas, la ruta 4 y las flechas 5 que de otra forma pueden bloquearse de la vista por un edificio.
TERCERA MODALIDAD De acuerdo con una tercera modalidad, las direcciones de navegación se superponen sobre la imagen de la cámara al utilizar técnicas de reconocimiento de patrones. En años recientes, un avance considerable se ha hecho en el campo de análisis en tiempo real de tramas de imagen (por ejemplo, una alimentación de video tal como se proporciona por la cámara 24) para identificar objetos reales en la alimentación de video. La literatura es bastante extensiva en esta área: puede hacerse referencia por ejemplo a US 5627915 (Princeton Video Image Inc.) en la cual el video de una escena tal como un estadio deportivo se analiza por el software de reconocimiento de patrones; un operador indica manualmente las áreas de alto contraste en el estadio (por ejemplo, líneas marcadas en la superficie de juego; bordes de la superficie de juego; carteles) y el software construye un modelo geométrico de todo el estadio utilizando estas marcas de alto contraste. Entonces, el software es capaz de analizar una alimentación de video en tiempo real buscando estas marcas; luego es capaz de tomar una imagen generada por computadora almacenada (por ejemplo, un anuncio publicitario para una cartelera) , aplica una transformación geométrica a la imagen almacenada de manera que, cuando se inserta en la alimentación de video en una ubicación definida con referencia al modelo geométrico que utiliza las técnicas de síntesis de imagen, parece que está en una parte totalmente natural de la escena para un observador del video. También puede hacerse referencia a US 2001/0043717 para Facet Technology; ésta describe un sistema que puede analizar video tomado de un vehículo en movimiento para reconocer señales de carreteras. Generalmente, las técnicas de reconocimiento de patrones aplicadas al análisis de video en tiempo real para reconocer características del mundo real es un campo grande y bien establecido. En una implementación, el dispositivo 10 de navegación despliega el software de reconocimiento de patrones para reconocer características del mundo real en la alimentación de video de la cámara 24 y visualiza las direcciones de navegación (tal como la flecha 5) en la pantalla 18 en una relación espacial predefinida para las características del mundo real reconocidas en la alimentación de video. Por ejemplo, la alimentación de video puede mostrar la carretera actual en que está viajando el dispositivo 10 de navegación y las direcciones de navegación entonces son direcciones 3D (por ejemplo, una flecha 3D) que se superponen sobre esa carretera. Las curvas en carretera y otras características pueden representarse gráficamente o por iconos y colocarse para yacer sobre las características del mundo real con las que se refieren. La unidad 11 de procesamiento puede programarse de manera que pueda reconocer características con un alto contraste visual y que se asocien con una carretera dada. Las características también podrían ser vehículos que se mueven en una dirección consistente o marcas de carretera (por ejemplo, marcas de borde, línea central, marcas, etc.). Se observa que el dispositivo 10 de navegación se programa de manera que pueda reconocer características con un alto contraste visual y que se asocien con una carretera. Por ejemplo, las características podrían ser vehículos que se mueven en una dirección consistente, o marcas de carretera. El dispositivo 10 de navegación por ejemplo, podría programarse con un modelo geométrico de la carretera por adelantado: el modelo puede ser tan simple como dos líneas. El modelo puede ser sólo los datos de vectores almacenados para formar los datos de mapas, como se describe en lo anterior. Entonces, en uso, el software de reconocimiento de patrones busca características visuales en la corriente de video en tiempo real proporcionada por la cámara 24 que corresponde con el modelo geométrico almacenado (por ejemplo, las dos líneas) . Una vez que se ha localizado esas características, en efecto ha reconocido la carretera por adelantado. Típicamente, esto requerirá que se aplique traslaciones rápidas y transformación a las características reconocidas en la alimentación de video (por ejemplo, las dos líneas) para obtener una correlación con el modelo almacenado; las traslaciones son traslaciones x-y para poder alinear aproximadamente las características reconocidas con el modelo almacenado. Las transformaciones incluyen escorzar para corresponder a las diferentes alturas de la cámara y orientación relativa entre las dos líneas para corresponder a diferentes ángulos de visión de la cámara y el ángulo relativo entre la cámara y la carretera. Igualmente, las transformaciones pueden aplicarse para alinear y conformar el modelo almacenado a las características reconocidas. Se entenderá por una persona con experiencia que es ventajoso que el algoritmo de reconocimiento de patrones tenga los datos de mapas como una entrada. Reconocer un patrón puede hacerse en una forma más fácil y más rápida cuando el algoritmo tiene conocimiento de antemano sobre los patrones a reconocer. Este conocimiento puede obtenerse fácilmente de los datos de mapas disponibles. Una vez que se conoce la transformación, es una forma relativamente simple para conformar un icono de flecha prealmacenado de manera que su perspectiva, forma u orientación corresponda con aquella de la carretera en cualquier trama de video dada (varios tipos de transformaciones geométricas pueden ser adecuadas para esto) y después superpone la flecha direccional sobre la carretera mostrada en la pantalla utilizando síntesis de imagen convencionales. Puede ser útil superponer la flecha para que parezca que flota sobre la superficie de la carretera o que tenga otra cierta relación espacial predefinida para la misma. Puesto que el dispositivo 10 de navegación calcula que tan lejos está cualquier desviación o curva (u otro cambio de dirección) , puede funcionar aproximadamente como debe conformarse una dirección de navegación visualizada en la pantalla 18 para poder corresponder con la ubicación actual del cambio de dirección como se muestra en la alimentación de video. Se entenderá que el dispositivo 10 de navegación también puede utilizar una combinación de las modalidades discutidas en lo anterior. Por ejemplo, el dispositivo de navegación puede utilizar medidas de orientación y posicionamiento para determinar aproximadamente la posición de las direcciones de navegación en la pantalla 18 y utilizar técnicas de reconocimiento de patrones para determinar la posición de las direcciones de navegación en la pantalla 18. Se entenderá que se puede pensar en muchas alternativas y variaciones para las modalidades antes mencionadas. Por ejemplo, otra característica es que la indicación de los nombres de carreteras, señales de tráfico (por ejemplo, un carril, sin entrada, números de salida, nombres de lugares, etc.), límites de velocidad, cámaras de velocidad, y puntos de interés almacenados en la memoria 12, 13, 14, 15 del dispositivo también pueden superponerse sobre la ubicación espacial de la alimentación de video de esta 'señalización virtual' en una trama de video que puede corresponder con la característica del mundo real con la que se refiere en la señalización virtual. Por lo tanto, un límite de velocidad (por ejemplo, el texto '30 mhp') podría superponerse para que parezca que yace sobre o es parte de la superficie de la carretera con límite de velocidad de 30 mph. Un icono que representa un tipo específico de señal de tráfico podría superponerse sobre la corriente de video para que aparezca en el lugar en que puede aparecer útil la señal en el mundo real . Otros tipos de señalización virtual además de las flechas 5 de dirección también pueden almacenarse en los dispositivos 12, 13, 14, 15 de memoria. Por ejemplo, iconos que se refieren a nombres de carretera, señales de tráfico, límites de velocidad, cámaras de velocidad, paradas de autobús, museos, números de casas o puntos de interés pueden almacenarse en los dispositivos 12, 13, 14, 15 de memoria. Todos estos también pueden superponerse sobre la alimentación de video, con una ubicación espacial en el video visualizado que corresponde con la características del mundo real con la se refiere la señalización virtual. Por lo tanto, el software podría tomar los datos de mapas 2D del software de navegación que incluyeron los datos de ubicación para estas características del mundo real, y aplicar una transformación geométrica que provoque que se localicen correctamente cuando se superpone la alimentación de video. De acuerdo con una alternativa adicional, las técnicas de reconocimiento de patrones también pueden disponerse para reconocer objetos en la carretera, tal como por ejemplo otro vehículo o camión. Cuando tal objeto se reconoce, la ruta 4 visualizada puede mostrarse con una línea punteada, como se muestra en la Figura 11. Esto proporciona una imagen que es más fácil de interpretar por un usuario.
CUARTA MODALIDAD De acuerdo con una cuarta modalidad, la alimentación de la cámara 24 y las direcciones de navegación, tal como la flecha 3 de posición, ruta 4, flecha 5, puntos de interés (POI) , carreteras, edificios, datos de mapas, etc., datos de vectores no se superponen, pero se muestran en la pantalla 18 en una forma combinada. Esta combinación puede lograrse al dividir la pantalla en una primera parte y en una segunda parte, donde la primera parte visualiza la alimentación de la cámara y la segunda parte visualiza las direcciones de navegación. Sin embargo, la combinación también puede realizarse en tiempo, es decir, el dispositivo de navegación puede disponerse para mostrar sucesivamente la alimentación de la cámara y la dirección de navegación en turnos. Esto puede lograrse al mostrar la alimentación de la cámara durante un primer período (por ejemplo, 2 segundos) y después, mostrar las direcciones de navegación durante un segundo período (por ejemplo, 2 segundos) . Sin embargo, el dispositivo de navegación también puede proporcionar al usuario con la opción de cambiar entre la alimentación de la cámara y las direcciones de navegación a voluntad. Desde luego, más de una cámara puede utilizarse. El usuario puede proporcionarse con la opción para cambiar de una primera alimentación de cámara a una segunda alimentación de cámara. El usuario también puede elegir visualizar más de una alimentación de cámara en la pantalla 18 al mismo tiempo. De acuerdo con una alternativa adicional, el usuario puede acercar o alejar mediante zoom. Cuando se aleja mediante zoom, más y más parte del ambiente del dispositivo 10 de navegación puede visualizarse en la pantalla 18. Se entenderá que el usuario puede elegir por ejemplo, una vista en helicóptero, como se muestra en la Figura 2, que incluye la posición del dispositivo 10 de navegación. Tal vista proporciona una imagen del dispositivo 10 de navegación (o vehículo) visto desde atrás. Desde luego, tal vista puede no proporcionarse por la cámara, que está fija en el dispositivo 10 de navegación o vehículo. Por lo tanto, el dispositivo 10 de navegación puede proporcionar una imagen como se muestra en la Figura 12, donde solamente la parte de la imagen es la vista de la cámara, rodeada por los datos de mapas y las direcciones de navegación. Mientras modalidades específicas de la invención se han descrito en lo anterior, se apreciará que la invención puede practicarse de otra forma a la descrita. Por ejemplo, la invención puede tomar la forma de un programa de cómputo que contiene una o más secuencias de instrucciones que se pueden leer por máquina que describen un método como se describe en lo anterior, o un medio de almacenamiento de datos (por ejemplo, memoria de semiconductor, disco magnético u óptico) que tiene un programa de cómputo almacenado en el mismo. Se entenderá por una persona con experiencia en la técnica que cualquiera de los componentes de software también puede formarse como un componente de hardware . Las descripciones anteriores se pretenden para ser ilustrativas, no limitantes. De este modo, será aparente para alguien de experiencia ordinaria en la técnica que modificaciones pueden hacerse en la invención como se describe sin apartarse del alcance de las reivindicaciones establecidas en lo siguiente.

Claims (25)

  1. REIVINDICACIONES 1. Dispositivo de navegación, el dispositivo de navegación se dispone para visualizar direcciones de navegación en una pantalla, caracterizado porque, el dispositivo además se dispone para recibir una alimentación de una cámara y el dispositivo de navegación se dispone para visualizar una combinación de una imagen de cámara de la alimentación de la cámara y las direcciones de navegación en la pantalla.
  2. 2. Dispositivo de navegación de acuerdo con la reivindicación 1, donde la cámara se forma integralmente con el dispositivo de navegación.
  3. 3. Dispositivo de navegación de acuerdo con cualquiera de las reivindicaciones 1 ó 2, donde las direcciones de navegación son una o más de una flecha de posición, ruta, flecha, puntos de interés (POI) , carreteras, edificios, datos de mapas tales como datos de vectores, almacenados en una unidad de memoria, tal como un disco duro, una Memoria de Sólo Lectura, Memoria de Sólo Lectura Eléctricamente Borrable y Programable y una Memoria de Acceso Aleatorio.
  4. 4. Dispositivo de navegación de acuerdo con cualquiera de las reivindicaciones precedentes, que además se dispone para superponer las direcciones de navegación sobre la imagen de la cámara de tal manera que la posición de las direcciones de navegación están en una relación espacial predefinida con respecto a las partes correspondientes de la imagen de la cámara.
  5. 5. Dispositivo de navegación de acuerdo con cualquiera de las reivindicaciones precedentes, donde el dispositivo de navegación comprende una unidad de procesamiento, un dispositivo de posicionamiento y sensores de orientación, el dispositivo de posicionamiento y los sensores de orientación se disponen para comunicarse con la unidad de procesamiento, la unidad de procesamiento se dispone para utilizar lecturas del dispositivo de posicionamiento y los sensores de orientación para calcular una posición y una orientación de la cámara y/o el dispositivo de navegación, basándose en cuál posición de las direcciones de navegación en la pantalla se calcula por la unidad de procesamiento.
  6. 6. Dispositivo de navegación de acuerdo con la reivindicación 5, donde el dispositivo de posicionamiento, sistema Europeo Galileo o cualquier otro sistema satelital de navegación global o tecnología de detección de posicionamiento se basan en balizas terrestres.
  7. 7. Dispositivo de navegación de acuerdo con cualquiera de las reivindicaciones 5-6, donde la unidad de procesamiento calcula la orientación de la cámara con respecto al primer eje de rotación que en uso es sustancialmente vertical, al comparar las posiciones de la cámara y/o el dispositivo de navegación determinadas por el dispositivo de posicionamiento en puntos subsecuentes en el tiempo.
  8. 8. Dispositivo de navegación de acuerdo con cualquiera de las reivindicaciones 5-6, donde el dispositivo de navegación comprende una brújula que proporciona lecturas de brújula a la unidad de procesamiento, la unidad de procesamiento se dispone para calcular la orientación de la cámara con respecto a un primer eje de rotación (C) que en uso es sustancialmente vertical, basándose en las lecturas de la brújula.
  9. 9. Dispositivo de navegación de acuerdo con cualquiera de las reivindicaciones 5-8, donde los sensores de orientación comprenden sensores de inclinación para determinar la orientación de la cámara con respecto al segundo y tercer ejes de rotación, el segundo y tercer ejes de rotación en uso son sustancialmente horizontales.
  10. 10. Dispositivo de navegación de acuerdo con cualquiera de las reivindicaciones precedentes, donde la unidad de procesamiento utiliza técnicas de reconocimiento de patrones para superponer las direcciones de navegación sobre la imagen de la cámara de manera que la posición de las direcciones de navegación está en una relación espacial predefinida con respecto a las partes correspondientes de la imagen de la cámara.
  11. 11. Dispositivo de navegación de acuerdo con la reivindicación 10, donde el dispositivo de navegación utiliza datos de mapas como entrada para las técnicas de reconocimiento de patrones.
  12. 12. Dispositivo de navegación de acuerdo con cualquiera de las reivindicaciones precedentes, donde la unidad de procesamiento utiliza técnicas de cámara estable para compensar vibraciones en la alimentación de la cámara.
  13. 13. Dispositivo de navegación de acuerdo con cualquiera de las reivindicaciones precedentes, donde el dispositivo de navegación se dispone para recibir correcciones de calibración, para almacenar estas correcciones de calibración, y para aplicar las correcciones de calibración cuando se combinan las direcciones de navegación y la imagen de la cámara.
  14. 14. Dispositivo de navegación de acuerdo con cualquiera de las reivindicaciones precedentes, donde el dispositivo de navegación se dispone para recibir o leer en ajustes de cámara y utilizar los ajustes de cámara para calcular la posición de las direcciones de navegación en la pantalla.
  15. 15. Dispositivo de navegación de acuerdo con cualquiera de las reivindicaciones precedentes, donde el dispositivo de navegación se dispone además para recibir alimentaciones de más de una cámara y el dispositivo de navegación se dispone para seleccionar una de las alimentaciones que se visualizan en la pantalla.
  16. 16. Dispositivo de navegación de acuerdo con cualquiera de las reivindicaciones precedentes, donde la cámara es sensible a la radiación electromagnética fuera del margen del espectro electromagnético que es visible por el ojo humano.
  17. 17. Dispositivo de navegación de acuerdo con la reivindicación 16, donde la cámara es una cámara infrarroja.
  18. 18. Dispositivo de navegación de acuerdo con cualquiera de las reivindicaciones precedentes, donde la cámara se dispone para acercar mediante zoom y/o alejar mediante zoom.
  19. 19. Dispositivo de navegación de acuerdo con la reivindicación 18, donde la cámara se dispone para acercar o alejar mediante zoom dependiendo de, por ejemplo, la velocidad del dispositivo de navegación/vehículo.
  20. 20. Tablero, que comprende un dispositivo de navegación de acuerdo con cualquiera de las reivindicaciones precedentes .
  21. 21. Vehículo, que comprende un dispositivo de navegación de acuerdo con cualquiera de las reivindicaciones precedentes .
  22. 22. Vehículo de acuerdo con la reivindicación 21, donde el vehículo comprende un sensor de inclinación de vehículo para determinar la inclinación del vehículo, que proporciona lectura de inclinación del vehículo al dispositivo de navegación. 23. Método para proporcionar direcciones de navegación, el método comprende: visualizar direcciones de navegación en una pantalla, caracterizado porque, el método además comprende: - recibir una alimentación de una cámara, y visualizar una combinación de la imagen de una cámara de la alimentación de la cámara y las direcciones de navegación en la pantalla. 24. Programa de cómputo, cuando se carga en una disposición de computadora, dispuesto para realizar el método de la reivindicación
  23. 23. 25. Portador de datos, que comprende un programa de cómputo de acuerdo con la reivindicación
  24. 24.
MX2007015348A 2005-06-06 2005-06-06 Dispositivo de navegacion con informacion de camara. MX2007015348A (es)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/NL2005/000405 WO2006132522A1 (en) 2005-06-06 2005-06-06 Navigation device with camera-info

Publications (1)

Publication Number Publication Date
MX2007015348A true MX2007015348A (es) 2008-02-15

Family

ID=36129782

Family Applications (1)

Application Number Title Priority Date Filing Date
MX2007015348A MX2007015348A (es) 2005-06-06 2005-06-06 Dispositivo de navegacion con informacion de camara.

Country Status (14)

Country Link
US (2) US8180567B2 (es)
EP (2) EP1889007B1 (es)
JP (1) JP4921462B2 (es)
CN (1) CN101194143B (es)
AT (1) ATE441089T1 (es)
AU (1) AU2005332711B2 (es)
BR (1) BRPI0520250A2 (es)
CA (1) CA2609663A1 (es)
DE (2) DE602005016311D1 (es)
ES (2) ES2330351T3 (es)
MX (1) MX2007015348A (es)
NO (1) NO20080097L (es)
NZ (2) NZ564319A (es)
WO (1) WO2006132522A1 (es)

Families Citing this family (136)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7460953B2 (en) * 2004-06-30 2008-12-02 Navteq North America, Llc Method of operating a navigation system using images
US8751156B2 (en) * 2004-06-30 2014-06-10 HERE North America LLC Method of operating a navigation system using images
DE102006010478A1 (de) * 2006-03-07 2007-09-13 Robert Bosch Gmbh Verfahren und Anordnung zur Anzeige von Navigationshinweisen
KR100804763B1 (ko) * 2006-09-19 2008-02-19 주식회사 레인콤 카메라를 구비하는 차량용 네비게이션 시스템
JP5076468B2 (ja) * 2006-12-01 2012-11-21 株式会社デンソー 通信型ナビゲーションシステム、車両ナビゲーション装置及びセンター装置
JP2008145234A (ja) 2006-12-08 2008-06-26 Denso Corp ナビゲーション装置及びプログラム
US8285475B2 (en) * 2007-03-02 2012-10-09 Avago Technologies Ecbu Ip (Singapore) Pte. Ltd. Combined beacon and scene navigation system
US20080211652A1 (en) * 2007-03-02 2008-09-04 Nanolumens Acquisition, Inc. Dynamic Vehicle Display System
US20100029293A1 (en) * 2007-05-10 2010-02-04 Sony Ericsson Mobile Communications Ab Navigation system using camera
JP2008309529A (ja) * 2007-06-12 2008-12-25 Panasonic Corp ナビゲーション装置、ナビゲーション方法、及びナビゲーション用プログラム
KR100899655B1 (ko) * 2007-09-03 2009-05-27 (주)디코인 회전 카메라를 이용한 화상통신 및 디브이알 기능을 구비한네비게이션 장치 및 시스템
DE102007053305A1 (de) * 2007-11-08 2009-05-14 Robert Bosch Gmbh Verfahren und Vorrichtung zur Ausgabe von optischen Fahrempfehlungen in einem Fahrzeug
JP5034932B2 (ja) * 2007-12-26 2012-09-26 ソニー株式会社 表示装置、プログラム、及び記録媒体
US20100250116A1 (en) * 2007-12-28 2010-09-30 Yoshihisa Yamaguchi Navigation device
EP2241859B1 (en) * 2007-12-31 2015-04-15 STMicroelectronics Application GmbH Improved vehicle navigation system
JP2009163504A (ja) * 2008-01-07 2009-07-23 Panasonic Corp 画像変形方法等
US8239132B2 (en) * 2008-01-22 2012-08-07 Maran Ma Systems, apparatus and methods for delivery of location-oriented information
US20090296990A1 (en) * 2008-05-30 2009-12-03 United Parcel Service Of America, Inc. Evaluating driver walk distances and building types using overhead imagery
WO2009151037A1 (ja) * 2008-06-09 2009-12-17 株式会社ケンウッド 案内表示装置及び案内表示方法、ならびに表示装置および表示内容の切換え方法
EP2307855A1 (en) * 2008-07-31 2011-04-13 Tele Atlas B.V. Computer arrangement and method for displaying navigation data in 3d
BRPI0822727A2 (pt) * 2008-07-31 2015-07-14 Tele Atlas Bv Método de exibição de dados de navegação em 3d
DE102008041295A1 (de) 2008-08-18 2010-02-25 Robert Bosch Gmbh Mobiles Navigationsgerät und diesbezügliches Verfahren
EP2156987A1 (en) * 2008-08-22 2010-02-24 Guangzhou SAT Infrared Technology Co., Ltd. Infrared system for assisting driving vehicle
EP2327003B1 (en) * 2008-09-17 2017-03-29 Nokia Technologies Oy User interface for augmented reality
US20100080489A1 (en) * 2008-09-30 2010-04-01 Microsoft Corporation Hybrid Interface for Interactively Registering Images to Digital Models
US9459113B2 (en) * 2008-11-21 2016-10-04 GM Global Technology Operations LLC Visual guidance for vehicle navigation system
JP5161760B2 (ja) * 2008-12-26 2013-03-13 株式会社東芝 車載用表示システム及び表示方法
DE102009023776A1 (de) 2009-06-03 2010-02-11 Daimler Ag Navigationssystem
DE102009041194A1 (de) * 2009-09-14 2011-03-24 Continental Automotive Gmbh Anzeigeinstrument für Fahrleistungsdaten
KR100982768B1 (ko) * 2009-09-21 2010-09-20 (주)올라웍스 단말기의 각도에 따라 서로 다른 영상 정보를 제공하기 위한 방법, 단말기 및 컴퓨터 판독 가능한 기록 매체
JP4911389B2 (ja) * 2009-09-30 2012-04-04 Necビッグローブ株式会社 情報表示システム、サーバ、端末、及び方法
US8374790B2 (en) * 2009-10-30 2013-02-12 Teejet Technologies Illinois, Llc Method and apparatus for guiding a vehicle
KR101768101B1 (ko) * 2009-10-30 2017-08-30 엘지전자 주식회사 정보 표시 장치 및 그 방법
CN102088570B (zh) * 2009-12-02 2015-06-17 新奥特(北京)视频技术有限公司 一种马拉松比赛的转播方法
CN102088565B (zh) * 2009-12-02 2015-04-29 新奥特(北京)视频技术有限公司 一种马拉松比赛转播系统
DE102009057949A1 (de) * 2009-12-11 2011-06-16 GM Global Technology Operations LLC, ( n. d. Ges. d. Staates Delaware ), Detroit Verfahren zur Anzeige eines Wertes einer Geschwindigkeitsbegrenzung und Fahrzeug mit einem Kombiinstrument
US20110153198A1 (en) * 2009-12-21 2011-06-23 Navisus LLC Method for the display of navigation instructions using an augmented-reality concept
KR101229078B1 (ko) * 2009-12-21 2013-02-04 한국전자통신연구원 실내외 상황인식 기반의 모바일 혼합현실 콘텐츠 운용 장치 및 방법
US20130176328A1 (en) * 2009-12-25 2013-07-11 Nokia Corporation Method and apparatus for persistent display of navigation content
US9488488B2 (en) 2010-02-12 2016-11-08 Apple Inc. Augmented reality maps
CN102200445B (zh) * 2010-03-23 2013-03-13 财团法人资讯工业策进会 实时扩增实境装置及其实时扩增实境方法
CN102200444B (zh) * 2010-03-23 2013-03-20 财团法人资讯工业策进会 实时扩增实境装置及其实时扩增实境方法
DE102010003851A1 (de) * 2010-04-12 2011-10-13 Robert Bosch Gmbh Verfahren und Informationssystem zum Markieren eines Zielorts für ein Fahrzeug
JP5143856B2 (ja) * 2010-04-16 2013-02-13 株式会社ソニー・コンピュータエンタテインメント 3次元画像表示装置、および3次元画像表示方法
TWI426237B (zh) * 2010-04-22 2014-02-11 Mitac Int Corp Instant image navigation system and method
KR101655812B1 (ko) * 2010-05-06 2016-09-08 엘지전자 주식회사 휴대 단말기 및 그 동작 방법
CN102243078B (zh) * 2010-05-13 2016-03-30 上海宾华信息科技有限公司 一种所视即所释型导航装置及实现方法
US9684989B2 (en) * 2010-06-16 2017-06-20 Qualcomm Incorporated User interface transition between camera view and map view
CN102338639B (zh) * 2010-07-26 2015-04-22 联想(北京)有限公司 信息处理设备和信息处理方法
KR101259598B1 (ko) * 2010-07-30 2013-04-30 주식회사 팬택 로드뷰 제공 장치 및 방법
KR101193913B1 (ko) * 2010-08-23 2012-10-29 고려대학교 산학협력단 광결정 패턴이 형성된 반도체 발광 소자 및 그 제조 방법
US8700324B2 (en) 2010-08-25 2014-04-15 Caterpillar Inc. Machine navigation system having integrity checking
CN101986101A (zh) * 2010-09-14 2011-03-16 浙江天鸿汽车用品有限公司 Gps实时导航系统
US9140719B2 (en) * 2010-09-16 2015-09-22 Pioneer Corporation Terminal holding device
JP4948682B1 (ja) * 2010-10-22 2012-06-06 パイオニア株式会社 端末保持装置及び端末保持方法
US20130250141A1 (en) * 2010-10-22 2013-09-26 Pioneer Corporation Terminal device, image displaying method and image displaying program executed by terminal device
US8723888B2 (en) * 2010-10-29 2014-05-13 Core Wireless Licensing, S.a.r.l. Method and apparatus for determining location offset information
JP5569365B2 (ja) * 2010-11-30 2014-08-13 アイシン・エィ・ダブリュ株式会社 案内装置、案内方法、及び案内プログラム
CN102121831B (zh) * 2010-12-01 2013-01-09 北京腾瑞万里科技有限公司 实时街景导航方法及设备
DE102010062464A1 (de) 2010-12-06 2012-06-06 Robert Bosch Gmbh Verfahren und Vorrichtung zur Darstellung eines Abschnitts einer Umgebung
KR20120067681A (ko) * 2010-12-16 2012-06-26 한국전자통신연구원 차량 안전 센서 제어 장치
KR101732076B1 (ko) * 2010-12-22 2017-05-02 엘지전자 주식회사 전자 기기 및 전자 기기의 제어 방법
KR20120071203A (ko) * 2010-12-22 2012-07-02 한국전자통신연구원 운전자의 시야 확보 장치 및, 운전자의 시야 확보 방법
EP2469230A1 (en) * 2010-12-23 2012-06-27 Research In Motion Limited Updating map data from camera images
US9429438B2 (en) 2010-12-23 2016-08-30 Blackberry Limited Updating map data from camera images
KR101708207B1 (ko) 2011-01-10 2017-02-20 삼성전자주식회사 이동통신 시스템에서 사용자의 이동 경로를 제공하기 위한 장치 및 방법
US9146126B2 (en) * 2011-01-27 2015-09-29 Here Global B.V. Interactive geographic feature
TWI456165B (zh) * 2011-02-14 2014-10-11 Mitac Int Corp 車輛導航方法與車輛導航系統
US9086798B2 (en) 2011-03-07 2015-07-21 Ricoh Company, Ltd. Associating information on a whiteboard with a user
US8881231B2 (en) 2011-03-07 2014-11-04 Ricoh Company, Ltd. Automatically performing an action upon a login
US9053455B2 (en) 2011-03-07 2015-06-09 Ricoh Company, Ltd. Providing position information in a collaborative environment
US9716858B2 (en) 2011-03-07 2017-07-25 Ricoh Company, Ltd. Automated selection and switching of displayed information
US8698873B2 (en) * 2011-03-07 2014-04-15 Ricoh Company, Ltd. Video conferencing with shared drawing
CN102788582A (zh) * 2011-05-19 2012-11-21 昆达电脑科技(昆山)有限公司 车辆导航方法与车辆导航系统
JP2012095283A (ja) * 2011-09-13 2012-05-17 Pioneer Electronic Corp 端末装置、端末装置によって実行される画像表示方法及び画像表示プログラム
JP2013123970A (ja) * 2011-12-14 2013-06-24 Toshiba Corp 表示装置
US9228838B2 (en) 2011-12-20 2016-01-05 Fluke Corporation Thermal imaging camera with compass calibration
US20130162665A1 (en) * 2011-12-21 2013-06-27 James D. Lynch Image view in mapping
DE102012005471A1 (de) 2012-03-17 2013-09-19 GM Global Technology Operations LLC (n.d. Ges. d. Staates Delaware) Verkehrsinformationssystem
KR20130107697A (ko) * 2012-03-23 2013-10-02 (주)휴맥스 내비게이션 단말기의 배경 화면 표시 장치 및 방법
JP6019680B2 (ja) * 2012-04-04 2016-11-02 株式会社ニコン 表示装置、表示方法、及び、表示プログラム
US9037411B2 (en) * 2012-05-11 2015-05-19 Honeywell International Inc. Systems and methods for landmark selection for navigation
US9175975B2 (en) * 2012-07-30 2015-11-03 RaayonNova LLC Systems and methods for navigation
US8666655B2 (en) * 2012-07-30 2014-03-04 Aleksandr Shtukater Systems and methods for navigation
CN102829788A (zh) * 2012-08-27 2012-12-19 北京百度网讯科技有限公司 一种实景导航方法和实景导航装置
DE102012216144A1 (de) 2012-09-12 2014-05-28 Bayerische Motoren Werke Aktiengesellschaft Kontaktanaloge Anzeige insbesondere eines Fahrspurwechsels
CN102879000A (zh) * 2012-09-20 2013-01-16 华为终端有限公司 导航终端、导航方法及远程导航服务系统
KR20140054909A (ko) * 2012-10-30 2014-05-09 팅크웨어(주) 광각 렌즈 카메라 영상을 이용한 내비게이션 안내 장치 및 방법
CN103090875A (zh) * 2012-11-26 2013-05-08 华南理工大学 一种基于双摄像头的实时实景匹配车载导航方法及装置
CN104755881B (zh) * 2012-12-27 2018-04-27 哈曼国际工业有限公司 车辆导航
ITMO20130012A1 (it) * 2013-01-21 2014-07-22 Fabio Lettieri Dispositivo per l'assistenza alla guida di autoveicoli
CN103101497A (zh) * 2013-01-25 2013-05-15 深圳市保千里电子有限公司 汽车摄像系统及其视角与车速同步变化的数据处理方法
CN103105174B (zh) * 2013-01-29 2016-06-15 四川长虹佳华信息产品有限责任公司 一种基于ar增强现实技术的车载实景安全导航方法
CN103134499A (zh) * 2013-02-06 2013-06-05 腾讯科技(深圳)有限公司 导航方法及导航装置
WO2014128532A1 (en) 2013-02-25 2014-08-28 Continental Automotive Gmbh Intelligent video navigation for automobiles
EP2798928B1 (en) * 2013-04-29 2024-02-07 CLAAS E-Systems GmbH Operating system for and method of operating an automatic guidance system of an agricultural vehicle
JP6484228B2 (ja) * 2013-06-13 2019-03-13 モービルアイ ビジョン テクノロジーズ リミテッド 視覚強化ナビゲーション
KR102068700B1 (ko) * 2013-07-02 2020-01-21 현대모비스 주식회사 차량용 네비게이션의 디스플레이 모드 자동 전환 장치 및 방법
US9538077B1 (en) * 2013-07-26 2017-01-03 Ambarella, Inc. Surround camera to generate a parking video signal and a recorder video signal from a single sensor
KR102222336B1 (ko) * 2013-08-19 2021-03-04 삼성전자주식회사 맵 화면을 디스플레이 하는 사용자 단말 장치 및 그 디스플레이 방법
CN103581627A (zh) * 2013-11-07 2014-02-12 北京环境特性研究所 一种高清视频的图像和信息融合显示方法
CN103674016B (zh) * 2013-12-16 2017-01-18 维沃移动通信有限公司 一种基于移动终端的步行指引系统及其实现方法
DE102014003284A1 (de) 2014-03-05 2015-09-10 Astrium Gmbh Verfahren zur Positions- und Lagebestimmung mittels virtueller Referenzbilder
WO2015136144A1 (en) * 2014-03-14 2015-09-17 Nokia Technologies Oy Method and apparatus for superimposing images upon a map
US9459115B1 (en) * 2014-03-28 2016-10-04 Amazon Technologies, Inc. Unobstructed map navigation using animation
GB201407643D0 (en) 2014-04-30 2014-06-11 Tomtom Global Content Bv Improved positioning relatie to a digital map for assisted and automated driving operations
JP2015007632A (ja) * 2014-07-14 2015-01-15 コア ワイヤレス ライセンシング エス.アー.エール.エル. 位置オフセット情報を決定する方法および装置
KR20160041435A (ko) 2014-10-07 2016-04-18 엘지전자 주식회사 이동 단말기 및 그것의 제어방법
DE102014016612A1 (de) 2014-11-11 2015-06-18 Daimler Ag Verfahren und Vorrichtung zur Darstellung von Umgebungsinformationen in einem Fahrzeug und Fahrzeug
CN104535066B (zh) * 2014-12-19 2017-07-11 大连海事大学 一种船载红外视频图像中的海上目标与电子海图的叠加方法及系统
CN111351494A (zh) * 2015-02-10 2020-06-30 御眼视觉技术有限公司 导航系统及计算机可读介质
US9802539B2 (en) * 2015-04-01 2017-10-31 Robert Bosch Gmbh Distance and direction estimation of a target point from a vehicle using monocular video camera
WO2016188547A1 (en) * 2015-05-22 2016-12-01 Here Global B.V. An apparatus and associated methods for providing turn guidance
US9927246B2 (en) * 2015-05-27 2018-03-27 Here Global B.V. Method, apparatus and computer program product for providing navigation information in relation to augmented reality guidance
KR20180038475A (ko) 2015-08-03 2018-04-16 톰톰 글로벌 콘텐트 비.브이. 위치파악 참조 데이터를 생성하고 사용하는 방법 및 시스템
EP3338136B1 (en) * 2015-08-04 2022-09-14 Yasrebi, Seyed-Nima Augmented reality in vehicle platforms
EP3130945B1 (en) * 2015-08-11 2018-05-02 Continental Automotive GmbH System and method for precision vehicle positioning
EP3130891B1 (en) 2015-08-11 2018-01-03 Continental Automotive GmbH Method for updating a server database containing precision road information
EP3131020B1 (en) 2015-08-11 2017-12-13 Continental Automotive GmbH System and method of a two-step object data processing by a vehicle and a server database for generating, updating and delivering a precision road property database
MY168950A (en) * 2015-09-30 2019-01-28 Nissan Motor Vehicular display device
GB2561303A (en) * 2016-02-17 2018-10-10 Ford Global Tech Llc A display screen for a vehicle
FR3048794B1 (fr) * 2016-03-09 2020-11-27 Illusion 3D Systeme et procede de guidage en trois dimensions d'un utilisateur
CN105890613A (zh) * 2016-04-01 2016-08-24 乐视控股(北京)有限公司 导航信息显示方法和装置
US9813642B1 (en) * 2016-05-06 2017-11-07 Snap Inc. Dynamic activity-based image generation
JP6152232B1 (ja) * 2017-02-23 2017-06-21 京セラ株式会社 電子機器
DE102017204567A1 (de) 2017-03-20 2018-09-20 Robert Bosch Gmbh Verfahren und Vorrichtung zum Erstellen einer Navigationsinformation zur Führung eines Fahrers eines Fahrzeugs
CN107014393A (zh) * 2017-05-24 2017-08-04 刘兴丹 一种图像地图导航的方法、装置
CN108362279B (zh) * 2018-01-08 2022-02-15 北京小米移动软件有限公司 基于增强现实技术ar的购物导航方法、装置及系统
JP6987662B2 (ja) * 2018-02-07 2022-01-05 京セラ株式会社 電子機器、制御方法およびプログラム
DE102018210528A1 (de) 2018-06-27 2020-01-02 Bayerische Motoren Werke Aktiengesellschaft Verfahren zum Betreiben eines Dialogsystems
CN110942603B (zh) * 2018-09-21 2021-09-17 北汽福田汽车股份有限公司 车辆碰撞报警方法、装置、车辆和服务器
US20210348940A1 (en) * 2018-10-12 2021-11-11 Vestel Elektronik Sanayi Ve Ticaret A.S. Navigation apparatus and method for operating a navigation apparatus
US10755571B1 (en) * 2019-03-01 2020-08-25 Amazon Technologies, Inc. Identifying parking location using single camera reverse projection
US11619745B2 (en) * 2019-10-29 2023-04-04 Qualcomm Incorporated Camera-based GNSS environment detector
DE102020122266A1 (de) 2020-08-26 2022-03-03 Audi Aktiengesellschaft Verfahren zum Anpassen einer digitalen Ladestationskarte, Vorrichtung für ein Fahrzeug zum Anpassen einer digitalen Ladestationskarte sowie Kraftfahrzeug
JP2023051224A (ja) * 2021-09-30 2023-04-11 コベルコ建機株式会社 作業機械

Family Cites Families (53)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6388403A (ja) 1986-10-02 1988-04-19 Tokyo Keiki Kk 道路標示車両用運転標示装置
JPS6413259A (en) 1987-07-03 1989-01-18 Sony Corp Digital signal recording and reproducing device
JPH01125799A (ja) 1987-11-11 1989-05-18 Fujitsu Ltd 半導体記憶装置
JPH01133833A (ja) 1987-11-16 1989-05-25 Ricoh Co Ltd 自動原稿送給装置
NL8900056A (nl) * 1989-01-11 1990-08-01 Philips Nv Werkwijze voor het visueel weergeven van een deel van een topografische kaart, alsmede inrichting geschikt voor een dergelijke werkwijze.
NL8901695A (nl) * 1989-07-04 1991-02-01 Koninkl Philips Electronics Nv Werkwijze voor het weergeven van navigatiegegevens voor een voertuig in een omgevingsbeeld van het voertuig, navigatiesysteem voor het uitvoeren van de werkwijze, alsmede voertuig voorzien van een navigatiesysteem.
US5815411A (en) * 1993-09-10 1998-09-29 Criticom Corporation Electro-optic vision system which exploits position and attitude
US5627915A (en) 1995-01-31 1997-05-06 Princeton Video Image, Inc. Pattern recognition system employing unlike templates to detect objects having distinctive features in a video field
JP3233017B2 (ja) * 1996-05-14 2001-11-26 トヨタ自動車株式会社 車両用経路案内装置
JPH09304101A (ja) * 1996-05-14 1997-11-28 Matsushita Electric Ind Co Ltd ナビゲーション装置
JPH1047978A (ja) 1996-08-02 1998-02-20 Nissan Motor Co Ltd 車両用前方モニタ装置
JPH10132598A (ja) 1996-10-31 1998-05-22 Sony Corp ナビゲート方法、ナビゲーション装置及び自動車
JPH1123305A (ja) 1997-07-03 1999-01-29 Toyota Motor Corp 車両用走行案内装置
JPH11108684A (ja) * 1997-08-05 1999-04-23 Harness Syst Tech Res Ltd カーナビゲーションシステム
JPH1186034A (ja) * 1997-09-05 1999-03-30 Nippon Telegr & Teleph Corp <Ntt> 景観ラベル付ヒューマンナビゲーション装置およびシステム
JPH11304499A (ja) * 1998-04-22 1999-11-05 Matsushita Electric Ind Co Ltd カーナビゲーション装置
JPH11338339A (ja) 1998-05-21 1999-12-10 Otsuka Shokai Co Ltd 遠隔講義システム
US6266442B1 (en) 1998-10-23 2001-07-24 Facet Technology Corp. Method and apparatus for identifying objects depicted in a videostream
JP3399506B2 (ja) 1998-12-22 2003-04-21 アイシン・エィ・ダブリュ株式会社 車両用ナビゲーション装置
JP2000251193A (ja) 1999-03-02 2000-09-14 Canon Inc 映像処理装置及び方法並びに記憶媒体
US7366595B1 (en) * 1999-06-25 2008-04-29 Seiko Epson Corporation Vehicle drive assist system
JP2001272242A (ja) 2000-03-23 2001-10-05 Kenwood Corp ナビゲーションシステム、誘導経路報知方法及び記録媒体
DE10037573B4 (de) * 2000-08-02 2005-05-19 Robert Bosch Gmbh Navigationsverfahren in einem Kraftfahrzeug
JP2002092012A (ja) * 2000-09-19 2002-03-29 Olympus Optical Co Ltd 特定地域内情報表示システム
JP2002213973A (ja) 2001-01-18 2002-07-31 Sony Corp 画像取得装置、画像取得方法、画像取得のプログラム
DE10138719A1 (de) * 2001-08-07 2003-03-06 Siemens Ag Verfahren und Vorrichtung zur Darstellung von Fahrhinweisen, insbesondere in Auto-Navigationssystemen
JP2003111128A (ja) 2001-09-28 2003-04-11 J-Phone East Co Ltd 現在位置特定方法、現在位置情報提供方法、移動経路案内方法、位置情報管理システム及び情報通信端末
JP3886769B2 (ja) * 2001-10-26 2007-02-28 富士通株式会社 補正画像生成装置および補正画像生成プログラム
JP2002228466A (ja) 2001-11-08 2002-08-14 Sony Corp ナビゲーション装置
JP3893983B2 (ja) 2002-01-17 2007-03-14 ソニー株式会社 情報提供装置及び情報提供方法、記憶媒体、並びにコンピュータ・プログラム
JP3801049B2 (ja) * 2002-01-22 2006-07-26 ソニー株式会社 情報処理装置及び情報処理方法並びに情報処理プログラム
JP2003259363A (ja) * 2002-02-27 2003-09-12 Denso Corp ナイトビジョン装置
JP4015051B2 (ja) * 2002-04-22 2007-11-28 松下電器産業株式会社 カメラ補正装置
DE10236221C1 (de) * 2002-08-07 2003-11-20 Siemens Ag Verfahren und Vorrichtung zur Anzeige von Navigationsinformationen für ein Fahrzeug
JP4136529B2 (ja) 2002-08-12 2008-08-20 パイオニア株式会社 情報処理装置、そのシステム、その方法、そのプログラム、そのプログラムを記録する記録媒体、および、ナビゲーション装置
JP4086605B2 (ja) * 2002-09-24 2008-05-14 キヤノン株式会社 撮像装置
WO2004048895A1 (ja) 2002-11-22 2004-06-10 Kumamoto Technology & Industry Foundation 移動体ナビゲート情報表示方法および移動体ナビゲート情報表示装置
WO2004076977A1 (en) 2003-02-26 2004-09-10 Tomtom B.V. Navigation device and method for exchanging data between resident applications
JP2004257979A (ja) * 2003-02-27 2004-09-16 Sanyo Electric Co Ltd ナビゲーション装置
US7071970B2 (en) * 2003-03-10 2006-07-04 Charles Benton Video augmented orientation sensor
JP2004328399A (ja) * 2003-04-24 2004-11-18 Denso Corp 車載カメラ装置
JP2005214857A (ja) * 2004-01-30 2005-08-11 Sony Corp ナビゲーション装置、案内画像作成方法
GB2414799A (en) 2004-06-02 2005-12-07 Nec Technologies Visual navigation system
US7460953B2 (en) * 2004-06-30 2008-12-02 Navteq North America, Llc Method of operating a navigation system using images
US7456847B2 (en) * 2004-08-12 2008-11-25 Russell Steven Krajec Video with map overlay
US8195386B2 (en) 2004-09-28 2012-06-05 National University Corporation Kumamoto University Movable-body navigation information display method and movable-body navigation information display unit
JP2006105640A (ja) 2004-10-01 2006-04-20 Hitachi Ltd ナビゲーション装置
JP4632793B2 (ja) 2005-01-12 2011-02-16 京セラ株式会社 ナビゲーション機能付き携帯型端末機
JP4483798B2 (ja) 2005-04-06 2010-06-16 株式会社デンソー 経路案内装置およびプログラム
US7728869B2 (en) * 2005-06-14 2010-06-01 Lg Electronics Inc. Matching camera-photographed image with map data in portable terminal and travel route guidance method
JP4550927B2 (ja) 2006-03-28 2010-09-22 パナソニック株式会社 ナビゲーション装置
JP4888703B2 (ja) 2006-10-11 2012-02-29 株式会社デンソー 車両用ナビゲーション装置
US20100029293A1 (en) 2007-05-10 2010-02-04 Sony Ericsson Mobile Communications Ab Navigation system using camera

Also Published As

Publication number Publication date
CN101194143A (zh) 2008-06-04
ATE441089T1 (de) 2009-09-15
NZ575752A (en) 2010-10-29
ES2330351T3 (es) 2009-12-09
US8180567B2 (en) 2012-05-15
EP2003423A1 (en) 2008-12-17
BRPI0520250A2 (pt) 2009-04-28
EP2003423B1 (en) 2013-03-27
US20120191346A1 (en) 2012-07-26
DE202005021607U1 (de) 2008-11-20
AU2005332711A1 (en) 2006-12-14
US20090125234A1 (en) 2009-05-14
CN101194143B (zh) 2012-10-03
EP1889007B1 (en) 2009-08-26
JP2008542746A (ja) 2008-11-27
NZ564319A (en) 2009-05-31
DE602005016311D1 (de) 2009-10-08
CA2609663A1 (en) 2006-12-14
NO20080097L (no) 2008-01-07
US8352180B2 (en) 2013-01-08
ES2404164T3 (es) 2013-05-24
JP4921462B2 (ja) 2012-04-25
WO2006132522A1 (en) 2006-12-14
EP1889007A1 (en) 2008-02-20
AU2005332711B2 (en) 2010-12-02

Similar Documents

Publication Publication Date Title
US8180567B2 (en) Navigation device with camera-info
US8423292B2 (en) Navigation device with camera-info
US8315796B2 (en) Navigation device
JP4705170B2 (ja) ナビゲーションデバイス及びナビゲーションデバイス上に表示された地図データをスクロールする方法
US20080167811A1 (en) Navigation device and method for displaying navigation information
US20100250116A1 (en) Navigation device
US20080195315A1 (en) Movable-Body Navigation Information Display Method and Movable-Body Navigation Information Display Unit
CN101573590A (zh) 导航装置及用于显示导航信息的方法
JP2011523703A (ja) ロードマップを構築し、乗物の位置を判別する方法及びシステム
CN102798397B (zh) 带有相机信息的导航装置
JP4833384B1 (ja) ナビゲーション装置、ナビゲーション方法、ナビゲーションプログラムおよび記録媒体
RU2375756C2 (ru) Навигационное устройство с информацией, получаемой от камеры
KR20080019690A (ko) 카메라 정보를 구비하는 내비게이션 기기
JP2011022152A (ja) ナビゲーションデバイス
JP5356483B2 (ja) ナビゲーション装置及びナビゲーション方法
RU2417398C2 (ru) Навигационное устройство и способ прокрутки картографических данных, отображаемых в навигационном устройстве
KR20080036039A (ko) 내비게이션 기기 상에 표시된 지도 데이터를 스크롤하는내비게이션 기기 및 방법

Legal Events

Date Code Title Description
FG Grant or registration