ES2330351T3 - Dispositivo de navegacion con informacion de camara. - Google Patents

Dispositivo de navegacion con informacion de camara. Download PDF

Info

Publication number
ES2330351T3
ES2330351T3 ES05752007T ES05752007T ES2330351T3 ES 2330351 T3 ES2330351 T3 ES 2330351T3 ES 05752007 T ES05752007 T ES 05752007T ES 05752007 T ES05752007 T ES 05752007T ES 2330351 T3 ES2330351 T3 ES 2330351T3
Authority
ES
Spain
Prior art keywords
navigation
camera
navigation device
instructions
screen
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
ES05752007T
Other languages
English (en)
Inventor
Pieter Andreas Geelen
Marc Daniel Mattu
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
TomTom International BV
Original Assignee
TomTom International BV
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by TomTom International BV filed Critical TomTom International BV
Application granted granted Critical
Publication of ES2330351T3 publication Critical patent/ES2330351T3/es
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3626Details of the output of route guidance instructions
    • G01C21/3647Guidance involving output of stored or live camera images or video streams

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Automation & Control Theory (AREA)
  • Multimedia (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Navigation (AREA)
  • Instructional Devices (AREA)
  • Traffic Control Systems (AREA)
  • Camera Data Copying Or Recording (AREA)

Abstract

Un dispositivo de navegación, dispositivo (10), el cual está preparado para mostrar instrucciones de navegación en una pantalla de visualización, para recibir una señal de video de una cámara (24) y para mostrar una combinación de una imagen de cámara de la señal de video de la cámara e instrucciones de navegación en la pantalla; caracterizado porque (i) el dispositivo es un dispositivo de navegación portátil el cual incluye una cámara (24) integrada al dispositivo y (ii) el dispositivo está preparado para proporcionar una opción de menú que le permite a un usuario ajustar una posición relativa de la imagen de cámara mostrada con respecto a las instrucciones de navegación.

Description

Dispositivo de navegación con información de cámara.
Ámbito de la invención
La presente invención hace referencia a un dispositivo de navegación, dispositivo de navegación que está preparado para mostrar instrucciones de navegación en una pantalla.
Además, la presente invención hace referencia a un vehículo que incluye un dispositivo de navegación de este tipo, y un método para proporcionar instrucciones de navegación. La presente invención también se refiere a un programa informático y a un portador de datos.
Estado del arte
Los dispositivos de navegación de artes anteriores basados en GPS (Sistema de Posicionamiento Global) son bien conocidos y ampliamente utilizados como ocurre en los sistemas de navegación para vehículos. Un dispositivo de navegación GPS de este tipo hace referencia a un dispositivo informático el cual, en conexión funcional con un receptor GPS externo (o interno), es capaz de determinar su posición global. Además, el dispositivo informático es capaz de determinar una ruta entre direcciones de origen y destino, las cuales pueden ser ingresadas por un usuario del dispositivo informático. Por lo general, el dispositivo informático cuenta con un software que le permite calcular una "mejor" u "óptima" ruta entre las ubicaciones de las direcciones de origen y destino de una base de datos de mapas. En base a un criterio predefinido se determina una "mejor" u "óptima" ruta, la cual no debe ser necesariamente la ruta más rápida o más corta.
Normalmente, el dispositivo de navegación puede ser montado en el tablero de un vehículo, pero también puede ser incorporado a una computadora de a bordo o al equipo estéreo del vehículo. El dispositivo de navegación también puede ser parte de un sistema portátil, como un Asistente Personal Digital (PDA, por sus siglas en inglés).
Mediante la utilización de información posicional derivada del receptor GPS, el dispositivo informático puede determinar en intervalos regulares su posición y mostrar la posición actual del vehículo al usuario. El dispositivo de navegación también puede incluir dispositivos de memoria para almacenar datos de mapas y una pantalla para mostrar una porción específica de los datos del mapa.
Además, puede proporcionar instrucciones sobre cómo navegar la ruta determinada por medio de instrucciones de navegación apropiadas que se muestran en la pantalla y/o que son generadas como señales audibles a través de un altavoz (por ejemplo, "gire a la izquierda a 100 m"). Los gráficos que representan las acciones a ejecutar (por ejemplo, una flecha hacia la izquierda indicando un próximo giro a la izquierda) pueden ser visualizados en una barra de estado y también pueden ser superpuestos sobre las intersecciones/giros, etc. aplicables en el mapa mismo.
Los sistemas de navegación para vehículos permiten al conductor iniciar un recálculo de ruta mientras conduce un automóvil por una ruta ya calculada por el sistema de navegación. Esto resulta de gran utilidad cuando el vehículo se encuentra con obras en construcción o grandes congestionamientos de tránsito.
También le permiten al usuario elegir el tipo de algoritmo de cálculo de ruta empleado por el dispositivo de navegación, seleccionando por ejemplo entre un modo "Normal" y un modo "Rápido" (el cual calcula la ruta en menos tiempo, pero no explora tantas rutas alternativas como lo hace el modo Normal).
También permiten calcular una ruta utilizando un criterio definido por el usuario; por ejemplo, el usuario podría preferir que el dispositivo calcule una ruta turística. El software del dispositivo calcularía entonces distintas rutas y priorizaría aquellas que incluyan a lo largo de su ruta la mayor cantidad de puntos de interés (conocidos como POI, por sus siglas en inglés) marcados, por ejemplo, como paisajes bellos.
En el arte anterior, los dispositivos de navegación muestran mapas que son, al igual que la mayoría de los mapas, una representación altamente estilizada o esquemática del mundo real. A muchas personas les resulta difícil convertir esta versión bastante abstracta del mundo real en algo que pueda ser reconocido y comprendido fácilmente. Los dispositivos de navegación muestran una proyección (semi) tridimensional del mapa, como se lo vería desde arriba y/o desde atrás del vehículo. Con esto se pretende que el usuario pueda interpretar de manera más fácil los datos del mapa mostrados, dado que se corresponden con la percepción visual que el usuario tiene del mundo. Sin embargo, dicha vista en (semi) perspectiva es una representación estilizada o esquemática que para los usuarios aún resulta relativamente difícil interpretar.
Sin embargo, la necesidad de permitir a las personas seguir las instrucciones que se muestran en pantalla de manera fácil y rápida resulta especialmente acuciante en un sistema de navegación personal, dado que muchos serán utilizados como sistemas de navegación para automóvil. Se comprenderá que un conductor de un vehículo debe pasar el menor tiempo posible mirando e interpretando los datos de mapa mostrados, dado que su atención tiene que estar concentrada en la ruta y en el tráfico.
Es posible hacer referencia a la JP 09304101, la cual revela una cámara conectada a un dispositivo de navegación, pero la cual no revela ni una cámara integrada al dispositivo de navegación, ni un dispositivo de navegación preparado para proporcionar una opción de menú que le permita a un usuario ajustar una posición relativa de la imagen de cámara mostrada con respecto a las instrucciones de navegación mostradas. La Figura 4 de JP 09304101 muestra una cámara montada en el techo de un vehículo.
Es posible hacer referencia a la EP 0899542A, la cual revela una cámara conectada a un dispositivo de navegación, pero la cual no revela ni una cámara integrada al dispositivo de navegación, ni un dispositivo de navegación preparado para proporcionar una opción de menú que le permita a un usuario ajustar una posición relativa de la imagen de cámara mostrada con respecto a las instrucciones de navegación mostradas. El párrafo [0022] de EP 0899542A revela una cámara conectada a una unidad de navegación, no una cámara integrada a una unidad de navegación. La imagen de cámara no se muestra en EP 0899542A.
Es posible hacer referencia a la DE 1023621, la cual revela un sistema de navegación equipado con una cámara, pero que no revela ni una cámara integrada al dispositivo de navegación, ni un dispositivo de navegación preparado para proporcionar una opción de menú que le permita a un usuario ajustar una posición relativa de la imagen de cámara mostrada con respecto a las instrucciones de navegación mostradas. El párrafo [0030] de DE 10236221 revela que el sistema está equipado con una cámara, pero no existe sugerencia alguna de que esta cámara pueda estar integrada a la unidad de navegación.
Breve descripción de la invención
Por lo tanto, es un objeto de la invención proporcionar un dispositivo de navegación que supere al menos uno de los problemas mencionados anteriormente y que muestre instrucciones de fácil interpretación para el usuario.
Para alcanzar este objeto, la invención proporciona un dispositivo de navegación, dispositivo 10, el cual está preparado para mostrar instrucciones de navegación en una pantalla de visualización, para recibir una señal de video de una cámara 24 y para mostrar una combinación de una imagen de cámara de la señal de video de la cámara e instrucciones de navegación en la pantalla; caracterizado porque
(i)
el dispositivo es un dispositivo de navegación portátil, el cual incluye una cámara 24 integrada al dispositivo y
(ii)
el dispositivo está preparado para proporcionar una opción de menú que le permite a un usuario ajustar una posición relativa de la imagen de cámara mostrada con respecto a las instrucciones de navegación.
Mediante la superposición o combinación de instrucciones de navegación sobre la imagen de cámara, se le presenta al usuario una vista amigable que permite una fácil y rápida interpretación. El usuario no tiene la necesidad de traducir una representación abstracta del mundo real, porque la imagen de cámara es una representación uno a uno de la vista real percibida por el usuario. La combinación de la señal de la cámara y las instrucciones de navegación podrían ser todo tipo de combinaciones, como la superposición de una sobre otra, que se muestren de manera simultánea en diferentes partes de la pantalla. No obstante, la combinación también podría ser una combinación en tiempo, es decir, una visualización alternativa entre la señal de la cámara y las instrucciones de navegación. Ésta podría cambiar luego de un intervalo de tiempo predeterminado (por ejemplo, 5 segundos) o podría cambiar como resultado de una acción ingresada por el usuario.
Dado que la cámara está integrada al dispositivo de navegación, dicho dispositivo de navegación no requiere una señal de cámara externa. El dispositivo de navegación puede, por ejemplo, ser montado fácilmente en un tablero de un vehículo, de manera tal que la cámara proporcione una imagen a través de la pantalla frontal.
Según una ejecución adicional, la invención hace referencia a un dispositivo de navegación donde las instrucciones de navegación son una o más para flechas de posición, ruta, flecha, puntos de interés, rutas, edificios, y datos de mapa como datos de vector, almacenados en al menos una unidad de memoria, como un disco duro, una Memoria de Sólo Lectura, una Memoria Programable y Borrable Eléctricamente de Sólo Lectura y una Memoria de Acceso Aleatorio. Es posible mostrar todo tipo de instrucciones de navegación. Se observa que estas instrucciones de navegación también podrían proporcionar información no necesaria de por sí para la navegación (encontrar una ruta), y que también podrían proporcionarle al usuario información adicional.
Según una ejecución adicional, la invención hace referencia a un dispositivo de navegación preparado también para superponer las instrucciones de navegación sobre la imagen de cámara de modo tal que la posición de las instrucciones de navegación se encuentren en una relación espacial predefinida con respecto a las partes correspondientes de la imagen de cámara. Esto le proporciona al usuario una imagen fácilmente interpretable, dado que todas las instrucciones de navegación pueden ser visualizadas de modo tal que coincidan con la posición real del elemento correspondiente en la imagen de cámara. Por ejemplo, una flecha que indique un giro a la derecha puede superponerse sobre la imagen de cámara de modo tal que coincida con el giro visible en la imagen de cámara.
Según una ejecución adicional, la invención hace referencia a un dispositivo de navegación, donde el dispositivo de navegación está preparado para recibir correcciones de calibración, almacenar estas correcciones de calibración y aplicar las correcciones de calibración al combinar las instrucciones de navegación y la imagen de cámara. Esto resulta especialmente ventajoso cuando las instrucciones de navegación son combinadas de forma tal que las instrucciones de navegación se superpongan sobre la imagen de cámara para tener una relación espacial predefinida con respecto a la imagen de cámara. Las correcciones de calibración pueden ser utilizadas para cancelar errores de descentrado.
En las Reivindicaciones se definen características adicionales de realizaciones de la invención.
Breve descripción de los dibujos
A continuación se describirán las realizaciones de la invención, sólo a modo de ejemplo, en referencia a los dibujos esquemáticos anexos en los cuales los símbolos de referencia correspondientes indican piezas y partes correspondientes, y en los cuales:
- la Figura 1 representa esquemáticamente un diagrama esquemático de bloque de un dispositivo de navegación,
- la Figura 2 representa esquemáticamente una vista esquemática de un dispositivo de navegación,
- la Figura 3 representa esquemáticamente un diagrama esquemático de bloque de un dispositivo de navegación según una ejecución de la invención,
- la Figura 4 representa esquemáticamente un vehículo que incluye un dispositivo de navegación según una ejecución de la invención,
- la Figura 5 representa esquemáticamente un dispositivo de navegación según una ejecución de la invención,
- la Figura 6 representa esquemáticamente un dispositivo de navegación según una ejecución de la invención,
- la Figura 7 representa esquemáticamente una cámara según una ejecución de la invención,
- las Figuras 8a y 8b representan esquemáticamente diferentes movimientos de la imagen de cámara en la pantalla como resultado de diferentes inclinaciones de la cámara,
- la Figura 9 representa esquemáticamente un diagrama de flujo de la funcionalidad del dispositivo de navegación 10 según una ejecución de la invención,
- la Figura 10 representa esquemáticamente un dispositivo de navegación según una ejecución de la invención,
- la Figura 11 representa esquemáticamente un dispositivo de navegación según una ejecución de la invención, y
- la Figura 12 representa un dispositivo de navegación según una ejecución adicional de la invención.
Descripción detallada de la invención
La Figura 1 muestra un diagrama esquemático de bloque de una ejecución de un dispositivo de navegación 10, que consta de una unidad de procesador 11 para ejecutar operaciones aritméticas. La unidad de procesador 11 está preparada para comunicarse con las unidades de memoria que almacenan instrucciones y datos, como un disco duro 12, una Memoria de Sólo Lectura (ROM, sus siglas en inglés) 13, una Memoria Programable y Borrable Eléctricamente de Sólo Lectura (EEPROM, su siglas en inglés) 14 y una Memoria de Acceso Aleatorio (RAM, por sus siglas en inglés) 15. Las unidades de memoria pueden incluir datos de mapa 22. Estos datos de mapa pueden ser datos de mapa de dos dimensiones (latitud y longitud), pero también pueden incluir una tercera dimensión (altura). Estos datos de mapa también pueden incluir información adicional como información sobre estaciones de combustible, puntos de interés, etc. Los datos de mapa también pueden incluir información acerca de la forma de los edificios y los objetos que se encuentran a lo largo de la ruta.
La unidad de procesador 11 también puede estar preparada para comunicarse con uno o más dispositivos de entrada, como un teclado 16 y un ratón 17. El teclado 16 puede ser, por ejemplo, un teclado virtual, proporcionado en una pantalla 1, 8, que sea una pantalla táctil. La unidad de procesador 11 también puede estar preparada para comunicarse con uno o más dispositivos de salida, como una pantalla 18, un altavoz 29 y una o más unidades de lectura 19 para leer, por ejemplo, disquetes 20 o CD ROM 21. La pantalla 18 podría ser una pantalla convencional de computadora (por ejemplo, una pantalla LCD) o podría ser una pantalla de proyección, como las pantallas frontales de datos utilizadas para proyectar datos de instrumentación en el parabrisas de un auto. La pantalla 18 también puede ser una pantalla preparada para funcionar como pantalla táctil, la cual le permite al usuario ingresar instrucciones y/o información tocando la pantalla 18 con su dedo.
La unidad de procesador 11 también puede estar preparada para comunicarse con otros dispositivos informáticos o dispositivos de comunicación utilizando un dispositivo de entrada/salida 25. Se muestra que el dispositivo de entrada/salida 25 debe estar preparado para la comunicación entre equipos a través de una red 27.
El altavoz 29 podría estar integrado al dispositivo de navegación 10. En caso de que el dispositivo de navegación 10 sea utilizado como dispositivo de navegación para auto, el dispositivo de navegación 10 podría utilizar los altavoces del equipo estéreo, la computadora de abordo, etc.
La unidad de procesador 11 también puede estar preparada para comunicarse con un dispositivo de posicionamiento 23, como un receptor GPS, que proporcione información acerca de la posición del dispositivo de navegación 10. Según esta ejecución, el dispositivo de posicionamiento 23 es un dispositivo de posicionamiento GPS 23. Sin embargo, se comprenderá que este dispositivo de navegación 10 puede implementar cualquier tipo de tecnología de detección de posicionamiento y no se limita al GPS. Por lo tanto, puede ser implementado utilizando otros tipos de sistemas de navegación mundial por satélite (GNSS, por sus siglas en inglés) como el sistema europeo Galileo. Así mismo, no está limitado a sistemas de ubicación/velocidad satelitales pero igualmente puede ser implementado utilizando guías baliza de tierra o cualquier otro tipo de sistema que permita al dispositivo determinar su ubicación geográfica.
Sin embargo, debe comprenderse que podrían proporcionarse más y/u otras unidades de memoria, dispositivos de entrada y dispositivos de lectura conocidos por aquellos expertos en el arte. Además, uno o más de ellos podría estar ubicado físicamente lejos de la unidad de procesador 11, si así fuera necesario. La unidad de procesador 11 se muestra como una caja; sin embargo, podría constar de diversas unidades de procesamiento funcionando en paralelo o controladas por un procesador principal que podrían estar distanciadas unas de otras, como lo saben aquellas personas expertas en el arte.
El dispositivo de navegación10 se muestra como un sistema informático, pero puede ser cualquier sistema de procesamiento de señal con tecnología análoga y/o digital y/o de software preparado para ejecutar las funciones aquí descritas. Se comprenderá que aunque el dispositivo de navegación 10 se muestra en la Figura 1 como una pluralidad de componentes, el dispositivo de navegación 10 puede diseñarse como un dispositivo único.
El dispositivo de navegación 10 puede utilizar software de navegación, como el software de navegación de TomTom B.V. llamado Navigator. El software Navigator puede funcionar en un dispositivo PDA Pocket PC con pantalla táctil (por ejemplo, controlado por un lápiz óptico), como el Compaq iPaq, como así también en dispositivos que tengan un receptor GPS integrado 23. El sistema combinado de PDA y receptor GPS está diseñado para ser utilizado como sistema de navegación para auto. La invención también puede ser implementada en cualquier otra configuración de dispositivo de navegación 10, como en una que tenga un receptor GPS/computadora/pantalla integrados, o en un dispositivo diseñado para usar fuera del vehículo (por ejemplo, para peatones) o en otros vehículos que no sean automóviles (por ejemplo, aeronaves).
La Figura 2 representa un dispositivo de navegación 10 como se describió arriba.
El software Navigator, al ser utilizado en un dispositivo de navegación 10, hace que el dispositivo de navegación 10 muestre una pantalla de modo de navegación normal en la pantalla 18, como se muestra en la Figura 2. Esta visualización podría proporcionar instrucciones de manejo utilizando una combinación de texto, símbolos, direcciones de voz y un mapa móvil. Los elementos clave de interfaz de usuario son los siguientes: un mapa 3D ocupa la mayor parte de la pantalla. Se observa que el mapa también puede ser visualizado como un mapa 2D.
El mapa muestra la posición del dispositivo de navegación 10 y sus alrededores inmediatos, rotados de manera tal que la dirección en la cual el dispositivo de navegación10 se está moviendo sea siempre "arriba". De manera transversal en la parte inferior de la pantalla puede haber una barra de estado 2. La ubicación actual del dispositivo de navegación 10 (como lo determina el propio dispositivo de navegación 10 utilizando detección de ubicación GPS convencional) y su orientación (como se deduce de su orientación de recorrido) están representados por una flecha de posición 3. Una ruta 4 calculada por el dispositivo (utilizando algoritmos de cálculo de ruta almacenados en los dispositivos de memoria 11, 12, 13, 14, 15 aplicados a los datos de mapa almacenados en una base de datos de mapas en los dispositivos de memoria 11, 12, 13, 14, 15) se muestra como camino sombreado. En la ruta 4, todas las acciones principales (por ejemplo, giros de esquina, intersecciones, rotondas, etc.) son representadas esquemáticamente mediante flechas 5 sobrepuestas a la ruta 4. La barra de estado 2 también incluye a la izquierda un icono esquemático que representa la próxima acción 6 (aquí, un giro a la derecha). La barra de estado 2 también muestra la distancia hasta la próxima acción (es decir, el giro a la derecha - aquí la distancia es de 50 metros) según lo extraído de la base de datos de toda la ruta calculada por el dispositivo (es decir, una lista de todas las rutas y acciones relacionadas que definen la ruta a tomar). La barra de estado 2 también muestra el nombre de la ruta actual 8, el tiempo estimado antes de llegar 9 (aquí, 2 minutos y 40 segundos), la hora estimada actual de llegada 25 (11:36 a.m.) y la distancia hasta el destino 26 (1,4 km). La barra de estado 2 también puede mostrar información adicional, como la intensidad de la señal GPS en un indicador de intensidad de señal similar al de los teléfonos móviles.
Como se mencionó con anterioridad, el dispositivo de navegación puede incluir dispositivos de entrada, como una pantalla táctil, que permitan que los usuarios presenten en pantalla un menú de navegación (no mostrado). Desde este menú pueden iniciarse o controlarse otras funciones de navegación. Permitir que las funciones de navegación sean seleccionadas de una pantalla de menú a la cual pueda accederse fácilmente (por ejemplo, muy cerca de la pantalla de mapa a la pantalla de menú) simplifica en gran manera la interacción del usuario haciéndola más rápida y fácil. El menú de navegación incluye la opción para que el usuario ingrese un destino.
\newpage
La estructura física real del dispositivo de navegación 10 en sí misma podría ser básicamente igual a la de cualquier computadora portátil convencional, aparte del receptor GPS integrado 23 o de la señal de datos GPS de un receptor GPS externo. Por lo tanto, los dispositivos de memoria 12, 13, 14, 15 almacenan los algoritmos de cálculo de ruta, las bases de datos de mapas y el software de interfaz de usuario; una unidad de procesador 12 interpreta y procesa los datos ingresados por el usuario (por ejemplo, utilizando una pantalla táctil para ingresar las direcciones de origen y destino y todas las demás entradas de datos de control) y utiliza los algoritmos de cálculo de ruta para calcular la ruta óptima. "Óptima" podría referirse a criterios como menor tiempo o menor distancia, o a otros factores relacionados con el usuario.
Más específicamente, el usuario ingresa su posición de origen y destino solicitado en el software de navegación que está funcionando en el dispositivo de navegación 10, utilizando los dispositivos de entrada proporcionados, como una pantalla táctil 18, un teclado 16, etc. Después, el usuario selecciona la manera en la cual debe calcularse una ruta de viaje: Se ofrecen distintos modos, como por ejemplo un modo "rápido" que calcula la ruta muy rápidamente, aunque la ruta podría no ser la más corta; un modo "completo" que analiza todas las rutas posibles y localiza la más corta, pero que demora más tiempo en realizar el cálculo, etc. También existen otras opciones, como en las que el usuario define una ruta turística, por ejemplo, que pase por la mayor cantidad de POI (puntos de interés) posible marcados como vistas de extraordinaria belleza, o que pase por la mayor cantidad de POI de posible interés para niños, o que utilice la menor cantidad de intersecciones, etc.
Las rutas en sí mismas son descritas en la base de datos de mapas que es parte del software de navegación (o a la que se accede mediante éste) que funciona en el dispositivo de navegación 10 como líneas, es decir vectores (por ejemplo, punto de inicio, punto de finalización, dirección de una ruta, con una ruta entera compuesta por muchos cientos de dichas acciones, cada una de ellas definida exclusivamente por parámetros de direcciones de punto de inicio/punto de finalización). Un mapa es, por lo tanto, un conjunto de dichos vectores de ruta, más puntos de interés, más nombres de rutas, más otras características geográficas como límites de parques, límites de ríos, etc., cada uno de los cuales es definido en términos de vectores. Todas las características del mapa (por ejemplo, vectores de ruta, POI, etc.) son definidas en un sistema de coordenadas que se corresponde o se relaciona con un sistema de coordenadas GPS, permitiendo que la posición del positivo determinada mediante el sistema GPS sea localizada en la ruta relevante mostrada en un mapa.
El cálculo de ruta utiliza complejos algoritmos que forman parte del software de navegación. Los algoritmos son aplicados para calificar una gran cantidad de rutas posibles. Después, el software de navegación las evalúa comparándolas con los criterios definidos por el usuario (o según la configuración predeterminada del dispositivo), como un escaneo de modo completo, con rutas turísticas, museos históricos, y ausencia de cámaras de velocidad. La ruta que mejor se adapta a los criterios definidos es entonces calculada por la unidad de procesador 11 y luego almacenada en una base de datos en los dispositivos de memoria 12, 13, 14, 15 como una secuencia de vectores, nombres de rutas y acciones a ser realizadas en extremos del vector (por ejemplo, correspondientes a distancias predeterminadas a lo largo de cada carretera de la ruta, como después de 100 metros, doble a la izquierda en la calle x).
La Figura 3 representa un diagrama esquemático de bloque de un dispositivo de navegación 10 según la invención, en el cual los símbolos de referencia correspondientes indican partes y piezas correspondientes como en las Figuras 1 y 2.
Según la invención, se proporciona una cámara 24 la cual está preparada para suministrar una señal de tiempo real a la unidad de procesador 11. Al usarse, la cámara 24 es posicionada de modo tal que registre la carretera a recorrer por el usuario. Cuando se la posiciona en un auto, la cámara 24 es posicionada de modo tal que registre la carretera a recorrer por el usuario. La cámara 24 puede estar integrada al dispositivo de navegación 10, o puede estar físicamente separada de él. Si está separada, la cámara 24 puede conectarse a la unidad de procesador 11 mediante un cable o a través de una conexión inalámbrica. La cámara 24 puede ser posicionada en el techo del vehículo o en la parte frontal del vehículo, por ejemplo cerca de las luces delanteras.
El dispositivo de navegación 10 también puede ser proporcionado con más de una cámara 24, para permitir que el usuario alterne entre diferentes ángulos de cámara. También puede proporcionarse una cámara de vista posterior. La cámara puede ser cualquier tipo de cámara, como una cámara digital o una cámara analógica. La imagen registrada por la cámara 24 es mostrada en la pantalla 18.
La cámara 24 también puede ser una cámara sensible a la radiación electromagnética fuera del espectro electromagnético visible para el ojo humano. La cámara puede ser una cámara infrarroja que permita su utilización durante la noche.
La Figura 4 muestra un ejemplo de un dispositivo de navegación 10, posicionado en el tablero del automóvil 1. El dispositivo de navegación 10 consta de una cámara 24 direccionada hacia la carretera por delante del automóvil 1. La Figura 4 también muestra que la pantalla 18 se encuentra frente al usuario.
Según la invención, el dispositivo de navegación 10 está preparado para mostrar la señal en tiempo real de la cámara en la pantalla 18 y para combinar o superponer una o más instrucciones de navegación. Las instrucciones de navegación pueden ser una o más de las siguientes instrucciones: flecha de posición 3, la ruta 4, flecha 5, puntos de interés, carreteras, edificios y todas las instrucciones de navegación adicionales almacenadas en el dispositivo de navegación 10. También pueden incluir los datos de mapa en sí mismos, por ejemplo los datos de vector que describen las carreteras. A continuación se describe de manera detallada la forma en que ésto puede llevarse a cabo.
Las imágenes proporcionadas por la cámara 24 no serán estáticas, debido a las irregularidades de la carretera, las vibraciones del vehículo causadas por el motor, etc. Por lo tanto, el dispositivo de navegación 10 puede ser proporcionado con software que cancele estas vibraciones no deseadas para proporcionar una imagen estática. El software que cancela las vibraciones no deseadas de las imágenes proporcionadas por la cámara 24 es ampliamente utilizado en las videocámaras, de las cuales se lo utiliza bajo el nombre de estabilizador de cámara. Esto resultará familiar para cualquier experto en el arte.
La señal de la cámara 24 puede ser procesada posteriormente para incrementar la calidad de las imágenes. Este procesamiento puede consistir de ajustar el brillo y el contraste, pero puede ser cualquier filtro apropiado. Los filtros pueden utilizarse para incrementar la calidad de las imágenes en condiciones de lluvia.
La señal de la cámara 24 puede ser mostrada en la pantalla en tiempo real, pero también puede visualizarse como una imagen fija que se actualiza en ciertos puntos de tiempo, como por ejemplo cada 0,5 segundos. Los intervalos de tiempo apropiados entre las sucesivas actualizaciones puede determinarse dependiendo de la velocidad del vehículo del dispositivo de navegación 10, el cambio de la orientación de recorrido (al tomar curvas).
Además, el dispositivo de navegación puede estar preparado para acercarse o alejarse dependiendo de, por ejemplo, la velocidad del dispositivo de navegación/vehículo. Esta operación de zoom puede llevarse a cabo enviando una señal de control a la cámara 24 ordenándole que ejecute una operación de zoom. No obstante, la operación de zoom también puede llevarse a cabo mostrando una parte de la señal de cámara recibida de manera ampliada en la pantalla 18.
Ejecución 1
La Figura 5 representa un primer ejemplo de la invención. La Figura 5 muestra una imagen fija de la imagen registrada por la cámara 24 mostrada por el dispositivo de navegación 10. Como puede verse, una fecha 5 que indica un giro a la derecha es superpuesta por la unidad de procesador 11. Según esta ejecución, una imagen amigable es mostrada al usuario, permitiendo una fácil interpretación. Esta ejecución presenta la ventaja de no necesitar complejos procesamientos matemáticos y de datos.
En lugar de la acción de navegación representada en la Figura 5, también pueden mostrarse otras instrucciones de navegación como se mencionó arriba, incluyendo instrucciones de navegación en perspectiva, como flechas en perspectiva.
Ejecución 2
La Figura 6 muestra otra imagen fija de la imagen registrada por la cámara 24. Según este ejemplo, el dispositivo de navegación 10 superpone la ruta 4 y la flecha 5. La ruta 4 y la fecha 5 son superpuestas de manera tal que su posición en la pantalla 18 corresponda con la imagen proporcionada por la cámara 24. La Figura 6 muestra claramente que la ruta 4 es mostrada de modo tal que corresponda con la carretera como se muestra en la pantalla 18. Además, la flecha 5 es mostrada de modo tal que indique de manera exacta un giro a la derecha en la imagen proporcionada por la cámara 24.
Se comprenderá que la ejecución mostrada en la Figura 5 puede ser fácilmente obtenida mediante la superposición o combinación de la imagen proporcionada por la cámara 24 y una instrucción de navegación, como por ejemplo la flecha 5. Sin embargo, para crear la imagen proporcionada en la Figura 6, se requiere de un procesamiento de datos más complicado para hacer coincidir la imagen proporcionada por la cámara 24 con las instrucciones de navegación. Esto se describirá en mayor detalle a continuación.
Para superponer las instrucciones de navegación de modo tal que tengan una relación espacial predefinida con respecto a las partes correspondientes de la imagen de cámara, es necesario conocer la posición exacta de la cámara, la instrucción y la configuración de cámara. Si se cuenta con toda esta información, la unidad de procesamiento 11 calcula la posición de, por ejemplo, la carretera en la pantalla 18 y superpone la ruta 4.
Primero, es necesario determinar la posición de la cámara 24. Esto puede realizarse fácilmente utilizando la información GPS según lo determinado por la unidad de procesamiento 11 y/o el dispositivo de posicionamiento 23. La información de posición del dispositivo de navegación 10, y por lo tanto de la cámara 24, ya se encuentra disponible en el dispositivo de navegación 10 según usos de arte anterior.
Después, es necesario determinar la orientación de la cámara 24. Esto se realiza utilizando sensores de orientación, preparados para comunicarse con la unidad de procesamiento 11. Los sensores de orientación pueden ser el dispositivo de posicionamiento 23 y sensores de inclinación 27, 28. Los sensores de inclinación 27, 28 pueden ser giroscopios.
La Figura 7 representa una cámara 24 según una ejecución de la invención. Es necesario determinar una primera dirección rotacional con respecto a un eje C, como se representa en la Figura 7. Además, esto puede realizarse fácilmente utilizando la información GPS según lo determinado por la unidad de procesamiento 11 y/o el dispositivo de posicionamiento 23. Comparando la posición del dispositivo de navegación 10 en puntos sucesivos en el tiempo, es posible determinar la dirección de movimiento del dispositivo de navegación 10. Esta información ya se encuentra disponible en el dispositivo de navegación 10 según un uso de arte anterior. Se asume que la cámara 24 mira hacia la orientación de recorrido del dispositivo de navegación 10. Sin embargo, este no es el caso necesariamente, como se describirá a continuación.
La primera dirección rotacional C de la cámara 24 también puede ser determinada utilizando una brújula (electrónica) compuesta por el dispositivo de navegación o la cámara 24. La brújula puede ser una brújula electrónica o una brújula analógica. La brújula proporciona lecturas de brújula que son comunicadas a la unidad de procesamiento 11. Basada en las lecturas de brújula, la unidad de procesamiento 11 determina la primera dirección rotacional de la cámara 24.
Para poder determinar posteriormente la orientación de la cámara 24, la cámara 24 puede proporcionarse con sensores de inclinación 27, 28 como representa la Figura 7. Los sensores de inclinación 27, 28 están preparados para medir la inclinación de la cámara 24. El primer sensor de inclinación 27 está preparado para medir la inclinación en una segunda dirección rotacional como lo indica la flecha curva A en la Figura 7, es decir, una rotación sobre un eje que es básicamente perpendicular a la superficie del dibujo. La inclinación en la segunda dirección rotacional determina la altura del horizonte en la imagen de cámara como se muestra en la pantalla 18. El efecto de dicha rotación en la imagen de cámara como se muestra es representada de manera esquemática en la Figura 8a.
El segundo sensor de inclinación 28 está preparado para medir la inclinación como resultado de una rotación sobre un tercer eje rotacional, el cual es un eje central de la cámara 24 representado en la Figura 7 por la línea punteada B. El efecto de dicha rotación en la imagen de cámara como se muestra se representa de manera esquemática en la Figura 8b.
En uso, el primer eje rotacional es sustancialmente vertical, y el segundo y tercer eje son sustancialmente perpendiculares con respecto al primer eje rotacional y con respecto a cada uno.
Los valores de inclinación determinados por los sensores de inclinación 27, 28 son comunicados a la unidad de procesador 11. Los sensores de inclinación 27 y 28 también son diseñados como un sensor de inclinación integral único.
Además, las configuraciones de cámara, en particular el factor de zoom del lente de la cámara 24, el ángulo de la cámara, la distancia focal, etc., pueden ser comunicadas a la unidad de procesador 11.
En base a la información disponible para la unidad de procesador 11 para describir la posición, dirección y configuraciones de la cámara 24, la unidad de procesador 11 determina la posición donde deben mostrarse en la pantalla 18 la carretera, los cruces, las bifurcaciones, los puntos de interés, etc. correspondientes a los datos de mapa almacenados en los dispositivos de memoria 11, 12, 13, 14, 15.
Basada en esta información, la unidad de procesador 11 puede superponer las instrucciones de navegación, como la ruta 4, la fecha 5, los puntos de interés POI, etc. sobre la imagen de cámara como lo muestra la unidad de procesador 11, de modo tal que coincidan con la vista de cámara. Podría resultar de utilidad superponer las instrucciones de navegación para que parezca que flotan sobre la superficie de la carretera o para que tengan otro tipo de relación espacial predefinida con respecto a ésta.
Dado que el dispositivo de navegación 10 calcula la distancia que existe hasta cualquier intersección o giro (u otro cambio direccional), puede calcular aproximadamente qué forma debería tener una instrucción de navegación mostrada en la pantalla 18 y donde debería estar posicionada para corresponder con la ubicación actual del cambio de dirección como lo muestra la señal de la cámara 24.
Sin embargo, es posible que ocurran errores debido a distintas razones. En primer lugar, el dispositivo de navegación 10 puede estar montado en el tablero de un vehículo de diversas maneras. Por ejemplo, al determinar la primera dirección rotacional de la cámara 24 con respecto al eje C comparando las posiciones del dispositivo de navegación 24 en puntos sucesivos en el tiempo, se asume que la cámara 24 está direccionada directamente hacia el frente. Sin embargo, en el caso de que la cámara 24 no esté perfectamente alineada con el vehículo, es posible que ocurra una falta de coincidencia en las instrucciones de navegación superpuestas.
Como se señaló anteriormente, en el caso de que la cámara 24 sea proporcionada con una brújula incorporada, la primera orientación rotacional de la cámara con respecto al eje C puede ser calculada comparando las lecturas de brújula con la orientación de recorrido determinada del dispositivo de navegación 10. No obstante, aún es posible que ocurran errores que den como resultado una falta de coincidencia entre las instrucciones de navegación superpuestas y la señal de cámara.
Además, los sensores de inclinación 27, 28 pueden ser capaces sólo de medir la inclinación relativa, y no le inclinación absoluta. Esto significa que el dispositivo de navegación 10 necesita ser calibrado para permitir un exacto posicionamiento de las instrucciones de navegación sobre la imagen de cámara.
Para compensar estos errores, el dispositivo de navegación 10 puede proporcionarse con una opción de menú que permita al usuario ajustar la posición relativa de la imagen mostrada con respecto a la imagen de cámara mostrada. Este ajuste puede ser realizado por el dispositivo de navegación 10 cambiando la posición en la que se muestran las instrucciones de navegación, y/o cambiando la posición en la que se muestra la imagen de cámara, y/o cambiando la orientación de la cámara 24. En la última opción, la cámara 24 puede ser proporcionada con un dispositivo de accionamiento para cambiar su orientación. La cámara 24 puede ser accionada independientemente del dispositivo de navegación 10. En caso de que la cámara 24 esté incorporada al dispositivo de navegación 10, el dispositivo de accionamiento puede cambiar la orientación del dispositivo de navegación 10, o de la cámara 24 sólo con respecto al dispositivo de navegación 10.
El usuario puede simplemente utilizar teclas de flecha para calibrar la posición de las instrucciones de navegación para hacer que coincidan con la imagen de cámara. Por ejemplo, si la cámara 24 está posicionada de manera tal que esté inclinada hacia la izquierda sobre el eje C como se representa en la Figura 7, las instrucciones de navegación se encuentran a la derecha con respecto a las partes correspondientes de la imagen de cámara. El usuario puede corregir fácilmente este error utilizando una tecla de flecha izquierda para arrastrar las instrucciones de navegación hacia la izquierda. El dispositivo de navegación 10 también puede estar preparado para proporcionar al usuario opciones para ajustar la orientación rotacional mostrada de las instrucciones de navegación superpuestas con respecto a la imagen de cámara mostrada.
El dispositivo de navegación 10 también puede estar preparado para proporcionar al usuario opciones para corregir la falta de coincidencia de perspectiva, causada, por ejemplo, por diferentes alturas de la cámara 24. Una cámara 24 posicionada en la parte superior de un automóvil brinda una vista diferente de una carretera (diferentes formas en perspectiva) que una cámara 24 posicionada en el tablero o entre las luces delanteras de un vehículo. Para hacer que las instrucciones de navegación, como las instrucciones 3D (es decir, una flecha 3D) o la representación del vector de la carretera, coincidan con la vista de cámara, es necesario aplicar una deformación en perspectiva de las instrucciones de navegación. Esta deformación en perspectiva depende de la altura de la cámara 24, las configuraciones de la cámara y la segunda dirección rotacional de la cámara 24 en la dirección de la flecha A como se representa en la Figura 7.
La unidad de procesador 11 almacena estas correcciones de calibración ingresadas y aplica correcciones de calibración similares a todas las imágenes mostradas posteriormente. Todos los cambios posteriores en la posición, dirección y orientación medidas de la cámara 24 pueden ser procesadas por la unidad de procesador 11 para asegurar de manera continua una precisa superposición de las instrucciones de navegación. Esto permite una precisa compensación de los movimientos de la cámara causados por el cambio de dirección del vehículo, o causados por cambios de velocidad, curvas cerradas, aceleraciones, frenado, etc. y otras causas que influyan en la orientación de la cámara 24.
La Figura 9 representa un diagrama de flujo que muestra la funcionalidad del dispositivo de navegación 10 según la segunda ejecución de la invención. Los pasos mostrados en el diagrama de flujo pueden ser llevados a cabo por la unidad de procesamiento 11. Se observa que todos los pasos relacionados con el ingreso de una dirección de destino, selección de una ruta, etc., se omiten en esta figura dado que estos pasos resultan conocidos a partir del arte anterior.
En un primer paso 101, el dispositivo de navegación 10 es encendido y el usuario selecciona el modo de cámara. Esto se representa en la Figura 9 con "inicio".
En un segundo paso 102, la unidad de procesamiento 11 determina la posición del dispositivo de navegación 10. Esto se realiza utilizando los datos de entrada del dispositivo de posicionamiento 23, como un dispositivo GPS, como se discutió arriba.
En un próximo paso 103, la unidad de procesamiento 11 determina la orientación de recorrido del dispositivo de navegación 10. Nuevamente, los datos de entrada del dispositivo de posicionamiento 23 son utilizados para esto.
A continuación, en el paso 104, la orientación de la cámara 24 y las configuraciones de cámara son determinadas por la unidad de procesamiento 11. Nuevamente se utilizan los datos de entrada del dispositivo de posicionamiento 23. También se utilizan los datos de entrada de los sensores de inclinación 27, 28 para determinar la orientación de la cámara 24.
Según el paso 105, la imagen de cámara es mostrada en la pantalla 18 por la unidad de procesamiento 11. En el paso 106, la unidad de procesamiento 11 superpone una cantidad determinada de instrucciones de navegación (como flecha de posición 3, ruta 4, flecha 5, puntos de interés, carreteras, datos de mapa, etc.). Para hacerlo se utiliza toda la información recopilada para calcular la posición y la forma de las instrucciones de navegación mostradas. De ser necesario, el usuario puede calibrar este cálculo ajustando la posición y/o la forma de las instrucciones de navegación superpuestas. Este paso opcional es representado por el paso 107.
Los pasos 102-107 pueden ser repetidos cada vez que sea necesario o se lo desee durante el uso.
Otros tipos de señalizaciones virtuales además de las flechas de dirección 5 también puede ser almacenadas en los dispositivos de memoria 12, 13, 14, 15. Por ejemplo, es posible almacenar íconos relacionados con nombres de carreteras, señales de tráfico, límites de velocidad, cámaras de velocidad, o puntos de interés en dispositivos de memoria 12, 13, 14, 15. Todos ellos también pueden ser superpuestos sobre la señal de la cámara 24, con una ubicación espacial en la imagen de cámara mostrada que se corresponde con la característica del mundo real a la cual la señalización virtual hace referencia. Por lo tanto, la unidad de procesamiento 11 puede tomar los datos de mapa 2D del software de navegación que incluían los datos de ubicación de estas características del mundo real, y aplicar una transformación geométrica que las haga estar ubicadas correctamente al superponerlas sobre la señal de video.
En el caso de que, por ejemplo, un vehículo con un dispositivo de navegación 10 ascienda o descienda una colina, los sensores de inclinación 27, 28 detectan una inclinación en la dirección de la flecha A como se representa en la Figura 7. Sin embargo, para poder superponer correctamente las instrucciones de navegación sobre la imagen de cámara de modo tal que las instrucciones de navegación coincidan con la imagen de cámara, esta inclinación no debería ser corregida. Esto puede ser arreglado proporcionando al dispositivo de navegación datos de mapa que incluyan información de altura. Basado en los datos de altura de mapa, el dispositivo de navegación 10 calcula la inclinación de la cámara 24 que corresponde a la orientación de la carretera en la que el vehículo se está desplazando. Esta inclinación anticipada es comparada con la inclinación detectada por los sensores de inclinación 27, 28. La diferencia entre la inclinación anticipada y la inclinación detectada se utiliza para ajustar la posición de las instrucciones de navegación superpuestas.
En el caso de que los datos de mapa no incluyan información de altura, es posible proporcionar al vehículo un sensor de inclinación de vehículo 30. El sensor de inclinación de vehículo 30 está preparado para proporcionar lecturas de inclinación de vehículo a la unidad de procesamiento 11. Las lecturas del sensor de inclinación de vehículo 30 son luego comparadas con las lecturas de los sensores de inclinación 27, 28 y la diferencia, causada por vibraciones no deseadas, etc., es utilizada para ajustar la posición de las instrucciones de navegación superpuestas.
Se comprenderá que es posible pensar en cualquier tipo de variación con respecto al ejemplo explicado y mostrado arriba.
La Figura 10 representa un ejemplo en el cual los datos de mapa también incluyen datos que describen objetos a lo largo de la carretera, como edificios 31. Según este ejemplo, las instrucciones de navegación 3, 4, 5 que son superpuestas sobre un edificio 31 pueden ser mostradas por líneas punteadas o intermitentes. Esto permite que un usuario pueda visualizar los datos de mapa, ruta 4 y flechas 5 que de otra forma serían bloqueadas por un edificio.
Tercera ejecución
Según una tercera ejecución, las instrucciones de navegación son superpuestas sobre la imagen de cámara utilizando técnicas de reconocimiento de patrones.
En los últimos años, se ha avanzado considerablemente en el campo del análisis en tiempo real de cuadros de imagen (por ejemplo, una señal de video como la proporcionada por la cámara 24) para identificar objetos reales en la señal de video. La documentación es bastante amplia en este ámbito: es posible hacer referencia, por ejemplo, a la US 5627915 (Princeton Video Image Inc.) en la cual el video de una escena como un estadio deportivo es analizado por software de reconocimiento de patrones; un operador indica de forma manual las áreas de alto contraste en el estadio (por ejemplo, las líneas marcadas en la superficie del juego; los bordes de la superficie de juego; las carteleras) y el software construye un modelo geométrico de todo el estadio utilizando estos puntos de referencia de alto contraste. Después, el software es capaz de analizar una señal de video en tiempo real en busca de estos puntos de referencia; es entonces capaz de tomar una imagen almacenada generada por computadora (por ejemplo, un anuncio publicitario de una cartelera), aplicar una transformación geométrica a la imagen almacenada para que, al ser insertada en la señal de video en una ubicación definida con referencia al modelo geométrico utilizando técnicas de síntesis de imagen, parezca ser una parte completamente natural de la escena ante los ojos de un espectador del video.
También es posible hacer referencia a la US 2001/0043717 de Facet Technology; ésta revela un sistema que puede analizar video tomado desde un vehículo en movimiento para reconocer señales viales.
En términos generales, las artes de reconocimiento de patrones aplicadas al análisis de video en tiempo real para reconocer características del mundo real es un ámbito amplio y consolidado.
En una implementación, el dispositivo de navegación 10 emplea el software de reconocimiento de patrones para reconocer características del mundo real en una señal de video de la cámara 24 y muestra las instrucciones de navegación (como la flecha 5) en la pantalla 18 en una relación espacial predefinida con respecto a las características de mundo real reconocidas en la señal de video. Por ejemplo, la señal de video podría mostrar la carretera actual en la cual el dispositivo de navegación 10 está viajando y las instrucciones de navegación son entonces instrucciones 3D (por ejemplo, una flecha 3D) que son superpuestas sobre la carretera. Las curvas y demás características de la carretera pueden ser representadas de manera gráfica o icónica, y pueden ser posicionadas para que aparezcan sobre las características del mundo real a las cuales hacen referencia.
La unidad de procesamiento 11 puede ser programada para reconocer características que tengan un alto contraste visual y estén asociadas con una carretera dada. Las características también podrían ser vehículos en movimiento en una dirección constante o señales viales (por ejemplo, marcas de banquina, marcas de línea central, etc.).
\newpage
Se observa que el dispositivo de navegación 10 está programado para reconocer características con un alto contraste visual y que estén asociadas con una carretera. Por ejemplo, las características podrían ser vehículos en movimiento en una dirección constante, o señales viales.
El dispositivo de navegación 10 podría estar, por ejemplo, programado con un modelo geométrico de la carretera por delante: el modelo puede ser tan simple como dos líneas. El modelo podría ser sólo los datos de vector almacenados para formar los datos de mapa, como se describió arriba.
Después, durante el uso, el software de reconocimiento de patrones busca características visuales en la transmisión ininterrumpida de video en tiempo real proporcionada por la cámara 24 que correspondan al modelo geográfico almacenado (por ejemplo, las dos líneas). Una vez localizadas estas características, ha logrado reconocer la carretera por delante. Por lo general, esto requerirá que se apliquen rápidas traducciones y transformaciones a las características reconocidas en la señal de video (por ejemplo, las dos líneas) para obtener una coincidencia con el modelo almacenado; las traducciones son traducciones x-y con el fin de alinear aproximadamente las características reconocidas con el modelo almacenado. Las transformaciones incluyen abreviaciones para corresponderse con diferentes alturas de cámara y orientación relativa entre las dos líneas para corresponderse con diferentes ángulos de visión de cámara y el ángulo relativo entre la cámara y la carretera. De igual modo, las transformaciones pueden ser aplicadas para alinear y formar el modelo almacenado según las características reconocidas.
Toda persona experimentada en el arte comprenderá que resulta ventajoso que el algoritmo de reconocimiento de patrones cuente con datos de mapa como datos de entrada. El reconocimiento de un patrón puede realizarse rápida y fácilmente cuando el algoritmo conoce de antemano los patrones a reconocer. Este conocimiento puede ser obtenido de manera fácil a partir de los datos de mapa disponibles.
Una vez que se conoce la transformación, sólo es cuestión de formar un icono de flecha prealmacenado para que su perspectiva, forma u orientación se corresponda con la de la carretera en cualquier cuadro de video (distintos tipos de transformaciones geométricas podrían ser apropiadas para esto) y luego superponer la flecha direccional sobre la carretera mostrada en la pantalla utilizando síntesis convencional de imágenes. Podría resultar de utilidad superponer la flecha para que parezca flotar sobre la superficie de la carretera o para que tenga otro tipo de relación espacial predefinida con respecto a ésta.
Dado que el dispositivo de navegación 10 calcula la distancia que existe hasta cualquier intersección o giro (u otro cambio direccional), puede calcular aproximadamente qué forma debería tener una instrucción de navegación mostrada en la pantalla 18 para corresponderse con la ubicación actual del cambio de dirección como lo muestra la señal de video.
Se comprenderá que el dispositivo de navegación 10 también puede utilizar una combinación de las realizaciones discutidas arriba. Por ejemplo, el dispositivo de navegación puede utilizar mediciones de orientación y posicionamiento para determinar de forma aproximada la posición de las instrucciones de navegación en la pantalla 18 y emplear técnicas de reconocimiento de patrones para determinar la posición de las instrucciones de navegación en la pantalla 18.
Se comprenderá que es posible pensar en numerosas alternativas y variaciones de las realizaciones antes mencionadas. Por ejemplo, otra característica es que la indicación de los nombres de carreteras, señales de tráfico (por ejemplo, sentido único, sin entrada, números de salida, nombres de lugares, etc.), límites de velocidad, cámaras de velocidad, y puntos de interés almacenados en los dispositivos de memoria 12, 13, 14, 15 también pueden ser superpuestos sobre la señal de video: la ubicación espacial de esta "señalización virtual" en un cuadro de video puede corresponderse con la característica del mundo real a la cual la señalización virtual hace referencia. Por lo tanto, un límite de velocidad (por ejemplo, el texto "30 mph") puede ser superpuesto para que parezca estar por encima o ser parte de la superficie de la carretera de la carretera con el límite de velocidad de 30 mph (48,28 km/h). Un icono que represente un tipo específico de señal de tráfico podría ser superpuesto sobre la transmisión ininterrumpida de video para que aparezca en el lugar en el que una señal del mundo real útilmente aparecería.
Otros tipos de señalización virtual además de las flechas de dirección 5 también pueden ser almacenados en los dispositivos de memoria 12, 13, 14, 15. Por ejemplo, los iconos que hacen referencia a nombres de carreteras, señales de tráfico, límites de velocidad, cámaras de velocidad, paradas de autobús, museos, números de casas o puntos de interés podrían ser almacenados en dispositivos de memoria 12, 13, 14, 15. Cada uno de ellos también podría ser superpuesto sobre la señal de video, con una ubicación espacial en el video mostrado que se corresponda con la característica del mundo real a la cual la señalización virtual hace referencia. Por lo tanto, el software podría tomar tomar los datos de mapa 2D del software de navegación que incluía los datos de ubicación de estas características del mundo real, y aplicar una transformación geométrica que las haga estar ubicadas correctamente al superponerlas sobre la señal de video.
Según una alternativa adicional, las técnicas de reconocimiento de patrones también pueden estar configuradas para reconocer objetos en la carretera, como por ejemplo otro vehículo o camión. Cuando se reconoce un objeto de este tipo, la ruta mostrada 4 puede ser mostrada como una línea punteada, como se muestra en la Figura 11. Esto proporciona una imagen que el usuario interpretará más fácilmente.
Cuarta ejecución
Según una cuarta ejecución, la señal de la cámara 24 y las instrucciones de navegación, como la flecha de posición 3, la ruta 4, la flecha 5, los puntos de interés (POI), las carreteras, los edificios, los datos de mapa, por ejemplo los datos de vector, no son superpuestos, sino mostrados en la pantalla 18 de manera combinada.
Esta combinación puede lograrse dividiendo la pantalla en una primera parte y en una segunda parte, donde la primera parte muestra la señal de cámara y la segunda parte muestra las instrucciones de navegación. Sin embargo, la combinación también puede llevarse a cabo en el tiempo, es decir el dispositivo de navegación puede estar preparado para mostrar de manera sucesiva la señal de cámara y la instrucción de navegación a su vez. Esto puede lograrse mostrando la señal de cámara durante un primer período (por ejemplo, 2 segundos) y mostrando luego las instrucciones de navegación durante un segundo período (por ejemplo, 2 segundos). Sin embargo, el dispositivo de navegación también podría proporcionar al usuario la opción de alternar entre la señal de cámara y las instrucciones de navegación según lo desee.
Por supuesto, es posible utilizar más de una cámara. El usuario puede contar con la opción de alternar entre la señal de una primera cámara y la señal de una segunda cámara. El usuario también podría elegir mostrar más de una señal de cámara en la pantalla 18 al mismo tiempo.
Según una alternativa adicional, el usuario puede realizar acercamientos y alejamientos. Al alejarse, se mostrará una parte cada vez mayor del entorno del dispositivo de navegación 10 en la pantalla 18. Se comprenderá que el usuario puede elegir, por ejemplo, una vista de helicóptero, como se muestra en la Figura 2, incluyendo la posición del dispositivo de navegación 10. Una vista de este tipo proporciona una imagen del dispositivo de navegación 10 (o vehículos) visto desde atrás. Por supuesto, una vista de este tipo no puede ser proporcionada por la cámara fijada en el dispositivo de navegación 10 o en el vehículo. Por lo tanto, el dispositivo de navegación 10 puede proporcionar una imagen como se muestra en la Figura 12, donde sólo parte de la imagen es la vista de cámara, rodeada por datos de mapa e instrucciones de navegación.
Aunque arriba se han descrito realizaciones específicas de la invención, se apreciará que la invención puede ser practicada de manera distinta a la descrita aquí. Por ejemplo, la invención puede tomar la forma de un programa informático que contenga una o más secuencias de instrucciones automatizadas que describan un método como se reveló arriba, o un medio de almacenamiento de datos (por ejemplo, una memoria de semiconductor, disco magnético u óptico) que tenga un programa informático de este tipo allí almacenado. Toda persona experimentada en el arte comprenderá que cualquiera de los componentes de software también puede ser formado como componente de hardware.
Las descripciones proporcionadas arriba son sólo de carácter ilustrativo y no limitativo. Por lo tanto, resultará evidente para cualquier persona experimentada en el arte que es posible realizar modificaciones a la invención según lo descrito sin alejarse del alcance de las reivindicaciones establecidas a continuación.

Claims (17)

1. Un dispositivo de navegación, dispositivo (10), el cual está preparado para mostrar instrucciones de navegación en una pantalla de visualización, para recibir una señal de video de una cámara (24) y para mostrar una combinación de una imagen de cámara de la señal de video de la cámara e instrucciones de navegación en la pantalla; caracterizado porque
(i)
el dispositivo es un dispositivo de navegación portátil el cual incluye una cámara (24) integrada al dispositivo y
(ii)
el dispositivo está preparado para proporcionar una opción de menú que le permite a un usuario ajustar una posición relativa de la imagen de cámara mostrada con respecto a las instrucciones de navegación.
2. El dispositivo de navegación de la Reivindicación 1, en el que se puede operar la opción de menú para cambiar una posición de la imagen de cámara, mientras que la posición de las instrucciones de navegación permanece fija.
3. El dispositivo de navegación de la Reivindicación 1, en el que se puede operar la opción de menú para cambiar una posición de la imagen de cámara, mientras que la posición de las instrucciones de navegación permanece fija.
4. El dispositivo de navegación de la Reivindicación 1, en el que se puede operar la opción de menú para cambiar una posición de las instrucciones de navegación, y para cambiar una posición de la imagen de cámara.
5. El dispositivo de navegación de cualquier Reivindicación previa, donde el dispositivo de navegación evita complejos procesamientos matemáticos y de datos mostrando las instrucciones de navegación en forma de flechas en perspectiva.
6. El dispositivo de navegación de cualquier Reivindicación previa, en el que las instrucciones de navegación son una o más para una ruta (4), o flecha (5).
7. El dispositivo de navegación de cualquier Reivindicación previa, preparado para superponer las instrucciones de navegación (4, 5) sobre la imagen de cámara de modo tal que la posición de las instrucciones de navegación (4, 5) se encuentren en una relación espacial predefinida con respecto a las partes correspondientes de la imagen de cámara.
8. Un dispositivo de navegación según cualquiera de las reivindicaciones precedentes, donde el dispositivo de navegación (10) está preparado para recibir correcciones de calibración, almacenar estas correcciones de calibración y aplicar las correcciones de calibración al combinar las instrucciones de navegación (4, 5) y la imagen de cámara.
9. El dispositivo de navegación de la Reivindicación 8 en el cual las correcciones de calibración son utilizadas para cancelar errores de descentrado.
10. Un dispositivo de navegación según cualquiera de las reivindicaciones precedentes en las que el usuario puede hacer que el dispositivo de navegación (10) cambie entre (a) mostrar una combinación de una imagen de video de la cámara (24) e instrucciones de navegación (3, 4, 5) y (b) mostrar instrucciones de navegación junto con una porción específica de los datos de mapa.
11. Dispositivo de navegación según cualquiera de las reivindicaciones precedentes que procesa la señal de video utilizando reconocimiento de patrones.
12. Dispositivo de navegación de la Reivindicación 11 en el cual el reconocimiento de patrón detecta características en el mundo real.
13. Dispositivo de navegación de la Reivindicación 12 en el cual el reconocimiento de patrón detecta características con un alto contraste visual y que están asociadas con una ruta dada.
14. Dispositivo de navegación según cualquiera de las reivindicaciones precedentes, en las cuales el dispositivo de navegación tiene una pantalla táctil.
15. Dispositivo de navegación de la Reivindicación 14 en el cual la opción de menú es seleccionada utilizando la pantalla táctil.
16. El dispositivo de navegación de cualquiera de las reivindicaciones precedentes en las cuales la cámara proporciona una imagen a través de la pantalla frontal de un vehículo.
17. El dispositivo de navegación de cualquiera de las reivindicaciones precedentes en las cuales el dispositivo muestra flechas en perspectiva.
ES05752007T 2005-06-06 2005-06-06 Dispositivo de navegacion con informacion de camara. Active ES2330351T3 (es)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/NL2005/000405 WO2006132522A1 (en) 2005-06-06 2005-06-06 Navigation device with camera-info

Publications (1)

Publication Number Publication Date
ES2330351T3 true ES2330351T3 (es) 2009-12-09

Family

ID=36129782

Family Applications (2)

Application Number Title Priority Date Filing Date
ES08075742T Active ES2404164T3 (es) 2005-06-06 2005-06-06 Dispositivo de navegación con cámara de información
ES05752007T Active ES2330351T3 (es) 2005-06-06 2005-06-06 Dispositivo de navegacion con informacion de camara.

Family Applications Before (1)

Application Number Title Priority Date Filing Date
ES08075742T Active ES2404164T3 (es) 2005-06-06 2005-06-06 Dispositivo de navegación con cámara de información

Country Status (14)

Country Link
US (2) US8180567B2 (es)
EP (2) EP2003423B1 (es)
JP (1) JP4921462B2 (es)
CN (1) CN101194143B (es)
AT (1) ATE441089T1 (es)
AU (1) AU2005332711B2 (es)
BR (1) BRPI0520250A2 (es)
CA (1) CA2609663A1 (es)
DE (2) DE202005021607U1 (es)
ES (2) ES2404164T3 (es)
MX (1) MX2007015348A (es)
NO (1) NO20080097L (es)
NZ (2) NZ564319A (es)
WO (1) WO2006132522A1 (es)

Families Citing this family (136)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8751156B2 (en) 2004-06-30 2014-06-10 HERE North America LLC Method of operating a navigation system using images
US7460953B2 (en) * 2004-06-30 2008-12-02 Navteq North America, Llc Method of operating a navigation system using images
DE102006010478A1 (de) * 2006-03-07 2007-09-13 Robert Bosch Gmbh Verfahren und Anordnung zur Anzeige von Navigationshinweisen
KR100804763B1 (ko) * 2006-09-19 2008-02-19 주식회사 레인콤 카메라를 구비하는 차량용 네비게이션 시스템
JP5076468B2 (ja) * 2006-12-01 2012-11-21 株式会社デンソー 通信型ナビゲーションシステム、車両ナビゲーション装置及びセンター装置
JP2008145234A (ja) 2006-12-08 2008-06-26 Denso Corp ナビゲーション装置及びプログラム
US8285475B2 (en) * 2007-03-02 2012-10-09 Avago Technologies Ecbu Ip (Singapore) Pte. Ltd. Combined beacon and scene navigation system
US20080211652A1 (en) * 2007-03-02 2008-09-04 Nanolumens Acquisition, Inc. Dynamic Vehicle Display System
US20100029293A1 (en) * 2007-05-10 2010-02-04 Sony Ericsson Mobile Communications Ab Navigation system using camera
JP2008309529A (ja) * 2007-06-12 2008-12-25 Panasonic Corp ナビゲーション装置、ナビゲーション方法、及びナビゲーション用プログラム
KR100899655B1 (ko) * 2007-09-03 2009-05-27 (주)디코인 회전 카메라를 이용한 화상통신 및 디브이알 기능을 구비한네비게이션 장치 및 시스템
DE102007053305A1 (de) * 2007-11-08 2009-05-14 Robert Bosch Gmbh Verfahren und Vorrichtung zur Ausgabe von optischen Fahrempfehlungen in einem Fahrzeug
JP5034932B2 (ja) * 2007-12-26 2012-09-26 ソニー株式会社 表示装置、プログラム、及び記録媒体
WO2009084135A1 (ja) * 2007-12-28 2009-07-09 Mitsubishi Electric Corporation ナビゲーション装置
EP2075541A1 (en) * 2007-12-31 2009-07-01 STMicroelectronics Design and Application GmbH Improved vehicle navigation system
JP2009163504A (ja) * 2008-01-07 2009-07-23 Panasonic Corp 画像変形方法等
US8239132B2 (en) * 2008-01-22 2012-08-07 Maran Ma Systems, apparatus and methods for delivery of location-oriented information
US20090296990A1 (en) * 2008-05-30 2009-12-03 United Parcel Service Of America, Inc. Evaluating driver walk distances and building types using overhead imagery
US8649973B2 (en) * 2008-06-09 2014-02-11 Kabushiki Kaisha Kenwood Guide display device and guide display method, and display device and method for switching display contents
BRPI0822727A2 (pt) * 2008-07-31 2015-07-14 Tele Atlas Bv Método de exibição de dados de navegação em 3d
EP2307855A1 (en) * 2008-07-31 2011-04-13 Tele Atlas B.V. Computer arrangement and method for displaying navigation data in 3d
DE102008041295A1 (de) 2008-08-18 2010-02-25 Robert Bosch Gmbh Mobiles Navigationsgerät und diesbezügliches Verfahren
EP2156987A1 (en) * 2008-08-22 2010-02-24 Guangzhou SAT Infrared Technology Co., Ltd. Infrared system for assisting driving vehicle
US10133438B2 (en) * 2008-09-17 2018-11-20 Nokia Technologies Oy User interface for augmented reality
US20100080489A1 (en) * 2008-09-30 2010-04-01 Microsoft Corporation Hybrid Interface for Interactively Registering Images to Digital Models
US9459113B2 (en) * 2008-11-21 2016-10-04 GM Global Technology Operations LLC Visual guidance for vehicle navigation system
JP5161760B2 (ja) * 2008-12-26 2013-03-13 株式会社東芝 車載用表示システム及び表示方法
DE102009023776A1 (de) 2009-06-03 2010-02-11 Daimler Ag Navigationssystem
DE102009041194A1 (de) * 2009-09-14 2011-03-24 Continental Automotive Gmbh Anzeigeinstrument für Fahrleistungsdaten
KR100982768B1 (ko) * 2009-09-21 2010-09-20 (주)올라웍스 단말기의 각도에 따라 서로 다른 영상 정보를 제공하기 위한 방법, 단말기 및 컴퓨터 판독 가능한 기록 매체
JP4911389B2 (ja) * 2009-09-30 2012-04-04 Necビッグローブ株式会社 情報表示システム、サーバ、端末、及び方法
US8374790B2 (en) * 2009-10-30 2013-02-12 Teejet Technologies Illinois, Llc Method and apparatus for guiding a vehicle
KR101768101B1 (ko) * 2009-10-30 2017-08-30 엘지전자 주식회사 정보 표시 장치 및 그 방법
CN102088565B (zh) * 2009-12-02 2015-04-29 新奥特(北京)视频技术有限公司 一种马拉松比赛转播系统
CN102088570B (zh) * 2009-12-02 2015-06-17 新奥特(北京)视频技术有限公司 一种马拉松比赛的转播方法
DE102009057949A1 (de) * 2009-12-11 2011-06-16 GM Global Technology Operations LLC, ( n. d. Ges. d. Staates Delaware ), Detroit Verfahren zur Anzeige eines Wertes einer Geschwindigkeitsbegrenzung und Fahrzeug mit einem Kombiinstrument
US20110153198A1 (en) * 2009-12-21 2011-06-23 Navisus LLC Method for the display of navigation instructions using an augmented-reality concept
KR101229078B1 (ko) * 2009-12-21 2013-02-04 한국전자통신연구원 실내외 상황인식 기반의 모바일 혼합현실 콘텐츠 운용 장치 및 방법
WO2011076989A1 (en) * 2009-12-25 2011-06-30 Nokia Corporation Method and apparatus for persistent display of navigation content
US9488488B2 (en) * 2010-02-12 2016-11-08 Apple Inc. Augmented reality maps
CN102200444B (zh) * 2010-03-23 2013-03-20 财团法人资讯工业策进会 实时扩增实境装置及其实时扩增实境方法
CN102200445B (zh) * 2010-03-23 2013-03-13 财团法人资讯工业策进会 实时扩增实境装置及其实时扩增实境方法
DE102010003851A1 (de) * 2010-04-12 2011-10-13 Robert Bosch Gmbh Verfahren und Informationssystem zum Markieren eines Zielorts für ein Fahrzeug
JP5143856B2 (ja) * 2010-04-16 2013-02-13 株式会社ソニー・コンピュータエンタテインメント 3次元画像表示装置、および3次元画像表示方法
TWI426237B (zh) * 2010-04-22 2014-02-11 Mitac Int Corp Instant image navigation system and method
KR101655812B1 (ko) * 2010-05-06 2016-09-08 엘지전자 주식회사 휴대 단말기 및 그 동작 방법
CN102243078B (zh) * 2010-05-13 2016-03-30 上海宾华信息科技有限公司 一种所视即所释型导航装置及实现方法
US9684989B2 (en) * 2010-06-16 2017-06-20 Qualcomm Incorporated User interface transition between camera view and map view
CN102338639B (zh) * 2010-07-26 2015-04-22 联想(北京)有限公司 信息处理设备和信息处理方法
KR101259598B1 (ko) * 2010-07-30 2013-04-30 주식회사 팬택 로드뷰 제공 장치 및 방법
KR101193913B1 (ko) * 2010-08-23 2012-10-29 고려대학교 산학협력단 광결정 패턴이 형성된 반도체 발광 소자 및 그 제조 방법
US8700324B2 (en) 2010-08-25 2014-04-15 Caterpillar Inc. Machine navigation system having integrity checking
CN101986101A (zh) * 2010-09-14 2011-03-16 浙江天鸿汽车用品有限公司 Gps实时导航系统
US9140719B2 (en) * 2010-09-16 2015-09-22 Pioneer Corporation Terminal holding device
US20130250141A1 (en) * 2010-10-22 2013-09-26 Pioneer Corporation Terminal device, image displaying method and image displaying program executed by terminal device
JP4948682B1 (ja) * 2010-10-22 2012-06-06 パイオニア株式会社 端末保持装置及び端末保持方法
US8723888B2 (en) * 2010-10-29 2014-05-13 Core Wireless Licensing, S.a.r.l. Method and apparatus for determining location offset information
JP5569365B2 (ja) * 2010-11-30 2014-08-13 アイシン・エィ・ダブリュ株式会社 案内装置、案内方法、及び案内プログラム
CN102121831B (zh) * 2010-12-01 2013-01-09 北京腾瑞万里科技有限公司 实时街景导航方法及设备
DE102010062464A1 (de) 2010-12-06 2012-06-06 Robert Bosch Gmbh Verfahren und Vorrichtung zur Darstellung eines Abschnitts einer Umgebung
KR20120067681A (ko) * 2010-12-16 2012-06-26 한국전자통신연구원 차량 안전 센서 제어 장치
KR101732076B1 (ko) * 2010-12-22 2017-05-02 엘지전자 주식회사 전자 기기 및 전자 기기의 제어 방법
KR20120071203A (ko) * 2010-12-22 2012-07-02 한국전자통신연구원 운전자의 시야 확보 장치 및, 운전자의 시야 확보 방법
US9429438B2 (en) 2010-12-23 2016-08-30 Blackberry Limited Updating map data from camera images
EP2469230A1 (en) * 2010-12-23 2012-06-27 Research In Motion Limited Updating map data from camera images
KR101708207B1 (ko) 2011-01-10 2017-02-20 삼성전자주식회사 이동통신 시스템에서 사용자의 이동 경로를 제공하기 위한 장치 및 방법
US9146126B2 (en) * 2011-01-27 2015-09-29 Here Global B.V. Interactive geographic feature
TWI456165B (zh) * 2011-02-14 2014-10-11 Mitac Int Corp 車輛導航方法與車輛導航系統
US9086798B2 (en) 2011-03-07 2015-07-21 Ricoh Company, Ltd. Associating information on a whiteboard with a user
US9053455B2 (en) 2011-03-07 2015-06-09 Ricoh Company, Ltd. Providing position information in a collaborative environment
US8698873B2 (en) * 2011-03-07 2014-04-15 Ricoh Company, Ltd. Video conferencing with shared drawing
US9716858B2 (en) 2011-03-07 2017-07-25 Ricoh Company, Ltd. Automated selection and switching of displayed information
US8881231B2 (en) 2011-03-07 2014-11-04 Ricoh Company, Ltd. Automatically performing an action upon a login
CN102788582A (zh) * 2011-05-19 2012-11-21 昆达电脑科技(昆山)有限公司 车辆导航方法与车辆导航系统
JP2012095283A (ja) * 2011-09-13 2012-05-17 Pioneer Electronic Corp 端末装置、端末装置によって実行される画像表示方法及び画像表示プログラム
JP2013123970A (ja) * 2011-12-14 2013-06-24 Toshiba Corp 表示装置
US9228838B2 (en) 2011-12-20 2016-01-05 Fluke Corporation Thermal imaging camera with compass calibration
US20130162665A1 (en) * 2011-12-21 2013-06-27 James D. Lynch Image view in mapping
DE102012005471A1 (de) 2012-03-17 2013-09-19 GM Global Technology Operations LLC (n.d. Ges. d. Staates Delaware) Verkehrsinformationssystem
KR20130107697A (ko) * 2012-03-23 2013-10-02 (주)휴맥스 내비게이션 단말기의 배경 화면 표시 장치 및 방법
JP6019680B2 (ja) * 2012-04-04 2016-11-02 株式会社ニコン 表示装置、表示方法、及び、表示プログラム
US9037411B2 (en) * 2012-05-11 2015-05-19 Honeywell International Inc. Systems and methods for landmark selection for navigation
US9175975B2 (en) * 2012-07-30 2015-11-03 RaayonNova LLC Systems and methods for navigation
US8666655B2 (en) * 2012-07-30 2014-03-04 Aleksandr Shtukater Systems and methods for navigation
CN102829788A (zh) * 2012-08-27 2012-12-19 北京百度网讯科技有限公司 一种实景导航方法和实景导航装置
DE102012216144A1 (de) 2012-09-12 2014-05-28 Bayerische Motoren Werke Aktiengesellschaft Kontaktanaloge Anzeige insbesondere eines Fahrspurwechsels
CN102879000A (zh) * 2012-09-20 2013-01-16 华为终端有限公司 导航终端、导航方法及远程导航服务系统
KR20140054909A (ko) * 2012-10-30 2014-05-09 팅크웨어(주) 광각 렌즈 카메라 영상을 이용한 내비게이션 안내 장치 및 방법
CN103090875A (zh) * 2012-11-26 2013-05-08 华南理工大学 一种基于双摄像头的实时实景匹配车载导航方法及装置
EP2938969A4 (en) * 2012-12-27 2016-10-12 Harman Int Ind ON-BOARD NAVIGATION
ITMO20130012A1 (it) * 2013-01-21 2014-07-22 Fabio Lettieri Dispositivo per l'assistenza alla guida di autoveicoli
CN103101497A (zh) * 2013-01-25 2013-05-15 深圳市保千里电子有限公司 汽车摄像系统及其视角与车速同步变化的数据处理方法
CN103105174B (zh) * 2013-01-29 2016-06-15 四川长虹佳华信息产品有限责任公司 一种基于ar增强现实技术的车载实景安全导航方法
CN103134499A (zh) * 2013-02-06 2013-06-05 腾讯科技(深圳)有限公司 导航方法及导航装置
EP2959266A4 (en) * 2013-02-25 2017-05-03 Continental Automotive GmbH Intelligent video navigation for automobiles
EP2798928B1 (en) * 2013-04-29 2024-02-07 CLAAS E-Systems GmbH Operating system for and method of operating an automatic guidance system of an agricultural vehicle
JP6484228B2 (ja) * 2013-06-13 2019-03-13 モービルアイ ビジョン テクノロジーズ リミテッド 視覚強化ナビゲーション
KR102068700B1 (ko) * 2013-07-02 2020-01-21 현대모비스 주식회사 차량용 네비게이션의 디스플레이 모드 자동 전환 장치 및 방법
US9538077B1 (en) 2013-07-26 2017-01-03 Ambarella, Inc. Surround camera to generate a parking video signal and a recorder video signal from a single sensor
KR102222336B1 (ko) * 2013-08-19 2021-03-04 삼성전자주식회사 맵 화면을 디스플레이 하는 사용자 단말 장치 및 그 디스플레이 방법
CN103581627A (zh) * 2013-11-07 2014-02-12 北京环境特性研究所 一种高清视频的图像和信息融合显示方法
CN103674016B (zh) * 2013-12-16 2017-01-18 维沃移动通信有限公司 一种基于移动终端的步行指引系统及其实现方法
DE102014003284A1 (de) 2014-03-05 2015-09-10 Astrium Gmbh Verfahren zur Positions- und Lagebestimmung mittels virtueller Referenzbilder
WO2015136144A1 (en) * 2014-03-14 2015-09-17 Nokia Technologies Oy Method and apparatus for superimposing images upon a map
US9459115B1 (en) * 2014-03-28 2016-10-04 Amazon Technologies, Inc. Unobstructed map navigation using animation
GB201407643D0 (en) 2014-04-30 2014-06-11 Tomtom Global Content Bv Improved positioning relatie to a digital map for assisted and automated driving operations
JP2015007632A (ja) * 2014-07-14 2015-01-15 コア ワイヤレス ライセンシング エス.アー.エール.エル. 位置オフセット情報を決定する方法および装置
KR20160041435A (ko) 2014-10-07 2016-04-18 엘지전자 주식회사 이동 단말기 및 그것의 제어방법
DE102014016612A1 (de) 2014-11-11 2015-06-18 Daimler Ag Verfahren und Vorrichtung zur Darstellung von Umgebungsinformationen in einem Fahrzeug und Fahrzeug
CN104535066B (zh) * 2014-12-19 2017-07-11 大连海事大学 一种船载红外视频图像中的海上目标与电子海图的叠加方法及系统
KR102622571B1 (ko) * 2015-02-10 2024-01-09 모빌아이 비젼 테크놀로지스 엘티디. 자율 주행을 위한 약도
US9802539B2 (en) * 2015-04-01 2017-10-31 Robert Bosch Gmbh Distance and direction estimation of a target point from a vehicle using monocular video camera
WO2016188547A1 (en) * 2015-05-22 2016-12-01 Here Global B.V. An apparatus and associated methods for providing turn guidance
US9927246B2 (en) * 2015-05-27 2018-03-27 Here Global B.V. Method, apparatus and computer program product for providing navigation information in relation to augmented reality guidance
JP6899368B2 (ja) 2015-08-03 2021-07-07 トムトム グローバル コンテント ベスローテン フエンノートシャップ ローカライゼーション基準データを生成及び使用する方法及びシステム
EP3338136B1 (en) * 2015-08-04 2022-09-14 Yasrebi, Seyed-Nima Augmented reality in vehicle platforms
EP3130891B1 (en) 2015-08-11 2018-01-03 Continental Automotive GmbH Method for updating a server database containing precision road information
EP3131020B1 (en) 2015-08-11 2017-12-13 Continental Automotive GmbH System and method of a two-step object data processing by a vehicle and a server database for generating, updating and delivering a precision road property database
EP3130945B1 (en) * 2015-08-11 2018-05-02 Continental Automotive GmbH System and method for precision vehicle positioning
EP3358304B1 (en) * 2015-09-30 2019-05-01 Nissan Motor Co., Ltd. Vehicular display device
GB2561301B (en) * 2016-02-17 2020-02-19 Ford Global Tech Llc Calibrating a display for a vehicle
FR3048794B1 (fr) * 2016-03-09 2020-11-27 Illusion 3D Systeme et procede de guidage en trois dimensions d'un utilisateur
CN105890613A (zh) * 2016-04-01 2016-08-24 乐视控股(北京)有限公司 导航信息显示方法和装置
US9813642B1 (en) 2016-05-06 2017-11-07 Snap Inc. Dynamic activity-based image generation
JP6152232B1 (ja) * 2017-02-23 2017-06-21 京セラ株式会社 電子機器
DE102017204567A1 (de) 2017-03-20 2018-09-20 Robert Bosch Gmbh Verfahren und Vorrichtung zum Erstellen einer Navigationsinformation zur Führung eines Fahrers eines Fahrzeugs
CN107014393A (zh) * 2017-05-24 2017-08-04 刘兴丹 一种图像地图导航的方法、装置
CN108362279B (zh) * 2018-01-08 2022-02-15 北京小米移动软件有限公司 基于增强现实技术ar的购物导航方法、装置及系统
JP6987662B2 (ja) * 2018-02-07 2022-01-05 京セラ株式会社 電子機器、制御方法およびプログラム
DE102018210528A1 (de) 2018-06-27 2020-01-02 Bayerische Motoren Werke Aktiengesellschaft Verfahren zum Betreiben eines Dialogsystems
CN110942603B (zh) * 2018-09-21 2021-09-17 北汽福田汽车股份有限公司 车辆碰撞报警方法、装置、车辆和服务器
JP2022510548A (ja) * 2018-10-12 2022-01-27 ベステル エレクトロニク サナイー ベ ティカレト エー.エス. ナビゲーション装置及びナビゲーション装置の動作方法
US10755571B1 (en) * 2019-03-01 2020-08-25 Amazon Technologies, Inc. Identifying parking location using single camera reverse projection
US11619745B2 (en) * 2019-10-29 2023-04-04 Qualcomm Incorporated Camera-based GNSS environment detector
DE102020122266A1 (de) 2020-08-26 2022-03-03 Audi Aktiengesellschaft Verfahren zum Anpassen einer digitalen Ladestationskarte, Vorrichtung für ein Fahrzeug zum Anpassen einer digitalen Ladestationskarte sowie Kraftfahrzeug
JP2023051224A (ja) * 2021-09-30 2023-04-11 コベルコ建機株式会社 作業機械

Family Cites Families (53)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6388403A (ja) * 1986-10-02 1988-04-19 Tokyo Keiki Kk 道路標示車両用運転標示装置
JPS6413259A (en) 1987-07-03 1989-01-18 Sony Corp Digital signal recording and reproducing device
JPH01125799A (ja) 1987-11-11 1989-05-18 Fujitsu Ltd 半導体記憶装置
JPH01133833A (ja) 1987-11-16 1989-05-25 Ricoh Co Ltd 自動原稿送給装置
NL8900056A (nl) * 1989-01-11 1990-08-01 Philips Nv Werkwijze voor het visueel weergeven van een deel van een topografische kaart, alsmede inrichting geschikt voor een dergelijke werkwijze.
NL8901695A (nl) * 1989-07-04 1991-02-01 Koninkl Philips Electronics Nv Werkwijze voor het weergeven van navigatiegegevens voor een voertuig in een omgevingsbeeld van het voertuig, navigatiesysteem voor het uitvoeren van de werkwijze, alsmede voertuig voorzien van een navigatiesysteem.
US5815411A (en) * 1993-09-10 1998-09-29 Criticom Corporation Electro-optic vision system which exploits position and attitude
US5627915A (en) 1995-01-31 1997-05-06 Princeton Video Image, Inc. Pattern recognition system employing unlike templates to detect objects having distinctive features in a video field
JP3233017B2 (ja) * 1996-05-14 2001-11-26 トヨタ自動車株式会社 車両用経路案内装置
JPH09304101A (ja) 1996-05-14 1997-11-28 Matsushita Electric Ind Co Ltd ナビゲーション装置
JPH1047978A (ja) 1996-08-02 1998-02-20 Nissan Motor Co Ltd 車両用前方モニタ装置
JPH10132598A (ja) 1996-10-31 1998-05-22 Sony Corp ナビゲート方法、ナビゲーション装置及び自動車
JPH1123305A (ja) 1997-07-03 1999-01-29 Toyota Motor Corp 車両用走行案内装置
JPH11108684A (ja) * 1997-08-05 1999-04-23 Harness Syst Tech Res Ltd カーナビゲーションシステム
JPH1186034A (ja) * 1997-09-05 1999-03-30 Nippon Telegr & Teleph Corp <Ntt> 景観ラベル付ヒューマンナビゲーション装置およびシステム
JPH11304499A (ja) * 1998-04-22 1999-11-05 Matsushita Electric Ind Co Ltd カーナビゲーション装置
JPH11338339A (ja) 1998-05-21 1999-12-10 Otsuka Shokai Co Ltd 遠隔講義システム
US6266442B1 (en) 1998-10-23 2001-07-24 Facet Technology Corp. Method and apparatus for identifying objects depicted in a videostream
JP3399506B2 (ja) 1998-12-22 2003-04-21 アイシン・エィ・ダブリュ株式会社 車両用ナビゲーション装置
JP2000251193A (ja) 1999-03-02 2000-09-14 Canon Inc 映像処理装置及び方法並びに記憶媒体
US7366595B1 (en) * 1999-06-25 2008-04-29 Seiko Epson Corporation Vehicle drive assist system
JP2001272242A (ja) 2000-03-23 2001-10-05 Kenwood Corp ナビゲーションシステム、誘導経路報知方法及び記録媒体
DE10037573B4 (de) * 2000-08-02 2005-05-19 Robert Bosch Gmbh Navigationsverfahren in einem Kraftfahrzeug
JP2002092012A (ja) * 2000-09-19 2002-03-29 Olympus Optical Co Ltd 特定地域内情報表示システム
JP2002213973A (ja) 2001-01-18 2002-07-31 Sony Corp 画像取得装置、画像取得方法、画像取得のプログラム
DE10138719A1 (de) * 2001-08-07 2003-03-06 Siemens Ag Verfahren und Vorrichtung zur Darstellung von Fahrhinweisen, insbesondere in Auto-Navigationssystemen
JP2003111128A (ja) 2001-09-28 2003-04-11 J-Phone East Co Ltd 現在位置特定方法、現在位置情報提供方法、移動経路案内方法、位置情報管理システム及び情報通信端末
JP3886769B2 (ja) * 2001-10-26 2007-02-28 富士通株式会社 補正画像生成装置および補正画像生成プログラム
JP2002228466A (ja) 2001-11-08 2002-08-14 Sony Corp ナビゲーション装置
JP3893983B2 (ja) 2002-01-17 2007-03-14 ソニー株式会社 情報提供装置及び情報提供方法、記憶媒体、並びにコンピュータ・プログラム
JP3801049B2 (ja) 2002-01-22 2006-07-26 ソニー株式会社 情報処理装置及び情報処理方法並びに情報処理プログラム
JP2003259363A (ja) 2002-02-27 2003-09-12 Denso Corp ナイトビジョン装置
JP4015051B2 (ja) * 2002-04-22 2007-11-28 松下電器産業株式会社 カメラ補正装置
DE10236221C1 (de) * 2002-08-07 2003-11-20 Siemens Ag Verfahren und Vorrichtung zur Anzeige von Navigationsinformationen für ein Fahrzeug
JP4136529B2 (ja) 2002-08-12 2008-08-20 パイオニア株式会社 情報処理装置、そのシステム、その方法、そのプログラム、そのプログラムを記録する記録媒体、および、ナビゲーション装置
JP4086605B2 (ja) * 2002-09-24 2008-05-14 キヤノン株式会社 撮像装置
WO2004048895A1 (ja) 2002-11-22 2004-06-10 Kumamoto Technology & Industry Foundation 移動体ナビゲート情報表示方法および移動体ナビゲート情報表示装置
ATE395577T1 (de) 2003-02-26 2008-05-15 Tomtom Int Bv Navigationseinrichtung und verfahren zum austausch von daten zwischen residenten anwendungen
JP2004257979A (ja) * 2003-02-27 2004-09-16 Sanyo Electric Co Ltd ナビゲーション装置
US7071970B2 (en) * 2003-03-10 2006-07-04 Charles Benton Video augmented orientation sensor
JP2004328399A (ja) * 2003-04-24 2004-11-18 Denso Corp 車載カメラ装置
JP2005214857A (ja) * 2004-01-30 2005-08-11 Sony Corp ナビゲーション装置、案内画像作成方法
GB2414799A (en) 2004-06-02 2005-12-07 Nec Technologies Visual navigation system
US7460953B2 (en) * 2004-06-30 2008-12-02 Navteq North America, Llc Method of operating a navigation system using images
US7456847B2 (en) * 2004-08-12 2008-11-25 Russell Steven Krajec Video with map overlay
JP4696248B2 (ja) 2004-09-28 2011-06-08 国立大学法人 熊本大学 移動体ナビゲート情報表示方法および移動体ナビゲート情報表示装置
JP2006105640A (ja) 2004-10-01 2006-04-20 Hitachi Ltd ナビゲーション装置
JP4632793B2 (ja) 2005-01-12 2011-02-16 京セラ株式会社 ナビゲーション機能付き携帯型端末機
JP4483798B2 (ja) 2005-04-06 2010-06-16 株式会社デンソー 経路案内装置およびプログラム
US7728869B2 (en) * 2005-06-14 2010-06-01 Lg Electronics Inc. Matching camera-photographed image with map data in portable terminal and travel route guidance method
CN101410695B (zh) 2006-03-28 2013-03-13 松下电器产业株式会社 导航装置
JP4888703B2 (ja) 2006-10-11 2012-02-29 株式会社デンソー 車両用ナビゲーション装置
US20100029293A1 (en) 2007-05-10 2010-02-04 Sony Ericsson Mobile Communications Ab Navigation system using camera

Also Published As

Publication number Publication date
NO20080097L (no) 2008-01-07
DE602005016311D1 (de) 2009-10-08
US20120191346A1 (en) 2012-07-26
US8352180B2 (en) 2013-01-08
CN101194143A (zh) 2008-06-04
EP2003423B1 (en) 2013-03-27
CA2609663A1 (en) 2006-12-14
WO2006132522A1 (en) 2006-12-14
US20090125234A1 (en) 2009-05-14
US8180567B2 (en) 2012-05-15
CN101194143B (zh) 2012-10-03
EP1889007A1 (en) 2008-02-20
DE202005021607U1 (de) 2008-11-20
ATE441089T1 (de) 2009-09-15
NZ564319A (en) 2009-05-31
AU2005332711A1 (en) 2006-12-14
ES2404164T3 (es) 2013-05-24
EP2003423A1 (en) 2008-12-17
NZ575752A (en) 2010-10-29
EP1889007B1 (en) 2009-08-26
AU2005332711B2 (en) 2010-12-02
JP2008542746A (ja) 2008-11-27
JP4921462B2 (ja) 2012-04-25
MX2007015348A (es) 2008-02-15
BRPI0520250A2 (pt) 2009-04-28

Similar Documents

Publication Publication Date Title
ES2330351T3 (es) Dispositivo de navegacion con informacion de camara.
US8423292B2 (en) Navigation device with camera-info
ES2293232T3 (es) Dispositivo de navegacion y metodo para visualizar los datos de navegacion simulada.
US8370059B2 (en) Navigation apparatus and navigation program
ES2425945T3 (es) Dispositivo de navegación y método para proporcionar avisos de un control de velocidad
US20080167811A1 (en) Navigation device and method for displaying navigation information
JP4705170B2 (ja) ナビゲーションデバイス及びナビゲーションデバイス上に表示された地図データをスクロールする方法
CN101573590A (zh) 导航装置及用于显示导航信息的方法
JP5063871B2 (ja) 携帯機用地図表示システム
ES2333042T3 (es) Aparato de procesamiento de imagenes, metodo de visualizacion de imagenes de vista lejana, y programa de visualizacion de imagenes de vista lejana.
RU2375756C2 (ru) Навигационное устройство с информацией, получаемой от камеры
JP2003194555A (ja) ナビゲーション装置及びその表示方法
JP2005195475A (ja) ナビゲーション装置
KR20080019690A (ko) 카메라 정보를 구비하는 내비게이션 기기
JP2011022152A (ja) ナビゲーションデバイス
JP3893284B2 (ja) ナビゲーション装置
RU2417398C2 (ru) Навигационное устройство и способ прокрутки картографических данных, отображаемых в навигационном устройстве
KR20080036039A (ko) 내비게이션 기기 상에 표시된 지도 데이터를 스크롤하는내비게이션 기기 및 방법