ES2330351T3 - Dispositivo de navegacion con informacion de camara. - Google Patents
Dispositivo de navegacion con informacion de camara. Download PDFInfo
- Publication number
- ES2330351T3 ES2330351T3 ES05752007T ES05752007T ES2330351T3 ES 2330351 T3 ES2330351 T3 ES 2330351T3 ES 05752007 T ES05752007 T ES 05752007T ES 05752007 T ES05752007 T ES 05752007T ES 2330351 T3 ES2330351 T3 ES 2330351T3
- Authority
- ES
- Spain
- Prior art keywords
- navigation
- camera
- navigation device
- instructions
- screen
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/26—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
- G01C21/34—Route searching; Route guidance
- G01C21/36—Input/output arrangements for on-board computers
- G01C21/3626—Details of the output of route guidance instructions
- G01C21/3647—Guidance involving output of stored or live camera images or video streams
Landscapes
- Engineering & Computer Science (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Automation & Control Theory (AREA)
- Multimedia (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Navigation (AREA)
- Instructional Devices (AREA)
- Traffic Control Systems (AREA)
- Camera Data Copying Or Recording (AREA)
Abstract
Un dispositivo de navegación, dispositivo (10), el cual está preparado para mostrar instrucciones de navegación en una pantalla de visualización, para recibir una señal de video de una cámara (24) y para mostrar una combinación de una imagen de cámara de la señal de video de la cámara e instrucciones de navegación en la pantalla; caracterizado porque (i) el dispositivo es un dispositivo de navegación portátil el cual incluye una cámara (24) integrada al dispositivo y (ii) el dispositivo está preparado para proporcionar una opción de menú que le permite a un usuario ajustar una posición relativa de la imagen de cámara mostrada con respecto a las instrucciones de navegación.
Description
Dispositivo de navegación con información de
cámara.
La presente invención hace referencia a un
dispositivo de navegación, dispositivo de navegación que está
preparado para mostrar instrucciones de navegación en una
pantalla.
Además, la presente invención hace referencia a
un vehículo que incluye un dispositivo de navegación de este tipo,
y un método para proporcionar instrucciones de navegación. La
presente invención también se refiere a un programa informático y a
un portador de datos.
Los dispositivos de navegación de artes
anteriores basados en GPS (Sistema de Posicionamiento Global) son
bien conocidos y ampliamente utilizados como ocurre en los sistemas
de navegación para vehículos. Un dispositivo de navegación GPS de
este tipo hace referencia a un dispositivo informático el cual, en
conexión funcional con un receptor GPS externo (o interno), es
capaz de determinar su posición global. Además, el dispositivo
informático es capaz de determinar una ruta entre direcciones de
origen y destino, las cuales pueden ser ingresadas por un usuario
del dispositivo informático. Por lo general, el dispositivo
informático cuenta con un software que le permite calcular una
"mejor" u "óptima" ruta entre las ubicaciones de las
direcciones de origen y destino de una base de datos de mapas. En
base a un criterio predefinido se determina una "mejor" u
"óptima" ruta, la cual no debe ser necesariamente la ruta más
rápida o más corta.
Normalmente, el dispositivo de navegación puede
ser montado en el tablero de un vehículo, pero también puede ser
incorporado a una computadora de a bordo o al equipo estéreo del
vehículo. El dispositivo de navegación también puede ser parte de
un sistema portátil, como un Asistente Personal Digital (PDA, por
sus siglas en inglés).
Mediante la utilización de información
posicional derivada del receptor GPS, el dispositivo informático
puede determinar en intervalos regulares su posición y mostrar la
posición actual del vehículo al usuario. El dispositivo de
navegación también puede incluir dispositivos de memoria para
almacenar datos de mapas y una pantalla para mostrar una porción
específica de los datos del mapa.
Además, puede proporcionar instrucciones sobre
cómo navegar la ruta determinada por medio de instrucciones de
navegación apropiadas que se muestran en la pantalla y/o que son
generadas como señales audibles a través de un altavoz (por
ejemplo, "gire a la izquierda a 100 m"). Los gráficos que
representan las acciones a ejecutar (por ejemplo, una flecha hacia
la izquierda indicando un próximo giro a la izquierda) pueden ser
visualizados en una barra de estado y también pueden ser
superpuestos sobre las intersecciones/giros, etc. aplicables en el
mapa mismo.
Los sistemas de navegación para vehículos
permiten al conductor iniciar un recálculo de ruta mientras conduce
un automóvil por una ruta ya calculada por el sistema de navegación.
Esto resulta de gran utilidad cuando el vehículo se encuentra con
obras en construcción o grandes congestionamientos de tránsito.
También le permiten al usuario elegir el tipo de
algoritmo de cálculo de ruta empleado por el dispositivo de
navegación, seleccionando por ejemplo entre un modo "Normal" y
un modo "Rápido" (el cual calcula la ruta en menos tiempo,
pero no explora tantas rutas alternativas como lo hace el modo
Normal).
También permiten calcular una ruta utilizando un
criterio definido por el usuario; por ejemplo, el usuario podría
preferir que el dispositivo calcule una ruta turística. El software
del dispositivo calcularía entonces distintas rutas y priorizaría
aquellas que incluyan a lo largo de su ruta la mayor cantidad de
puntos de interés (conocidos como POI, por sus siglas en inglés)
marcados, por ejemplo, como paisajes bellos.
En el arte anterior, los dispositivos de
navegación muestran mapas que son, al igual que la mayoría de los
mapas, una representación altamente estilizada o esquemática del
mundo real. A muchas personas les resulta difícil convertir esta
versión bastante abstracta del mundo real en algo que pueda ser
reconocido y comprendido fácilmente. Los dispositivos de navegación
muestran una proyección (semi) tridimensional del mapa, como se lo
vería desde arriba y/o desde atrás del vehículo. Con esto se
pretende que el usuario pueda interpretar de manera más fácil los
datos del mapa mostrados, dado que se corresponden con la percepción
visual que el usuario tiene del mundo. Sin embargo, dicha vista en
(semi) perspectiva es una representación estilizada o esquemática
que para los usuarios aún resulta relativamente difícil
interpretar.
Sin embargo, la necesidad de permitir a las
personas seguir las instrucciones que se muestran en pantalla de
manera fácil y rápida resulta especialmente acuciante en un sistema
de navegación personal, dado que muchos serán utilizados como
sistemas de navegación para automóvil. Se comprenderá que un
conductor de un vehículo debe pasar el menor tiempo posible mirando
e interpretando los datos de mapa mostrados, dado que su atención
tiene que estar concentrada en la ruta y en el tráfico.
Es posible hacer referencia a la JP 09304101, la
cual revela una cámara conectada a un dispositivo de navegación,
pero la cual no revela ni una cámara integrada al dispositivo de
navegación, ni un dispositivo de navegación preparado para
proporcionar una opción de menú que le permita a un usuario ajustar
una posición relativa de la imagen de cámara mostrada con respecto
a las instrucciones de navegación mostradas. La Figura 4 de JP
09304101 muestra una cámara montada en el techo de un vehículo.
Es posible hacer referencia a la EP 0899542A, la
cual revela una cámara conectada a un dispositivo de navegación,
pero la cual no revela ni una cámara integrada al dispositivo de
navegación, ni un dispositivo de navegación preparado para
proporcionar una opción de menú que le permita a un usuario ajustar
una posición relativa de la imagen de cámara mostrada con respecto
a las instrucciones de navegación mostradas. El párrafo [0022] de
EP 0899542A revela una cámara conectada a una unidad de navegación,
no una cámara integrada a una unidad de navegación. La imagen de
cámara no se muestra en EP 0899542A.
Es posible hacer referencia a la DE 1023621, la
cual revela un sistema de navegación equipado con una cámara, pero
que no revela ni una cámara integrada al dispositivo de navegación,
ni un dispositivo de navegación preparado para proporcionar una
opción de menú que le permita a un usuario ajustar una posición
relativa de la imagen de cámara mostrada con respecto a las
instrucciones de navegación mostradas. El párrafo [0030] de DE
10236221 revela que el sistema está equipado con una cámara, pero
no existe sugerencia alguna de que esta cámara pueda estar
integrada a la unidad de navegación.
Por lo tanto, es un objeto de la invención
proporcionar un dispositivo de navegación que supere al menos uno
de los problemas mencionados anteriormente y que muestre
instrucciones de fácil interpretación para el usuario.
Para alcanzar este objeto, la invención
proporciona un dispositivo de navegación, dispositivo 10, el cual
está preparado para mostrar instrucciones de navegación en una
pantalla de visualización, para recibir una señal de video de una
cámara 24 y para mostrar una combinación de una imagen de cámara de
la señal de video de la cámara e instrucciones de navegación en la
pantalla; caracterizado porque
- (i)
- el dispositivo es un dispositivo de navegación portátil, el cual incluye una cámara 24 integrada al dispositivo y
- (ii)
- el dispositivo está preparado para proporcionar una opción de menú que le permite a un usuario ajustar una posición relativa de la imagen de cámara mostrada con respecto a las instrucciones de navegación.
Mediante la superposición o combinación de
instrucciones de navegación sobre la imagen de cámara, se le
presenta al usuario una vista amigable que permite una fácil y
rápida interpretación. El usuario no tiene la necesidad de traducir
una representación abstracta del mundo real, porque la imagen de
cámara es una representación uno a uno de la vista real percibida
por el usuario. La combinación de la señal de la cámara y las
instrucciones de navegación podrían ser todo tipo de combinaciones,
como la superposición de una sobre otra, que se muestren de manera
simultánea en diferentes partes de la pantalla. No obstante, la
combinación también podría ser una combinación en tiempo, es decir,
una visualización alternativa entre la señal de la cámara y las
instrucciones de navegación. Ésta podría cambiar luego de un
intervalo de tiempo predeterminado (por ejemplo, 5 segundos) o
podría cambiar como resultado de una acción ingresada por el
usuario.
Dado que la cámara está integrada al dispositivo
de navegación, dicho dispositivo de navegación no requiere una
señal de cámara externa. El dispositivo de navegación puede, por
ejemplo, ser montado fácilmente en un tablero de un vehículo, de
manera tal que la cámara proporcione una imagen a través de la
pantalla frontal.
Según una ejecución adicional, la invención hace
referencia a un dispositivo de navegación donde las instrucciones
de navegación son una o más para flechas de posición, ruta, flecha,
puntos de interés, rutas, edificios, y datos de mapa como datos de
vector, almacenados en al menos una unidad de memoria, como un disco
duro, una Memoria de Sólo Lectura, una Memoria Programable y
Borrable Eléctricamente de Sólo Lectura y una Memoria de Acceso
Aleatorio. Es posible mostrar todo tipo de instrucciones de
navegación. Se observa que estas instrucciones de navegación
también podrían proporcionar información no necesaria de por sí para
la navegación (encontrar una ruta), y que también podrían
proporcionarle al usuario información adicional.
Según una ejecución adicional, la invención hace
referencia a un dispositivo de navegación preparado también para
superponer las instrucciones de navegación sobre la imagen de cámara
de modo tal que la posición de las instrucciones de navegación se
encuentren en una relación espacial predefinida con respecto a las
partes correspondientes de la imagen de cámara. Esto le proporciona
al usuario una imagen fácilmente interpretable, dado que todas las
instrucciones de navegación pueden ser visualizadas de modo tal que
coincidan con la posición real del elemento correspondiente en la
imagen de cámara. Por ejemplo, una flecha que indique un giro a la
derecha puede superponerse sobre la imagen de cámara de modo tal
que coincida con el giro visible en la imagen de cámara.
Según una ejecución adicional, la invención hace
referencia a un dispositivo de navegación, donde el dispositivo de
navegación está preparado para recibir correcciones de calibración,
almacenar estas correcciones de calibración y aplicar las
correcciones de calibración al combinar las instrucciones de
navegación y la imagen de cámara. Esto resulta especialmente
ventajoso cuando las instrucciones de navegación son combinadas de
forma tal que las instrucciones de navegación se superpongan sobre
la imagen de cámara para tener una relación espacial predefinida
con respecto a la imagen de cámara. Las correcciones de calibración
pueden ser utilizadas para cancelar errores de descentrado.
En las Reivindicaciones se definen
características adicionales de realizaciones de la invención.
A continuación se describirán las realizaciones
de la invención, sólo a modo de ejemplo, en referencia a los
dibujos esquemáticos anexos en los cuales los símbolos de referencia
correspondientes indican piezas y partes correspondientes, y en los
cuales:
- la Figura 1 representa esquemáticamente un
diagrama esquemático de bloque de un dispositivo de navegación,
- la Figura 2 representa esquemáticamente una
vista esquemática de un dispositivo de navegación,
- la Figura 3 representa esquemáticamente un
diagrama esquemático de bloque de un dispositivo de navegación
según una ejecución de la invención,
- la Figura 4 representa esquemáticamente un
vehículo que incluye un dispositivo de navegación según una
ejecución de la invención,
- la Figura 5 representa esquemáticamente un
dispositivo de navegación según una ejecución de la invención,
- la Figura 6 representa esquemáticamente un
dispositivo de navegación según una ejecución de la invención,
- la Figura 7 representa esquemáticamente una
cámara según una ejecución de la invención,
- las Figuras 8a y 8b representan
esquemáticamente diferentes movimientos de la imagen de cámara en la
pantalla como resultado de diferentes inclinaciones de la
cámara,
- la Figura 9 representa esquemáticamente un
diagrama de flujo de la funcionalidad del dispositivo de navegación
10 según una ejecución de la invención,
- la Figura 10 representa esquemáticamente un
dispositivo de navegación según una ejecución de la invención,
- la Figura 11 representa esquemáticamente un
dispositivo de navegación según una ejecución de la invención,
y
- la Figura 12 representa un dispositivo de
navegación según una ejecución adicional de la invención.
La Figura 1 muestra un diagrama esquemático de
bloque de una ejecución de un dispositivo de navegación 10, que
consta de una unidad de procesador 11 para ejecutar operaciones
aritméticas. La unidad de procesador 11 está preparada para
comunicarse con las unidades de memoria que almacenan instrucciones
y datos, como un disco duro 12, una Memoria de Sólo Lectura (ROM,
sus siglas en inglés) 13, una Memoria Programable y Borrable
Eléctricamente de Sólo Lectura (EEPROM, su siglas en inglés) 14 y
una Memoria de Acceso Aleatorio (RAM, por sus siglas en inglés) 15.
Las unidades de memoria pueden incluir datos de mapa 22. Estos datos
de mapa pueden ser datos de mapa de dos dimensiones (latitud y
longitud), pero también pueden incluir una tercera dimensión
(altura). Estos datos de mapa también pueden incluir información
adicional como información sobre estaciones de combustible, puntos
de interés, etc. Los datos de mapa también pueden incluir
información acerca de la forma de los edificios y los objetos que
se encuentran a lo largo de la ruta.
La unidad de procesador 11 también puede estar
preparada para comunicarse con uno o más dispositivos de entrada,
como un teclado 16 y un ratón 17. El teclado 16 puede ser, por
ejemplo, un teclado virtual, proporcionado en una pantalla 1, 8,
que sea una pantalla táctil. La unidad de procesador 11 también
puede estar preparada para comunicarse con uno o más dispositivos
de salida, como una pantalla 18, un altavoz 29 y una o más unidades
de lectura 19 para leer, por ejemplo, disquetes 20 o CD ROM 21. La
pantalla 18 podría ser una pantalla convencional de computadora
(por ejemplo, una pantalla LCD) o podría ser una pantalla de
proyección, como las pantallas frontales de datos utilizadas para
proyectar datos de instrumentación en el parabrisas de un auto. La
pantalla 18 también puede ser una pantalla preparada para funcionar
como pantalla táctil, la cual le permite al usuario ingresar
instrucciones y/o información tocando la pantalla 18 con su
dedo.
La unidad de procesador 11 también puede estar
preparada para comunicarse con otros dispositivos informáticos o
dispositivos de comunicación utilizando un dispositivo de
entrada/salida 25. Se muestra que el dispositivo de entrada/salida
25 debe estar preparado para la comunicación entre equipos a través
de una red 27.
El altavoz 29 podría estar integrado al
dispositivo de navegación 10. En caso de que el dispositivo de
navegación 10 sea utilizado como dispositivo de navegación para
auto, el dispositivo de navegación 10 podría utilizar los altavoces
del equipo estéreo, la computadora de abordo, etc.
La unidad de procesador 11 también puede estar
preparada para comunicarse con un dispositivo de posicionamiento
23, como un receptor GPS, que proporcione información acerca de la
posición del dispositivo de navegación 10. Según esta ejecución, el
dispositivo de posicionamiento 23 es un dispositivo de
posicionamiento GPS 23. Sin embargo, se comprenderá que este
dispositivo de navegación 10 puede implementar cualquier tipo de
tecnología de detección de posicionamiento y no se limita al GPS.
Por lo tanto, puede ser implementado utilizando otros tipos de
sistemas de navegación mundial por satélite (GNSS, por sus siglas en
inglés) como el sistema europeo Galileo. Así mismo, no está
limitado a sistemas de ubicación/velocidad satelitales pero
igualmente puede ser implementado utilizando guías baliza de tierra
o cualquier otro tipo de sistema que permita al dispositivo
determinar su ubicación geográfica.
Sin embargo, debe comprenderse que podrían
proporcionarse más y/u otras unidades de memoria, dispositivos de
entrada y dispositivos de lectura conocidos por aquellos expertos en
el arte. Además, uno o más de ellos podría estar ubicado
físicamente lejos de la unidad de procesador 11, si así fuera
necesario. La unidad de procesador 11 se muestra como una caja; sin
embargo, podría constar de diversas unidades de procesamiento
funcionando en paralelo o controladas por un procesador principal
que podrían estar distanciadas unas de otras, como lo saben
aquellas personas expertas en el arte.
El dispositivo de navegación10 se muestra como
un sistema informático, pero puede ser cualquier sistema de
procesamiento de señal con tecnología análoga y/o digital y/o de
software preparado para ejecutar las funciones aquí descritas. Se
comprenderá que aunque el dispositivo de navegación 10 se muestra en
la Figura 1 como una pluralidad de componentes, el dispositivo de
navegación 10 puede diseñarse como un dispositivo único.
El dispositivo de navegación 10 puede utilizar
software de navegación, como el software de navegación de TomTom
B.V. llamado Navigator. El software Navigator puede funcionar en un
dispositivo PDA Pocket PC con pantalla táctil (por ejemplo,
controlado por un lápiz óptico), como el Compaq iPaq, como así
también en dispositivos que tengan un receptor GPS integrado 23. El
sistema combinado de PDA y receptor GPS está diseñado para ser
utilizado como sistema de navegación para auto. La invención también
puede ser implementada en cualquier otra configuración de
dispositivo de navegación 10, como en una que tenga un receptor
GPS/computadora/pantalla integrados, o en un dispositivo diseñado
para usar fuera del vehículo (por ejemplo, para peatones) o en otros
vehículos que no sean automóviles (por ejemplo, aeronaves).
La Figura 2 representa un dispositivo de
navegación 10 como se describió arriba.
El software Navigator, al ser utilizado en un
dispositivo de navegación 10, hace que el dispositivo de navegación
10 muestre una pantalla de modo de navegación normal en la pantalla
18, como se muestra en la Figura 2. Esta visualización podría
proporcionar instrucciones de manejo utilizando una combinación de
texto, símbolos, direcciones de voz y un mapa móvil. Los elementos
clave de interfaz de usuario son los siguientes: un mapa 3D ocupa la
mayor parte de la pantalla. Se observa que el mapa también puede
ser visualizado como un mapa 2D.
El mapa muestra la posición del dispositivo de
navegación 10 y sus alrededores inmediatos, rotados de manera tal
que la dirección en la cual el dispositivo de navegación10 se está
moviendo sea siempre "arriba". De manera transversal en la
parte inferior de la pantalla puede haber una barra de estado 2. La
ubicación actual del dispositivo de navegación 10 (como lo
determina el propio dispositivo de navegación 10 utilizando
detección de ubicación GPS convencional) y su orientación (como se
deduce de su orientación de recorrido) están representados por una
flecha de posición 3. Una ruta 4 calculada por el dispositivo
(utilizando algoritmos de cálculo de ruta almacenados en los
dispositivos de memoria 11, 12, 13, 14, 15 aplicados a los datos de
mapa almacenados en una base de datos de mapas en los dispositivos
de memoria 11, 12, 13, 14, 15) se muestra como camino sombreado. En
la ruta 4, todas las acciones principales (por ejemplo, giros de
esquina, intersecciones, rotondas, etc.) son representadas
esquemáticamente mediante flechas 5 sobrepuestas a la ruta 4. La
barra de estado 2 también incluye a la izquierda un icono
esquemático que representa la próxima acción 6 (aquí, un giro a la
derecha). La barra de estado 2 también muestra la distancia hasta
la próxima acción (es decir, el giro a la derecha - aquí la
distancia es de 50 metros) según lo extraído de la base de datos de
toda la ruta calculada por el dispositivo (es decir, una lista de
todas las rutas y acciones relacionadas que definen la ruta a
tomar). La barra de estado 2 también muestra el nombre de la ruta
actual 8, el tiempo estimado antes de llegar 9 (aquí, 2 minutos y
40 segundos), la hora estimada actual de llegada 25 (11:36 a.m.) y
la distancia hasta el destino 26 (1,4 km). La barra de estado 2
también puede mostrar información adicional, como la intensidad de
la señal GPS en un indicador de intensidad de señal similar al de
los teléfonos móviles.
Como se mencionó con anterioridad, el
dispositivo de navegación puede incluir dispositivos de entrada,
como una pantalla táctil, que permitan que los usuarios presenten
en pantalla un menú de navegación (no mostrado). Desde este menú
pueden iniciarse o controlarse otras funciones de navegación.
Permitir que las funciones de navegación sean seleccionadas de una
pantalla de menú a la cual pueda accederse fácilmente (por ejemplo,
muy cerca de la pantalla de mapa a la pantalla de menú) simplifica
en gran manera la interacción del usuario haciéndola más rápida y
fácil. El menú de navegación incluye la opción para que el usuario
ingrese un destino.
\newpage
La estructura física real del dispositivo de
navegación 10 en sí misma podría ser básicamente igual a la de
cualquier computadora portátil convencional, aparte del receptor GPS
integrado 23 o de la señal de datos GPS de un receptor GPS externo.
Por lo tanto, los dispositivos de memoria 12, 13, 14, 15 almacenan
los algoritmos de cálculo de ruta, las bases de datos de mapas y el
software de interfaz de usuario; una unidad de procesador 12
interpreta y procesa los datos ingresados por el usuario (por
ejemplo, utilizando una pantalla táctil para ingresar las
direcciones de origen y destino y todas las demás entradas de datos
de control) y utiliza los algoritmos de cálculo de ruta para
calcular la ruta óptima. "Óptima" podría referirse a criterios
como menor tiempo o menor distancia, o a otros factores
relacionados con el usuario.
Más específicamente, el usuario ingresa su
posición de origen y destino solicitado en el software de navegación
que está funcionando en el dispositivo de navegación 10, utilizando
los dispositivos de entrada proporcionados, como una pantalla
táctil 18, un teclado 16, etc. Después, el usuario selecciona la
manera en la cual debe calcularse una ruta de viaje: Se ofrecen
distintos modos, como por ejemplo un modo "rápido" que calcula
la ruta muy rápidamente, aunque la ruta podría no ser la más corta;
un modo "completo" que analiza todas las rutas posibles y
localiza la más corta, pero que demora más tiempo en realizar el
cálculo, etc. También existen otras opciones, como en las que el
usuario define una ruta turística, por ejemplo, que pase por la
mayor cantidad de POI (puntos de interés) posible marcados como
vistas de extraordinaria belleza, o que pase por la mayor cantidad
de POI de posible interés para niños, o que utilice la menor
cantidad de intersecciones, etc.
Las rutas en sí mismas son descritas en la base
de datos de mapas que es parte del software de navegación (o a la
que se accede mediante éste) que funciona en el dispositivo de
navegación 10 como líneas, es decir vectores (por ejemplo, punto de
inicio, punto de finalización, dirección de una ruta, con una ruta
entera compuesta por muchos cientos de dichas acciones, cada una de
ellas definida exclusivamente por parámetros de direcciones de
punto de inicio/punto de finalización). Un mapa es, por lo tanto, un
conjunto de dichos vectores de ruta, más puntos de interés, más
nombres de rutas, más otras características geográficas como
límites de parques, límites de ríos, etc., cada uno de los cuales es
definido en términos de vectores. Todas las características del
mapa (por ejemplo, vectores de ruta, POI, etc.) son definidas en un
sistema de coordenadas que se corresponde o se relaciona con un
sistema de coordenadas GPS, permitiendo que la posición del positivo
determinada mediante el sistema GPS sea localizada en la ruta
relevante mostrada en un mapa.
El cálculo de ruta utiliza complejos algoritmos
que forman parte del software de navegación. Los algoritmos son
aplicados para calificar una gran cantidad de rutas posibles.
Después, el software de navegación las evalúa comparándolas con los
criterios definidos por el usuario (o según la configuración
predeterminada del dispositivo), como un escaneo de modo completo,
con rutas turísticas, museos históricos, y ausencia de cámaras de
velocidad. La ruta que mejor se adapta a los criterios definidos es
entonces calculada por la unidad de procesador 11 y luego
almacenada en una base de datos en los dispositivos de memoria 12,
13, 14, 15 como una secuencia de vectores, nombres de rutas y
acciones a ser realizadas en extremos del vector (por ejemplo,
correspondientes a distancias predeterminadas a lo largo de cada
carretera de la ruta, como después de 100 metros, doble a la
izquierda en la calle x).
La Figura 3 representa un diagrama esquemático
de bloque de un dispositivo de navegación 10 según la invención, en
el cual los símbolos de referencia correspondientes indican partes y
piezas correspondientes como en las Figuras 1 y 2.
Según la invención, se proporciona una cámara 24
la cual está preparada para suministrar una señal de tiempo real a
la unidad de procesador 11. Al usarse, la cámara 24 es posicionada
de modo tal que registre la carretera a recorrer por el usuario.
Cuando se la posiciona en un auto, la cámara 24 es posicionada de
modo tal que registre la carretera a recorrer por el usuario. La
cámara 24 puede estar integrada al dispositivo de navegación 10, o
puede estar físicamente separada de él. Si está separada, la cámara
24 puede conectarse a la unidad de procesador 11 mediante un cable
o a través de una conexión inalámbrica. La cámara 24 puede ser
posicionada en el techo del vehículo o en la parte frontal del
vehículo, por ejemplo cerca de las luces delanteras.
El dispositivo de navegación 10 también puede
ser proporcionado con más de una cámara 24, para permitir que el
usuario alterne entre diferentes ángulos de cámara. También puede
proporcionarse una cámara de vista posterior. La cámara puede ser
cualquier tipo de cámara, como una cámara digital o una cámara
analógica. La imagen registrada por la cámara 24 es mostrada en la
pantalla 18.
La cámara 24 también puede ser una cámara
sensible a la radiación electromagnética fuera del espectro
electromagnético visible para el ojo humano. La cámara puede ser
una cámara infrarroja que permita su utilización durante la
noche.
La Figura 4 muestra un ejemplo de un dispositivo
de navegación 10, posicionado en el tablero del automóvil 1. El
dispositivo de navegación 10 consta de una cámara 24 direccionada
hacia la carretera por delante del automóvil 1. La Figura 4 también
muestra que la pantalla 18 se encuentra frente al usuario.
Según la invención, el dispositivo de navegación
10 está preparado para mostrar la señal en tiempo real de la cámara
en la pantalla 18 y para combinar o superponer una o más
instrucciones de navegación. Las instrucciones de navegación pueden
ser una o más de las siguientes instrucciones: flecha de posición 3,
la ruta 4, flecha 5, puntos de interés, carreteras, edificios y
todas las instrucciones de navegación adicionales almacenadas en el
dispositivo de navegación 10. También pueden incluir los datos de
mapa en sí mismos, por ejemplo los datos de vector que describen
las carreteras. A continuación se describe de manera detallada la
forma en que ésto puede llevarse a cabo.
Las imágenes proporcionadas por la cámara 24 no
serán estáticas, debido a las irregularidades de la carretera, las
vibraciones del vehículo causadas por el motor, etc. Por lo tanto,
el dispositivo de navegación 10 puede ser proporcionado con
software que cancele estas vibraciones no deseadas para proporcionar
una imagen estática. El software que cancela las vibraciones no
deseadas de las imágenes proporcionadas por la cámara 24 es
ampliamente utilizado en las videocámaras, de las cuales se lo
utiliza bajo el nombre de estabilizador de cámara. Esto resultará
familiar para cualquier experto en el arte.
La señal de la cámara 24 puede ser procesada
posteriormente para incrementar la calidad de las imágenes. Este
procesamiento puede consistir de ajustar el brillo y el contraste,
pero puede ser cualquier filtro apropiado. Los filtros pueden
utilizarse para incrementar la calidad de las imágenes en
condiciones de lluvia.
La señal de la cámara 24 puede ser mostrada en
la pantalla en tiempo real, pero también puede visualizarse como
una imagen fija que se actualiza en ciertos puntos de tiempo, como
por ejemplo cada 0,5 segundos. Los intervalos de tiempo apropiados
entre las sucesivas actualizaciones puede determinarse dependiendo
de la velocidad del vehículo del dispositivo de navegación 10, el
cambio de la orientación de recorrido (al tomar curvas).
Además, el dispositivo de navegación puede estar
preparado para acercarse o alejarse dependiendo de, por ejemplo, la
velocidad del dispositivo de navegación/vehículo. Esta operación de
zoom puede llevarse a cabo enviando una señal de control a la
cámara 24 ordenándole que ejecute una operación de zoom. No
obstante, la operación de zoom también puede llevarse a cabo
mostrando una parte de la señal de cámara recibida de manera
ampliada en la pantalla 18.
Ejecución
1
La Figura 5 representa un primer ejemplo de la
invención. La Figura 5 muestra una imagen fija de la imagen
registrada por la cámara 24 mostrada por el dispositivo de
navegación 10. Como puede verse, una fecha 5 que indica un giro a
la derecha es superpuesta por la unidad de procesador 11. Según esta
ejecución, una imagen amigable es mostrada al usuario, permitiendo
una fácil interpretación. Esta ejecución presenta la ventaja de no
necesitar complejos procesamientos matemáticos y de datos.
En lugar de la acción de navegación representada
en la Figura 5, también pueden mostrarse otras instrucciones de
navegación como se mencionó arriba, incluyendo instrucciones de
navegación en perspectiva, como flechas en perspectiva.
Ejecución
2
La Figura 6 muestra otra imagen fija de la
imagen registrada por la cámara 24. Según este ejemplo, el
dispositivo de navegación 10 superpone la ruta 4 y la flecha 5. La
ruta 4 y la fecha 5 son superpuestas de manera tal que su posición
en la pantalla 18 corresponda con la imagen proporcionada por la
cámara 24. La Figura 6 muestra claramente que la ruta 4 es mostrada
de modo tal que corresponda con la carretera como se muestra en la
pantalla 18. Además, la flecha 5 es mostrada de modo tal que
indique de manera exacta un giro a la derecha en la imagen
proporcionada por la cámara 24.
Se comprenderá que la ejecución mostrada en la
Figura 5 puede ser fácilmente obtenida mediante la superposición o
combinación de la imagen proporcionada por la cámara 24 y una
instrucción de navegación, como por ejemplo la flecha 5. Sin
embargo, para crear la imagen proporcionada en la Figura 6, se
requiere de un procesamiento de datos más complicado para hacer
coincidir la imagen proporcionada por la cámara 24 con las
instrucciones de navegación. Esto se describirá en mayor detalle a
continuación.
Para superponer las instrucciones de navegación
de modo tal que tengan una relación espacial predefinida con
respecto a las partes correspondientes de la imagen de cámara, es
necesario conocer la posición exacta de la cámara, la instrucción y
la configuración de cámara. Si se cuenta con toda esta información,
la unidad de procesamiento 11 calcula la posición de, por ejemplo,
la carretera en la pantalla 18 y superpone la ruta 4.
Primero, es necesario determinar la posición de
la cámara 24. Esto puede realizarse fácilmente utilizando la
información GPS según lo determinado por la unidad de procesamiento
11 y/o el dispositivo de posicionamiento 23. La información de
posición del dispositivo de navegación 10, y por lo tanto de la
cámara 24, ya se encuentra disponible en el dispositivo de
navegación 10 según usos de arte anterior.
Después, es necesario determinar la orientación
de la cámara 24. Esto se realiza utilizando sensores de orientación,
preparados para comunicarse con la unidad de procesamiento 11. Los
sensores de orientación pueden ser el dispositivo de
posicionamiento 23 y sensores de inclinación 27, 28. Los sensores de
inclinación 27, 28 pueden ser giroscopios.
La Figura 7 representa una cámara 24 según una
ejecución de la invención. Es necesario determinar una primera
dirección rotacional con respecto a un eje C, como se representa en
la Figura 7. Además, esto puede realizarse fácilmente utilizando la
información GPS según lo determinado por la unidad de procesamiento
11 y/o el dispositivo de posicionamiento 23. Comparando la posición
del dispositivo de navegación 10 en puntos sucesivos en el tiempo,
es posible determinar la dirección de movimiento del dispositivo de
navegación 10. Esta información ya se encuentra disponible en el
dispositivo de navegación 10 según un uso de arte anterior. Se asume
que la cámara 24 mira hacia la orientación de recorrido del
dispositivo de navegación 10. Sin embargo, este no es el caso
necesariamente, como se describirá a continuación.
La primera dirección rotacional C de la cámara
24 también puede ser determinada utilizando una brújula
(electrónica) compuesta por el dispositivo de navegación o la
cámara 24. La brújula puede ser una brújula electrónica o una
brújula analógica. La brújula proporciona lecturas de brújula que
son comunicadas a la unidad de procesamiento 11. Basada en las
lecturas de brújula, la unidad de procesamiento 11 determina la
primera dirección rotacional de la cámara 24.
Para poder determinar posteriormente la
orientación de la cámara 24, la cámara 24 puede proporcionarse con
sensores de inclinación 27, 28 como representa la Figura 7. Los
sensores de inclinación 27, 28 están preparados para medir la
inclinación de la cámara 24. El primer sensor de inclinación 27 está
preparado para medir la inclinación en una segunda dirección
rotacional como lo indica la flecha curva A en la Figura 7, es
decir, una rotación sobre un eje que es básicamente perpendicular a
la superficie del dibujo. La inclinación en la segunda dirección
rotacional determina la altura del horizonte en la imagen de cámara
como se muestra en la pantalla 18. El efecto de dicha rotación en
la imagen de cámara como se muestra es representada de manera
esquemática en la Figura 8a.
El segundo sensor de inclinación 28 está
preparado para medir la inclinación como resultado de una rotación
sobre un tercer eje rotacional, el cual es un eje central de la
cámara 24 representado en la Figura 7 por la línea punteada B. El
efecto de dicha rotación en la imagen de cámara como se muestra se
representa de manera esquemática en la Figura 8b.
En uso, el primer eje rotacional es
sustancialmente vertical, y el segundo y tercer eje son
sustancialmente perpendiculares con respecto al primer eje
rotacional y con respecto a cada uno.
Los valores de inclinación determinados por los
sensores de inclinación 27, 28 son comunicados a la unidad de
procesador 11. Los sensores de inclinación 27 y 28 también son
diseñados como un sensor de inclinación integral único.
Además, las configuraciones de cámara, en
particular el factor de zoom del lente de la cámara 24, el ángulo
de la cámara, la distancia focal, etc., pueden ser comunicadas a la
unidad de procesador 11.
En base a la información disponible para la
unidad de procesador 11 para describir la posición, dirección y
configuraciones de la cámara 24, la unidad de procesador 11
determina la posición donde deben mostrarse en la pantalla 18 la
carretera, los cruces, las bifurcaciones, los puntos de interés,
etc. correspondientes a los datos de mapa almacenados en los
dispositivos de memoria 11, 12, 13, 14, 15.
Basada en esta información, la unidad de
procesador 11 puede superponer las instrucciones de navegación, como
la ruta 4, la fecha 5, los puntos de interés POI, etc. sobre la
imagen de cámara como lo muestra la unidad de procesador 11, de
modo tal que coincidan con la vista de cámara. Podría resultar de
utilidad superponer las instrucciones de navegación para que
parezca que flotan sobre la superficie de la carretera o para que
tengan otro tipo de relación espacial predefinida con respecto a
ésta.
Dado que el dispositivo de navegación 10 calcula
la distancia que existe hasta cualquier intersección o giro (u otro
cambio direccional), puede calcular aproximadamente qué forma
debería tener una instrucción de navegación mostrada en la pantalla
18 y donde debería estar posicionada para corresponder con la
ubicación actual del cambio de dirección como lo muestra la señal
de la cámara 24.
Sin embargo, es posible que ocurran errores
debido a distintas razones. En primer lugar, el dispositivo de
navegación 10 puede estar montado en el tablero de un vehículo de
diversas maneras. Por ejemplo, al determinar la primera dirección
rotacional de la cámara 24 con respecto al eje C comparando las
posiciones del dispositivo de navegación 24 en puntos sucesivos en
el tiempo, se asume que la cámara 24 está direccionada directamente
hacia el frente. Sin embargo, en el caso de que la cámara 24 no esté
perfectamente alineada con el vehículo, es posible que ocurra una
falta de coincidencia en las instrucciones de navegación
superpuestas.
Como se señaló anteriormente, en el caso de que
la cámara 24 sea proporcionada con una brújula incorporada, la
primera orientación rotacional de la cámara con respecto al eje C
puede ser calculada comparando las lecturas de brújula con la
orientación de recorrido determinada del dispositivo de navegación
10. No obstante, aún es posible que ocurran errores que den como
resultado una falta de coincidencia entre las instrucciones de
navegación superpuestas y la señal de cámara.
Además, los sensores de inclinación 27, 28
pueden ser capaces sólo de medir la inclinación relativa, y no le
inclinación absoluta. Esto significa que el dispositivo de
navegación 10 necesita ser calibrado para permitir un exacto
posicionamiento de las instrucciones de navegación sobre la imagen
de cámara.
Para compensar estos errores, el dispositivo de
navegación 10 puede proporcionarse con una opción de menú que
permita al usuario ajustar la posición relativa de la imagen
mostrada con respecto a la imagen de cámara mostrada. Este ajuste
puede ser realizado por el dispositivo de navegación 10 cambiando la
posición en la que se muestran las instrucciones de navegación, y/o
cambiando la posición en la que se muestra la imagen de cámara, y/o
cambiando la orientación de la cámara 24. En la última opción, la
cámara 24 puede ser proporcionada con un dispositivo de
accionamiento para cambiar su orientación. La cámara 24 puede ser
accionada independientemente del dispositivo de navegación 10. En
caso de que la cámara 24 esté incorporada al dispositivo de
navegación 10, el dispositivo de accionamiento puede cambiar la
orientación del dispositivo de navegación 10, o de la cámara 24
sólo con respecto al dispositivo de navegación 10.
El usuario puede simplemente utilizar teclas de
flecha para calibrar la posición de las instrucciones de navegación
para hacer que coincidan con la imagen de cámara. Por ejemplo, si la
cámara 24 está posicionada de manera tal que esté inclinada hacia
la izquierda sobre el eje C como se representa en la Figura 7, las
instrucciones de navegación se encuentran a la derecha con respecto
a las partes correspondientes de la imagen de cámara. El usuario
puede corregir fácilmente este error utilizando una tecla de flecha
izquierda para arrastrar las instrucciones de navegación hacia la
izquierda. El dispositivo de navegación 10 también puede estar
preparado para proporcionar al usuario opciones para ajustar la
orientación rotacional mostrada de las instrucciones de navegación
superpuestas con respecto a la imagen de cámara mostrada.
El dispositivo de navegación 10 también puede
estar preparado para proporcionar al usuario opciones para corregir
la falta de coincidencia de perspectiva, causada, por ejemplo, por
diferentes alturas de la cámara 24. Una cámara 24 posicionada en la
parte superior de un automóvil brinda una vista diferente de una
carretera (diferentes formas en perspectiva) que una cámara 24
posicionada en el tablero o entre las luces delanteras de un
vehículo. Para hacer que las instrucciones de navegación, como las
instrucciones 3D (es decir, una flecha 3D) o la representación del
vector de la carretera, coincidan con la vista de cámara, es
necesario aplicar una deformación en perspectiva de las
instrucciones de navegación. Esta deformación en perspectiva depende
de la altura de la cámara 24, las configuraciones de la cámara y la
segunda dirección rotacional de la cámara 24 en la dirección de la
flecha A como se representa en la Figura 7.
La unidad de procesador 11 almacena estas
correcciones de calibración ingresadas y aplica correcciones de
calibración similares a todas las imágenes mostradas posteriormente.
Todos los cambios posteriores en la posición, dirección y
orientación medidas de la cámara 24 pueden ser procesadas por la
unidad de procesador 11 para asegurar de manera continua una
precisa superposición de las instrucciones de navegación. Esto
permite una precisa compensación de los movimientos de la cámara
causados por el cambio de dirección del vehículo, o causados por
cambios de velocidad, curvas cerradas, aceleraciones, frenado, etc.
y otras causas que influyan en la orientación de la cámara 24.
La Figura 9 representa un diagrama de flujo que
muestra la funcionalidad del dispositivo de navegación 10 según la
segunda ejecución de la invención. Los pasos mostrados en el
diagrama de flujo pueden ser llevados a cabo por la unidad de
procesamiento 11. Se observa que todos los pasos relacionados con el
ingreso de una dirección de destino, selección de una ruta, etc.,
se omiten en esta figura dado que estos pasos resultan conocidos a
partir del arte anterior.
En un primer paso 101, el dispositivo de
navegación 10 es encendido y el usuario selecciona el modo de
cámara. Esto se representa en la Figura 9 con "inicio".
En un segundo paso 102, la unidad de
procesamiento 11 determina la posición del dispositivo de navegación
10. Esto se realiza utilizando los datos de entrada del dispositivo
de posicionamiento 23, como un dispositivo GPS, como se discutió
arriba.
En un próximo paso 103, la unidad de
procesamiento 11 determina la orientación de recorrido del
dispositivo de navegación 10. Nuevamente, los datos de entrada del
dispositivo de posicionamiento 23 son utilizados para esto.
A continuación, en el paso 104, la orientación
de la cámara 24 y las configuraciones de cámara son determinadas
por la unidad de procesamiento 11. Nuevamente se utilizan los datos
de entrada del dispositivo de posicionamiento 23. También se
utilizan los datos de entrada de los sensores de inclinación 27, 28
para determinar la orientación de la cámara 24.
Según el paso 105, la imagen de cámara es
mostrada en la pantalla 18 por la unidad de procesamiento 11. En el
paso 106, la unidad de procesamiento 11 superpone una cantidad
determinada de instrucciones de navegación (como flecha de posición
3, ruta 4, flecha 5, puntos de interés, carreteras, datos de mapa,
etc.). Para hacerlo se utiliza toda la información recopilada para
calcular la posición y la forma de las instrucciones de navegación
mostradas. De ser necesario, el usuario puede calibrar este cálculo
ajustando la posición y/o la forma de las instrucciones de
navegación superpuestas. Este paso opcional es representado por el
paso 107.
Los pasos 102-107 pueden ser
repetidos cada vez que sea necesario o se lo desee durante el
uso.
Otros tipos de señalizaciones virtuales además
de las flechas de dirección 5 también puede ser almacenadas en los
dispositivos de memoria 12, 13, 14, 15. Por ejemplo, es posible
almacenar íconos relacionados con nombres de carreteras, señales de
tráfico, límites de velocidad, cámaras de velocidad, o puntos de
interés en dispositivos de memoria 12, 13, 14, 15. Todos ellos
también pueden ser superpuestos sobre la señal de la cámara 24, con
una ubicación espacial en la imagen de cámara mostrada que se
corresponde con la característica del mundo real a la cual la
señalización virtual hace referencia. Por lo tanto, la unidad de
procesamiento 11 puede tomar los datos de mapa 2D del software de
navegación que incluían los datos de ubicación de estas
características del mundo real, y aplicar una transformación
geométrica que las haga estar ubicadas correctamente al
superponerlas sobre la señal de video.
En el caso de que, por ejemplo, un vehículo con
un dispositivo de navegación 10 ascienda o descienda una colina,
los sensores de inclinación 27, 28 detectan una inclinación en la
dirección de la flecha A como se representa en la Figura 7. Sin
embargo, para poder superponer correctamente las instrucciones de
navegación sobre la imagen de cámara de modo tal que las
instrucciones de navegación coincidan con la imagen de cámara, esta
inclinación no debería ser corregida. Esto puede ser arreglado
proporcionando al dispositivo de navegación datos de mapa que
incluyan información de altura. Basado en los datos de altura de
mapa, el dispositivo de navegación 10 calcula la inclinación de la
cámara 24 que corresponde a la orientación de la carretera en la que
el vehículo se está desplazando. Esta inclinación anticipada es
comparada con la inclinación detectada por los sensores de
inclinación 27, 28. La diferencia entre la inclinación anticipada y
la inclinación detectada se utiliza para ajustar la posición de las
instrucciones de navegación superpuestas.
En el caso de que los datos de mapa no incluyan
información de altura, es posible proporcionar al vehículo un
sensor de inclinación de vehículo 30. El sensor de inclinación de
vehículo 30 está preparado para proporcionar lecturas de
inclinación de vehículo a la unidad de procesamiento 11. Las
lecturas del sensor de inclinación de vehículo 30 son luego
comparadas con las lecturas de los sensores de inclinación 27, 28 y
la diferencia, causada por vibraciones no deseadas, etc., es
utilizada para ajustar la posición de las instrucciones de
navegación superpuestas.
Se comprenderá que es posible pensar en
cualquier tipo de variación con respecto al ejemplo explicado y
mostrado arriba.
La Figura 10 representa un ejemplo en el cual
los datos de mapa también incluyen datos que describen objetos a lo
largo de la carretera, como edificios 31. Según este ejemplo, las
instrucciones de navegación 3, 4, 5 que son superpuestas sobre un
edificio 31 pueden ser mostradas por líneas punteadas o
intermitentes. Esto permite que un usuario pueda visualizar los
datos de mapa, ruta 4 y flechas 5 que de otra forma serían
bloqueadas por un edificio.
Tercera
ejecución
Según una tercera ejecución, las instrucciones
de navegación son superpuestas sobre la imagen de cámara utilizando
técnicas de reconocimiento de patrones.
En los últimos años, se ha avanzado
considerablemente en el campo del análisis en tiempo real de cuadros
de imagen (por ejemplo, una señal de video como la proporcionada
por la cámara 24) para identificar objetos reales en la señal de
video. La documentación es bastante amplia en este ámbito: es
posible hacer referencia, por ejemplo, a la US 5627915 (Princeton
Video Image Inc.) en la cual el video de una escena como un estadio
deportivo es analizado por software de reconocimiento de patrones;
un operador indica de forma manual las áreas de alto contraste en
el estadio (por ejemplo, las líneas marcadas en la superficie del
juego; los bordes de la superficie de juego; las carteleras) y el
software construye un modelo geométrico de todo el estadio
utilizando estos puntos de referencia de alto contraste. Después,
el software es capaz de analizar una señal de video en tiempo real
en busca de estos puntos de referencia; es entonces capaz de tomar
una imagen almacenada generada por computadora (por ejemplo, un
anuncio publicitario de una cartelera), aplicar una transformación
geométrica a la imagen almacenada para que, al ser insertada en la
señal de video en una ubicación definida con referencia al modelo
geométrico utilizando técnicas de síntesis de imagen, parezca ser
una parte completamente natural de la escena ante los ojos de un
espectador del video.
También es posible hacer referencia a la US
2001/0043717 de Facet Technology; ésta revela un sistema que puede
analizar video tomado desde un vehículo en movimiento para reconocer
señales viales.
En términos generales, las artes de
reconocimiento de patrones aplicadas al análisis de video en tiempo
real para reconocer características del mundo real es un ámbito
amplio y consolidado.
En una implementación, el dispositivo de
navegación 10 emplea el software de reconocimiento de patrones para
reconocer características del mundo real en una señal de video de la
cámara 24 y muestra las instrucciones de navegación (como la flecha
5) en la pantalla 18 en una relación espacial predefinida con
respecto a las características de mundo real reconocidas en la
señal de video. Por ejemplo, la señal de video podría mostrar la
carretera actual en la cual el dispositivo de navegación 10 está
viajando y las instrucciones de navegación son entonces
instrucciones 3D (por ejemplo, una flecha 3D) que son superpuestas
sobre la carretera. Las curvas y demás características de la
carretera pueden ser representadas de manera gráfica o icónica, y
pueden ser posicionadas para que aparezcan sobre las
características del mundo real a las cuales hacen referencia.
La unidad de procesamiento 11 puede ser
programada para reconocer características que tengan un alto
contraste visual y estén asociadas con una carretera dada. Las
características también podrían ser vehículos en movimiento en una
dirección constante o señales viales (por ejemplo, marcas de
banquina, marcas de línea central, etc.).
\newpage
Se observa que el dispositivo de navegación 10
está programado para reconocer características con un alto
contraste visual y que estén asociadas con una carretera. Por
ejemplo, las características podrían ser vehículos en movimiento en
una dirección constante, o señales viales.
El dispositivo de navegación 10 podría estar,
por ejemplo, programado con un modelo geométrico de la carretera
por delante: el modelo puede ser tan simple como dos líneas. El
modelo podría ser sólo los datos de vector almacenados para formar
los datos de mapa, como se describió arriba.
Después, durante el uso, el software de
reconocimiento de patrones busca características visuales en la
transmisión ininterrumpida de video en tiempo real proporcionada
por la cámara 24 que correspondan al modelo geográfico almacenado
(por ejemplo, las dos líneas). Una vez localizadas estas
características, ha logrado reconocer la carretera por delante. Por
lo general, esto requerirá que se apliquen rápidas traducciones y
transformaciones a las características reconocidas en la señal de
video (por ejemplo, las dos líneas) para obtener una coincidencia
con el modelo almacenado; las traducciones son traducciones
x-y con el fin de alinear aproximadamente las
características reconocidas con el modelo almacenado. Las
transformaciones incluyen abreviaciones para corresponderse con
diferentes alturas de cámara y orientación relativa entre las dos
líneas para corresponderse con diferentes ángulos de visión de
cámara y el ángulo relativo entre la cámara y la carretera. De igual
modo, las transformaciones pueden ser aplicadas para alinear y
formar el modelo almacenado según las características
reconocidas.
Toda persona experimentada en el arte
comprenderá que resulta ventajoso que el algoritmo de reconocimiento
de patrones cuente con datos de mapa como datos de entrada. El
reconocimiento de un patrón puede realizarse rápida y fácilmente
cuando el algoritmo conoce de antemano los patrones a reconocer.
Este conocimiento puede ser obtenido de manera fácil a partir de
los datos de mapa disponibles.
Una vez que se conoce la transformación, sólo es
cuestión de formar un icono de flecha prealmacenado para que su
perspectiva, forma u orientación se corresponda con la de la
carretera en cualquier cuadro de video (distintos tipos de
transformaciones geométricas podrían ser apropiadas para esto) y
luego superponer la flecha direccional sobre la carretera mostrada
en la pantalla utilizando síntesis convencional de imágenes. Podría
resultar de utilidad superponer la flecha para que parezca flotar
sobre la superficie de la carretera o para que tenga otro tipo de
relación espacial predefinida con respecto a ésta.
Dado que el dispositivo de navegación 10 calcula
la distancia que existe hasta cualquier intersección o giro (u otro
cambio direccional), puede calcular aproximadamente qué forma
debería tener una instrucción de navegación mostrada en la pantalla
18 para corresponderse con la ubicación actual del cambio de
dirección como lo muestra la señal de video.
Se comprenderá que el dispositivo de navegación
10 también puede utilizar una combinación de las realizaciones
discutidas arriba. Por ejemplo, el dispositivo de navegación puede
utilizar mediciones de orientación y posicionamiento para
determinar de forma aproximada la posición de las instrucciones de
navegación en la pantalla 18 y emplear técnicas de reconocimiento
de patrones para determinar la posición de las instrucciones de
navegación en la pantalla 18.
Se comprenderá que es posible pensar en
numerosas alternativas y variaciones de las realizaciones antes
mencionadas. Por ejemplo, otra característica es que la indicación
de los nombres de carreteras, señales de tráfico (por ejemplo,
sentido único, sin entrada, números de salida, nombres de lugares,
etc.), límites de velocidad, cámaras de velocidad, y puntos de
interés almacenados en los dispositivos de memoria 12, 13, 14, 15
también pueden ser superpuestos sobre la señal de video: la
ubicación espacial de esta "señalización virtual" en un cuadro
de video puede corresponderse con la característica del mundo real a
la cual la señalización virtual hace referencia. Por lo tanto, un
límite de velocidad (por ejemplo, el texto "30 mph") puede ser
superpuesto para que parezca estar por encima o ser parte de la
superficie de la carretera de la carretera con el límite de
velocidad de 30 mph (48,28 km/h). Un icono que represente un tipo
específico de señal de tráfico podría ser superpuesto sobre la
transmisión ininterrumpida de video para que aparezca en el lugar en
el que una señal del mundo real útilmente aparecería.
Otros tipos de señalización virtual además de
las flechas de dirección 5 también pueden ser almacenados en los
dispositivos de memoria 12, 13, 14, 15. Por ejemplo, los iconos que
hacen referencia a nombres de carreteras, señales de tráfico,
límites de velocidad, cámaras de velocidad, paradas de autobús,
museos, números de casas o puntos de interés podrían ser
almacenados en dispositivos de memoria 12, 13, 14, 15. Cada uno de
ellos también podría ser superpuesto sobre la señal de video, con
una ubicación espacial en el video mostrado que se corresponda con
la característica del mundo real a la cual la señalización virtual
hace referencia. Por lo tanto, el software podría tomar tomar los
datos de mapa 2D del software de navegación que incluía los datos de
ubicación de estas características del mundo real, y aplicar una
transformación geométrica que las haga estar ubicadas correctamente
al superponerlas sobre la señal de video.
Según una alternativa adicional, las técnicas de
reconocimiento de patrones también pueden estar configuradas para
reconocer objetos en la carretera, como por ejemplo otro vehículo o
camión. Cuando se reconoce un objeto de este tipo, la ruta mostrada
4 puede ser mostrada como una línea punteada, como se muestra en la
Figura 11. Esto proporciona una imagen que el usuario interpretará
más fácilmente.
Cuarta
ejecución
Según una cuarta ejecución, la señal de la
cámara 24 y las instrucciones de navegación, como la flecha de
posición 3, la ruta 4, la flecha 5, los puntos de interés (POI), las
carreteras, los edificios, los datos de mapa, por ejemplo los datos
de vector, no son superpuestos, sino mostrados en la pantalla 18 de
manera combinada.
Esta combinación puede lograrse dividiendo la
pantalla en una primera parte y en una segunda parte, donde la
primera parte muestra la señal de cámara y la segunda parte muestra
las instrucciones de navegación. Sin embargo, la combinación
también puede llevarse a cabo en el tiempo, es decir el dispositivo
de navegación puede estar preparado para mostrar de manera sucesiva
la señal de cámara y la instrucción de navegación a su vez. Esto
puede lograrse mostrando la señal de cámara durante un primer
período (por ejemplo, 2 segundos) y mostrando luego las
instrucciones de navegación durante un segundo período (por ejemplo,
2 segundos). Sin embargo, el dispositivo de navegación también
podría proporcionar al usuario la opción de alternar entre la señal
de cámara y las instrucciones de navegación según lo desee.
Por supuesto, es posible utilizar más de una
cámara. El usuario puede contar con la opción de alternar entre la
señal de una primera cámara y la señal de una segunda cámara. El
usuario también podría elegir mostrar más de una señal de cámara en
la pantalla 18 al mismo tiempo.
Según una alternativa adicional, el usuario
puede realizar acercamientos y alejamientos. Al alejarse, se
mostrará una parte cada vez mayor del entorno del dispositivo de
navegación 10 en la pantalla 18. Se comprenderá que el usuario
puede elegir, por ejemplo, una vista de helicóptero, como se muestra
en la Figura 2, incluyendo la posición del dispositivo de
navegación 10. Una vista de este tipo proporciona una imagen del
dispositivo de navegación 10 (o vehículos) visto desde atrás. Por
supuesto, una vista de este tipo no puede ser proporcionada por la
cámara fijada en el dispositivo de navegación 10 o en el vehículo.
Por lo tanto, el dispositivo de navegación 10 puede proporcionar
una imagen como se muestra en la Figura 12, donde sólo parte de la
imagen es la vista de cámara, rodeada por datos de mapa e
instrucciones de navegación.
Aunque arriba se han descrito realizaciones
específicas de la invención, se apreciará que la invención puede
ser practicada de manera distinta a la descrita aquí. Por ejemplo,
la invención puede tomar la forma de un programa informático que
contenga una o más secuencias de instrucciones automatizadas que
describan un método como se reveló arriba, o un medio de
almacenamiento de datos (por ejemplo, una memoria de semiconductor,
disco magnético u óptico) que tenga un programa informático de este
tipo allí almacenado. Toda persona experimentada en el arte
comprenderá que cualquiera de los componentes de software también
puede ser formado como componente de hardware.
Las descripciones proporcionadas arriba son sólo
de carácter ilustrativo y no limitativo. Por lo tanto, resultará
evidente para cualquier persona experimentada en el arte que es
posible realizar modificaciones a la invención según lo descrito
sin alejarse del alcance de las reivindicaciones establecidas a
continuación.
Claims (17)
1. Un dispositivo de navegación, dispositivo
(10), el cual está preparado para mostrar instrucciones de
navegación en una pantalla de visualización, para recibir una señal
de video de una cámara (24) y para mostrar una combinación de una
imagen de cámara de la señal de video de la cámara e instrucciones
de navegación en la pantalla; caracterizado porque
- (i)
- el dispositivo es un dispositivo de navegación portátil el cual incluye una cámara (24) integrada al dispositivo y
- (ii)
- el dispositivo está preparado para proporcionar una opción de menú que le permite a un usuario ajustar una posición relativa de la imagen de cámara mostrada con respecto a las instrucciones de navegación.
2. El dispositivo de navegación de la
Reivindicación 1, en el que se puede operar la opción de menú para
cambiar una posición de la imagen de cámara, mientras que la
posición de las instrucciones de navegación permanece fija.
3. El dispositivo de navegación de la
Reivindicación 1, en el que se puede operar la opción de menú para
cambiar una posición de la imagen de cámara, mientras que la
posición de las instrucciones de navegación permanece fija.
4. El dispositivo de navegación de la
Reivindicación 1, en el que se puede operar la opción de menú para
cambiar una posición de las instrucciones de navegación, y para
cambiar una posición de la imagen de cámara.
5. El dispositivo de navegación de cualquier
Reivindicación previa, donde el dispositivo de navegación evita
complejos procesamientos matemáticos y de datos mostrando las
instrucciones de navegación en forma de flechas en perspectiva.
6. El dispositivo de navegación de cualquier
Reivindicación previa, en el que las instrucciones de navegación
son una o más para una ruta (4), o flecha (5).
7. El dispositivo de navegación de cualquier
Reivindicación previa, preparado para superponer las instrucciones
de navegación (4, 5) sobre la imagen de cámara de modo tal que la
posición de las instrucciones de navegación (4, 5) se encuentren en
una relación espacial predefinida con respecto a las partes
correspondientes de la imagen de cámara.
8. Un dispositivo de navegación según cualquiera
de las reivindicaciones precedentes, donde el dispositivo de
navegación (10) está preparado para recibir correcciones de
calibración, almacenar estas correcciones de calibración y aplicar
las correcciones de calibración al combinar las instrucciones de
navegación (4, 5) y la imagen de cámara.
9. El dispositivo de navegación de la
Reivindicación 8 en el cual las correcciones de calibración son
utilizadas para cancelar errores de descentrado.
10. Un dispositivo de navegación según
cualquiera de las reivindicaciones precedentes en las que el usuario
puede hacer que el dispositivo de navegación (10) cambie entre (a)
mostrar una combinación de una imagen de video de la cámara (24) e
instrucciones de navegación (3, 4, 5) y (b) mostrar instrucciones
de navegación junto con una porción específica de los datos de
mapa.
11. Dispositivo de navegación según cualquiera
de las reivindicaciones precedentes que procesa la señal de video
utilizando reconocimiento de patrones.
12. Dispositivo de navegación de la
Reivindicación 11 en el cual el reconocimiento de patrón detecta
características en el mundo real.
13. Dispositivo de navegación de la
Reivindicación 12 en el cual el reconocimiento de patrón detecta
características con un alto contraste visual y que están asociadas
con una ruta dada.
14. Dispositivo de navegación según cualquiera
de las reivindicaciones precedentes, en las cuales el dispositivo
de navegación tiene una pantalla táctil.
15. Dispositivo de navegación de la
Reivindicación 14 en el cual la opción de menú es seleccionada
utilizando la pantalla táctil.
16. El dispositivo de navegación de cualquiera
de las reivindicaciones precedentes en las cuales la cámara
proporciona una imagen a través de la pantalla frontal de un
vehículo.
17. El dispositivo de navegación de cualquiera
de las reivindicaciones precedentes en las cuales el dispositivo
muestra flechas en perspectiva.
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/NL2005/000405 WO2006132522A1 (en) | 2005-06-06 | 2005-06-06 | Navigation device with camera-info |
Publications (1)
Publication Number | Publication Date |
---|---|
ES2330351T3 true ES2330351T3 (es) | 2009-12-09 |
Family
ID=36129782
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
ES08075742T Active ES2404164T3 (es) | 2005-06-06 | 2005-06-06 | Dispositivo de navegación con cámara de información |
ES05752007T Active ES2330351T3 (es) | 2005-06-06 | 2005-06-06 | Dispositivo de navegacion con informacion de camara. |
Family Applications Before (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
ES08075742T Active ES2404164T3 (es) | 2005-06-06 | 2005-06-06 | Dispositivo de navegación con cámara de información |
Country Status (14)
Country | Link |
---|---|
US (2) | US8180567B2 (es) |
EP (2) | EP2003423B1 (es) |
JP (1) | JP4921462B2 (es) |
CN (1) | CN101194143B (es) |
AT (1) | ATE441089T1 (es) |
AU (1) | AU2005332711B2 (es) |
BR (1) | BRPI0520250A2 (es) |
CA (1) | CA2609663A1 (es) |
DE (2) | DE202005021607U1 (es) |
ES (2) | ES2404164T3 (es) |
MX (1) | MX2007015348A (es) |
NO (1) | NO20080097L (es) |
NZ (2) | NZ564319A (es) |
WO (1) | WO2006132522A1 (es) |
Families Citing this family (136)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8751156B2 (en) | 2004-06-30 | 2014-06-10 | HERE North America LLC | Method of operating a navigation system using images |
US7460953B2 (en) * | 2004-06-30 | 2008-12-02 | Navteq North America, Llc | Method of operating a navigation system using images |
DE102006010478A1 (de) * | 2006-03-07 | 2007-09-13 | Robert Bosch Gmbh | Verfahren und Anordnung zur Anzeige von Navigationshinweisen |
KR100804763B1 (ko) * | 2006-09-19 | 2008-02-19 | 주식회사 레인콤 | 카메라를 구비하는 차량용 네비게이션 시스템 |
JP5076468B2 (ja) * | 2006-12-01 | 2012-11-21 | 株式会社デンソー | 通信型ナビゲーションシステム、車両ナビゲーション装置及びセンター装置 |
JP2008145234A (ja) | 2006-12-08 | 2008-06-26 | Denso Corp | ナビゲーション装置及びプログラム |
US8285475B2 (en) * | 2007-03-02 | 2012-10-09 | Avago Technologies Ecbu Ip (Singapore) Pte. Ltd. | Combined beacon and scene navigation system |
US20080211652A1 (en) * | 2007-03-02 | 2008-09-04 | Nanolumens Acquisition, Inc. | Dynamic Vehicle Display System |
US20100029293A1 (en) * | 2007-05-10 | 2010-02-04 | Sony Ericsson Mobile Communications Ab | Navigation system using camera |
JP2008309529A (ja) * | 2007-06-12 | 2008-12-25 | Panasonic Corp | ナビゲーション装置、ナビゲーション方法、及びナビゲーション用プログラム |
KR100899655B1 (ko) * | 2007-09-03 | 2009-05-27 | (주)디코인 | 회전 카메라를 이용한 화상통신 및 디브이알 기능을 구비한네비게이션 장치 및 시스템 |
DE102007053305A1 (de) * | 2007-11-08 | 2009-05-14 | Robert Bosch Gmbh | Verfahren und Vorrichtung zur Ausgabe von optischen Fahrempfehlungen in einem Fahrzeug |
JP5034932B2 (ja) * | 2007-12-26 | 2012-09-26 | ソニー株式会社 | 表示装置、プログラム、及び記録媒体 |
WO2009084135A1 (ja) * | 2007-12-28 | 2009-07-09 | Mitsubishi Electric Corporation | ナビゲーション装置 |
EP2075541A1 (en) * | 2007-12-31 | 2009-07-01 | STMicroelectronics Design and Application GmbH | Improved vehicle navigation system |
JP2009163504A (ja) * | 2008-01-07 | 2009-07-23 | Panasonic Corp | 画像変形方法等 |
US8239132B2 (en) * | 2008-01-22 | 2012-08-07 | Maran Ma | Systems, apparatus and methods for delivery of location-oriented information |
US20090296990A1 (en) * | 2008-05-30 | 2009-12-03 | United Parcel Service Of America, Inc. | Evaluating driver walk distances and building types using overhead imagery |
US8649973B2 (en) * | 2008-06-09 | 2014-02-11 | Kabushiki Kaisha Kenwood | Guide display device and guide display method, and display device and method for switching display contents |
BRPI0822727A2 (pt) * | 2008-07-31 | 2015-07-14 | Tele Atlas Bv | Método de exibição de dados de navegação em 3d |
EP2307855A1 (en) * | 2008-07-31 | 2011-04-13 | Tele Atlas B.V. | Computer arrangement and method for displaying navigation data in 3d |
DE102008041295A1 (de) | 2008-08-18 | 2010-02-25 | Robert Bosch Gmbh | Mobiles Navigationsgerät und diesbezügliches Verfahren |
EP2156987A1 (en) * | 2008-08-22 | 2010-02-24 | Guangzhou SAT Infrared Technology Co., Ltd. | Infrared system for assisting driving vehicle |
US10133438B2 (en) * | 2008-09-17 | 2018-11-20 | Nokia Technologies Oy | User interface for augmented reality |
US20100080489A1 (en) * | 2008-09-30 | 2010-04-01 | Microsoft Corporation | Hybrid Interface for Interactively Registering Images to Digital Models |
US9459113B2 (en) * | 2008-11-21 | 2016-10-04 | GM Global Technology Operations LLC | Visual guidance for vehicle navigation system |
JP5161760B2 (ja) * | 2008-12-26 | 2013-03-13 | 株式会社東芝 | 車載用表示システム及び表示方法 |
DE102009023776A1 (de) | 2009-06-03 | 2010-02-11 | Daimler Ag | Navigationssystem |
DE102009041194A1 (de) * | 2009-09-14 | 2011-03-24 | Continental Automotive Gmbh | Anzeigeinstrument für Fahrleistungsdaten |
KR100982768B1 (ko) * | 2009-09-21 | 2010-09-20 | (주)올라웍스 | 단말기의 각도에 따라 서로 다른 영상 정보를 제공하기 위한 방법, 단말기 및 컴퓨터 판독 가능한 기록 매체 |
JP4911389B2 (ja) * | 2009-09-30 | 2012-04-04 | Necビッグローブ株式会社 | 情報表示システム、サーバ、端末、及び方法 |
US8374790B2 (en) * | 2009-10-30 | 2013-02-12 | Teejet Technologies Illinois, Llc | Method and apparatus for guiding a vehicle |
KR101768101B1 (ko) * | 2009-10-30 | 2017-08-30 | 엘지전자 주식회사 | 정보 표시 장치 및 그 방법 |
CN102088565B (zh) * | 2009-12-02 | 2015-04-29 | 新奥特(北京)视频技术有限公司 | 一种马拉松比赛转播系统 |
CN102088570B (zh) * | 2009-12-02 | 2015-06-17 | 新奥特(北京)视频技术有限公司 | 一种马拉松比赛的转播方法 |
DE102009057949A1 (de) * | 2009-12-11 | 2011-06-16 | GM Global Technology Operations LLC, ( n. d. Ges. d. Staates Delaware ), Detroit | Verfahren zur Anzeige eines Wertes einer Geschwindigkeitsbegrenzung und Fahrzeug mit einem Kombiinstrument |
US20110153198A1 (en) * | 2009-12-21 | 2011-06-23 | Navisus LLC | Method for the display of navigation instructions using an augmented-reality concept |
KR101229078B1 (ko) * | 2009-12-21 | 2013-02-04 | 한국전자통신연구원 | 실내외 상황인식 기반의 모바일 혼합현실 콘텐츠 운용 장치 및 방법 |
WO2011076989A1 (en) * | 2009-12-25 | 2011-06-30 | Nokia Corporation | Method and apparatus for persistent display of navigation content |
US9488488B2 (en) * | 2010-02-12 | 2016-11-08 | Apple Inc. | Augmented reality maps |
CN102200444B (zh) * | 2010-03-23 | 2013-03-20 | 财团法人资讯工业策进会 | 实时扩增实境装置及其实时扩增实境方法 |
CN102200445B (zh) * | 2010-03-23 | 2013-03-13 | 财团法人资讯工业策进会 | 实时扩增实境装置及其实时扩增实境方法 |
DE102010003851A1 (de) * | 2010-04-12 | 2011-10-13 | Robert Bosch Gmbh | Verfahren und Informationssystem zum Markieren eines Zielorts für ein Fahrzeug |
JP5143856B2 (ja) * | 2010-04-16 | 2013-02-13 | 株式会社ソニー・コンピュータエンタテインメント | 3次元画像表示装置、および3次元画像表示方法 |
TWI426237B (zh) * | 2010-04-22 | 2014-02-11 | Mitac Int Corp | Instant image navigation system and method |
KR101655812B1 (ko) * | 2010-05-06 | 2016-09-08 | 엘지전자 주식회사 | 휴대 단말기 및 그 동작 방법 |
CN102243078B (zh) * | 2010-05-13 | 2016-03-30 | 上海宾华信息科技有限公司 | 一种所视即所释型导航装置及实现方法 |
US9684989B2 (en) * | 2010-06-16 | 2017-06-20 | Qualcomm Incorporated | User interface transition between camera view and map view |
CN102338639B (zh) * | 2010-07-26 | 2015-04-22 | 联想(北京)有限公司 | 信息处理设备和信息处理方法 |
KR101259598B1 (ko) * | 2010-07-30 | 2013-04-30 | 주식회사 팬택 | 로드뷰 제공 장치 및 방법 |
KR101193913B1 (ko) * | 2010-08-23 | 2012-10-29 | 고려대학교 산학협력단 | 광결정 패턴이 형성된 반도체 발광 소자 및 그 제조 방법 |
US8700324B2 (en) | 2010-08-25 | 2014-04-15 | Caterpillar Inc. | Machine navigation system having integrity checking |
CN101986101A (zh) * | 2010-09-14 | 2011-03-16 | 浙江天鸿汽车用品有限公司 | Gps实时导航系统 |
US9140719B2 (en) * | 2010-09-16 | 2015-09-22 | Pioneer Corporation | Terminal holding device |
US20130250141A1 (en) * | 2010-10-22 | 2013-09-26 | Pioneer Corporation | Terminal device, image displaying method and image displaying program executed by terminal device |
JP4948682B1 (ja) * | 2010-10-22 | 2012-06-06 | パイオニア株式会社 | 端末保持装置及び端末保持方法 |
US8723888B2 (en) * | 2010-10-29 | 2014-05-13 | Core Wireless Licensing, S.a.r.l. | Method and apparatus for determining location offset information |
JP5569365B2 (ja) * | 2010-11-30 | 2014-08-13 | アイシン・エィ・ダブリュ株式会社 | 案内装置、案内方法、及び案内プログラム |
CN102121831B (zh) * | 2010-12-01 | 2013-01-09 | 北京腾瑞万里科技有限公司 | 实时街景导航方法及设备 |
DE102010062464A1 (de) | 2010-12-06 | 2012-06-06 | Robert Bosch Gmbh | Verfahren und Vorrichtung zur Darstellung eines Abschnitts einer Umgebung |
KR20120067681A (ko) * | 2010-12-16 | 2012-06-26 | 한국전자통신연구원 | 차량 안전 센서 제어 장치 |
KR101732076B1 (ko) * | 2010-12-22 | 2017-05-02 | 엘지전자 주식회사 | 전자 기기 및 전자 기기의 제어 방법 |
KR20120071203A (ko) * | 2010-12-22 | 2012-07-02 | 한국전자통신연구원 | 운전자의 시야 확보 장치 및, 운전자의 시야 확보 방법 |
US9429438B2 (en) | 2010-12-23 | 2016-08-30 | Blackberry Limited | Updating map data from camera images |
EP2469230A1 (en) * | 2010-12-23 | 2012-06-27 | Research In Motion Limited | Updating map data from camera images |
KR101708207B1 (ko) | 2011-01-10 | 2017-02-20 | 삼성전자주식회사 | 이동통신 시스템에서 사용자의 이동 경로를 제공하기 위한 장치 및 방법 |
US9146126B2 (en) * | 2011-01-27 | 2015-09-29 | Here Global B.V. | Interactive geographic feature |
TWI456165B (zh) * | 2011-02-14 | 2014-10-11 | Mitac Int Corp | 車輛導航方法與車輛導航系統 |
US9086798B2 (en) | 2011-03-07 | 2015-07-21 | Ricoh Company, Ltd. | Associating information on a whiteboard with a user |
US9053455B2 (en) | 2011-03-07 | 2015-06-09 | Ricoh Company, Ltd. | Providing position information in a collaborative environment |
US8698873B2 (en) * | 2011-03-07 | 2014-04-15 | Ricoh Company, Ltd. | Video conferencing with shared drawing |
US9716858B2 (en) | 2011-03-07 | 2017-07-25 | Ricoh Company, Ltd. | Automated selection and switching of displayed information |
US8881231B2 (en) | 2011-03-07 | 2014-11-04 | Ricoh Company, Ltd. | Automatically performing an action upon a login |
CN102788582A (zh) * | 2011-05-19 | 2012-11-21 | 昆达电脑科技(昆山)有限公司 | 车辆导航方法与车辆导航系统 |
JP2012095283A (ja) * | 2011-09-13 | 2012-05-17 | Pioneer Electronic Corp | 端末装置、端末装置によって実行される画像表示方法及び画像表示プログラム |
JP2013123970A (ja) * | 2011-12-14 | 2013-06-24 | Toshiba Corp | 表示装置 |
US9228838B2 (en) | 2011-12-20 | 2016-01-05 | Fluke Corporation | Thermal imaging camera with compass calibration |
US20130162665A1 (en) * | 2011-12-21 | 2013-06-27 | James D. Lynch | Image view in mapping |
DE102012005471A1 (de) | 2012-03-17 | 2013-09-19 | GM Global Technology Operations LLC (n.d. Ges. d. Staates Delaware) | Verkehrsinformationssystem |
KR20130107697A (ko) * | 2012-03-23 | 2013-10-02 | (주)휴맥스 | 내비게이션 단말기의 배경 화면 표시 장치 및 방법 |
JP6019680B2 (ja) * | 2012-04-04 | 2016-11-02 | 株式会社ニコン | 表示装置、表示方法、及び、表示プログラム |
US9037411B2 (en) * | 2012-05-11 | 2015-05-19 | Honeywell International Inc. | Systems and methods for landmark selection for navigation |
US9175975B2 (en) * | 2012-07-30 | 2015-11-03 | RaayonNova LLC | Systems and methods for navigation |
US8666655B2 (en) * | 2012-07-30 | 2014-03-04 | Aleksandr Shtukater | Systems and methods for navigation |
CN102829788A (zh) * | 2012-08-27 | 2012-12-19 | 北京百度网讯科技有限公司 | 一种实景导航方法和实景导航装置 |
DE102012216144A1 (de) | 2012-09-12 | 2014-05-28 | Bayerische Motoren Werke Aktiengesellschaft | Kontaktanaloge Anzeige insbesondere eines Fahrspurwechsels |
CN102879000A (zh) * | 2012-09-20 | 2013-01-16 | 华为终端有限公司 | 导航终端、导航方法及远程导航服务系统 |
KR20140054909A (ko) * | 2012-10-30 | 2014-05-09 | 팅크웨어(주) | 광각 렌즈 카메라 영상을 이용한 내비게이션 안내 장치 및 방법 |
CN103090875A (zh) * | 2012-11-26 | 2013-05-08 | 华南理工大学 | 一种基于双摄像头的实时实景匹配车载导航方法及装置 |
EP2938969A4 (en) * | 2012-12-27 | 2016-10-12 | Harman Int Ind | ON-BOARD NAVIGATION |
ITMO20130012A1 (it) * | 2013-01-21 | 2014-07-22 | Fabio Lettieri | Dispositivo per l'assistenza alla guida di autoveicoli |
CN103101497A (zh) * | 2013-01-25 | 2013-05-15 | 深圳市保千里电子有限公司 | 汽车摄像系统及其视角与车速同步变化的数据处理方法 |
CN103105174B (zh) * | 2013-01-29 | 2016-06-15 | 四川长虹佳华信息产品有限责任公司 | 一种基于ar增强现实技术的车载实景安全导航方法 |
CN103134499A (zh) * | 2013-02-06 | 2013-06-05 | 腾讯科技(深圳)有限公司 | 导航方法及导航装置 |
EP2959266A4 (en) * | 2013-02-25 | 2017-05-03 | Continental Automotive GmbH | Intelligent video navigation for automobiles |
EP2798928B1 (en) * | 2013-04-29 | 2024-02-07 | CLAAS E-Systems GmbH | Operating system for and method of operating an automatic guidance system of an agricultural vehicle |
JP6484228B2 (ja) * | 2013-06-13 | 2019-03-13 | モービルアイ ビジョン テクノロジーズ リミテッド | 視覚強化ナビゲーション |
KR102068700B1 (ko) * | 2013-07-02 | 2020-01-21 | 현대모비스 주식회사 | 차량용 네비게이션의 디스플레이 모드 자동 전환 장치 및 방법 |
US9538077B1 (en) | 2013-07-26 | 2017-01-03 | Ambarella, Inc. | Surround camera to generate a parking video signal and a recorder video signal from a single sensor |
KR102222336B1 (ko) * | 2013-08-19 | 2021-03-04 | 삼성전자주식회사 | 맵 화면을 디스플레이 하는 사용자 단말 장치 및 그 디스플레이 방법 |
CN103581627A (zh) * | 2013-11-07 | 2014-02-12 | 北京环境特性研究所 | 一种高清视频的图像和信息融合显示方法 |
CN103674016B (zh) * | 2013-12-16 | 2017-01-18 | 维沃移动通信有限公司 | 一种基于移动终端的步行指引系统及其实现方法 |
DE102014003284A1 (de) | 2014-03-05 | 2015-09-10 | Astrium Gmbh | Verfahren zur Positions- und Lagebestimmung mittels virtueller Referenzbilder |
WO2015136144A1 (en) * | 2014-03-14 | 2015-09-17 | Nokia Technologies Oy | Method and apparatus for superimposing images upon a map |
US9459115B1 (en) * | 2014-03-28 | 2016-10-04 | Amazon Technologies, Inc. | Unobstructed map navigation using animation |
GB201407643D0 (en) | 2014-04-30 | 2014-06-11 | Tomtom Global Content Bv | Improved positioning relatie to a digital map for assisted and automated driving operations |
JP2015007632A (ja) * | 2014-07-14 | 2015-01-15 | コア ワイヤレス ライセンシング エス.アー.エール.エル. | 位置オフセット情報を決定する方法および装置 |
KR20160041435A (ko) | 2014-10-07 | 2016-04-18 | 엘지전자 주식회사 | 이동 단말기 및 그것의 제어방법 |
DE102014016612A1 (de) | 2014-11-11 | 2015-06-18 | Daimler Ag | Verfahren und Vorrichtung zur Darstellung von Umgebungsinformationen in einem Fahrzeug und Fahrzeug |
CN104535066B (zh) * | 2014-12-19 | 2017-07-11 | 大连海事大学 | 一种船载红外视频图像中的海上目标与电子海图的叠加方法及系统 |
KR102622571B1 (ko) * | 2015-02-10 | 2024-01-09 | 모빌아이 비젼 테크놀로지스 엘티디. | 자율 주행을 위한 약도 |
US9802539B2 (en) * | 2015-04-01 | 2017-10-31 | Robert Bosch Gmbh | Distance and direction estimation of a target point from a vehicle using monocular video camera |
WO2016188547A1 (en) * | 2015-05-22 | 2016-12-01 | Here Global B.V. | An apparatus and associated methods for providing turn guidance |
US9927246B2 (en) * | 2015-05-27 | 2018-03-27 | Here Global B.V. | Method, apparatus and computer program product for providing navigation information in relation to augmented reality guidance |
JP6899368B2 (ja) | 2015-08-03 | 2021-07-07 | トムトム グローバル コンテント ベスローテン フエンノートシャップ | ローカライゼーション基準データを生成及び使用する方法及びシステム |
EP3338136B1 (en) * | 2015-08-04 | 2022-09-14 | Yasrebi, Seyed-Nima | Augmented reality in vehicle platforms |
EP3130891B1 (en) | 2015-08-11 | 2018-01-03 | Continental Automotive GmbH | Method for updating a server database containing precision road information |
EP3131020B1 (en) | 2015-08-11 | 2017-12-13 | Continental Automotive GmbH | System and method of a two-step object data processing by a vehicle and a server database for generating, updating and delivering a precision road property database |
EP3130945B1 (en) * | 2015-08-11 | 2018-05-02 | Continental Automotive GmbH | System and method for precision vehicle positioning |
EP3358304B1 (en) * | 2015-09-30 | 2019-05-01 | Nissan Motor Co., Ltd. | Vehicular display device |
GB2561301B (en) * | 2016-02-17 | 2020-02-19 | Ford Global Tech Llc | Calibrating a display for a vehicle |
FR3048794B1 (fr) * | 2016-03-09 | 2020-11-27 | Illusion 3D | Systeme et procede de guidage en trois dimensions d'un utilisateur |
CN105890613A (zh) * | 2016-04-01 | 2016-08-24 | 乐视控股(北京)有限公司 | 导航信息显示方法和装置 |
US9813642B1 (en) | 2016-05-06 | 2017-11-07 | Snap Inc. | Dynamic activity-based image generation |
JP6152232B1 (ja) * | 2017-02-23 | 2017-06-21 | 京セラ株式会社 | 電子機器 |
DE102017204567A1 (de) | 2017-03-20 | 2018-09-20 | Robert Bosch Gmbh | Verfahren und Vorrichtung zum Erstellen einer Navigationsinformation zur Führung eines Fahrers eines Fahrzeugs |
CN107014393A (zh) * | 2017-05-24 | 2017-08-04 | 刘兴丹 | 一种图像地图导航的方法、装置 |
CN108362279B (zh) * | 2018-01-08 | 2022-02-15 | 北京小米移动软件有限公司 | 基于增强现实技术ar的购物导航方法、装置及系统 |
JP6987662B2 (ja) * | 2018-02-07 | 2022-01-05 | 京セラ株式会社 | 電子機器、制御方法およびプログラム |
DE102018210528A1 (de) | 2018-06-27 | 2020-01-02 | Bayerische Motoren Werke Aktiengesellschaft | Verfahren zum Betreiben eines Dialogsystems |
CN110942603B (zh) * | 2018-09-21 | 2021-09-17 | 北汽福田汽车股份有限公司 | 车辆碰撞报警方法、装置、车辆和服务器 |
JP2022510548A (ja) * | 2018-10-12 | 2022-01-27 | ベステル エレクトロニク サナイー ベ ティカレト エー.エス. | ナビゲーション装置及びナビゲーション装置の動作方法 |
US10755571B1 (en) * | 2019-03-01 | 2020-08-25 | Amazon Technologies, Inc. | Identifying parking location using single camera reverse projection |
US11619745B2 (en) * | 2019-10-29 | 2023-04-04 | Qualcomm Incorporated | Camera-based GNSS environment detector |
DE102020122266A1 (de) | 2020-08-26 | 2022-03-03 | Audi Aktiengesellschaft | Verfahren zum Anpassen einer digitalen Ladestationskarte, Vorrichtung für ein Fahrzeug zum Anpassen einer digitalen Ladestationskarte sowie Kraftfahrzeug |
JP2023051224A (ja) * | 2021-09-30 | 2023-04-11 | コベルコ建機株式会社 | 作業機械 |
Family Cites Families (53)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS6388403A (ja) * | 1986-10-02 | 1988-04-19 | Tokyo Keiki Kk | 道路標示車両用運転標示装置 |
JPS6413259A (en) | 1987-07-03 | 1989-01-18 | Sony Corp | Digital signal recording and reproducing device |
JPH01125799A (ja) | 1987-11-11 | 1989-05-18 | Fujitsu Ltd | 半導体記憶装置 |
JPH01133833A (ja) | 1987-11-16 | 1989-05-25 | Ricoh Co Ltd | 自動原稿送給装置 |
NL8900056A (nl) * | 1989-01-11 | 1990-08-01 | Philips Nv | Werkwijze voor het visueel weergeven van een deel van een topografische kaart, alsmede inrichting geschikt voor een dergelijke werkwijze. |
NL8901695A (nl) * | 1989-07-04 | 1991-02-01 | Koninkl Philips Electronics Nv | Werkwijze voor het weergeven van navigatiegegevens voor een voertuig in een omgevingsbeeld van het voertuig, navigatiesysteem voor het uitvoeren van de werkwijze, alsmede voertuig voorzien van een navigatiesysteem. |
US5815411A (en) * | 1993-09-10 | 1998-09-29 | Criticom Corporation | Electro-optic vision system which exploits position and attitude |
US5627915A (en) | 1995-01-31 | 1997-05-06 | Princeton Video Image, Inc. | Pattern recognition system employing unlike templates to detect objects having distinctive features in a video field |
JP3233017B2 (ja) * | 1996-05-14 | 2001-11-26 | トヨタ自動車株式会社 | 車両用経路案内装置 |
JPH09304101A (ja) | 1996-05-14 | 1997-11-28 | Matsushita Electric Ind Co Ltd | ナビゲーション装置 |
JPH1047978A (ja) | 1996-08-02 | 1998-02-20 | Nissan Motor Co Ltd | 車両用前方モニタ装置 |
JPH10132598A (ja) | 1996-10-31 | 1998-05-22 | Sony Corp | ナビゲート方法、ナビゲーション装置及び自動車 |
JPH1123305A (ja) | 1997-07-03 | 1999-01-29 | Toyota Motor Corp | 車両用走行案内装置 |
JPH11108684A (ja) * | 1997-08-05 | 1999-04-23 | Harness Syst Tech Res Ltd | カーナビゲーションシステム |
JPH1186034A (ja) * | 1997-09-05 | 1999-03-30 | Nippon Telegr & Teleph Corp <Ntt> | 景観ラベル付ヒューマンナビゲーション装置およびシステム |
JPH11304499A (ja) * | 1998-04-22 | 1999-11-05 | Matsushita Electric Ind Co Ltd | カーナビゲーション装置 |
JPH11338339A (ja) | 1998-05-21 | 1999-12-10 | Otsuka Shokai Co Ltd | 遠隔講義システム |
US6266442B1 (en) | 1998-10-23 | 2001-07-24 | Facet Technology Corp. | Method and apparatus for identifying objects depicted in a videostream |
JP3399506B2 (ja) | 1998-12-22 | 2003-04-21 | アイシン・エィ・ダブリュ株式会社 | 車両用ナビゲーション装置 |
JP2000251193A (ja) | 1999-03-02 | 2000-09-14 | Canon Inc | 映像処理装置及び方法並びに記憶媒体 |
US7366595B1 (en) * | 1999-06-25 | 2008-04-29 | Seiko Epson Corporation | Vehicle drive assist system |
JP2001272242A (ja) | 2000-03-23 | 2001-10-05 | Kenwood Corp | ナビゲーションシステム、誘導経路報知方法及び記録媒体 |
DE10037573B4 (de) * | 2000-08-02 | 2005-05-19 | Robert Bosch Gmbh | Navigationsverfahren in einem Kraftfahrzeug |
JP2002092012A (ja) * | 2000-09-19 | 2002-03-29 | Olympus Optical Co Ltd | 特定地域内情報表示システム |
JP2002213973A (ja) | 2001-01-18 | 2002-07-31 | Sony Corp | 画像取得装置、画像取得方法、画像取得のプログラム |
DE10138719A1 (de) * | 2001-08-07 | 2003-03-06 | Siemens Ag | Verfahren und Vorrichtung zur Darstellung von Fahrhinweisen, insbesondere in Auto-Navigationssystemen |
JP2003111128A (ja) | 2001-09-28 | 2003-04-11 | J-Phone East Co Ltd | 現在位置特定方法、現在位置情報提供方法、移動経路案内方法、位置情報管理システム及び情報通信端末 |
JP3886769B2 (ja) * | 2001-10-26 | 2007-02-28 | 富士通株式会社 | 補正画像生成装置および補正画像生成プログラム |
JP2002228466A (ja) | 2001-11-08 | 2002-08-14 | Sony Corp | ナビゲーション装置 |
JP3893983B2 (ja) | 2002-01-17 | 2007-03-14 | ソニー株式会社 | 情報提供装置及び情報提供方法、記憶媒体、並びにコンピュータ・プログラム |
JP3801049B2 (ja) | 2002-01-22 | 2006-07-26 | ソニー株式会社 | 情報処理装置及び情報処理方法並びに情報処理プログラム |
JP2003259363A (ja) | 2002-02-27 | 2003-09-12 | Denso Corp | ナイトビジョン装置 |
JP4015051B2 (ja) * | 2002-04-22 | 2007-11-28 | 松下電器産業株式会社 | カメラ補正装置 |
DE10236221C1 (de) * | 2002-08-07 | 2003-11-20 | Siemens Ag | Verfahren und Vorrichtung zur Anzeige von Navigationsinformationen für ein Fahrzeug |
JP4136529B2 (ja) | 2002-08-12 | 2008-08-20 | パイオニア株式会社 | 情報処理装置、そのシステム、その方法、そのプログラム、そのプログラムを記録する記録媒体、および、ナビゲーション装置 |
JP4086605B2 (ja) * | 2002-09-24 | 2008-05-14 | キヤノン株式会社 | 撮像装置 |
WO2004048895A1 (ja) | 2002-11-22 | 2004-06-10 | Kumamoto Technology & Industry Foundation | 移動体ナビゲート情報表示方法および移動体ナビゲート情報表示装置 |
ATE395577T1 (de) | 2003-02-26 | 2008-05-15 | Tomtom Int Bv | Navigationseinrichtung und verfahren zum austausch von daten zwischen residenten anwendungen |
JP2004257979A (ja) * | 2003-02-27 | 2004-09-16 | Sanyo Electric Co Ltd | ナビゲーション装置 |
US7071970B2 (en) * | 2003-03-10 | 2006-07-04 | Charles Benton | Video augmented orientation sensor |
JP2004328399A (ja) * | 2003-04-24 | 2004-11-18 | Denso Corp | 車載カメラ装置 |
JP2005214857A (ja) * | 2004-01-30 | 2005-08-11 | Sony Corp | ナビゲーション装置、案内画像作成方法 |
GB2414799A (en) | 2004-06-02 | 2005-12-07 | Nec Technologies | Visual navigation system |
US7460953B2 (en) * | 2004-06-30 | 2008-12-02 | Navteq North America, Llc | Method of operating a navigation system using images |
US7456847B2 (en) * | 2004-08-12 | 2008-11-25 | Russell Steven Krajec | Video with map overlay |
JP4696248B2 (ja) | 2004-09-28 | 2011-06-08 | 国立大学法人 熊本大学 | 移動体ナビゲート情報表示方法および移動体ナビゲート情報表示装置 |
JP2006105640A (ja) | 2004-10-01 | 2006-04-20 | Hitachi Ltd | ナビゲーション装置 |
JP4632793B2 (ja) | 2005-01-12 | 2011-02-16 | 京セラ株式会社 | ナビゲーション機能付き携帯型端末機 |
JP4483798B2 (ja) | 2005-04-06 | 2010-06-16 | 株式会社デンソー | 経路案内装置およびプログラム |
US7728869B2 (en) * | 2005-06-14 | 2010-06-01 | Lg Electronics Inc. | Matching camera-photographed image with map data in portable terminal and travel route guidance method |
CN101410695B (zh) | 2006-03-28 | 2013-03-13 | 松下电器产业株式会社 | 导航装置 |
JP4888703B2 (ja) | 2006-10-11 | 2012-02-29 | 株式会社デンソー | 車両用ナビゲーション装置 |
US20100029293A1 (en) | 2007-05-10 | 2010-02-04 | Sony Ericsson Mobile Communications Ab | Navigation system using camera |
-
2005
- 2005-06-06 NZ NZ564319A patent/NZ564319A/en unknown
- 2005-06-06 ES ES08075742T patent/ES2404164T3/es active Active
- 2005-06-06 MX MX2007015348A patent/MX2007015348A/es active IP Right Grant
- 2005-06-06 EP EP08075742A patent/EP2003423B1/en active Active
- 2005-06-06 JP JP2008514570A patent/JP4921462B2/ja active Active
- 2005-06-06 DE DE202005021607U patent/DE202005021607U1/de not_active Expired - Lifetime
- 2005-06-06 CN CN2005800500088A patent/CN101194143B/zh active Active
- 2005-06-06 CA CA002609663A patent/CA2609663A1/en not_active Abandoned
- 2005-06-06 WO PCT/NL2005/000405 patent/WO2006132522A1/en active Application Filing
- 2005-06-06 AU AU2005332711A patent/AU2005332711B2/en not_active Ceased
- 2005-06-06 AT AT05752007T patent/ATE441089T1/de active
- 2005-06-06 EP EP05752007A patent/EP1889007B1/en active Active
- 2005-06-06 BR BRPI0520250-7A patent/BRPI0520250A2/pt not_active Application Discontinuation
- 2005-06-06 ES ES05752007T patent/ES2330351T3/es active Active
- 2005-06-06 US US11/920,730 patent/US8180567B2/en active Active
- 2005-06-06 NZ NZ575752A patent/NZ575752A/en unknown
- 2005-06-06 DE DE602005016311T patent/DE602005016311D1/de active Active
-
2008
- 2008-01-07 NO NO20080097A patent/NO20080097L/no not_active Application Discontinuation
-
2012
- 2012-03-28 US US13/432,183 patent/US8352180B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
NO20080097L (no) | 2008-01-07 |
DE602005016311D1 (de) | 2009-10-08 |
US20120191346A1 (en) | 2012-07-26 |
US8352180B2 (en) | 2013-01-08 |
CN101194143A (zh) | 2008-06-04 |
EP2003423B1 (en) | 2013-03-27 |
CA2609663A1 (en) | 2006-12-14 |
WO2006132522A1 (en) | 2006-12-14 |
US20090125234A1 (en) | 2009-05-14 |
US8180567B2 (en) | 2012-05-15 |
CN101194143B (zh) | 2012-10-03 |
EP1889007A1 (en) | 2008-02-20 |
DE202005021607U1 (de) | 2008-11-20 |
ATE441089T1 (de) | 2009-09-15 |
NZ564319A (en) | 2009-05-31 |
AU2005332711A1 (en) | 2006-12-14 |
ES2404164T3 (es) | 2013-05-24 |
EP2003423A1 (en) | 2008-12-17 |
NZ575752A (en) | 2010-10-29 |
EP1889007B1 (en) | 2009-08-26 |
AU2005332711B2 (en) | 2010-12-02 |
JP2008542746A (ja) | 2008-11-27 |
JP4921462B2 (ja) | 2012-04-25 |
MX2007015348A (es) | 2008-02-15 |
BRPI0520250A2 (pt) | 2009-04-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
ES2330351T3 (es) | Dispositivo de navegacion con informacion de camara. | |
US8423292B2 (en) | Navigation device with camera-info | |
ES2293232T3 (es) | Dispositivo de navegacion y metodo para visualizar los datos de navegacion simulada. | |
US8370059B2 (en) | Navigation apparatus and navigation program | |
ES2425945T3 (es) | Dispositivo de navegación y método para proporcionar avisos de un control de velocidad | |
US20080167811A1 (en) | Navigation device and method for displaying navigation information | |
JP4705170B2 (ja) | ナビゲーションデバイス及びナビゲーションデバイス上に表示された地図データをスクロールする方法 | |
CN101573590A (zh) | 导航装置及用于显示导航信息的方法 | |
JP5063871B2 (ja) | 携帯機用地図表示システム | |
ES2333042T3 (es) | Aparato de procesamiento de imagenes, metodo de visualizacion de imagenes de vista lejana, y programa de visualizacion de imagenes de vista lejana. | |
RU2375756C2 (ru) | Навигационное устройство с информацией, получаемой от камеры | |
JP2003194555A (ja) | ナビゲーション装置及びその表示方法 | |
JP2005195475A (ja) | ナビゲーション装置 | |
KR20080019690A (ko) | 카메라 정보를 구비하는 내비게이션 기기 | |
JP2011022152A (ja) | ナビゲーションデバイス | |
JP3893284B2 (ja) | ナビゲーション装置 | |
RU2417398C2 (ru) | Навигационное устройство и способ прокрутки картографических данных, отображаемых в навигационном устройстве | |
KR20080036039A (ko) | 내비게이션 기기 상에 표시된 지도 데이터를 스크롤하는내비게이션 기기 및 방법 |