ES2476424T3 - Seguimiento de dispositivo móvil - Google Patents

Seguimiento de dispositivo móvil Download PDF

Info

Publication number
ES2476424T3
ES2476424T3 ES06830783.4T ES06830783T ES2476424T3 ES 2476424 T3 ES2476424 T3 ES 2476424T3 ES 06830783 T ES06830783 T ES 06830783T ES 2476424 T3 ES2476424 T3 ES 2476424T3
Authority
ES
Spain
Prior art keywords
image
objective
location
barcode
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
ES06830783.4T
Other languages
English (en)
Inventor
Robert Thomas Cato
Thomas Guthrie Zimmerman
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Global Commerce Solutions Holdings Corp
International Business Machines Corp
Original Assignee
Toshiba Global Commerce Solutions Holdings Corp
International Business Machines Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Global Commerce Solutions Holdings Corp, International Business Machines Corp filed Critical Toshiba Global Commerce Solutions Holdings Corp
Application granted granted Critical
Publication of ES2476424T3 publication Critical patent/ES2476424T3/es
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0242Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using non-visible light signals, e.g. IR or UV signals
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • G01S17/46Indirect determination of position data
    • G01S17/48Active triangulation systems, i.e. using the transmission and reflection of electromagnetic waves other than radio waves
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/74Systems using reradiation of electromagnetic waves other than radio waves, e.g. IFF, i.e. identification of friend or foe
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0244Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using reflecting strips
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0246Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means

Abstract

Método que comprende: obtener una imagen de un objetivo en un espacio definido (501); analizar la imagen para obtener los datos de identificación y los datos de la posición de la imagen, comprendiendo los datos de la posición de la imagen una posición en la imagen de un punto de referencia con respecto al objetivo (502); utilizar los datos de identificación para obtener los datos de la ubicación del objetivo que comprenden una ubicación del objetivo en el espacio definido (503); y determinar la ubicación del punto de referencia en el espacio definido combinando los datos de la posición de la imagen y los datos de la ubicación del objetivo (505); caracterizado porque: el objetivo es reflectante (101) y la etapa de obtener una imagen de un objetivo comprende además: provocar que una fuente luminosa (302) ilumine el objetivo con el propósito de obtener una imagen del objetivo; y obtener una primera imagen de una ubicación determinada y, a falta de una fuente luminosa (302), iluminar el objetivo de tal modo que dicho objetivo sea menos perceptible en la imagen; obtener una segunda imagen desde la ubicación determinada y con la fuente luminosa (302) iluminando el objetivo de tal modo que el objetivo es más perceptible en la imagen; y obtener la imagen del objetivo eliminando la primera imagen de la segunda imagen.

Description

Seguimiento de dispositivo móvil
CAMPO DE LA INVENCIÓN
La presente invención se refiere al seguimiento de un dispositivo móvil y más particularmente a determinar la ubicación de un dispositivo móvil utilizando objetivos que codifican información.
ANTECEDENTES DE LA INVENCIÓN
Una situación habitual en la que se obtiene la ubicación de un dispositivo móvil a efectos de su seguimiento se produce en una tienda moderna, en la que el dispositivo móvil del que se realiza el seguimiento es un carro de compras. Se puede realizar el seguimiento de un carro por diversos motivos, por ejemplo, para conocer el flujo de clientes en una tienda y tenerlo en cuenta al disponer los productos en la tienda para evitar atascos y garantizar la máxima exposición de productos específicos seleccionados para su promoción. Por ejemplo, se utiliza el conocimiento de la ubicación actual de un carro para proporcionar información al cliente que utiliza el carro, que corresponde a dicha ubicación en la tienda, proporcionándose dicha información a un dispositivo de pantalla asociado a un carro de compras.
Un método conocido de seguimiento de la ubicación de un carro de compras en una tienda utiliza balizas de rayos infrarrojos accionadas por motor que se fijan a intervalos regulares en el techo de una tienda. Cada baliza transmite una ráfaga de rayos infrarrojos que codifica una identificación de una zona única. A continuación un receptor de infrarrojos montado en un carro de compras recibe la señal infrarroja permitiendo de este modo determinar la zona en la que se encuentra el carro de compras. Sin embargo, dicho método adolece de diversos problemas. Por ejemplo, las balizas requieren energía y, por consiguiente, es necesario reemplazar periódicamente las baterías de cada baliza o instalar un soporte del cableado costoso conectado a una toma de electricidad. Además, la iluminación del almacén y/o los balastos de iluminación pueden provocar interferencias con el receptor de infrarrojos del carro, y asimismo la granularidad de la ubicación depende de la distancia entre las balizas.
Un método alternativo conocido de seguimiento de la ubicación de un carro de compras en una tienda utiliza una o más puntos de acceso de una LAN inalámbrica (WLAN) y se calcula la ubicación de un carro utilizando la fuerza de la señal con respecto a los diversos puntos de acceso medidos por un receptor dispuesto en el carro de compras. Sin embargo, dicho método adolece asimismo de problemas conocidos que comprenden el metal en el entorno de la tienda que provoca reflexiones y trayectorias múltiples, reduciendo la precisión de la determinación de la posición de tal modo que puede ser necesario añadir puntos de acceso adicionales y una antena direccional en la tienda para proporcionar una resolución espacial y una fiabilidad suficientes. Además la señal recibida y la posición del carro calculada, se pueden ver afectadas por la orientación de la antena (rotación) y asimismo los puntos de acceso requieren una toma de corriente.
Las actividades relacionadas con la posición y el seguimiento con respecto a los dispositivos móviles se realizan asimismo en otros campos en los que se conoce la utilización de, por ejemplo, etiquetas electrónicas, etiquetas RFID o códigos de barras, a tal efecto.
Por ejemplo, la patente US n.� 5.076.690 a nombre de deVos, et al., da a conocer la detección de la posición basada en el cálculo por triangulación utilizando por lo menos tres elementos retrorreflectantes separados y dispuestos en ubicaciones conocidas. Uno de los elementos retrorreflectantes puede ser un código de barras de tal modo que sea identificable. Un elemento giratorio con un dispositivo de transmisión y detección de luz se utiliza para localizar e iluminar los elementos retrorreflectantes. Sin embargo, dicha solución no es apta, por ejemplo, para determinar la ubicación del carro en una tienda, puesto que requiere una línea de visión de por lo menos 3 reflectores montados en la pared que resultarían difíciles de alcanzar para todas las posibles ubicaciones de los carros en una tienda grande.
Por ejemplo la patente US n.� 5.812.267 a nombre de Everett, et al., da a conocer la determinación de una distancia desde una pluralidad de reflectores utilizando dos sensores, generando luz cada uno de los mismos y detectando una señal de la luz reflejada por un reflector. A continuación se utiliza la triangulación para determinar la distancia desde los reflectores basándose en las señales detectadas desde cada sensor. Sin embargo, dicha solución no es apta, por ejemplo, para determinar la ubicación de un carro en una tienda, puesto que únicamente calcula una distancia desde los reflectores y no puede distinguir un reflector de otro. Como resultado de ello, únicamente resulta posible calcular la ubicación basándose en una ubicación conocida anteriormente, lo que no resulta apropiado para un carro de compras.
Por ejemplo la patente US n.� 4.918.607 a nombre de Wible, et al., da a conocer la detección de la posición basándose en el cálculo por triangulación utilizando la reflexión procedente de dos elementos retrorreflectantes codificando cada uno de los mismos su ubicación mediante un código de barras. Se utiliza un proceso de escaneado para localizar los elementos retrorreflectantes que se disponen en ubicaciones colineales separadas preseleccionadas. Sin embargo, dicha solución tampoco es apta, por ejemplo, para la ubicación del carro en una tienda puesto que el mecanismo de escaneo únicamente escanea áreas seleccionadas y restringe las ubicaciones en las que deben disponerse los elementos retrorreflectantes.
Adem�s se conoce en la técnica la utilización de códigos de barras retrorreflectantes en sistemas de orientación. Por ejemplo la patente US n.� 5.202.742 a nombre de Frank, et al., da a conocer un aparato de radar de láser destinado a guiar un vehículo a lo largo de una carretera. Se mide el retardo de la propagación de luz procedente de un objetivo reflector para determinar la distancia del objetivo y un espejo de escaneo utilizado para medir el ángulo entre el aparato de láser y el objetivo reflectante. La relación trigonométrica de la distancia del objetivo y el ángulo se utiliza a continuación para calcular la distancia desde el objetivo. Los objetivos reflectantes pueden incorporar un código de barras que proporcione información tal como el lado de la carretera, una salida próxima, los cambios en el límite de la velocidad, etc. Además, por ejemplo la patente US n.� 4.790.402 a nombre de Field, et al., da a conocer un sistema de guía en el que un transmisor - receptor de escaneo láser lateral detecta objetivos retrorreflectantes a lo largo de una trayectoria y estos se utilizan para mantener el vehículo en una trayectoria preestablecida. Los objetivos retrorreflectantes pueden comprender códigos de barras perpendiculares para que resulten más fáciles de identificar y leer mediante el escáner.
El documento DE 4429016 da a conocer un método y un dispositivo para la navegación de vehículos guiados automáticamente, en sistemas de transporte particulares de almacenes. El documento DE 4429016 da a conocer un método en el que para determinar la orientación y el ángulo de un vehículo se utilizan objetos de alto contraste en la zona del vehículo a fin de determinar el ángulo y la posición del vehículo.
Sin embargo, los sistemas de orientación no proporcionan una solución adecuada, por ejemplo, para determinar la ubicación de un carro en una tienda en la que un carro de compras se puede desplazar de un modo impredecible por la tienda. Ello se debe a, por ejemplo, los sistemas de guía calculan una ubicación de un vehículo con respecto a un objetivo y dicha información se utiliza a continuación para localizar el objetivo siguiente y mantener el vehículo en una trayectoria preestablecida. Por consiguiente, si el vehículo queda fuera del campo de visión del objetivo siguiente, se pierde y no se puede volver a determinar su ubicación basándose en una detección posterior de otro objetivo. Sin embargo, puesto que un cliente con un carro de compras generalmente no siguen una trayectoria preestablecida, es necesario determinar una ubicación basándose en la detección de un único objetivo.
SUMARIO DE LA INVENCIÓN
Constituye un objetivo de la presente invención proporcionar un sistema apto para utilizar en la determinación de la ubicación de un carro de compras en una tienda en la que el objetivo que se utiliza para determinar la ubicación del carro es pasivo, es decir, no requiere alimentación externa. Constituye un objetivo adicional de la presente invención determinar la ubicación de un carro de compras en una tienda mediante la detección de un objetivo único y en el que, además, la ubicación de cada objetivo es relativamente flexible.
Seg�n un primer aspecto, la presente invención proporciona un método que comprende: obtener una imagen de un objetivo en un espacio definido; analizar la imagen para obtener los datos de identificación y los datos de la posición de la imagen, comprendiendo los datos de la posición de la imagen una posición en la imagen de un punto de referencia con respecto al objetivo; utilizar los datos de identificación para obtener los datos de la ubicación del objetivo que comprenden una ubicación del objetivo en el espacio definido; y determinar la ubicación del punto de referencia en el espacio definido combinando los datos de la posición de la imagen y los datos de la ubicación del objetivo.
Preferentemente, la presente invención proporciona un método en el que el punto de referencia representa la ubicación desde la que se capt� la imagen.
Preferentemente, la presente invención proporciona un método en el que los datos de ubicación comprenden además datos de orientación del espacio definido con respecto al objetivo en el espacio definido y el método comprende además: analizar la imagen para obtener datos de orientación de la imagen que comprenden una dirección desde la que se capt� la imagen con respecto al objetivo; y determinar una dirección desde la que se capt� la imagen en el espacio definido al combinar los datos de orientación de la imagen y los datos de orientación del espacio definido.
Preferentemente, la presente invención proporciona un método en el que la imagen comprende un segundo objetivo y el punto de referencia representa el segundo objetivo.
La presente invención proporciona un método, en el que el objetivo es reflectante y el método comprende además; provocar que una fuente luminosa ilumine el objetivo con el propósito de obtener una imagen del objetivo.
La presente invención comprende obtener una primera imagen de una ubicación determinada y, a falta de una fuente luminosa, iluminar el objetivo de tal modo que dicho objetivo sea menos perceptible en la imagen; obtener una segunda imagen desde la ubicación determinada y con la fuente luminosa iluminando el objetivo de tal modo que el objetivo es más perceptible en la imagen; y obtener la imagen del objetivo eliminando la primera imagen de la segunda imagen.
Preferentemente, la presente invención comprende además la utilización de los datos de identificación para acceder a una entrada de base de datos que comprende los datos de ubicación del objetivo.
Preferentemente, la presente invención comprende, además, que el objetivo sea un código de barras.
Preferentemente, en la presente invención proporciona que el espacio definido es una tienda y el punto de referencia representan un carro de compras.
Puesto que se utiliza una imagen del dispositivo objetivo para determinar la ubicación del punto de referencia, el objetivo puede ser pasivo, por ejemplo un código de barras de por lo menos dos colores distintos. Por ejemplo, el espacio definido podría ser el interior de una tienda.
Preferentemente, el punto de referencia representa la ubicación en la que se capt� la imagen. Como resultado de ello, se puede utilizar el método, por ejemplo, para determinar la ubicación de un dispositivo, tal como un carro de compras, del que se capt� la imagen.
Si el punto de referencia representa la ubicación desde la que se capt� la imagen, opcionalmente los datos de la ubicación comprenden además datos de la orientación del espacio definido para el objetivo en el espacio definido y la imagen se analiza adicionalmente para obtener los datos de la orientación de la imagen que comprenden una dirección desde la que se captaron las imágenes con respecto al objetivo. Ello permite determinar la dirección desde la que se capt� la imagen en el espacio definido combinando los datos de la orientación de la imagen y los datos de la orientación del espacio definido.
Alternativamente al punto de referencia que representa la ubicación desde la que se capt� la imagen, el punto de referencia podría representar un segundo objetivo que est� por lo menos parcialmente incluido en la imagen. Como resultado de ello, los datos de la ubicación del objetivo se utilizan para determinar la ubicación en el espacio definido del segundo objetivo.
El objetivo es reflectante, por lo tanto, se utiliza una fuente luminosa para iluminar el objetivo cuando se capta la imagen.
Cuando se utiliza una fuente luminosa para iluminar el objetivo se obtienen unas imágenes primera y segunda a partir de una ubicación determinada. La primera imagen se obtiene sin fuente luminosa que ilumine el objetivo de tal modo que dicho objetivo no aparece en la imagen y la segunda imagen se obtiene con la fuente luminosa iluminando el objetivo de tal modo que el objetivo aparece en la imagen. A continuación se obtiene la imagen del objetivo eliminado la primera imagen de la segunda imagen. Ello disminuye la cantidad de datos de fondo de la imagen que no forman parte del objetivo, por lo que resulta más fácil de analizar.
Opcionalmente los datos de identificación se utilizan para acceder a una entrada de la base de datos que comprende los datos de la ubicación del objetivo. Alternativamente, los datos de identificación codifican los datos de ubicación del objetivo.
Preferentemente, el objetivo es un código de barras que se decodifica para obtener los datos de identificación.
Seg�n un segundo aspecto, la presente invención proporciona un aparato que comprende un dispositivo de captura de imágenes destinado a obtener una imagen que codifica datos de identificación; y por lo menos un procesador destinado a analizar la imagen para obtener los datos de identificación y los datos de la posición de la imagen, comprendiendo los datos de la posición de la imagen una posición en la imagen de un punto de referencia con respecto al objetivo; utilizar los datos de identificación para obtener los datos de la ubicación del objetivo que comprenden una ubicación del objetivo en el espacio definido; y la determinación de la ubicación del punto de referencia en el espacio definido mediante la combinación de los datos de la posición de la imagen y los datos de la ubicación del objetivo.
Se ha de tener en cuenta que, por ejemplo, el por lo menos un procesador puede comprender un microprocesador destinado a analizar la imagen y un procesador de datos destinado a utilizar los datos de identificación que determinan la ubicación del punto de referencia. Opcionalmente, el procesador de datos se encuentra en una posición remota con respecto al microprocesador y el aparato comprende además un dispositivo de comunicación destinado a enviar datos de identificación y datos de desplazamiento de la imagen desde el microprocesador al procesador de datos para utilizar los datos de identificación.
Opcionalmente, el aparato comprende además un dispositivo de iluminación destinado a iluminar el objetivo. Por ejemplo, si el objetivo es reflectante, se puede captar la imagen mientras el objetivo refleja luz desde el dispositivo de comunicación.
Si el aparato comprende un dispositivo de iluminación, opcionalmente el dispositivo de iluminación puede emitir una pluralidad de niveles de iluminación y el por lo menos un procesador varía aún más el nivel de salida de iluminación del dispositivo de iluminación.
Opcionalmente, el por lo menos un procesador controla además el dispositivo de captura de imágenes y da la orden cuando se debe captar una imagen.
El dispositivo de captura de imágenes es una cámara de vídeo. El aparato comprende además un comparador y un separador de sincronización de vídeo. El comparador recibe la imagen desde el dispositivo de captura de imágenes y emite una señal binaria, basada en un nivel de brillo predeterminado del p�xel, para convertir la imagen del dispositivo de captura de imágenes en una imagen binaria. Por ejemplo, el comparador puede emitir un 1 para un p�xel más oscuro que el nivel de brillo predeterminado y un 0 para un p�xel más claro que el nivel de brillo predeterminado. El separador de sincronización de vídeo indica las señales binarias del comparador que indican el inicio de una nueva unidad de imagen y las señales binarias del comparador que indican el inicio de una nueva línea de la imagen.
Por lo menos un procesador varía el nivel de brillo predeterminado para mejorar las características de la imagen que, por ejemplo, lo que facilita obtener los datos de identificación del objetivo.
Opcionalmente, la presente invención comprende, además, un carro de compras sobre el que se montan el dispositivo de captura de imágenes y un procesador destinado a analizar imágenes.
Preferentemente, la presente invención comprende, además, un aparato: un dispositivo de iluminación destinado a iluminar el objetivo.
Preferentemente, la presente invención proporciona un aparato en el que, el dispositivo de iluminación puede emitir una pluralidad de niveles de iluminación y el procesador que analiza la imagen varía aún más la emisión del nivel de iluminación desde el dispositivo de iluminación.
La presente invención proporciona un aparato en el que el dispositivo de captura de imágenes es una cámara de vídeo y el aparato comprende además: un comparador destinado a recibir la imagen procedente del dispositivo de captura de imágenes y emitir una señal binaria para cada p�xel de la imagen, basada en un nivel de brillo predeterminado del p�xel, para convertir la imagen del dispositivo de captura de imágenes; un separador de sincronización de vídeo destinado a indicar señales binarias que indican el inicio de una unidad de imagen y señales binarias que indican el inicio de una nueva línea de imagen; y un procesador que analiza la imagen para variar el nivel de brillo predeterminado a fin de mejorar las características del análisis de la imagen.
Preferentemente, la presente invención proporciona un aparato que comprende además: un dispositivo de comunicación destinado a enviar datos de identificación y datos de desplazamiento de la imagen al procesador para utilizar los datos de identificación.
Preferentemente, la presente invención proporciona un aparato que comprende, además, un carro de compras sobre el que se montan el dispositivo de captura de imágenes y un procesador destinado a analizar imágenes.
Considerando un tercer aspecto, la presente invención proporciona un programa inform�tico que se puede cargar en la memoria interna de un ordenador digital, que comprende partes de un código de software destinado a realizar, cuando dicho producto se ejecuta en un ordenador, las etapas del método tal como se ha descrito anteriormente. Opcionalmente se podría proporcionar un espacio definido, que comprendiera: una pluralidad de objetivos separados distribuidos por todo el espacio definido, codificando cada código de barras datos de identificación que se pueden utilizar para determinar la ubicación en el espacio definido del objetivo; y un aparato tal como el descrito anteriormente.
Preferentemente, el espacio comprende además: una superficie que cubre el espacio definido y en la que se montan los objetivos utilizando Velcro�.
Por ejemplo, la superficie podría ser un techo. Por ejemplo, el espacio definido podría ser una tienda.
BREVE DESCRIPCIÓN DE LOS DIBUJOS
Las formas de realización de la presente invención se describirán a continuación en detalle, únicamente a título de ejemplo, haciendo referencia a los dibujos adjuntos, en los que:
las figuras 1a -1d representan objetivos retrorreflectantes de código de barras según la forma de realización preferida de la presente invención;
la figura 2 representa un ejemplo de techo de una tienda (observando desde el piso hacia el techo) según la forma de realización preferida de la presente invención; la figura 3 es un diagrama esquemático de un sistema que se utiliza para obtener e interpretar una imagen de un objetivo retrorreflectante de código de barras según la forma de realización preferida de la presente invención; las figuras 4a y 4b son ilustraciones de una imagen de ejemplo (observando desde el piso hacia el techo) captada de un objetivo retrorreflectante de código de barras, por el sistema de la figura 3, según la forma de realización preferida de la presente invención; la figura 5 es un organigrama de un método realizado por el sistema de la figura 3 utilizado para obtener e interpretar una imagen de un objetivo retrorreflectante de código de barras según la forma de realización preferida de la presente invención; la figura 6 es un organigrama de un método que es una descripción más detallada de una etapa del método de la figura 5 para analizar una imagen obtenida; la figura 7 es un diagrama (observado desde el piso hacia el techo) que ilustra el esquema de orientación utilizado en la forma de realización preferida de la presente invención; la figura 8 es la imagen de la figura 4 con unas marcas adicionales utilizadas para describir los cálculos empleados para analizar una imagen de un código de barras. Todas las distancias y coordenadas de la figura 8 se encuentran en unidades de imagen; la figura 9 es la imagen de la figura 8 girada y con unas marcas adicionales utilizadas para describir los cálculos empleados para analizar una imagen de un código de barras. Todas las distancias y coordenadas de la figura 9 se encuentran en unidades físicas; las figuras 10a a 10c son ilustraciones de imágenes de ejemplo adicionales captadas por el sistema de la figura 3 según la forma de realización preferida de la presente invención; y la figura 11 es una ilustración de una imagen de ejemplo que contiene dos códigos de barras captada por el sistema de la figura 3 según la forma de realización preferida de la presente invención.
DESCRIPCI�N DETALLADA DE LAS FORMAS DE REALIZACIÓN ILUSTRADAS
En la siguiente descripción del ejemplo de forma de realización se hace referencia a los dibujos adjuntos que constituyen una parte, de la presente memoria, y en los que se representa a título ilustrativo la forma de realización específica en la que puede ponerse en práctica la presente invención. Se podr� comprender que pueden realizarse diversas modificaciones sin apartarse del alcance de la presente invención tal como se define en las reivindicaciones adjuntas.
En la forma de realización preferida de la presente invención, se determin� la ubicación de un carro de compras en una tienda mediante los objetivos de código de barras retrorreflectantes que se disponen en el techo de la tienda. Se obtiene una imagen de un objetivo del código de barras utilizando una cámara montada en el carro de compras de tal modo que una posición de la imagen representa la ubicación del carro. La imagen se analiza a continuación para leer el código de barras y determinar los datos de posición de la imagen y los datos de orientación de la imagen. Los datos de posición de la imagen comprenden "carro / coordenadas polares de la imagen del código de barras", que son las coordenadas polares (en la imagen) del carro con respecto al código de barras. El "carro / coordenadas polares de la imagen del código de barras" comprende el "carro / ángulo de la imagen del código de barras", que es el ángulo desde el carro al objetivo del código de barras de la imagen, y el "carro / radio de la imagen del código de barras", que es la distancia en la imagen (en unidades de imagen) del carro al objetivo del código de barras. Los datos de la orientación de la imagen comprenden "carro / orientación de la imagen del código de barras", que es la dirección hacia la que apunta el carro con respecto al código de barras. A continuación se procede a la descodificaci�n del objetivo del código de barras para acceder a una base de datos y obtener "código de barras / orientación en la tienda" y "código de barras / ubicación en la tienda", que son la orientación física y los datos de la ubicación del objetivo del código de barras en la tienda. Los datos de la orientación y la ubicación física se combinan a continuación con los datos de posición de la imagen para determinar "carro / ubicación en la tienda" y "carro / orientación en la tienda" (la posición física y la orientación del carro en la tienda con respecto a un punto de referencia y una referencia línea trazada para la tienda). Esto se describir� a continuación más detalladamente haciendo referencia a las figuras 1 a 9.
Las figuras 1a y 1b representa las unidades estructurales básicas de un objetivo retrorreflectante de código de barras (código de barras) según la forma de realización preferida de la presente invención. La figura 1a representa dos secciones retrorreflectantes 101 separadas por una sección no retrorreflectante 102 que presenta la misma anchura que cada sección retrorreflectante 101. La distancia de separación de las dos secciones retrorreflectantes 101 codifica un bit de que en este caso es un bit "0". La figura 1b representa dos secciones retrorreflectantes 101 separadas por una sección no retrorreflectante 103 que presenta el doble de la anchura de cada sección de retrorreflectante 101. Dicha distancia de separación de las dos secciones retrorreflectantes 101 codifica un bit "1". Se debe tener en cuenta que al separar cada sección retrorreflectante una longitud que est� relacionada con la longitud de una sección retrorreflectante, por ejemplo, la longitud de una sección retrorreflectante adyacente proporciona una referencia de la distancia que se puede utilizar para determinar la distancia de separación entre dos secciones retrorreflectantes. Ello puede resultar útil, por ejemplo, cuando se capta una imagen de un código de barras con una lente gran angular o se monta el código de barras en una superficie curva.
La figura 1c representa un ejemplo de código de barras que utilizan las unidades estructurales básicas de las figuras 1a y 1b. Sin embargo, el primer elemento del código de barras es una sección retrorreflectante de longitud doble 104 que se denomina símbolo de sincronización. La naturaleza alargada de dicha sección se utiliza para identificar el inicio del código de barras y además, puesto que su longitud es el doble que la de una sección retrorreflectante estándar, se puede utilizar su longitud para determinar la longitud de una sección de retrorreflectante estándar que puede ser útil cuando se deban interpretar algunas imágenes de un código de barras. El resto de códigos de barras se alternan entre las secciones no retrorreflectantes y las secciones retrorreflectantes de anchura estándar. Las secciones no retrorreflectantes definen los bits y en el presente ejemplo las secciones son una sección corta 102, seguida por una sección larga 103, seguida por dos secciones cortas 102 y, por consiguiente, el código de barras de la figura 2c define una cadena de bits "0100".
La figura 1d es una ilustración del ejemplo de código de barras de la figura 1c, observado en una imagen tomada según la forma de realización preferida de la presente invención. En dicha figura, las secciones retrorreflectantes (114, 111) reflejan de luz infrarroja (IR), mientras que las secciones no retrorreflectantes (112, 113) no lo hacen. Por consiguiente, el valor codificado por el código de barras se determina basándose en la distancia de separación de las secciones de luz IR reflejadas en una imagen captada del código de barras.
En la forma de realización preferida de la presente invención, los códigos de barras retrorreflectantes est�n sujetas a lugares apropiados del techo de una tienda. La figura 2 lo representa para una zona de un ejemplo de techo, tal como se observa desde el suelo hacia el techo. La zona del techo 200 comprende los paneles del techo 201 que se soportan mediante una estructura met�lica que llena los espacios de separación entre los paneles. Las luces 202 y los códigos de barras retrorreflectantes 203, 204, 205, 206 se encuentran unidos al techo. Los códigos de barras se soportan mediante una banda magnética para facilitar la sujeción de los mismos al techo y se disponen separados de las luces 202 para evitar las interferencias ópticas en una imagen captada de los códigos de barras. Cada código de barras codifica un número distinto, tal como se describe haciendo referencia a las figuras 1a a 1d. El código de barras 203 se inicia con la sección alargada (símbolo de sincronización) 207 y comprende las secciones no reflectantes que codifican "0001". De un modo similar los códigos de barras 204, 205, y 206 codifican "0010", "0011" y "0100", respectivamente, de tal modo que cada código de barras se puede identificar inequívocamente y se puede asociar, por ejemplo, a una base de datos con una entrada que registre la orientación física y la ubicación el código de barras en la tienda. Se debe tener en cuenta que la orientación de cada código de barras es distinta, sin embargo, ello no resulta problem�tico debido a las secciones alargadas 207, 208, 209 y 210 que marcan el inicio de cada código de barras.
La vista de un carro de compras 211 de la figura 2 se representa asimismo desde el piso, observando hacia arriba a través de la parte inferior del carro hacia el techo. Se debe tener en cuenta que el carro de compras 211 est� orientado formando un ángulo con respecto a una línea de referencia física 221 en la tienda y se encuentra a una cierta distancia del punto de referencia físico 220. Por ejemplo, la línea de referencia puede ser una pared de la tienda. A continuación se realizar� una descripción de cómo se pueden calcular el ángulo y la distancia.
Se debe tener en cuenta que las secciones retrorreflectantes y no retrorreflectantes de cada código de barras pueden ser de cualquier color / textura siempre que realicen la función de reflejar o no reflejar la luz IR tal como lo requiere la forma de realización preferida. Por consiguiente, se pueden realizar, por ejemplo, de un color con el que resulten menos molestas y/o est�ticamente más agradables cuando se tiene en cuenta el color de los paneles del techo y/o estructura met�lica. Por ejemplo, si el techo es de color negro, las etiquetas se pueden cubrir con una cubierta visualmente oscura, pero transparente a los IR.
Se debe tener en cuenta además que una o más de las secciones no reflectantes de un código de barras puede comprender una zona de material VELCRO para permitir una extracción fácil de un código de barras, utilizando, por ejemplo, un poste con un material VELCRO complementario en un extremo.
La figura 3 es un diagrama esquemático de un sistema 300 para montar en un carro de compras y que se utiliza para obtener e interpretar una imagen de un objetivo retrorreflectante de código de barras según la forma de realización preferida de la presente invención; El sistema 300 comprende un dispositivo de iluminación LED de infrarrojos (IR) 302 que se utiliza para emitir luz infrarroja para se refleje desde un objetivo de código de barras retrorreflectante, por ejemplo el código de barras 301. Se obtiene una imagen de cualquier luz reflejada con una cámara de video en blanco y negro 303 a través de un filtro óptico que bloquee la luz visible pero que deje pasar los IR 304. Se utiliza el filtro para reducir la luz no IR pero permitir que la luz IR, tal como la procedente del dispositivo de iluminación LED de IR 302 que se refleja en el código de barras 301 LED, pase a la cámara de vídeo 303.
La cámara de vídeo 303 se monta sustancialmente en vertical en un carro de compras de tal modo que el centro de una imagen captada por la cámara representa aproximadamente la ubicación de la cámara (y, por lo tanto, la ubicación del carro de compras) y una línea vertical trazada en la imagen representa la dirección hacia la que apunta el carro. Sin embargo, en otras formas de realización se puede montar la cámara de un modo distinto siempre que se pueda determinar la posición desde la que se capt� la imagen con respecto a un código de barras en la imagen.
Se pasa una imagen captada por la cámara de vídeo 303 como una señal de vídeo en escala de grises al comparador analógico 305 y al separador de sincronización del vídeo 306. El comparador analógico 305 simplifica la señal de vídeo convirtiendo la señal de vídeo en escala de grises a una señal binaria en blanco y negro que, puesto que el filtro óptico que bloquea la luz visible pero deja pasar los IR 304 elimina casi la totalidad de la luz no IR, deja únicamente los rayos IR directos de las luces del techo 202 y los IR reflejados desde el código de barras 301. La luz IR brillante provoca que el comparador analógico 305 emita una señal binaria de nivel alto, mientras que el fondo oscuro provoca que el comparador analógico 305 emita una señal binaria de nivel bajo.
El separador de sincronización de video 306 extrae las señales de sincronización horizontal y vertical de la señal de vídeo compuesta emitida por la cámara en blanco y negro 303. El microcontrolador 307 utiliza las señales de sincronización de vídeo del separador de sincronización de video 306 para identificar el inicio de cada imagen / fotograma y determinar la ubicación de x e y dentro de una imagen de cada p�xel de la imagen recibida del comparador 305. En el inicio de cada señal de sincronización horizontal, un contador interno que se ejecuta en el microcontrolador 307 que representa el contador de la posición del eje X se pone a cero, indicando el inicio de una nueva fila de p�xeles. En el inicio de cada señal de sincronización vertical, contador de posición del eje Y se pone a cero, lo que indica el inicio de una nueva unidad de imagen. El contador de posición del eje X se aumenta mediante un oscilador interno, normalmente el reloj del microcontrolador 307. El contador de posición de eje Y se aumenta mediante la señal de sincronización horizontal.
Para minimizar los requisitos de memoria del microcontrolador 307 y de tiempo de procesamiento, el flanco ascendente del comparador analógico 305 provoca una interrupción. Durante la ejecución de la rutina de interrupción, se almacenan los valores del contador de la posición del eje X y del contador de la posición del eje Y. Se configura el controlador de las interrupciones del microcontrolador 307 para que genere una interrupción en el flanco descendente del comparador analógico 305 y se repita el proceso. Al utilizar dicho método, únicamente las ubicaciones de inicio y parada de los objetos brillantes provocan interrupciones que requieren procesamiento y almacenamiento, con lo que se elimina la necesidad de una memoria intermedia para almacenar una imagen entera y la necesidad de procesar cada p�xel de la imagen.
Opcionalmente, el microcontrolador 307 controla el dispositivo de iluminación LED de infrarrojos 302, apagándolo cuando no se necesita y controlando el brillo del dispositivo de iluminación LED de infrarrojos 302 para enviar únicamente la iluminación IR suficiente para iluminar suficientemente el código de barras 301, con lo que se ahorra energía.
Opcionalmente, el microcontrolador 307 capta una primera imagen con el dispositivo de iluminación LED de infrarrojos 302 encendido y una segunda imagen con el dispositivo de iluminación LED de infrarrojos 302 apagado. La primera imagen se quita de la segunda imagen, a fin de eliminar las fuentes luminosas externas, tales como la luz de techo 202.
Opcionalmente microcontrolador 307 controla una tensión crítica del comparador analógico 305 para ajustar la imagen y habilitar un código de barras, tal como el código de barras 301, para que se pueda distinguir mejor de otras fuentes de luz IR en una imagen.
El microcontrolador 307 descodifica el código de barras 301 y realiza otras funciones de bajo nivel y a continuación pasa los datos descodificados al ordenador 308.
La figura 4a es una ilustración de una imagen, que hace referencia a la figura 2, del objetivo del código de barras retrorreflectante 206 captada del carro de compras 211, utilizando una cámara montada en la parte posterior del carro (dirigida verticalmente hacia arriba hacia el techo y orientada de tal modo que en una imagen el carro apunta desde el centro de la parte inferior hacia el centro de la parte superior de la imagen), por ejemplo la cámara de vídeo 303 del sistema de la figura 3. Se debe tener en cuenta que en la figura 4a, y en todas las otras figuras con una ilustración de una imagen, la ilustración es efectivamente un negativo de una imagen real, es decir, en una imagen captada por la cámara en blanco y negro 303, de la figura 3, las zonas oscuras mostradas en la ilustración aparecerán como iluminadas y las áreas iluminadas mostradas en la ilustración aparecerán como oscuras. Además, el punto de mira del centro de la imagen no forma parte de la imagen sino que indica el centro de la imagen utilizado por el sistema como punto de referencia para el que se va a determinar una ubicación física (es decir, la ubicación de la cámara / carro en la tienda). En otras palabras, el punto de mira es la ubicación en la imagen que se encuentra directamente sobre la cámara. A partir de la imagen, el código de barras se determina para codificar el valor "0100" (o 4) y dicho valor se utiliza como índice en una base de datos para obtener una entrada que proporciona la orientación física y la ubicación del código de barras retrorreflectante 301 en la tienda.
La figura 4b es la imagen de la figura 4a pero con una ilustración del carro de compras 211 (véase la figura 2) de la que se capt� la imagen de la figura 4a. Se representa asimismo la vista de la carro de compras 211 de la figura 4b en el piso, observado a través de la parte inferior del carro hacia el techo. El carro de compras presenta una cámara 411 montada en su parte posterior (apuntando verticalmente hacia arriba) para captar la imagen y por consiguiente la ubicación de la cámara 411 en la imagen 4b coincide con la ubicación del punto de mira 400 de la figura 4a. Debido a la orientación de la cámara con respecto a la carro de compras, la dirección en la que el carro est� apuntando en la figura 4b (es decir, cuando se capt� la imagen de la figura 4a) recorre una línea vertical a través del centro de la imagen. Se debe tener en cuenta que el código de barras y la orientación del carro de compras 211 de la figura 4b coinciden con la del código de barras 206 y el carro de compras 211 de la figura 2.
En la forma de realización preferida de la presente invención, los datos que describen la ubicación física y la orientación del código de barras en la tienda se almacenan en una base de datos. Dichos datos comprenden la ubicación física / en la tienda del centro del símbolo de sincronización y la orientación física / en la tienda del código de barras a lo largo de su longitud (por ejemplo, el ángulo 902 de la figura 9). La ubicación física / en la tienda comprende las coordenadas X e Y, en un sistema de unidades físicas adecuado, con respecto a un punto de referencia en la tienda, por ejemplo, el punto de referencia 220 de la figura 2. En la forma de realización preferida, las unidades son metros, pero en otras formas de realización se pueden utilizar otras unidades, por ejemplo, pies o paneles del techo. La orientación física / en la tienda es un ángulo con respecto a una línea de referencia de la tienda, por ejemplo la pared de la tienda 221 de la figura 2. Por ejemplo, la orientación puede comprender un valor entre 0 y 360 grados. Opcionalmente, los datos de ubicación física pueden comprender datos adicionales que pueden resultar útiles en cálculos posteriores, por ejemplo, la longitud del símbolo de sincronización, la longitud del código de barras y la altura del código de barras.
La figura 5 es un organigrama del método de la forma de realización preferida de la presente invención para obtener la ubicación física / en la tienda y la orientación de un carro de compras en una tienda. En la etapa 501 se obtiene una imagen de una cámara montada en un carro de compras y la imagen comprende por lo menos un objetivo retrorreflectante de código de barras. La imagen es una imagen binaria con un bit para cada p�xel basado en la salida del comparador analógico 305. El comparador emite una señal de nivel alto si un p�xel es brillante y una señal de nivel bajo si el p�xel es oscuro.
En la etapa 502 se analiza la imagen para obtener y descodificar objetivo del código de barras retrorreflectante y determinar los datos de posición de la imagen y los datos de orientación de la imagen con respecto a la posición relativa del código de barras y el carro de la imagen. Los datos de posición de la imagen comprenden el ángulo y la distancia (en unidades de imagen) del código de barras al carro, y los datos de orientación de la imagen comprenden la dirección en la que apunta el carro con respecto al código de barras.
La orientación del código de barras en la imagen se conoce como "orientación de la imagen del código de barras". Es decir, el ángulo en grados entre una línea que pasa por la dimensión larga del código de barras y una primera línea de referencia de la imagen que es una línea horizontal a través de la imagen y que pasa por el centro del símbolo de sincronización.
La dirección en la que el carro apunta con respecto al código de barras en la imagen es la "orientación de la imagen del carro / código de barras". Es decir, el ángulo entre una línea que pasa por la dimensión larga del código de barras y una segunda línea de referencia de la imagen que representa la dirección del carro con respecto a la imagen. En la forma de realización preferida, la cámara se monta en el carro de compras de tal modo que la segunda línea de referencia de la imagen se extiende verticalmente con respecto a la imagen.
El ángulo y las distancias desde el código de barras hasta la posición relativa del código de barras con respecto al carro son el "ángulo de la imagen del carro / código de barras" y "radio de la imagen del carro / código de barras", respectivamente. El "ángulo de la imagen del carro / código de barras" es el ángulo formado por la línea de la dimensión larga del código de barras y una tercera línea de referencia que se extiende desde la ubicación del punto de referencia de la imagen (punto de mira) 400 hasta el centro del símbolo de sincronización del código de barras. El "radio de la imagen del carro / código de barras" es la distancia (en unidades de imagen) de la ubicación del punto de referencia de la imagen (punto de mira) 400 al centro del símbolo de sincronización del código de barras. El punto de referencia de la imagen es la ubicación de la imagen que representa la ubicación del carro de compras y es un punto que se encuentra directamente sobre la cámara 303 en el caro de compras 211. Juntos el "ángulo de la imagen del carro / código de barras" y el "radio de la imagen del carro / código de barras" constituyen las "coordenadas polares de la imagen del carro / código de barras".
En la etapa 503 se utiliza la descodificaci�n del objetivo del código de barras para acceder a una base de datos a fin de obtener la orientación física y los datos de ubicación del código de barras en la tienda.
La orientación del código de barras en la tienda es la "orientación del código de barras / tienda". Este es el ángulo entre la línea que pasa por la dimensión larga del código de barras y una línea de referencia en la tienda, por ejemplo la pared tienda 221 de la figura 2.
La ubicación física del código de barras es la "ubicación del código de barras / tienda". Se trata de las coordenadas (X, Y) (en unidades de tienda) de la ubicación del centro del símbolo de sincronización con respecto a un punto de referencia de la tienda, por ejemplo el punto de referencia de la tienda 220 de la figura 2.
En la etapa 504, se determina la orientación del carro en la tienda. Se har� referencia a ello como "orientación del carro / tienda" y se determina a partir de una combinación entre la "orientación del código de barras / tienda" y la "orientación de la Imagen del carro / código de barras".
En la etapa 505, se determina la ubicación del carro en la tienda con respecto a un punto de referencia en la tienda, por ejemplo el punto de referencia 220 de la figura 2. Se har� referencia a ello como "ubicación del carro / tienda" y se determina mediante la combinación entre la "orientación del código de barras / tienda", la "ubicación del código de barras / tienda" y las "coordenadas polares de la imagen del código de barras / tienda". Sin embargo, el "radio de la imagen del carro / código de barras" de las "coordenadas polares de la imagen del código de barras / tienda" debe convertirse en primer lugar de unidades de imagen a unidades de tienda.
A continuación se describir� más detalladamente la etapa 502 y el cálculo de las pasos 502, 504 y 505 haciendo referencia a las figuras 6, 7, 8 y 9.
La figura 6 es un organigrama del método de la etapa 502 de la figura 5, en la que se analiza una imagen binaria para identificar y descodificar el objetivo del código de barras retrorreflectante, y además determinar los datos de posición de la imagen relacionados con el código de barras y la posición del carro (centro de la imagen).
En la etapa 601 se exploran las filas de la imagen binaria de izquierda a derecha para identificar los objetos adecuados. Los objetos se identifican como un grupo de p�xeles brillantes adyacentes rodeados por p�xeles oscuros. Durante la exploración, se pone en funcionamiento un codificador de la longitud de recorrido (contador RLE) cuando un p�xel brillante sigue a un p�xel oscuro y se detiene en el primer p�xel oscuro posterior. Si el contador RLE se encuentra fuera de un intervalo predeterminado que representa una anchura aceptable de un elemento de código de barras de la fila de p�xeles brillantes, y otros p�xeles brillantes adyacentes cualesquiera, se ignoran puesto que el objetivo que ellos representan es demasiado grande o demasiado pequeño para formar parte de un código de barras. Además, si un objeto contiene un número de p�xeles que no se encuentra dentro de un intervalo predeterminado, se ignora el objeto ya que es demasiado pequeño o grande para ser un segmento de código de barras. Una vez se han procesado todos los p�xeles, es decir toda la imagen, se obtiene una imagen binaria que comprende únicamente los objetos (conjunto de bits) que se consideran aptos para un segmento de código de barras.
En la etapa 602 se determina el centro geométrico de cada objeto apto en lo que se refiere a las coordenadas de los p�xeles a partir de una esquina inferior izquierda de la imagen.
En la etapa 603 se utiliza el centro geométrico de cada objeto apto para crear un segmento de línea entre los objetos contiguos y se identifican segmentos candidatos de código de barras. Un segmento de línea mide la distancia entre dos objetos y se identifican los objetos como segmentos candidatos de código de barras si la longitud del segmento de línea entre los mismos se encuentra dentro de un intervalo predeterminado.
En la etapa 604 se identifica un código de barras candidato suponiendo que el mayor segmento de código de barras candidato es un símbolo de sincronización (104 de la figura 1c). El símbolo de sincronización se utiliza a continuación como punto de anclaje para concatenar entre s� los segmentos de código de barras colindantes en un código de barras candidato. Los segmentos de código de barras colindantes se ubican explorando la imagen binaria creada de izquierda a derecha y de arriba a abajo desde el símbolo de sincronización.
En la etapa 605 se verifica la validez del código de barras candidato identificado comprobando que presenta el número correcto de segmentos (bits) y, opcionalmente, que dispone de la paridad correcta. Por ejemplo, en la forma de realización preferida, aunque no se representa en las figuras, para este propósito se utilizan dos bits de paridad.
Por último, en la etapa 606, la dirección en la que el carro apunta con respecto al código de barras ("orientación de la imagen del carro / código de barras") y las coordenadas polares (en la imagen) del carro con respecto al código de barras ("coordenadas polares de la imagen del carro / código de barras"), se calculan para la utilización de las mismas en las etapas 504 y 505 de la figura 5.
Se debe tener en cuenta que en el método de la figura 6 se utilizan diversos intervalos predeterminados, en particular: un intervalo predeterminado que representa una anchura aceptable de un elemento de código de barras; un intervalo predeterminado para el número de p�xeles en un objeto aceptable; y un intervalo predeterminado para la longitud de un segmento de línea. En la forma de realización preferida dichos intervalos se obtienen empíricamente, basándose en un número de imágenes de código de barras. Por ejemplo, si el método de la figura 6 se aplica en diversas imágenes, los datos válidos del código de barras se pueden utilizar para determinar los intervalos aptos.
A continuación se describirán a título de ejemplo los cálculos de las etapas 504 y 505 de la figura 5, y de la etapa 606 de la figura 6, haciendo referencia a las figuras 7, 8 y 9.
La figura 7 representa el esquema de la pendiente (ángulo) utilizado en la forma de realización preferida de la presente invención, por ejemplo, para determinar un valor para la orientación en la tienda de un código de barras o carro de compras con respecto a una pared de referencia de la tienda, por ejemplo la pared de la tienda 221 (representada asimismo en la figura 2). La figura representa un código de barras 701 que comprende un símbolo de sincronización 702 y un último segmento de código de barras 703. La orientación del código de barras en la que es paralelo a la pared de la tienda 221 con el símbolo de sincronización en la parte izquierda, tal como se representa en la figura, se considera de 0 grados. Si se gira el código de barras en el sentido contrario al de las agujas del reloj alrededor del centro del símbolo de sincronización 702, el centro del último segmento del código de barras describe el círculo 704, que se puede dividir en 4 cuadrantes 705, 706, 707, 708. En cada uno de dichos cuadrantes se muestran los signos relativos de X e Y en los que X e Y representan el valor de las coordenadas x e y del centro del segmento extremo 703 con las coordenadas x e y del centro del símbolo de sincronización 702 eliminadas, respectivamente. Por consiguiente, puesto que las funciones trigonométricas proporcionarán únicamente cálculos de ángulos de +/- 90 grados, tendrán que ajustarse los ángulos calculados con respecto a la horizontal en +180 grados en los cuadrantes 706 y 707, y en 360 grados en el cuadrante 708.
La figura 7 representa también un carro de compras 705 que se orienta asimismo formando 0 grados con respecto al muro de la tienda 221. Cuando forma 0 grados, el carro es paralelo al muro de la tienda 221 con la parte anterior del carro hacia la derecha y la parte posterior del carro hacia la izquierda. Por consiguiente, cuando se compara con el código de barras 701, para determinar el cuadrante de la orientación del carro, la parte anterior del carro es equivalente al símbolo de sincronización 702 y la parte posterior del carro es equivalente al último segmento del código de barras 703. Como resultado de ello, si se gira el carro en el sentido contrario al de las agujas del reloj alrededor del centro de la parte anterior del carro, el centro de la parte posterior del carro describir� el círculo 704, que se divide en 4 cuadrantes 705, 706, 707, 708.
La figura 8 muestra una imagen (800) que es la imagen de la figura 4a pero con marcas adicionales que se utilizarán para describir los cálculos realizados para obtener la orientación y los datos de ubicación con respecto a la imagen antes de aplicar los datos de la ubicación física del código de barras. Por consiguiente, haciendo referencia a la figura 2, esta imagen es del objetivo del código de barras retrorreflectante 206 capado del carro de compras 211 y es, por lo tanto, una vista desde la cámara observando hacia el techo. Se hace referencia a todos los puntos de la figura 8 mediante las coordenadas (X, Y) (en unidades de imagen) con respecto al origen de la imagen, que es la esquina inferior izquierda de la imagen. En aras de la comprensión, la figura 8 muestra asimismo la posición de la línea de referencia física (muro de la tienda) 221 con respecto a la imagen.
En la figura 8, el punto (X1, Y1) es la posición en la imagen de la que se capt� la imagen (es decir: la posición del carro de compras), el punto (Xs, Ys) es la posición del centro del símbolo de sincronización del código de barras en la imagen, y el punto (Xe, Ye) es la posición del centro del último segmento del código de barras. Los puntos se determinan basándose en la ubicación de sus p�xeles con respecto a la esquina inferior izquierda (0,0) de la imagen. Además, la línea de (X1, Y1) a (X1, Ys) recorre verticalmente la imagen y representa la dirección a la que el carro de compras estaba apuntando cuando se capt� la imagen. La figura muestra asimismo la posición de la pared de la tienda 221 con respecto a la imagen.
La orientación y los datos de ubicación a calcular a partir de la imagen comprenden los ángulos 802 y 804 (en grados) y la distancia de 805 (en unidades de distancia de imagen). El ángulo 802 es la "orientación de la imagen del carro / código de barras" en grados y el ángulo de la dirección a la que el carro est� apuntando con respecto al código de barras. El ángulo 804 es el "ángulo de la imagen del carro / código de barras", que es el ángulo que forma el carro con el objetivo del código de barras. La distancia 805 es el "radio de la imagen del carro / código de barras", que es la distancia en la imagen (en unidades de imagen) del carro al objetivo del código de barras. El ángulo 804 y la distancia 805 constituyen las "coordenadas polares de la imagen del carro / código de barras" y son las coordenadas polares (en unidades de distancia de imagen) del centro de la imagen con respecto al centro del símbolo de sincronización y una línea que pasa por la dimensión larga del código de barras.
El ángulo 802 ("orientación de la imagen del carro / código de barras") es la dirección hacia la que el carro apunta con respecto al código de barras y es el ángulo entre una línea vertical a través del centro de la imagen (X1, Y1) (que representa la dirección hacia la que el carro apunta con respecto a la imagen) y una línea que se extiende a lo largo de la longitud del código de barras. Para determinar el ángulo 802, en primer lugar se determina el ángulo 801. El ángulo 801 es la "orientación de la imagen del código de barras" y representa el ángulo que forma una línea que se extiende a lo largo de la longitud del código de barras con una línea horizontal de la imagen que se extiende a través del centro del símbolo de sincronización basándose en el esquema descrito haciendo referencia a la figura 7. El ángulo 801 se determina utilizando la posición del centro del símbolo de sincronización (Xs, Ys) y la posición del centro de un elemento distinto del código de barras, en el presente ejemplo, el del elemento del código de barras último o extremo (Xe, Ye). Utilizando dichas dos posiciones, se calcula el ángulo 801 empleando trigonometría básica, considerando un triángulo rectángulo definido por los puntos (Xs, Ys), (Xe, Ye) y (Xe, Ys). Por ejemplo, para seguir con el esquema de la figura 7 (las coordenadas de los distintos elementos del código de barras se eliminan de los del símbolo de sincronización), se puede calcular el ángulo 801 utilizando la ecuación tan-1((Ye-Ys)/(Xe-Xs)). Además (Ye-Ys) y (Xe-Xs) son ambos negativos y, como resultado de ello, el ángulo se encuentra en el cuadrante 707 de la figura 7. Por lo tanto, es necesario ajustar el ángulo calculado en +180 grados. Una vez se conoce el ángulo 801, se determina el ángulo 802 basándose en que la suma ajustada de los ángulos 801 y 802 es de 270 grados. Se debe tener en cuenta que la suma de los ángulos 801 y 802 es de 270 grados puesto que el ángulo que forma la línea de referencia horizontal que pasa por el centro del símbolo de sincronización con la línea que se extiende verticalmente la imagen desde X1, Y1 hasta la línea horizontal, en la figura 7, corresponde a 270 grados.
El ángulo 804 es el ángulo que forma una línea que procede del centro de la imagen y se dirige al centro del símbolo de sincronización con una línea que se extiende a lo largo de la longitud del código de barras. Para determinar el ángulo 804, en primer lugar se determina el ángulo 803. El ángulo 803 es el ángulo que forma una línea horizontal de la imagen que se extiende a través del centro del símbolo de sincronización con una línea que se extiende desde el centro de la imagen hasta el centro del símbolo de sincronización. Utilizando los mismos principios trigonométricos empleados para determinar el ángulo 801, se puede calcular el ángulo 803 utilizando la ecuación tan-1(Y1-Ys)/(X1-Xs) ajustada en +180 grados. Una vez se conoce el ángulo 803, se calcula el ángulo 804 como la diferencia entre los ángulos 803 y 801.
Por último, la distancia 805 representa la distancia (en unidades de distancia de imagen) del carro de compras al centro del símbolo de sincronización y es la longitud de la línea del centro de la imagen (X1, Y1) y el centro del símbolo de sincronización (Xs, Ys). Ello se puede determinar utilizando trigonometría básica con el triángulo rectángulo definido por los puntos (X1, Y1), (Xs, Ys) y (X1, Ys). Por ejemplo se puede calcular la distancia 805 a partir de la ecuación (Ys-Y1)/(sen(ángulo 803)).
Se debe tener en cuenta que, en la figura 8, los ángulos 802 y 804 son de aproximadamente 65 y 45 grados respectivamente. Se debe tener en cuenta además que en la forma de realización preferida de la presente invención las unidades de las coordenadas X e Y de las imágenes son p�xeles.
La figura 9 es la figura 8 que se ha girado de tal modo que el punto de referencia físico 220 se encuentra en la parte inferior izquierda de la figura y la línea de referencia física (muro de la tienda) 221 es una línea horizontal a lo largo de la parte inferior de la figura. Debido a dicha rotación, el código de barras de la figura 9 coincide con la orientación del código de barras en la tienda. El código de barras de la figura 9 es el código de barras 206 de la figura 2 que, según el esquema de la figura 7, se puede observar orientado formando 90 grados con respecto al muro de la tienda
221.
Adem�s, la figura 9 comprende marcas que se utilizan para describir cómo se determinan la "ubicación del carro / tienda" y la "orientación del carro / tienda". Por consiguiente, en la figura 9 las marcas de las coordenadas se basan en ubicaciones de la tienda con respecto al punto de referencia 220. En comparación con la figura 8, el punto (Xs, Ys), la ubicación del símbolo de sincronización, es ahora el punto (Xb, Yb), la "ubicación del código de barras / tienda" y el punto (X1, Y1) es ahora el punto (Xc, Yc), la "ubicación del carro / tienda". Además, la distancia 805 es ahora la distancia 805', que es la distancia 805 pero ajustada a la escala de las unidades del sistema de coordenadas de la imagen de las unidades del sistema de coordenadas. Los ángulos 802 y 804 son los mismos de la figura 8 ya que estos se mantienen con la rotación. El ángulo 902 es la "orientación del código de barras / tienda" y el ángulo 901 es la "orientación del carro / tienda". Se requiere para determinar el valor de (Xc, Yc) y el ángulo 901.
La "orientación del carro / tienda" (ángulo de 901) en grados se obtiene combinando de la "orientación de la imagen del carro / código de barras" (ángulo de 802) con la "orientación del carro / código de barras" (ángulo de 902). La "orientación del carro / código de barras" se obtiene utilizando la descodificaci�n del código de barras para preparar los índices en una base de datos o a partir de la información que se codifica directamente en el código de barras. Se debe tener en cuenta que el ángulo 802 ser� cero o 180 grados si el carro de compras se alinea en paralelo con el código de barras.
Por consiguiente:
"orientación del carro / tienda" = "orientación de la imagen del carro / código de barras" + "orientación del código de barras / tienda"
o
�ngulo 901 = ángulo 802 + ángulo 902
La "ubicación del carro / tienda" en unidades del sistema de coordenadas de la tienda se determina combinando la "orientación del código de barras / tienda", la "ubicación del código de barras / tienda", y las "coordenadas polares de la imagen del carro / código de barras" ajustando la escala de las unidades de imagen a las unidades de coordenadas de la tienda.
La distancia 805 ("radio de la imagen del carro / código de barras") de la figura 8 se ajusta a la escala de la distancia 805' de la figura 9 convirtiendo la distancia 805 de las unidades de la imagen (por ejemplo: p�xeles) a las unidades del sistema de coordenadas de la tienda (por ejemplo: metros). Por consiguiente, se hace referencia a la distancia 805' como "radio del carro / código de barras" Por ejemplo, si la longitud de un símbolo de sincronización se conoce en ambos conjuntos de unidades, el factor de escala se puede determinar a partir de los mismos. En este caso, se almacena la longitud de un símbolo de sincronización en la base de datos con los datos de la ubicación física del código de barras y la longitud del símbolo de sincronización en unidades de p�xel determinada a partir de la imagen. Alternativamente, se puede utilizar la longitud de cualquier aspecto del código de barras que se conozca o se pueda determinar en ambos conjuntos de unidades, por ejemplo, la longitud de un segmento o de todo el código de barras.
Ahora se conoce el desplazamiento con respecto a la "ubicación del carro / tienda" (Xc, Yc) desde la "ubicación del código de barras / tienda" (Xb, Yb), pero en coordenadas polares ("coordenadas polares del carro, código de barras y tienda"). Las coordenadas polares (ángulo, radio) comprenden el ángulo 903 ("ángulo del carro / tienda") y la distancia 805' ("radio del carro / código de barras tienda"), siendo el ángulo 903 el ángulo 804 ("ángulo de la imagen del carro / código de barras") + el ángulo 902 ("orientación código de barras / tienda"). Sin embargo en el sistema de coordenadas x e y de la tienda, se puede expresar el desplazamiento como ((Xc-Xb), (Yc-Yb).
Para convertir las coordenadas polares a coordenadas x e y se pueden utilizar las ecuaciones siguientes
X = r cos (h)
Y = r sen (h)
en las que h es el ángulo y r el radio de las coordenadas polares.
Por consiguiente, en el caso del desplazamiento de la "ubicación del carro / tienda" (Xc, Yc) desde la "ubicación del código de barras / tienda", dichas ecuaciones se pueden reescribir, con X como (Xc-Xb), Y como (Yc-Yb), r como la distancia 805' ("radio del carro / código de barras tienda") y h como el ángulo 903 ("ángulo código de barras / tienda"), del siguiente modo:
(Xc - Xb) = distancia 805' * cos (ángulo 903)
(Yc - Yb) = distancia 805' * sen (ángulo 903)
y por lo tanto las coordenadas (Xc, Yc) de la "ubicación del carro / tienda" se pueden determinar a partir de:
Xc = Xb + distancia 805' * cos (ángulo 903)
Yc = Yb + distancia 805' * sen (ángulo 903)
en las que (Xb, Yb) es la "ubicación del código de barras / tienda" y el ángulo 903 es el ángulo 804 ("ángulo de la imagen del carro / código de barras") + el ángulo 902 ("orientación código de barras / tienda").
Por consiguiente, se ha determinado la "ubicación del carro / tienda" (Xc, Yc) y la "orientación del carro / tienda" (ángulo 901) desde la que se capt� la imagen de la figura 4.
Se debe tener en cuenta que el tamaño de cada sección del código de barras y la longitud total del código de barras pueden variar según la aplicación. Por ejemplo se puede determinar el tamaño según la distancia esperada de la cámara desde el código de barras cuando se capta una imagen, la resolución de la cámara utilizada y la capacidad del software utilizado para interpretar la imagen a fin de localizar una lectura del código de barras. Por ejemplo, basándose un carro de compras normal que soporte la cámara 4 pies sobre el piso, se ha comprobado que funciona correctamente una distancia entre la cámara y el código de barras (con respecto a la altura del techo de la tienda) de 8 a 12 pies, la utilización de una imagen de una cámara de 640 x 480 p�xeles (formato VGA) y un tamaño de sección de 3/4 pulgadas por 3/4 pulgadas. Además, dicho tamaño es compatible con la estructura met�lica normal utilizada en los techos suspendidos. Se puede disponer un techo más elevado aumentando el brillo del iluminador IR (302 de la figura 3) y/o aumentando el tamaño de las secciones retrorreflectantes (101 de la figura 1) y/o aumentando la resolución de la cámara.
Las figuras 10a, 10b y 10c son ilustraciones de imágenes que se pueden utilizar en una ampliación de la forma de realización preferida de la presente invención. Ello implica la utilización de una pluralidad de imágenes para reducir las interferencias de la luz en una imagen de un objetivo de código de barras retrorreflectante que resulte útil, por ejemplo, en situaciones en las que dichas interferencias sean problem�ticas. La figura 10a muestra una primera imagen que se capt� sin utilizar luz infrarroja para iluminar un objetivo retrorreflectante y, como resultado de ello, la imagen comprende únicamente los datos de la luz de fondo. Este ejemplo pretende mostrar una luz fluorescente 1001 en la esquina inferior derecha de la imagen. La figura 10b muestra una imagen de la misma posición pero que se capt� con luz infrarroja encendida y, como resultado de ello, la imagen comprende tanto la luz de fondo como la luz infrarroja reflejada por el objetivo de código de barras retrorreflectante 1002. Ello permite obtener la imagen 10c, que es la imagen de la figura 10b pero eliminando los datos de fondo de la imagen de la figura 10a. Como resultado de ello, la imagen de la figura 10c comprende únicamente la luz infrarroja reflejada que en el presente ejemplo es únicamente la luz infrarroja reflejada por el objetivo de código de barras retrorreflectante. Por consiguiente se han eliminado las interferencias de la imagen 10a.
La figura 11 muestra una imagen que comprende dos objetivos de código de barras retrorreflectantes. En otra ampliación de la forma de realización preferida de la presente invención, dicha imagen se utiliza para calibrar una disposición de código de barras recién instalada o recientemente modificada. Si se conoce la ubicación (coordenadas X e Y) de un primer código de barras 1101, se puede determinar la ubicación de un segundo código de barras 1102 midiendo el número de p�xeles X e Y entre el primer y el segundo código de barras, y multiplicando las longitudes de los p�xeles por el factor de escala (por ejemplo, pulgadas por p�xel). Por consiguiente, si se conoce la ubicación en una tienda de un código de barras, se puede determinar la ubicación de cualquier código de barras que puede estar comprendido en una imagen de dicho código de barras. Dicho procedimiento se puede repetir para cualquier código de barras con una ubicación determinada y, como resultado de ello, si los códigos de barras se disponen adecuadamente en toda la tienda, se puede determinar la ubicación de cada código de barras siempre que se conozca la ubicación de por lo menos un código de barras. Por ejemplo, haciendo referencia a la figura 3, si se conoce la ubicación del código de barras 203 y se capta una imagen que comprende los códigos de barras 203 y 205, se puede determinar la posición del código de barras 205. Por lo tanto, si se capta una imagen que comprende los códigos de barras 205 y 206, se puede determinar la posición del código de barras 206. Se puede repetir dicho procedimiento para determinar la posición del código de barras 204 y, además, en una tienda grande se podría utilizar para determinar la posición de todos los códigos de barras de la tienda. Si un código de barras no aparece simultáneamente en la imagen con un código de barras de ubicación conocida, se pueden utilizar como puntos de referencia otros objetos que capta el generador de imágenes (entre ellos las luces), es decir, se mide la distancia X e Y de un punto de referencia a un código de barras de ubicación conocida y se añade a la distancia X e Y del punto de referencia a un código de barras de ubicación desconocida.
Adem�s, haciendo referencia a la figura 7, en otra ampliación de la forma de realización preferida de la presente invención, se utiliza la imagen para comprobar la calibración del sistema. Por ejemplo, si se conoce la ubicación de ambos códigos de barras retrorreflectantes, se puede utilizar uno de los códigos de barras retrorreflectante para determinar la ubicación del otro. La ubicación determinada se puede comparar a continuación con la ubicación conocida de los otros códigos de barras retrorreflectantes para comprobar si la posición determinada es exacta.
Se debe tener en cuenta que un experto en la materia apreciar� que son posibles muchas variaciones en la forma de realización preferida de la presente invención sin apartarse de la presente invención.
Por ejemplo, un objetivo de código de barras puede tomar cualquier forma que codifique datos legibles que se puedan utilizar tanto para identificar el objetivo como para determinar la orientación del objetivo. Se debe tener en cuenta que ello no requiere una forma alargada, por ejemplo, se podría utilizar asimismo un objetivo circular siempre que presente una orientación discernible a partir de la que se pueda determinar una dirección de visualización.
Adem�s, por ejemplo, se podría unir el código de barras al techo de una tienda utilizando otros medios, por ejemplo adhesivos, almohadillas de velcro, ligaduras, etc.
Adem�s, resulta posible identificar y codificar un objetivo de código de barras en algunas aplicaciones: la utilización de secciones retrorreflectantes y no retrorreflectantes puede no ser necesaria y, alternativamente, se pueden utilizar distintos colores. Por ejemplo, ello puede depender de factores tales como las condiciones lumínicas cuando se capta una imagen, la resolución de la cámara utilizada y/o la capacidad del software utilizado para distinguir los objetos.
Se debe tener en cuenta en una forma de realización alternativa, el sistema 300 de la figura 3 se podría montar, por ejemplo, en una posición fija conocida y unir un objetivo del código de barras retrorreflectante a un carro de compras
o cualquier otro dispositivo móvil. Sería posible determinar una posición del carro / dispositivo móvil basándose en una imagen tomada del objetivo de código de barras. Además, por ejemplo, pueden variar los elementos del sistema 300, de hecho, se podría utilizar cualquier sistema que pueda capturar y analizar una imagen. Por ejemplo, se podría utilizar una cámara de vídeo de color o, alternativamente, una cámara digital que se dirigiera mediante el microcontrolador en lo que se refiere a cuándo obtener una imagen. Se debe tener en cuenta que si se utiliza una cámara digital, el comparador analógico 305 y el separador de sincronización de vídeo 306 no son necesarios y la conversión de la imagen a una imagen binaria se puede realizar mediante el microprocesador o utilizando lógica digital.
Se debe tener en cuenta además, haciendo referencia a las figuras 5 y 6, que puede variar el orden de algunas de las etapas y que además algunas etapas podrían procesarse en algún otro lugar. Por ejemplo, en la figura 5, se puede invertir el orden de las etapas 505 y 506 y además las etapas 504 y 505 son opcionales.
Adem�s, se debe tener en cuenta que un experto en la materia prever� una pluralidad de alternativas para el cálculo descrito para determinar la ubicación y la orientación de un carro de compras tal como se ha descrito haciendo referencia a las figuras 6, 7 y 8.
Adem�s, se debe tener en cuenta que, aunque la forma de realización preferida de la presente invención se ha descrito haciendo referencia a la determinación de la ubicación de un carro de compras en una tienda, un experto en la materia prever� que se podrían utilizar otras formas de realización de la presente invención para determinar la posición de un objeto móvil dentro de una zona definida, por ejemplo, un coche en un aparcamiento. Dicho método se podría utilizar con las cámaras existentes dispuestas en ubicaciones conocidas. Por ejemplo, se podría utilizar con las cámaras de seguridad existentes.
La presente invención puede consistir en una forma de realización totalmente de hardware, una forma de realización totalmente de software o una forma de realización que contenga elementos de hardware y de software. En una forma de realización preferida, la presente invención se implementa en software, que comprende, pero sin limitarse al mismo, firmware, software residente, microc�digos, etc.
Adem�s, la presente invención puede consistir en un producto de programa inform�tico accesible desde un medio utilizable por un ordenador o legible por un ordenador que proporcione un código de programa para utilizar mediante, o junto con, un ordenador o cualquier sistema de ejecución de instrucciones. En la presente descripción, un medio utilizable por un ordenador o legible por un ordenador puede ser cualquier aparato que pueda contener, almacenar, comunicar, propagar o transportar el programa para utilizar el mismo mediante, o junto con, el sistema, aparato o dispositivo de ejecución de instrucciones.
El medio puede ser un sistema (o aparato o dispositivo) electrónico, magnético, óptico, electromagnético, de infrarrojos o semiconductor o un medio de propagación. Los ejemplos de medio legible por un ordenador comprenden un semiconductor o memoria de estado sólido, cinta magnética, un disquete de ordenador extra�ble, una memoria de acceso aleatorio (RAM), una memoria de solo lectura (ROM), un disco magnético rígido y un disco óptico. Los ejemplos actuales de discos ópticos comprenden un disco compacto, una memoria de solo lectura (CD-ROM), un disco compacto regrabable (CD- R/W) y un DVD.
Un sistema de procesamiento de datos apto para almacenar y/o ejecutar código de programas comprender� por lo menos un procesador acoplado directa o indirectamente a elementos de memoria a través de un bus del sistema. Los elementos de memoria pueden comprender la memoria local utilizada durante la ejecución real del código de programa, la memoria masiva y las memorias cach� que proporcionan el almacenamiento temporal de por lo menos algún código de programa para reducir el número de veces que debe recuperarse el código desde la memoria masiva durante la ejecución.
Se pueden acoplar al sistema unos dispositivos de entrada / salida o E/S (que comprenden, pero sin limitarse a los mismos, teclados, pantallas, dispositivos de puntero, etc.), directamente o mediante controladores de intervención E/S.
Se pueden acoplar asimismo al sistema adaptadores de red para que el sistema de procesamiento de datos pueda conectarse a otros sistemas de procesamiento de datos o impresoras remotas o dispositivos de almacenamiento a través de redes privadas o públicas. Los m�dems, el módem de cable y las tarjetas de Ethernet constituyen únicamente algunos de los tipos de adaptadores de red disponibles en la actualidad.
En resumen, la presente invención proporciona un método, un aparato y un producto de programa inform�tico destinado a obtener la ubicación de, por ejemplo, un dispositivo móvil. Se obtiene una imagen de un objetivo en un espacio definido, los datos de codificación del destino desde el que se puede determinar su ubicación en el espacio definido. Se determina la posición de un punto de referencia de la imagen que representa la ubicación de, por ejemplo, un dispositivo móvil, con respecto al objetivo. Se determina la posición del dispositivo móvil en las etapas definidas combinando la ubicación del objetivo en el espacio definido con una versión escalada apropiadamente de la posición relativa del punto de referencia al objetivo de la imagen.

Claims (12)

  1. REIVINDICACIONES
    1. Método que comprende:
    obtener una imagen de un objetivo en un espacio definido (501); analizar la imagen para obtener los datos de identificación y los datos de la posición de la imagen, comprendiendo los datos de la posición de la imagen una posición en la imagen de un punto de referencia con respecto al objetivo (502); utilizar los datos de identificación para obtener los datos de la ubicación del objetivo que comprenden una ubicación del objetivo en el espacio definido (503); y determinar la ubicación del punto de referencia en el espacio definido combinando los datos de la posición de la imagen y los datos de la ubicación del objetivo (505);
    caracterizado porque:
    el objetivo es reflectante (101) y la etapa de obtener una imagen de un objetivo comprende además:
    provocar que una fuente luminosa (302) ilumine el objetivo con el propósito de obtener una imagen del objetivo; y obtener una primera imagen de una ubicación determinada y, a falta de una fuente luminosa (302), iluminar el objetivo de tal modo que dicho objetivo sea menos perceptible en la imagen; obtener una segunda imagen desde la ubicación determinada y con la fuente luminosa (302) iluminando el objetivo de tal modo que el objetivo es más perceptible en la imagen; y obtener la imagen del objetivo eliminando la primera imagen de la segunda imagen.
  2. 2.
    Método según la reivindicación 1, en el que el punto de referencia representa la ubicación en la que se capt� la imagen.
  3. 3.
    Método según la reivindicación 2 en el que los datos de ubicación comprenden además datos de orientación del espacio definido con respecto al objetivo en el espacio definido y el método comprende además:
    analizar la imagen para obtener datos de orientación de la imagen que comprenden una dirección desde la que se capt� la imagen con respecto al objetivo (306); y determinar la dirección desde la que se capt� la imagen en el espacio definido combinando los datos de la orientación de la imagen y los datos de la orientación del espacio definido (305).
  4. 4.
    Método según la reivindicación 1, en el que la imagen comprende un segundo objetivo y el punto de referencia representa el segundo objetivo.
  5. 5.
    Método según la reivindicación 1, en el que, además, la utilización de los datos de identificación comprende la utilización de los datos de identificación para acceder a una entrada de base de datos que comprende los datos de ubicación del objetivo.
  6. 6.
    Método según la reivindicación 1, en el que el objetivo es un código de barras.
  7. 7.
    Método según la reivindicación 6, en el que el espacio definido es una tienda y el punto de referencia representan un carro de compras.
  8. 8.
    Aparato de procesamiento de datos que comprende:
    un dispositivo de captura de imágenes (303) destinado a obtener una imagen de un objetivo que codifica los datos de identificación; y por lo menos un procesador destinado a: analizar la imagen para obtener los datos de identificación y los datos de la posición de la imagen, comprendiendo los datos de la posición de la imagen una posición en la imagen de un punto de referencia con respecto al objetivo (306); utilizar los datos de identificación para obtener los datos de la ubicación del objetivo que comprenden una ubicación del objetivo en el espacio definido; y determinar la ubicación del punto de referencia en el espacio definido combinando los datos de la posición de la imagen y los datos de la ubicación del objetivo;
    caracterizado porque
    el dispositivo de captura de imágenes es una cámara de vídeo y el aparato comprende además:
    un comparador (305) destinado a recibir la imagen desde el dispositivo de captura de imágenes y emitir una señal binaria para cada p�xel de la imagen, basada en un nivel de brillo predeterminado del p�xel, para convertir la imagen del dispositivo de captura de imágenes en una imagen binaria; y
    un separador de sincronización de vídeo (306) destinado a indicar las señales binarias que indican el inicio de una unidad de imagen y las señales binarias que indican el inicio de una nueva línea de la imagen; en el que el comparador (305) comprende además analizar la imagen para variar el nivel de brillo predeterminado a fin de mejorar las características del análisis de la imagen.
  9. 9. Aparato según la reivindicación 8, que comprende además:
    un dispositivo de iluminación (302) destinado a iluminar el objetivo.
    10 10. Aparato según la reivindicación 8, en el que, el dispositivo de iluminación se puede accionar para que emita una pluralidad de niveles de iluminación (307) y continuar analizando la imagen para variar la emisión del nivel de iluminación desde el dispositivo de iluminación.
  10. 11. Aparato según la reivindicación 8, que comprende además: un dispositivo de comunicación destinado a enviar 15 datos de identificación y datos de desplazamiento de la imagen al procesador para utilizar los datos de identificación.
  11. 12.
    Aparato según la reivindicación 8, que comprende, además, un carro de compras (211) sobre el que se montan el dispositivo de captura de imágenes (303) y un procesador destinado a analizar imágenes.
  12. 13.
    Programa inform�tico que se puede cargar en la memoria interna de un ordenador digital, que comprende partes
    20 de un código de software destinado a realizar, cuando dicho producto se ejecuta en un ordenador, las etapas del método según cualquiera de las reivindicaciones 1 a 7.
    REFERENCIAS CITADAS EN LA DESCRIPCIÓN
    5 La presente lista de referencias citadas por el solicitante se presenta únicamente para la comodidad del lector. No forma parte del documento de patente europea. Aunque la recopilación de las referencias se ha realizado muy cuidadosamente, no se pueden descartar errores u omisiones y la Oficina Europea de Patentes declina toda responsabilidad en este sentido.
    10 Documentos de patente citados en la descripción
ES06830783.4T 2006-01-05 2006-12-21 Seguimiento de dispositivo móvil Active ES2476424T3 (es)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US11/325,952 US7681796B2 (en) 2006-01-05 2006-01-05 Mobile device tracking
US325952 2006-01-05
PCT/EP2006/070087 WO2007077151A2 (en) 2006-01-05 2006-12-21 Mobile device tracking

Publications (1)

Publication Number Publication Date
ES2476424T3 true ES2476424T3 (es) 2014-07-14

Family

ID=38100237

Family Applications (1)

Application Number Title Priority Date Filing Date
ES06830783.4T Active ES2476424T3 (es) 2006-01-05 2006-12-21 Seguimiento de dispositivo móvil

Country Status (8)

Country Link
US (1) US7681796B2 (es)
EP (1) EP1969436B1 (es)
JP (1) JP2009522563A (es)
CN (1) CN101351754B (es)
CA (1) CA2636233A1 (es)
ES (1) ES2476424T3 (es)
TW (1) TWI411799B (es)
WO (1) WO2007077151A2 (es)

Families Citing this family (53)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7845560B2 (en) * 2004-12-14 2010-12-07 Sky-Trax Incorporated Method and apparatus for determining position and rotational orientation of an object
US8381982B2 (en) * 2005-12-03 2013-02-26 Sky-Trax, Inc. Method and apparatus for managing and controlling manned and automated utility vehicles
US20070225879A1 (en) * 2006-03-22 2007-09-27 French John R System and method for monitoring and managing an environment
JP4949134B2 (ja) * 2007-06-18 2012-06-06 富士フイルム株式会社 カメラ位置認識システム
US20090094140A1 (en) * 2007-10-03 2009-04-09 Ncr Corporation Methods and Apparatus for Inventory and Price Information Management
US8210435B2 (en) * 2008-01-14 2012-07-03 Sky-Trax, Inc. Optical position marker apparatus
US20090192921A1 (en) * 2008-01-24 2009-07-30 Michael Alan Hicks Methods and apparatus to survey a retail environment
US8565913B2 (en) * 2008-02-01 2013-10-22 Sky-Trax, Inc. Apparatus and method for asset tracking
ITTO20080489A1 (it) * 2008-06-23 2009-12-24 Bromas S R L Sistema di guida a infrarossi per carrelli a guida automatica
CN101340661B (zh) * 2008-08-14 2011-12-28 北京中星微电子有限公司 实现导游控制的移动设备和服务器以及导游控制方法
US20110045801A1 (en) * 2008-11-25 2011-02-24 Parker Ii Lansing Arthur System, method and program product for location based services, asset management and tracking
US8374626B2 (en) * 2009-09-10 2013-02-12 Samsung Electronics Co., Ltd System and method for providing location information service using mobile code
US8939369B2 (en) 2011-01-24 2015-01-27 Datalogic ADC, Inc. Exception detection and handling in automated optical code reading systems
US8651389B2 (en) 2011-02-02 2014-02-18 Infosys Limited System and method for identifying and tracking shopping carts
US11288472B2 (en) 2011-08-30 2022-03-29 Digimarc Corporation Cart-based shopping arrangements employing probabilistic item identification
CN103245337B (zh) * 2012-02-14 2016-06-01 联想(北京)有限公司 一种获取移动终端位置的方法、移动终端和位置检测系统
CN103292779B (zh) * 2012-02-28 2015-06-24 联想(北京)有限公司 一种测量距离的方法及图像获取设备
CN103064085B (zh) * 2012-12-20 2015-11-25 深圳市华星光电技术有限公司 定位方法及定位装置
US20140244207A1 (en) * 2013-02-28 2014-08-28 Michael Alan Hicks Methods and apparatus to determine in-aisle locations in monitored environments
WO2014145953A2 (en) * 2013-03-15 2014-09-18 Proximity Concepts Llc Systems and methods involving proximity, mapping, indexing, mobile, advertising and/or other features
WO2014203593A1 (ja) * 2013-06-21 2014-12-24 株式会社エルム 遠隔操縦無人飛行体の制御システム
WO2015102527A1 (en) * 2014-01-05 2015-07-09 Yousefi Shahrouz Real-time 3d gesture recognition and tracking system for mobile devices
CN104035115B (zh) * 2014-06-06 2017-01-25 中国科学院光电研究院 一种视觉辅助的卫星导航定位方法及定位机
CN106461400B (zh) 2014-06-27 2019-08-16 克朗设备公司 使用关联特征对的车辆位置确定或导航
WO2016083937A1 (en) * 2014-11-24 2016-06-02 Gudi Manoj Positioning method and system based on wireless signals
US20180099846A1 (en) 2015-03-06 2018-04-12 Wal-Mart Stores, Inc. Method and apparatus for transporting a plurality of stacked motorized transport units
WO2016142794A1 (en) 2015-03-06 2016-09-15 Wal-Mart Stores, Inc Item monitoring system and method
US20160260049A1 (en) 2015-03-06 2016-09-08 Wal-Mart Stores, Inc. Shopping facility assistance systems, devices, and methods to dispatch and recover motorized transport units that effect remote deliveries
WO2016203282A1 (en) 2015-06-18 2016-12-22 The Nielsen Company (Us), Llc Methods and apparatus to capture photographs using mobile devices
US10796262B2 (en) 2015-09-30 2020-10-06 The Nielsen Company (Us), Llc Interactive product auditing with a mobile device
US10012509B2 (en) * 2015-11-12 2018-07-03 Blackberry Limited Utilizing camera to assist with indoor pedestrian navigation
CA2961938A1 (en) 2016-04-01 2017-10-01 Wal-Mart Stores, Inc. Systems and methods for moving pallets via unmanned motorized unit-guided forklifts
CN105702083B (zh) * 2016-04-13 2018-08-14 重庆邮电大学 基于分布式视觉的停车场-车辆协同智能停车系统及方法
WO2018038791A1 (en) 2016-08-24 2018-03-01 Wal-Mart Stores, Inc. Cart inventory system and associated methods
CN106468553B (zh) * 2016-08-30 2019-11-12 上海擎朗智能科技有限公司 一种基于路标的移动物体的定位方法
CN106403926B (zh) * 2016-08-30 2020-09-11 上海擎朗智能科技有限公司 一种定位方法和系统
US10683171B2 (en) 2016-09-30 2020-06-16 Staples, Inc. Hybrid modular storage fetching system
CN109791477A (zh) 2016-09-30 2019-05-21 史泰博公司 混合式模块化存储提取系统
US10589931B2 (en) 2016-09-30 2020-03-17 Staples, Inc. Hybrid modular storage fetching system
CN106595639B (zh) * 2016-12-27 2019-09-20 纳恩博(北京)科技有限公司 定位系统及其定位方法和装置及机器人
US10818031B2 (en) * 2017-11-22 2020-10-27 Blynk Technology Systems and methods of determining a location of a mobile container
US10375667B2 (en) * 2017-12-07 2019-08-06 Cisco Technology, Inc. Enhancing indoor positioning using RF multilateration and optical sensing
US11084410B1 (en) 2018-08-07 2021-08-10 Staples, Inc. Automated guided vehicle for transporting shelving units
US11590997B1 (en) 2018-08-07 2023-02-28 Staples, Inc. Autonomous shopping cart
US11630447B1 (en) 2018-08-10 2023-04-18 Staples, Inc. Automated guided vehicle for transporting objects
US11180069B2 (en) 2018-12-31 2021-11-23 Staples, Inc. Automated loading of delivery vehicles using automated guided vehicles
US11119487B2 (en) 2018-12-31 2021-09-14 Staples, Inc. Automated preparation of deliveries in delivery vehicles using automated guided vehicles
US11124401B1 (en) 2019-03-31 2021-09-21 Staples, Inc. Automated loading of delivery vehicles
US10890918B2 (en) * 2019-04-24 2021-01-12 Innovation First, Inc. Performance arena for robots with position location system
US11062104B2 (en) * 2019-07-08 2021-07-13 Zebra Technologies Corporation Object recognition system with invisible or nearly invisible lighting
US11203370B2 (en) * 2020-03-11 2021-12-21 Gatekeeper Systems, Inc. Shopping cart monitoring using computer vision
CN112091980B (zh) * 2020-11-10 2021-03-05 杭州迦智科技有限公司 用于至少两个定位对象定位一致性方法、设备及存储介质
CN112804481B (zh) * 2020-12-29 2022-08-16 杭州海康威视系统技术有限公司 监控点位置的确定方法、装置及计算机存储介质

Family Cites Families (42)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE3332615A1 (de) 1982-10-21 1984-05-03 DAC Engineering Co. Ltd., Kyoto Optisch gefuehrtes fahrzeug
US4712556A (en) * 1982-11-22 1987-12-15 Intermedics, Inc. Pacemaker and method for ventricular rate limit operation and termination of pacemaker mediated tachycardia
GB8313338D0 (en) * 1983-05-14 1983-06-22 Gen Electric Co Plc Vehicle control
US4750123A (en) 1985-08-30 1988-06-07 Texas Instruments Incorporated Method for predicting tracking cameras for free-roaming mobile robots
JP2665738B2 (ja) 1986-07-11 1997-10-22 株式会社小松製作所 地点追従方式による無人移動機械の誘導方法
JPS63184876A (ja) * 1987-01-27 1988-07-30 Matsushita Electric Works Ltd 異常監視装置
US4790402A (en) * 1987-09-28 1988-12-13 Tennant Company Automated guided vehicle
US4860749A (en) * 1988-01-06 1989-08-29 Wayne State University Tachycardia detection for automatic implantable cardioverter/defibrillator with atrial and ventricular sensing capability
JPH01197808A (ja) * 1988-02-02 1989-08-09 Murata Mach Ltd 無人走行車の誘導装置
US4918607A (en) * 1988-09-09 1990-04-17 Caterpillar Industrial Inc. Vehicle guidance system
US4944298A (en) * 1989-05-23 1990-07-31 Siemens-Pacesetter, Inc. Atrial rate based programmable pacemaker with automatic mode switching means
US5051906A (en) * 1989-06-07 1991-09-24 Transitions Research Corporation Mobile robot navigation employing retroreflective ceiling features
US5076690A (en) * 1990-05-14 1991-12-31 Spectra-Physics Laserplane, Inc. Computer aided positioning system and method
US5202742A (en) * 1990-10-03 1993-04-13 Aisin Seiki Kabushiki Kaisha Laser radar for a vehicle lateral guidance system
JPH0667726A (ja) * 1992-08-13 1994-03-11 Nippon Yusoki Co Ltd 無人走行車の絶対位置取得方法
GB2284907B (en) 1993-12-18 1998-06-24 Central Systems & Automation L Navigation system for automatically guided vehicle
US5717469A (en) * 1994-06-30 1998-02-10 Agfa-Gevaert N.V. Video frame grabber comprising analog video signals analysis system
DE4429016A1 (de) 1994-08-16 1996-02-22 Linde Ag Navigation für fahrerlose Fahrzeuge
US5653738A (en) * 1995-01-13 1997-08-05 Pacesetter, Inc. DDI pacing with protection against induction of a pacemaker medicated retrograde rhythm
JP3017414B2 (ja) * 1995-06-30 2000-03-06 日本鋼管株式会社 コイル内径だれ検出方法及びその検出装置
US5753931A (en) * 1995-07-13 1998-05-19 Nike, Inc. Object imaging device and method using line striping
US6446865B1 (en) * 1995-09-21 2002-09-10 Temtec, Inc. Reflective badge security identification system
US5742263A (en) * 1995-12-18 1998-04-21 Telxon Corporation Head tracking system for a head mounted display system
US5812267A (en) * 1996-07-10 1998-09-22 The United States Of America As Represented By The Secretary Of The Navy Optically based position location system for an autonomous guided vehicle
US6411847B1 (en) * 1996-08-19 2002-06-25 Morton M. Mower Apparatus for applying cyclic pacing at an average rate just above the intrinsic heart rate
US5893882A (en) * 1996-12-17 1999-04-13 Medtronic, Inc. Method and apparatus for diagnosis and treatment of arrhythmias
DE69807508T2 (de) * 1997-05-30 2003-02-27 British Broadcasting Corp Positionsbestimmung
JPH1129299A (ja) * 1997-07-09 1999-02-02 Shinmeiwa Soft Technol Kk 車両の位置認識装置及び位置認識方法並びに物品の保管装置
FI981302A (fi) * 1998-06-08 1999-12-09 Nokia Telecommunications Oy Jäljitys matkaviestinjärjestelmässä
US6128533A (en) * 1999-03-22 2000-10-03 Pacesetter, Inc. Pacemaker with automatic PVARP adjustment during automatic mode switching
US6233485B1 (en) * 1999-06-14 2001-05-15 Intermedics Inc. Methods and apparatus for tachycardia rate hysteresis for dual-chamber cardiac stimulators
US6324422B1 (en) * 1999-11-17 2001-11-27 Pacesetter, Inc. Methods for sensing arrhythmias in a pacemaker/defibrillator and a pacemaker/defibrillator programmed to implement the same
US20020010694A1 (en) * 1999-12-23 2002-01-24 Nassir Navab Method and system for computer assisted localization and navigation in industrial environments
AU2001278132A1 (en) * 2000-08-02 2002-02-13 Sicel Technologies, Inc. Evaluation of irradiated foods and other items with telemetric dosimeters and associated methods
JP2002132886A (ja) * 2000-10-23 2002-05-10 Nippon Telegr & Teleph Corp <Ntt> ショッピングカートシステム
JP4271378B2 (ja) * 2001-01-30 2009-06-03 富士通株式会社 撮像装置
US7376461B2 (en) * 2002-10-18 2008-05-20 Cardiac Pacemakers, Inc. Dynamic mode switch for early detection of tachyarrhythmia
US7137558B2 (en) * 2003-02-20 2006-11-21 R.R. Donnelley & Sons Company Methods and apparatus for forming barcode characters
TWI228373B (en) * 2003-06-20 2005-02-21 Inventec Multimedia & Telecom Personal video recorder using GPS to trace a mobile unit and method thereof
KR100552691B1 (ko) * 2003-09-16 2006-02-20 삼성전자주식회사 이동로봇의 자기위치 및 방위각 추정방법 및 장치
JP2005315749A (ja) 2004-04-28 2005-11-10 Yamaha Motor Co Ltd 照明条件特定方法、部品認識装置、同装置を備えた表面実装機および部品試験装置
US20070164115A1 (en) * 2006-01-17 2007-07-19 Symboltechnologies, Inc. Automatic exposure system for imaging-based bar code reader

Also Published As

Publication number Publication date
US20070152057A1 (en) 2007-07-05
EP1969436B1 (en) 2014-04-09
EP1969436A2 (en) 2008-09-17
WO2007077151A2 (en) 2007-07-12
WO2007077151A3 (en) 2007-11-01
TW200813462A (en) 2008-03-16
JP2009522563A (ja) 2009-06-11
CA2636233A1 (en) 2007-07-12
CN101351754B (zh) 2011-04-13
TWI411799B (zh) 2013-10-11
CN101351754A (zh) 2009-01-21
US7681796B2 (en) 2010-03-23

Similar Documents

Publication Publication Date Title
ES2476424T3 (es) Seguimiento de dispositivo móvil
CN111465872B (zh) 用于光检测和测距的系统和方法
CN107406030B (zh) 影像投射装置
ES2646169T3 (es) Aparato de ayuda a la conducción para vehículo
JP7163085B2 (ja) 測量方法、測量装置およびプログラム
CN103329058B (zh) 车辆定位和引导系统
ES2926326T3 (es) Método para obtener información sobre una luminaria
EP3038012A1 (en) Signal for identifying traffic lights for computer vision
JP2008292397A (ja) 可視光通信を用いた位置情報提供システム
ES2925257T3 (es) Dispositivo y procedimiento para localizar un punto de medición con un dispositivo de captura de imágenes
ES2371151T3 (es) Dispositivo y método para la detección de ejes de ruedas.
JP2007010335A (ja) 車両位置検出装置及びシステム
JP2008056179A (ja) 列車位置検出装置
CN103049727A (zh) 条码识读解码模块和手持电子装置
JP4356573B2 (ja) レーダの設置情報の確認画面と調整画面の表示方法
ES2645504T3 (es) Determinación de al menos una característica de un vehículo
ES2735284A1 (es) Sistema y dispositivo de señales para la entrada y salida de vehículos de un aparcamiento
WO2021232971A1 (zh) 一种车辆定位方法及装置
JP2001101574A (ja) レーザセンサを用いた車両検出装置
JP2005274232A (ja) 位置検出装置、被検出器および位置検出システム
WO2020026980A1 (ja) 角度検出システムおよび角度検出方法
KR100898392B1 (ko) 이동체 추적 장치 및 방법
ES2391750B1 (es) Procedimiento y dispositivo de medida de velocidad de vehículos a partir de la captación de imágenes del paso de un vehículo
ES2602579T3 (es) Dispositivo optoelectrónico y método asociado
ES2358814B1 (es) Dispositivo para la medida de la retrorreflectividad en el infrarrojo cercano de superficies retrorreflectivas.