ES2891338T3 - Sistema universal de conducción robótica autónoma - Google Patents

Sistema universal de conducción robótica autónoma Download PDF

Info

Publication number
ES2891338T3
ES2891338T3 ES16789408T ES16789408T ES2891338T3 ES 2891338 T3 ES2891338 T3 ES 2891338T3 ES 16789408 T ES16789408 T ES 16789408T ES 16789408 T ES16789408 T ES 16789408T ES 2891338 T3 ES2891338 T3 ES 2891338T3
Authority
ES
Spain
Prior art keywords
vehicle
data
image data
road
operable
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
ES16789408T
Other languages
English (en)
Inventor
Hugo Guterman
Oded Yechiel
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
BG Negev Technologies and Applications Ltd
Original Assignee
BG Negev Technologies and Applications Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by BG Negev Technologies and Applications Ltd filed Critical BG Negev Technologies and Applications Ltd
Application granted granted Critical
Publication of ES2891338T3 publication Critical patent/ES2891338T3/es
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0246Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J11/00Manipulators not otherwise provided for
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • B25J9/1697Vision controlled systems
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/0088Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots characterized by the autonomous decision making process, e.g. artificial intelligence, predefined behaviours
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0212Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0268Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • General Physics & Mathematics (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Electromagnetism (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Business, Economics & Management (AREA)
  • Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Game Theory and Decision Science (AREA)
  • Medical Informatics (AREA)
  • Traffic Control Systems (AREA)
  • Control Of Driving Devices And Active Controlling Of Vehicle (AREA)
  • Navigation (AREA)

Abstract

Un sistema robótico (10) para conducir un vehículo (20) a un destino, comprendiendo el sistema robótico : un sistema de formación de imágenes (12) configurado y operable para adquirir datos de imágenes de al menos una parte del interior del vehículo, y datos de imágenes de los alrededores externos del vehículo; un sistema de manipulación de los actuadores (29) configurado y operable para acoplarse a los actuadores del vehículo (20) para cambiar de forma controlable los estados operativos de los mismos, caracterizado en que el sistema comprende además un sistema de control (11) configurado y operable para procesar y analizar los datos de imágenes adquiridos por el sistema de formación de imágenes (12) e identificar en los datos de imágenes de al menos una parte del interior del vehículo, datos de imágenes de los indicadores de es- tado del vehículo (20x) y determinar a partir de ellos al menos los datos de estado del vehículo; y un sopor- te (22) configurado para fijar fácil y rápidamente el citado sistema robótico (10) a un asiento del conductor (22a) del vehículo (20), el citado sistema de control (11) está configurado y es operable para determinar, a partir de los datos de imágenes del entorno externo del vehículo, los datos del estado de la carretera, y analizar los citados datos, al menos del estado del vehículo, y los citados datos del estado de la carretera para generar instrucciones de control para conducir el vehículo a lo largo de la citada carretera mediante el citado sistema de manipu- lación de los actuadores (29).

Description

DESCRIPCIÓN
Sistema universal de conducción robótica autónoma
Campo tecnológico
La presente invención se encuentra generalmente en el campo de los sistemas de conducción robótica.
Antecedentes
Conducir un vehículo de motor es una tarea relativamente tediosa, repetitiva y que requiere mucho tiempo (unas 250 horas anuales para un viajero medio de acuerdo con el informe de KPMG sobre "Coches de conducción autónoma: La próxima revolución", 2012) y costosa (en términos de recursos humanos). Alrededor del 93% de los accidentes de tráfico se deben a errores humanos, lo que también convierte la conducción de vehículos a motor en una tarea peligrosa. Los accidentes de tráfico se cobran cada año miles de víctimas y generan enormes costes (unos cientos de miles de millones de dólares al año, de acuerdo con el informe de KPMG) relacionados con la hospitalización, el tratamiento y la atención médica, y los daños del coche.
Se están desarrollando sistemas de conducción robótica para sustituir a los conductores humanos en diversas ta­ reas y aplicaciones, como por ejemplo, para probar el rendimiento de los vehículos, para operaciones militares, etc. Las soluciones propuestas hasta ahora suelen ser caras de implementar y muy difíciles de licenciar / autorizar para operar vehículos terrestres.
Se conocen algunos sistemas de conducción automatizada en la literatura de patentes, tales como los descritos en las Patente US números 4.742.720,5.172.589,5.270.628,5.363.027,5.394.743,5.816.106,5.821.718, 7.628.239 y 8.051.936 por ejemplo. Sinn embargo, estos sistemas de conducción automatizada requieren un opera­ dor humano para proporcionar el control y las instrucciones al sistema, con el fin de conducir el vehículo a lo largo de una pista / trayectoria predeterminada, y no están diseñados para proporcionar una plataforma universal que pueda ser utilizada con cualquier vehículo terrestre / de motor.
La publicación de patente estadounidense número 2010 / 057274 describe un equipo, un pedestal de control auto­ motor y un sistema para adaptar un vehículo automotor para su operación remota. El pedestal se monta en el lugar del asiento del conductor del vehículo para permitir el manejo tanto humano como remoto del mismo. El equipo in­ cluye el pedestal con un servo de dirección, un servo de freno hidráulico, un servo de control del acelerador y un actuador lineal de selección de marchas montado en el mismo. El equipo también puede incluir un sistema de con­ trol y un sistema de transmisión de vídeo para el funcionamiento a distancia.
La publicación de patente coreana n° 2013 - 0085235 describe un sistema de operación sin conductor de un vehícu­ lo configurado para tener un efecto que le permita poder conducir automáticamente sin un conductor por medio de la obtención de la información de conducción de los vehículos vecinos, tales como el reconocimiento de la carretera, los vehículos vecinos, el reconocimiento de objetos y el reconocimiento de señales de tráfico. El sistema de funcio­ namiento sin conductor está compuesto para poder realizar una conducción automática controlando un sistema de dirección, un sistema de aceleración y un sistema de frenado del vehículo mediante un ordenador de control del vehículo. El sistema de operación sin conductor de un vehículo comprende un dispositivo de radar; un dispositivo de detección de ondas de radio para reconocer la existencia de objetos vecinos y la distancia de los objetos con la detección de ondas de radio a la parte delantera, a ambos lados y a la parte trasera del vehículo; un extractor de información de conducción que observa la información de operación de conducción del vehículo y el movimiento del volante de conducción impulsada con la potencia del motor del vehículo por el ordenador de control, y extrae la in­ formación de conducción; un dispositivo de cámara que toma imágenes del interior y el exterior del vehículo y anali­ za y determina automáticamente los cambios de carril y el estado de las señales de tráfico, así como el estado de indicación de la iluminación del vehículo vecino mediante el análisis de imágenes; un dispositivo de navegación que extrae la información de localización del vehículo mediante el uso de GPS e indica la posición de conducción en el mapa; y un ordenador de funcionamiento sin conductor que ordena automáticamente el comando de control de fun­ cionamiento automático sin conductor a un ordenador de control del vehículo.
La publicación de patente US número 2010 / 214411 describe un sistema y un procedimiento de adquisición de información de una imagen de un vehículo en tiempo real en el que al menos un dispositivo de formación de imáge­ nes con capacidades avanzadas de medición de la luz se coloca a bordo de un vehículo, se proporciona un medio de procesamiento informático para controlar el dispositivo de formación de imágenes y las capacidades avanzadas de medición de la luz, las capacidades avanzadas de medición de la luz se utilizan para capturar una imagen de al menos una parte del vehículo, y los algoritmos de reconocimiento de imágenes se utilizan para identificar el estado o la posición actual de la parte correspondiente del vehículo.
Descripción general
Existe una necesidad en la técnica para sistemas de conducción automatizada que sean universales, en el sentido de sean capaces de acoplarse mecánicamente a cualquier tipo / modelo de vehículo terrestre / de motor y operar sus actuadores (volante de dirección, pedales y / o palancas), para conducir el vehículo hacia un destino. También existe la necesidad en la técnica de sistemas de conducción automatizada que puedan operar de forma autónoma un vehículo y conducirlo hacia un destino deseado sin comunicar datos con los sistemas de control y / o computarizados del vehículo y sin intervención humana en las tareas de operación del vehículo.
La presente invención proporciona un sistema robótico autónomo universal de bajo peso y bajo coste, fácil de mon­ tar y fácil de ensamblar, configurado y operable para operar un vehículo terrestre y conducirlo a un destino deseado. El sistema robótico de la presente invención está configurado y es operable para que se sujete a un asiento de con­ ductor de cualquier vehículo terrestre (por ejemplo, un sedán, una furgoneta, un camión, un tractor y otros similares), está acoplado mecánicamente a los pedales, al volante y / o a las palancas del vehículo (generalmente denomina­ dos en la presente memoria descriptiva como actuadores), y que adquiere y analiza continuamente datos de imáge­ nes del interior del vehículo y de su entorno exterior. El sistema robótico procesa los datos de la imagen adquirida, determina los datos del estado del vehículo y de la carretera y, basándose en los datos del estado del vehículo y de la carretera, determina los operadores / instrucciones de control. Los operadores / instrucciones de control son en­ tonces utilizados por el sistema para cambiar en consecuencia los estados de uno o más actuadores del vehículo, con el fin de conducir con seguridad el vehículo a lo largo de una ruta predeterminada hacia el destino.
El término actuadores, tal y como se utiliza en la presente memoria descriptiva, se refiere generalmente a los contro­ les mecánicos (por ejemplo, ruedas, palancas, mandos / conmutadores, etc.) utilizados para el funcionamiento de diferentes sistemas de un vehículo, tales como, pero no limitados a, un sistema de dirección de las ruedas, un sis­ tema de cambio de marchas, un sistema de aceleración, un sistema de frenos, un sistema de embrague, un sistema de encendido del motor, un sistema de luces del vehículo, un sistema de limpiaparabrisas, un sistema de freno de mano, y otros similares.
El término indicadores de estado, tal y como se utiliza en la presente memoria descriptiva, se refiere generalmente a los medios que indican el estado del vehículo, tales como los que se proporcionan en un panel de control del vehícu­ lo (por ejemplo, velocímetro, indicador de temperatura del motor, indicador de velocidad angular del motor, indicador de nivel de combustible, indicador de nivel de carga de la batería, y otros similares).
Los datos del estado de la carretera pueden ser indicativos de obstáculos externos (por ejemplo, vehículos / bicicle­ tas cercanos, peatones, islas de tráfico, y otros similares) y / o señales / luces de regulación del tráfico, identificados en la imagen adquirida del entorno externo del vehículo. Los datos sobre el estado de la carretera pueden incluir datos adicionales adquiridos por otros sensores y / o recibidos de forma inalámbrica (por ejemplo, por medio de una comunicación inalámbrica por Internet), como, por ejemplo, la carga de tráfico, las condiciones meteorológicas, las limitaciones de velocidad, la velocidad media de los vehículos aplicable en determinados tramos de carretera duran­ te ciertas horas del día, y otros similares.
Los datos del estado del vehículo pueden ser indicativos de la velocidad del vehículo, del estado del motor (tempera­ tura, velocidad angular), del estado de combustible y / o de la batería, y otros similares, como se identifican en la imagen adquirida del panel de control del vehículo. Opcionalmente, y en algunas realizaciones, preferiblemente algunos, o todos, los datos de estado del vehículo se reciben directamente del vehículo conectando el sistema robótico al bus de control del coche (si el citado bus está presente), ya sea mediante una conexión por cable, o de forma inalámbrica (por ejemplo, el bus CAN, también conocido como bus de red de área de control). Los datos sobre el estado del vehículo pueden incluir datos adicionales adquiridos por otros sensores y / o obtenidos de forma inalám­ brica, como, por ejemplo, el estado actual (desplazamiento angular) del volante, el estado actual de los pedales y / o de las palancas del vehículo, el historial de carga de la batería y otros similares.
Opcionalmente, y en algunas realizaciones, preferiblemente el sistema robótico recibe el destino del usuario por medio de un dispositivo de entrada adecuado y determina una ruta para conducir el vehículo desde su localización actual hasta el destino indicado basándose, al menos en parte, en los datos de navegación obtenidos de un almace­ namiento interno del sistema, y / o obtenidos de forma inalámbrica desde un almacenamiento / servicio de datos remoto accesible por medio de una red de datos. La localización actual del vehículo puede ser determinada utilizan­ do cualquier técnica de posicionamiento adecuada (por ejemplo, la triangulación), o proporcionada por el usuario (por ejemplo, por medio de un dispositivo inteligente). Preferiblemente, el sistema robótico comprende un sistema de posicionamiento (por ejemplo, un sistema de posicionamiento global / módulo GPS), y / o una unidad de medición de inercia (IMU), para controlar continuamente el movimiento del vehículo hacia el destino deseado.
En algunas realizaciones posibles se pueden utilizar técnicas de determinación visual para supervisar el movimiento del vehículo a lo largo de la ruta. Por ejemplo, se puede utilizar un proceso de odometría visual para analizar una secuencia de imágenes del entorno externo del vehículo, identificar uno o más objetos estacionarios en las imáge­ nes, determinar las distancias de los objetos estacionarios identificados con respecto al vehículo y, basándose en las distancias determinadas, determinar el movimiento del vehículo en función del tiempo.
El proceso de determinación de la ruta puede utilizar información adicional recopilada por el sistema robótico durante el viaje, como por ejemplo, pero sin limitarse a ello, los datos del estado de la carretera (por ejemplo, las cargas de tráfico) y / o los datos del estado del vehículo (por ejemplo, el estado del combustible y / o la batería). Por ejemplo, y sin ser limitativo, si los datos del estado del vehículo indican que el estado del combustible / batería del vehículo es bajo, el sistema robótico puede determinar una nueva ruta hacia el destino que incluya una o más paradas en esta­ ciones de carga / cambio de gasolina y / o batería para renovar los recursos energéticos del vehículo. Del mismo modo, si los datos sobre el estado de la carretera son indicativos de la carga de tráfico a lo largo de la ruta determi­ nada, el sistema robótico puede determinar una nueva ruta hacia el destino utilizando carreteras menos sobrecarga­ das.
Un concepto inventivo de la materia divulgada en la presente memoria descriptiva se refiere a un sistema robótico para conducir un vehículo a un destino. El sistema robótico está configurado para su colocación en el interior del vehículo y utiliza un sistema de formación de imágenes y un sistema de control para conducir el vehículo hasta el destino. El sistema utiliza el sistema de formación de imágenes para adquirir datos de imágenes de al menos una parte del interior del vehículo, y datos de imágenes de los alrededores externos al vehículo. Los datos de la imagen adquiridos por el sistema de formación de imágenes son procesados y analizados por el sistema de control.
El sistema de control identifica, en la imagen, datos de al menos parte del interior de los datos de imágenes del vehículo de los indicadores de estado del vehículo y determina a partir de ellos al menos datos de estado del vehícu­ lo. El sistema de control también determina los datos del estado de la carretera a partir de los datos de la imagen del entorno exterior. El sistema de control analiza además al menos uno de los datos sobre el estado del vehículo y los datos sobre el estado de la carretera y, basándose en el análisis, genera instrucciones de control para conducir el vehículo por la carretera.
De acuerdo con la invención, un sistema de manipulación de los actuadores acoplado a los actuadores del vehículo se utiliza para cambiar de forma controlable los estados operativos de los actuadores de acuerdo con las instruccio­ nes de control generadas por la unidad de control.
Opcionalmente, y preferiblemente en algunas realizaciones, el sistema de control recibe datos de localización indica­ tivos de una localización actual del vehículo y datos de la carretera, y determina una ruta para conducir el vehículo al destino basándose, al menos en parte, en los datos recibidos de localización y de la carretera. En algunas realiza­ ciones se utiliza una unidad de posicionamiento para determinar la localización actual del vehículo. El sistema puede comprender además una unidad de comunicación inalámbrica para comunicar datos con un sistema informático remoto (servidor). En algunas realizaciones, el sistema de control está adaptado para recibir al menos los datos de la carretera por medio de la unidad de comunicación inalámbrica.
En algunas realizaciones se utiliza una unidad de interfaz de usuario para comunicar datos con un usuario. En posi­ bles aplicaciones, el sistema de control está adaptado para recibir al menos los datos de destino por medio de la unidad de interfaz de usuario. Opcionalmente, y en algunas realizaciones preferiblemente, la unidad de interfaz de usuario comprende un dispositivo de comunicación de datos utilizable para comunicar datos con un dispositivo de usuario. De este modo, el sistema de control puede utilizar el dispositivo de comunicación de datos de la unidad de interfaz de usuario para recibir al menos uno de los datos de localización y los datos de la carretera. En una variante, se utiliza un dispositivo de entrada de audio para recibir instrucciones audibles de un usuario por medio de la unidad de interfaz de usuario. Por ejemplo, y sin ser limitante, las instrucciones sonoras son indicativas de al menos una de las instrucciones de destino y de funcionamiento del vehículo. Además, se puede utilizar un dispositivo de salida de audio para emitir información audible al usuario por medio de la unidad de interfaz de usuario.
De acuerdo con la invención, los diferentes componentes del sistema robótico (por ejemplo, el sistema de formación de imágenes, el sistema de control y el sistema de manipulación de los actuadores) están montados en un miembro de soporte (por ejemplo, uno o más bastidores de soporte) configurado y operable para asegurar el sistema a un asiento de conductor del vehículo.
En realizaciones posibles, el sistema de manipulación de los actuadores comprende al menos un sistema de mani­ pulación del pedal del freno, un sistema de manipulación del pedal del acelerador y un sistema de manipulación del volante de dirección. Opcionalmente, y en algunas realizaciones preferiblemente, el sistema de manipulación del volante de dirección está acoplado elásticamente al miembro de soporte para permitir el movimiento del sistema de manipulación del volante de dirección en al menos uno de sus ejes de traslación, mientras se impide el movimiento angular del mismo. En posibles aplicaciones, el sistema de manipulación de los actuadores comprende además al menos un sistema de manipulación de la palanca utilizable para accionar al menos un sistema de cambio de mar­ chas del vehículo. Sin embargo, el sistema de manipulación de la palanca también se puede utilizar para accionar el freno de mano, las luces, los limpiaparabrisas y / u otros mandos / conmutadores y palancas de accionamiento del vehículo.
El sistema de formación de imágenes se utiliza para adquirir datos de imágenes indicativos de los indicadores de estado en un panel de control del vehículo, y para adquirir datos de imágenes delanteras indicativos de los alrededo­ res externos de la parte delantera del vehículo. Aunque el sistema de formación de imágenes puede utilizar una sola unidad generadora de imágenes para adquirir los datos de imágenes necesarios, en algunas realizaciones se utili­ zan al menos dos unidades generadoras de imágenes. Por ejemplo, y sin ser limitativo, se utiliza una unidad gene­ radora de imágenes de panel para adquirir los datos de imágenes indicativos de los indicadores de estado en el panel de control del vehículo, y se utiliza una unidad generadora de imágenes de vista delantera para adquirir los datos de imágenes delanteras indicativos de los alrededores externos de la parte delantera del vehículo.
Opcionalmente, y en algunas realizaciones preferiblemente, el sistema de formación de imágenes también com­ prende una unidad generadora de imágenes traseras para adquirir datos de imágenes traseras de los alrededores del exterior del vehículo.
En algunas aplicaciones, el sistema de formación de imágenes está configurado además para adquirir datos de imágenes indicativos de al menos una de entre la vista izquierda del entorno externo del vehículo y la vista trasera del lado izquierdo reflejada por un espejo del lado izquierdo del vehículo, y para adquirir datos de imágenes indicati­ vos de al menos uno de entre la vista derecha del entorno externo del vehículo y la vista trasera del lado derecho reflejada por un espejo del lado derecho del vehículo. Por ejemplo, y sin ser limitativo, el sistema de formación de imágenes puede utilizar una unidad generadora de imágenes izquierda para adquirir los datos de imágenes indicati­ vos de al menos una de entre la vista izquierda del entorno externo del vehículo y la vista trasera del lado izquierdo reflejada por el espejo del lado izquierdo del vehículo, y una unidad generadora de imágenes derecha para adquirir los datos de imágenes indicativos de al menos una de entre la vista derecha del entorno externo del vehículo y la vista trasera del lado derecho reflejada por el espejo del lado derecho del vehículo.
Otro concepto inventivo de la materia divulgada en la presente memoria descriptiva se refiere a un procedimiento de conducción autónoma de un vehículo a un destino. El procedimiento comprende la recepción de datos de imágenes indicativas de al menos los indicadores de estado del vehículo y de los alrededores externos del vehículo, identificar los datos de imágenes recibidos, al menos los estados de los indicadores de estado y los objetos en los alrededores externos del vehículo, y generar respectivamente los datos de estado del vehículo y de la carretera basados en los estados y objetos identificados, y generar las instrucciones de control para conducir el vehículo a lo largo de la carre­ tera basándose al menos en parte en los datos de estado del vehículo y los datos de estado de la carretera.
Opcionalmente, y preferiblemente en algunas realizaciones, el procedimiento comprende la recepción de datos de localización indicativos de una localización actual del vehículo y la determinación de una ruta hacia el destino basa­ da en los datos de localización. La etapa de identificación comprende, en algunas realizaciones, la detección de al menos uno de los carriles de la carretera y de las curvas de la carretera en los datos de la imagen y la generación de datos de carril indicativos de los mismos. Los datos de carril generados son utilizables en posibles aplicaciones para la navegación segura del vehículo en la carretera recorrida.
El procedimiento comprende en posibles realizaciones el seguimiento de al menos uno de los objetos identificados y la generación de datos de trayectoria indicativos de una trayectoria de los mismos. Estos datos de la trayectoria son utilizables en al menos una de las tareas de determinar la ruta y generar las instrucciones de control.
Breve descripción de los dibujos
Con el fin de comprender la invención y ver cómo puede llevarse a la práctica, se describirán a continuación las realizaciones, a modo de ejemplo no limitativo, con referencia a los dibujos que se acompañan. Las características mostradas en los dibujos pretenden ser ilustrativas de sólo algunas realizaciones de la invención, a menos que se indique implícitamente lo contrario. En los dibujos se utilizan números de referencia similares para indicar las partes correspondientes, y en los que:
las figuras 1A y 1B son diagramas de bloques de un sistema de conducción robótica de acuerdo con algu­ nas posibles realizaciones;
desde la figura 2A a la figura 2D se ilustran esquemáticamente posibles realizaciones del sistema robótico fijado al asiento del conductor de un vehículo terrestre;
la figura 3 es un diagrama de bloques de un sistema de formación de imágenes de acuerdo con algunas posibles realizaciones;
la figura 4 es un diagrama de bloques que ejemplifica un esquema de control de acuerdo con algunas po­ sibles realizaciones; y
las figuras 5A a 5C ilustran esquemáticamente otra posible realización del sistema robótico, en la que la figura 5A es una vista en perspectiva del sistema, la figura 5B es una vista en sección del conjunto de la base del sistema, y la figura 5C es una vista en sección de un conjunto de soporte vertical del sistema.
Descripción detallada de las realizaciones
Una o más realizaciones específicas de la presente divulgación se describirán a continuación con referencia a los dibujos, que se deben considerar en todos los aspectos como ilustrativos solamente y no restrictivos de ninguna manera. En un esfuerzo por proporcionar una descripción concisa de estas realizaciones, no todas las característi­ cas de una implementación real se describen en la memoria descriptiva. Los elementos ilustrados en los dibujos no están necesariamente a escala, sino que se hace hincapié en ilustrar claramente los principios de la invención. Esta invención se puede proporcionar en otras formas y realizaciones específicas sin apartarse de las características esenciales que se describen en la presente memoria descriptiva..
La presente invención tiene por objeto proporcionar un sistema de conducción robótica de bajo peso y bajo coste, fácil de ensamblar y de montar, que se pueda montar rápidamente en cualquier vehículo terrestre por un usuario / propietario de vehículo ordinario. El sistema de conducción robótica en la presente memoria descriptiva descrito está diseñado como un conductor de navegación robótico universal que se puede fijar al asiento del conductor de cual­ quier vehículo terrestre. El sistema de conducción robótica está acoplado mecánicamente a los actuadores del vehículo mediante un sistema de manipulación del volante de dirección, uno o más sistemas de manipulación de los pedales y / o uno o más sistemas de manipulación de las palancas y / o mandos, para hacer funcionar el vehículo y conducirlo hacia un destino predeterminado. En consecuencia, la presente invención proporciona un sistema univer­ sal que puede colocarse en el asiento del conductor de cualquier vehículo terrestre / motor y realizar todas las fun­ ciones que habitualmente realiza un conductor humano para manejar el vehículo y conducirlo hacia un destino deseado.
Un sistema de formación de imágenes del sistema robótico se utiliza para adquirir continuamente datos de imágenes del entorno externo (alrededores) del vehículo y de partes interiores del mismo. Los datos de imágenes adquiridos por el sistema de formación de imágenes del entorno externo y del interior del vehículo se procesan y analizan para determinar, respectivamente, los datos del estado de la carretera y los datos del estado del vehículo.
Un sistema de control del sistema robótico se utiliza para determinar los datos del estado de la carretera y del vehículo a partir de las imágenes adquiridas y determinar una ruta de conducción hacia un destino predeterminado basándose, al menos en parte, en los datos del estado de la carretera y / o del vehículo, y / o en los datos de nave­ gación obtenidos de un almacenamiento interno del vehículo, y / o de forma inalámbrica desde un almacenamiento / servidor de datos remoto accesible por medio de una red de datos. En consecuencia, el sistema de control genera operadores / instrucciones de control para operar los sistemas de manipulación del robot con el fin de cambiar el estado del volante de dirección, los pedales y / o las palancas / mandos del vehículo basándose, al menos en parte, en los datos del estado de la carretera y del vehículo, y en la ruta de conducción determinada, con el fin de conducir el vehículo de forma segura hasta el destino deseado.
Las figuras 1A y 1B son diagramas de bloques que ilustran esquemáticamente el funcionamiento robótico autóno­ mo de un vehículo terrestre de acuerdo con algunas posibles realizaciones. La figura 1A muestra un esquema sim­ plificado del sistema robótico autónomo 10 que utiliza una unidad de control 11a para procesar y analizar uno o más flujos de datos de imágenes recibidos de un sistema de formación de imágenes 12. La unidad de control 11a está configurada y es operable para determinar los datos del estado de la carretera y del vehículo a partir de los flujos de datos de imágenes recibidos, y basándose al menos en los datos de estado determinados, generar operadores / instrucciones de control para conducir / maniobrar el vehículo hacia un destino predeterminado. Los operadores / instrucciones de control generados por la unidad de control 11a son utilizados por un controlador del manipulador de los actuadores 11b para operar los sistemas de manipulación 29 para cambiar el estado operativo de uno o más actuadores del vehículo (por ejemplo, el pedal del acelerador, el pedal del freno, el freno de mano, el volante de dirección, la palanca de cambios, la palanca de los intermitentes, la palanca de los limpiaparabrisas, y otros del mismo estilo).
La unidad de control 11a también puede utilizar los datos recibidos del controlador del manipulador de los actuadores 11b en la generación de los operadores / instrucciones de control. Por ejemplo, y sin limitación, en algunas reali­ zaciones, el controlador de los manipuladores 11b está configurado y es operable para recibir datos de estado de unidades sensoras (por ejemplo, codificadores, no mostrados en la figura 1A), provistos en los sistemas de manipu­ lación de los actuadores 29 y que son indicativos de los estados operativos de los pedales, palancas y / o mandos del vehículo. Opcionalmente, y en algunas realizaciones preferiblemente, el controlador de los manipulado­ res 11b está configurado y es operable para obtener al menos parte de los datos de estado de los sistemas informá­ ticos / de datos del vehículo, por ejemplo, mediante la conexión a su bus de datos (por ejemplo, el bus CAN). De este modo, se obtiene un bucle de retroalimentación que permite a la unidad de control 11a ajustar de forma adaptativa los operadores / instrucciones de control proporcionados al controlador de los manipuladores 11b en función de los datos de estado que el controlador de los manipuladores 11b recoge de las unidades de sensores, de los siste­ mas de manipulación de los actuadores 29, y / o de los sistemas informáticos / de datos del vehículo. Esta configu­ ración permite utilizar esquemas avanzados de control del accionamiento, por ejemplo, empleando técnicas de lógi­ ca difusa y redes neuronales para generar los operadores / instrucciones de control.
En algunas realizaciones, la comunicación entre la unidad de control 11a y el controlador manipulador de los actuadores 11b se lleva a cabo por medio de una conexión asíncrona universal de recepción / transmisión (UART), para instrucciones de alto nivel y retroalimentación. Sin embargo, cualquier comunicación de datos adecuada basada en un bus serie o paralelo (por ejemplo, USB, bus CAN, Ethernet, WiFi) puede utilizarse de forma similar sin apartarse del alcance y el espíritu de la presente invención.
Opcionalmente, y en algunas realizaciones preferiblemente, el sistema de formación de imágenes 12 comprende al menos dos unidades de formación de imágenes; una unidad de imágenes interna 12b y una unidad de imágenes externa 12a. La unidad de imágenes interna 12b está configurada y es operable para adquirir imágenes del interior del vehículo Ib que son indicativas del estado del vehículo comprendiendo, por ejemplo, indicadores del panel de control del vehículo y / o mostrando estados operativos de palancas, mandos y / o pedales del vehículo. La unidad de imágenes externa 12a está configurada y es operable para adquirir imágenes del entorno externo del vehícu­ lo la que son indicativas del estado de la carretera, por ejemplo, la dirección de la carretera, las señales de tráfico, los semáforos, los posibles obstáculos presentes en la carretera, etc.
Sin embargo, se hace notar que en algunas posibles realizaciones, las imágenes del entorno exterior del vehícu­ lo la y del interior del vehículo Ib se adquieren por medio de una única unidad generadora de imágenes. Por ejem­ plo, y sin ser limitativo, la citada una unidad de imágenes de este tipo puede estar configurada para adquirir un cam­ po de visión muy amplio que incluya los datos de imágenes tanto del entorno externo Ia como del interior del vehícu­ lo Ib (es decir, adquiriendo simultáneamente todos los datos de imágenes necesarios). Adicional o alternativamente, se puede utilizar una unidad generadora de imágenes móvil / rotativa para adquirir secuencialmente el entorno ex­ terno la y el interior del vehículo Ib. Adicional o alternativamente, se pueden utilizar medios ópticos (espejos, lentes, divisores) para combinar los datos de la imagen del entorno externo Ia y del interior del vehículo Ib en diferentes áreas del mismo sensor generador de imágenes, con el fin de combinarlos en un solo cuadro de imagen.
En la figura 1A, la unidad de control 11a está configurada y es operable para determinar, a partir de las imáge­ nes Ib adquiridas por la unidad de imágenes interna 12b, los datos indicativos del estado del vehículo, que com­ prenden, entre otros, la velocidad del vehículo, la temperatura y la velocidad angular del motor, el estado del com­ bustible y / o de la batería, el estado de funcionamiento de los pedales, la palanca y / o los mandos del vehículo, y otros similares. La unidad de control 11a determina los datos del estado de la carretera a partir de las imáge­ nes Ia adquiridas por la unidad de imágenes externa 12a, identificando en las imágenes adquiridas la dirección de la carretera y / o del carril, los vehículos y / o los peatones cercanos, las señales de tráfico, los semáforos, las aceras y / o las islas de tráfico. Basándose, al menos en parte, en los datos extraídos sobre la carretera y el estado del vehículo, la unidad de control 11a determina si es necesario cambiar los estados de los actuadores del vehículo, y genera los operadores / instrucciones de control en consecuencia, para ajustar los estados de los actuadores del vehículo por el controlador de manipuladores 11b.
La figura 1B es un diagrama de bloques que muestra otras posibles realizaciones del sistema de conducción robótica 10. En este ejemplo no limitativo, el controlador de los manipuladores 11b está acoplado a los sistemas de mani­ pulación de los actuadores 29, que comprenden un sistema de manipulación del pedal del acelerador 24, un sistema de manipulación del pedal del freno 25, un sistema de manipulación del volante de dirección 23 y un actuador de palancas / mandos 26.
El actuador de palancas / mandos 26 está adaptado para accionar varios botones / mandos, llaves, palanca de cam­ bio, y / o freno de mano, del vehículo. En algunas realizaciones posibles, el sistema de conducción robótica 10 comprende además un sistema de manipulación del pedal del embrague (no mostrado) configurado y operable para operar un pedal de embrague del vehículo, si es necesario.
El controlador de los manipuladores 11b está configurado y es operable para recibir los operadores / instrucciones de control generados por la unidad de control 11a y accionar uno o más de los sistemas de manipulación de los actuadores 29 (23, 24, 25, y / o 26) en consecuencia, recibir datos de estado (por ejemplo, posición angular) de las unidades sensoras (23e, 24e, 25e y 26e, respectivamente) de los sistemas de manipulación de los actuadores 29 y transferir los mismos a la unidad de control 11a. Como también se ve en la figura 1B, la comunicación de datos entre el sistema de formación de imágenes 12 y la unidad de control 11a puede ser una comunicación de datos bidireccional para permitir el suministro de instrucciones de control al sistema de formación de imágenes 12, por ejemplo, para ajustar los elementos ópticos del mismo y / o la dirección de adquisición de imágenes de uno o más generadores de imágenes del mismo.
Una unidad de interfaz persona - máquina (HMI) 16 puede ser utilizada para introducir datos de un usuario y / o para emitir datos al usuario. Por ejemplo, y sin ser limitativo, la unidad HMI 16 puede estar configurada y ser operable para recibir datos audibles (por ejemplo, indicativos del destino y / o los datos de localización) y / o instrucciones (por ejemplo, iniciar, parar, conducir, u otras instrucciones de este tipo) del usuario por medio de un dispositivo de entra­ da de audio 16m (por ejemplo, utilizando uno o más micrófonos), y transferir los mismos a la unidad de con­ trol 11a. La unidad HMI 16 puede recibir datos de salida de la unidad de control 11a y generar una salida audible respectiva para el usuario utilizando un dispositivo de salida de audio 16s (por ejemplo, utilizando uno o más altavo­ ces). Para ello, la unidad HMI 16 puede emplear cualquier técnica adecuada de reconocimiento y generación de voz conocida en la técnica.
La unidad HMI 16 puede utilizar una unidad de comunicación de datos 16c para comunicar datos digitales con el usuario utilizando cualquier dispositivo de entrada / salida adecuado (por ejemplo, botonera / teclado, dispositivo señalador, pantalla LCD / vídeo, pantalla táctil o teclado, o similares). Opcionalmente, y en algunas realizaciones, preferiblemente la unidad de comunicación de datos 16c comprende un dispositivo de comunicación inalámbri­ ca 16r para comunicar datos de forma inalámbrica (por ejemplo, utilizando comunicación óptica, tal como comunica­ ción por infrarrojos, y / o comunicación por radiofrecuencia, como WiFi, Bluetooth, comunicación de campo cercano -NFC, Zigbee) con un dispositivo de usuario 16u (por ejemplo, un dispositivo inteligente tal como una tableta, un teléfono inteligente o un ordenador portátil) por medio de la unidad HMI 16. Por ejemplo, y sin ser limitativo, se pue­ de utilizar un dispositivo / teléfono inteligente 16u del usuario para proporcionar al sistema robótico 10 los datos de destino, y / o los datos de localización utilizando las funcionalidades de posicionamiento (por ejemplo, GPS y / o triangulación de estaciones base) del dispositivo inteligente 16u. Del mismo modo, el dispositivo inteligen­ te 16u también se puede utilizar para proporcionar al sistema 10 mapas (por ejemplo, utilizando Google Maps™) y / o datos de navegación ( por ejemplo, utilizando Waze™).
Alternativa o adicionalmente, la unidad de comunicación de datos 16c puede comprender además un conector de cable 16u para comunicar datos con un dispositivo de usuario (por ejemplo, un dispositivo inteligente) por medio de un cable de comunicación de datos en serie o paralelo (por ejemplo, utilizando un protocolo de bus serie universal -USB). La unidad de control 11a puede estar configurada para recibir varios tipos de información por medio del co­ nector del cable 16u, como, por ejemplo, datos de la carretera, datos del mapa, datos de la localización, uno o más destinos, localizaciones de estaciones de servicio y / o de carga de la batería, y otros similares.
Opcionalmente, y preferiblemente en algunas realizaciones, el sistema robótico 10 comprende una unidad de comu­ nicación inalámbrica 15 para comunicar datos con uno o más sistemas informáticos / servidores remotos 19 (por ejemplo, utilizando el acceso a Internet por medio de una red WiFi o celular). La unidad de control 11a puede estar configurada y ser operable para obtener los mapas y / o los datos de navegación directamente por medio de la uni­ dad de comunicación inalámbrica 15. La unidad de comunicación inalámbrica 15 puede ser utilizada para obtener diferentes tipos de información relevante para la conducción del vehículo hacia el destino, como, por ejemplo, datos sobre cargas de tráfico, condiciones / previsiones meteorológicas, localización de estaciones de servicio / carga, etc. Opcionalmente, y preferiblemente en algunas realizaciones, al menos parte de la comunicación de datos (realizada por medio de cables y / o de forma inalámbrica) realizada por / con el sistema de conducción robótica 10 está encriptada para garantizar la seguridad. Para ello se puede utilizar cualquier esquema de encriptación adecuado, tales como DES, RSA, SHA.
El sistema robótico 10 también puede comprender un sistema de posicionamiento 18 que utiliza GPS y / o una uni­ dad de medición de inercia (IMU) para determinar continuamente la localización del vehículo en el que se utiliza el sistema robótico 10. De este modo, la unidad de control 11a puede determinar en cualquier momento la localización del vehículo basándose en los datos de posición / orientación recibidos del sistema de posicionamiento 18, supervisar el progreso del viaje hacia el destino y determinar en consecuencia los operadores / instrucciones de control para el controlador de manipulación de los actuadores 11b. Alternativa o adicionalmente, los datos de posición obtenidos, o derivados, de la unidad de posicionamiento 18 pueden ser comunicados por medio de la uni­ dad de comunicación inalámbrica 15 para procesar y generar datos de navegación hacia el destino por un servidor / servicio remoto 19.
En la figura 1B también se muestra una fuente de energía 17 del sistema robótico 10, para alimentar las diferentes unidades / dispositivos del sistema robótico 10. Se puede utilizar una batería interna recargable (no mostrada) para la fuente de energía 17, o alternativamente, el sistema robótico 10 puede estar configurado y ser operable para co­ nectarse a una fuente de alimentación del vehículo.
El sistema robótico 10 puede comprender además una unidad de seguridad y supervisión 18 configurada y operable para recibir y procesar los datos de estado determinados por la unidad de control 11a y los datos de estado obteni­ dos por el controlador del manipulador de los actuadores 11b de los diferentes sistemas de manipulación de los actuadores, para asegurar que todas las unidades / dispositivos del sistema 10 están operando correctamente y con seguridad. En algunas realizaciones, la unidad de seguridad y monitorización 18 analiza los datos de entrada de cada unidad / dispositivo que se está monitorizando para asegurar su validez y calidad (por ejemplo, verificar que las imágenes recibidas del sistema de formación de imágenes no están saturadas o bloqueadas), y evalúa la salida del módulo para asegurar que los resultados obtenidos están dentro de los rangos operativos aceptables. Si se identifica un problema, la unidad de seguridad y supervisión 18 emite las indicaciones / alertas respectivas al usuario indican­ do el problema identificado y / o lo registra en el sistema 10. Por ejemplo, y sin ser limitativo, la unidad de seguridad y supervisión 18 puede ser capaz de detener el vehículo si el problema identificado es crucial. En algunas realiza­ ciones, el sistema de seguridad y supervisión 18 está configurado y es operable para supervisar el funcionamiento de los motores (como se ve en las figuras 2A y 2B) de los sistemas de accionamiento y el estado de la fuente de alimentación 17 del sistema 10.
Las figuras 2A y 2B muestran, respectivamente, vistas en perspectiva frontal y posterior del sistema de conducción robótica 10 fijado a un asiento de conductor 20a de un vehículo terrestre 20, de acuerdo con algunas posibles reali­ zaciones. En este ejemplo no limitativo, el sistema robótico 10 se fija al asiento del conductor 20a mediante un basti­ dor de fijación 22 que tiene un bastidor de base 22a fijado de forma inamovible a la base del asiento del conduc­ tor 20a, y un bastidor de soporte 22b conectado al bastidor de base 22a y fijado de forma inamovible a la parte de soporte posterior 20b del asiento del conductor 20a. Un miembro de soporte 22c que lleva el sistema de manipula­ ción del volante de dirección 23 puede estar conectado al bastidor base 22a y / o al bastidor de soporte 22b, o a una intersección de estos bastidores.
Opcionalmente, y preferiblemente en algunas realizaciones, los bastidores de la base y del soporte, 22a y 22b, están articulados de manera móvil uno al otro, para permitir el movimiento angular de los bastidores uno con respecto al otro. El miembro de soporte 22c también puede estar articulado de forma móvil a uno de los bastidores 22a y 22b, o a su intersección, para permitir el movimiento angular del miembro de soporte 22c en relación con al menos uno de los bastidores 22a y 22b. En algunas realizaciones, el miembro de soporte 22c que lleva el sistema de manipulación del volante de dirección 23 está unido al menos a uno de los bastidores 22a y / o 22b por medio de cables y / o co­ rreas 22s, como se ejemplifica en la figura 2D, proporcionando de esta manera al sistema de manipulación del vo­ lante de dirección 23 la fuerza necesaria para sostener el miembro de soporte 22c al mismo tiempo que le propor­ ciona libertad de movimiento en los ejes de traslación (i1, i2, i3) y evita el movimiento rotacional / angular del mismo. Una orientación determinada de los bastidores 22a y 22b, uno con respecto al otro, y / o del miembro de sopor­ te 22c con respecto al menos a uno de los bastidores 22a y 22b, puede bloquearse utilizando un mecanismo de bloqueo (por ejemplo, 22q), para lograr un ángulo deseado entre los bastidores 22a y 22b, y un ángulo deseado entre el miembro de soporte 22c y al menos uno de los bastidores 22a y 22b.
En este ejemplo no limitante, el sistema de formación de imágenes 12 está montado en el bastidor de sopor­ te 22b. Sin embargo, se observa que en posibles realizaciones varias unidades de formación de imágenes del sis­ tema de formación de imágenes 12 pueden estar montadas en diferentes localizaciones del bastidor de sopor­ te 22b, en diferentes localizaciones del bastidor de base 22a, y / o del miembro de soporte 22c. Como también se ejemplifica en las figuras 2A y 2B, un sistema de control 11 que comprende la unidad de control 11a y el controlador del manipulador de los actuadores 11b puede estar fijado de forma inamovible al menos a uno de los bastido­ res 22a y 22b. Sin embargo, las unidades de control del sistema de control 11 pueden ser fijadas igualmente inamo­ viblemente a cualquiera de los bastidores 22a y 22b y / o al miembro de soporte 22c.
El sistema de manipulación del volante de dirección 23 soportado por el miembro de soporte 22c está acoplado al sistema de volante de dirección 20w del vehículo 20 y está configurado y es operable para rotar el volante de direc­ ción 23f del vehículo 20 mediante un motor 23m y disposiciones de engranaje 23g (por ejemplo, utilizando un con­ junto de rotor de engranaje helicoidal). El sistema de manipulación 23 del volante de dirección puede estar configu­ rado para fijar y rotar el volante de dirección 20w mediante una estructura de propulsión 28 que tiene una pluralidad de miembros de aleta 28p (en las figuras 2A, 2B y 2D) y está acoplado mecánicamente a un árbol rotativo del mo­ tor 23m por medio del sistema de cambio de marchas 23g. La estructura de la propulsión 28 está unida a un árbol rotativo 23h del sistema de engranaje 23g, y sus miembros de aleta 28p se extienden desde allí radialmente hacia el bastidor 23f del sistema de volante de dirección 20w y se unen al bastidor 23f del volante de dirección 20w por sus extremos libres.
La estructura de propulsión 28 de los miembros de la aleta 28p puede fijarse al bastidor 23f del sistema de volante de dirección 20w por cualquier medio de sujeción adecuado, por ejemplo, utilizando pernos en U 23t y tuercas. Esta configuración proporciona un esquema de fijación sencillo que permite al usuario acoplar rápida y fácilmente el sis­ tema de manipulación de la rueda 23 al volante de dirección 20w. Además, el uso de los miembros de la ale­ ta 28p de la estructura de la propulsión 28 para transferir el movimiento de rotación del motor 23m a la estructu­ ra 23f del sistema de volante de dirección 20w se aprovecha para accionar el volante de dirección 20w mediante el motor 23m al tiempo que se le proporciona cierta libertad para moverse a lo largo de los ejes de traslación i2, e i3 (en el que i1 es paralelo o coincide con el eje de rotación Wx de la rueda 23f).
Como se ejemplifica en la figura 2D, en algunas realizaciones el miembro de soporte 22c del sistema de manipula­ ción del volante de dirección 23 está unido al menos a uno de los bastidores de fijación 22 mediante correas y / o cables 22s. En este ejemplo específico y no limitante, el miembro de soporte 22c está unido al bastidor base 22a por medio de correas 22s, sin embargo, puede estar unido de manera similar al bastidor de soporte 22b, o a ambos bastidores 22a y 22b. La fijación del miembro de soporte 22c por medio de correas / cables 22s proporciona una conexión flexible / resistente entre el sistema de manipulación del volante de dirección 23 y el bastidor de fijación 22, proporcionándole cierta libertad de movimiento a lo largo de los ejes de traslación i1, i2 e i3, al tiempo que evita el movimiento angular del mismo. El citado esquema de fijación que emplea cables / correas 22s proporciona de esta manera al sistema de manipulación del volante de dirección 23 una conexión no rígida al bastidor de fijación 22, que permite un movimiento limitado del motor 23m del sistema de manipulación del volante de dirección 23, y resuelve de esta manera los problemas asociados con el centrado de las partes rotativas del sistema de volante de direc­ ción 20w y del motor 23m, y permite reducir las fuerzas de accionamiento aplicadas por el motor 23m para rotar el bastidor 23f del sistema de volante de dirección 20w.
Las figuras 2A y 2B muestran también el sistema de manipulación del pedal del acelerador 24 y el sistema de ma­ nipulación del pedal del freno 25, cada uno de los cuales está unido de forma inamovible al bastidor base 22a y comprende una pierna móvil acoplada mecánicamente al pedal respectivo.
El sistema de manipulación del pedal del acelerador 24 comprende un motor eléctrico 24m (por ejemplo, un servomotor) fijado de forma inamovible a una viga de soporte 22p del bastidor base 22a, una palanca rotati­ va 24r acoplada mecánicamente al árbol del motor 24m y a la pata móvil 24f. La pata móvil 24f está articulada a la palanca rotativa 24r en un extremo de la misma, formando así una articulación tipo rodilla 24j, y está acoplada me­ cánicamente al pedal del acelerador 20c por su extremo libre. De este modo, los movimientos rotativos del árbol del motor 24m, y de la palanca 24r acoplada mecánicamente al mismo, se traducen en accionamientos de empuje o tracción del pedal acelerador 20c por la pata móvil 24f acoplada al mismo.
De manera similar, el sistema de manipulación del pedal de freno 25 comprende un motor eléctrico 25m (por ejem­ plo, un motor de engranaje helicoidal) fijado de forma inamovible a la viga de soporte 22p del bastidor base 22a, y una palanca rotativa 25r acoplada mecánicamente al árbol del motor 25m y a la pata móvil 25f. La pata móvil 25f está articulada con la palanca rotativa 25r en un extremo de la misma, formando así una articulación tipo rodilla 25j, y está acoplada mecánicamente al pedal de freno 20k por su extremo libre. De este modo, los movimientos rotativos del árbol del motor 25m, y de la palanca 25r acoplada mecánicamente al mismo, se traducen en accionamientos de empuje o tracción del pedal acelerador 20c por la pata móvil 25f acoplada al mismo.
Haciendo referencia a continuación a la figura 2C, en algunas realizaciones las patas móviles 24f y 25f están aco­ pladas a sus pedales respectivos, 20c y 20k, utilizando miembros de acoplamiento en forma de 'C' (o abrazade­ ras), 24g y 25g respectivamente, configurados para envolver al menos alguna porción del pedal y ser asegurados rígidamente al mismo, por ejemplo, utilizando pernos de seguridad. Como se ha visto, en estos ejemplos no limitan­ tes las patas 24f y 25f están articuladas a sus miembros de acoplamiento en forma de "C" respectivos 24g y 25g, formando estructuras de articulación simples 24x y 25x para permitir el movimiento angular entre las patas 24f y 25f y sus miembros de acoplamiento respectivos 24g y 25g.
En este ejemplo no limitante, el vehículo 20 es un tipo de vehículo eléctrico operable por un número limitado de actuadores, que comprende el pedal de aceleración 20c, el pedal de freno 20k y un volante de dirección 20w. Por lo tanto, los sistemas de manipulación de la palanca (por ejemplo, para operar un sistema de cambio de marchas del vehículo) y el sistema de manipulación del embrague, no son necesarios, y no se muestran en las figuras 2A y 2B. Sin embargo, los citados sistemas de manipulación se pueden implementar fácilmente utilizando mecanis­ mos como los utilizados en los sistemas de manipulación 2425 y / o 23 descritos e ilustrados en la presente memo­ ria descriptiva. Del mismo modo, el sistema de conducción robotizada 10 puede comprender uno o más de estos sistemas de manipulación para operar diversos botones / mandos, llaves, palanca de cambios, y / o freno de mano, del vehículo. De esta manera, el sistema de conducción robótica 10 puede adaptarse fácilmente para su montaje en cualquier vehículo manual o automático.
Se hace notar que las realizaciones del sistema robótico 10 representadas en las figuras 2A y 2B están diseñadas para ser utilizadas con un vehículo de circulación / conducción por la derecha. Debe quedar claro que esto no es una limitación de la presente invención, y el sistema robótico 10 puede ser configurado de manera similar para operar también los controles de un vehículo de tráfico / conducción por la izquierda.
La figura 3 es un diagrama de bloques que muestra el sistema de formación de imágenes 12 de acuerdo con algu­ nas posibles realizaciones. En este ejemplo no limitante, la unidad de imágenes interna 12b del sistema de forma­ ción de imágenes 12 comprende una unidad de imágenes del panel 41, que incluye uno o más generadores de imá­ genes configurados y operables para adquirir imágenes del panel de control 20x del vehículo 20 (en la figura 3 sólo se muestra una unidad de imágenes 41). La unidad de imágenes externa 12a del sistema de formación de imáge­ nes 12 comprende una unidad de imágenes frontal 42 que comprende uno o más generadores de imágenes configu­ rados y operables para adquirir imágenes de vista frontal del entorno externo del vehículo, por ejemplo, como se ve por medio del parabrisas 30w del vehículo, una unidad de imágenes trasera 43 para adquirir imágenes de vista tra­ sera del entorno externo del vehículo, por ejemplo, como se ve por medio del espejo retrovisor (espejo del parabri­ sas) 20n del vehículo.
Alternativamente, en algunas realizaciones, el sistema de formación de imágenes 12 emplea unidades generadoras de imágenes móviles / rotativas capaces de adquirir secuencialmente datos de imágenes de varios campos de visión (FOV) diferentes, por ejemplo, utilizando cámaras montadas en PAN - TIL, cámaras omnidireccionales, cámaras estándar o una combinación de ellas. Alternativa o adicionalmente, el sistema de formación de imágenes 12 puede comprender medios ópticos (por ejemplo, lentes, espejos, divisores) para permitir que se recojan y combinen simul­ táneamente datos de imágenes de varios FOV diferentes en diferentes áreas del mismo sensor generador de imá­ genes. De este modo, el número de generadores de imágenes del sistema de formación de imágenes 12 puede reducirse sustancialmente. Por ejemplo, en ciertas realizaciones se utiliza una sola unidad de generador de imáge­ nes para recoger las imágenes del panel de control 20x y las imágenes de la vista frontal del entorno externo del vehículo.
En algunas realizaciones, la unidad de imágenes externa 12a del sistema de formación de imágenes 12 comprende además una unidad de imágenes lateral izquierda 46 para adquirir imágenes laterales izquierdas de los alrededores externos del vehículo, por ejemplo, como se ve por medio de la ventana lateral del conductor 30f, y / o imágenes laterales izquierdas - traseras, por ejemplo, como se ven por medio del espejo lateral izquierdo 20f del vehículo. Del mismo modo, se puede utilizar una unidad de imágenes lateral derecha 45 para adquirir imágenes del entorno exte­ rior del vehículo, por ejemplo, como se ve por medio de la ventanilla lateral delantera del pasajero 30r, y / o imáge­ nes del lado derecho de la parte trasera, por ejemplo, como se ve por medio del espejo lateral derecho 20r del vehículo.
Opcionalmente, y en algunas realizaciones preferiblemente, la unidad de imágenes frontal 42 utiliza técnicas de imagen estereoscópica utilizando dos cámaras generadoras de imagen 42f y 42r para determinar la localización de los objetos captados por la unidad de formación de imágenes frontal 42 en un espacio tridimensional (es decir, para añadir información de profundidad). En algunas realizaciones posibles, tales técnicas de imágenes estereoscópicas pueden ser empleadas por las otras unidades de formación de imágenes, como las unidades de formación de imá­ genes de los lados izquierdo y derecho, 46 y 45. Las unidades de formación de imágenes del sistema de formación de imágenes 12 pueden implementarse utilizando cualquier tipo de cámara de imagen adecuada, como por ejemplo, pero sin limitarse a ella, la cámara GigE en color FLEA3 de 1,3 MPix y 30 FPS de Point Grey. Sin embargo, en algu­ nas realizaciones, se utiliza una sola unidad generadora de imágenes en el sistema de formación de imágenes 12 para adquirir todos los datos de imágenes necesarios (es decir, del panel de control 20x, las imágenes de la vista frontal, las imágenes de la vista trasera, las imágenes de la vista lateral izquierda y las imágenes de la vista lateral derecha), utilizando un generador de imágenes rotativo / movible, y / o medios ópticos para ampliar el FOV de la imagen y / o para combinar simultáneamente los diferentes datos de imágenes en diferentes áreas de sensores de los generadores de imágenes.
El sistema de formación de imágenes 12 puede incluir una o más unidades de control y / o procesamien­ to 12c configuradas y operables para recibir las imágenes adquiridas por los generadores de imágenes de las uni­ dades de formación de imágenes, 41, 42, 43, 45 y / o 46, y transferirlas al sistema de control 11 para su procesa­ miento. En algunas realizaciones posibles, las unidades de control / procesamiento 12c del sistema de formación de imágenes 12 pueden comprender hardware y / software de procesamiento de imágenes configurado y operable para procesar y analizar las imágenes adquiridas por las unidades de formación de imágenes y determinar los datos de estado externos e internos necesarios para que el sistema de control 11 genere los operadores / instrucciones de control para conducir el vehículo.
La figura 4 es un diagrama de bloques 40 que ejemplifica los componentes y funciones de la unidad de con­ trol 11a de acuerdo con algunas posibles realizaciones. En este ejemplo no limitante, la unidad de control 11a utiliza un módulo de determinación de la localización 3t para determinar la localización (por ejemplo, localización global de la tierra y / o en un mapa de carreteras) del vehículo basado en los datos de posición / orientación recibidos del sistema de posicionamiento 18, y generar datos de localización indicativos de la misma. Si el sistema de posicionamiento 18 comprende tanto un GPS como una unidad IMU, los datos de posición / orientación de estas unidades pueden fusionarse / combinarse en el módulo de determinación de la localización 3t para mejorar la precisión y la comprensión de la posición del vehículo en el mundo real, y de esta manera mejorar la precisión de los datos de localización generados. Por ejemplo, y sin ser limitativo, los filtros de Kalman pueden utilizarse, al menos en parte, para generar los datos de localización basados en los datos de posición / orientación generados por las unidades GPS y / o IMU.
Un módulo de procesamiento de imágenes 3e de la unidad de control 11a se utiliza para determinar los datos del estado de la carretera y / o del vehículo a partir de los datos de la imagen (la e Ib ) recibidos del sistema de forma­ ción de imágenes 12. Un módulo de planificación y seguimiento de la ruta 3r de la unidad de control 11a se utiliza para generar una ruta, supervisar el progreso del viaje a lo largo de la ruta generada, y para la toma de decisiones basada, al menos en parte, en los datos de localización generados por el sistema de posicionamiento 18 y los datos de estado de la carretera y / o del vehículo generados por el módulo de procesamiento de imágenes 3e. El módulo de planificación y seguimiento de la ruta 3r genera además instrucciones de conducción (por ejemplo, acelerar / desacelerar, detener el vehículo, girar a la izquierda o a la derecha, cambiar de carril, etc.) basadas, al menos en parte, en los datos de localización recibidos y en los datos de estado de la carretera y / o del vehículo. Las instruc­ ciones de conducción generadas por el módulo de planificación y supervisión 3r son utilizadas por un módulo de control de actuadores 3c de la unidad de control 11a para generar los operadores / instrucciones de control utiliza­ dos por el controlador del manipulador de actuadores 11b para operar los sistemas de manipulación.
El módulo de planificación y supervisión de la ruta 3r puede estar configurado y ser operable para supervisar el pro­ greso del viaje a lo largo de la ruta generada basándose, al menos en parte, en los datos de localización generados por el módulo de determinación de la localización 3t, la carretera / mapa y / o los datos de navegación recibidos de una base de datos / servidor remoto (19) por medio de la unidad de comunicación inalámbrica 15, la carretera y / o los datos de estado del vehículo recibidos de la unidad de procesamiento de imágenes 3e.
En algunas realizaciones posibles, los datos de carretera / mapa y / o de navegación se obtienen de una unidad de memoria / almacenamiento 3b (por ejemplo, un disco magnético / óptico, una memoria Flash o similar) de la unidad de control 11a. Del mismo modo, un destino predeterminado para el viaje puede obtenerse de la unidad de memoria / almacenamiento 3b y ser utilizado por el módulo de planificación y seguimiento de la ruta 3r para generar la ruta. En consecuencia, en algunas posibles realizaciones el sistema de conducción robótica 10 puede implementarse sin la unidad de comunicación inalámbrica 15.
En algunas realizaciones posibles, el módulo de procesamiento de imágenes 3e comprende al menos un componen­ te de detección de objetos (OD) m1, un componente de seguimiento de objetos (OT) m2, y un componente de de­ tección de carreteras / carriles (RD) m3, utilizados para generar al menos algunas porciones de los datos del estado de la carretera y del vehículo (por ejemplo, utilizando algoritmos de visión / mapeo). El componente de detección de objetos m1 está configurado y es operable para identificar objetos (por ejemplo, vehículos / bicicletas, peatones, señales / semáforos / islas, aceras, indicadores de paneles de control, y otros similares) en los datos de imágenes recibidos del sistema de formación de imágenes 12, y generar datos de objetos indicativos de los mismos. Los datos de los objetos generados por el componente de detección de objetos m1 son esenciales para conducir el vehículo de forma segura hasta el destino y evitar accidentes y / o incidentes. El componente de seguimiento de obje­ tos m2 está configurado y es operable para anticipar la trayectoria de los diversos objetos identificados por el com­ ponente de detección de objetos m1, y generar datos de trayectoria indicativos de los mismos. El componente de detección de carreteras / carriles m3 está configurado y es operable para detectar los carriles y las curvas de la carretera en los datos de la imagen recibidos del sistema de formación de imágenes, y generar datos de carriles indicativos de los mismos. Los datos de carril generados por el componente de detección de carretera / carril m3 son utilizados por el sistema de conducción robótica 10 para navegar con seguridad por las carreteras recorridas, y son necesarios para mantener el vehículo en un carril de la carretera, para permitir el cambio de carril, si es necesario, y para tomar las curvas de la carretera.
Los datos del objeto, los datos de la trayectoria y los datos de carriles, procedentes de la unidad de procesamiento de imágenes 3e se proporcionan a la unidad de planificación / seguimiento de la trayectoria 3r, en la que se utilizan para determinar una ruta segura por la que debe circular el vehículo.
La figura 5A muestra un sistema robótico 50 de acuerdo con alguna posible realización, y las figuras 5B y 5C muestran vistas en sección de un conjunto de base 51 y de un conjunto de soporte vertical 52 del siste­ ma 50. Con referencia a la figura 5A, el conjunto de base 51 está configurado para ser fijado de forma segura al asiento del conductor, y el conjunto de soporte vertical 52 está configurado para ser fijado de forma segura al sopor­ te trasero del asiento del conductor. En algunas realizaciones, el conjunto de soporte vertical 52 está articulado de forma pivotante al conjunto de base 51.
Como se ve en la figura 5A, el conjunto de soporte vertical 52 comprende dos aberturas 52r y 52f en la parte supe­ rior del mismo que sirven como aberturas de entrada de luz para la unidad de imágenes frontal 42. Haciendo refe­ rencia a continuación a la figura 5C, el conjunto de soporte vertical 52 comprende un compartimento supe­ rior 52c utilizado para alojar la unidad de imágenes 42 y el sistema de posicionamiento 18. Más concretamente, los generadores de imágenes 42f y 42r de la unidad de imágenes 42 están montadas en los laterales del compartimento superior 52c en alineación con las aberturas 52r y 52f, y el sistema de posicionamiento 18 se sitúa entre ellos. Un compartimento intermedio 52i se utiliza para alojar un sistema informático 55 (por ejemplo, un ordenador portátil) del sistema, configurado para implementar funciones del sistema de control y del sistema de formación de imágenes / DSP que se han descrito en la presente memoria descriptiva más arriba.
La figura 5B muestra una vista en sección del conjunto base 51, que comprende un bastidor de soporte delante­ ro 51f configurado para recibir y mantener el motor eléctrico 25m, un bastidor de soporte delantero 51r configurado para recibir y mantener el motor eléctrico 24m, y un bastidor de soporte trasero 51e configurado para recibir y man­ tener los controladores de circuitos 51d de los motores eléctricos 24m y 25m, y de otros elementos del sistema que se muestra en la figura 2.
Como se ha descrito en la presente memoria descriptiva más arriba y se muestra en las figuras asociadas, la pre­ sente invención proporciona un sistema de conducción robótica universal 10 / 50 configurado y operable para su instalación dentro de cualquier vehículo terrestre / de motor para conducir autónomamente el vehículo a un destino deseado / predeterminado, y procedimientos relacionados. Como se apreciará, el sistema de conducción robótica de la presente invención proporciona una solución sencilla para transformar cualquier vehículo en un vehículo autóno­ mo, que puede ser utilizado ventajosamente para varias aplicaciones diferentes, tales como, pero no limitado a, la agricultura, el transporte, la minería, la limpieza, el patrullaje de rutina, el suministro, y para ayudar a los conductores discapacitados, ancianos, con problemas de visión y con sueño.
Los diferentes módulos de la unidad de control 11a que se han descrito más arriba en la presente memoria descrip­ tiva pueden implementarse en algunas realizaciones como módulos de software y / o hardware, o una combinación de los mismos. Las funciones del sistema de conducción robótica 10 / 50 que se han descrito más arriba en la pre­ sente memoria descriptiva pueden controlarse mediante instrucciones ejecutadas por un sistema de control basado en ordenador que puede estar alojado en el sistema de control 11. Un sistema de control adecuado para su uso con las realizaciones que se han descrito más arriba en la presente memoria descriptiva puede incluir, por ejemplo, uno o más procesadores conectados a un bus de comunicación, una o más memorias volátiles ( por ejemplo, memoria de acceso aleatorio - RAM) o memorias no volátiles (por ejemplo, memoria Flash). Una memoria secundaria (por ejemplo, una unidad de disco duro, una unidad de almacenamiento extraíble, y / o un chip de memoria extraíble tal como una EPROM, una PROM o una memoria Flash) se puede utilizar para almacenar datos, programas informáti­ cos u otras instrucciones, que se cargarán en el sistema informático.
Por ejemplo, los programas de ordenador (por ejemplo, la lógica de control del ordenador) pueden ser cargados desde la memoria secundaria a una memoria principal para su ejecución por uno o más procesadores del sistema de control 11. Alternativa o adicionalmente, los programas informáticos pueden recibirse por medio de una interfaz de comunicación. Tales programas informáticos, cuando se ejecutan, permiten que el sistema informático realice ciertas características de la presente invención, tal y como se ha comentado en la presente memoria descriptiva. En particu­ lar, los programas de ordenador, cuando se ejecutan, permiten a un procesador de control realizar y / o producir la realización de características de la presente invención. En consecuencia, tales programas informáticos pueden implementar controladores del sistema informático.
En una realización en la que los módulos y / o unidades del sistema de conducción robótico 10 / 50 se implementan utilizando software, el software puede almacenarse en un producto de programa informático y cargarse en el sistema informático utilizando la unidad de almacenamiento extraíble, los chips de memoria o la interfaz de comunicaciones. La lógica de control (software), cuando es ejecutada por un procesador de control, hace que el procesador de control realice ciertas funciones de la invención como se describe en la presente memoria descriptiva.
En otra realización, las características de los módulos y / o unidades del sistema de conducción robótica 10 / 50 se implementan principalmente en hardware utilizando, por ejemplo, componentes de hardware tales como circuitos integrados de aplicación específica (ASIC) o matrices programables en campo (FPGA). La implementación de la máquina de estado de hardware para realizar las funciones descritas en la presente memoria descriptiva será evi­ dente para los expertos en la o las técnicas relevantes. En todavía otra posible realización, las características de la invención pueden implementarse utilizando una combinación de hardware y software.
Aunque se han descrito realizaciones particulares de la invención, se entenderá, sin embargo, que la invención no está limitada a ellas, ya que los expertos en la materia pueden realizar modificaciones, especialmente a la luz de las enseñanzas que anteceden. Como apreciará el experto, la invención puede llevarse a cabo de una gran variedad de formas, empleando más de una técnica de las descritas más arriba, todo ello sin exceder el alcance de la invención.

Claims (15)

REIVINDICACIONES
1. Un sistema robótico (10) para conducir un vehículo (20) a un destino, comprendiendo el sistema robótico : un sistema de formación de imágenes (12) configurado y operable para adquirir datos de imágenes de al menos una parte del interior del vehículo, y datos de imágenes de los alrededores externos del vehículo; un sistema de manipulación de los actuadores (29) configurado y operable para acoplarse a los actuadores del vehículo (20) para cambiar de forma controlable los estados operativos de los mismos, caracterizado en que
el sistema comprende además un sistema de control (11) configurado y operable para procesar y analizar los datos de imágenes adquiridos por el sistema de formación de imágenes (12) e identificar en los datos de imágenes de al menos una parte del interior del vehículo, datos de imágenes de los indicadores de es­ tado del vehículo (20x) y determinar a partir de ellos al menos los datos de estado del vehículo; y un sopor­ te (22) configurado para fijar fácil y rápidamente el citado sistema robótico (10) a un asiento del conductor (22a) del vehículo (20),
el citado sistema de control (11) está configurado y es operable para determinar, a partir de los datos de imágenes del entorno externo del vehículo, los datos del estado de la carretera, y analizar los citados datos, al menos del estado del vehículo, y los citados datos del estado de la carretera para generar instrucciones de control para conducir el vehículo a lo largo de la citada carretera mediante el citado sistema de manipu­ lación de los actuadores (29).
2. El sistema de la reivindicación 1 que comprende una unidad de posicionamiento (18) configurada y operable para determinar la localización actual del vehículo (20) y en la que el sistema de control (11) está configurado y es operable para recibir de la citada unidad de posicionamiento (18) datos de localización indicativos de una lo­ calización actual del vehículo y datos de la carretera, y determinar una ruta para conducir el vehículo al destino basándose al menos en parte en la citada localización y los citados datos de la carretera.
3. El sistema de la reivindicación 2 que comprende una unidad de comunicación inalámbrica (15) configurada y operable para la comunicación de datos con un sistema informático remoto para recibir al menos los datos de la carretera por medio de la citada unidad de comunicación inalámbrica (15).
4. El sistema de cualquiera de las reivindicaciones precedentes, que comprende una unidad de interfaz de usuario (16) para la comunicación de datos con un usuario, para recibir al menos datos de destino indicativos del des­ tino, y un dispositivo de salida de audio para emitir información audible al usuario por medio de la unidad de in­ terfaz de usuario.
5. El sistema de la reivindicación 4, en el que la unidad de interfaz de usuario (16) comprende un dispositivo de comunicación de datos (16c) configurado y operable para comunicar datos con un dispositivo de usuario (16u), para recibir al menos uno de los datos de localización y los datos de la carretera por medio del dispositivo de comunicación de datos (16c).
6. El sistema de cualquiera de las reivindicaciones precedentes, en el que el soporte (22) comprende un conjunto de base (51) configurado para alojar el sistema de manipulación de los actuadores (29) y para ser fijado al asiento del conductor (22a) del vehículo (2), y un conjunto de soporte vertical (52) configurado para alojar los sistemas de formación de imágenes y control (12 y 11) y para ser fijado a un soporte de respaldo (20b) del cita­ do asiento del conductor (22a).
7. El sistema de cualquiera de las reivindicaciones precedentes, en el que el sistema de manipulación de los ac­ tuadores (29) comprende al menos un sistema de manipulación del pedal de freno (25), un sistema de manipu­ lación del pedal de aceleración (24) y un sistema de manipulación del volante de dirección (23).
8. El sistema de la reivindicación 7, en el que el sistema de manipulación del volante de dirección (23) está aco­ plado elásticamente al soporte (22) para permitir el movimiento del sistema de manipulación del volante de di­ rección en al menos uno de sus ejes de traslación mientras se impide sustancialmente el movimiento angular del mismo.
9. El sistema de la reivindicación 7 u 8, en el que el sistema de manipulación de los actuadores (29) comprende además al menos un sistema de manipulación de palancas configurado y operable para accionar al menos un sistema de cambio de marchas del vehículo.
10. El sistema de una de las reivindicaciones precedentes, en el que el sistema de formación de imágenes (12) está configurado para adquirir datos de imágenes indicativos de los indicadores de estado (20x) en un panel de con­ trol del vehículo, y adquirir datos de imágenes delanteras indicativos de los alrededores externos de la parte de­ lantera del vehículo.
11. El sistema de la reivindicación 10, en el que el sistema de formación de imágenes (12) comprende al menos uno de entre: una unidad generadora de imágenes trasera (43) para adquirir datos de imágenes de la vista trasera del entorno externo del vehículo (20), una unidad de formación de imágenes izquierdas (46) para adquirir datos de imágenes indicativos de al menos una vista izquierda del entorno externo del vehículo (20) y de la vista tra­ sera izquierda reflejada por el espejo lateral izquierdo (20f) del vehículo (20), y una unidad de formación de imá­ genes derechas (45) para adquirir datos de imágenes indicativos de al menos una de las vistas derechas del en­ torno exterior del vehículo y de la vista trasera derecha reflejada por el espejo lateral derecho (20r) del vehículo (20).
12. El sistema de la reivindicación 11, en el que la unidad de generación de imágenes trasera (43) está configurada para adquirir las imágenes de visión trasera del entorno externo del vehículo por medio de un espejo retrovisor (20n) del vehículo (20).
13. Un procedimiento de conducción autónoma de un vehículo (20) hacia un destino utilizando el sistema (10) de una cualquiera de las reivindicaciones precedentes, comprendiendo el procedimiento:
asegurar el soporte (22) del sistema robótico (10) al asiento del conductor (22a) del vehículo (20); recibir del sistema de formación de imágenes (12) datos de imágenes indicativos de al menos los indicado­ res de estado (20x) del vehículo y del entorno exterior del vehículo (20);
identificar en los datos de imágenes recibidos al menos los estados de los citados indicadores de estado (20x) y los objetos en el entorno externo del vehículo (20), y generar respectivamente los datos de estado del vehículo y de la carretera en función de los estados y objetos identificados; y
generar las instrucciones de control para el sistema de manipulación de los actuadores (29) basándose, al menos en parte, en los citados datos de estado del vehículo y de la carretera.
14. El procedimiento de la reivindicación 13, en el que la identificación comprende la detección de al menos uno de los carriles de la carretera y las curvas de la carretera en los datos de las imágenes y la generación de datos de carril indicativos de los mismos utilizables para la navegación del vehículo (20) en la carretera recorrida.
15. El procedimiento de la reivindicación 13 o 14 que comprende el seguimiento de al menos uno de los objetos identificados y la generación de datos de trayectoria indicativos de una trayectoria de los mismos, y la utilización de los citados datos de trayectoria en al menos una de las determinaciones de una ruta hacia un destino del vehículo (20) y la generación de las instrucciones de control.
ES16789408T 2015-05-05 2016-05-02 Sistema universal de conducción robótica autónoma Active ES2891338T3 (es)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US201562156911P 2015-05-05 2015-05-05
PCT/IL2016/050453 WO2016178213A1 (en) 2015-05-05 2016-05-02 Universal autonomous robotic driving system

Publications (1)

Publication Number Publication Date
ES2891338T3 true ES2891338T3 (es) 2022-01-27

Family

ID=57218482

Family Applications (1)

Application Number Title Priority Date Filing Date
ES16789408T Active ES2891338T3 (es) 2015-05-05 2016-05-02 Sistema universal de conducción robótica autónoma

Country Status (7)

Country Link
US (1) US10613544B2 (es)
EP (1) EP3292014B1 (es)
JP (1) JP7023116B2 (es)
CN (1) CN107614308B (es)
ES (1) ES2891338T3 (es)
IL (1) IL255095B (es)
WO (1) WO2016178213A1 (es)

Families Citing this family (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3365143B1 (en) * 2015-10-23 2020-08-12 Yamaha Hatsudoki Kabushiki Kaisha Robot and robot control system
MX2019012666A (es) * 2017-05-02 2020-07-22 Gomaco Corp Sistemas de direccion libre para maquinas moviles.
DE102018200435B3 (de) * 2017-07-31 2018-11-15 Volkswagen Aktiengesellschaft Kraftfahrzeug und Verfahren zum Steuern eines Roboters
CN107571867B (zh) * 2017-09-05 2019-11-08 百度在线网络技术(北京)有限公司 用于控制无人驾驶车辆的方法和装置
KR102374919B1 (ko) * 2017-10-16 2022-03-16 주식회사 만도모빌리티솔루션즈 자율주행 지원 장치 및 방법
CN110871813A (zh) * 2018-08-31 2020-03-10 比亚迪股份有限公司 虚拟机器人的控制方法、装置、车辆、设备和存储介质
WO2020196264A1 (ja) * 2019-03-25 2020-10-01 株式会社明電舎 車両自動運転装置のペダルアクチュエータ
US11467064B2 (en) 2019-03-25 2022-10-11 Meidensha Corporation Transmission actuator attachment structure for automatic vehicle driving device
US11453116B2 (en) 2019-03-25 2022-09-27 Meidensha Corporation Transmission actuator support structure for vehicle automated driving device
US11453350B2 (en) * 2019-03-25 2022-09-27 Meidensha Corporation Support structure for automatic vehicle driving device
JP6750760B1 (ja) 2019-03-25 2020-09-02 株式会社明電舎 車両自動運転装置のトランスミッションアクチュエータ取付構造
US11474002B2 (en) 2019-03-25 2022-10-18 Meidensha Corporation Vehicle automated driving device for mounting a pedal actuator
WO2020198937A1 (en) * 2019-03-29 2020-10-08 Baidu.Com Times Technology (Beijing) Co., Ltd. Communications protocols between planning and control of autonomous driving vehicle
CN110103221A (zh) * 2019-05-21 2019-08-09 深圳市超时空机器人有限公司 一种远程驾驶方法、设备及其系统
WO2020256175A1 (ko) * 2019-06-18 2020-12-24 엘지전자 주식회사 음성인식 로봇에 사용되는 사운드 처리방법
CN110519703A (zh) * 2019-08-28 2019-11-29 北京易控智驾科技有限公司 一种矿车无人驾驶系统
CN110481601B (zh) * 2019-09-04 2022-03-08 深圳市镭神智能系统有限公司 一种轨道检测系统
KR102234194B1 (ko) * 2019-11-08 2021-03-31 재단법인대구경북과학기술원 자율주행차동차의 제어권 전환 안전성 평가 장치 및 이를 이용하는 평가 방법
US11820356B2 (en) 2019-12-20 2023-11-21 Humanetics Austria Gmbh System and method for force compensation in a robotic driving system
CN113276861B (zh) * 2021-06-21 2023-03-28 上汽通用五菱汽车股份有限公司 车辆控制方法、车辆控制系统及存储介质
CN113589835B (zh) * 2021-08-13 2024-05-14 北京科技大学 一种基于自主感知的智能机器人飞行员飞行方法及装置
CN115056849B (zh) * 2022-07-25 2023-03-14 珠海骏驰智联科技有限公司 一种基于视觉检测的汽车智能驾驶方法、装置及存储介质
CN117067228B (zh) * 2023-08-23 2024-03-26 中国人民解放军95791部队 用于驾驶有人机的机器人

Family Cites Families (38)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US3435703A (en) 1967-04-26 1969-04-01 Earl Allgaier Dual control vehicle brake system for driver training automobiles
ATE42831T1 (de) 1986-03-04 1989-05-15 Schenck Ag Carl Bezugsplattform fuer eine arretierbare aufstellung.
DE3940588A1 (de) 1989-12-08 1991-06-13 Georg Witt Fahrroboter
JPH0619307B2 (ja) 1990-12-30 1994-03-16 株式会社堀場製作所 自動車自動運転ロボットの制御方法
JPH0743296B2 (ja) 1991-01-16 1995-05-15 株式会社堀場製作所 自動車自動運転ロボットの制御方法
JPH05312686A (ja) 1992-05-09 1993-11-22 Horiba Ltd 自動車自動運転ロボットの制御方法
US5816106A (en) 1996-05-02 1998-10-06 Chrysler Corporation Column shifter linkage for robotic control of vehicle
US5821718A (en) 1996-05-07 1998-10-13 Chrysler Corporation Robotic system for automated durability road (ADR) facility
US5999865A (en) 1998-01-29 1999-12-07 Inco Limited Autonomous vehicle guidance system
JP2000338006A (ja) * 1999-05-28 2000-12-08 Horiba Ltd 自動車運転システム、自動車運転システムの車両データ設定方法、および、車両制御プログラムを記録した記録媒体
US7113867B1 (en) 2000-11-26 2006-09-26 Mobileye Technologies Limited System and method for detecting obstacles to vehicle motion and determining time to contact therewith using sequences of images
JP2004093354A (ja) * 2002-08-30 2004-03-25 Casio Comput Co Ltd 運転情報出力装置およびプログラム
JP4396400B2 (ja) * 2004-06-02 2010-01-13 トヨタ自動車株式会社 障害物認識装置
JP4020128B2 (ja) * 2005-04-22 2007-12-12 トヨタ自動車株式会社 目標位置設定装置およびそれを備えた駐車支援装置
JP2007112400A (ja) * 2005-10-24 2007-05-10 Denso Corp 車両周囲確認装置
US9373149B2 (en) * 2006-03-17 2016-06-21 Fatdoor, Inc. Autonomous neighborhood vehicle commerce network and community
US8139109B2 (en) 2006-06-19 2012-03-20 Oshkosh Corporation Vision system for an autonomous vehicle
US7628239B1 (en) 2006-08-30 2009-12-08 The United States Of America As Represented By The Secretary Of The Navy Adaptable remote control driving system
US8051936B1 (en) 2006-08-30 2011-11-08 The United States Of America As Represented By The Secretary Of The Navy Human-portable remote control driving system
US8532862B2 (en) 2006-11-29 2013-09-10 Ryan A. Neff Driverless vehicle
US8090489B2 (en) 2007-11-09 2012-01-03 Bruno Delean Computerized driverless vehicles and traffic control system
US8255093B2 (en) * 2008-08-29 2012-08-28 Raytheon Company Kit to adapt an automotive vehicle for remote operation, automotive remote control conversion pedestal, and system
US8319666B2 (en) * 2009-02-20 2012-11-27 Appareo Systems, Llc Optical image monitoring system and method for vehicles
US8365634B2 (en) 2009-09-17 2013-02-05 Exelis Inc. Universal actuation and control of steering mechanisms for mobile vehicles
US8260482B1 (en) 2010-04-28 2012-09-04 Google Inc. User interface for displaying internal state of autonomous driving system
US8346426B1 (en) * 2010-04-28 2013-01-01 Google Inc. User interface for displaying internal state of autonomous driving system
JP5523954B2 (ja) 2010-06-30 2014-06-18 富士通テン株式会社 画像表示システム
US8509982B2 (en) 2010-10-05 2013-08-13 Google Inc. Zone driving
US8078349B1 (en) 2011-05-11 2011-12-13 Google Inc. Transitioning a mixed-mode vehicle to autonomous mode
KR20130085235A (ko) * 2012-01-19 2013-07-29 김동용 자동차의 무인 운전 시스템
EP2815383B1 (en) 2012-02-15 2017-08-16 Mobileye Vision Technologies Ltd. Time to collision using a camera
DE102012015968A1 (de) 2012-08-11 2014-03-06 Audi Ag Verfahren zum fahrerlosen Bewegen eines Fahrzeugs auf einer Parkfläche
CN102881156A (zh) 2012-09-29 2013-01-16 北京龙德天地科技有限公司 一种通道式无人驾驶自主行驶智能公共交通系统
US8825258B2 (en) * 2012-11-30 2014-09-02 Google Inc. Engaging and disengaging for autonomous driving
US8788134B1 (en) 2013-01-04 2014-07-22 GM Global Technology Operations LLC Autonomous driving merge management system
JP5708669B2 (ja) * 2013-01-18 2015-04-30 株式会社デンソー 車両用表示装置
JP2014174081A (ja) * 2013-03-12 2014-09-22 Panasonic Corp 車載用ナビゲーション装置及びナビゲーションシステム
CN104002818A (zh) * 2014-05-27 2014-08-27 昆山市智汽电子科技有限公司 一种集互动与自动为一体的车载系统

Also Published As

Publication number Publication date
JP2018520408A (ja) 2018-07-26
EP3292014A4 (en) 2019-01-02
EP3292014A1 (en) 2018-03-14
WO2016178213A1 (en) 2016-11-10
JP7023116B2 (ja) 2022-02-21
EP3292014B1 (en) 2021-07-14
CN107614308B (zh) 2020-06-26
US20180284801A1 (en) 2018-10-04
IL255095B (en) 2021-05-31
CN107614308A (zh) 2018-01-19
IL255095A0 (en) 2017-12-31
US10613544B2 (en) 2020-04-07

Similar Documents

Publication Publication Date Title
ES2891338T3 (es) Sistema universal de conducción robótica autónoma
KR102511055B1 (ko) 자율 차량들을 위한 중복성 하드웨어 시스템
CN109703561B (zh) 车辆操作系统、车辆操作方法及存储介质
US10843550B2 (en) Thermal management system with two pumps and three loops
KR102012776B1 (ko) 차량용 어라운드 뷰 제공 장치 및 차량
KR102269543B1 (ko) 자율 차량 센서들에 대한 pod 커넥션
US20180113210A1 (en) Mountable Radar System
CN110799804A (zh) 地图生成系统和方法
CN111758017A (zh) 信息处理装置、信息处理方法、程序及移动体
CN107851656B (zh) 摄像装置和测距系统
CN110315961A (zh) 制冷剂和冷却剂级联回路的热系统拓扑
CN110574357B (zh) 成像控制设备、用于控制成像控制设备的方法以及移动体
US11820255B2 (en) Predictive regenerative braking
CN112119282A (zh) 信息处理装置、移动装置、方法和程序
US20230046691A1 (en) External environment sensor data prioritization for autonomous vehicle
CN114120691A (zh) 使用远程辅助逐渐调整车辆传感器视角的方法和系统
US11110970B2 (en) Removable interior for reconfigurable vehicles
CN112298206A (zh) 车辆行驶系统
US20210357667A1 (en) Methods and Systems for Measuring and Mapping Traffic Signals
US20210295563A1 (en) Image processing apparatus, image processing method, and program
US11526175B1 (en) Sensor data prioritization for autonomous vehicle based on vehicle operation data
JP7483627B2 (ja) 情報処理装置、情報処理方法、プログラム、移動体制御装置、及び、移動体
CN117990383A (zh) 测试漫游器设备
Nayak Design and Development of a Low-Cost Autonomous Vehicle.