ES2923218T3 - Sistema de navegación autónomo y vehículo fabricado con el mismo - Google Patents

Sistema de navegación autónomo y vehículo fabricado con el mismo Download PDF

Info

Publication number
ES2923218T3
ES2923218T3 ES19713971T ES19713971T ES2923218T3 ES 2923218 T3 ES2923218 T3 ES 2923218T3 ES 19713971 T ES19713971 T ES 19713971T ES 19713971 T ES19713971 T ES 19713971T ES 2923218 T3 ES2923218 T3 ES 2923218T3
Authority
ES
Spain
Prior art keywords
processing unit
autonomous vehicle
unit
perception
vehicle according
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
ES19713971T
Other languages
English (en)
Inventor
Michael Fattey
Kevin Eschner
Joseph Baldi
Jason Majchrzak
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Moog Inc
Original Assignee
Moog Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Moog Inc filed Critical Moog Inc
Application granted granted Critical
Publication of ES2923218T3 publication Critical patent/ES2923218T3/es
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • AHUMAN NECESSITIES
    • A01AGRICULTURE; FORESTRY; ANIMAL HUSBANDRY; HUNTING; TRAPPING; FISHING
    • A01DHARVESTING; MOWING
    • A01D46/00Picking of fruits, vegetables, hops, or the like; Devices for shaking trees or shrubs
    • AHUMAN NECESSITIES
    • A01AGRICULTURE; FORESTRY; ANIMAL HUSBANDRY; HUNTING; TRAPPING; FISHING
    • A01DHARVESTING; MOWING
    • A01D46/00Picking of fruits, vegetables, hops, or the like; Devices for shaking trees or shrubs
    • A01D46/30Robotic devices for individually picking crops
    • AHUMAN NECESSITIES
    • A01AGRICULTURE; FORESTRY; ANIMAL HUSBANDRY; HUNTING; TRAPPING; FISHING
    • A01BSOIL WORKING IN AGRICULTURE OR FORESTRY; PARTS, DETAILS, OR ACCESSORIES OF AGRICULTURAL MACHINES OR IMPLEMENTS, IN GENERAL
    • A01B79/00Methods for working soil
    • A01B79/005Precision agriculture
    • AHUMAN NECESSITIES
    • A01AGRICULTURE; FORESTRY; ANIMAL HUSBANDRY; HUNTING; TRAPPING; FISHING
    • A01DHARVESTING; MOWING
    • A01D46/00Picking of fruits, vegetables, hops, or the like; Devices for shaking trees or shrubs
    • A01D46/26Devices for shaking trees or shrubs; Fruit catching devices to be used therewith
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S19/00Satellite radio beacon positioning systems; Determining position, velocity or attitude using signals transmitted by such systems
    • G01S19/01Satellite radio beacon positioning systems transmitting time-stamped messages, e.g. GPS [Global Positioning System], GLONASS [Global Orbiting Navigation Satellite System] or GALILEO
    • G01S19/13Receivers
    • G01S19/14Receivers specially adapted for specific applications
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/0011Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots associated with a remote control arrangement
    • G05D1/0022Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots associated with a remote control arrangement characterised by the communication link
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/0055Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots with safety arrangements
    • G05D1/0061Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots with safety arrangements for transition from automatic pilot to manual pilot and vice versa
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/0094Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots involving pointing a payload, e.g. camera, weapon, sensor, towards a fixed or moving target
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0276Control of position or course in two dimensions specially adapted to land vehicles using signals provided by a source external to the vehicle
    • G05D1/0278Control of position or course in two dimensions specially adapted to land vehicles using signals provided by a source external to the vehicle using satellite positioning signals, e.g. GPS

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Environmental Sciences (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Automation & Control Theory (AREA)
  • Robotics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Soil Sciences (AREA)
  • Mechanical Engineering (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)

Abstract

Un vehículo agrícola autónomo que incluye un juego de ruedas conectado operativamente con una fuente de energía, una unidad de procesamiento que tiene una unidad de memoria y un controlador operable para recibir y transmitir señales a la unidad de procesamiento, donde el controlador es operable para controlar el juego de ruedas. El vehículo agrícola autónomo que incluye además un sistema de comunicación inalámbrico conectado eléctricamente con la unidad de procesamiento, un receptor de satélite de posicionamiento global conectado eléctricamente con la unidad de procesamiento, un primer sensor de percepción conectado eléctricamente con la unidad de procesamiento, en el que el primer sensor de percepción puede operar para detectar características, y un segundo sensor de percepción conectado eléctricamente con la unidad de procesamiento, en el que el segundo sensor de percepción es operable para detectar una característica de un árbol. Donde la unidad de procesamiento puede operar para navegar por un entorno utilizando señales del receptor de satélite de posicionamiento global, y donde la unidad de procesamiento puede operar para navegar por el entorno utilizando señales del primer y segundo sensores de percepción en un entorno sin GPS. (Traducción automática con Google Translate, sin valor legal)

Description

DESCRIPCIÓN
Sistema de navegación autónomo y vehículo fabricado con el mismo
Campo técnico
El objeto descrito actualmente se refiere de forma general a un vehículo de funcionamiento autónomo, y más específicamente, a un sistema de navegación autónomo para entornos de GPS limitados o denegados.
Antecedentes
Cuando tiene lugar la recolección de una cosecha de un huerto particular, las cosechas específicas en miles de árboles maduran en general aproximadamente al mismo tiempo. La recolección de estos miles de árboles es un proceso que consume tiempo y que debe completarse rápidamente mientras el cultivo está óptimamente maduro, y por lo tanto es ventajoso crear sistemas que completen las operaciones de recolección lo más rápido posible. La solución convencional para recolectar rápidamente cultivos de árboles incluye máquinas recolectoras mecanizadas de árboles. Tales máquinas recolectoras generalmente se llevan a una localización próxima a un árbol a cosechar, extendiéndose un cabezal agitador hacia el árbol. El cabezal agitador incluye de forma general mordazas móviles con almohadillas que sujetan el árbol y un motor que da energía al proceso de agitación. Distintos tipos de árboles requieren distintas posiciones de sujeción en el tronco. Los árboles más grandes, y los árboles que se han injertado en un portainjerto más grande, suelen sujetarse a mayor altura del suelo, y los árboles inclinados con frecuencia se sujetan en ángulo.
Cuando se desea que el cultivo no toque el suelo, se utilizan equipos de recolección con armazones de captura. Este método de recolección funciona de forma típica con un par de máquinas recolectoras: un vehículo equipado con agitador con un armazón recolector que opera en un lado de un árbol y un vehículo receptor de cosecha con un armazón recolector en el otro lado del árbol. Ambos vehículos recolectores deben moverse a, y detenerse en, una localización junto a cada uno de los árboles a recolectar para recoger la cosecha.
Además, muchos huertos utilizan el aclareo y/o la poda de flores para facilitar un mayor rendimiento del cultivo. Convencionalmente, los grandes huertos han utilizado aclaradores químicos de flores en la gestión de la carga frutal. Sin embargo, un aumento en la demanda de producción orgánica ha limitado la viabilidad de las técnicas convencionales.
La presente descripción proporciona un sistema y un método que describen un sistema de navegación automatizado más eficaz y eficiente para, entre otros, la recolección y/o la poda en huertos.
US-2005/126144 A1 se refiere a un robot que comprende un sistema de visión artificial que contiene cámaras digitales de estado sólido robustas para identificar y localizar la fruta en cada árbol, acoplado a un sistema de recogida para efectuar la recogida.
Breve sumario
Haciendo referencia a las piezas, partes o superficies correspondientes de la realización descrita, simplemente a título ilustrativo y no de forma excluyente, la presente descripción proporciona, en una primera realización ilustrativa, un vehículo agrícola autónomo que comprende: un conjunto (160, 166) de eje y ruedas conectado operativamente a una fuente de energía (154); una unidad (112) de procesamiento que incluye una unidad de memoria; un equipo (114) de control utilizable para recibir y transmitir señales a dicha unidad de procesamiento, en donde dicho equipo de control puede utilizarse para controlar dicho conjunto de eje y ruedas; un sistema (130, 132) de comunicación inalámbrica conectado eléctricamente a dicha unidad de procesamiento; un receptor (118) de satélite de posicionamiento global conectado eléctricamente a dicha unidad de procesamiento; un primer sensor (116, 120, 122, 124, 126, 128) de percepción conectado eléctricamente a dicha unidad de procesamiento, en donde dicho primer sensor de percepción puede utilizarse para detectar características ambientales; y un segundo sensor (116, 120, 122, 124, 126, 128) de percepción conectado eléctricamente a dicha unidad de procesamiento, en donde dicho segundo sensor de percepción puede utilizarse para detectar una característica de un árbol; en donde dicha unidad de procesamiento puede utilizarse para navegar por un entorno utilizando señales de dicho receptor de satélite de posicionamiento global; y en donde dicha unidad de procesamiento puede utilizarse para navegar dicho entorno utilizando señales de dichos primer y segundo sensor de percepción en un entorno de GPS denegado.
La presente descripción proporciona, en una segunda realización ilustrativa no reivindicada, un vehículo autónomo que comprende: un conjunto (160, 166) de eje y ruedas conectado operativamente a una fuente (154) de energía; una unidad (112) de procesamiento que incluye una unidad de memoria; un equipo (114) de control utilizable para recibir y transmitir señales a dicha unidad de procesamiento, en donde dicho equipo de control puede utilizarse para controlar dicho conjunto de eje y ruedas; un sistema (130, 132) de comunicación inalámbrica conectado eléctricamente a dicha unidad de procesamiento; una pluralidad de sensores (116, 120, 122, 124, 126, 128) de percepción utilizables para transmitir una señal a dicha unidad de procesamiento, en donde dicha pluralidad de sensores de percepción puede utilizarse para detectar características ambientales; y un receptor (118) de satélite de posicionamiento global conectado eléctricamente a dicha unidad de procesamiento; en donde dicha unidad de procesamiento puede utilizarse para navegar un entorno utilizando señales de dicho receptor de satélite de posicionamiento global; y en donde dicha unidad de procesamiento puede utilizarse para navegar un entorno utilizando señales de dicha pluralidad de sensores de percepción en un entorno de GPS denegado.
Breve descripción de los dibujos
Los dibujos adjuntos se incorporan a la presente memoria como parte de la memoria descriptiva. Los dibujos descritos en la presente memoria ilustran realizaciones del objeto que se describe y son ilustrativos de principios e ideas seleccionados de la presente descripción. Sin embargo, los dibujos no ilustran todas las posibles implementaciones del objeto que se describe y no pretenden limitar en modo alguno el ámbito de la presente descripción.
La Fig. 1 es una vista en planta superior esquemática de un campo que incluye vehículos barredores con sistema operativo autónomo según una realización de la presente descripción.
La Fig. 2 es una vista en planta superior esquemática del campo mostrado en la Fig. 1 que incluye un vehículo recolector con sistema operativo autónomo y un camión lanzadera.
La Fig. 3 es una vista en planta superior esquemática del campo mostrado en la Fig. 1 que incluye el vehículo recolector transfiriendo una carga al camión lanzadera utilizando el sistema operativo autónomo.
La Fig. 4 es una vista en planta superior esquemática del campo mostrado en la Fig. 1 que incluye el camión lanzadera retornando a un elevador que utiliza el sistema operativo autónomo.
La Fig. 5 es una vista en planta superior esquemática del campo mostrado en la Fig. 1 que incluye el camión lanzadera vaciando una carga en el elevador utilizando el sistema operativo autónomo.
La Fig. 6 es un diagrama de bloques del sistema operativo autónomo según una realización de la presente descripción.
La Fig. 7 es una vista de una interfaz gráfica de usuario utilizada para interactuar con el sistema operativo autónomo mostrado en la Fig. 6.
La Fig. 8 es una vista de la interfaz gráfica de usuario mostrada en la Fig. 7.
La Fig. 9 es una vista de la interfaz gráfica de usuario mostrada en la Fig. 7.
La Fig. 10 es una vista de la interfaz gráfica de usuario mostrada en la Fig. 7.
La Fig. 11 es una vista de la interfaz gráfica de usuario mostrada en la Fig. 7.
La Fig. 12 es un esquemático de un vehículo autónomo según una realización de la presente descripción.
Descripción detallada de las realizaciones
Debe entenderse que la invención puede adoptar diversas orientaciones alternativas y secuencias de etapas, excepto donde se especifique expresamente lo contrario. También debe entenderse que las unidades y los sistemas específicos ilustrados en los dibujos adjuntos y descritos en la siguiente memoria descriptiva son simplemente realizaciones ilustrativas de los conceptos de la invención definidos en la presente memoria. Por lo tanto, las dimensiones, direcciones u otras características físicas específicas relacionadas con las realizaciones descritas no deben considerarse limitativas, a menos que se indique expresamente lo contrario. Además, aunque estos pueden no ser elementos similares en diversas realizaciones descritas en la presente memoria, pueden denominarse comúnmente con números de referencia similares dentro de este apartado de la solicitud.
Debe apreciarse que el presente principio es únicamente a ilustrativo, no limitativo. Los conceptos en la presente memoria no se limitan al uso o aplicación con un sistema o método específico. Por lo tanto, aunque los instrumentos descritos en la presente memoria, para facilitar la explicación, se muestran y describen con respecto a realizaciones ilustrativas, se apreciará que los principios de la presente memoria pueden aplicarse igualmente a otros tipos de sistemas y métodos que impliquen vehículos autónomos.
En las Figs. 1-12, un sistema de recolección puede utilizar un equipo especializado y un sistema operativo autónomo (“ SOA” ) 110. La cosecha recogida puede ser, aunque no de forma limitativa, frutos secos de un árbol (p. ej. almendras) y fruta (p. ej. aceitunas y fruta de hueso). En una realización, el sistema de recolección incluye una máquina agitadora M1. La máquina agitadora M1 incluye una pluralidad de sensores 116, 120, 122, 124, 126, 128 utilizables para detectar uno o más árboles. La pluralidad de sensores 116, 120, 122, 124, 126, 128 son utilizables para comunicar señales a una unidad 112 de procesamiento. Los parámetros de control de la máquina agitadora M1, que incluyen una distancia óptima predeterminada entre la máquina agitadora M1 y el árbol de destino, se introducen/programan en el equipo de control de la unidad 112 de procesamiento. Cuando la máquina agitadora M1 se lleva a una localización cerca de un árbol, la unidad 112 de procesamiento inicia un ciclo automatizado de agitación del árbol en el que uno o más de los sensores 116, 120, 122, 124, 126, 128 proporcionan señales representativas de la distancia de la máquina agitadora M1 al árbol como señales de entrada a la unidad 112 de procesamiento. La unidad 112 de procesamiento calcula entonces una distancia medida del árbol de destino a la máquina agitadora M1 y compara la distancia medida con la distancia óptima predeterminada del árbol. Al alcanzar una distancia entre la máquina agitadora M1 y el árbol de destino que está dentro del rango óptimo permisible, la unidad 112 de procesamiento proporciona comandos a un equipo 114 de control para hacer que el cabezal de la máquina agitadora se mueva externamente hacia el árbol y se detenga cuando la distancia medida sea igual o menor que una distancia predeterminada. La unidad 112 de procesamiento proporciona entonces señales de control al equipo 114 de control para hacer que el cabezal de la máquina agitadora sujete y/o enganche el árbol, agite el árbol, suelte/desenganche el árbol y/o retraiga el cabezal de la máquina agitadora. Las señales de entrada adicionales a la unidad 112 de procesamiento incluyen señales de RPM del motor deseadas para controlar la velocidad del motor y las señales de tiempo de agitación del árbol para controlar la duración de la agitación del árbol.
Una unidad 112 de procesamiento de una máquina agitadora M1 puede utilizar los datos de los sensores para navegar, dirigir, impulsar y/o detener automáticamente la máquina agitadora M1 para agitar cada árbol. La unidad 112 de procesamiento calcula las distancias de la máquina agitadora M1 al árbol de destino, y las distancias de árbol a árbol. La unidad 112 de procesamiento utiliza las localizaciones relativas de los árboles para calcular el ajuste angular necesario y gira una pequeña rueda de dirección en el ángulo deseado para orientar la máquina agitadora M1 en la dirección correcta. La unidad 112 de procesamiento hace entonces que la máquina agitadora M1 se mueva a la posición recalculada y el ciclo vuelve a repetirse. Pueden utilizarse varios tipos de sensores 116, 120, 122, 124, 126, 128 con la máquina agitadora M1, incluidos, aunque no de forma limitativa, láseres y un sensor ultrasónico.
La máquina agitadora M1 se utiliza para agitar los árboles seleccionados para la recolección, de modo que la cosecha se libera/se deja caer al suelo del huerto. Una vez en el suelo del huerto, el cultivo puede dejarse reposar y secar durante un período de tiempo (dependiendo de la cosecha recogida). Minimizar este tiempo de reposo es importante porque determinados árboles no pueden regarse durante este período, lo que puede hacer que los árboles estén sometidos a estrés, afectando posiblemente al rendimiento futuro.
El sistema de recolección que utiliza el SOA 110 puede incluir una máquina barredora M2 que tenga uno o más cepillos o cabezales barredores. Una vez que ha reposado la cosecha (donde se desee), la máquina barredora M2 avanza por la huerta y mueve el cultivo formando hileras en el centro del pasillo entre cada fila de árboles utilizando el uno o más cepillos barredores. La cosecha está ahora lista para la recogida, aunque se puede dejar un tiempo de reposo adicional en la hilera para la cosecha.
Como se ilustra en la Fig. 2, el sistema de recolección que utiliza el SOA 110 puede incluir una máquina recolectora M3. La máquina recolectora M3 avanza por cada fila del huerto, recolecta las hileras y deposita las hileras en un contenedor o tolva de almacenamiento integrado/incorporado en la máquina recolectora M3. El almacenamiento integrado en la máquina recolectora M3 puede ser limitado, por lo que una máquina M4 de camión lanzadera se encuentra con la máquina recolectora M3 en el campo, presiona contra la máquina recolectora M3 y ajusta la velocidad, de modo que la cosecha pueda transferirse entre la máquina M4 de camión lanzadera y la máquina recolectora M3. Una vez que la máquina M4 de camión lanzadera está llena, la máquina M4 de camión lanzadera invierte la dirección y avanza hacia un elevador M5 donde la carga se deposita en un camión M6 que llevará la carga a una instalación de procesamiento.
Todas estas actividades de recolección tienen lugar de forma típica dentro de un período de tiempo de dos a tres meses cada año. Tradicionalmente, la recolección supone un aumento de hasta un 50 % en la necesidad de mano de obra. La mayor necesidad de mano de obra incluye conductores para los diversos vehículos. Se requiere que los conductores hagan unos pocos ajustes (menores) a las máquinas una vez comenzado el trabajo. Una única parcela en una única explotación agrícola requiere 22 km (15 millas) de conducción o más. A aproximadamente 5 km/h (3 mph), el proceso incluye 5 horas de conducción a lo largo de filas de árboles casi idénticas. La repetitividad y la duración de la tarea pueden favorecer un rendimiento subóptimo y errores durante la recolección.
En una realización, como se ilustra en la Fig. 12, el SOA 110 se utiliza en un vehículo autónomo 102 para permitir que el vehículo autónomo 102 complete una tarea sin operarios humanos a bordo. El SOA 110 determina un recorrido óptimo por el terreno seleccionado, por ejemplo un huerto, con la entrada del usuario, y navega el entorno a lo largo del recorrido con la entrada del usuario únicamente para abordar eventos inesperados según sea necesario. El SOA 110 puede incluir un sistema de seguridad que incluya monitorizar obstáculos, detener el vehículo cuando se detecten obstáculos y mantener el vehículo autónomo 102 dentro del recorrido óptimo y los límites permitidos durante el funcionamiento del mismo. También puede automatizarse cualquier ajuste al vehículo autónomo 102 realizado durante el funcionamiento del mismo. Los ajustes pueden incluir, por ejemplo, configuraciones de posicionamiento del cepillo barredor y el soplador. Una sola persona puede monitorizar una pluralidad de vehículos autónomos 102, por ejemplo máquinas M2 barredoras, desde una localización in situ.
En una realización, el SOA 110 puede utilizarse con máquinas recolectoras M3 para permitir que las máquinas recolectoras M3 completen la tarea de recoger una cosecha sin operarios humanos a bordo. El SOA 110 incluye determinar un recorrido óptimo por el huerto con la entrada del usuario y navegar el entorno a lo largo del recorrido óptimo con la entrada del usuario únicamente para abordar acontecimientos inesperados según sea necesario. El SOA 110 incluye un sistema para monitorizar obstáculos, detener o redirigir la máquina recolectora M3 cuando se detectan obstáculos, y mantener la máquina recolectora M3 dentro del recorrido óptimo y los límites permitidos durante el funcionamiento de la máquina recolectora M3. También puede automatizarse cualquier ajuste necesario para la máquina recolectora M3 durante el funcionamiento de la máquina recolectora M3. Los ajustes pueden incluir controles de utensilios de recolección y configuración del sinfín. Una única persona puede monitorizar una pluralidad de máquinas recolectoras M3 desde una localización en la explotación agrícola.
En otra realización, el SOA 110 puede utilizarse con máquinas M4 de camión lanzadera para permitir que las máquinas M4 de camión lanzadera completen una tarea de descargar las máquinas recolectoras M3 sin operarios humanos a bordo. El SOA 110 incluye situar las máquinas recolectoras M3 en el campo, predecir una posición futura en un momento de reencuentro, determinar un recorrido óptimo por el huerto para encontrarse con las máquinas recolectoras M3, navegar el entorno a lo largo del recorrido óptimo y realizar una rutina de acoplamiento y de sincronización de velocidad con la máquina recolectora M3 para transferir una carga de la cosecha de la máquina recolectora M3 a las máquinas M4 de camión lanzadera. Una vez que la transferencia está completa, la máquina M4 de camión lanzadera se desacopla, planifica un recorrido óptimo hacia el elevador M5 y navega el entorno a lo largo del recorrido óptimo con la entrada del usuario únicamente en función de la necesidad para abordar acontecimientos inesperados. El sistema de seguridad monitoriza los obstáculos, detiene las máquinas M4 de camión lanzadera cuando se detectan obstáculos, impide colisiones con las máquinas recolectoras M3 y mantiene las máquinas M4 de camión lanzadera dentro del recorrido óptimo y los límites permitidos durante el funcionamiento de las máquinas M4 de camión lanzadera. También puede automatizarse cualquier ajuste necesario a realizar en las máquinas M4 de camión lanzadera durante el funcionamiento. Los ajustes pueden incluir la configuración del sinfín. Una única persona puede monitorizar una pluralidad de máquinas M4 de camión lanzadera desde una localización en la explotación agrícola.
En una realización, el SOA 110 puede utilizarse con máquinas M4 de camión lanzadera para permitir que las máquinas M4 de camión lanzadera completen una tarea de descargar las máquinas recolectoras M3 sin operarios humanos a bordo.
En una realización, un sistema de aclareo/poda de flores puede utilizar el sistema operativo autónomo (“ SOA” ) 110. El huerto aclarado/podado puede ser, aunque no de forma limitativa, un huerto de manzanas. En una realización, el sistema de aclareo/poda de flores incluye una máquina y/o vehículo autónomo móvil de poda. La máquina de poda incluye una pluralidad de sensores de percepción utilizables para detectar árboles y sus flores. Los sensores de percepción de la máquina de poda transmiten señales a una unidad de procesamiento a bordo. Los parámetros de control de la máquina de poda, que incluyen una distancia predeterminada entre la máquina de poda y el árbol de destino, se introducen en la unidad de procesamiento. Cuando la máquina de poda es conducida a una localización junto a un árbol, la unidad de procesamiento inicia un ciclo automatizado de aclareo/poda de las flores en el que los sensores de percepción proporcionan señales representativas de la distancia de los sensores de percepción de la máquina de poda a las flores del árbol y la distancia relativa entre las flores, como señales de entrada a la unidad de procesamiento. La unidad de procesamiento transmite entonces comandos a un equipo de control a bordo para operar la máquina de poda para eliminar un número predeterminado de flores. Las señales de entrada adicionales a la unidad de procesamiento incluyen señales de RPM del motor deseadas para controlar la velocidad del motor.
Como se ilustra en las Figs. 6 y 12, en una realización, un sistema 100 de vehículo autónomo incluye un vehículo autónomo 102, el SOA 110 y un control remoto 104. El control remoto 104 incluye una estación manual 106 de usuario utilizable para recibir entradas del usuario y una interfaz 108 de usuario utilizable para visualizar la información del sensor del vehículo autónomo 102. El control remoto 104 puede utilizarse para comunicarse con el vehículo autónomo 102 a través de una conexión inalámbrica 130, 132.
El vehículo autónomo 102 incluye una pluralidad de sensores 116, 118, 120, 122, 124, 126, 128 utilizables para transmitir sus datos de sensor a una unidad 112 de procesamiento. En una realización, el sensor 116 es una cámara de profundidad, el sensor 118 es un receptor del global positioning system (sistema de posicionamiento global -[“ GPS” ]), el sensor 120 es una inertial measurement unit (unidad de medición inercial -[“ IMU” ]), el sensor 122 es una unidad de light detection and ranging (detección y alcance de la luz -[“ LIDAR” ]), el sensor 123 es un radar, el sensor 126 es una unidad ultrasónica y el sensor 128 es una unidad de odometría. Las realizaciones de la unidad 112 de procesamiento incluyen al menos un procesador y al menos una unidad de memoria. La unidad 112 de procesamiento está en comunicación eléctrica con un equipo 114 de control. El equipo 114 de control puede utilizarse para recibir señales de comando desde la unidad 112 de procesamiento y controlar la dirección, el acelerador y los frenos del vehículo autónomo 102 utilizando los datos de los sensores. En una realización, el equipo 114 de control también puede utilizarse para recibir señales del grupo 116, 118, 120, 122, 124, 126, 128 de sensores para proporcionar señales de recolección y poda/aclareo al vehículo autónomo 102.
Durante el funcionamiento, cuando el vehículo autónomo 102 entra en un entorno operativo, los sensores 116, 118, 120, 122, 124, 126, 128 a bordo proporcionan datos de localización y conciencia situacional a la unidad 112 de procesamiento. Los datos de los sensores y la información del estatus permiten que la unidad 112 de procesamiento determine el modo de guiado óptimo y sitúe el vehículo autónomo 102 con respecto a cualquier característica detectada o waypoints de GPS en el área adyacente. El proceso de localización llevado a cabo utilizando la unidad 112 de procesamiento crea comandos de planificación de rumbo y recorrido utilizadas por el equipo 114 de control para dirigir, acelerar y frenar el vehículo autónomo 102 para moverse sin obstáculos en su entorno al tiempo que simultáneamente mapea los alrededores.
En una realización, la unidad 112 de procesamiento puede utilizarse en tres modos de guiado de vehículos autónomos: (1) Guiado con GPS, (2) Guiado de localización y (3) Guiado de velocidad de guiñada. La unidad 112 de procesamiento del sistema 100 de vehículo autónomo opera para cambiar entre los modos de guiado cuando los datos GPS son limitados o denegados y/o cuando los sensores de percepción utilizados en el guiado de localización fallan. El guiado con GPS permite que el vehículo autónomo 102 navegue un entorno a través de waypoints de GPS especificados. El guiado de localización permite que el vehículo autónomo 102 navegue un entorno basado en objetos o características detectables, identificados a través de los sensores 116, 120, 122, 124, 126, 128 de percepción del área. El guiado de velocidad de guiñada permite que el vehículo autónomo 102 mantenga su rumbo actual al tiempo que mitiga cualquier velocidad angular alrededor del eje de dirección vertical. El modo de guiado de velocidad de guiñada puede utilizarse como un modo de seguridad, aunque no de forma tan limitativa, si el GPS 118 y los sensores 116, 120, 122, 124, 126, 128 de percepción fallaran simultáneamente.
La unidad de memoria de la unidad 112 de procesamiento puede ahorrar información de posición/localización de características ambientales detectadas y árboles detectados, y proporcionar un mapa del entorno que rodea el vehículo autónomo 102 durante el funcionamiento. Las coordenadas y la información de posición de las características ambientales y árboles con respecto a la localización del vehículo autónomo SOA 110 se guardan en la unidad de memoria y se actualizan a medida que el vehículo autónomo 102 se mueve alrededor del entorno. Esta capacidad para guardar y mapear características detectadas proporciona información relativa a la navegación que puede utilizarse para determinar la localización de una característica ambiental con respecto a otras características ambientales. En una realización, la unidad 112 de procesamiento para el vehículo autónomo 102 se desarrolla utilizando un diseño basado en modelos. Este diseño basado en modelos permite que la unidad 112 de procesamiento se modifique rápidamente y se actualice en un entorno de simulación antes de ser autocodificado directamente al vehículo autónomo 102 a bordo.
En una realización, el SOA 110 se utiliza con el vehículo autónomo 102 que funciona en un entorno visualmente ocluido sin datos de GPS. Como se ilustra en la Fig. 12, en una realización, el vehículo autónomo 102 incluye al menos un eje primario 150 y un eje secundario 152. El vehículo autónomo 102 incluye además una fuente 154 de energía tal como, aunque no de forma limitativa, un motor de combustión interna (“ MCI” ) o un motor/generador eléctrico. La fuente 154 de energía puede denominarse motor en la presente memoria. La fuente 154 de energía se conecta operativamente con una unidad 158 de control frontal. En una realización, una caja de cambios 156 puede estar situada operativamente entre la fuente 154 de energía y la unidad 158 de control frontal. La unidad 158 de control frontal está operativamente conectada con un conjunto de ruedas delanteras 160. Un eje 162 de transmisión puede estar conectado operativamente a la fuente 154 de energía para transmitir energía a la unidad 164 de control posterior. Además, la unidad 164 de control posterior está operativamente conectada a un conjunto de ruedas traseras 166.
El vehículo autónomo 102 incluye el SOA 110 a bordo que tiene la pluralidad de sensores 116, 118, 120, 122, 124, 126, 128. El grupo de sensores 116, 118, 120, 122, 124, 126, 128 está en conexión eléctrica con la unidad 112 de procesamiento. La unidad 112 de procesamiento está en conexión eléctrica adicional con el equipo 114 de control para, entre otros, dirigir, acelerar y frenar el vehículo autónomo 102. Además, la unidad 112 de procesamiento está en comunicación eléctrica con la conexión inalámbrica 132. El equipo 114 de control también puede estar en conexión eléctrica con un sistema de dirección por cable.
El SOA 110 navega un entorno mediante técnicas de fusión de sensores que potencian la conciencia situacional utilizando una combinación de sensores 116, 118, 120, 122, 124, 126, 128. El SOA 110 puede estar equipado con una IMU 120 de calidad táctica y una única antena 118 de GPS para permitir una solución con GPS/sistema de navegación inercial (INS, por sus siglas en inglés). Además, el SOA 110 puede utilizarse para recibir señales de láser, de visión y de sensores de localización por sonido (por ejemplo LIDAR 122, radar 124, ultrasonidos 126 y cámaras 116 de profundidad) para permitir la detección de obstáculos y el funcionamiento continuado en un entorno de GPS denegado.
A medida que el SOA 110 entra en un entorno operativo, el juego de sensores 116, 118, 120, 122, 124, 126, 128 a bordo proporciona datos de localización y conciencia situacional a la unidad 112 de procesamiento. La unidad 112 de procesamiento gestiona la toma de decisiones de alto nivel para el vehículo, incluyendo el manejo de las selecciones, transiciones y fallos del modo de guiado.
A medida que se adquieren los datos de los sensores y la información del estatus, la unidad 112 de procesamiento determina el modo de guiado óptimo y sitúa el SOA 110 con respecto a cualquier característica detectada o waypoints de GPS en las inmediaciones. Este proceso de localización crea comandos de planificación de rumbo y recorrido para la dirección, aceleración y frenado 114, permitiendo de este modo que el vehículo autónomo 110 se mueva sin obstáculos en el entorno al tiempo que mapea simultáneamente los alrededores.
El Modo de guiado con GPS permite que el SOA 110 navegue un entorno a través de waypoints de GPS especificados. La latitud/longitud del SOA 110 y la latitud/longitud del waypoint del GPS de destino pueden especificar un comando de rumbo a seguir por el SOA 110. El conocimiento de la latitud/longitud del waypoint de GPS anterior permite el guiado de líneas de rumbo, forzando al SOA 110 a mantener una línea recta entre los waypoints del GPS anterior y el GPS de destino.
El Modo de guiado de localización permite que el SOA 110 navegue un entorno en función de objetos detectables y/o características de un área. Estas características pueden determinarse a través de los sensores a bordo no basados en GPS tales como el LIDAR 122, el RADAR 124, la cámara 116 de profundidad y/o de ultrasonido 126.
Al identificar las características locales, el Modo de guiado de localización genera un comando de rumbo para navegar de forma segura alrededor de, o entre, objetos.
El Modo de guiado de velocidad de guiñada permite que el SOA 110 mantenga el rumbo actual al tiempo que mitiga cualquier velocidad angular alrededor de un eje de dirección vertical. Este modo puede utilizarse como un modo de seguridad si los sensores GPS y de localización fallaran simultáneamente.
Utilizando los sensores 116, 118, 120, 122, 124, 126 y 128 de localización a bordo, la unidad 112 de procesamiento tiene la capacidad de guardar las características detectadas y proporcionar un mapa del entorno circundante durante el funcionamiento. Las coordenadas de las características con respecto a la localización del SOA 110 pueden guardarse en la memoria y actualizarse a medida que el SOA 110 se mueve alrededor del entorno. El mapeo del entorno proporciona información relativa a la navegación que puede usarse para determinar la localización de una característica con respecto a otra. El sistema de visión a bordo y la cámara 116 de profundidad pueden utilizarse para mejorar el mapeo del entorno con la detección y clasificación de objetos. Además, con los datos de GPS disponibles, puede determinarse la posición de cada característica local.
El vehículo autónomo 102 y el control remoto 104 incluyen una conexión inalámbrica 130, 132. La conexión inalámbrica 130, 132 puede comprender un transmisor/receptor de radiofrecuencia tal como, aunque no de forma limitativa, una conexión Wi-Fi. Sin embargo, pueden emplearse otros modos de comunicación inalámbrica con la conexión inalámbrica 130, 132. El SOA 110 puede utilizarse para recibir señales remotas de la interfaz 108 de usuario a través de una comunicación inalámbrica 130, 132. La interfaz 108 de usuario puede ser, aunque no de forma limitativa, una tablet y/o un ordenador portátil. La conexión inalámbrica 130, 132 entre la interfaz 108 de usuario y el SOA 110 permite al usuario cambiar modos de guiado y la telemetría del monitor y datos de los sensores en tiempo real. El sistema de visión a bordo y la cámara 116 de profundidad proporcionan al usuario información visual del entorno actual del vehículo autónomo y las condiciones operativas. La información del estatus en tiempo real sobre el SOA 110 y la unidad 112 de procesamiento se proporciona a la interfaz 108 de usuario a través de la conexión inalámbrica 130, 132.
Mientras que el SOA 110 proporciona una navegación completamente autónoma y el control del vehículo autónomo 102, el control remoto 104 tiene la capacidad de anular los modos de guiado de la unidad 112 de procesamiento y tomar el control del SOA 110 a través de la estación manual 106 inalámbrica. Los comandos de dirección, aceleración y frenado al equipo 114 de control, junto con selecciones del modo de guiado, pueden introducirse directamente desde la estación manual 106 inalámbrica, permitiendo que el usuario teleopere el SOA 110.
Como se ha descrito anteriormente, la unidad 112 de procesamiento para el SOA 110 puede desarrollarse utilizando un diseño basado en modelos. Esto permite que la unidad 112 de procesamiento se modifique rápidamente y se actualice en un entorno/modelo de simulación antes de ser autocodificado directamente al SOA 110 a bordo. Una ventaja del diseño basado en modelos es la capacidad de someter a prueba el código exacto que guía el SOA 110 antes de funcionar en un entorno real. Además, el diseño basado en modelos permite la documentación y el control de revisión simultáneos de la unidad 112 de procesamiento.
Como se ha descrito anteriormente, el SOA 110 es capaz de operar en un entorno remoto de GPS denegado mientras mapea simultáneamente el entorno. Los sensores 116, 120, 122, 124, 126, 128 de percepción/localización identifican y rastrean características en el área adyacente del SOA 110. Las señales de los sensores de percepción son utilizadas por la unidad 112 de procesamiento para crear comandos de planificación de rumbo y recorrido comunicados al equipo 114 de control para la evitación de obstáculos y la navegación. Los datos de los sensores de percepción y/o la información procesada pueden guardarse en la unidad de memoria de la unidad 112 de procesamiento para fines relacionados con la navegación. Si hubiera datos de GPS disponibles, también es posible el posicionamiento por GPS del vehículo autónomo 102. Sin embargo, muchos entornos impiden la transmisión de la señal de GPS. Por ejemplo, una cubierta del huerto puede bloquear señales de GPS.
En una realización, el vehículo autónomo 102 y el SOA 110 pueden utilizarse en entornos subterráneos. Por ejemplo, en las operaciones de minería y tunelado, las señales de GPS son bloqueadas por el suelo y los sedimentos. El modo de guiado de localización del SOA permite la navegación automática del equipo sin señales de GPS.
En una realización, el vehículo autónomo 102 y el SOA 110 pueden utilizarse en entornos militares. Por ejemplo, en zonas de conflicto pueden interferirse las señales de GPS. El modo de guiado de localización del SOA permite la navegación automatizada sin señales de GPS de transportes de equipo, vehículos de reconocimiento y vehículos de evacuación médica.
En una realización, el vehículo autónomo 102 y el SOA 110 pueden utilizarse en entornos militares. Por ejemplo, en entornos submarinos las señales de GPS pueden estar bloqueadas o limitadas por el agua. El modo de guiado de localización del SOA permite la navegación automática de los sumergibles para la inspección y/o mantenimiento de tuberías de petróleo y gas.
El vehículo autónomo 102 y el SOA 110 ofrecen una serie de ventajas. Por ejemplo, el vehículo autónomo SOA 110 proporciona mecanismos y sistemas para, de forma consistente, hacer cálculos de distancia y localización de características precisas (por ejemplo un árbol) a pesar del hecho de que los obstáculos (por ejemplo ramas de árbol y una cubierta) pueden interferir con una medición ultrasónica de la distancia de la característica. Además, el vehículo autónomo 102 puede proporcionar una navegación precisa incluso en un entorno polvoriento, de GPS limitado/denegado e impredecible.
Aunque se han descrito anteriormente varias realizaciones en detalle, debe entenderse que se han presentado a modo de ejemplo y no de limitación. Resultará evidente para los expertos en las técnicas relevantes que el objeto descrito puede realizarse en otras formas, variaciones y modificaciones específicas sin abandonar el ámbito de las reivindicaciones. Por lo tanto, las realizaciones descritas anteriormente deben considerarse en todos los aspectos ilustrativas y no restrictivas. El ámbito de la invención se indica mediante las reivindicaciones adjuntas, y todos los cambios que entran dentro del significado y rango de equivalentes del mismo pretenden estar dentro de este ámbito.

Claims (15)

REIVINDICACIONES
1. Un vehículo autónomo que comprende:
un conjunto (160, 166) de eje y ruedas conectado operativamente con una fuente (154) de energía; una unidad (112) de procesamiento que incluye una unidad de memoria;
un equipo (114) de control utilizable para recibir y transmitir señales a dicha unidad (112) de procesamiento, en donde dicho equipo (114) de control puede utilizarse para controlar dicho conjunto (160, 166) de eje y ruedas; un sistema (130, 132) de comunicación inalámbrica conectado eléctricamente a dicha unidad (112) de procesamiento;
una pluralidad de sensores (116, 120, 122, 124, 126, 128) de percepción utilizables para transmitir una señal a dicha unidad (112) de procesamiento, en donde dicha pluralidad de sensores (116, 120, 122, 124, 126, 128) de percepción puede utilizarse para detectar características ambientales; y
un receptor (118) de satélite de posicionamiento global conectado eléctricamente a dicha unidad (112) de procesamiento;
estando el vehículo autónomo caracterizado por que dicha unidad (112) de procesamiento puede utilizarse para navegar un entorno utilizando señales de dicho receptor (118) de satélite de posicionamiento global en un modo de guiado con GPS; y
en donde dicha unidad (112) de procesamiento puede utilizarse para navegar dicho entorno utilizando señales de dicha pluralidad de sensores (116, 120, 122, 124, 126, 128) de percepción sin señales de dicho receptor de satélite de posicionamiento global en un modo de guiado de localización;
en donde dicha unidad (112) de procesamiento puede utilizarse para cambiar de dicho modo de guiado con GPS a dicho modo de guiado de localización.
2. El vehículo autónomo según la reivindicación 1, en donde dicho sistema (130, 132) de comunicación inalámbrica comprende un transmisor de radiofrecuencia y un receptor de radiofrecuencia.
3. El vehículo autónomo según la reivindicación 1, en donde dicho equipo (114) de control puede utilizarse para ajustar comandos de dirección y de aceleración utilizando señales recibidas desde dicha pluralidad de sensores (116, 120, 122, 124, 126, 128) de percepción; en donde preferiblemente dicho equipo (114) de control está conectado eléctricamente a dicho conjunto (160, 166) de eje y ruedas y está conectado operativamente a dicha fuente (154) de energía.
4. El vehículo autónomo según la reivindicación 1, en donde dicha pluralidad de sensores (116, 120, 122, 124, 126, 128) de percepción comprende una cámara (116) de profundidad, una unidad (120) de medición inercial, una unidad (122) de detección y alcance de la luz, un radar (123), una unidad ultrasónica (126) y una unidad (128) de odometría.
5. El vehículo autónomo según la reivindicación 3, en donde dicho equipo (114) de control transmite información de comandos de dirección y aceleración a dicha unidad (112) de procesamiento.
6. El vehículo autónomo según la reivindicación 1, que comprende además un control remoto (104) que tiene una interfaz (108) de usuario, en donde dicho control remoto (104) puede utilizarse para transmitir comandos a dicha unidad (112) de procesamiento;
en donde preferiblemente dicha interfaz de usuario incluye (108) al menos una selección de modo de guiado de navegación, anulación manual y telemetría en tiempo real.
7. El vehículo autónomo según la reivindicación 1, en donde dicha unidad (112) de procesamiento está configurada para utilizar información transmitida por dicha pluralidad de sensores (116, 120, 122, 124, 126, 128) de percepción para al menos uno de planificación del recorrido, trayectoria, evitación de obstáculos, prevención de colisión con obstáculos, mapeo del entorno y estimación de la posición.
8. El vehículo autónomo según la reivindicación 1, en donde dicha pluralidad de sensores (116, 120, 122, 124, 126, 128) de percepción comprende:
un primer sensor (116, 120, 122, 124, 126, 128) de percepción conectado eléctricamente a dicha unidad (112) de procesamiento, en donde dicho primer sensor (116, 120, 122, 124, 126, 128) de percepción puede utilizarse para detectar características ambientales; y
un segundo sensor (116, 120, 122, 124, 126, 128) de percepción conectado eléctricamente a dicha unidad (112) de procesamiento, en donde dicho segundo sensor (116, 120, 122, 124, 126, 128) de percepción puede utilizarse para detectar una característica de un árbol.
9. El vehículo autónomo según la reivindicación 8, en donde dicho primer sensor (116, 120, 122, 124, 126, 128) de percepción es uno de una cámara (116) de profundidad, una unidad (120) de medición inercial, una unidad (122) de detección y alcance de la luz, un radar (123), una unidad ultrasónica (126) y una unidad (128) de odometría.
10. El vehículo autónomo según la reivindicación 8, en donde dicho segundo sensor (116, 120, 122, 124, 126, 128) de percepción es uno de una cámara (116) de profundidad, una unidad (120) de medición inercial, una unidad (122) de detección y alcance de la luz, un radar (123), una unidad ultrasónica (126) y una unidad (128) de odometría.
11. El vehículo autónomo según la reivindicación 8, que comprende además un cabezal de máquina agitadora de árboles utilizable para acoplarse y agitar un árbol, en donde dichos primer y segundo sensores (116, 120, 122, 124, 126, 128) de percepción comunican información relativa a una distancia entre dicho cabezal de máquina agitadora de árboles y dicho árbol a dicha unidad (112) de procesamiento, y en donde dicha unidad (112) de procesamiento puede utilizarse para proporcionar señales a dicho equipo (114) de control para acoplarse a dicho árbol; en donde preferiblemente dicho entorno comprende un huerto y dichas características ambientales comprenden una cosecha.
12. El vehículo autónomo según la reivindicación 11, que comprende además un cepillo barredor utilizable para mover dicha cosecha formando hileras, en donde dichos primer y segundo sensores (116, 120, 122, 124, 126, 128) de percepción comunican información relativa a una distancia entre dicho cepillo barredor y dicho árbol a dicha unidad (112) de procesamiento.
13. El vehículo autónomo según la reivindicación 11, que comprende además un contenedor de almacenamiento utilizable para recibir dicha cosecha, y en donde dicho contenedor de almacenamiento puede utilizarse para transferir dicha cosecha a un camión lanzadera (M4).
14. El vehículo autónomo según la reivindicación 8, en donde dicha unidad (112) de procesamiento puede utilizarse para recibir y almacenar información de la posición de características ambientales e información de la posición de árboles recibidas de dichos primer y segundo sensores (116, 120, 122, 124, 126, 128) de percepción en dicha unidad de memoria; y
en donde preferiblemente dicha unidad (112) de procesamiento puede utilizarse para utilizar información de posición de una primera característica ambiental almacenada en dicha unidad de memoria para determinar una localización relativa de una segunda característica ambiental.
15. El vehículo autónomo según la reivindicación 1, en donde dicha unidad (112) de procesamiento puede utilizarse navegar en dicho modo de guiado con GPS, dicho modo de guiado de localización, y un modo de guiado de velocidad de guiñada, en donde dicha unidad (112) de procesamiento puede utilizarse para cambiar de dicho modo de guiado con GPS o dicho modo de guiado de localización a dicho modo de guiado de velocidad de guiñada.
ES19713971T 2018-03-13 2019-03-13 Sistema de navegación autónomo y vehículo fabricado con el mismo Active ES2923218T3 (es)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US201862642293P 2018-03-13 2018-03-13
PCT/US2019/022153 WO2019178299A1 (en) 2018-03-13 2019-03-13 Autonomous navigation system and the vehicle made therewith

Publications (1)

Publication Number Publication Date
ES2923218T3 true ES2923218T3 (es) 2022-09-26

Family

ID=65952122

Family Applications (1)

Application Number Title Priority Date Filing Date
ES19713971T Active ES2923218T3 (es) 2018-03-13 2019-03-13 Sistema de navegación autónomo y vehículo fabricado con el mismo

Country Status (5)

Country Link
US (1) US20200404846A1 (es)
EP (1) EP3764765B1 (es)
DK (1) DK3764765T3 (es)
ES (1) ES2923218T3 (es)
WO (1) WO2019178299A1 (es)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
NL2026196B1 (nl) * 2020-08-01 2022-04-04 Richard Henricus Adrianus Lieshout Teeltsysteem voorzien van een oogstrobot
US11882799B2 (en) 2020-10-30 2024-01-30 Lindsay Corporation System and method for coordinating movement of agricultural machines and irrigation systems
US11999379B2 (en) * 2021-08-05 2024-06-04 Cnh Industrial America Llc Systems and methods for controlling a work vehicle
US20240012090A1 (en) * 2022-07-07 2024-01-11 ThirdEye Gen, Inc Ultra wideband ai-enhanced imu tracking system for first responder use with smart glasses

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5974348A (en) * 1996-12-13 1999-10-26 Rocks; James K. System and method for performing mobile robotic work operations
US6052647A (en) * 1997-06-20 2000-04-18 Stanford University Method and system for automatic control of vehicles based on carrier phase differential GPS
NL1020804C2 (nl) * 2002-06-06 2003-12-09 Lely Entpr Ag Werkwijze en systeem voor het uitvoeren van ten minste twee landbouwbewerkingen op een landbouwperceel.
US7765780B2 (en) * 2003-12-12 2010-08-03 Vision Robotics Corporation Agricultural robot system and method
US20080033645A1 (en) * 2006-08-03 2008-02-07 Jesse Sol Levinson Pobabilistic methods for mapping and localization in arbitrary outdoor environments
DE102008009753B3 (de) * 2008-02-18 2009-09-10 Yara International Asa Verfahren zum Bestimmen der Biomasse und Morphologie von Pflanzenbeständen mittels Ultraschall
WO2016116888A1 (en) * 2015-01-21 2016-07-28 Ramot At Tel-Aviv-University Ltd Agricultural robot
US9650039B2 (en) * 2015-03-20 2017-05-16 Ford Global Technologies, Llc Vehicle location accuracy
US9852645B2 (en) * 2015-08-17 2017-12-26 The Boeing Company Global positioning system (“GPS”) independent navigation system for a self-guided aerial vehicle utilizing multiple optical sensors
CN105453814B (zh) * 2016-01-13 2017-06-16 浙江大学 用于番茄摘芽的机器人末端执行器
US10126136B2 (en) * 2016-06-14 2018-11-13 nuTonomy Inc. Route planning for an autonomous vehicle
CA3033278A1 (en) * 2016-10-03 2018-04-12 Agjunction Llc Using optical sensors to resolve vehicle heading issues
WO2018117872A1 (en) * 2016-12-25 2018-06-28 Baomar Haitham The intelligent autopilot system

Also Published As

Publication number Publication date
US20200404846A1 (en) 2020-12-31
WO2019178299A1 (en) 2019-09-19
EP3764765B1 (en) 2022-05-04
DK3764765T3 (da) 2022-07-18
EP3764765A1 (en) 2021-01-20

Similar Documents

Publication Publication Date Title
ES2923218T3 (es) Sistema de navegación autónomo y vehículo fabricado con el mismo
EP2169505B1 (en) Distributed knowledge base for vehicular localization and work-site management
EP2177965B1 (en) High integrity coordination for multiple off-road machines
EP2169507B1 (en) Distributed knowledge base method for vehicular localization and work-site management
US8560145B2 (en) Distributed knowledge base program for vehicular localization and work-site management
US8639408B2 (en) High integrity coordination system for multiple off-road vehicles
AU2011235939A1 (en) Method and apparatus for machine coordination which maintains line-of-site contact
US20240172577A1 (en) Control system for agricultural machine and agriculture management system
WO2023119871A1 (ja) 自動走行を行う農業機械のための経路計画システムおよび経路計画方法
WO2022203562A1 (en) Improved navigation for a robotic work tool
JP2019115267A (ja) 農作業支援システム
JP2021193514A (ja) 作業車両の制御システム
WO2023218688A1 (ja) 地図作成システムおよび経路計画システム
WO2023234255A1 (ja) センシングシステム、農業機械、およびセンシング装置
WO2024004881A1 (ja) 制御システム、制御方法および運搬車
US20240182074A1 (en) Operation for a robotic work tool
WO2024004486A1 (ja) 作業車両、制御方法および制御システム
JP7517134B2 (ja) 作業車両
EP4368004A1 (en) Improved operation and installation for a robotic work tool
WO2023248909A1 (ja) 走行制御システム、農業機械および走行制御方法
EP4371390A1 (en) System and method for controlling at least one robotic mower
WO2023127556A1 (ja) 農業機械、農業機械に用いるセンシングシステムおよびセンシング方法
WO2023127557A1 (ja) 農業機械、農業機械に用いるセンシングシステムおよびセンシング方法
WO2023106158A1 (ja) 自動運転を行う農業機械のための経路計画システム
EP4378290A1 (en) Management system, and method for managing access of agricultural machine to field