ES2923218T3 - Sistema de navegación autónomo y vehículo fabricado con el mismo - Google Patents
Sistema de navegación autónomo y vehículo fabricado con el mismo Download PDFInfo
- Publication number
- ES2923218T3 ES2923218T3 ES19713971T ES19713971T ES2923218T3 ES 2923218 T3 ES2923218 T3 ES 2923218T3 ES 19713971 T ES19713971 T ES 19713971T ES 19713971 T ES19713971 T ES 19713971T ES 2923218 T3 ES2923218 T3 ES 2923218T3
- Authority
- ES
- Spain
- Prior art keywords
- processing unit
- autonomous vehicle
- unit
- perception
- vehicle according
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000012545 processing Methods 0.000 claims abstract description 88
- 230000008447 perception Effects 0.000 claims abstract description 30
- 238000004891 communication Methods 0.000 claims abstract description 9
- 239000002420 orchard Substances 0.000 claims description 14
- 230000007613 environmental effect Effects 0.000 claims description 12
- 238000010408 sweeping Methods 0.000 claims description 8
- 238000001514 detection method Methods 0.000 claims description 6
- 238000013507 mapping Methods 0.000 claims description 6
- 238000005259 measurement Methods 0.000 claims description 5
- 230000001133 acceleration Effects 0.000 claims description 4
- 238000003860 storage Methods 0.000 claims description 4
- 238000003306 harvesting Methods 0.000 description 51
- 238000013138 pruning Methods 0.000 description 15
- 238000000034 method Methods 0.000 description 10
- 238000013461 design Methods 0.000 description 5
- 230000008569 process Effects 0.000 description 5
- 235000013399 edible fruits Nutrition 0.000 description 3
- 238000003756 stirring Methods 0.000 description 3
- 230000008901 benefit Effects 0.000 description 2
- 230000000116 mitigating effect Effects 0.000 description 2
- 238000004088 simulation Methods 0.000 description 2
- 238000012546 transfer Methods 0.000 description 2
- 238000002604 ultrasonography Methods 0.000 description 2
- FBPFZTCFMRRESA-JGWLITMVSA-N D-glucitol Chemical compound OC[C@H](O)[C@@H](O)[C@H](O)[C@H](O)CO FBPFZTCFMRRESA-JGWLITMVSA-N 0.000 description 1
- 241000207836 Olea <angiosperm> Species 0.000 description 1
- 241001417527 Pempheridae Species 0.000 description 1
- 241000220304 Prunus dulcis Species 0.000 description 1
- 235000020224 almond Nutrition 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 239000000969 carrier Substances 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000002485 combustion reaction Methods 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 230000008878 coupling Effects 0.000 description 1
- 238000010168 coupling process Methods 0.000 description 1
- 238000005859 coupling reaction Methods 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000004927 fusion Effects 0.000 description 1
- 238000007689 inspection Methods 0.000 description 1
- 230000004807 localization Effects 0.000 description 1
- 238000012423 maintenance Methods 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 238000005065 mining Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 235000014571 nuts Nutrition 0.000 description 1
- 239000013049 sediment Substances 0.000 description 1
- 239000002689 soil Substances 0.000 description 1
- 239000004575 stone Substances 0.000 description 1
- 239000000126 substance Substances 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
- 230000007704 transition Effects 0.000 description 1
- 230000005641 tunneling Effects 0.000 description 1
- 230000035899 viability Effects 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 description 1
Classifications
-
- A—HUMAN NECESSITIES
- A01—AGRICULTURE; FORESTRY; ANIMAL HUSBANDRY; HUNTING; TRAPPING; FISHING
- A01D—HARVESTING; MOWING
- A01D46/00—Picking of fruits, vegetables, hops, or the like; Devices for shaking trees or shrubs
-
- A—HUMAN NECESSITIES
- A01—AGRICULTURE; FORESTRY; ANIMAL HUSBANDRY; HUNTING; TRAPPING; FISHING
- A01D—HARVESTING; MOWING
- A01D46/00—Picking of fruits, vegetables, hops, or the like; Devices for shaking trees or shrubs
- A01D46/30—Robotic devices for individually picking crops
-
- A—HUMAN NECESSITIES
- A01—AGRICULTURE; FORESTRY; ANIMAL HUSBANDRY; HUNTING; TRAPPING; FISHING
- A01B—SOIL WORKING IN AGRICULTURE OR FORESTRY; PARTS, DETAILS, OR ACCESSORIES OF AGRICULTURAL MACHINES OR IMPLEMENTS, IN GENERAL
- A01B79/00—Methods for working soil
- A01B79/005—Precision agriculture
-
- A—HUMAN NECESSITIES
- A01—AGRICULTURE; FORESTRY; ANIMAL HUSBANDRY; HUNTING; TRAPPING; FISHING
- A01D—HARVESTING; MOWING
- A01D46/00—Picking of fruits, vegetables, hops, or the like; Devices for shaking trees or shrubs
- A01D46/26—Devices for shaking trees or shrubs; Fruit catching devices to be used therewith
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S19/00—Satellite radio beacon positioning systems; Determining position, velocity or attitude using signals transmitted by such systems
- G01S19/01—Satellite radio beacon positioning systems transmitting time-stamped messages, e.g. GPS [Global Positioning System], GLONASS [Global Orbiting Navigation Satellite System] or GALILEO
- G01S19/13—Receivers
- G01S19/14—Receivers specially adapted for specific applications
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/0011—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots associated with a remote control arrangement
- G05D1/0022—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots associated with a remote control arrangement characterised by the communication link
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/0055—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots with safety arrangements
- G05D1/0061—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots with safety arrangements for transition from automatic pilot to manual pilot and vice versa
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/0094—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots involving pointing a payload, e.g. camera, weapon, sensor, towards a fixed or moving target
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0276—Control of position or course in two dimensions specially adapted to land vehicles using signals provided by a source external to the vehicle
- G05D1/0278—Control of position or course in two dimensions specially adapted to land vehicles using signals provided by a source external to the vehicle using satellite positioning signals, e.g. GPS
Landscapes
- Engineering & Computer Science (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Life Sciences & Earth Sciences (AREA)
- Environmental Sciences (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Aviation & Aerospace Engineering (AREA)
- Automation & Control Theory (AREA)
- Robotics (AREA)
- Computer Networks & Wireless Communication (AREA)
- Soil Sciences (AREA)
- Mechanical Engineering (AREA)
- Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
Abstract
Un vehículo agrícola autónomo que incluye un juego de ruedas conectado operativamente con una fuente de energía, una unidad de procesamiento que tiene una unidad de memoria y un controlador operable para recibir y transmitir señales a la unidad de procesamiento, donde el controlador es operable para controlar el juego de ruedas. El vehículo agrícola autónomo que incluye además un sistema de comunicación inalámbrico conectado eléctricamente con la unidad de procesamiento, un receptor de satélite de posicionamiento global conectado eléctricamente con la unidad de procesamiento, un primer sensor de percepción conectado eléctricamente con la unidad de procesamiento, en el que el primer sensor de percepción puede operar para detectar características, y un segundo sensor de percepción conectado eléctricamente con la unidad de procesamiento, en el que el segundo sensor de percepción es operable para detectar una característica de un árbol. Donde la unidad de procesamiento puede operar para navegar por un entorno utilizando señales del receptor de satélite de posicionamiento global, y donde la unidad de procesamiento puede operar para navegar por el entorno utilizando señales del primer y segundo sensores de percepción en un entorno sin GPS. (Traducción automática con Google Translate, sin valor legal)
Description
DESCRIPCIÓN
Sistema de navegación autónomo y vehículo fabricado con el mismo
Campo técnico
El objeto descrito actualmente se refiere de forma general a un vehículo de funcionamiento autónomo, y más específicamente, a un sistema de navegación autónomo para entornos de GPS limitados o denegados.
Antecedentes
Cuando tiene lugar la recolección de una cosecha de un huerto particular, las cosechas específicas en miles de árboles maduran en general aproximadamente al mismo tiempo. La recolección de estos miles de árboles es un proceso que consume tiempo y que debe completarse rápidamente mientras el cultivo está óptimamente maduro, y por lo tanto es ventajoso crear sistemas que completen las operaciones de recolección lo más rápido posible. La solución convencional para recolectar rápidamente cultivos de árboles incluye máquinas recolectoras mecanizadas de árboles. Tales máquinas recolectoras generalmente se llevan a una localización próxima a un árbol a cosechar, extendiéndose un cabezal agitador hacia el árbol. El cabezal agitador incluye de forma general mordazas móviles con almohadillas que sujetan el árbol y un motor que da energía al proceso de agitación. Distintos tipos de árboles requieren distintas posiciones de sujeción en el tronco. Los árboles más grandes, y los árboles que se han injertado en un portainjerto más grande, suelen sujetarse a mayor altura del suelo, y los árboles inclinados con frecuencia se sujetan en ángulo.
Cuando se desea que el cultivo no toque el suelo, se utilizan equipos de recolección con armazones de captura. Este método de recolección funciona de forma típica con un par de máquinas recolectoras: un vehículo equipado con agitador con un armazón recolector que opera en un lado de un árbol y un vehículo receptor de cosecha con un armazón recolector en el otro lado del árbol. Ambos vehículos recolectores deben moverse a, y detenerse en, una localización junto a cada uno de los árboles a recolectar para recoger la cosecha.
Además, muchos huertos utilizan el aclareo y/o la poda de flores para facilitar un mayor rendimiento del cultivo. Convencionalmente, los grandes huertos han utilizado aclaradores químicos de flores en la gestión de la carga frutal. Sin embargo, un aumento en la demanda de producción orgánica ha limitado la viabilidad de las técnicas convencionales.
La presente descripción proporciona un sistema y un método que describen un sistema de navegación automatizado más eficaz y eficiente para, entre otros, la recolección y/o la poda en huertos.
US-2005/126144 A1 se refiere a un robot que comprende un sistema de visión artificial que contiene cámaras digitales de estado sólido robustas para identificar y localizar la fruta en cada árbol, acoplado a un sistema de recogida para efectuar la recogida.
Breve sumario
Haciendo referencia a las piezas, partes o superficies correspondientes de la realización descrita, simplemente a título ilustrativo y no de forma excluyente, la presente descripción proporciona, en una primera realización ilustrativa, un vehículo agrícola autónomo que comprende: un conjunto (160, 166) de eje y ruedas conectado operativamente a una fuente de energía (154); una unidad (112) de procesamiento que incluye una unidad de memoria; un equipo (114) de control utilizable para recibir y transmitir señales a dicha unidad de procesamiento, en donde dicho equipo de control puede utilizarse para controlar dicho conjunto de eje y ruedas; un sistema (130, 132) de comunicación inalámbrica conectado eléctricamente a dicha unidad de procesamiento; un receptor (118) de satélite de posicionamiento global conectado eléctricamente a dicha unidad de procesamiento; un primer sensor (116, 120, 122, 124, 126, 128) de percepción conectado eléctricamente a dicha unidad de procesamiento, en donde dicho primer sensor de percepción puede utilizarse para detectar características ambientales; y un segundo sensor (116, 120, 122, 124, 126, 128) de percepción conectado eléctricamente a dicha unidad de procesamiento, en donde dicho segundo sensor de percepción puede utilizarse para detectar una característica de un árbol; en donde dicha unidad de procesamiento puede utilizarse para navegar por un entorno utilizando señales de dicho receptor de satélite de posicionamiento global; y en donde dicha unidad de procesamiento puede utilizarse para navegar dicho entorno utilizando señales de dichos primer y segundo sensor de percepción en un entorno de GPS denegado.
La presente descripción proporciona, en una segunda realización ilustrativa no reivindicada, un vehículo autónomo que comprende: un conjunto (160, 166) de eje y ruedas conectado operativamente a una fuente (154) de energía; una unidad (112) de procesamiento que incluye una unidad de memoria; un equipo (114) de control utilizable para recibir y transmitir señales a dicha unidad de procesamiento, en donde dicho equipo de control puede utilizarse para controlar dicho conjunto de eje y ruedas; un sistema (130, 132) de comunicación inalámbrica conectado eléctricamente a dicha unidad de procesamiento; una pluralidad de sensores (116, 120, 122, 124, 126, 128) de percepción utilizables para transmitir una señal a dicha unidad de procesamiento, en donde dicha pluralidad de sensores de percepción puede utilizarse para detectar características ambientales; y un receptor (118) de satélite de posicionamiento global conectado eléctricamente a dicha unidad de procesamiento; en donde dicha unidad de procesamiento puede utilizarse para navegar un entorno utilizando
señales de dicho receptor de satélite de posicionamiento global; y en donde dicha unidad de procesamiento puede utilizarse para navegar un entorno utilizando señales de dicha pluralidad de sensores de percepción en un entorno de GPS denegado.
Breve descripción de los dibujos
Los dibujos adjuntos se incorporan a la presente memoria como parte de la memoria descriptiva. Los dibujos descritos en la presente memoria ilustran realizaciones del objeto que se describe y son ilustrativos de principios e ideas seleccionados de la presente descripción. Sin embargo, los dibujos no ilustran todas las posibles implementaciones del objeto que se describe y no pretenden limitar en modo alguno el ámbito de la presente descripción.
La Fig. 1 es una vista en planta superior esquemática de un campo que incluye vehículos barredores con sistema operativo autónomo según una realización de la presente descripción.
La Fig. 2 es una vista en planta superior esquemática del campo mostrado en la Fig. 1 que incluye un vehículo recolector con sistema operativo autónomo y un camión lanzadera.
La Fig. 3 es una vista en planta superior esquemática del campo mostrado en la Fig. 1 que incluye el vehículo recolector transfiriendo una carga al camión lanzadera utilizando el sistema operativo autónomo.
La Fig. 4 es una vista en planta superior esquemática del campo mostrado en la Fig. 1 que incluye el camión lanzadera retornando a un elevador que utiliza el sistema operativo autónomo.
La Fig. 5 es una vista en planta superior esquemática del campo mostrado en la Fig. 1 que incluye el camión lanzadera vaciando una carga en el elevador utilizando el sistema operativo autónomo.
La Fig. 6 es un diagrama de bloques del sistema operativo autónomo según una realización de la presente descripción.
La Fig. 7 es una vista de una interfaz gráfica de usuario utilizada para interactuar con el sistema operativo autónomo mostrado en la Fig. 6.
La Fig. 8 es una vista de la interfaz gráfica de usuario mostrada en la Fig. 7.
La Fig. 9 es una vista de la interfaz gráfica de usuario mostrada en la Fig. 7.
La Fig. 10 es una vista de la interfaz gráfica de usuario mostrada en la Fig. 7.
La Fig. 11 es una vista de la interfaz gráfica de usuario mostrada en la Fig. 7.
La Fig. 12 es un esquemático de un vehículo autónomo según una realización de la presente descripción.
Descripción detallada de las realizaciones
Debe entenderse que la invención puede adoptar diversas orientaciones alternativas y secuencias de etapas, excepto donde se especifique expresamente lo contrario. También debe entenderse que las unidades y los sistemas específicos ilustrados en los dibujos adjuntos y descritos en la siguiente memoria descriptiva son simplemente realizaciones ilustrativas de los conceptos de la invención definidos en la presente memoria. Por lo tanto, las dimensiones, direcciones u otras características físicas específicas relacionadas con las realizaciones descritas no deben considerarse limitativas, a menos que se indique expresamente lo contrario. Además, aunque estos pueden no ser elementos similares en diversas realizaciones descritas en la presente memoria, pueden denominarse comúnmente con números de referencia similares dentro de este apartado de la solicitud.
Debe apreciarse que el presente principio es únicamente a ilustrativo, no limitativo. Los conceptos en la presente memoria no se limitan al uso o aplicación con un sistema o método específico. Por lo tanto, aunque los instrumentos descritos en la presente memoria, para facilitar la explicación, se muestran y describen con respecto a realizaciones ilustrativas, se apreciará que los principios de la presente memoria pueden aplicarse igualmente a otros tipos de sistemas y métodos que impliquen vehículos autónomos.
En las Figs. 1-12, un sistema de recolección puede utilizar un equipo especializado y un sistema operativo autónomo (“ SOA” ) 110. La cosecha recogida puede ser, aunque no de forma limitativa, frutos secos de un árbol (p. ej. almendras) y fruta (p. ej. aceitunas y fruta de hueso). En una realización, el sistema de recolección incluye una máquina agitadora M1. La máquina agitadora M1 incluye una pluralidad de sensores 116, 120, 122, 124, 126, 128 utilizables para detectar uno o más árboles. La pluralidad de sensores 116, 120, 122, 124, 126, 128 son utilizables para comunicar señales a una unidad 112 de procesamiento. Los parámetros de control de la máquina agitadora M1, que incluyen una distancia óptima predeterminada entre la máquina agitadora M1 y el árbol de destino, se introducen/programan en el equipo de control de la unidad 112 de procesamiento. Cuando la máquina agitadora M1 se lleva a una localización cerca de un árbol, la unidad 112 de procesamiento inicia un ciclo automatizado de agitación del árbol en el que uno o más de los sensores 116, 120,
122, 124, 126, 128 proporcionan señales representativas de la distancia de la máquina agitadora M1 al árbol como señales de entrada a la unidad 112 de procesamiento. La unidad 112 de procesamiento calcula entonces una distancia medida del árbol de destino a la máquina agitadora M1 y compara la distancia medida con la distancia óptima predeterminada del árbol. Al alcanzar una distancia entre la máquina agitadora M1 y el árbol de destino que está dentro del rango óptimo permisible, la unidad 112 de procesamiento proporciona comandos a un equipo 114 de control para hacer que el cabezal de la máquina agitadora se mueva externamente hacia el árbol y se detenga cuando la distancia medida sea igual o menor que una distancia predeterminada. La unidad 112 de procesamiento proporciona entonces señales de control al equipo 114 de control para hacer que el cabezal de la máquina agitadora sujete y/o enganche el árbol, agite el árbol, suelte/desenganche el árbol y/o retraiga el cabezal de la máquina agitadora. Las señales de entrada adicionales a la unidad 112 de procesamiento incluyen señales de RPM del motor deseadas para controlar la velocidad del motor y las señales de tiempo de agitación del árbol para controlar la duración de la agitación del árbol.
Una unidad 112 de procesamiento de una máquina agitadora M1 puede utilizar los datos de los sensores para navegar, dirigir, impulsar y/o detener automáticamente la máquina agitadora M1 para agitar cada árbol. La unidad 112 de procesamiento calcula las distancias de la máquina agitadora M1 al árbol de destino, y las distancias de árbol a árbol. La unidad 112 de procesamiento utiliza las localizaciones relativas de los árboles para calcular el ajuste angular necesario y gira una pequeña rueda de dirección en el ángulo deseado para orientar la máquina agitadora M1 en la dirección correcta. La unidad 112 de procesamiento hace entonces que la máquina agitadora M1 se mueva a la posición recalculada y el ciclo vuelve a repetirse. Pueden utilizarse varios tipos de sensores 116, 120, 122, 124, 126, 128 con la máquina agitadora M1, incluidos, aunque no de forma limitativa, láseres y un sensor ultrasónico.
La máquina agitadora M1 se utiliza para agitar los árboles seleccionados para la recolección, de modo que la cosecha se libera/se deja caer al suelo del huerto. Una vez en el suelo del huerto, el cultivo puede dejarse reposar y secar durante un período de tiempo (dependiendo de la cosecha recogida). Minimizar este tiempo de reposo es importante porque determinados árboles no pueden regarse durante este período, lo que puede hacer que los árboles estén sometidos a estrés, afectando posiblemente al rendimiento futuro.
El sistema de recolección que utiliza el SOA 110 puede incluir una máquina barredora M2 que tenga uno o más cepillos o cabezales barredores. Una vez que ha reposado la cosecha (donde se desee), la máquina barredora M2 avanza por la huerta y mueve el cultivo formando hileras en el centro del pasillo entre cada fila de árboles utilizando el uno o más cepillos barredores. La cosecha está ahora lista para la recogida, aunque se puede dejar un tiempo de reposo adicional en la hilera para la cosecha.
Como se ilustra en la Fig. 2, el sistema de recolección que utiliza el SOA 110 puede incluir una máquina recolectora M3. La máquina recolectora M3 avanza por cada fila del huerto, recolecta las hileras y deposita las hileras en un contenedor o tolva de almacenamiento integrado/incorporado en la máquina recolectora M3. El almacenamiento integrado en la máquina recolectora M3 puede ser limitado, por lo que una máquina M4 de camión lanzadera se encuentra con la máquina recolectora M3 en el campo, presiona contra la máquina recolectora M3 y ajusta la velocidad, de modo que la cosecha pueda transferirse entre la máquina M4 de camión lanzadera y la máquina recolectora M3. Una vez que la máquina M4 de camión lanzadera está llena, la máquina M4 de camión lanzadera invierte la dirección y avanza hacia un elevador M5 donde la carga se deposita en un camión M6 que llevará la carga a una instalación de procesamiento.
Todas estas actividades de recolección tienen lugar de forma típica dentro de un período de tiempo de dos a tres meses cada año. Tradicionalmente, la recolección supone un aumento de hasta un 50 % en la necesidad de mano de obra. La mayor necesidad de mano de obra incluye conductores para los diversos vehículos. Se requiere que los conductores hagan unos pocos ajustes (menores) a las máquinas una vez comenzado el trabajo. Una única parcela en una única explotación agrícola requiere 22 km (15 millas) de conducción o más. A aproximadamente 5 km/h (3 mph), el proceso incluye 5 horas de conducción a lo largo de filas de árboles casi idénticas. La repetitividad y la duración de la tarea pueden favorecer un rendimiento subóptimo y errores durante la recolección.
En una realización, como se ilustra en la Fig. 12, el SOA 110 se utiliza en un vehículo autónomo 102 para permitir que el vehículo autónomo 102 complete una tarea sin operarios humanos a bordo. El SOA 110 determina un recorrido óptimo por el terreno seleccionado, por ejemplo un huerto, con la entrada del usuario, y navega el entorno a lo largo del recorrido con la entrada del usuario únicamente para abordar eventos inesperados según sea necesario. El SOA 110 puede incluir un sistema de seguridad que incluya monitorizar obstáculos, detener el vehículo cuando se detecten obstáculos y mantener el vehículo autónomo 102 dentro del recorrido óptimo y los límites permitidos durante el funcionamiento del mismo. También puede automatizarse cualquier ajuste al vehículo autónomo 102 realizado durante el funcionamiento del mismo. Los ajustes pueden incluir, por ejemplo, configuraciones de posicionamiento del cepillo barredor y el soplador. Una sola persona puede monitorizar una pluralidad de vehículos autónomos 102, por ejemplo máquinas M2 barredoras, desde una localización in situ.
En una realización, el SOA 110 puede utilizarse con máquinas recolectoras M3 para permitir que las máquinas recolectoras M3 completen la tarea de recoger una cosecha sin operarios humanos a bordo. El SOA 110 incluye determinar un recorrido óptimo por el huerto con la entrada del usuario y navegar el entorno a lo largo del recorrido óptimo con la entrada del usuario únicamente para abordar acontecimientos inesperados según sea necesario. El SOA 110 incluye un sistema para monitorizar obstáculos, detener o redirigir la máquina recolectora M3 cuando se
detectan obstáculos, y mantener la máquina recolectora M3 dentro del recorrido óptimo y los límites permitidos durante el funcionamiento de la máquina recolectora M3. También puede automatizarse cualquier ajuste necesario para la máquina recolectora M3 durante el funcionamiento de la máquina recolectora M3. Los ajustes pueden incluir controles de utensilios de recolección y configuración del sinfín. Una única persona puede monitorizar una pluralidad de máquinas recolectoras M3 desde una localización en la explotación agrícola.
En otra realización, el SOA 110 puede utilizarse con máquinas M4 de camión lanzadera para permitir que las máquinas M4 de camión lanzadera completen una tarea de descargar las máquinas recolectoras M3 sin operarios humanos a bordo. El SOA 110 incluye situar las máquinas recolectoras M3 en el campo, predecir una posición futura en un momento de reencuentro, determinar un recorrido óptimo por el huerto para encontrarse con las máquinas recolectoras M3, navegar el entorno a lo largo del recorrido óptimo y realizar una rutina de acoplamiento y de sincronización de velocidad con la máquina recolectora M3 para transferir una carga de la cosecha de la máquina recolectora M3 a las máquinas M4 de camión lanzadera. Una vez que la transferencia está completa, la máquina M4 de camión lanzadera se desacopla, planifica un recorrido óptimo hacia el elevador M5 y navega el entorno a lo largo del recorrido óptimo con la entrada del usuario únicamente en función de la necesidad para abordar acontecimientos inesperados. El sistema de seguridad monitoriza los obstáculos, detiene las máquinas M4 de camión lanzadera cuando se detectan obstáculos, impide colisiones con las máquinas recolectoras M3 y mantiene las máquinas M4 de camión lanzadera dentro del recorrido óptimo y los límites permitidos durante el funcionamiento de las máquinas M4 de camión lanzadera. También puede automatizarse cualquier ajuste necesario a realizar en las máquinas M4 de camión lanzadera durante el funcionamiento. Los ajustes pueden incluir la configuración del sinfín. Una única persona puede monitorizar una pluralidad de máquinas M4 de camión lanzadera desde una localización en la explotación agrícola.
En una realización, el SOA 110 puede utilizarse con máquinas M4 de camión lanzadera para permitir que las máquinas M4 de camión lanzadera completen una tarea de descargar las máquinas recolectoras M3 sin operarios humanos a bordo.
En una realización, un sistema de aclareo/poda de flores puede utilizar el sistema operativo autónomo (“ SOA” ) 110. El huerto aclarado/podado puede ser, aunque no de forma limitativa, un huerto de manzanas. En una realización, el sistema de aclareo/poda de flores incluye una máquina y/o vehículo autónomo móvil de poda. La máquina de poda incluye una pluralidad de sensores de percepción utilizables para detectar árboles y sus flores. Los sensores de percepción de la máquina de poda transmiten señales a una unidad de procesamiento a bordo. Los parámetros de control de la máquina de poda, que incluyen una distancia predeterminada entre la máquina de poda y el árbol de destino, se introducen en la unidad de procesamiento. Cuando la máquina de poda es conducida a una localización junto a un árbol, la unidad de procesamiento inicia un ciclo automatizado de aclareo/poda de las flores en el que los sensores de percepción proporcionan señales representativas de la distancia de los sensores de percepción de la máquina de poda a las flores del árbol y la distancia relativa entre las flores, como señales de entrada a la unidad de procesamiento. La unidad de procesamiento transmite entonces comandos a un equipo de control a bordo para operar la máquina de poda para eliminar un número predeterminado de flores. Las señales de entrada adicionales a la unidad de procesamiento incluyen señales de RPM del motor deseadas para controlar la velocidad del motor.
Como se ilustra en las Figs. 6 y 12, en una realización, un sistema 100 de vehículo autónomo incluye un vehículo autónomo 102, el SOA 110 y un control remoto 104. El control remoto 104 incluye una estación manual 106 de usuario utilizable para recibir entradas del usuario y una interfaz 108 de usuario utilizable para visualizar la información del sensor del vehículo autónomo 102. El control remoto 104 puede utilizarse para comunicarse con el vehículo autónomo 102 a través de una conexión inalámbrica 130, 132.
El vehículo autónomo 102 incluye una pluralidad de sensores 116, 118, 120, 122, 124, 126, 128 utilizables para transmitir sus datos de sensor a una unidad 112 de procesamiento. En una realización, el sensor 116 es una cámara de profundidad, el sensor 118 es un receptor del global positioning system (sistema de posicionamiento global -[“ GPS” ]), el sensor 120 es una inertial measurement unit (unidad de medición inercial -[“ IMU” ]), el sensor 122 es una unidad de light detection and ranging (detección y alcance de la luz -[“ LIDAR” ]), el sensor 123 es un radar, el sensor 126 es una unidad ultrasónica y el sensor 128 es una unidad de odometría. Las realizaciones de la unidad 112 de procesamiento incluyen al menos un procesador y al menos una unidad de memoria. La unidad 112 de procesamiento está en comunicación eléctrica con un equipo 114 de control. El equipo 114 de control puede utilizarse para recibir señales de comando desde la unidad 112 de procesamiento y controlar la dirección, el acelerador y los frenos del vehículo autónomo 102 utilizando los datos de los sensores. En una realización, el equipo 114 de control también puede utilizarse para recibir señales del grupo 116, 118, 120, 122, 124, 126, 128 de sensores para proporcionar señales de recolección y poda/aclareo al vehículo autónomo 102.
Durante el funcionamiento, cuando el vehículo autónomo 102 entra en un entorno operativo, los sensores 116, 118, 120, 122, 124, 126, 128 a bordo proporcionan datos de localización y conciencia situacional a la unidad 112 de procesamiento. Los datos de los sensores y la información del estatus permiten que la unidad 112 de procesamiento determine el modo de guiado óptimo y sitúe el vehículo autónomo 102 con respecto a cualquier característica detectada o waypoints de GPS en el área adyacente. El proceso de localización llevado a cabo utilizando la unidad 112 de procesamiento crea comandos de planificación de rumbo y recorrido utilizadas por el equipo 114 de control para dirigir, acelerar y frenar el vehículo autónomo 102 para moverse sin obstáculos en su entorno al tiempo que simultáneamente mapea los alrededores.
En una realización, la unidad 112 de procesamiento puede utilizarse en tres modos de guiado de vehículos autónomos: (1) Guiado con GPS, (2) Guiado de localización y (3) Guiado de velocidad de guiñada. La unidad 112 de procesamiento del sistema 100 de vehículo autónomo opera para cambiar entre los modos de guiado cuando los datos GPS son limitados o denegados y/o cuando los sensores de percepción utilizados en el guiado de localización fallan. El guiado con GPS permite que el vehículo autónomo 102 navegue un entorno a través de waypoints de GPS especificados. El guiado de localización permite que el vehículo autónomo 102 navegue un entorno basado en objetos o características detectables, identificados a través de los sensores 116, 120, 122, 124, 126, 128 de percepción del área. El guiado de velocidad de guiñada permite que el vehículo autónomo 102 mantenga su rumbo actual al tiempo que mitiga cualquier velocidad angular alrededor del eje de dirección vertical. El modo de guiado de velocidad de guiñada puede utilizarse como un modo de seguridad, aunque no de forma tan limitativa, si el GPS 118 y los sensores 116, 120, 122, 124, 126, 128 de percepción fallaran simultáneamente.
La unidad de memoria de la unidad 112 de procesamiento puede ahorrar información de posición/localización de características ambientales detectadas y árboles detectados, y proporcionar un mapa del entorno que rodea el vehículo autónomo 102 durante el funcionamiento. Las coordenadas y la información de posición de las características ambientales y árboles con respecto a la localización del vehículo autónomo SOA 110 se guardan en la unidad de memoria y se actualizan a medida que el vehículo autónomo 102 se mueve alrededor del entorno. Esta capacidad para guardar y mapear características detectadas proporciona información relativa a la navegación que puede utilizarse para determinar la localización de una característica ambiental con respecto a otras características ambientales. En una realización, la unidad 112 de procesamiento para el vehículo autónomo 102 se desarrolla utilizando un diseño basado en modelos. Este diseño basado en modelos permite que la unidad 112 de procesamiento se modifique rápidamente y se actualice en un entorno de simulación antes de ser autocodificado directamente al vehículo autónomo 102 a bordo.
En una realización, el SOA 110 se utiliza con el vehículo autónomo 102 que funciona en un entorno visualmente ocluido sin datos de GPS. Como se ilustra en la Fig. 12, en una realización, el vehículo autónomo 102 incluye al menos un eje primario 150 y un eje secundario 152. El vehículo autónomo 102 incluye además una fuente 154 de energía tal como, aunque no de forma limitativa, un motor de combustión interna (“ MCI” ) o un motor/generador eléctrico. La fuente 154 de energía puede denominarse motor en la presente memoria. La fuente 154 de energía se conecta operativamente con una unidad 158 de control frontal. En una realización, una caja de cambios 156 puede estar situada operativamente entre la fuente 154 de energía y la unidad 158 de control frontal. La unidad 158 de control frontal está operativamente conectada con un conjunto de ruedas delanteras 160. Un eje 162 de transmisión puede estar conectado operativamente a la fuente 154 de energía para transmitir energía a la unidad 164 de control posterior. Además, la unidad 164 de control posterior está operativamente conectada a un conjunto de ruedas traseras 166.
El vehículo autónomo 102 incluye el SOA 110 a bordo que tiene la pluralidad de sensores 116, 118, 120, 122, 124, 126, 128. El grupo de sensores 116, 118, 120, 122, 124, 126, 128 está en conexión eléctrica con la unidad 112 de procesamiento. La unidad 112 de procesamiento está en conexión eléctrica adicional con el equipo 114 de control para, entre otros, dirigir, acelerar y frenar el vehículo autónomo 102. Además, la unidad 112 de procesamiento está en comunicación eléctrica con la conexión inalámbrica 132. El equipo 114 de control también puede estar en conexión eléctrica con un sistema de dirección por cable.
El SOA 110 navega un entorno mediante técnicas de fusión de sensores que potencian la conciencia situacional utilizando una combinación de sensores 116, 118, 120, 122, 124, 126, 128. El SOA 110 puede estar equipado con una IMU 120 de calidad táctica y una única antena 118 de GPS para permitir una solución con GPS/sistema de navegación inercial (INS, por sus siglas en inglés). Además, el SOA 110 puede utilizarse para recibir señales de láser, de visión y de sensores de localización por sonido (por ejemplo LIDAR 122, radar 124, ultrasonidos 126 y cámaras 116 de profundidad) para permitir la detección de obstáculos y el funcionamiento continuado en un entorno de GPS denegado.
A medida que el SOA 110 entra en un entorno operativo, el juego de sensores 116, 118, 120, 122, 124, 126, 128 a bordo proporciona datos de localización y conciencia situacional a la unidad 112 de procesamiento. La unidad 112 de procesamiento gestiona la toma de decisiones de alto nivel para el vehículo, incluyendo el manejo de las selecciones, transiciones y fallos del modo de guiado.
A medida que se adquieren los datos de los sensores y la información del estatus, la unidad 112 de procesamiento determina el modo de guiado óptimo y sitúa el SOA 110 con respecto a cualquier característica detectada o waypoints de GPS en las inmediaciones. Este proceso de localización crea comandos de planificación de rumbo y recorrido para la dirección, aceleración y frenado 114, permitiendo de este modo que el vehículo autónomo 110 se mueva sin obstáculos en el entorno al tiempo que mapea simultáneamente los alrededores.
El Modo de guiado con GPS permite que el SOA 110 navegue un entorno a través de waypoints de GPS especificados. La latitud/longitud del SOA 110 y la latitud/longitud del waypoint del GPS de destino pueden especificar un comando de rumbo a seguir por el SOA 110. El conocimiento de la latitud/longitud del waypoint de GPS anterior permite el guiado de líneas de rumbo, forzando al SOA 110 a mantener una línea recta entre los waypoints del GPS anterior y el GPS de destino.
El Modo de guiado de localización permite que el SOA 110 navegue un entorno en función de objetos detectables y/o características de un área. Estas características pueden determinarse a través de los sensores a bordo no basados en GPS tales como el LIDAR 122, el RADAR 124, la cámara 116 de profundidad y/o de ultrasonido 126.
Al identificar las características locales, el Modo de guiado de localización genera un comando de rumbo para navegar de forma segura alrededor de, o entre, objetos.
El Modo de guiado de velocidad de guiñada permite que el SOA 110 mantenga el rumbo actual al tiempo que mitiga cualquier velocidad angular alrededor de un eje de dirección vertical. Este modo puede utilizarse como un modo de seguridad si los sensores GPS y de localización fallaran simultáneamente.
Utilizando los sensores 116, 118, 120, 122, 124, 126 y 128 de localización a bordo, la unidad 112 de procesamiento tiene la capacidad de guardar las características detectadas y proporcionar un mapa del entorno circundante durante el funcionamiento. Las coordenadas de las características con respecto a la localización del SOA 110 pueden guardarse en la memoria y actualizarse a medida que el SOA 110 se mueve alrededor del entorno. El mapeo del entorno proporciona información relativa a la navegación que puede usarse para determinar la localización de una característica con respecto a otra. El sistema de visión a bordo y la cámara 116 de profundidad pueden utilizarse para mejorar el mapeo del entorno con la detección y clasificación de objetos. Además, con los datos de GPS disponibles, puede determinarse la posición de cada característica local.
El vehículo autónomo 102 y el control remoto 104 incluyen una conexión inalámbrica 130, 132. La conexión inalámbrica 130, 132 puede comprender un transmisor/receptor de radiofrecuencia tal como, aunque no de forma limitativa, una conexión Wi-Fi. Sin embargo, pueden emplearse otros modos de comunicación inalámbrica con la conexión inalámbrica 130, 132. El SOA 110 puede utilizarse para recibir señales remotas de la interfaz 108 de usuario a través de una comunicación inalámbrica 130, 132. La interfaz 108 de usuario puede ser, aunque no de forma limitativa, una tablet y/o un ordenador portátil. La conexión inalámbrica 130, 132 entre la interfaz 108 de usuario y el SOA 110 permite al usuario cambiar modos de guiado y la telemetría del monitor y datos de los sensores en tiempo real. El sistema de visión a bordo y la cámara 116 de profundidad proporcionan al usuario información visual del entorno actual del vehículo autónomo y las condiciones operativas. La información del estatus en tiempo real sobre el SOA 110 y la unidad 112 de procesamiento se proporciona a la interfaz 108 de usuario a través de la conexión inalámbrica 130, 132.
Mientras que el SOA 110 proporciona una navegación completamente autónoma y el control del vehículo autónomo 102, el control remoto 104 tiene la capacidad de anular los modos de guiado de la unidad 112 de procesamiento y tomar el control del SOA 110 a través de la estación manual 106 inalámbrica. Los comandos de dirección, aceleración y frenado al equipo 114 de control, junto con selecciones del modo de guiado, pueden introducirse directamente desde la estación manual 106 inalámbrica, permitiendo que el usuario teleopere el SOA 110.
Como se ha descrito anteriormente, la unidad 112 de procesamiento para el SOA 110 puede desarrollarse utilizando un diseño basado en modelos. Esto permite que la unidad 112 de procesamiento se modifique rápidamente y se actualice en un entorno/modelo de simulación antes de ser autocodificado directamente al SOA 110 a bordo. Una ventaja del diseño basado en modelos es la capacidad de someter a prueba el código exacto que guía el SOA 110 antes de funcionar en un entorno real. Además, el diseño basado en modelos permite la documentación y el control de revisión simultáneos de la unidad 112 de procesamiento.
Como se ha descrito anteriormente, el SOA 110 es capaz de operar en un entorno remoto de GPS denegado mientras mapea simultáneamente el entorno. Los sensores 116, 120, 122, 124, 126, 128 de percepción/localización identifican y rastrean características en el área adyacente del SOA 110. Las señales de los sensores de percepción son utilizadas por la unidad 112 de procesamiento para crear comandos de planificación de rumbo y recorrido comunicados al equipo 114 de control para la evitación de obstáculos y la navegación. Los datos de los sensores de percepción y/o la información procesada pueden guardarse en la unidad de memoria de la unidad 112 de procesamiento para fines relacionados con la navegación. Si hubiera datos de GPS disponibles, también es posible el posicionamiento por GPS del vehículo autónomo 102. Sin embargo, muchos entornos impiden la transmisión de la señal de GPS. Por ejemplo, una cubierta del huerto puede bloquear señales de GPS.
En una realización, el vehículo autónomo 102 y el SOA 110 pueden utilizarse en entornos subterráneos. Por ejemplo, en las operaciones de minería y tunelado, las señales de GPS son bloqueadas por el suelo y los sedimentos. El modo de guiado de localización del SOA permite la navegación automática del equipo sin señales de GPS.
En una realización, el vehículo autónomo 102 y el SOA 110 pueden utilizarse en entornos militares. Por ejemplo, en zonas de conflicto pueden interferirse las señales de GPS. El modo de guiado de localización del SOA permite la navegación automatizada sin señales de GPS de transportes de equipo, vehículos de reconocimiento y vehículos de evacuación médica.
En una realización, el vehículo autónomo 102 y el SOA 110 pueden utilizarse en entornos militares. Por ejemplo, en entornos submarinos las señales de GPS pueden estar bloqueadas o limitadas por el agua. El modo de guiado de localización del SOA permite la navegación automática de los sumergibles para la inspección y/o mantenimiento de tuberías de petróleo y gas.
El vehículo autónomo 102 y el SOA 110 ofrecen una serie de ventajas. Por ejemplo, el vehículo autónomo SOA 110 proporciona mecanismos y sistemas para, de forma consistente, hacer cálculos de distancia y localización de características precisas (por ejemplo un árbol) a pesar del hecho de que los obstáculos (por ejemplo ramas de árbol y una cubierta) pueden
interferir con una medición ultrasónica de la distancia de la característica. Además, el vehículo autónomo 102 puede proporcionar una navegación precisa incluso en un entorno polvoriento, de GPS limitado/denegado e impredecible.
Aunque se han descrito anteriormente varias realizaciones en detalle, debe entenderse que se han presentado a modo de ejemplo y no de limitación. Resultará evidente para los expertos en las técnicas relevantes que el objeto descrito puede realizarse en otras formas, variaciones y modificaciones específicas sin abandonar el ámbito de las reivindicaciones. Por lo tanto, las realizaciones descritas anteriormente deben considerarse en todos los aspectos ilustrativas y no restrictivas. El ámbito de la invención se indica mediante las reivindicaciones adjuntas, y todos los cambios que entran dentro del significado y rango de equivalentes del mismo pretenden estar dentro de este ámbito.
Claims (15)
1. Un vehículo autónomo que comprende:
un conjunto (160, 166) de eje y ruedas conectado operativamente con una fuente (154) de energía; una unidad (112) de procesamiento que incluye una unidad de memoria;
un equipo (114) de control utilizable para recibir y transmitir señales a dicha unidad (112) de procesamiento, en donde dicho equipo (114) de control puede utilizarse para controlar dicho conjunto (160, 166) de eje y ruedas; un sistema (130, 132) de comunicación inalámbrica conectado eléctricamente a dicha unidad (112) de procesamiento;
una pluralidad de sensores (116, 120, 122, 124, 126, 128) de percepción utilizables para transmitir una señal a dicha unidad (112) de procesamiento, en donde dicha pluralidad de sensores (116, 120, 122, 124, 126, 128) de percepción puede utilizarse para detectar características ambientales; y
un receptor (118) de satélite de posicionamiento global conectado eléctricamente a dicha unidad (112) de procesamiento;
estando el vehículo autónomo caracterizado por que dicha unidad (112) de procesamiento puede utilizarse para navegar un entorno utilizando señales de dicho receptor (118) de satélite de posicionamiento global en un modo de guiado con GPS; y
en donde dicha unidad (112) de procesamiento puede utilizarse para navegar dicho entorno utilizando señales de dicha pluralidad de sensores (116, 120, 122, 124, 126, 128) de percepción sin señales de dicho receptor de satélite de posicionamiento global en un modo de guiado de localización;
en donde dicha unidad (112) de procesamiento puede utilizarse para cambiar de dicho modo de guiado con GPS a dicho modo de guiado de localización.
2. El vehículo autónomo según la reivindicación 1, en donde dicho sistema (130, 132) de comunicación inalámbrica comprende un transmisor de radiofrecuencia y un receptor de radiofrecuencia.
3. El vehículo autónomo según la reivindicación 1, en donde dicho equipo (114) de control puede utilizarse para ajustar comandos de dirección y de aceleración utilizando señales recibidas desde dicha pluralidad de sensores (116, 120, 122, 124, 126, 128) de percepción; en donde preferiblemente dicho equipo (114) de control está conectado eléctricamente a dicho conjunto (160, 166) de eje y ruedas y está conectado operativamente a dicha fuente (154) de energía.
4. El vehículo autónomo según la reivindicación 1, en donde dicha pluralidad de sensores (116, 120, 122, 124, 126, 128) de percepción comprende una cámara (116) de profundidad, una unidad (120) de medición inercial, una unidad (122) de detección y alcance de la luz, un radar (123), una unidad ultrasónica (126) y una unidad (128) de odometría.
5. El vehículo autónomo según la reivindicación 3, en donde dicho equipo (114) de control transmite información de comandos de dirección y aceleración a dicha unidad (112) de procesamiento.
6. El vehículo autónomo según la reivindicación 1, que comprende además un control remoto (104) que tiene una interfaz (108) de usuario, en donde dicho control remoto (104) puede utilizarse para transmitir comandos a dicha unidad (112) de procesamiento;
en donde preferiblemente dicha interfaz de usuario incluye (108) al menos una selección de modo de guiado de navegación, anulación manual y telemetría en tiempo real.
7. El vehículo autónomo según la reivindicación 1, en donde dicha unidad (112) de procesamiento está configurada para utilizar información transmitida por dicha pluralidad de sensores (116, 120, 122, 124, 126, 128) de percepción para al menos uno de planificación del recorrido, trayectoria, evitación de obstáculos, prevención de colisión con obstáculos, mapeo del entorno y estimación de la posición.
8. El vehículo autónomo según la reivindicación 1, en donde dicha pluralidad de sensores (116, 120, 122, 124, 126, 128) de percepción comprende:
un primer sensor (116, 120, 122, 124, 126, 128) de percepción conectado eléctricamente a dicha unidad (112) de procesamiento, en donde dicho primer sensor (116, 120, 122, 124, 126, 128) de percepción puede utilizarse para detectar características ambientales; y
un segundo sensor (116, 120, 122, 124, 126, 128) de percepción conectado eléctricamente a dicha unidad (112) de procesamiento, en donde dicho segundo sensor (116, 120, 122, 124, 126, 128) de percepción puede utilizarse para detectar una característica de un árbol.
9. El vehículo autónomo según la reivindicación 8, en donde dicho primer sensor (116, 120, 122, 124, 126, 128) de percepción es uno de una cámara (116) de profundidad, una unidad (120) de medición inercial, una unidad (122) de detección y alcance de la luz, un radar (123), una unidad ultrasónica (126) y una unidad (128) de odometría.
10. El vehículo autónomo según la reivindicación 8, en donde dicho segundo sensor (116, 120, 122, 124, 126, 128) de percepción es uno de una cámara (116) de profundidad, una unidad (120) de medición inercial, una unidad (122) de detección y alcance de la luz, un radar (123), una unidad ultrasónica (126) y una unidad (128) de odometría.
11. El vehículo autónomo según la reivindicación 8, que comprende además un cabezal de máquina agitadora de árboles utilizable para acoplarse y agitar un árbol, en donde dichos primer y segundo sensores (116, 120, 122, 124, 126, 128) de percepción comunican información relativa a una distancia entre dicho cabezal de máquina agitadora de árboles y dicho árbol a dicha unidad (112) de procesamiento, y en donde dicha unidad (112) de procesamiento puede utilizarse para proporcionar señales a dicho equipo (114) de control para acoplarse a dicho árbol; en donde preferiblemente dicho entorno comprende un huerto y dichas características ambientales comprenden una cosecha.
12. El vehículo autónomo según la reivindicación 11, que comprende además un cepillo barredor utilizable para mover dicha cosecha formando hileras, en donde dichos primer y segundo sensores (116, 120, 122, 124, 126, 128) de percepción comunican información relativa a una distancia entre dicho cepillo barredor y dicho árbol a dicha unidad (112) de procesamiento.
13. El vehículo autónomo según la reivindicación 11, que comprende además un contenedor de almacenamiento utilizable para recibir dicha cosecha, y en donde dicho contenedor de almacenamiento puede utilizarse para transferir dicha cosecha a un camión lanzadera (M4).
14. El vehículo autónomo según la reivindicación 8, en donde dicha unidad (112) de procesamiento puede utilizarse para recibir y almacenar información de la posición de características ambientales e información de la posición de árboles recibidas de dichos primer y segundo sensores (116, 120, 122, 124, 126, 128) de percepción en dicha unidad de memoria; y
en donde preferiblemente dicha unidad (112) de procesamiento puede utilizarse para utilizar información de posición de una primera característica ambiental almacenada en dicha unidad de memoria para determinar una localización relativa de una segunda característica ambiental.
15. El vehículo autónomo según la reivindicación 1, en donde dicha unidad (112) de procesamiento puede utilizarse navegar en dicho modo de guiado con GPS, dicho modo de guiado de localización, y un modo de guiado de velocidad de guiñada, en donde dicha unidad (112) de procesamiento puede utilizarse para cambiar de dicho modo de guiado con GPS o dicho modo de guiado de localización a dicho modo de guiado de velocidad de guiñada.
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201862642293P | 2018-03-13 | 2018-03-13 | |
PCT/US2019/022153 WO2019178299A1 (en) | 2018-03-13 | 2019-03-13 | Autonomous navigation system and the vehicle made therewith |
Publications (1)
Publication Number | Publication Date |
---|---|
ES2923218T3 true ES2923218T3 (es) | 2022-09-26 |
Family
ID=65952122
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
ES19713971T Active ES2923218T3 (es) | 2018-03-13 | 2019-03-13 | Sistema de navegación autónomo y vehículo fabricado con el mismo |
Country Status (5)
Country | Link |
---|---|
US (1) | US20200404846A1 (es) |
EP (1) | EP3764765B1 (es) |
DK (1) | DK3764765T3 (es) |
ES (1) | ES2923218T3 (es) |
WO (1) | WO2019178299A1 (es) |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
NL2026196B1 (nl) * | 2020-08-01 | 2022-04-04 | Richard Henricus Adrianus Lieshout | Teeltsysteem voorzien van een oogstrobot |
US11882799B2 (en) | 2020-10-30 | 2024-01-30 | Lindsay Corporation | System and method for coordinating movement of agricultural machines and irrigation systems |
US11999379B2 (en) * | 2021-08-05 | 2024-06-04 | Cnh Industrial America Llc | Systems and methods for controlling a work vehicle |
US20240012090A1 (en) * | 2022-07-07 | 2024-01-11 | ThirdEye Gen, Inc | Ultra wideband ai-enhanced imu tracking system for first responder use with smart glasses |
Family Cites Families (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5974348A (en) * | 1996-12-13 | 1999-10-26 | Rocks; James K. | System and method for performing mobile robotic work operations |
US6052647A (en) * | 1997-06-20 | 2000-04-18 | Stanford University | Method and system for automatic control of vehicles based on carrier phase differential GPS |
NL1020804C2 (nl) * | 2002-06-06 | 2003-12-09 | Lely Entpr Ag | Werkwijze en systeem voor het uitvoeren van ten minste twee landbouwbewerkingen op een landbouwperceel. |
US7765780B2 (en) * | 2003-12-12 | 2010-08-03 | Vision Robotics Corporation | Agricultural robot system and method |
US20080033645A1 (en) * | 2006-08-03 | 2008-02-07 | Jesse Sol Levinson | Pobabilistic methods for mapping and localization in arbitrary outdoor environments |
DE102008009753B3 (de) * | 2008-02-18 | 2009-09-10 | Yara International Asa | Verfahren zum Bestimmen der Biomasse und Morphologie von Pflanzenbeständen mittels Ultraschall |
WO2016116888A1 (en) * | 2015-01-21 | 2016-07-28 | Ramot At Tel-Aviv-University Ltd | Agricultural robot |
US9650039B2 (en) * | 2015-03-20 | 2017-05-16 | Ford Global Technologies, Llc | Vehicle location accuracy |
US9852645B2 (en) * | 2015-08-17 | 2017-12-26 | The Boeing Company | Global positioning system (“GPS”) independent navigation system for a self-guided aerial vehicle utilizing multiple optical sensors |
CN105453814B (zh) * | 2016-01-13 | 2017-06-16 | 浙江大学 | 用于番茄摘芽的机器人末端执行器 |
US10126136B2 (en) * | 2016-06-14 | 2018-11-13 | nuTonomy Inc. | Route planning for an autonomous vehicle |
CA3033278A1 (en) * | 2016-10-03 | 2018-04-12 | Agjunction Llc | Using optical sensors to resolve vehicle heading issues |
WO2018117872A1 (en) * | 2016-12-25 | 2018-06-28 | Baomar Haitham | The intelligent autopilot system |
-
2019
- 2019-03-13 WO PCT/US2019/022153 patent/WO2019178299A1/en unknown
- 2019-03-13 DK DK19713971.0T patent/DK3764765T3/da active
- 2019-03-13 EP EP19713971.0A patent/EP3764765B1/en active Active
- 2019-03-13 US US16/978,890 patent/US20200404846A1/en active Pending
- 2019-03-13 ES ES19713971T patent/ES2923218T3/es active Active
Also Published As
Publication number | Publication date |
---|---|
US20200404846A1 (en) | 2020-12-31 |
WO2019178299A1 (en) | 2019-09-19 |
EP3764765B1 (en) | 2022-05-04 |
DK3764765T3 (da) | 2022-07-18 |
EP3764765A1 (en) | 2021-01-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
ES2923218T3 (es) | Sistema de navegación autónomo y vehículo fabricado con el mismo | |
EP2169505B1 (en) | Distributed knowledge base for vehicular localization and work-site management | |
EP2177965B1 (en) | High integrity coordination for multiple off-road machines | |
EP2169507B1 (en) | Distributed knowledge base method for vehicular localization and work-site management | |
US8560145B2 (en) | Distributed knowledge base program for vehicular localization and work-site management | |
US8639408B2 (en) | High integrity coordination system for multiple off-road vehicles | |
AU2011235939A1 (en) | Method and apparatus for machine coordination which maintains line-of-site contact | |
US20240172577A1 (en) | Control system for agricultural machine and agriculture management system | |
WO2023119871A1 (ja) | 自動走行を行う農業機械のための経路計画システムおよび経路計画方法 | |
WO2022203562A1 (en) | Improved navigation for a robotic work tool | |
JP2019115267A (ja) | 農作業支援システム | |
JP2021193514A (ja) | 作業車両の制御システム | |
WO2023218688A1 (ja) | 地図作成システムおよび経路計画システム | |
WO2023234255A1 (ja) | センシングシステム、農業機械、およびセンシング装置 | |
WO2024004881A1 (ja) | 制御システム、制御方法および運搬車 | |
US20240182074A1 (en) | Operation for a robotic work tool | |
WO2024004486A1 (ja) | 作業車両、制御方法および制御システム | |
JP7517134B2 (ja) | 作業車両 | |
EP4368004A1 (en) | Improved operation and installation for a robotic work tool | |
WO2023248909A1 (ja) | 走行制御システム、農業機械および走行制御方法 | |
EP4371390A1 (en) | System and method for controlling at least one robotic mower | |
WO2023127556A1 (ja) | 農業機械、農業機械に用いるセンシングシステムおよびセンシング方法 | |
WO2023127557A1 (ja) | 農業機械、農業機械に用いるセンシングシステムおよびセンシング方法 | |
WO2023106158A1 (ja) | 自動運転を行う農業機械のための経路計画システム | |
EP4378290A1 (en) | Management system, and method for managing access of agricultural machine to field |