ES2905883T3 - Robot agrícola - Google Patents

Robot agrícola Download PDF

Info

Publication number
ES2905883T3
ES2905883T3 ES16739863T ES16739863T ES2905883T3 ES 2905883 T3 ES2905883 T3 ES 2905883T3 ES 16739863 T ES16739863 T ES 16739863T ES 16739863 T ES16739863 T ES 16739863T ES 2905883 T3 ES2905883 T3 ES 2905883T3
Authority
ES
Spain
Prior art keywords
plant
acoustic signal
agrybot
frequency
agricultural robot
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
ES16739863T
Other languages
English (en)
Inventor
Gabor Kosa
Avital Bechar
Yosef Yovel
Roee Finkelshtain
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ramot at Tel Aviv University Ltd
Israel Ministry of Agriculture and Rural Development
Agricultural Research Organization of Israel Ministry of Agriculture
Original Assignee
Ramot at Tel Aviv University Ltd
Israel Ministry of Agriculture and Rural Development
Agricultural Research Organization of Israel Ministry of Agriculture
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ramot at Tel Aviv University Ltd, Israel Ministry of Agriculture and Rural Development, Agricultural Research Organization of Israel Ministry of Agriculture filed Critical Ramot at Tel Aviv University Ltd
Application granted granted Critical
Publication of ES2905883T3 publication Critical patent/ES2905883T3/es
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/0011Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots associated with a remote control arrangement
    • G05D1/0022Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots associated with a remote control arrangement characterised by the communication link
    • AHUMAN NECESSITIES
    • A01AGRICULTURE; FORESTRY; ANIMAL HUSBANDRY; HUNTING; TRAPPING; FISHING
    • A01BSOIL WORKING IN AGRICULTURE OR FORESTRY; PARTS, DETAILS, OR ACCESSORIES OF AGRICULTURAL MACHINES OR IMPLEMENTS, IN GENERAL
    • A01B69/00Steering of agricultural machines or implements; Guiding agricultural machines or implements on a desired track
    • A01B69/003Steering or guiding of machines or implements pushed or pulled by or mounted on agricultural vehicles such as tractors, e.g. by lateral shifting of the towing connection
    • A01B69/004Steering or guiding of machines or implements pushed or pulled by or mounted on agricultural vehicles such as tractors, e.g. by lateral shifting of the towing connection automatic
    • AHUMAN NECESSITIES
    • A01AGRICULTURE; FORESTRY; ANIMAL HUSBANDRY; HUNTING; TRAPPING; FISHING
    • A01BSOIL WORKING IN AGRICULTURE OR FORESTRY; PARTS, DETAILS, OR ACCESSORIES OF AGRICULTURAL MACHINES OR IMPLEMENTS, IN GENERAL
    • A01B79/00Methods for working soil
    • A01B79/005Precision agriculture
    • AHUMAN NECESSITIES
    • A01AGRICULTURE; FORESTRY; ANIMAL HUSBANDRY; HUNTING; TRAPPING; FISHING
    • A01DHARVESTING; MOWING
    • A01D46/00Picking of fruits, vegetables, hops, or the like; Devices for shaking trees or shrubs
    • A01D46/30Robotic devices for individually picking crops
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0255Control of position or course in two dimensions specially adapted to land vehicles using acoustic signals, e.g. ultra-sonic singals

Landscapes

  • Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Environmental Sciences (AREA)
  • Mechanical Engineering (AREA)
  • Soil Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • General Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Robotics (AREA)
  • Acoustics & Sound (AREA)
  • Investigating Or Analyzing Materials By The Use Of Ultrasonic Waves (AREA)
  • Guiding Agricultural Machines (AREA)

Abstract

Un robot (100) agrícola para monitorizar un sitio de cultivo, el robot: que comprende un módulo (120) sensor que comprende: un altavoz (122) operable para transmitir una señal acústica direccional a un objeto; y un micrófono (124) operable para registrar un reflejo de la señal acústica del objeto; un analizador (170) de sonido operable para indexar en el tiempo el reflejo registrado y usar el reflejo indexado en el tiempo para localizar el objeto; y una plataforma (160) móvil autónoma a la que se monta el módulo sensor, caracterizado porque el altavoz (122) está configurado para transmitir la señal acústica direccional al objeto con una frecuencia de la señal acústica que aumenta y/o disminuye en función del tiempo.

Description

DESCRIPCIÓN
Robot agrícola
SOLICITUDES RELACIONADAS
Esta solicitud reivindica beneficio bajo 35 U.S.C. 119(e) de la solicitud provisional de U.S. 62/105,763 presentada el 21 de enero de 2015.
CAMPO TÉCNICO
Las realizaciones de la divulgación se refieren a un robot agrícola.
ANTECEDENTES
La agricultura moderna que proporciona productos para alimentar a la creciente población mundial es un proceso industrial complejo que implica la inversión y la gestión de recursos naturales y artificiales tales como tierra, suelo artificial, agua, luz solar, nutrientes y pesticidas para promover el crecimiento de las plantas que proporciona cosechas abundantes y económicas. La salud de las plantas, la tasa de crecimiento y los rendimientos de los cultivos están sujetos a variables, tales como el clima, las enfermedades y las infestaciones de insectos, que pueden ser difíciles de anticipar y operar para hacer que la provisión eficiente y la administración oportuna de los recursos sean una tarea relativamente compleja. Ya sea agricultura de invernadero, campo abierto o huerta, la monitorización eficiente y cercana del crecimiento y la salud de las plantas, y de los granos, frutas y vegetales que producen, puede ser particularmente ventajoso para facilitar la gestión efectiva de los recursos. Los robots agrícolas para monitorizar un sitio de cultivo usando sensores ultrasónicos se conocen a partir de los documentos US 6.671.582 B1 y CN 102 124 866 B.
RESUMEN
De acuerdo con la invención, se proporciona un robot agrícola para monitorizar un sitio de cultivo de acuerdo con el tema de la reivindicación 1, y un método para controlar un robot agrícola en un sitio de cultivo de acuerdo con el tema de la reivindicación 9. Se divulgan realizaciones de la invención de acuerdo con el objeto de las reivindicaciones dependientes 2-8 y 10-14.
En la discusión, a menos que se indique lo contrario, se entiende que expresiones tales como "sustancialmente" y "sobre" que modifican una condición o relación característica de un rango o rangos de una realización de la divulgación, significan que la condición o característica está definida dentro de las tolerancias que son aceptables para la operación de la realización para una aplicación a la que está destinada. A menos que se indique lo contrario, la expresión "o" en la descripción y las reivindicaciones se considera como el "o" inclusivo en lugar del exclusivo o, e indica al menos uno de o cualquier combinación de los elementos de los mismos.
Este resumen se proporciona para presentar una selección de conceptos en una forma simplificada que se describen más adelante en la descripción detallada. Este resumen no pretende identificar los rasgos clave o las funciones esenciales del objeto reivindicado, ni pretende ser utilizado para limitar el alcance del objeto reivindicado.
BREVE DESCRIPCIÓN DE LAS FIGURAS
Los ejemplos no limitativos de realizaciones de la divulgación se describen a continuación con referencia a las figuras adjuntas que se enumeran a continuación de este párrafo. Los rangos idénticos que aparecen en más de una figura generalmente se etiquetan con una misma etiqueta en todas las figuras en las que aparecen. Se puede utilizar una etiqueta que etiquete un icono que representa un rango dado de una realización de la divulgación en una figura para hacer referencia al rango dado. Las dimensiones de los rangos que se muestran en las figuras se eligen por conveniencia y claridad de presentación y no necesariamente se muestran a escala.
Las figuras 1A-1C muestran ilustraciones esquemáticas de un AGRYbot según una realización de la divulgación en un campo agrícola;
La figura 1D muestra un diagrama de bloques que representa un AGRYbot según una realización de la divulgación;
La figura 2 muestra un espectrograma de una señal acústica y su eco registrado por un micrófono incluido en el AGRYbot según una realización de la divulgación;
Las figuras 3A-3B muestran espectrogramas adicionales de señales acústicas registradas;
La figura 4 muestra una ilustración esquemática de un AGRYbot según una realización de la divulgación escaneando un campo agrícola;
Las figuras 5A-5B muestran ejemplos de análisis de señales acústicas registradas;
Las figuras 6A-6B muestran ejemplos de análisis de señales acústicas registradas;
La figura 7 muestra una ilustración esquemática de un AGRYbot según una realización de la divulgación que se mueve a través de un campo agrícola;
Las figuras 8 y 9 muestran ejemplos de clasificación de objetos representados en señales de retorno registradas;
Las figuras 10A y 10B muestran ilustraciones esquemáticas de un AGRYbot según una realización de la divulgación moviéndose a través de un campo agrícola para identificar una planta que tiene fruta;
La figura 10C muestra una ilustración esquemática de un mapa de un área de cultivo de plantas generado por un analizador de sonido según una realización de la divulgación;
La figura 11 muestra una ilustración esquemática de un AGRYbot aéreo según una realización de la divulgación; y
La figura 12 muestra una ilustración esquemática de un equipo de AGRYbots según una realización de la divulgación.
DESCRIPCIÓN DETALLADA
Las figuras. 1A-1B muestran esquemáticamente un AGRYbot 100 según una realización de la divulgación. El AGRYbot 100 comprende un módulo 120 sensor que está conectado a un vehículo 160 autónomo a través de un manipulador 140 robótico.
En una realización de la divulgación, el módulo 120 sensor puede comprender un altavoz 122 y un micrófono 124. El altavoz 122 transmite una señal 220 acústica y el micrófono 124 registra un eco 220 de la señal 220 acústica que se refleja en los objetos, a modo de ejemplo, la hilera 300 de plantas que comprende plantas 320 agrícolas, que pueden tener frutos 322, en un ambiente iluminado por la señal acústica. El micrófono 124 puede comprender un convertidor analógico a digital (ADC; no mostrado) que digitaliza los sonidos registrados por el micrófono.
En una realización de la divulgación, la señal 220 acústica es una señal direccional que se dispersa gradualmente en un patrón similar a un cono desde el altavoz 122. Opcionalmente, la señal 220 acústica es una "señal de chirrido" de amplio espectro, en la que la longitud de onda de la señal cambia en función del tiempo. Opcionalmente, la señal 220 de chirrido se caracteriza por una frecuencia de sonido descendente o ascendente entre aproximadamente 20 kHz (kilohercios) y aproximadamente 200 kHz, entre aproximadamente 20 kHz y aproximadamente 120 kHz, o entre aproximadamente 15 kHz y aproximadamente 90 kHz. Opcionalmente, cada señal de chirrido tiene una duración de aproximadamente 2 milisegundos (ms), aproximadamente 5 ms, aproximadamente 10 ms, aproximadamente 20 ms, aproximadamente 50 ms, aproximadamente 75 ms o aproximadamente 100 ms. Opcionalmente, la frecuencia de la señal de chirrido cambia linealmente con el tiempo. Opcionalmente, la señal de chirrido tiene una potencia constante en el tiempo.
Para facilitar la presentación, la señal de chirrido transmitida desde el altavoz 122 y registrada por el micrófono 124 directamente sin que se refleje primero en los objetos puede denominarse en este documento "chirrido transmitido" y un eco de la señal de chirrido registrada por el micrófono 124 después de ser reflejada por los objetos del entorno puede denominarse en este documento "chirrido de retorno".
El manipulador 140 robótico puede comprender al menos un actuador controlado por ordenador controlado por un controlador (no mostrado) que proporciona movimiento controlado por ordenador al manipulador robótico y, por lo tanto, al módulo 120 sensor. El controlador puede comprender un conjunto de instrucciones almacenado en un medio legible por ordenador no transitorio y ejecutado por un microprocesador alojado o conectado operativamente al AGRYbot. Opcionalmente, el manipulador 140 robótico, como se muestra en las figuras 1A-1B es un brazo robótico articulado que tiene un extremo 142 distal que se conecta al módulo 120 sensor y un extremo 144 proximal que se conecta al vehículo 160 autónomo. A modo de ejemplo, como se muestra en las figuras 1A-1B, los actuadores 152, 154 y 156 se colocan, respectivamente, en una unión entre el extremo 142 distal y el módulo 120 sensor, una unión entre los segmentos 146 y 148 del manipulador 140 robótico y una unión entre el extremo 144 proximal del manipulador robótico y el vehículo 160 autónomo proporciona el movimiento controlado por ordenador. Opcionalmente, el manipulador 140 robótico proporciona seis grados de libertad (6 DOF) o al menos tres grados de libertad (3 DOF) de movimiento para el módulo 120 sensor.
El vehículo 160 autónomo puede comprender un sistema 164 de guía que controla el movimiento del vehículo autónomo. El sistema 164 de guía puede comprender un conjunto de instrucciones almacenado en un medio legible por ordenador no transitorio y ejecutado por un microprocesador alojado con o conectado operativamente al AGRYbot. El sistema 164 de guía puede comprender además un sistema LADAR (no mostrado) que proporciona al sistema de guía la orientación y la distancia de los objetos alrededor del AGRYbot. Como alternativa o adicionalmente, el sistema 164 de guía puede comprender un receptor para recibir información de un sistema global de navegación por satélite (GNSS; no mostrado), a modo de ejemplo, un sistema GPS o un sistema GLONASS. Como alternativa o adicionalmente, el sistema 164 de guía puede incluir uno o una combinación de dos o más de: un odómetro, un acelerómetro y una brújula digital. En una realización de la invención, el vehículo 160 autónomo es un vehículo terrestre (como se muestra en las figuras 1A-1B) que opcionalmente comprende un medio 162 de motilidad terrestre que puede comprender uno o más de: orugas (como se muestra en las figuras 1A y 1B), ruedas y patas robóticas. Opcionalmente, el vehículo 160 autónomo es un vehículo aéreo, como se describe más adelante con referencia al vehículo 510 aéreo que se muestra en la figura 11).
La figura 1B muestra esquemáticamente el movimiento del AGRYbot 100 y el módulo 120 sensor con el vehículo 160 autónomo y el manipulador 140 robótico, por lo que el módulo 120 sensor se mueve para escanear una planta particular en la hilera 300 de plantas en una proximidad más cercana.
La figura 1C muestra esquemáticamente el módulo 120 sensor colocado cerca de la fruta 322 de la planta 320 para evaluar la fruta. Opcionalmente, el módulo 120 sensor comprende uno o más sensores adicionales, a modo de ejemplo una cámara (no mostrada), un sistema LADAR (no mostrado), un detector químico (una "nariz artificial"; no mostrada) o una probóscide 126 mecánica. En una realización de la invención, el módulo sensor puede evaluar la fruta 322 para determinar la madurez o la preparación para la cosecha de la fruta. La preparación para la cosecha puede evaluarse, a modo de ejemplo, a través de uno o una combinación de métodos, que incluyen: evaluar los chirridos de retorno reflejados desde la fruta 322; capturar la luz reflejada de la fruta 322 con una cámara para determinar su color o absorbancia de una o más frecuencias de luz incluyendo luz visible, luz ultravioleta o infrarroja; evaluar la fruta 322 con un sensor químico que es sensible a una o más sustancias químicas producidas y/o liberadas por la fruta 322 que indica madurez (a modo de ejemplo, óxido nítrico y/o etileno); o tocar la fruta 322 con la probóscide 126 para evaluar, a modo de ejemplo, la dureza de la fruta 322. Opcionalmente, AGRYbot 100 comprende además una o más herramientas agrícolas (no mostradas) que manipulan plantas y/o frutas agrícolas y responden a una o más evaluaciones de la madurez de la fruta realizadas por el módulo 120 sensor. La herramienta agrícola puede ser, a modo de ejemplo, una cosechadora de plantas, una recolectora de frutas o un rociador de pesticida.
La figura 1D muestra esquemáticamente un diagrama de bloques de AGRYbot 100 según una realización de la divulgación, que incluye una selección de sus componentes: módulo 120 sensor que tiene altavoz 122 y micrófono 124; manipulador 140 robótico que tiene un controlador 141; y vehículo 160 autónomo que tiene un sistema 164 de guía. AGRYbot comprende además un analizador 170 de sonido y un clasificador 180.
En una realización de la divulgación, el analizador 170 de sonido puede operar para controlar el altavoz y el micrófono, así como analizar el sonido registrado por el micrófono, en uno o ambos de un modo de ecolocalización y un modo de comunicación. El analizador 170 de sonido puede comprender un conjunto de instrucciones almacenado en un medio legible por ordenador no transitorio y ejecutado por un microprocesador alojado con o conectado operativamente al AGRYbot.
En el modo de ecolocalización, el analizador 170 de sonido puede operar para controlar el altavoz 122 para transmitir señales acústicas para iluminar un área del campo agrícola. El analizador 170 de sonido también opera para procesar señales acústicas reflejadas por plantas y otros elementos en los campos agrícolas y registradas por el micrófono 124.
En el modo de comunicación, el analizador 170 de sonido puede operar para controlar el altavoz para transmitir señales de comunicación acústica a un compañero de comunicación y procesar señales de comunicación acústica recibidas de un compañero de comunicación por el micrófono. En una realización de la divulgación, las señales de comunicación acústica comprenden instrucciones operativas para un AGRYbot, que puede ser AGRYbot 100 u otro AGRYbot, o información recopilada por AGRYbot 100 de un sitio de cultivo. Opcionalmente, el compañero de comunicación es otro AGRYbot. Opcionalmente, el compañero de comunicación es una unidad 550 de control central (mostrada y descrita con referencia a la figura 12 a continuación) operable para monitorizar y controlar uno o más AGRYbots. Opcionalmente, AGRYbot 100 comprende además medios de comunicación inalámbrica, que pueden incluir uno o más de Wi-Fi, Bluetooth y comunicación por teléfono celular.
El análisis del sonido reflejado en el modo de ecolocalización se describe con mayor detalle en las figuras 2 a 10C. En una realización de la divulgación, el analizador 170 de sonido indexa en el tiempo los sonidos registrados por el micrófono 124, por ejemplo, el chirrido transmitido y el chirrido de retorno. El analizador de sonido puede separar los sonidos registrados de acuerdo con la frecuencia y el tiempo, de modo que el sonido registrado se convierta en "píxeles" de sonido que comprenden un valor de intensidad, un tiempo de registro y una frecuencia. El analizador de sonido puede analizar el sonido registrado, opcionalmente los píxeles de sonido, para detectar la presencia y/o determinar la distancia de objetos que reflejaron las señales acústicas transmitidas por el altavoz 122.
La figura 2 muestra un espectrograma que representa gráficamente el espectro de frecuencias en las señales de sonido registradas a medida que cambia con el tiempo. A modo de ejemplo, una señal de chirrido de 10 ms que tiene una frecuencia linealmente decreciente que oscila entre 120 kHz y 20 kHz se transmite desde un altavoz (a modo de ejemplo, el altavoz 122 que se muestra en la figura 1A) hacia una sola planta ubicada a 1,0 m (metros) del altavoz. Los chirridos transmitidos y de retorno resultantes son registrados por el micrófono 124 ubicado muy cerca, a modo de ejemplo entre aproximadamente 1 cm (centímetro) a 5 cm, al altavoz 122, y la señal acústica registrada es indexada en el tiempo por el analizador de sonido. Cada píxel del espectrograma que se muestra en la figura 2 representa una amplitud de sonido registrada por el micrófono a una frecuencia dada en un tiempo dado. En un espectrograma de este tipo, donde el eje y vertical representa la frecuencia y el eje x horizontal representa el tiempo, los chirridos transmitidos y de retorno son relativamente fáciles de detectar porque una señal de chirrido que tiene una frecuencia que cambia linealmente aparece como una línea diagonal. El gráfico diagonal dentro del rectángulo 402 punteado representa el chirrido transmitido. El chirrido de retorno reflejado desde un objeto se presentará típicamente en el espectrograma como una serie de gráficos lineales que tienen sustancialmente la misma pendiente que el gráfico que representa el chirrido transmitido dentro del rectángulo 402, solo que desplazado posteriormente en el tiempo. Por lo tanto, el gráfico diagonal dentro del rectángulo 404 punteado, que tiene sustancialmente la misma duración y pendiente que el gráfico dentro del rectángulo 402, puede entenderse que representa un chirrido de retorno reflejado desde los rasgos que reflejan el sonido de la planta a 1 m de distancia del micrófono.
La diferencia de tiempo (At) entre una porción del chirrido transmitido que tiene una frecuencia dada (kHz) y una porción correspondiente del chirrido de retorno que tiene la misma frecuencia, por ejemplo, como se indica mediante la flecha 406 de bloque de dos puntas, es una función de la distancia entre la ubicación del micrófono y la planta que refleja la señal del chirrido para crear el chirrido de retorno. Suponiendo que tanto el altavoz como el micrófono están sustancialmente en la misma ubicación, At se puede convertir en la distancia (Ad) entre el micrófono (o altavoz) y la planta según la fórmula:
Figure imgf000005_0001
donde At se mide en segundos (s) y Ad en metros (m). Esta fórmula supone que el micrófono registra la señal acústica de forma sustancialmente instantánea debido a la proximidad cercana entre el altavoz y el micrófono, que la velocidad del sonido en el aire es de 343 metros por segundo y que la distancia recorrida por la señal acústica reflejada desde el altavoz al micrófono durante la duración de At es el doble de la distancia entre el micrófono y el objeto que refleja la señal acústica. Dado que Ad es 1 m, se espera que At de acuerdo con la fórmula (1) sea de 5,8 milisegundos (ms). De hecho, como se muestra en la figura 2, el At indicado por la flecha 406 de bloque de dos puntas se muestra entre 5 y 6 ms.
Ahora se hace referencia a las figuras 3A y 3B. Para simplificar el análisis del espectrograma, el tiempo entre la señal transmitida y la devuelta se puede convertir a metros de acuerdo con la ecuación (1), y las gráficas de cada frecuencia se pueden desplazar hacia atrás en el tiempo de acuerdo con el cambio de frecuencia de la señal de chirrido transmitid para hacer que las gráficas representen el chirrido transmitido y devolver chirridos en gráficas verticales en lugar de gráficas diagonales. En la figura 3A, el eje x se ha convertido de tiempo a distancia de acuerdo con la fórmula (1), pero las gráficas de cada frecuencia aún no se han desplazado hacia atrás en el tiempo de acuerdo con el cambio de frecuencia de la señal de chirrido. Como tal, los gráficos que representan el chirrido transmitido, ubicado sustancialmente dentro del cuadro 452 de puntos, así como los gráficos que representan el chirrido de retorno, ubicados sustancialmente dentro del cuadro 454 punteado, aparecen como líneas diagonales. La figura 3B muestra el mismo espectrograma que la figura 3A después de que las gráficas de cada frecuencia hayan sido "enderezadas", es decir, desplazadas hacia atrás en el tiempo de acuerdo con el chirrido transmitido. Como tal, las mismas gráficas aparecen como líneas verticales. Tal transformación hace que Ad entre el chirrido transmitido y el chirrido de retorno, representado esquemáticamente como una flecha 456 de bloque de dos puntas y que representa la distancia, sea relativamente fácil de discernir y detectar. Ad 456 también es una estimación de la distancia entre el micrófono (por ejemplo, el micrófono 124 que se muestra en las figuras 1A-1B) y un objeto que refleja la señal de chirrido transmitida para producir el chirrido de retorno.
Ahora se hace referencia a la figura 4. Mientras que las hileras de plantas que crecen en un campo agrícola forman una estructura similar a una pared, la hilera es una estructura porosa con muchas brechas. Además, las ondas sonoras que golpean una planta pueden reflejarse, absorberse o penetrar y atravesar la planta. Cuando la señal 220 acústica se transmite desde el altavoz en el módulo 120 sensor de AGRYbot 100 a una pluralidad de hileras 400, 410, 420 y 430 de plantas paralelas, el chirrido de retorno incluye señales acústicas reflejadas no solo desde la hilera 400 de plantas más próxima, sino también desde las hileras más distales que están oscurecidas por las hileras proximales. AGRYbot 100 puede orientar una señal 220 acústica direccional que tiene un eje de dirección representado esquemáticamente por la línea 225, de modo que el eje de dirección sea ortogonal a la orientación de las hileras de plantas. A modo de ejemplo, los ejes centrales respectivos de las hileras 400 y 410, así como los ejes centrales respectivos de las hileras 420 y 430 están separados por aproximadamente 0,5 m. Los respectivos ejes centrales de las hileras 410 y 420 están separados por una brecha mayor de aproximadamente 1 m.
La figura 5A muestra un espectrograma enderezado de un chirrido de retorno que es un reflejo de una señal de chirrido que tiene un rango de frecuencia de 20 kHz a 120 kHz dirigida ortogonalmente contra hileras de plantas de pimiento, dispuestas sustancialmente en la misma disposición que las hileras 400, 410, 420 y 430 como se muestra en la figura 4. El eje x se ha convertido de tiempo a distancia (en metros) de acuerdo con la fórmula (1). La distancia indica la distancia desde el módulo 120 sensor, como se muestra esquemáticamente en la figura 4, que recibe el chirrido de retorno. El chirrido transmitido se ha recortado para que no aparezca en el espectrograma. Como indican las flechas 501, 502, 503 y 504 de bloque, el espectrograma del chirrido de retorno incluye cuatro grupos, centrados respectivamente a aproximadamente 0,4 m, 0,9 m, 2,2 m y 2,6 m (medidos desde el micrófono), lo que corresponde a la disposición de las hileras de plantas escaneadas.
La figura 5B es una representación alternativa del espectrograma que se muestra en la figura 5A, que muestra la suma de energía ponderada por la distancia (en decibeles - dB) del chirrido de retorno de acuerdo con la distancia (en metros) desde el micrófono 124. La suma ponderada de energía se calculó de la siguiente manera: se "limpió" el sonido registrado por el micrófono para reducir el ruido; cada píxel que representaba el chirrido de retorno en el espectrograma se normalizó dividiendo la amplitud de un píxel dado con su tasa de decaimiento respectiva, tasa de decaimiento que depende de la distancia recorrida así como de la frecuencia; y se sumaron las amplitudes de los píxeles en cada punto de tiempo. Según una realización de la divulgación, solo los píxeles dentro de un rango definido de frecuencias se suman para proporcionar picos más nítidos.
Opcionalmente, como con la traza que se muestra en la figura 5B, la amplitud de píxel se normaliza para tener en cuenta la atenuación atmosférica según la fórmula
Figure imgf000006_0001
en donde A(x,/) representa la amplitud medida de un píxel dado de sonido que tiene una frecuencia f reflejada desde la distancia x, e_a(/)x representa la tasa de decaimiento atmosférico que depende de la frecuencia f y la distancia x, y Aponderada (x,f) representa la amplitud ponderada para el píxel dado. Adicional o alternativamente, la amplitud de píxel se normaliza para tener en cuenta la atenuación geométrica. Opcionalmente, la suma de píxeles se limita a píxeles dentro de un rango de frecuencia definido. Opcionalmente, el rango de frecuencia para la suma de píxeles puede estar entre aproximadamente 40 kHz y aproximadamente 60 kHz, entre aproximadamente 30 kHz y aproximadamente 70 kHz, entre aproximadamente 20 kHz y aproximadamente 80 kHz, entre aproximadamente 20 kHz y aproximadamente 100 kHz, o entre aproximadamente 20 kHz y aproximadamente 120 kHz. Ventajosamente, al igual que con la traza que se muestra en la figura 5B, se suman los píxeles dentro del rango de frecuencia entre 40 kHz y 60 kHz. La traza resultante de la energía de retorno frente a la distancia muestra cuatro picos 511, 512, 513 y 514 principales que corresponden a los grupos identificados por las flechas 501, 502, 503 y 504 de bloque en el espectrograma que se muestra en la figura 5A.
Las figuras. 6A-B muestra espectrogramas similares a los mostrados, respectivamente, en las figuras 5A-5B, en el que el micrófono está a aproximadamente 1,25 m de la hilera de plantas más próxima. Como indican las flechas 601, 602 y 603 de bloque, el espectrograma del chirrido de retorno incluye 3 grupos, centrados respectivamente a aproximadamente 1,25 m, 1,7 m y 2,8 m (medidos desde el micrófono). La traza de la energía de retorno frente a la distancia muestra tres picos 611, 612, 613 principales que corresponden a los grupos identificados por las flechas 601, 602, 603 de bloque en el espectrograma que se muestra en la figura 6A. En el caso mostrado en las figuras 6A-6B donde el altavoz y el micrófono estaban más alejados de las hileras de plantas que se escaneaban, no había un chirrido de retorno lo suficientemente por encima del ruido reflejado de la hilera de plantas detectado como grupo 504 en la figura 5A y pico 514 en la figura 5B, por ejemplo debido a una mayor atenuación de la señal de chirrido.
En una realización de la divulgación, el analizador de sonido puede analizar el espectrograma de chirridos de retorno para determinar cuándo la orientación del módulo sensor y, por lo tanto, la dirección de transmisión de la señal 220 acústica transmitida desde el altavoz 122, es sustancialmente ortogonal a la orientación de la hilera de plantas. La nitidez de cómo aparecen las paredes en el espectrograma, así como el ancho aparente de las hileras de plantas como se muestra en el espectrograma, depende del ángulo de incidencia de la señal acústica. Cuando el eje de dirección de la señal acústica golpea las hileras de plantas en un ángulo no ortogonal, las hileras de plantas aparecerán más anchas y separadas. Por lo tanto, el manipulador 140 robótico puede controlar la guiñada y, opcionalmente, la inclinación del módulo sensor para que se realicen escaneos acústicos en múltiples direcciones, y se puede determinar que la orientación del eje de dirección de la señal acústica sea ortogonal a la orientación de las hileras de plantas cuando las hileras de plantas parecen estar a una distancia mínima del micrófono y entre sí, y tienen un ancho mínimo.
Ahora se hace referencia a la figura 7, que muestra esquemáticamente una vista desde arriba del AGRYbot 100 moviéndose a través de un campo agrícola con hileras de plantas 400, 410, 420 y 430, algunas de las plantas en la hilera 430 tienen frutos 432. En una realización de la divulgación, la información espacial sobre el entorno circundante recopilada por el analizador de sonido a partir de las señales devueltas puede ser utilizada por el sistema 164 de guía para guiar el movimiento del vehículo 160 autónomo. En una realización de la divulgación, el sistema 164 de guía puede operar para controlar AGRYbot 100 para moverse hacia o evitar un objeto mapeado por el analizador de sonido. Opcionalmente, la información espacial recopilada por el analizador de sonido incluye una orientación de las hileras de plantas y una distancia de las hileras de plantas desde el micrófono 124 en el módulo 120 sensor. A modo de ejemplo, como se muestra en la figura 7, el sistema 164 de guía puede guiar el vehículo autónomo para moverse en una dirección paralela a la orientación de la hilera de plantas proximales, manteniendo el vehículo autónomo a una distancia sustancialmente constante de la hilera de plantas proximales, de modo que AGRYbot 100 pueda escanear plantas a lo largo de las hileras de plantas. En una realización de la divulgación, el controlador 141 (como se muestra en la figura 1D) puede usar la información espacial sobre el entorno circundante recopilada por el analizador de sonido para guiar el movimiento del manipulador 140 robótico. Opcionalmente, el controlador 141 puede operar para controlar el manipulador 140 para moverse hacia o evitar un objeto mapeado por el analizador de sonido. Opcionalmente, el controlador 141 responde además al movimiento del vehículo 160 autónomo. A modo de ejemplo, si el vehículo 160 autónomo gira mientras viaja a lo largo de la hilera de plantas, o si la inclinación, la guiñada o el balanceo del vehículo autónomo se ven afectados por el terreno, el controlador puede usar la información proporcionada por el sistema 164 de guía y el analizador de sonido para controlar el manipulador 140 robótico para compensar el movimiento del vehículo autónomo. La compensación puede mantener constante la orientación y la distancia del módulo 120 sensor a las hileras de plantas, de modo que la distancia del altavoz 122 permanezca constante a las hileras de plantas, y el eje de dirección de las señales 220 de sonido emitidas por el altavoz 122 permanezca ortogonal, o en cualquier otro ángulo predeterminado, en relación con la orientación de las hileras de plantas.
Ahora se hace referencia a las figuras 8 y 9. En una realización de la divulgación, el clasificador (a modo de ejemplo del clasificador 180 como se muestra en la figura 1D) puede recibir señales de sonido indexadas en el tiempo del analizador de sonido (a modo de ejemplo del analizador 170 de sonido como se muestra en la figura 1D) para caracterizar las funciones del entorno que refleja las señales acústicas transmitidas por el AGRYbot. Opcionalmente, el clasificador puede distinguir entre una planta y una no planta, tal como un terraplén de tierra, una pared de un invernadero u otro AGRYbot. Opcionalmente, el clasificador puede distinguir entre diferentes clasificaciones de una planta agrícola escaneada por el módulo 120 sensor acústico, tal como variedad de planta; presencia de frutos en la planta; la abundancia de frutos en la planta; la madurez de la fruta; el nivel de sanidad de la planta; la abundancia de ramas en la planta; la abundancia de follaje en la planta, o el nivel de infestación de plagas en la planta.
En una realización de la divulgación, el clasificador puede caracterizar los objetos que reflejan un chirrido de retorno convirtiendo un espectrograma del chirrido de retorno en una representación en el dominio de la frecuencia que expresa la intensidad del chirrido de retorno (eje y) en términos de las frecuencias (eje x) que componen el chirrido de retorno. Las diferencias en las propiedades de los materiales y la forma de los objetos pueden resultar en diferencias en cómo se reflejan ciertas frecuencias de una señal acústica. A su vez, las diferencias en las propiedades de reflexión del sonido de diferentes objetos pueden expresarse como diferencias en la intensidad de rangos particulares de frecuencias representadas en el chirrido de retorno. Las diferencias dependientes de la frecuencia en las propiedades de reflexión del sonido pueden detectarse de forma eficaz en una representación en el dominio de la frecuencia.
A modo de ejemplo, la figura 8 muestra representaciones de ejemplo en el dominio de la frecuencia de chirridos de retorno reflejados, respectivamente, desde una hilera de plantas de pimiento y una pared de invernadero. La línea 604 punteada representa el chirrido de retorno de la hilera de plantas de pimiento, y la línea 602 continua representa el chirrido de retorno de la pared del invernadero. Las señales acústicas dirigidas a las plantas de pimiento o a la pared del invernadero eran señales acústicas multiespectrales sustancialmente idénticas que tenían frecuencias que oscilaban entre 20 y 120 kHz. La distancia desde la hilera de plantas o la pared del invernadero hasta el altavoz y el micrófono era sustancialmente la misma. Para cada frecuencia, la amplitud de cada píxel a una frecuencia dada se convirtió a dBFS/Hz (decibelios por debajo de la escala completa para la frecuencia dada) y se promedió (media) para llegar a un dBFS/Hz promediado, y se graficó en función de la frecuencia. Las amplitudes promedio del chirrido de retorno de la pared del invernadero fueron generalmente mayores que los chirridos de retorno de la hilera de plantas en todo el rango de frecuencia, y especialmente mayores entre las frecuencias de 75 kHz a 105 kHz.
Ahora se hace referencia a la figura 9, en la que se utilizan diferencias en las representaciones (espectrales) del dominio de frecuencia de los chirridos de retorno para distinguir entre plantas de pimiento con frutos y plantas de pimiento sin frutos. La línea 612 continua representa el chirrido de retorno de una hilera de pimientos con frutos, y la línea 614 punteada representa el chirrido de regreso de una hilera de pimientos sin frutos. Las señales acústicas dirigidas a las respectivas hileras de plantas de pimiento eran señales acústicas multiespectrales sustancialmente idénticas que tenían frecuencias que oscilaban entre 20 y 120 kHz. La distancia desde las respectivas hileras de plantas de pimiento hasta el altavoz y el micrófono era sustancialmente la misma. Para cada frecuencia, las amplitudes respectivas en decibelios (dB) de los píxeles a una frecuencia determinada se promediaron y se graficaron frente a la frecuencia. En comparación con los chirridos de retorno de las plantas que no tienen frutos, las amplitudes de los chirridos de retorno de las hileras de plantas que tienen frutos fueron característicamente mayores entre las frecuencias de aproximadamente 60 kHz y aproximadamente 80 kHz (como se indica esquemáticamente mediante el círculo 616 de puntos) y entre las frecuencias de aproximadamente 110 kHz y aproximadamente 115 kHz (como se indica esquemáticamente mediante el círculo 618 de puntos).
En una realización de la divulgación, el clasificador puede comprender un módulo de aprendizaje automático. El módulo de aprendizaje automático puede comprender un modelo de aprendizaje supervisado que analiza un conjunto de datos de entrenamiento y produce una función de inferencia que puede usarse para clasificar nuevos ejemplos. Opcionalmente, el modelo de aprendizaje supervisado es una máquina de vectores de soporte. Los datos de entrenamiento comprenden opcionalmente chirridos de retorno reales y/o simulados asociados con una o más características que pueden ser, a modo de ejemplo, variedad de planta; presencia de fruta en la planta, la abundancia de fruta en la planta, la madurez de la fruta, el nivel de salud de la planta, la abundancia de ramas en la planta, la abundancia de follaje en la planta, o el nivel de infestación de plagas en la planta. El módulo de aprendizaje automático puede ejecutarse opcionalmente en uno o más rasgos extraídos de las representaciones temporales y/o espectrales de los chirridos de retorno. Opcionalmente, el uno más rasgos de chirrido de retorno pueden extraerse mediante la reducción dimensional del espacio de rasgos de chirridos de retorno, a modo de ejemplo, usando un análisis de componentes principales (PCA).
Ahora se hace referencia a las figuras 10A-10B, que muestra esquemáticamente una vista desde arriba del AGRYbot 100 moviéndose a través de un campo agrícola con hileras de plantas 400, 410, 420 y 430 como se muestra en la figura 7. Como se muestra en la figura 10A, AGRYbot 100 se mueve (como se indica mediante la línea 650 punteada) a lo largo de las hileras de plantas escaneando las plantas, con el clasificador clasificando el sonido de retorno registrado para identificar plantas con fruta. Como se muestra en la figura 10B, una vez que un clasificador (a modo de ejemplo el clasificador 180 como se muestra en la figura 1D) incluido en AGRYbot 100 determina que ciertas plantas tienen fruta 432, AGRYbot puede activar el manipulador 140 robótico y/o el robot 160 autónomo para mover el módulo 120 sensor más cerca de las plantas que tienen fruta 432 para realizar opcionalmente escaneos acústicos adicionales y/o para evaluar la madurez de una planta dada o una fruta dada. A modo de ejemplo, AGRYbot 100 puede evaluar la madurez a través de uno o una combinación de métodos, que incluyen: evaluar los chirridos de retorno que regresan de la fruta 432 con el clasificador 180; capturar la luz reflejada de la fruta 432 con una cámara (no mostrada) alojada en el módulo 120 sensor; evaluar la fruta 432 con un sensor químico (no mostrado) alojado en el módulo 120 sensor; o tocar la fruta 432 con una probóscide (a modo de ejemplo, la probóscide 126 como se muestra en la figura 1C) alojada en el módulo 120 sensor para evaluar, a modo de ejemplo, la dureza de la fruta 432.
Ahora se hace referencia a la figura 10C. En una realización de la divulgación, el analizador de sonido (a modo de ejemplo, el analizador 170 de sonido como se muestra en la figura 1D) recopila información espacial proporcionada por los escaneos acústicos para crear un mapa del entorno. A medida que AGRYbot 100 se mueve por el entorno y escanea áreas adicionales del entorno con señales 220 acústicas, el mapa puede expandirse y/o actualizarse. La figura 10C muestra esquemáticamente una representación gráfica de un mapa 700 de una porción del campo agrícola escaneado por AGRYbot 100, que corresponde a la porción del campo agrícola que se muestra en las figuras 10A-10B. A modo de ejemplo, el mapa 700 comprende las regiones 710, 711, 712 y 713 que marcan las ubicaciones de las hileras 400, 410, 420 y 430 de plantas, respectivamente, detectadas a través de la señal acústica transmitida y registrada por AGRYbot 100. La región 713 comprende la subregión 720 que marca la ubicación de las plantas que tienen fruto 432, opcionalmente fruto que está listo para cosechar, según determina el clasificador comprendido en el analizador de sonido (a modo de ejemplo, el clasificador 180 como se muestra en la figura 1D). En una realización de la divulgación, AGRYbot 100 puede navegar por un entorno mapeado a través de la navegación a estima sin entrada acústica u óptica, utilizando, a modo de ejemplo, un odómetro, acelerómetro y/o una brújula digital.
Ahora se hace referencia a la figura 11, que muestra esquemáticamente un AGRYbot 500 alternativo según una realización de la divulgación. El AGRYbot 500 comprende un módulo 120 sensor que es sustancialmente el mismo que el módulo 120 sensor descrito anteriormente con referencia a AGRYbot 100. En la presente realización, el módulo 120 sensor está montado en un vehículo 510 aéreo. Opcionalmente, el módulo 120 sensor está montado en un vehículo 510 aéreo a través de un manipulador 140 robótico que es sustancialmente el mismo que el manipulador 140 descrito anteriormente con referencia a AGRYbot 100. Mientras que el vehículo 510 aéreo como se muestra en la figura 11 es una aeronave tipo cuadricóptero, el vehículo 510 aéreo puede ser otro tipo de aeronave. Opcionalmente, el vehículo 510 aéreo es una aeronave tipo helicóptero o un avión de tipo aeronave. Los AGRYbots 500 aéreos pueden usarse ventajosamente para monitorizar campos agrícolas con plantas relativamente altas, a modo de ejemplo, palmeras datileras, en las que puede ser relativamente difícil para un AGRYbot 100 terrestre dirigir un módulo 120 sensor para que esté lo suficientemente cerca del follaje y los frutos ubicados relativamente alto del suelo. Como alternativa o adicionalmente, el AGRYbot 500 aéreo puede ejecutar ventajosamente un escaneo de señal acústica aérea de un campo agrícola.
La figura 12 muestra una ilustración esquemática de un equipo de AGRYbots, dos AGRYbots 500A, 500B aéreos y dos AGRYbots 100A, 100B terrestres, según realizaciones de la divulgación, en un campo agrícola que comprende hileras 300 de plantas 320. En una realización de la divulgación, múltiples AGRYbots son operables para coordinar sus acciones con el fin de monitorizar el campo agrícola de manera más eficiente y/o precisa. Opcionalmente, los AGRYbots del equipo AGRYbot pueden operar para coordinar sus acciones a través de una unidad 550 de control central que comprende un altavoz y un micrófono. La unidad 550 de control central que comprende opcionalmente un dispositivo informático para uso de un usuario 555, tal como un ordenador portátil, un teléfono móvil o una tableta. Opcionalmente, la unidad 550 de control central comprende un altavoz y un micrófono conectados operativamente, a través de una conexión por cable o inalámbrica, a un dispositivo informático remoto, servidor o servidor distribuido en red (nube).
En una realización de la divulgación, los AGRYbots pueden comunicarse entre sí transmitiendo y recibiendo señales acústicas a través de sus respectivos módulos 120 sensores. Opcionalmente, las señales de comunicación acústicas comprenden instrucciones operativas para un AGRYbot. Además o alternativamente, la señal de comunicación acústica comprende información recopilada por un AGRYbot con respecto al campo agrícola que se está monitorizando, y la información recopilada por el AGRYbot se transfiere a otro AGRYbot a través de transmisión y recepción, entre los respectivos módulos 120 sensores. Opcionalmente, el intercambio de señales de comunicación acústica se utiliza además, o como alternativa, a otros medios de comunicación inalámbrica, como se describió anteriormente, que pueden estar comprendidos en los AGRYbots. En una realización de la divulgación, un AGRYbot del equipo AGRYbot puede intercambiar señales de comunicación acústica con la unidad 550 de control central. En una realización de la divulgación, la unidad 550 de control central puede mantener un mapa centralizado con base en una combinación de información sobre el sitio de cultivo recopilada por el equipo de AGRYbot.
A modo de ejemplo, dos AGRYbots 100A y 100B terrestres pueden comenzar a escanear el mismo campo agrícola desde lados opuestos, creando un mapa del campo agrícola. Una vez que se acercan lo suficiente como para intercambiar señales acústicas entre sí, cada AGRYbot puede transmitir las respectivas porciones del mapa para que cada AGRYbot tenga un mapa completo del campo.
A modo de otro ejemplo, cada uno de los AGRYbots 100A y 100B puede escanear porciones superpuestas del campo, y los mapas creados por un analizador 170 de sonido respectivo en cada AGRYbot pueden transferirse entre sí, y los mapas respectivos pueden combinarse para crear un mapa más preciso.
A modo de otro ejemplo, el AGRYbot 500 aéreo puede crear un mapa aéreo de hileras 300 en el campo agrícola, luego volar a cada uno de los AGRYbots 100A y 100B terrestres para transferir el mapa aéreo a los AGRYbots terrestres.
En una realización de la divulgación, los AGRYbots pueden operar para usar señales acústicas para encontrarse y ubicarse entre sí en el campo. Opcionalmente, cuando un primer AGRYbot realiza un escaneo acústico de una porción del campo ocupado por un segundo AGRYbot, y las señales acústicas reflejadas recibidas por el primer AGRYbot comprenden reflejos del segundo AGRYbot, el clasificador 180 puede operar para distinguir entre el segundo AGRYbot y las hileras de plantas, y mapee la ubicación del segundo AGRYbot en el campo. La ubicación del segundo AGRYbot en la porción del campo escaneado según lo determinado por el análisis acústico realizado por el primer AGRYbot se puede usar ventajosamente además, o como una alternativa, al auto-seguimiento de la ubicación del segundo AGRYbot por otros medios que incluyen pero no se limitan a receptores GPS, odómetros y unidades de medición inercial (IMU) que están opcionalmente incluidos en el segundo AGRYbot. El seguimiento de otros AGRYbots en un campo usando escaneo acústico puede usarse además, o como una alternativa, al seguimiento usando una cámara y/o LADAR. El seguimiento de otros AGRYbots con escaneo acústico puede ser ventajoso sobre el seguimiento basado en cámara o LADAR en entornos como un campo agrícola, que normalmente tiene muchas plantas y otros elementos que pueden oscurecer las señales de luz más severamente que las señales acústicas que penetran más fácilmente en el follaje.
En la descripción y reivindicaciones de la presente solicitud, cada uno de los verbos, "comprender", "incluir" y "tener", y conjugados de los mismos, se utilizan para indicar que el objeto u objetos del verbo no son necesariamente un completo listado de componentes, elementos o partes del sujeto o sujetos del verbo.

Claims (14)

REIVINDICACIONES
1. Un robot (100) agrícola para monitorizar un sitio de cultivo, el robot: que comprende
un módulo (120) sensor que comprende:
un altavoz (122) operable para transmitir una señal acústica direccional a un objeto; y
un micrófono (124) operable para registrar un reflejo de la señal acústica del objeto;
un analizador (170) de sonido operable para indexar en el tiempo el reflejo registrado y usar el reflejo indexado en el tiempo para localizar el objeto; y
una plataforma (160) móvil autónoma a la que se monta el módulo sensor,
caracterizado porque el altavoz (122) está configurado para transmitir la señal acústica direccional al objeto con una frecuencia de la señal acústica que aumenta y/o disminuye en función del tiempo.
2. El robot agrícola de acuerdo con la reivindicación 1, en donde la frecuencia cambia linealmente a lo largo del tiempo.
3. El robot agrícola de acuerdo con la reivindicación 1 o la reivindicación 2, en donde la potencia de la señal acústica permanece constante a lo largo del tiempo.
4. El robot agrícola de acuerdo con una cualquiera de las reivindicaciones anteriores, en donde la señal acústica se caracteriza por una frecuencia entre aproximadamente 20 kHz y aproximadamente 200 kHz.
5. El robot agrícola de acuerdo con una cualquiera de las reivindicaciones anteriores, en donde la plataforma móvil autónoma es un vehículo (160) terrestre o un vehículo (510) aéreo.
6. El robot agrícola de acuerdo con una cualquiera de las reivindicaciones anteriores, en donde el analizador de sonido comprende un clasificador que clasifica la reflexión indexada en el tiempo para determinar si el objeto que refleja la señal acústica es un objeto vegetal o no vegetal.
7. El robot agrícola de acuerdo con la reivindicación 6, en donde el objeto es una planta, y la característica del objeto operable a ser determinada por el clasificador comprende una o más selecciones del grupo que consiste en: variedad de la planta; la planta que da fruto o no da fruto; la abundancia de frutos en la planta; la madurez del fruto en la planta; el nivel de sanidad de la planta; la abundancia de ramas en la planta; la abundancia de follaje en la planta y el nivel de infestación de plagas en la planta.
8. El robot agrícola de acuerdo con una cualquiera de las reivindicaciones anteriores, que comprende además un sistema (164) de guía operable para controlar la plataforma móvil autónoma para moverse hacia el objeto localizado o para evitar el objeto localizado.
9. Un método para controlar un robot agrícola en un sitio de cultivo, el método que comprende:
transmitir una señal acústica direccional;
registrar e indexar en el tiempo un reflejo de la señal acústica reflejada desde al menos un objeto en el sitio de cultivo; mapear, en respuesta al reflejo registrado, una ubicación del al menos un objeto que refleja la señal acústica; determinar, en respuesta al reflejo registrado, la presencia de una característica deseada en el al menos un objeto; y guiar el robot agrícola y/o el módulo sensor a la ubicación mapeada del al menos un objeto,
caracterizado porque la frecuencia de la señal acústica aumenta y/o disminuye en función del tiempo.
10. El método de acuerdo con la reivindicación 9, que comprende además determinar el al menos un objeto como un objeto vegetal o un objeto no vegetal.
11. El método de acuerdo con la reivindicación 10, en donde se determina que al menos un objeto es un objeto vegetal, y la característica deseada se selecciona del grupo que consiste en: presencia de fruto en la planta; la abundancia de frutos en la planta; la madurez del fruto; el nivel de sanidad de la planta; la abundancia de ramas en la planta; la abundancia de follaje en la planta y el nivel de infestación de plagas en la planta.
12. El método de acuerdo con una cualquiera de las reivindicaciones 9-11, en donde la frecuencia cambia linealmente a lo largo del tiempo.
13. El método de acuerdo con una cualquiera de las reivindicaciones 9-12, en donde la potencia de la señal acústica permanece constante a lo largo del tiempo.
14. El método de acuerdo con una cualquiera de las reivindicaciones 9-13, en donde la señal acústica se caracteriza por una frecuencia entre aproximadamente 20 kHz y aproximadamente 200 kHz.
ES16739863T 2015-01-21 2016-01-21 Robot agrícola Active ES2905883T3 (es)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US201562105763P 2015-01-21 2015-01-21
PCT/IB2016/050303 WO2016116888A1 (en) 2015-01-21 2016-01-21 Agricultural robot

Publications (1)

Publication Number Publication Date
ES2905883T3 true ES2905883T3 (es) 2022-04-12

Family

ID=56416501

Family Applications (1)

Application Number Title Priority Date Filing Date
ES16739863T Active ES2905883T3 (es) 2015-01-21 2016-01-21 Robot agrícola

Country Status (4)

Country Link
US (2) US10698402B2 (es)
EP (1) EP3247189B1 (es)
ES (1) ES2905883T3 (es)
WO (1) WO2016116888A1 (es)

Families Citing this family (32)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
BR112019002084B1 (pt) * 2016-08-18 2023-01-31 Tevel Advanced Technologies Ltd Sistema e método para mapear e construir banco de dados e uso do sistema
CN106313062A (zh) * 2016-08-25 2017-01-11 河南林业职业学院 一种适用于矮化密植果林的多功能智能机器人
EP3340130A1 (en) 2016-12-23 2018-06-27 Hexagon Technology Center GmbH Method for prediction of soil and/or plant condition
CN106780068A (zh) * 2016-12-23 2017-05-31 绥化学院 一种基于微信公众平台的农业智慧机器人系统及方法
US10531603B2 (en) * 2017-05-09 2020-01-14 Cnh Industrial America Llc Agricultural system
US10674667B2 (en) * 2017-09-04 2020-06-09 Amrita Vishwa Vidyapeetham Method and apparatus for wireless network-based control of a robotic machine
US11617363B2 (en) * 2017-09-07 2023-04-04 John William Hauck, JR. Robotic agriculture protection system
WO2019109006A1 (en) * 2017-11-30 2019-06-06 OnePointOne, Inc. Vertical farming systems and methods
CN108107861A (zh) * 2018-01-05 2018-06-01 陕西助智信息技术有限公司 一种基于物联网的果园监测软件系统
WO2019178299A1 (en) * 2018-03-13 2019-09-19 Moog Inc. Autonomous navigation system and the vehicle made therewith
JP6735302B2 (ja) * 2018-03-15 2020-08-05 ヤンマーパワーテクノロジー株式会社 作業車両および作物列認識プログラム
JP6735303B2 (ja) * 2018-03-15 2020-08-05 ヤンマーパワーテクノロジー株式会社 作業車両および作物列認識プログラム
IT201800004308A1 (it) * 2018-04-13 2019-10-13 Sistema robotico per la raccolta automatizzata robotizzata di prodotti ortofrutticoli.
WO2019222860A1 (en) * 2018-05-25 2019-11-28 Greenearth Automation Inc. System, method and/or computer readable medium for growing plants in an autonomous green house
CN108858122B (zh) * 2018-08-13 2021-01-29 中国农业大学 一种温室植物病害巡检机器人及巡检方法
US20210325346A1 (en) * 2018-08-20 2021-10-21 Ramot At Tel-Aviv University Ltd. Plant-monitor
CN111492831A (zh) * 2019-01-11 2020-08-07 洪锦民 远程栽种植物的方法及系统、农具、计算机程序产品
CN109782771B (zh) * 2019-02-26 2021-01-19 西安交通大学 一种果园移动机器人及地头转向方法
CN110286670A (zh) * 2019-04-09 2019-09-27 丰疆智能科技股份有限公司 多台自动收割机的行驶路径规划系统及其方法
US11580389B2 (en) * 2020-01-14 2023-02-14 International Business Machines Corporation System and method for predicting fall armyworm using weather and spatial dynamics
IT202000004561A1 (it) * 2020-03-04 2021-09-04 Pierangelo Vercellino Sistema interattivo per la previsione e la cura di fitopatologie
NL2026196B1 (nl) * 2020-08-01 2022-04-04 Richard Henricus Adrianus Lieshout Teeltsysteem voorzien van een oogstrobot
WO2022086873A1 (en) * 2020-10-19 2022-04-28 Aigen Inc. Collaborative robot network with hybrid electro-mechanical plant management methods
EP4255696A1 (en) * 2020-12-07 2023-10-11 Easton Robotics, LLC Robotic farm system and method of operation
US20220172467A1 (en) * 2021-02-20 2022-06-02 Shiv Verma Mini drone and agbot based distributed system and method of offering agronomics services to farmers
CN112889480A (zh) * 2021-03-03 2021-06-04 南京农业大学 一种无人智能水果采摘系统
US20230043631A1 (en) * 2021-08-04 2023-02-09 Greentech Robotics Limited Agricultural Weed Removal System
EP4245135A1 (de) 2022-03-16 2023-09-20 Bayer AG Durchführen und dokumentieren einer applikation von pflanzenschutzmittel
DE202022102591U1 (de) 2022-05-12 2022-06-27 Deepak Batham System zur Überwachung des Gesundheitszustands von Pflanzen in der Präzisionslandwirtschaft mittels Bildverarbeitung und Faltungsneuronalem Netz
EP4378292A1 (en) 2022-11-29 2024-06-05 Continental Autonomous Mobility Germany GmbH Automated control system and method for operating a multi-functional equipment, and multi-functional equipment thereof
CN116330301B (zh) * 2023-05-26 2023-08-25 广东隆崎机器人有限公司 机器人运动系统及其运动路线自动规划方法
US12035705B1 (en) * 2024-03-22 2024-07-16 Prince Mohammad Bin Fahd University Robotic farming system

Family Cites Families (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5410479A (en) 1992-08-17 1995-04-25 Coker; William B. Ultrasonic furrow or crop row following sensor
US5616845A (en) 1994-03-18 1997-04-01 Hickling; Robert Acoustic sensor system for insect detection
SE508317C2 (sv) * 1997-01-22 1998-09-21 Roy Eriksson Förfarande och anordning för skogsföryngring varvid området avsöks och lämpliga planteirngssåningsplatser utvärderas
US6243987B1 (en) * 1999-09-01 2001-06-12 Organitech Ltd. Self contained fully automated robotic crop production facility
US6671582B1 (en) * 2002-08-26 2003-12-30 Brian P. Hanley Flexible agricultural automation
US7854108B2 (en) * 2003-12-12 2010-12-21 Vision Robotics Corporation Agricultural robot system and method
DE102008009753B3 (de) 2008-02-18 2009-09-10 Yara International Asa Verfahren zum Bestimmen der Biomasse und Morphologie von Pflanzenbeständen mittels Ultraschall
US8205820B2 (en) * 2009-02-03 2012-06-26 Honeywell International Inc. Transforming unmanned aerial-to-ground vehicle
US20110022231A1 (en) * 2009-07-25 2011-01-27 Jeffrey Walker Apparatuses, Systems and Methods for Automated Crop Picking
US8655536B2 (en) * 2009-11-16 2014-02-18 Trimble Navigation Limited Method and system for augmenting a guidance system with a path sensor
BE1019422A3 (nl) 2010-07-14 2012-07-03 Cnh Belgium Nv Werkwijze en toestel voor voorspellende sturing van een landbouwvoertuigsysteem.
US8706362B2 (en) * 2010-10-22 2014-04-22 Deere & Company Mobile biological material energy conversion
CN102124866B (zh) * 2011-01-19 2013-05-29 南京农业大学 一种轮式移动水果采摘机器人及水果采摘方法
KR20130048033A (ko) 2011-11-01 2013-05-09 블루마린시스템(주) 무선통신 서비스를 수행하는 센서 네트워크를 이용한 원격 과수농작물 모니터링 시스템 및 방법
EP2978665A4 (en) * 2013-03-24 2017-04-26 Bee Robotics Corporation Aerial farm robot system for crop dusting, planting, fertilizing and other field jobs
CN103323533A (zh) 2013-05-15 2013-09-25 天津科技大学 基于近场声全息技术检测植物病害的系统及方法
CN103299776A (zh) * 2013-05-29 2013-09-18 西北农林科技大学 一种果实采摘机器人三指灵巧手
JP6178677B2 (ja) * 2013-09-09 2017-08-09 シャープ株式会社 自走式電子機器
US10055700B2 (en) * 2014-03-30 2018-08-21 Trimble Inc. Intelligent tool for collecting and managing data during manual harvesting of fruits and vegetables
JP6314028B2 (ja) * 2014-04-25 2018-04-18 株式会社デンソーテン レーダ装置、車両制御システム、および、信号処理方法
EP3226675A4 (en) * 2014-12-03 2018-08-22 SRI International End effector for robotic harvesting

Also Published As

Publication number Publication date
US20200249669A1 (en) 2020-08-06
EP3247189A1 (en) 2017-11-29
EP3247189A4 (en) 2018-10-03
WO2016116888A1 (en) 2016-07-28
US20180017965A1 (en) 2018-01-18
EP3247189B1 (en) 2021-12-29
US10698402B2 (en) 2020-06-30

Similar Documents

Publication Publication Date Title
ES2905883T3 (es) Robot agrícola
US11771077B2 (en) Identifying and avoiding obstructions using depth information in a single image
Stefas et al. Vision-based monitoring of orchards with UAVs
KR20200088319A (ko) 적어도 하나의 대상체의 위치를 결정하는 검출기
JP2015531228A (ja) 森林管理システム
US12080019B2 (en) Extracting feature values from point clouds to generate plant treatments
JP2015531228A5 (es)
US11983934B2 (en) Machine-learned obstruction detection in a farming machine
JP2022516791A (ja) 少なくとも1つの物体の位置を決定するための検出器
CA3206947A1 (en) Aerial sensor and manipulation platform for farming and method of using same
JP2022517221A (ja) 少なくとも1つの物体の位置を決定するための検出器
US20220207852A1 (en) Generating a ground plane for obstruction detection
WO2022107587A1 (ja) 移動体、データ生成ユニット、およびデータを生成する方法
Chatzisavvas et al. Autonomous Unmanned Ground Vehicle in Precision Agriculture–The VELOS project
EP4221488A1 (en) Calibration of autonomous farming vehicle image acquisition system
US20220100996A1 (en) Ground Plane Compensation in Identifying and Treating Plants
AU2022291571B2 (en) Virtual safety bubbles for safe navigation of farming machines
Li et al. Summary on sensors in agricultural robots
Rovira-Más et al. Crop scouting and surrounding awareness for specialty crops
Tamás et al. Applicability of 3D laser scanning in precision horticulture
Garrido Izard Development and Field Testing of LiDAR Applications in Agricultural Mobile Vehicles: Safety, In-Row Tree Evaluation and Crop Assessment
ES2540676A1 (es) Procedimiento y sistema de guiado para la recolección automática de producto hortícola basado en modelado digital 3D
BR102022026428A2 (pt) Bolhas de segurança virtual para navegação segura de máquinas agrícolas