BR112017003678B1 - Método e sistema para monitoramento agronômico e agrícola - Google Patents
Método e sistema para monitoramento agronômico e agrícola Download PDFInfo
- Publication number
- BR112017003678B1 BR112017003678B1 BR112017003678-9A BR112017003678A BR112017003678B1 BR 112017003678 B1 BR112017003678 B1 BR 112017003678B1 BR 112017003678 A BR112017003678 A BR 112017003678A BR 112017003678 B1 BR112017003678 B1 BR 112017003678B1
- Authority
- BR
- Brazil
- Prior art keywords
- images
- uav
- initial
- ndvi
- map
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims abstract description 61
- 238000012544 monitoring process Methods 0.000 title claims abstract description 15
- 230000009418 agronomic effect Effects 0.000 title claims abstract description 14
- 230000008569 process Effects 0.000 claims abstract description 6
- 238000012545 processing Methods 0.000 claims description 38
- IJGRMHOSHXDMSA-UHFFFAOYSA-N Atomic nitrogen Chemical compound N#N IJGRMHOSHXDMSA-UHFFFAOYSA-N 0.000 claims description 22
- 238000012546 transfer Methods 0.000 claims description 16
- 229910052757 nitrogen Inorganic materials 0.000 claims description 11
- 238000001914 filtration Methods 0.000 claims description 7
- 230000004044 response Effects 0.000 claims description 3
- 230000000007 visual effect Effects 0.000 claims 4
- 239000003086 colorant Substances 0.000 claims 2
- 238000003384 imaging method Methods 0.000 abstract description 5
- 241000196324 Embryophyta Species 0.000 description 97
- 244000038559 crop plants Species 0.000 description 15
- 238000005259 measurement Methods 0.000 description 13
- 230000005055 memory storage Effects 0.000 description 11
- 238000004891 communication Methods 0.000 description 10
- 238000002310 reflectometry Methods 0.000 description 8
- 238000011161 development Methods 0.000 description 5
- 241000607479 Yersinia pestis Species 0.000 description 3
- 238000004458 analytical method Methods 0.000 description 3
- 201000010099 disease Diseases 0.000 description 3
- 208000037265 diseases, disorders, signs and symptoms Diseases 0.000 description 3
- 238000003306 harvesting Methods 0.000 description 3
- 238000012360 testing method Methods 0.000 description 3
- 238000013459 approach Methods 0.000 description 2
- 238000013481 data capture Methods 0.000 description 2
- 210000005069 ears Anatomy 0.000 description 2
- 238000013507 mapping Methods 0.000 description 2
- 239000002689 soil Substances 0.000 description 2
- 238000001429 visible spectrum Methods 0.000 description 2
- 244000068988 Glycine max Species 0.000 description 1
- 235000010469 Glycine max Nutrition 0.000 description 1
- 240000006394 Sorghum bicolor Species 0.000 description 1
- 241001464837 Viridiplantae Species 0.000 description 1
- 230000004913 activation Effects 0.000 description 1
- 230000003466 anti-cipated effect Effects 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 230000010267 cellular communication Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 238000012790 confirmation Methods 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 238000006073 displacement reaction Methods 0.000 description 1
- 230000004720 fertilization Effects 0.000 description 1
- 230000010006 flight Effects 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 230000005484 gravity Effects 0.000 description 1
- 230000036541 health Effects 0.000 description 1
- 238000010191 image analysis Methods 0.000 description 1
- 230000000977 initiatory effect Effects 0.000 description 1
- 230000033001 locomotion Effects 0.000 description 1
- 230000007257 malfunction Effects 0.000 description 1
- 238000007726 management method Methods 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 238000001556 precipitation Methods 0.000 description 1
- 238000005507 spraying Methods 0.000 description 1
- 238000001931 thermography Methods 0.000 description 1
- 230000003442 weekly effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/80—Geometric correction
-
- A—HUMAN NECESSITIES
- A01—AGRICULTURE; FORESTRY; ANIMAL HUSBANDRY; HUNTING; TRAPPING; FISHING
- A01B—SOIL WORKING IN AGRICULTURE OR FORESTRY; PARTS, DETAILS, OR ACCESSORIES OF AGRICULTURAL MACHINES OR IMPLEMENTS, IN GENERAL
- A01B79/00—Methods for working soil
- A01B79/005—Precision agriculture
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/0094—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots involving pointing a payload, e.g. camera, weapon, sensor, towards a fixed or moving target
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/10—Simultaneous control of position or course in three dimensions
- G05D1/101—Simultaneous control of position or course in three dimensions specially adapted for aircraft
- G05D1/106—Change initiated in response to external conditions, e.g. avoidance of elevated terrain or of no-fly zones
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T11/00—2D [Two Dimensional] image generation
- G06T11/60—Editing figures and text; Combining figures or text
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/10—Terrestrial scenes
- G06V20/188—Vegetation
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B64—AIRCRAFT; AVIATION; COSMONAUTICS
- B64U—UNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
- B64U20/00—Constructional aspects of UAVs
- B64U20/80—Arrangement of on-board electronics, e.g. avionics systems or wiring
- B64U20/87—Mounting of imaging devices, e.g. mounting of gimbals
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B64—AIRCRAFT; AVIATION; COSMONAUTICS
- B64U—UNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
- B64U2101/00—UAVs specially adapted for particular uses or applications
- B64U2101/30—UAVs specially adapted for particular uses or applications for imaging, photography or videography
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B64—AIRCRAFT; AVIATION; COSMONAUTICS
- B64U—UNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
- B64U2101/00—UAVs specially adapted for particular uses or applications
- B64U2101/40—UAVs specially adapted for particular uses or applications for agriculture or forestry operations
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Theoretical Computer Science (AREA)
- Aviation & Aerospace Engineering (AREA)
- Radar, Positioning & Navigation (AREA)
- Automation & Control Theory (AREA)
- Remote Sensing (AREA)
- Mechanical Engineering (AREA)
- Soil Sciences (AREA)
- Environmental Sciences (AREA)
- Multimedia (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
- Image Processing (AREA)
- Geometry (AREA)
- Guiding Agricultural Machines (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Signal Processing (AREA)
Abstract
MÉTODOS PARA MONITORAMENTO AGRONÔMICO E AGRÍCOLA USANDO DE SISTEMAS AÉREOS NÃO TRIPULADOS Trata-se de um método para monitoramento agronómico e agrícola que inclui designar uma área para imaginologia, que determina uma trajetória de voo acima da área designada, que opera um veículo aéreo não tripulado (UAV) ao longo da trajetória de voo, que adquire imagens da área usando de um sistema de câmera fixado ao UAV e que processa as imagens adquiridas.
Description
[001] Este pedido reivindica o benefício disposto no Título 35 do U.S.C., §119(e) do Pedido Provisório no 62/040,859, depositado em 22 de agosto de 2014 e do Pedido Provisório no 62/046,438, depositado em 5 de setembro de 2014, em que os conteúdos completos dos mesmos estão incorporados a título de referência conforme apresentados em sua totalidade no presente documento.
[002] Esta revelação refere-se, de modo geral, ao monitoramento agronômico e agrícola e, mais especificamente, aos métodos para monitoramento agronômico e agrícola usando de sistemas aéreos não tripulados ou drones.
[003] Veículos aéreos não tripulados (UAVs), algumas vezes denominados drones, são aeronaves remotamente pilotadas ou autopilotadas que podem carregar sensores, equipamento de comunicações, câmeras ou outras cargas úteis. UAVs têm sido usados para reconhecimento militar e levantamento de inteligência, bem como para capturar imagens terrestres para aplicações civis. Embora os UAVs também tenham sido usados para monitoramento agrícola, tais sistemas não são completamente satisfatórios. Um UAV aperfeiçoado para uso agrícola é necessário.
[004] Esta seção de Antecedentes pretende introduzir o leitor em vários aspectos da técnica que podem estar relacionados aos vários aspectos da presente revelação, que são descritos e/ou reivindicados abaixo. Acredita-se que essa discussão seja útil para fornecer ao leitor informações antecedentes para facilitar um melhor entendimento dos vários aspectos da presente revelação. Consequentemente, deve-se entender que essas declarações devem ser lidas sob essa luz e não como admissões da técnica anterior.
[005] Um aspecto é um método para monitoramento agronômico e agrícola. O método inclui designar uma área para imaginologia, que determina uma trajetória de voo acima da área designada, que opera um veículo aéreo não tripulado (UAV) ao longo da trajetória de voo, que adquire imagens da área usando de um sistema de câmera fixado ao UAV e que processa as imagens adquiridas.
[006] Outro aspecto é um sistema para monitoramento agronômico e agrícola. O sistema inclui um dispositivo de computação configurado para designar uma área para imaginologia e determinar uma trajetória de voo acima da área designada. O sistema inclui ainda um veículo aéreo não tripulado comunicativamente acoplado ao dispositivo de computação e que tem um sistema de câmera, sendo que o veículo aéreo não tripulado é configurado para viajar ao longo da trajetória de voo, adquirir imagens da área usando do sistema de câmera e processar as imagens adquiridas.
[007] Existem vários refinamentos dos recursos observados em relação aos aspectos mencionados acima. Recursos adicionais também podem ser incorporados nos aspectos mencionados acima. Esses refinamentos e recursos adicionais podem existir individualmente ou em qualquer combinação. Por exemplo, vários recursos abordados abaixo em relação a qualquer uma das modalidades ilustradas podem ser incorporados em quaisquer dos aspectos descritos acima, sozinhos ou em qualquer combinação.
[008] A Figura 1 é um diagrama de blocos de um sistema para uso em monitoramento agronômico e agrícola.
[009] A Figura 2 é um fluxograma de um método para operar um veículo aéreo não tripulado para monitoramento agronômico e agrícola que pode ser usado com o sistema mostrado na Figura 1.
[010] A Figura 3 é um fluxograma de um estágio de planejamento de missão do método mostrado na Figura 2.
[011] A Figura 4 é um fluxograma de um estágio de execução de voo do método mostrado na Figura 2.
[012] A Figura 5 é um fluxograma de um estágio de transferência/processamento de dados após o voo do método mostrado na Figura 2.
[013] A Figura 6, a Figura 7, a Figura 8, a Figura 9, a Figura 10, a Figura 11 são exemplos de mapas que podem ser criados pelo sistema mostrado na Figura 1.
[014] Os caracteres de referência correspondentes indicam partes correspondentes por todas as diversas vistas das Figuras.
[015] Em referência inicialmente à Figura 1, um exemplo de um sistema aéreo não tripulado da presente revelação é indicado, de modo geral, em 100. O sistema aéreo não tripulado 100 inclui uma pluralidade de componentes que incluem um veículo aéreo não tripulado (UAV) 110, uma nuvem 120, uma interface gráfica de usuário (GUI) 130 (por exemplo, implantada usando de um dispositivo de computação do tipo tablet), uma estação base 140, um computador pessoal 150 e um dispositivo de entrada de usuário (UID) 160. Os componentes do sistema 100 serão descritos em mais detalhes abaixo.
[016] Nessa modalidade, os componentes do sistema 100 estão comunicativamente acoplados uns aos outros por meio de mais um meio de comunicações (por exemplo, conexão direta via cabo, redes de computação em nuvem, a Internet, redes locais (LAN), redes locais sem fio (WLAN) (por exemplo, padrão 802.11ac) ou redes de longa distância (WAN)). Consequentemente, componentes do sistema 100 podem incluir um transmissor e receptor sem fio (por exemplo, 118, 135, 143, 151, 165) e/ou um módulo de transferência celular (por exemplo, 113, 131, 142, 162) para facilitar a comunicação sem fio entre componentes. Adicionalmente, um ou mais dentre os componentes (110, 120, 130, 140, 150, e 160) pode incluir um sistema de posicionamento global (GPS) no mesmo (por exemplo, 111, 133, 145, 153, e 161) para determinar uma posição do componente associado, o que normaliza os dados de GPS entre componentes e habilita cálculos de triangulação para determinações de posição.
[017] Nessa modalidade, o veículo aéreo não tripulado 110 é uma aeronave pilotada remotamente ou autopilotada que pode ter capacidade para pairar (por exemplo, um helicóptero ou ultraleve) ou pode ser de asa fixa. Um exemplo de UAV "quadricóptero” do tipo de pairar é descrito na Publicação do Pedido de patente no U.S. 2013/0176423, que é incorporado a título de referência em sua totalidade. Nos sistemas e métodos descritos no presente documento, UAV 110 assiste operações agrícolas e de agricultura mapeando e monitorando evolução e status agrícolas.
[018] Nessa modalidade, veículo aéreo não tripulado (UAV) 110 inclui um sistema de posicionamento global (GPS) 111 adequado que fornece a localização do UAV 110 usando, por exemplo, de satélites de GPS que orbitam a Terra. Dados de localização e tempo podem ser fornecidos a um usuário (por exemplo, operador humano) ou a um computador que controla automaticamente o veículo. Um sensor de elevação (por exemplo, sonar) pode ser parte do sistema de GPS 111 para determinar a elevação do UAV 110 durante voo. O UAV 110 também inclui uma ou mais unidades de medida inercial montadas (IMUs) 112 que medem e relatam a velocidade, orientação e forças gravitacionais do UAV 110 usando de uma combinação de acelerômetros, giroscópios e/ou magnetômetros montados. Em cooperação com GPS 111 e IMUs 112, uma capacidade de piloto automático 115 no UAV 110 controla decolagem, navegação em voo e operações de pouso. Para comunicação durante operações de voo de retorno, o UAV 110 tem um sistema de comunicação com base em drone 116 que inclui um transmissor e receptor de rádio (por exemplo, 900 MHz ou 1,2 GHz) para se comunicar com um ponto de origem, tal como estação base 140, enquanto em voo.
[019] Na modalidade exemplificativa, o UAV 110 também inclui um sistema de câmera 117 montado no lado de baixo do mesmo para adquirir imagens durante o voo. O sistema de câmera 117 pode se pendurar a partir do UAV 110 através da gravidade usando de um conjunto de suspensões cardan que permitem rotação a cerca de uma pluralidade de eixos geométricos. As suspensões cardan podem incluir amortecedores que desaceleram as reações para alterações na orientação do UAV 110 durante o voo. Alternativamente, o sistema de câmera 117 pode ser montado diretamente no UAV 110 e ser controlado pelo movimento dos atuadores. O sistema de câmera 117 pode incluir uma câmera fotográfica, uma câmera de vídeo, uma câmera de imaginologia térmica e/ou uma câmera próxima do infravermelho (NIR) para capturar imagens de índice de vegetação de diferença normalizada (NDVI). Alternativamente, o sistema de câmera 117 pode incluir qualquer dispositivo de aquisição de imagem que habilite o sistema 100 funcionar conforme descrito no presente documento.
[020] O sistema de câmera 117 e o posicionamento do sistema de câmera 117 são controlados por uma unidade de processamento central (CPU) de bordo e uma unidade de armazenamento de memória 114. A unidade de processamento central (CPU) pode incluir um microprocessador. A CPU e a unidade de armazenamento de memória 114 facilitam operações aritméticas, lógicas e de entrada/saída da CPU de bordo. A CPU e a unidade de armazenamento de memória 114 também podem assistir e/ou controlar outros aspectos do UAV 110, conforme abordado no presente documento. Por exemplo, em algumas modalidades, a CPU e a unidade de armazenamento de memória 114 recebem informações a partir das IMUs 112 durante operações em voo para assistir com orientação do sistema de câmera 117 e/ou para detectar a possibilidade ou não das condições (por exemplo, luz, velocidade, ângulo, etc.) estarem adequadas para capturar imagens visíveis e úteis. O UAV 110 também pode incluir um ou mais sensores (por exemplo, um sensor de luz incidente) acoplados à CPU e à unidade de armazenamento de memória 114 para monitorar condições ambientes.
[021] Na modalidade exemplificativa, a estação base 140 inclui um sistema de comunicação com base em drone 141 que compreende um transmissor e receptor de rádio (por exemplo, 900 MHz ou 1,2 GHz) para facilitar comunicação com o UAV 110 enquanto em voo. A estação base 140 também inclui um sistema de GPS 145 e uma CPU e unidade de armazenamento de memória 144 similares àqueles abordados acima em relação ao UAV 110.
[022] Nessa modalidade, o computador pessoal (PC) 150 é um dispositivo de computação, tal como um computador do tipo laptop ou desktop. O PC 150 inclui uma CPU e unidade de armazenamento de memória 153 e também inclui software de mapeamento e processamento de dados agrícolas espaciais (por exemplo, Farm Works Software® ou SST Summit Professional®) instalados no mesmo. Em uma modalidade, o PC 150 pode servir como uma interface de usuário para o sistema 100.
[023] O sistema 100 também inclui uma interface gráfica de usuário (GUI) 130 que serve como uma interface de usuário portátil. A GUI 130 pode ser implantada usando de um computador do tipo tablet ou outro dispositivo de computação portátil que permite o usuário ou operador, controlar o sistema 100. Em particular, a GUI 130 pode permitir que o usuário designe trajetórias de voo do UAV 110 e/ou identifique obstáculos aéreos que podem, de alguma forma, obstruir a trajetória de voo do UAV 110. Nessa modalidade, a GUI 130 inclui um aplicativo ("app") ou software de visualização 136 que permite ao usuário acessar remotamente mapas espaciais que incluem dados a respeito de colheita, rendimento e/ou teor de nitrogênio criados a partir das imagens tiradas pelo UAV 110. Por exemplo, a GUI 130 pode incluir software similar ao descrito na Publicação de Pedido de Patente Internacional no WO 2014/026183, que está incorporada a título de referência em sua totalidade. Consequentemente, a GUI 130 inclui uma CPU e unidade de armazenamento de memória 132, e está em comunicação com outros componentes do sistema 100.
[024] O sistema 100 também inclui o dispositivo de interface de usuário (UID) 160 (por exemplo, um controlador ou teclado) que permite o usuário ou operador, controlar o sistema 100. Em particular, o UID 160 pode permitir que o usuário designe trajetórias de voo do UAV 110 e/ou identifique obstáculos aéreos que podem, de alguma forma, obstruir a trajetória de voo do UAV 110. Nessa modalidade, o UID 160 inclui um visor 164 que permite o usuário visualizar remotamente as imagens do sistema de câmera 117. Consequentemente, o UID 160 inclui uma CPU e unidade de armazenamento de memória 163, e está em comunicação com outros componentes do sistema 100. Em uma modalidade, o UID 160 pode permitir que o usuário ou operador controle o UAV 110 enquanto se visualiza as imagens do sistema de câmera 117 no visor de tela sensível ao toque 134 na GUI 130.
[025] Nessa modalidade, a nuvem 120 é um armazenamento de dados, um processamento de imagem e um concentrador de computação para o sistema aéreo não tripulado 100. Mais especificamente, a nuvem 120 é um conjunto de computadores interconectados e servidores conectados através de uma rede de comunicação para permitir computação distribuída. Por exemplo, a nuvem 120 poderia se um centro de armazenamento de dados remotos. O módulo de célula 113 montado no UAV 110 permite que fotografias sejam transferidas para a nuvem 120 enquanto o UAV 110 está em voo. A nuvem 120 pode receber e armazenar informações climáticas atuais e de previsão que incluem temperatura do ar e quantidade de precipitação. A nuvem 120 também pode se comunicar com um ou mais serviços de recomendação e análise que fornecem recomendações e/ou análises baseadas em dados de imagem adquiridos usando do UAV 110.
[026] Em uma modalidade, o UAV 110 transmite as imagens tiradas com o sistema de câmera 117 durante o voo para outros componentes (por exemplo, 130, 140, 150, 160) para armazenamento e/ou processamento. Imagens e metadados transferidos a partir do UAV 110 para a nuvem 120 podem ser ortorretificados e costurados em conjunto para criar uma única imagem contígua. Exemplos de imagem oblíqua ortorretificada para uma vista singular são descritos, por exemplo, no Documento de Patente no U.S. 8,512,266, que é incorporado a título de referência em sua totalidade.
[027] Com referência à Figura 2, um exemplo de um método para operar um sistema aéreo não tripulado, tal como o sistema 100, é indicado, de modo geral, em 200. Nessa modalidade, o método 200 inclui três estágios: um estágio de planejamento de missão 201, um estágio de execução de voo 202 e um estágio de transferência/processamento de dados após o voo 203. Os três estágios do método 200 serão descritos em mais detalhes abaixo.
[028] Com referência à Figura 3, um exemplo do estágio de planejamento de missão do método 200 é indicado, de modo geral, em 300. O estágio de planejamento de missão 300 do método 200 inclui uma sequência de ações realizadas pelo usuário e pelo sistema 100. Na Figura 3, as ações realizadas pelo usuário são fornecidas em um círculo e ações realizadas pelo sistema 100 são fornecidas em um quadrado.
[029] No método exemplificativo 200, seguinte à ativação do sistema 100, o usuário primeiramente indica a área de voo 301 para mapeamento. Em uma modalidade, o usuário delineia a área de voo a ser coberta pelo UAV 110 em GUI 130 ou UID 160 usando dos dados de mapa a partir do Google maps® ou outro software de GPS.
[030] Em uma modalidade, o sistema 100 analisa a entrada de área de voo do usuário 301, calcula a trajetória de voo (ou trajetórias de voo) possível para gerar uma imagem contígua da área de voo e fornece ao usuário possíveis trajetórias de voo de UAV 302. O sistema 100 também pode identificar obstáculos em potencial (por exemplo, postes de telefone e/ou linhas elétricas) na trajetória de voo baseada em voos anteriores e/ou entrada de usuário e pode, consequentemente, ajustar a trajetória de voo. Em outra modalidade, o sistema 100 fornece ao usuário múltiplas trajetórias de voo de UAV possíveis em diferentes elevações e velocidades que dependem da resolução de imagem desejada e da duração de voo. Por exemplo, e a título de ilustração, o sistema 100 poderia fornecer ao usuário duas trajetórias de voo de UVA opcionais em GUI 130 ou UID 160, conforme fornecido na Tabela 1 abaixo:
[031] No método exemplil ficativo 200, uma vez dotado de trajetórias de voo possíveis, o usuário seleciona uma trajetória de voo desejada 303. Em uma modalidade, o usuário pode solicitar que o sistema 100 forneça opções de trajetória de voo adicionais introduzindo parâmetros específicos para a trajetória de voo (isto é, elevação, resolução de figuração, duração, etc.).
[032] No método exemplificativo 200, na medida em que o usuário seleciona uma trajetória de voo desejada, o sistema 100 fornece ao usuário uma seleção de tipos de imagem possíveis a serem tiradas pelo sistema de câmera 117. Em uma modalidade, o usuário tem a opção de selecionar 305 a partir de fotos estáticas, imagens térmicas, imagens próximas do infravermelho (NIR) e vídeos a imaginologia de luz visível, térmica e/ou NIR. Por exemplo, GUI 130 ou UID 160 podem fornecer ao usuário uma lista que permite ao usuário selecionar o tipo de imagem desejado 304 (por exemplo, exibindo uma caixa de seleção ou outro mecanismo de seleção). Baseado nos tipos de imagem selecionados pelo usuário, em algumas modalidades, GUI 130 ou UID 160 determinam uma elevação otimizada e/ou estimam um tempo de voo.
[033] No método exemplificativo 200, o sistema 100 fornece ao usuário detalhes e fato de voo 306 em GUI 130 ou UID 160. Em uma modalidade, o sistema 100 pode fornecer ao usuário a rota, elevação e/ou duração do voo de UAV, bem como a resolução antecipada das imagens a serem tiradas no tipo de imagem selecionado. Em outra modalidade, antes de gerar trajetórias de voo, o sistema 100 determina se obstáculos de voo (por exemplo, postes de telefone ou linhas elétricas) foram anteriormente identificados na área de voo aplicável. Em ainda outra modalidade, o usuário identifica obstáculos de voo 307 em GUI 130 ou UID 160 usando de imagem de satélite a partir do Google Earth® ou outro fornecedor de imagem. Especificamente, em uma modalidade, GUI 130 ou UID 160 habilitam o usuário desenhar uma borda ao redor de quaisquer obstáculos de voo e introduzir a altura aproximada do obstáculo para evitar que o UAV entre na área obstruída. Com o uso da entrada a partir do usuário, o sistema 100 recalcula a trajetória de voo para evitar os obstáculos.
[034] Com referência à Figura 4, um exemplo do estágio de execução de voo do método 200 é indicado, de modo geral, em 400. O estágio de execução de voo 400 do método 200 inclui uma sequência de ações realizadas pelo usuário e pelo sistema 100. Na Figura 4, as ações realizadas pelo usuário são fornecidas em um círculo e ações realizadas pelo sistema 100 são fornecidas em um quadrado.
[035] No método exemplificativo 200, o estágio de execução de voo 400 ocorre após o estágio de planejamento de missão 201. Em uma modalidade, o usuário direciona o sistema 100 para iniciar o estágio de execução de voo 400 usando de GUI 130 ou UID 160. Em outra modalidade, o estágio de execução de voo 400 começa automaticamente seguinte à identificação de obstáculos, se estiverem presentes, na trajetória de voo de UAV.
[036] No método exemplificativo 200, o estágio de execução de voo 400 começa com o sistema 100 que compara a duração e elevação de voo com uma vida útil de bateria 401 do UAV 110. Quando um nível de carga de bateria é insuficiente, o sistema 100 fornece uma indicação ao usuário (por exemplo, em GUI 130 ou UID 160) de que é exigido carregamento. Adicionalmente a uma verificação de energia, o sistema 100 também realiza um teste operacional dos componentes de sistema, particularmente, UAV 110. Em uma modalidade, o sistema 100 conduz um teste de operação 402 para confirmar que as câmeras necessárias no sistema de câmera 117 estão instaladas e em operação, que as condições climáticas são seguras para o voo de UAV, que a área circundante do UAV 110 está limpa e segura para decolagem e que as coordenadas de GPS do UAV 110 estão corretas.
[037] No método exemplificativo 200, seguinte à confirmação pelo sistema 100 de que o UAV 110 tem capacidade e está pronto para operar, o usuário é alertado pelo sistema 100, por meio de GUI 130 ou UID 160, a iniciar o voo 403. Em uma modalidade, o usuário aperta um botão de "iniciar voo" ou "partir" em GUI 130 ou UID 160. Sob iniciação do voo, o sistema 100 começa o voo de UAV e monitora continuamente os sistemas de UAV 404. Em uma modalidade, o UAV 110 realiza uma ou mais manobras de teste. Por exemplo, o UAV 110 pode decolar verticalmente a partir da estação base 140 e realizar simples manobras (por exemplo, se mover para frente e para trás, de lado a lado, para cima e para trás, etc.) para verificar as capacidades de operação e manobra. No caso de um mau funcionamento de UAV ou sistema em qualquer momento durante o voo, o sistema 100 e o usuário têm a capacidade para encerrar o voo prematuramente 405. Em tal caso, a trajetória de voo selecionada é terminada e o UAV 110 retorna para estação base 140 e/ou tenta retornar ao chão sem danificar o UAV 110.
[038] No método exemplificativo 200, durante o voo do UAV 110, o sistema de câmera 117 tira fotos ou vídeos da área de voo selecionada e armazena as imagens na CPU de bordo e unidade de armazenamento de memória 114. Em uma modalidade, CPU de bordo e unidade de armazenamento de memória 114 ortorretifica a imagem para uma vista singular e identifica áreas com imagem de baixa qualidade.
[039] Em algumas modalidades, o UAV 110 adquire um conjunto inicial de imagens e, então, retorna para uma ou mais áreas-alvo para adquirir imagens adicionais em uma resolução mais alta após rever os mapas de imagem inicial 406. Por exemplo, o sistema de câmera 117 pode adquirir imagens de NDVI da área de voo selecionada, identificar áreas com baixos níveis de nitrogênio (ou outros problemas) por meio do mapa de NDVI e exibir essas áreas para o usuário por meio de GUI 130 para habilita o usuário de modo a instruir o UAV 110 a adquirir fotos de alta resolução ("de aferição") de baixa elevação (por exemplo, entre 3,04 e 15,24 metros (10 e 50 pés) acima do chão) adicionais. Em uma modalidade, as imagens de uma população plantada (por exemplo, milho, soja, etc.) são capturadas pelo sistema de câmera 117 a partir de uma vista aérea antes da população plantada alcançar um comprimento de maduro (isto é, em um momento quando plantas individuais são indistinguíveis de plantas vizinhas).
[040] Em outra modalidade, o UAV 110 voa automaticamente uma rota de "Voltar e Aferir" rota 407 que segue uma primeira passagem sobre a área de voo selecionada para tirar fotos em alta resolução adicionais de áreas-alvo (por exemplo, áreas com baixos níveis de nitrogênio) mostradas na imagem de NDVI. Em ainda outra modalidade, fotos em alta resolução adicionais de áreas-alvo são tiradas para eliminar sombras de cultura. Em tais modalidades, para reduzir o tempo de processamento, análise e processamento de imagem podem ser realizados a bordo do UAV 110.
[041] No método exemplificativo 200, seguinte à conclusão da trajetória de voo do UAV, o UAV pousa (por exemplo, na estação base 140) para encerrar o voo 408.
[042] No método exemplificativo 200, ao concluir o estágio de execução de voo 400, o estágio de transferência/processamento de dados após o voo 203 começa. Alternativamente, transferência/processamento de dados pode ocorrer enquanto o UAV 110 permanece aerotransportado, de modo que o estágio de transferência/processamento de dados 203 se sobrepõe ao estágio de execução de voo 400. Portanto, a transferência e o processamento da imagem obtida pelo UAV 110 podem ocorrer em tempo real conforme os dados são capturados ou brevemente após o mesmo (por exemplo, dentro de 10 minutos da captura de dados). Em uma modalidade, imagens em baixa qualidade são constantemente transmitidas para GUI 130 ou UID 160 durante o voo para manter o usuário informado do status do voo.
[043] Transferir os dados e imagens capturados pelo UAV 110 pode ser feito por meio de comunicação sem fio e/ou celular entre os componentes do sistema 100. A transferência é tipicamente direcionada aos componentes onde o processamento será executado.
[044] Processar os dados e imagens pode incluir ortorretificação e costura das imagens aéreas em um único mapa de área contígua. Notavelmente, o processamento dos dados e imagens pode ser realizado usando de qualquer componente do sistema 100. Por exemplo, o processamento pode ser realizado a bordo do UAV 110 e as imagens processadas podem, então, ser transferidas para a estação base 140, GUI 130 e/ou UID 160.
[045] Em uma modalidade, as imagens adquiridas são sobrepostas (por exemplo, com uma transparência de 50%) sobre mosaicos do Google map® ou imagens geográficas aéreas e exibidas para o usuário. Alternativamente, as imagens aéreas podem ser processadas e exibidas com os mosaicos do Google map® ou com a imagem geográfica aérea, de modo que as mesmas sejam exibidas em uma orientação presa de lado a lado, de modo que mover e/ou aproximar uma imagem move e/ou aproxima a outra imagem pela mesma quantidade. Os pontos centrais das imagens na orientação lado a lado podem ser indicados por um ícone (por exemplo, miras), similar às técnicas descritas na Publicação de Pedido de Patente Internacional no WO 2014/026183. Em outra modalidade, uma sequência de imagens aéreas tiradas em diferentes momentos durante uma temporada de crescimento (por exemplo, diariamente, semanalmente, mensalmente, etc.) são processadas em uma animação que passa pelas imagens em sequência. Em algumas modalidades, a animação é ativada automaticamente exibindo as imagens para definir períodos de tempo; em outras modalidades, a próxima imagem em sequência é exibida em resposta a uma entrada de usuário em uma interface gráfica (por exemplo, seleção usando de um ícone de seta ou ao arrastar um ícone deslizante por uma escala). A animação pode ser sobreposta sobre mosaicos do Google map® ou imagens geográficas aéreas. As imagens podem ser, por exemplo, imagens de NDVI, mapas aéreos e/ou mapas de emergência.
[046] Processar imagens também pode incluir filtrar as imagens usando de software para filtra sujeita e sombras que podem afetar a qualidade de imagem. A filtragem cria um contraste de cor entre a carlinga e sujeira de planta, que podem ser difíceis de distinguir umas das outras na imagem não filtrada. Por exemplo, em uma modalidade, o processamento de imagem remove tudo na fotografia aérea abaixo de um limiar de reflexão ou valor de cor.
[047] Em um exemplo, uma densidade de verdor esperada é identificada baseado em uma população plantada e/ou um estágio de desenvolvimento de plantas na área transformada em imagem. A população plantada pode ser determinada a partir de um mapa conforme plantado e o estágio de desenvolvimento pode ser determinado, por exemplo, usando de um gráfico híbrido específico que relaciona o número de dias de grau de crescimento para um estágio de desenvolvimento esperado. Uma vez que a densidade de verdor esperada é identificada, tudo em uma imagem que está acima da densidade de verdor esperada pode ser representado em tons de verde e tudo na imagem que está abaixo da densidade de verdor esperada pode ser representado em tons de vermelho.
[048] O sistema 100 também pode usar dados de imaginologia para gerar mapas de emergência nos quais um número de plantas por área é calculado e áreas desprovidas de plantas ou de vegetação desejável nas imagens são marcadas como "lacunas." As lacunas são áreas onde plantas ou vegetações falharam em crescer ou não foram inicialmente plantadas. Em uma modalidade, o sistema 100 correlaciona os dados de lacuna com dados de plantio iniciais (por exemplo, o mapa conforme plantado) para remover quaisquer lacunas que ocorreram devido a nenhum plantio inicial, o que deixa apenas verdadeiras lacunas que são indicativas de áreas onde sementes foram plantadas, porém, não emergiram. Esse processamento pode ser aplicado aos dados de imagem de NDVI ou outros dados de imagem adquiridos pelo sistema de câmera 117.
[049] Em algumas modalidades, decisões de aplicação espacial podem ser feitas automaticamente baseadas em imagens adquiridas pelo UAV 110. Por exemplo, os níveis de um mapa de NDVI podem estar associados a uma aplicação após o plantio (por exemplo, adubação de cobertura ou pulverização de cultura) para gerar um mapa de aplicação baseado no mapa de NDVI. O mapa de aplicação gerado pode ser exibido ao usuário para permitir o usuário rejeitar, modificar ou aceitar o mapa de aplicação. Em algumas modalidades, o mapa de aplicação gerado é transmitido a um fornecedor de serviço (por exemplo, um trabalhador ou empreiteira terceirizada) com instruções para aplicar o mapa de aplicação.
[050] Os dados adquiridos pelo UAV 110 também podem ser usados para produzir recomendações agronômicas gerais. Por exemplo, se um mapa de NDVI gerado usando do sistema 100 tem um nível de nitrogênio abaixo de um limiar, o sistema 100 pode recomendar que o nitrogênio seja aplicado por uma cobertura para aumentar os níveis de nitrogênio. O limiar pode ser determinado baseado em um estágio de desenvolvimento da cultura, por exemplo. Em outro exemplo, se um mapa de saúde vegetal indicar que uma área de plantas saudáveis está abaixo de um limiar, o sistema 100 pode recomendar que nitrogênio seja aplicado por uma cobertura. Em ainda outro exemplo, se um mapa de emergência tem uma área de emergência abaixo de um limiar antes de um tempo crítico em desenvolvimento, o sistema 100 pode recomendar que o campo seja replantado.
[051] Com referência à Figura 5, um exemplo do estágio de transferência/processamento de dados 203 do método 200 é indicado, de modo geral, em 500. O estágio de transferência/processamento de dados 500 do método 200 inclui uma sequência de ações realizadas pelo usuário e pelo sistema 100. Na Figura 5, as ações realizadas pelo usuário são mostradas em um círculo e ações realizadas pelo sistema 100 são mostradas em um quadrado.
[052] O estágio de transferência/processamento de dados 500 inclui, de modo geral, os oito seguintes estágios: estágio de obter imagem de NDVI (ou imagens de NDVI) a partir da execução de voo 501; estágio de converter a imagem de NDVI (ou imagens de NDVI) em um mapa 502; estágio de filtrar matéria de não cultura 503; estágio de identificar fileiras de cultura 504; estágio de dividir plantas individuais 505; estágio de identificar recursos de planta individual 506; estágio de estimar potencial de rendimento de cultura estágio 507; e estágio de gerar relatório 508.
[053] No método exemplificativo 200, o estágio de transferência/processamento de dados após o voo 500 começa com o sistema 100 obtendo imagem de NDVI (ou imagens de NDVI) a partir da execução de voo 501. Novamente, transferência/processamento de dados pode ocorrer enquanto o UAV 110 permanece aerotransportado, de modo que o estágio de transferência/processamento de dados 500 se sobrepõe ao estágio de execução de voo 400. O estágio de transferência/processamento de dados 500 pode ocorrer em tempo real conforme os dados são capturados pelo UAV 110 ou brevemente após o mesmo (por exemplo, dentro de 10 minutos da captura de dados).
[054] Nesse exemplo, as imagens obtidas a partir da execução de voo são convertidas pelo sistema 100 em um mapa 502 (por exemplo, um mapa de bits, um mapa de emergência, etc.). Em uma modalidade, uma densidade de verdor esperada é estabelecida baseado em uma população plantada e/ou um estágio de desenvolvimento de plantas na área transformada em imagem. Uma vez que a densidade de verdor esperada é identificada, no mapa gerado, pixels, em cada imagem, que estão acima da densidade de verdor esperada são representados em branco e pixels, na imagem, que estão abaixo da densidade de verdor esperada são representados em preto. Consequentemente, um mapa é criado com espaços brancos unitários 601 que se correlacionam aproximadamente com a localização e área de cada planta nas imagens. Um mapa exemplificativo 600 é fornecido na Figura 6. Na Figura 6, plantas individuais na população plantada (identificada usando da densidade de verdor esperada) são representadas como espaços brancos 601. Recursos circundantes 602 (por exemplo, solo circundante, ervas daninhas, etc.) são levemente sombreadas. Até o processamento adicional, o mapa pode incluir espaços brancos únicos 601 que incluem múltiplas plantas (por exemplo, mostradas no lado direito do mapa 600) e/ou espaços brancos 601 que são ervas daninhas ou outra matéria de planta de não cultura (por exemplo, mostrada no lado esquerdo inferior do mapa 600).
[055] O estágio de filtrar matéria de não cultura 503, no método exemplificativo, inclui identificar "anomalias" no mapa gerado. “Anomalias", conforme usado no presente documento, se refere às áreas no mapa gerado que são inicialmente identificadas pelo sistema 100 com um espaço branco 601 (por exemplo, baseado na densidade de verdor), porém, não representam, realmente, uma planta desejada da população plantada. Por exemplo, uma erva daninha pode ser uma anomalia no mapa gerado. O estágio 503 também inclui filtrar essas anomalias do mapa 600. Nesse exemplo, o sistema 100 identifica anomalias calculando um tamanho (por exemplo, área, diâmetro, etc.) para cada espaço branco 601 e, então, as anomalias são identificadas como espaços brancos com um tamanho substancialmente diferente do (por exemplo, 2 desvios padrão) típico (por exemplo, médio, mediana, média, etc.) tamanho dos espaços brancos 601 no mapa 600. Uma anomalia exemplificativa é mostrada, de modo geral, na Figura 7 como o espaço branco de anomalia 701. O sistema 100 filtra as anomalias sombreando as anomalias da mesma cor que os recursos circundantes 602 ou removendo as anomalias da consideração adicional no método 500. A Figura 8 mostra um mapa exemplificativo 600 com o espaço branco de anomalia 701 removido. Em outra modalidade, o sistema 100 compara as anomalias com os dados de plantio iniciais (por exemplo, um mapa conforme plantado) para remover quaisquer anomalias que ocorram nas áreas onde não havia plantio inicial. Consequentemente, o sistema 100 filtra as anomalias sombreando as mesmas apropriadamente ou removendo as mesmas da consideração adicional. Esse processamento pode ser aplicado aos dados de imagem de NDVI ou outros dados de imagem adquiridos pelo sistema de câmera 117.
[056] O estágio de identificar as fileiras de cultura 504 no método exemplificativo inclui marcar um centroide 801 para cada espaço branco restante 601. A Figura 8 mostra um mapa exemplificativo 600 com uma fileira 802 de espaços brancos 601 marcados com centroides 801. A Figura 9 mostra outro mapa exemplificativo 600 com duas fileiras 901 e 902 de espaços brancos 601 marcados com centroides 801. O sistema 100 identifica fileiras (por exemplo, 802, 901, 902) calculando, aproximando e atribuindo linha de melhor encaixe para as fileiras baseado nas posições dos centroides 801. Especificamente, o sistema 100 usa uma distância de afastamento de fileira 805, que pode ser um valor padrão (por exemplo, 76,20 centímetros (30 polegadas)) ou um valor introduzido por usuário, para identificar localizações aproximadas das fileiras paralelas através dos espaços brancos 601 e/ou centroides 801. Em outras modalidades, o estágio 504 pode sobrepor ou ocorrer ao mesmo tempo que o estágio 503 para assistir o sistema 100 em identificar anomalias.
[057] O estágio de dividir as plantas individuais 505 no método exemplificativo inclui identificar dois ou mais espaços brancos sobrepostos 601 (isto é, duas ou mais plantas sobrepostas). A Figura 10 mostra um exemplo de um par de espaços brancos 601 sobrepostos dentro do círculo 1000. No método exemplificativo, para identificar um par de espaços brancos sobrepostos 601, o sistema 100 primeiramente compara (i) o afastamento em fileira (por exemplo, 1001 e 1003) entre centroides adjacentes; e (ii) o valor de afastamento em fileira (por exemplo, 1002 e 1004) determinado por (a) um valor nominal a partir do usuário, (b) um valor de afastamento conforme plantado a partir de um mapa conforme plantado ou (c) o afastamento mediano ou médio entre plantas em fileira. No caso de um par de espaços brancos sobrepostos 601, tais como os mostrados no círculo 1000 na Figura 10, uma diferença 1005 entre o afastamento 1003 e 1004 é acentuadamente maior que uma diferença 1006 entre o afastamento 1001 e 1002. Como uma etapa separada ou como parte da mesma etapa de identificar um par de espaços brancos sobrepostos 601, o sistema 100 também pode calcular e comparar a área mediana de espaços brancos 601. Consequentemente, o sistema 100 tem capacidade para identificar o par de espaços brancos sobreposto 601 (por exemplo, dentro do círculo 1000) usando da análise descrita acima. Sob identificação de um par de espaços brancos sobrepostos 601, conforme mostrado, por exemplo, na Figura 11, o sistema 100 divide plantas individuais atribuindo novamente dois centroides 801 para marcar a localização dos espaços brancos individuais 601 equidistantes da localização 1100 do centroide deletado 801.
[058] Nesse exemplo, o sistema 100 também atribui um "valor de confiança" (por exemplo, 90%) para cada espaço branco 601 que indica a probabilidade ou certeza estatística de que cada espaço branco 601 se correlaciona com a localização e/ou área de uma planta distinta nas imagens. Em um exemplo, o valor de confiança para um espaço branco individual 601 é maior quando (i) a localização do respectivo centroide 801 é aproximadamente igual a um valor de afastamento em fileira (por exemplo, 1002 e 1004); e (ii) a respectiva área é aproximadamente igual à área mediana e/ou média de espaços brancos 601 no mapa 600. Consequentemente, o sistema 100 pode armazenar o valor de confiança para cada espaço branco 601 em cada mapa 600 para referência, por vários propósitos, conforme descrito abaixo.
[059] O estágio de identificar recursos de planta individual 506 no método exemplificativo inclui tanto corrigir as imagens capturadas pelo sistema de câmera 117 quanto analisar as plantas individuais (por exemplo, aquelas identificadas dentro de espaços brancos 601). Nesse exemplo, o sistema 100 corrige imagens aéreas capturadas pelo sistema de câmera 117 considerando um ponto de dados de imagem (por exemplo, a localização, elevação e velocidade do UAV 110 quando cada imagem foi tirada, a resolução do sistema de câmera 117, o ângulo e aproximação usados pelo sistema de câmera 117, etc.) e medições de afastamento em fileira e paralelo a fileira identificadas nos estágios 504 e 505 descritos acima. Mais especificamente, o sistema 100 atribui uma escala para cada pixel em cada imagem comparando as medições de afastamento em fileira ou paralelo a fileira conhecidas (por exemplo, em polegadas) para as medições de afastamento em imagem em fileira ou paralelo a fileira conhecidas (por exemplo, em pixels).
[060] Em outro exemplo, corrigir as imagens capturadas pelo sistema de câmera 117 pode incluir uma rota "Voltar e Aferir" 407 pelo UAV 110 para tirar fotos em alta resolução adicionais das áreas-alvo.
[061] Nesse exemplo, o sistema 100 também analisa as plantas individuais (por exemplo, aquelas identificadas dentro de espaços brancos 601) examinando uma ou mais imagens de cada planta capturada pelo sistema de câmera 117 a partir das diferentes posições e elevações. De modo similar ao estágio 504 em que cada espaço branco 601 é marcado com um centroide 801, o sistema 100 localiza as estruturas (por exemplo, folhas, caules, espigas, etc.) de cada planta e marca cada estrutura com um centroide. Em um exemplo, o sistema 100 localiza as estruturas de planta usando de um comprimento: razão de largura para estruturas consistentes com a população plantada. Além disso, espinhos de folha podem ser localizados calculando pontos médios entre as arestas de folha. Nesse exemplo, o sistema 100 também localiza um centroide atualizado e mais preciso da planta usando de centroides a partir das estruturas de planta individual. Em outro exemplo, o sistema 100 pode usar um ponto de interseção de linhas encaixadas ao longo do comprimento ou largura e através do centroide de uma pluralidade de estruturas de planta (por exemplo, espinhos de folha) para encontrar o centroide de planta atualizado. Ainda em outras modalidades, o sistema 100 pode retornar aos estágios anteriores para aperfeiçoar a identificação de espaço branco 601 e/ou colocação de centroide 801, por exemplo.
[062] Nesse exemplo, o sistema 100 usa a localização de estrutura de imagens e planta para determinar os dados a respeito das características das plantas na população plantada. As características de planta de interesse particular, por exemplo, incluem, adequadamente sem limitação, comprimento de folha (por exemplo, comprimento médio de espinho), largura e área (por exemplo, da planta inteira) e número de folhas (que pode ser, por exemplo, o número de espinhos identificados). Novamente, o sistema 100 pode usar os pontos de dados de imagem para ajustar as vistas pouco claras ou distorcidas das características de planta. Consequentemente, o sistema 100 pode armazenar as informações a respeito das características de planta para cada planta para referência, para os vários propósitos descritos abaixo.
[063] O estágio de estimar o potencial de rendimento de cultura 507 no método exemplificativo inclui usar informações levantadas e calculadas pelo sistema 100 para estimar um potencial de rendimento. Informações levantadas incluem, por exemplo, o número de plantas na população plantada, o valor de confiança para cada espaço branco 601 e/ou informações a respeito das características de planta. Nesse exemplo, o sistema 100 pode não considerar as características de planta quando um valor de confiança para uma planta particular estiver abaixo de um primeiro limiar (por exemplo, 95%). Também nesse exemplo, o sistema 100 pode não incluir essa planta particular para a contagem de população plantada erguida quando o valor de confiança estiver abaixo de um segundo limiar inferior (por exemplo, 80%).
[064] Em um exemplo, o sistema 100 pode usar a seguinte Equação 1 para estimar um potencial de rendimento de planta ou de população plantada: Equação 1: potencial de rendimento = Ax + By + Cz em que, x = número de folhas y = área de folha z = comprimento máximo de folha ou média das duas folhas mais longas A = 0, se x < valor limiar; A > 0, se x > valor limiar B = 0, se x < valor limiar; B > 0, se x > valor limiar C = 0, se x < valor limiar; C > 0, se x > valor limiar
[065] Em um exemplo, o sistema 100 pode calcular um potencial de espiga usando de uma abordagem booleana. Por exemplo, se quaisquer duas variáveis (por exemplo, número de folhas, área de folha, comprimento máximo de folha) estão acima de um limiar predeterminado associado a cada variável, então, o potencial de espiga é definido em 1. De outra forma, o potencial de espiga é definido em 0. Deve ser verificado que os valores-limiar usados para determinar rendimento ou potencial de espiga podem ser selecionados para exigir uma alta confiança (por exemplo, 99%) de que a planta tem o potencial classificado ou para exigir apenas uma confiança relativamente baixa (por exemplo, 80%).
[066] Em outro exemplo, as características de planta (número de folhas, área de folha, folha comprimento, etc.) usadas para calcular rendimento/potencial de espiga são relativas a outras plantas no campo. As mesmas podem ser, por exemplo, relativas a plantas vizinhas ou próximas, ou relativas a um número mediano/médio para a imagem e/ou campo. Por exemplo, o sistema 100 pode usar a seguinte Equação 2 para estimar um potencial de rendimento de planta ou de população plantada, baseado nas relativas características de planta: Equação 2: potencial de rendimento = A(x-l) + B(y-m) + C(z- n) em que, x = número de folhas em uma planta y = área de folha em uma planta z = comprimento máximo de folha ou média das duas folhas mais longas em uma planta l = número médio de folhas em plantas na mesma imagem ou população plantada m = área média de folha em plantas na mesma imagem ou população plantada n = comprimento médio máximo de folha ou média das duas folhas mais longas em plantas na mesma imagem ou população plantada A = 0, se x < valor limiar; A = 1, se x > valor limiar B = 0, se x < valor limiar; B = 1, se x > valor limiar C = 0, se x < valor limiar; C = 1, se x > valor limiar
[067] Em ambas as Equações 1 e 2, o valor limiar para determinar A, B e C pode ser (i) um valor nominal a partir do usuário; (ii) um valor esperado baseado em populações plantadas anteriores; (iii) um valor extrapolado das plantas individuais; ou (iv) um valor interpolado das maiores populações plantadas.
[068] O estágio de gerar relatório 508 no método exemplificativo inclui criar um mapa ou relatório de dados a respeito da população plantada. Nesse exemplo, o mapa gerado compara o mapa conforme plantado com outro mapa, posteriormente, no desenvolvimento da população plantada. O mapa pode mostrar, por exemplo, regularidade de afastamento de planta, plantios pulados, plantas duas vezes plantadas, etc. Também nesse exemplo, o relatório gerado pode incluir um potencial ou rendimento gerado (por exemplo, número de espigas, sementes, caules, etc.) a partir da população plantada.
[069] Em algumas modalidades uma ou mais medições e mapas espaciais podem ser gerados e exibidos para o usuário baseado em informações levantadas a partir de imagem aérea.
[070] Em uma modalidade, um valor de pressão de erva daninha é determinado para cada localização ou região no campo baseado na quantidade relativa de ervas daninhas na cultura erguida. O valor de pressão de erva daninha está, preferencialmente, relacionado à quantidade de matéria de planta verde identificada entre as fileiras de uma cultura de fileira. Por exemplo, o valor de pressão de erva daninha pode ser determinado para uma região A no campo dividindo a área de "anomalias" identificadas, conforme descrito acima dentro da região A, pela área total da região A. Em alguns métodos, as ervas daninhas são distinguidas das outras anomalias ou do material de cultura baseado em um critério de formato ou tamanho da erva daninha; por exemplo, anomalias que têm uma área total ou largura menor que um limiar podem ser ignoradas por propósitos de calcular um valor de pressão de erva daninha. O valor de pressão de erva daninha determinado para localizações por todo o campo pode ser, então, exibido como um valor de campo ou região, ou apresentado como um mapa espacial de pressão de ervas daninha.
[071] Em outra modalidade, a largura de folha das plantas de cultura identificadas no campo (determinadas conforme descritas acima) é relatada como um média de campo ou apresentada ao usuário como um mapa espacial de largura média de folha no campo.
[072] Em outra modalidade, uma data de emergência estimada das plantas de cultura identificadas é determinada para cada planta ou região do campo. A data de emergência estimada pode ser estimada baseada no tamanho de cada planta de cultura identificada; ainda, onde nenhuma planta de cultura é observada em uma porção do campo em uma dada data, se assume que a data de emergência para aquela porção do campo pode ser após aquela data. A variação espacial em data de emergência estimada pode ser apresentada ao usuário como um mapa ou pode ser usada para aperfeiçoar as estimativas de umidade de planta ou maturidade de planta posteriormente na temporada, por exemplo, quando se determina uma data recomendada de colheita. Deve ser verificado que para decisões amplas operacionais de campo, a data de emergência mais tardia deve ser usada; por exemplo, um atraso de um dia na data de emergência mais tardia determinada para o campo pode resultar em um atraso de um dia na data recomendada de colheita.
[073] Em outra modalidade, um vigor de planta estimado das plantas de cultura identificadas no campo é relatado como uma média de campo ou apresentado ao usuário como um mapa espacial do vigor de planta no campo. O valor de vigor de planta para cada planta ou grupo de plantas é determinado, preferencialmente, calculando uma soma ponderada ou o produto das características de planta (por exemplo, largura de folha e número de folhas). Por exemplo, um valor de vigor de planta para uma planta de cultura pode ser calculado multiplicando a largura média de folha pelo número de folhas ou adicionando a largura média de folha a um valor 10 vezes o número de folhas. Uma variação estatística (por exemplo, desvio padrão) do valor de vigor de planta em relação ao valor médio de vigor de planta para o campo (ou para uma região que inclui múltiplos campos) também pode ser medido e usado para gerar um mapa espacial do desvio de vigor de planta.
[074] Em outra modalidade, uma identificação de doença de planta é determinada comparando a refletividade (por exemplo, espectro visível, infravermelho ou valor de NDVI) das porções de uma única planta de cultura identificada com um valor limiar ou com o valor médio de refletividade da planta de cultura. Se uma ou mais porções de uma planta de cultura tem uma refletividade maior que o limiar de refletividade selecionado (e tem, preferencialmente, uma área maior que um limiar de área), o usuário é, preferencialmente, alertado para doença em potencial e pode ser apresentado com uma imagem fotográfica da planta de cultura.
[075] Em outra modalidade, uma identificação de praga é determinada comparando a refletividade (por exemplo, espectro visível, infravermelho ou valor de NDVI) das porções de uma única planta de cultura identificada com um valor limiar ou com o valor médio de refletividade da planta de cultura. Se uma ou mais porções de uma planta de cultura tem uma refletividade maior que o limiar de refletividade selecionado (e tem, preferencialmente, uma área maior que um limiar de área), o usuário é, preferencialmente, alertado para presença de praga em potencial e pode ser apresentado com uma imagem fotográfica da planta de cultura.
[076] Devido aos métodos de identificação de praga e doença abordados acima poderem ser aperfeiçoados por imagens de resolução mais alta, em algumas modalidades o UAV 110 retorna às áreas que têm valores fracos de NDVI (seja aqueles selecionados pelo usuário ou aqueles que têm valores de NDVI abaixo do limiar) e captura uma imagem de alta resolução, por exemplo, voando em altitudes inferiores (por exemplo, 6,09 metros (20 pés) ou inferior) sobre a área identificada ou pairando (isto é, parando em uma posição estacionária) sobre a área identificada e tirando uma imagem em uma resolução mais alta e/ou nível de aproximação maior do que durante o voo inicial de captura de imagem de NDVIA. Ao obter fotos em baixa altitude (por exemplo, 6,09 metros (20 pés) ou inferior), o UAV 110 determina, preferencialmente, a própria distância para o chão de modo a evitar colisões devido a alterações desconhecidas em elevação. Em algumas modalidades a distância para o chão pode ser determinada usando de um dispositivo sonar no UAV. Em outras modalidades a distância para o chão pode ser determinada processando uma imagem e determinando o número de pixels entre fileiras de cultura e calculando a distância para o chão baseado na distância conhecida entre as fileiras e definições de levantamento de imagem conhecidas, tais como o campo de vista de câmera e nível de aproximação.
[077] Em algumas modalidades, o potencial de rendimento e/ou potencial de espiga das plantas (por exemplo, plantas em estágio de muda), conforme abordado acima, pode ser determinado alternativamente tirando imagens da cultura em um ângulo significativo (por exemplo, entre 30 e 60 graus) em relação à vertical, de modo a observar e comparar a altura das plantas individuais. Plantas mais curtas que as plantas vizinhas por uma porcentagem limiar são identificadas, preferencialmente, como plantas emergentes tardiamente que têm um potencial de rendimento inferior.
[078] Em algumas modalidades, a orientação das plantas de cultura identificadas pode ser determinada determinando a orientação de planta (por exemplo, em relação ao norte) de um melhor encaixe em linha através dos espinhos de uma ou mais folhas (por exemplo, uma linha que passa pelas duas folhas opostas separadas por 180 graus acerca do caule). Uma correlação da orientação de planta com um desempenho de rendimento pode ser determinada baseada no mapa de rendimento desenvolvido posteriormente para o mesmo campo. Uma previsão de potencial de espiga ou de rendimento pode ser gerada baseada, em parte, na orientação de planta de cada planta; por exemplo, o potencial de rendimento pode ser reduzido em 1 alqueire por acre para cada diminuição de 5 graus em orientação média de planta em relação ao norte (isto é, no deslocamento angular das folhas em relação ao norte) por acre. Adicionalmente, uma medição de diâmetro de caule tirada a partir de uma imagem aérea (preferencialmente em um ângulo significativo a partir da vertical, por exemplo, 45 graus) ou por uma câmera baseada na terra ao lado do caule pode ser aperfeiçoado determinando a orientação do caule baseada na orientação de planta. Por exemplo, a imagem aérea ou baseada na terra tirada para medição de diâmetro de caule pode ser tirada em um ângulo de medição de caule desejado, por exemplo, normal para a orientação de planta. Em outras modalidades, a medição de diâmetro de caule pode ser reduzida por um fator relacionado à diferença entre o ângulo da imagem em relação ao caule e o ângulo de medição de caule desejado. A medição de diâmetro de caule pode ser usada para modificar o potencial de espiga ou de rendimento previsto; por exemplo, o rendimento previsto pode ser aumentado em 1 alqueire por acre para cada aumento de 0,5 cm em diâmetro de caule medido.
[079] Em algumas modalidades dos métodos descritos no presente documento, uma medição baseada em uma imagem de uma primeira porção do campo pode ser generalizada para uma maior porção do campo por propósitos de gerar um mapa da medição através do campo. Em algumas modalidades, a maior porção do campo pode compreender uma área circundante e/ou adjacente à primeira porção do campo. Em outras modalidades, a maior porção do campo pode compreender uma zona de gerência (por exemplo, uma região adjacente ou circundante do campo que tem um tipo comum de solo, faixa de rendimento, tipo híbrido plantado ou outra característica ou prática de agricultura aplicada).
[080] Ao introduzir os elementos da presente invenção ou as diversas modalidades da mesma, os artigos “um”, “uma”, “o”, "a", “dito” e "dita" são destinados a significar que existem um ou mais dos elementos. Os termos “que compreende”, “que inclui” e “que tem” são destinados a serem inclusivos e significam que podem existir elementos adicionais além dos elementos listados. O uso de termos que indicam uma orientação particular (por exemplo, "superior", "inferior", "lateral", etc.) é dado por conveniência da descrição e não exige qualquer orientação particular do item descrito. Como podem ser feitas várias mudanças nas construções e métodos acima sem que se afaste do escopo da invenção, é pretendido que todos os assuntos contidos na descrição acima e mostrados nas Figuras de desenho em anexo devem ser interpretados como ilustrativos e não em um sentido limitado.
Claims (22)
1. Método para monitoramento agronômico e agrícola, o método caracterizado pelo fato de que compreende: monitorar, por uma unidade de processamento central (CPU) (144) em uma estação base (140), um veículo aéreo não tripulado (UAV) (110), conforme o UAV (110) voa ao longo de uma trajetória de voo acima de uma área e conforme o UAV (110) realiza: capturar, por uma CPU (114) do UAV (110), uma pluralidade de imagens de índice de vegetação de diferença normalizada (NDVI) iniciais da área conforme o UAV (110) voa ao longo da trajetória de voo; receber, pela CPU (114) do UAV (110), uma identificação de uma ou mais áreas-alvo mostradas nas imagens NDVI tendo baixos níveis de nitrogênio, como uma base para capturar uma ou mais imagens adicionais diferentes da uma ou mais áreas-alvo em resolução mais alta; em resposta ao recebimento da identificação: fazer o UAV (110) retornar para as referias uma ou mais áreas-alvo; fazer, pela CPU (114) do UAV (110), com que o UAV (110) capture a uma ou mais imagens adicionais diferentes da uma ou mais áreas-alvo em resolução mais alta; transmitir a pluralidade de imagens NDVI iniciais e a uma ou mais imagens adicionais diferentes para um destinatário de imagem.
2. Método, de acordo com a reivindicação 1, caracterizado pelo fato de que compreende ainda o UAV (110) identificar ele próprio uma ou mais áreas-alvo para as quais a uma ou mais imagens diferentes são exigidas, conforme o UAV (110) ortorretifica a pluralidade de imagens NDVI iniciais e identifica áreas com uma imagem de baixa qualidade.
3. Método, de acordo com a reivindicação 1, caracterizado pelo fato de que compreende ainda: enviar, pelo UAV (110), para um dispositivo de computação (150) uma indicação de áreas que têm certas características que compreendem um ou mais dentre baixos níveis de nitrogênio, baixos níveis de maturidade de cultura ou altos níveis de sombra de cultura; receber, a partir do dispositivo de computação (150), instruções para adquirir uma ou mais imagens da uma ou mais áreas- alvo para as quais a uma ou mais imagens adicionais diferentes são exigidas; receber, a partir do dispositivo de computação (150), uma identificação da uma ou mais áreas-alvo para as quais a uma ou mais imagens adicionais diferentes são exigidas.
4. Método, de acordo com a reivindicação 1, caracterizado pelo fato de que compreende ainda capturar, pelo UAV (110), a uma ou mais imagens adicionais diferentes em uma resolução mais alta do que uma resolução na qual a pluralidade de imagens NDVI iniciais foi capturada.
5. Método, de acordo com a reivindicação 1, caracterizado pelo fato de que compreende ainda capturar, pelo UAV (100), a uma ou mais imagens diferentes em uma elevação mais baixa.
6. Método, de acordo com a reivindicação 1, caracterizado pelo fato de que compreende ainda transferir a pluralidade de imagens NDVI iniciais e a uma ou mais imagens adicionais diferentes ao destinatário de imagem conforme as imagens são capturadas pelo UAV e enquanto o UAV é aerotransportado.
7. Método, de acordo com a reivindicação 1, caracterizado pelo fato de que compreende ainda determinar a trajetória de voo ao: receber, na estação base (140), uma entrada que indica um tipo de imagem a ser adquirida; receber, na estação base (140), dados de obstáculo que indicam um obstáculo dentro da área; e determinar, pela estação base (140), a trajetória de voo baseada, pelo menos em parte, na entrada e nos dados de obstáculo.
8. Método, de acordo com a reivindicação 1, caracterizado pelo fato de que compreende ainda processar, pelo UAV (110), a pluralidade de imagens NDVI iniciais e a uma ou mais imagens adicionais diferentes a bordo, conforme o UAV (110) voa sobre a área.
9. Método, de acordo com a reivindicação 1, caracterizado pelo fato de que compreende ainda processar, pelo UAV (110), a pluralidade de imagens NDVI iniciais e a uma ou mais imagens adicionais diferentes para ortorretificar e costurar a pluralidade de imagens NDVI iniciais e a uma ou mais imagens adicionais diferentes em um único mapa de área contínuo.
10. Método, de acordo com a reivindicação 1, caracterizado pelo fato de que compreende ainda: processar, pela estação base (140) ou por um computador em nuvem, a pluralidade de imagens NDVI iniciais e a uma ou mais imagens adicionais diferentes realizando um ou mais dentre: ortorretificar e costurar a pluralidade de imagens NDVI iniciais e a uma ou mais imagens diferentes em um único mapa de área contínuo; sobrepor a pluralidade de imagens NDVI iniciais e a uma ou mais imagens diferentes sobre outros tipos de imagens geográficas aéreas; exibir a pluralidade de imagens NDVI iniciais e a uma ou mais imagens adicionais diferentes em uma interface gráfica de usuário (130) para um usuário; baseado na pluralidade de imagens NDVI iniciais e na uma ou mais imagens adicionais diferentes, gerar uma animação visual e exibir a animação visual na interface gráfica de usuário (130) para o usuário; filtrar a pluralidade de imagens NDVI iniciais e a uma ou mais imagens adicionais diferentes aplicando um ou mais filtros à pluralidade de imagens NDVI iniciais e a uma ou mais imagens adicionais diferentes; baseado na pluralidade de imagens NDVI iniciais e na uma ou mais imagens adicionais diferentes, determinar um mapa de densidade de verdor para a área, em que o mapa de densidade de verdor tem uma área de densidade de verdor esperada representada em uma primeira cor e outras áreas representadas em uma segunda cor; baseado na pluralidade de imagens NDVI iniciais e na uma ou mais imagens adicionais diferentes, gerar pelo menos um dentre um mapa de índice de vegetação de diferença normalizada ou um mapa de aplicação para a área; baseado na pluralidade de imagens NDVI iniciais e na uma ou mais imagens adicionais diferentes, determinar um mapa de emergência (600) para a área; baseado na pluralidade de imagens NDVI iniciais e na uma ou mais imagens adicionais diferentes, gerar pelo menos um dentre um mapa de índice de vegetação de diferença normalizada ou um mapa de aplicação; baseado na pluralidade de imagens NDVI iniciais e na uma ou mais imagens adicionais diferentes, gerar uma ou mais recomendações agronômicas para a área; em que o processamento da pluralidade de imagens NDVI iniciais e da uma ou mais imagens diferentes é realizado em um ou mais dentre: a estação base (140) ou um sistema em nuvem.
11. Método, de acordo com a reivindicação 10, caracterizado pelo fato de que compreende ainda processar o mapa de emergência (600) para a área para: identificar fileiras de áreas acima de uma densidade de verdor esperada no mapa de emergência (600); dividindo áreas acima da densidade de verdor esperada em áreas individuais em que cada uma corresponde a uma planta de uma pluralidade de plantas e é consistente com os dados de plantio; identificar estruturas de pelo menos uma planta dentre a pluralidade de plantas; calcular um rendimento estimado a partir de pelo menos uma planta dentre a pluralidade de plantas baseado nas estruturas identificadas; gerar um relatório que inclui o rendimento estimado.
12. Sistema para monitoramento agronômico e agrícola, o sistema caracterizado pelo fato de que compreende: uma estação base (140) compreendendo uma unidade de processamento central (CPU) (144) e é configurada para monitorar um ou mais veículos aéreos não tripulados conforme o um ou mais veículos aéreos não tripulados (110) voa ao longo de uma trajetória de voo acima de uma área; um veículo aéreo não tripulado (UAV) (110) compreendendo uma CPU (114) e configurado de tal forma que: a CPU (114) do UAV (110) captura uma pluralidade de imagens de índice de vegetação de diferença normalizada (NDVI) iniciais da área, conforme o UAV (110) voa ao longo da trajetória de voo; a CPU (114) do UAV (110) identifica uma ou mais áreas alvo mostradas nas imagens NDVI tendo baixos níveis de nitrogênio, como base para capturar uma ou mais imagens adicionais diferentes da uma ou mais áreas-alvo em uma resolução mais alta; a CPU (114) do UAV (110), em resposta à identificação: faz com que o UAV (110) retorne à uma ou mais áreas-alvo; faz com que o UAV (110) capture a uma ou mais imagens adicionais diferentes da uma ou mais áreas-alvo em uma resolução mais alta; a CPU (114) do UAV (110) transmite a pluralidade de imagens NDVI iniciais e a uma ou mais imagens adicionais diferentes para um destinatário de imagem.
13. Sistema, de acordo com a reivindicação 12, caracterizado pelo fato de que UAV (110) é configurado ainda para identificar ele mesmo a uma ou mais áreas-alvo para as quais a uma ou mais imagens adicionais diferentes são exigidas, conforme o UAV (110) ortorretifica a pluralidade de imagens NDVI iniciais e identifica áreas com uma imagem de baixa qualidade.
14. Sistema, de acordo com a reivindicação 12, caracterizado pelo fato de que o UAV (110) é configurado ainda para: enviar para um dispositivo de computação (150) uma indicação de áreas que têm certas características que compreendem um ou mais dentre baixos níveis de nitrogênio, baixos níveis de maturidade de cultura ou altos níveis de sombra de cultura; receber, a partir do dispositivo de computação (150), instruções para adquirir uma ou mais imagens da uma ou mais áreas- alvo para as quais a uma ou mais imagens adicionais diferentes são exigidas; receber, a partir do dispositivo de computação (150), uma identificação da uma ou mais áreas-alvo para as quais a uma ou mais imagens adicionais diferentes são exigidas.
15. Sistema, de acordo com a reivindicação 12, caracterizado pelo fato de que o UAV (110) é configurado ainda para: capturar a uma ou mais imagens adicionais diferentes em uma resolução mais alta do que uma resolução na qual a pluralidade de imagens NDVI iniciais foi capturada.
16. Sistema, de acordo com a reivindicação 12, caracterizado pelo fato de que o UAV (110) é configurado ainda para: capturar a uma ou mais imagens diferentes em uma elevação mais baixa.
17. Sistema, de acordo com a reivindicação 12, caracterizado pelo fato de que o UAV (110) é configurado ainda para: transferir a pluralidade de imagens NDVI iniciais e a uma ou mais imagens adicionais diferentes ao destinatário de imagem conforme as imagens são capturadas pelo UAV (110) e enquanto o UAV (110) é aerotransportado.
18. Sistema, de acordo com a reivindicação 12, caracterizado pelo fato de que a estação base (140) é configurada ainda para: receber uma entrada de usuário (160) que indica um tipo de imagem a ser adquirida; receber dados de obstáculo que indicam um obstáculo dentro da área; e determinar a trajetória de voo baseada, pelo menos em parte, na entrada de usuário (160) e nos dados de obstáculo.
19. Sistema, de acordo com a reivindicação 12, caracterizado pelo fato de que o UAV (110) é configurado ainda para: processar a pluralidade de imagens NDVI iniciais e a uma ou mais imagens adicionais diferentes a bordo, conforme o UAV (110) voa sobre a área.
20. Sistema, de acordo com a reivindicação 12, caracterizado pelo fato de que o UAV (110) é configurado ainda para processar a pluralidade de imagens NDVI iniciais e a uma ou mais imagens adicionais diferentes para ortorretificar e costurar a pluralidade de imagens NDVI iniciais e a uma ou mais imagens adicionais diferentes em um único mapa de área contínuo.
21. Sistema, de acordo com a reivindicação 12, caracterizado pelo fato de que um computador em nuvem processa a pluralidade de imagens NDVI iniciais e a uma ou mais imagens adicionais diferentes realizando um ou mais dentre: ortorretificar e costurar a pluralidade de imagens NDVI iniciais e a uma ou mais imagens adicionais diferentes em um único mapa de área contínuo; sobrepor a pluralidade de imagens NDVI iniciais e a uma ou mais imagens adicionais diferentes sobre outros tipos de imagens geográficas aéreas; exibir a pluralidade de imagens NDVI iniciais e a uma ou mais imagens adicionais diferentes em uma interface gráfica de usuário para um usuário; baseado na pluralidade de imagens NDVI iniciais e na uma ou mais imagens adicionais diferentes, gerar uma animação visual e exibir a animação visual na interface gráfica de usuário (130) para o usuário; filtrar a pluralidade de imagens NDVI iniciais e a uma ou mais imagens adicionais diferentes aplicando um ou mais filtros à pluralidade de imagens iniciais e a uma ou mais imagens adicionais diferentes; baseado na pluralidade de imagens NDVI iniciais e na uma ou mais imagens adicionais diferentes, determinar um mapa de densidade de verdor para a área, sendo que o mapa de densidade de verdor tem uma área de densidade de verdor esperada representada em uma primeira cor e outras áreas representadas em uma segunda cor; baseado na pluralidade de imagens NDVI iniciais e na uma ou mais imagens adicionais diferentes, gerar pelo menos um dentre um mapa de índice de vegetação de diferença normalizada ou um mapa de aplicação para a área; baseado na pluralidade de imagens NDVI iniciais e na uma ou mais imagens adicionais diferentes, determinar um mapa de emergência (600) para a área; baseado na pluralidade de imagens NDVI iniciais e na uma ou mais imagens adicionais diferentes, gerar pelo menos um dentre um mapa de índice de vegetação de diferença normalizada ou um mapa de aplicação; baseado na pluralidade de imagens NDVI iniciais e na uma ou mais imagens adicionais diferentes, gerar uma ou mais recomendações agronômicas para a área; em que o processamento da pluralidade de imagens NDVI iniciais e da uma ou mais imagens diferentes é realizado em um ou mais dentre: a estação base (140) ou um sistema em nuvem.
22. Sistema, de acordo com a reivindicação 21, caracterizado pelo fato de que a estação base (140) é configurada ainda para: identificar fileiras de áreas acima de uma densidade de verdor esperada no mapa de emergência (600); dividir áreas acima da densidade de verdor esperada em áreas individuais em que cada uma corresponde a uma planta de uma pluralidade de plantas e é consistente com os dados de plantio; identificar estruturas de pelo menos uma planta dentre a pluralidade de plantas; calcular um rendimento estimado a partir de pelo menos uma planta dentre a pluralidade de plantas baseado nas estruturas identificadas; gerar um relatório que inclui o rendimento estimado.
Applications Claiming Priority (7)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201462040859P | 2014-08-22 | 2014-08-22 | |
US62/040,859 | 2014-08-22 | ||
US201462046438P | 2014-09-05 | 2014-09-05 | |
US62/046,438 | 2014-09-05 | ||
US14/831,165 | 2015-08-20 | ||
PCT/US2015/046165 WO2016029054A1 (en) | 2014-08-22 | 2015-08-20 | Methods for agronomic and agricultural monitoring using unmanned aerial systems |
US14/831,165 US9922405B2 (en) | 2014-08-22 | 2015-08-20 | Methods for agronomic and agricultural monitoring using unmanned aerial systems |
Publications (2)
Publication Number | Publication Date |
---|---|
BR112017003678A2 BR112017003678A2 (pt) | 2020-10-27 |
BR112017003678B1 true BR112017003678B1 (pt) | 2023-04-18 |
Family
ID=55347082
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
BR112017003678-9A BR112017003678B1 (pt) | 2014-08-22 | 2015-08-20 | Método e sistema para monitoramento agronômico e agrícola |
Country Status (11)
Country | Link |
---|---|
US (4) | US9922405B2 (pt) |
EP (1) | EP3183697B1 (pt) |
CN (1) | CN107148633B (pt) |
AU (1) | AU2015305406B2 (pt) |
BR (1) | BR112017003678B1 (pt) |
CA (2) | CA3237917A1 (pt) |
CL (1) | CL2017000426A1 (pt) |
CO (1) | CO2017002677A2 (pt) |
UA (1) | UA123573C2 (pt) |
WO (1) | WO2016029054A1 (pt) |
ZA (1) | ZA201701638B (pt) |
Families Citing this family (181)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9451745B1 (en) * | 2012-09-21 | 2016-09-27 | The United States Of America, As Represented By The Secretary Of Agriculture | Multi-band photodiode sensor |
US10234439B2 (en) * | 2012-11-07 | 2019-03-19 | Airscout Inc. | Methods and systems for analyzing a field |
US20150130936A1 (en) * | 2013-11-08 | 2015-05-14 | Dow Agrosciences Llc | Crop monitoring system |
CN109885080B (zh) | 2013-11-27 | 2022-09-20 | 宾夕法尼亚大学理事会 | 自主控制系统及自主控制方法 |
US12007763B2 (en) | 2014-06-19 | 2024-06-11 | Skydio, Inc. | Magic wand interface and other user interaction paradigms for a flying digital assistant |
US9798322B2 (en) | 2014-06-19 | 2017-10-24 | Skydio, Inc. | Virtual camera interface and other user interaction paradigms for a flying digital assistant |
US9678506B2 (en) | 2014-06-19 | 2017-06-13 | Skydio, Inc. | Magic wand interface and other user interaction paradigms for a flying digital assistant |
CA3237917A1 (en) | 2014-08-22 | 2016-02-25 | Climate Llc | Methods for agronomic and agricultural monitoring using unmanned aerial systems |
US9618934B2 (en) * | 2014-09-12 | 2017-04-11 | 4D Tech Solutions, Inc. | Unmanned aerial vehicle 3D mapping system |
CN105518415A (zh) * | 2014-10-22 | 2016-04-20 | 深圳市大疆创新科技有限公司 | 一种飞行航线设置方法及装置 |
IL236606B (en) | 2015-01-11 | 2020-09-30 | Gornik Amihay | Standards and methods for agricultural monitoring |
EP3276544A1 (en) * | 2016-07-29 | 2018-01-31 | Accenture Global Solutions Limited | Precision agriculture system |
US9792557B2 (en) * | 2015-01-14 | 2017-10-17 | Accenture Global Services Limited | Precision agriculture system |
WO2016123201A1 (en) * | 2015-01-27 | 2016-08-04 | The Trustees Of The University Of Pennsylvania | Systems, devices, and methods for robotic remote sensing for precision agriculture |
US9922261B2 (en) * | 2015-04-16 | 2018-03-20 | Regents Of The University Of Minnesota | Robotic surveying of fruit plants |
US10139279B2 (en) * | 2015-05-12 | 2018-11-27 | BioSensing Systems, LLC | Apparatuses and methods for bio-sensing using unmanned aerial vehicles |
AU2016274391B2 (en) | 2015-06-08 | 2020-08-13 | Climate Llc | Agricultural data analysis |
WO2017004074A1 (en) | 2015-06-30 | 2017-01-05 | Precision Planting Llc | Systems and methods for image capture and analysis of agricultural fields |
CA2992426C (en) | 2015-07-15 | 2023-09-12 | The Climate Corporation | Generating digital models of nutrients available to a crop over the course of the crop's development based on weather and soil data |
US9745060B2 (en) * | 2015-07-17 | 2017-08-29 | Topcon Positioning Systems, Inc. | Agricultural crop analysis drone |
WO2017095493A2 (en) | 2015-09-11 | 2017-06-08 | The Trustees Of The University Of Pennsylvania | Systems and methods for generating safe trajectories for multi-vehicle teams |
US10321663B2 (en) | 2015-09-24 | 2019-06-18 | Digi-Star, Llc | Agricultural drone for use in livestock monitoring |
US10231441B2 (en) | 2015-09-24 | 2019-03-19 | Digi-Star, Llc | Agricultural drone for use in livestock feeding |
US9772395B2 (en) | 2015-09-25 | 2017-09-26 | Intel Corporation | Vision and radio fusion based precise indoor localization |
WO2017091768A1 (en) * | 2015-11-23 | 2017-06-01 | Kespry, Inc. | Autonomous mission action alteration |
US10540901B2 (en) | 2015-11-23 | 2020-01-21 | Kespry Inc. | Autonomous mission action alteration |
JP6654649B2 (ja) * | 2015-12-14 | 2020-02-26 | 株式会社ニコン・トリンブル | 欠陥検出装置及びプログラム |
US10301019B1 (en) * | 2015-12-17 | 2019-05-28 | Amazon Technologies, Inc. | Source location determination |
US10262407B2 (en) * | 2016-02-25 | 2019-04-16 | Prospera Technologies, Ltd. | System and method for efficient identification of developmental anomalies |
DE102016004250A1 (de) | 2016-04-08 | 2017-10-12 | Liebherr-Components Biberach Gmbh | Verfahren und Vorrichtung zum Steuern eines Krans, eines Baggers, einer Raupe oder einer ähnlichen Baumaschine |
US10817754B2 (en) * | 2016-04-27 | 2020-10-27 | SlantRange, Inc. | Systems and methods for object classification and selective compression in aerial imagery |
US10435176B2 (en) | 2016-05-25 | 2019-10-08 | Skydio, Inc. | Perimeter structure for unmanned aerial vehicle |
CN105955294A (zh) * | 2016-05-26 | 2016-09-21 | 北京大工科技有限公司 | 控制无人机植保作业的方法及装置 |
CN106054917A (zh) | 2016-05-27 | 2016-10-26 | 广州极飞电子科技有限公司 | 一种无人飞行器的飞行控制方法、装置和遥控器 |
CN105979145A (zh) * | 2016-06-22 | 2016-09-28 | 上海顺砾智能科技有限公司 | 提高无人机航拍影像质量的拍摄系统及拍摄方法 |
US9881214B1 (en) * | 2016-07-13 | 2018-01-30 | The Climate Corporation | Generating pixel maps from non-image data and difference metrics for pixel maps |
US10520943B2 (en) * | 2016-08-12 | 2019-12-31 | Skydio, Inc. | Unmanned aerial image capture platform |
US10089716B2 (en) | 2016-09-03 | 2018-10-02 | Microsoft Technology Licensing, Llc | Generating real-time sensor maps from videos and in-ground sensor data |
US10084868B2 (en) | 2016-09-03 | 2018-09-25 | Microsoft Technology Licensing, Llc | IoT gateway for weakly connected settings |
WO2018048387A1 (en) * | 2016-09-07 | 2018-03-15 | Precision Hawk Usa, Inc. | Systems and methods for mapping emerged plants |
CA3035197A1 (en) * | 2016-09-08 | 2018-03-15 | Walmart Apollo, Llc | Systems and methods for identifying pests in crop-containing areas via unmanned vehicles |
GB2568002A (en) * | 2016-09-08 | 2019-05-01 | Walmart Apollo Llc | Systems and methods for identifying pests in crop-containing areas via unmanned vehicles based on crop damage detection |
GB2568007A (en) | 2016-09-08 | 2019-05-01 | Walmart Apollo Llc | Systems and methods for dispensing an insecticide via unmanned vehicles to defend a crop-containing area against pests |
MX2019002715A (es) * | 2016-09-09 | 2019-09-23 | Walmart Apollo Llc | Sistemas y metodos para monitoreo de un area geografica a traves del intercambio de sistemas utiles entre vehiculos no tripulados. |
WO2018049289A1 (en) | 2016-09-09 | 2018-03-15 | Cibo Technologies, Inc. | Systems for adjusting agronomic inputs using remote sensing, and related apparatus and methods |
GB2568186A (en) | 2016-09-09 | 2019-05-08 | Walmart Apollo Llc | Geographic area monitoring systems and methods utilizing computational sharing across multiple unmanned vehicles |
MX2019002716A (es) | 2016-09-09 | 2019-09-23 | Walmart Apollo Llc | Sistemas y metodos para monitoreo de un area geografica que equilibran el uso de energia entre multiples vehiculos no tripulados. |
MX2019002712A (es) * | 2016-09-09 | 2019-09-19 | Walmart Apollo Llc | Sistemas y metodos para acoplamiento intercambiable de sistemas utiles con vehiculos no tripulados. |
US11538099B2 (en) | 2016-09-21 | 2022-12-27 | Iunu, Inc. | Online data market for automated plant growth input curve scripts |
US10635274B2 (en) | 2016-09-21 | 2020-04-28 | Iunu, Inc. | Horticultural care tracking, validation and verification |
US11244398B2 (en) | 2016-09-21 | 2022-02-08 | Iunu, Inc. | Plant provenance and data products from computer object recognition driven tracking |
US10791037B2 (en) | 2016-09-21 | 2020-09-29 | Iunu, Inc. | Reliable transfer of numerous geographically distributed large files to a centralized store |
US10627386B2 (en) | 2016-10-12 | 2020-04-21 | Aker Technologies, Inc. | System for monitoring crops and soil conditions |
CN110022674B (zh) * | 2016-10-13 | 2022-04-01 | 麦凯恩食品有限公司 | 用于在作物图像中检测马铃薯病毒的方法、介质和系统 |
RU2718991C1 (ru) | 2016-11-01 | 2020-04-15 | Кинз Мэньюфэкчуринг, Инк. | Блоки управления, узлы, система и способ для передачи и обмена данными |
US10127450B2 (en) | 2016-11-02 | 2018-11-13 | Blue River Technology Inc. | Plot gap identification |
US10192112B2 (en) * | 2016-11-02 | 2019-01-29 | Blue River Technology Inc. | Plot gap identification |
US10901420B2 (en) * | 2016-11-04 | 2021-01-26 | Intel Corporation | Unmanned aerial vehicle-based systems and methods for agricultural landscape modeling |
US11183073B2 (en) | 2016-11-29 | 2021-11-23 | American Robotics | Aircraft flight plan systems |
US11295458B2 (en) | 2016-12-01 | 2022-04-05 | Skydio, Inc. | Object tracking by an unmanned aerial vehicle using visual sensors |
AU2018210985B2 (en) * | 2017-01-23 | 2022-09-15 | The Board Of Trustees Of The University Of Illinois | Adaptive cyber-physical system for efficient monitoring of unstructured environments |
US10909367B2 (en) * | 2017-03-02 | 2021-02-02 | Basecamp Networks, LLC | Automated diagnosis and treatment of crop infestations |
US10599959B2 (en) * | 2017-04-05 | 2020-03-24 | International Business Machines Corporation | Automatic pest monitoring by cognitive image recognition with two cameras on autonomous vehicles |
WO2018195093A1 (en) * | 2017-04-17 | 2018-10-25 | Jacob Barnes | Three-dimensional image capturing system and method for obtaining three-dimensional images |
US10537062B2 (en) | 2017-05-26 | 2020-01-21 | Cnh Industrial America Llc | Aerial vehicle systems and methods |
US9984455B1 (en) * | 2017-06-05 | 2018-05-29 | Hana Resources, Inc. | Organism growth prediction system using drone-captured images |
US11061155B2 (en) | 2017-06-08 | 2021-07-13 | Total Sa | Method of dropping a plurality of probes intended to partially penetrate into a ground using a vegetation detection, and related system |
IT201700067764A1 (it) * | 2017-06-19 | 2018-12-19 | Dinamica Generale S P A | Apparato semovente per l’analisi e la gestione ottimale di campi destinati a coltivazioni agricole. |
CA2972055C (en) | 2017-06-29 | 2021-01-26 | Conseiller Forestier Roy Inc. | Airborne material spreading assembly and method for spreading material |
US10642264B2 (en) * | 2017-07-19 | 2020-05-05 | Superior Communications, Inc. | Security drone system |
US11263707B2 (en) | 2017-08-08 | 2022-03-01 | Indigo Ag, Inc. | Machine learning in agricultural planting, growing, and harvesting contexts |
CA3073713A1 (en) * | 2017-08-25 | 2019-02-28 | The Board Of Trustees Of The University Of Illinois | Apparatus and method for agricultural data collection and agricultural operations |
CA3073291C (en) | 2017-09-11 | 2023-01-17 | Farmers Edge Inc. | Generating a yield map for an agricultural field using classification and regression methods |
US10983249B2 (en) | 2017-09-14 | 2021-04-20 | Farmers Edge Inc. | Indicator interpolation to predict a weather state |
CN107680084B (zh) * | 2017-09-21 | 2021-11-19 | 中山乡游生态科技有限公司 | 一种现代化农业监测系统 |
US11442144B2 (en) * | 2017-09-29 | 2022-09-13 | Biotique Systems, Inc. | System and method for automatically determining crop characteristics using unmanned aerial vehicle (UAV) |
CN111201498A (zh) * | 2017-10-11 | 2020-05-26 | 特里纳米克斯股份有限公司 | 自主机器人设备和相关的控制方法 |
EP3697686B1 (en) * | 2017-10-17 | 2021-08-25 | Basf Se | Unmanned aerial vehicle for agricultural field assessment |
BR112020008192B1 (pt) | 2017-10-27 | 2024-02-15 | Basf Se | Aparelho e método para gerenciamento de plantas |
RU2668319C1 (ru) * | 2017-10-27 | 2018-09-28 | Общество с ограниченной ответственностью "АгроДронГрупп" | Способ и система обработки зон посева сельскохозяйственных культур на основании данных мониторинга |
US10872534B2 (en) | 2017-11-01 | 2020-12-22 | Kespry, Inc. | Aerial vehicle inspection path planning |
US10725468B2 (en) * | 2017-11-13 | 2020-07-28 | Intel IP Corporation | Bounding-volume based unmanned aerial vehicle illumination management system |
US10779458B2 (en) | 2017-12-01 | 2020-09-22 | International Business Machines Corporation | Monitoring aerial application tasks and recommending corrective actions |
US10477756B1 (en) | 2018-01-17 | 2019-11-19 | Cibo Technologies, Inc. | Correcting agronomic data from multiple passes through a farmable region |
WO2019144298A1 (zh) * | 2018-01-23 | 2019-08-01 | 深圳市大疆创新科技有限公司 | 辅助移动方法、移动装置及可移动平台 |
JP7060624B2 (ja) * | 2018-01-26 | 2022-04-26 | 株式会社Nttドコモ | 情報処理装置 |
US11062516B2 (en) | 2018-02-07 | 2021-07-13 | Iunu, Inc. | Augmented reality based horticultural care tracking |
US10769466B2 (en) * | 2018-02-20 | 2020-09-08 | International Business Machines Corporation | Precision aware drone-based object mapping based on spatial pattern recognition |
US10750733B1 (en) * | 2018-02-28 | 2020-08-25 | Espen Garner | Autonomous insect carrier |
JP6914874B2 (ja) * | 2018-03-14 | 2021-08-04 | 株式会社ゼンリンデータコム | 飛行経路生成装置及び飛行経路生成方法 |
US11205073B2 (en) | 2018-03-30 | 2021-12-21 | Greensight Agronomics, Inc. | System to automatically detect and report changes over time in a large imaging data set |
US11116145B2 (en) | 2018-03-30 | 2021-09-14 | Greensight Argonomics, Inc. | Automated optimization of agricultural treatments based on raster image data system |
US10929664B2 (en) * | 2018-03-30 | 2021-02-23 | Iunu, Inc. | Visual observer of unmanned aerial vehicle for monitoring horticultural grow operations |
US11235874B2 (en) | 2018-03-30 | 2022-02-01 | Greensight Agronomics, Inc. | Automated drone-based spraying system |
CN108537164B (zh) * | 2018-04-08 | 2020-08-28 | 北京农业智能装备技术研究中心 | 基于无人机遥感的点穴播种出芽率监测方法与装置 |
US20190325466A1 (en) | 2018-04-24 | 2019-10-24 | Indigo Ag, Inc. | Satellite-based agricultural modeling |
US11373399B2 (en) * | 2018-07-26 | 2022-06-28 | Hall Enterprise Llc | Method of crop analysis using drone with flying and driving capability |
US20210295712A1 (en) * | 2018-08-06 | 2021-09-23 | Beijing Xiaomi Mobile Software Co., Ltd. | Method and device for configuring flight path |
US10660277B2 (en) * | 2018-09-11 | 2020-05-26 | Pollen Systems Corporation | Vine growing management method and apparatus with autonomous vehicles |
US10779476B2 (en) | 2018-09-11 | 2020-09-22 | Pollen Systems Corporation | Crop management method and apparatus with autonomous vehicles |
CN109445457B (zh) * | 2018-10-18 | 2021-05-14 | 广州极飞科技股份有限公司 | 分布信息的确定方法、无人飞行器的控制方法及装置 |
US11256916B2 (en) | 2018-10-19 | 2022-02-22 | The Climate Corporation | Machine learning techniques for identifying clouds and cloud shadows in satellite imagery |
CA3116881A1 (en) | 2018-10-19 | 2020-04-23 | The Climate Corporation | Detecting infection of plant diseases by classifying plant photos |
US10713542B2 (en) | 2018-10-24 | 2020-07-14 | The Climate Corporation | Detection of plant diseases with multi-stage, multi-scale deep learning |
US11178818B2 (en) | 2018-10-26 | 2021-11-23 | Deere & Company | Harvesting machine control system with fill level processing based on yield data |
US11240961B2 (en) | 2018-10-26 | 2022-02-08 | Deere & Company | Controlling a harvesting machine based on a geo-spatial representation indicating where the harvesting machine is likely to reach capacity |
US11589509B2 (en) | 2018-10-26 | 2023-02-28 | Deere & Company | Predictive machine characteristic map generation and control system |
US11641800B2 (en) | 2020-02-06 | 2023-05-09 | Deere & Company | Agricultural harvesting machine with pre-emergence weed detection and mitigation system |
US11653588B2 (en) | 2018-10-26 | 2023-05-23 | Deere & Company | Yield map generation and control system |
US11079725B2 (en) | 2019-04-10 | 2021-08-03 | Deere & Company | Machine control using real-time model |
US11957072B2 (en) | 2020-02-06 | 2024-04-16 | Deere & Company | Pre-emergence weed detection and mitigation system |
US11672203B2 (en) | 2018-10-26 | 2023-06-13 | Deere & Company | Predictive map generation and control |
US11467605B2 (en) | 2019-04-10 | 2022-10-11 | Deere & Company | Zonal machine control |
CA3119812A1 (en) * | 2018-12-10 | 2020-06-18 | The Climate Corporation | Mapping field anomalies using digital images and machine learning models |
US20200217830A1 (en) | 2019-01-08 | 2020-07-09 | AgroScout Ltd. | Autonomous crop monitoring system and method |
US11001380B2 (en) * | 2019-02-11 | 2021-05-11 | Cnh Industrial Canada, Ltd. | Methods for acquiring field condition data |
US11059582B2 (en) | 2019-02-11 | 2021-07-13 | Cnh Industrial Canada, Ltd. | Systems for acquiring field condition data |
CN113767472A (zh) | 2019-03-04 | 2021-12-07 | 克莱米特公司 | 用于农业智能计算系统的数据存储和传送设备 |
US11009625B2 (en) * | 2019-03-27 | 2021-05-18 | The Climate Corporation | Generating and conveying comprehensive weather insights at fields for optimal agricultural decision making |
US11234366B2 (en) | 2019-04-10 | 2022-02-01 | Deere & Company | Image selection for machine control |
US11778945B2 (en) | 2019-04-10 | 2023-10-10 | Deere & Company | Machine control using real-time model |
CN109977924A (zh) * | 2019-04-15 | 2019-07-05 | 北京麦飞科技有限公司 | 针对农作物的无人机机上实时图像处理方法及系统 |
US11170218B2 (en) * | 2019-05-13 | 2021-11-09 | Deere & Company | Mobile work machine control system with terrain image analysis |
US11553640B2 (en) | 2019-06-11 | 2023-01-17 | Cnh Industrial Canada, Ltd. | Agricultural wear monitoring system |
CN110222903B (zh) * | 2019-06-13 | 2021-08-31 | 苏州市农业科学院 | 一种基于无人机遥感的水稻产量预测方法及系统 |
US11778934B2 (en) * | 2019-07-02 | 2023-10-10 | Bear Flag Robotics, Inc. | Agricultural lane following |
KR102101355B1 (ko) * | 2019-07-08 | 2020-04-17 | 주식회사 이노드 | 농업용 무인 이동체 및 이의 방제 약품 잔량 측정 시스템 |
US11440659B2 (en) * | 2019-09-12 | 2022-09-13 | National Formosa University | Precision agriculture implementation method by UAV systems and artificial intelligence image processing technologies |
WO2021062147A1 (en) | 2019-09-27 | 2021-04-01 | Indigo Ag, Inc. | Modeling field irrigation with remote sensing imagery |
US11868145B1 (en) * | 2019-09-27 | 2024-01-09 | Amazon Technologies, Inc. | Selecting safe flight routes based on localized population densities and ground conditions |
US20210149406A1 (en) * | 2019-11-20 | 2021-05-20 | FarmWise Labs, Inc. | Method for analyzing individual plants in an agricultural field |
US11585960B2 (en) * | 2019-12-04 | 2023-02-21 | International Business Machines Corporation | Effective agriculture and environment monitoring |
EP4072940A4 (en) | 2019-12-11 | 2024-01-03 | Climate LLC | HIGHLY SENSITIVE AGRICULTURE SYSTEMS WITH EXTRAORDINARY OPTIMIZATION IN SEASON |
US11583882B2 (en) * | 2020-02-13 | 2023-02-21 | Cnh Industrial America Llc | System and method for controlling the ground speed of an agricultural sprayer based on a spray quality parameter |
AR121386A1 (es) * | 2020-02-21 | 2022-06-01 | Climate Corp | Señalización de diferencias operacionales en implementos agrícolas |
US11495016B2 (en) * | 2020-03-11 | 2022-11-08 | Aerobotics (Pty) Ltd | Systems and methods for predicting crop size and yield |
US11656624B2 (en) | 2020-03-25 | 2023-05-23 | Iunu, Inc. | Horticulture aided by autonomous systems |
US11730089B2 (en) * | 2020-03-25 | 2023-08-22 | Iunu, Inc. | Horticulture aided by autonomous systems |
US11720980B2 (en) | 2020-03-25 | 2023-08-08 | Iunu, Inc. | Crowdsourced informatics for horticultural workflow and exchange |
US11477940B2 (en) | 2020-03-26 | 2022-10-25 | Deere & Company | Mobile work machine control based on zone parameter modification |
US11579611B1 (en) * | 2020-03-30 | 2023-02-14 | Amazon Technologies, Inc. | Predicting localized population densities for generating flight routes |
US11640764B1 (en) | 2020-06-01 | 2023-05-02 | Amazon Technologies, Inc. | Optimal occupancy distribution for route or path planning |
US11620821B2 (en) | 2020-06-25 | 2023-04-04 | GEOSAT Aerospace & Technology | Apparatus and method for image-guided agriculture |
US11580730B2 (en) * | 2020-06-25 | 2023-02-14 | GEOSAT Aerospace & Technology | Apparatus and method for image-guided agriculture |
US11487047B2 (en) | 2020-07-15 | 2022-11-01 | International Business Machines Corporation | Forecasting environmental occlusion events |
EP4185992A1 (en) | 2020-07-21 | 2023-05-31 | Indigo Ag, Inc. | Remote sensing algorithms for mapping regenerative agriculture |
CN111918030B (zh) * | 2020-07-22 | 2022-07-01 | 南京科沃云计算信息技术有限公司 | 一种基于边缘计算的农作物病虫害识别系统及其识别方法 |
TWI778391B (zh) * | 2020-07-28 | 2022-09-21 | 中華電信股份有限公司 | 無人機控制方法及無人機控制裝置 |
US11849671B2 (en) | 2020-10-09 | 2023-12-26 | Deere & Company | Crop state map generation and control system |
US11849672B2 (en) | 2020-10-09 | 2023-12-26 | Deere & Company | Machine control using a predictive map |
US11946747B2 (en) | 2020-10-09 | 2024-04-02 | Deere & Company | Crop constituent map generation and control system |
US11727680B2 (en) | 2020-10-09 | 2023-08-15 | Deere & Company | Predictive map generation based on seeding characteristics and control |
US11675354B2 (en) | 2020-10-09 | 2023-06-13 | Deere & Company | Machine control using a predictive map |
US11983009B2 (en) | 2020-10-09 | 2024-05-14 | Deere & Company | Map generation and control system |
US11592822B2 (en) | 2020-10-09 | 2023-02-28 | Deere & Company | Machine control using a predictive map |
US11927459B2 (en) | 2020-10-09 | 2024-03-12 | Deere & Company | Machine control using a predictive map |
US11864483B2 (en) | 2020-10-09 | 2024-01-09 | Deere & Company | Predictive map generation and control system |
US11825768B2 (en) | 2020-10-09 | 2023-11-28 | Deere & Company | Machine control using a predictive map |
US11711995B2 (en) | 2020-10-09 | 2023-08-01 | Deere & Company | Machine control using a predictive map |
US11889788B2 (en) | 2020-10-09 | 2024-02-06 | Deere & Company | Predictive biomass map generation and control |
US11650587B2 (en) | 2020-10-09 | 2023-05-16 | Deere & Company | Predictive power map generation and control system |
US11635765B2 (en) | 2020-10-09 | 2023-04-25 | Deere & Company | Crop state map generation and control system |
US11871697B2 (en) | 2020-10-09 | 2024-01-16 | Deere & Company | Crop moisture map generation and control system |
US11474523B2 (en) | 2020-10-09 | 2022-10-18 | Deere & Company | Machine control using a predictive speed map |
US11895948B2 (en) | 2020-10-09 | 2024-02-13 | Deere & Company | Predictive map generation and control based on soil properties |
US12013245B2 (en) | 2020-10-09 | 2024-06-18 | Deere & Company | Predictive map generation and control system |
US11845449B2 (en) | 2020-10-09 | 2023-12-19 | Deere & Company | Map generation and control system |
US11844311B2 (en) | 2020-10-09 | 2023-12-19 | Deere & Company | Machine control using a predictive map |
US11874669B2 (en) | 2020-10-09 | 2024-01-16 | Deere & Company | Map generation and control system |
US11889787B2 (en) | 2020-10-09 | 2024-02-06 | Deere & Company | Predictive speed map generation and control system |
CN113966514A (zh) * | 2020-10-27 | 2022-01-21 | 深圳市大疆创新科技有限公司 | 用于农业无人飞行器仿地作业的方法和农业无人飞行器 |
CA3117042A1 (en) | 2021-05-03 | 2022-11-03 | AIRM Consulting Ltd. | Computer vision system and method for agriculture |
ES2930548A1 (es) * | 2021-06-02 | 2022-12-15 | Consejo Superior Investigacion | Mapeo de surcos de laboreo |
WO2023034118A1 (en) | 2021-08-30 | 2023-03-09 | Indigo Ag, Inc. | Systems for management of location-aware market data |
CA3230474A1 (en) | 2021-08-31 | 2023-03-09 | Eleanor Elizabeth Campbell | Systems and methods for ecosystem credit recommendations |
CN114067455B (zh) * | 2021-11-15 | 2023-08-29 | 李政力 | 一种城市园林绿化智能巡管方法 |
US11542003B1 (en) * | 2022-03-22 | 2023-01-03 | Beta Air, Llc | Systems and methods for remote pilot control of an electric aircraft |
CN115225870B (zh) * | 2022-09-21 | 2022-11-22 | 北京瞭望神州科技有限公司 | 基于数据处理的耕地智保远程监控方法及监控系统 |
CN116737729B (zh) * | 2023-04-18 | 2024-01-19 | 速度科技股份有限公司 | 基于土壤墒情进行土壤分布地图的实时在线矫正方法 |
CN116931601B (zh) * | 2023-07-25 | 2024-02-20 | 苏州瀚易特信息技术股份有限公司 | 一种基于无人机的航拍摄影摄像控制系统 |
CN117952877B (zh) * | 2024-03-26 | 2024-06-21 | 松立控股集团股份有限公司 | 一种基于层次化结构建模的低质图像矫正方法 |
Family Cites Families (29)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6529615B2 (en) * | 1997-10-10 | 2003-03-04 | Case Corporation | Method of determining and treating the health of a crop |
US20100004802A1 (en) * | 2005-01-25 | 2010-01-07 | William Kress Bodin | Navigating UAVS with an on-board digital camera |
CN100541120C (zh) * | 2005-10-10 | 2009-09-16 | 中国农业机械化科学研究院 | 一种蝗灾超低空预警系统及其田间蝗虫自动识别方法 |
US9195891B2 (en) * | 2006-11-07 | 2015-11-24 | The Curators Of The University Of Missouri | Method of predicting crop yield loss due to n-deficiency |
US7911517B1 (en) * | 2007-10-31 | 2011-03-22 | The United States Of America As Represented By The Secretary Of Agriculture | Device and method for acquiring digital color-infrared photographs for monitoring vegetation |
AU2008322565B9 (en) * | 2007-11-14 | 2014-04-10 | Intergraph Software Technologies Company | Method and apparatus of taking aerial surveys |
US8675068B2 (en) * | 2008-04-11 | 2014-03-18 | Nearmap Australia Pty Ltd | Systems and methods of capturing large area images in detail including cascaded cameras and/or calibration features |
WO2009149394A1 (en) * | 2008-06-06 | 2009-12-10 | Monsanto Technology Llc | Generating agricultural information products using remote sensing |
CN102246159A (zh) * | 2008-12-09 | 2011-11-16 | 通腾北美有限公司 | 产生测地参考数据库产品的方法 |
US9058633B2 (en) * | 2010-10-25 | 2015-06-16 | Trimble Navigation Limited | Wide-area agricultural monitoring and prediction |
US9213905B2 (en) * | 2010-10-25 | 2015-12-15 | Trimble Navigation Limited | Automatic obstacle location mapping |
US10115158B2 (en) * | 2010-10-25 | 2018-10-30 | Trimble Inc. | Generating a crop recommendation |
US20120101784A1 (en) | 2010-10-25 | 2012-04-26 | Trimble Navigation Limited | Wide-area agricultural monitoring and prediction |
US9354216B2 (en) * | 2011-11-07 | 2016-05-31 | Brian Harold Sutton | Infrared aerial thermography for use in determining plant health |
US9113590B2 (en) * | 2012-08-06 | 2015-08-25 | Superior Edge, Inc. | Methods, apparatus, and systems for determining in-season crop status in an agricultural crop and alerting users |
US20140089045A1 (en) * | 2012-09-27 | 2014-03-27 | Superior Edge, Inc. | Methods, apparatus and systems for determining stand population, stand consistency and stand quality in an agricultural crop and alerting users |
US9235763B2 (en) * | 2012-11-26 | 2016-01-12 | Trimble Navigation Limited | Integrated aerial photogrammetry surveys |
US9075415B2 (en) * | 2013-03-11 | 2015-07-07 | Airphrame, Inc. | Unmanned aerial vehicle and methods for controlling same |
US20140312165A1 (en) * | 2013-03-15 | 2014-10-23 | Armen Mkrtchyan | Methods, apparatus and systems for aerial assessment of ground surfaces |
US9382003B2 (en) | 2013-03-24 | 2016-07-05 | Bee Robotics Corporation | Aerial farm robot system for crop dusting, planting, fertilizing and other field jobs |
US9147110B2 (en) * | 2013-04-05 | 2015-09-29 | Pioneer Hi-Bred International, Inc. | Field and crop evaluation tool and methods of use |
US9798928B2 (en) * | 2013-07-17 | 2017-10-24 | James L Carr | System for collecting and processing aerial imagery with enhanced 3D and NIR imaging capability |
CN103425102A (zh) * | 2013-07-30 | 2013-12-04 | 上海丰凸通讯科技有限公司 | 基于低空遥感、多光谱精准识别的智能施肥系统 |
CN103523224A (zh) * | 2013-10-31 | 2014-01-22 | 无锡同春新能源科技有限公司 | 一种带彩色稻病图像识别仪防治水稻白叶枯病的无人机 |
US20150254800A1 (en) * | 2014-03-06 | 2015-09-10 | F12 Solutions, Llc | Nitrogen status determination in growing crops |
US10089766B2 (en) * | 2014-03-28 | 2018-10-02 | Konica Minolta Laboratory U.S.A., Inc | Method and system of stitching aerial data using information from previous aerial images |
US9390331B2 (en) * | 2014-04-15 | 2016-07-12 | Open Range Consulting | System and method for assessing riparian habitats |
US9401030B2 (en) * | 2014-04-25 | 2016-07-26 | Tazco Soil Service Co. | Image processing system for soil characterization |
CA3237917A1 (en) | 2014-08-22 | 2016-02-25 | Climate Llc | Methods for agronomic and agricultural monitoring using unmanned aerial systems |
-
2015
- 2015-08-20 CA CA3237917A patent/CA3237917A1/en active Pending
- 2015-08-20 WO PCT/US2015/046165 patent/WO2016029054A1/en active Application Filing
- 2015-08-20 US US14/831,165 patent/US9922405B2/en active Active
- 2015-08-20 CA CA2957081A patent/CA2957081C/en active Active
- 2015-08-20 AU AU2015305406A patent/AU2015305406B2/en active Active
- 2015-08-20 UA UAA201702686A patent/UA123573C2/uk unknown
- 2015-08-20 CN CN201580044988.4A patent/CN107148633B/zh active Active
- 2015-08-20 BR BR112017003678-9A patent/BR112017003678B1/pt active IP Right Grant
- 2015-08-20 EP EP15834359.0A patent/EP3183697B1/en active Active
-
2017
- 2017-02-22 CL CL2017000426A patent/CL2017000426A1/es unknown
- 2017-03-07 ZA ZA2017/01638A patent/ZA201701638B/en unknown
- 2017-03-22 CO CONC2017/0002677A patent/CO2017002677A2/es unknown
- 2017-12-22 US US15/853,356 patent/US10346958B2/en active Active
-
2019
- 2019-06-11 US US16/438,128 patent/US10902566B2/en active Active
-
2021
- 2021-01-22 US US17/155,975 patent/US11651478B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
US11651478B2 (en) | 2023-05-16 |
UA123573C2 (uk) | 2021-04-28 |
CN107148633B (zh) | 2020-12-01 |
EP3183697A1 (en) | 2017-06-28 |
CA3237917A1 (en) | 2016-02-25 |
US20210217148A1 (en) | 2021-07-15 |
US20190333195A1 (en) | 2019-10-31 |
BR112017003678A2 (pt) | 2020-10-27 |
CO2017002677A2 (es) | 2017-06-09 |
EP3183697B1 (en) | 2022-01-12 |
US10902566B2 (en) | 2021-01-26 |
CN107148633A (zh) | 2017-09-08 |
CA2957081C (en) | 2024-06-25 |
AU2015305406A1 (en) | 2017-03-23 |
CL2017000426A1 (es) | 2018-03-02 |
EP3183697A4 (en) | 2018-03-28 |
CA2957081A1 (en) | 2016-02-25 |
US20160050840A1 (en) | 2016-02-25 |
WO2016029054A1 (en) | 2016-02-25 |
AU2015305406B2 (en) | 2020-09-10 |
US20180158179A1 (en) | 2018-06-07 |
US10346958B2 (en) | 2019-07-09 |
US9922405B2 (en) | 2018-03-20 |
ZA201701638B (en) | 2018-06-27 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11651478B2 (en) | Methods for agronomic and agricultural monitoring using unmanned aerial systems | |
Matese et al. | Assessment of a canopy height model (CHM) in a vineyard using UAV-based multispectral imaging | |
US20190253673A1 (en) | Systems and methods for agricultural monitoring | |
Katsigiannis et al. | An autonomous multi-sensor UAV system for reduced-input precision agriculture applications | |
EP3697686B1 (en) | Unmanned aerial vehicle for agricultural field assessment | |
US20180348760A1 (en) | Automatic Change Detection System | |
Ehsani et al. | The rise of small UAVs in precision agriculture | |
Torres-Sánchez et al. | Imagery from unmanned aerial vehicles for early site specific weed management | |
US20240166349A1 (en) | Methods and Systems for Cloud-Based Management of Images Captured by Aerial Vehicles | |
Heaphy et al. | UAVs for data collection-plugging the gap | |
Tahir et al. | Application of unmanned aerial vehicles in precision agriculture | |
Jiménez López et al. | Crops diagnosis using digital image processing and precision agriculture technologies | |
Naumann | Exploration of tropical landscape structures by an unmanned aerial vehicle in Sumatra | |
Delparte et al. | sUAS for Wildlife Conservation–Assessing Habitat Quality of the Endangered Black-Footed Ferret | |
Collins et al. | Using Flight and Field Datasets with Digital Photogrammetric Systems to Assess the Accuracy of a UAS Sensor Platform for Mapping Geospatial Input Treatment Zones | |
Torres-Sánchez et al. | WEED SEEDLINGS DETECTION IN WINTER CEREALS FOR SITE-SPECIFIC CONTROL: USE OF UAV IMAGERY TO OVERCOME THE CHALLENGE | |
Hensh | Application of Drone in Agriculture: An Overview |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
B06F | Objections, documents and/or translations needed after an examination request according [chapter 6.6 patent gazette] | ||
B06U | Preliminary requirement: requests with searches performed by other patent offices: procedure suspended [chapter 6.21 patent gazette] | ||
B350 | Update of information on the portal [chapter 15.35 patent gazette] | ||
B07A | Application suspended after technical examination (opinion) [chapter 7.1 patent gazette] | ||
B09A | Decision: intention to grant [chapter 9.1 patent gazette] | ||
B16A | Patent or certificate of addition of invention granted [chapter 16.1 patent gazette] |
Free format text: PRAZO DE VALIDADE: 20 (VINTE) ANOS CONTADOS A PARTIR DE 20/08/2015, OBSERVADAS AS CONDICOES LEGAIS |
|
B25D | Requested change of name of applicant approved |
Owner name: CLIMATE LLC (US) |
|
B25G | Requested change of headquarter approved |
Owner name: CLIMATE LLC (US) |