BR112017003678B1 - Método e sistema para monitoramento agronômico e agrícola - Google Patents

Método e sistema para monitoramento agronômico e agrícola Download PDF

Info

Publication number
BR112017003678B1
BR112017003678B1 BR112017003678-9A BR112017003678A BR112017003678B1 BR 112017003678 B1 BR112017003678 B1 BR 112017003678B1 BR 112017003678 A BR112017003678 A BR 112017003678A BR 112017003678 B1 BR112017003678 B1 BR 112017003678B1
Authority
BR
Brazil
Prior art keywords
images
uav
initial
ndvi
map
Prior art date
Application number
BR112017003678-9A
Other languages
English (en)
Other versions
BR112017003678A2 (pt
Inventor
Doug Sauder
Justin L. Koch
Troy L. Plattner
Phil Baurer
Original Assignee
The Climate Corporation
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by The Climate Corporation filed Critical The Climate Corporation
Publication of BR112017003678A2 publication Critical patent/BR112017003678A2/pt
Publication of BR112017003678B1 publication Critical patent/BR112017003678B1/pt

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/80Geometric correction
    • AHUMAN NECESSITIES
    • A01AGRICULTURE; FORESTRY; ANIMAL HUSBANDRY; HUNTING; TRAPPING; FISHING
    • A01BSOIL WORKING IN AGRICULTURE OR FORESTRY; PARTS, DETAILS, OR ACCESSORIES OF AGRICULTURAL MACHINES OR IMPLEMENTS, IN GENERAL
    • A01B79/00Methods for working soil
    • A01B79/005Precision agriculture
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/0094Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots involving pointing a payload, e.g. camera, weapon, sensor, towards a fixed or moving target
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/10Simultaneous control of position or course in three dimensions
    • G05D1/101Simultaneous control of position or course in three dimensions specially adapted for aircraft
    • G05D1/106Change initiated in response to external conditions, e.g. avoidance of elevated terrain or of no-fly zones
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/60Editing figures and text; Combining figures or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • G06V20/188Vegetation
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U20/00Constructional aspects of UAVs
    • B64U20/80Arrangement of on-board electronics, e.g. avionics systems or wiring
    • B64U20/87Mounting of imaging devices, e.g. mounting of gimbals
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U2101/00UAVs specially adapted for particular uses or applications
    • B64U2101/30UAVs specially adapted for particular uses or applications for imaging, photography or videography
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U2101/00UAVs specially adapted for particular uses or applications
    • B64U2101/40UAVs specially adapted for particular uses or applications for agriculture or forestry operations

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Theoretical Computer Science (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Automation & Control Theory (AREA)
  • Remote Sensing (AREA)
  • Mechanical Engineering (AREA)
  • Soil Sciences (AREA)
  • Environmental Sciences (AREA)
  • Multimedia (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
  • Image Processing (AREA)
  • Geometry (AREA)
  • Guiding Agricultural Machines (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Signal Processing (AREA)

Abstract

MÉTODOS PARA MONITORAMENTO AGRONÔMICO E AGRÍCOLA USANDO DE SISTEMAS AÉREOS NÃO TRIPULADOS Trata-se de um método para monitoramento agronómico e agrícola que inclui designar uma área para imaginologia, que determina uma trajetória de voo acima da área designada, que opera um veículo aéreo não tripulado (UAV) ao longo da trajetória de voo, que adquire imagens da área usando de um sistema de câmera fixado ao UAV e que processa as imagens adquiridas.

Description

[001] Este pedido reivindica o benefício disposto no Título 35 do U.S.C., §119(e) do Pedido Provisório no 62/040,859, depositado em 22 de agosto de 2014 e do Pedido Provisório no 62/046,438, depositado em 5 de setembro de 2014, em que os conteúdos completos dos mesmos estão incorporados a título de referência conforme apresentados em sua totalidade no presente documento.
CAMPO
[002] Esta revelação refere-se, de modo geral, ao monitoramento agronômico e agrícola e, mais especificamente, aos métodos para monitoramento agronômico e agrícola usando de sistemas aéreos não tripulados ou drones.
ANTECEDENTES
[003] Veículos aéreos não tripulados (UAVs), algumas vezes denominados drones, são aeronaves remotamente pilotadas ou autopilotadas que podem carregar sensores, equipamento de comunicações, câmeras ou outras cargas úteis. UAVs têm sido usados para reconhecimento militar e levantamento de inteligência, bem como para capturar imagens terrestres para aplicações civis. Embora os UAVs também tenham sido usados para monitoramento agrícola, tais sistemas não são completamente satisfatórios. Um UAV aperfeiçoado para uso agrícola é necessário.
[004] Esta seção de Antecedentes pretende introduzir o leitor em vários aspectos da técnica que podem estar relacionados aos vários aspectos da presente revelação, que são descritos e/ou reivindicados abaixo. Acredita-se que essa discussão seja útil para fornecer ao leitor informações antecedentes para facilitar um melhor entendimento dos vários aspectos da presente revelação. Consequentemente, deve-se entender que essas declarações devem ser lidas sob essa luz e não como admissões da técnica anterior.
BREVE SUMÁRIO
[005] Um aspecto é um método para monitoramento agronômico e agrícola. O método inclui designar uma área para imaginologia, que determina uma trajetória de voo acima da área designada, que opera um veículo aéreo não tripulado (UAV) ao longo da trajetória de voo, que adquire imagens da área usando de um sistema de câmera fixado ao UAV e que processa as imagens adquiridas.
[006] Outro aspecto é um sistema para monitoramento agronômico e agrícola. O sistema inclui um dispositivo de computação configurado para designar uma área para imaginologia e determinar uma trajetória de voo acima da área designada. O sistema inclui ainda um veículo aéreo não tripulado comunicativamente acoplado ao dispositivo de computação e que tem um sistema de câmera, sendo que o veículo aéreo não tripulado é configurado para viajar ao longo da trajetória de voo, adquirir imagens da área usando do sistema de câmera e processar as imagens adquiridas.
[007] Existem vários refinamentos dos recursos observados em relação aos aspectos mencionados acima. Recursos adicionais também podem ser incorporados nos aspectos mencionados acima. Esses refinamentos e recursos adicionais podem existir individualmente ou em qualquer combinação. Por exemplo, vários recursos abordados abaixo em relação a qualquer uma das modalidades ilustradas podem ser incorporados em quaisquer dos aspectos descritos acima, sozinhos ou em qualquer combinação.
BREVE DESCRIÇÃO DOS DESENHOS
[008] A Figura 1 é um diagrama de blocos de um sistema para uso em monitoramento agronômico e agrícola.
[009] A Figura 2 é um fluxograma de um método para operar um veículo aéreo não tripulado para monitoramento agronômico e agrícola que pode ser usado com o sistema mostrado na Figura 1.
[010] A Figura 3 é um fluxograma de um estágio de planejamento de missão do método mostrado na Figura 2.
[011] A Figura 4 é um fluxograma de um estágio de execução de voo do método mostrado na Figura 2.
[012] A Figura 5 é um fluxograma de um estágio de transferência/processamento de dados após o voo do método mostrado na Figura 2.
[013] A Figura 6, a Figura 7, a Figura 8, a Figura 9, a Figura 10, a Figura 11 são exemplos de mapas que podem ser criados pelo sistema mostrado na Figura 1.
[014] Os caracteres de referência correspondentes indicam partes correspondentes por todas as diversas vistas das Figuras.
DESCRIÇÃO DETALHADA
[015] Em referência inicialmente à Figura 1, um exemplo de um sistema aéreo não tripulado da presente revelação é indicado, de modo geral, em 100. O sistema aéreo não tripulado 100 inclui uma pluralidade de componentes que incluem um veículo aéreo não tripulado (UAV) 110, uma nuvem 120, uma interface gráfica de usuário (GUI) 130 (por exemplo, implantada usando de um dispositivo de computação do tipo tablet), uma estação base 140, um computador pessoal 150 e um dispositivo de entrada de usuário (UID) 160. Os componentes do sistema 100 serão descritos em mais detalhes abaixo.
[016] Nessa modalidade, os componentes do sistema 100 estão comunicativamente acoplados uns aos outros por meio de mais um meio de comunicações (por exemplo, conexão direta via cabo, redes de computação em nuvem, a Internet, redes locais (LAN), redes locais sem fio (WLAN) (por exemplo, padrão 802.11ac) ou redes de longa distância (WAN)). Consequentemente, componentes do sistema 100 podem incluir um transmissor e receptor sem fio (por exemplo, 118, 135, 143, 151, 165) e/ou um módulo de transferência celular (por exemplo, 113, 131, 142, 162) para facilitar a comunicação sem fio entre componentes. Adicionalmente, um ou mais dentre os componentes (110, 120, 130, 140, 150, e 160) pode incluir um sistema de posicionamento global (GPS) no mesmo (por exemplo, 111, 133, 145, 153, e 161) para determinar uma posição do componente associado, o que normaliza os dados de GPS entre componentes e habilita cálculos de triangulação para determinações de posição.
[017] Nessa modalidade, o veículo aéreo não tripulado 110 é uma aeronave pilotada remotamente ou autopilotada que pode ter capacidade para pairar (por exemplo, um helicóptero ou ultraleve) ou pode ser de asa fixa. Um exemplo de UAV "quadricóptero” do tipo de pairar é descrito na Publicação do Pedido de patente no U.S. 2013/0176423, que é incorporado a título de referência em sua totalidade. Nos sistemas e métodos descritos no presente documento, UAV 110 assiste operações agrícolas e de agricultura mapeando e monitorando evolução e status agrícolas.
[018] Nessa modalidade, veículo aéreo não tripulado (UAV) 110 inclui um sistema de posicionamento global (GPS) 111 adequado que fornece a localização do UAV 110 usando, por exemplo, de satélites de GPS que orbitam a Terra. Dados de localização e tempo podem ser fornecidos a um usuário (por exemplo, operador humano) ou a um computador que controla automaticamente o veículo. Um sensor de elevação (por exemplo, sonar) pode ser parte do sistema de GPS 111 para determinar a elevação do UAV 110 durante voo. O UAV 110 também inclui uma ou mais unidades de medida inercial montadas (IMUs) 112 que medem e relatam a velocidade, orientação e forças gravitacionais do UAV 110 usando de uma combinação de acelerômetros, giroscópios e/ou magnetômetros montados. Em cooperação com GPS 111 e IMUs 112, uma capacidade de piloto automático 115 no UAV 110 controla decolagem, navegação em voo e operações de pouso. Para comunicação durante operações de voo de retorno, o UAV 110 tem um sistema de comunicação com base em drone 116 que inclui um transmissor e receptor de rádio (por exemplo, 900 MHz ou 1,2 GHz) para se comunicar com um ponto de origem, tal como estação base 140, enquanto em voo.
[019] Na modalidade exemplificativa, o UAV 110 também inclui um sistema de câmera 117 montado no lado de baixo do mesmo para adquirir imagens durante o voo. O sistema de câmera 117 pode se pendurar a partir do UAV 110 através da gravidade usando de um conjunto de suspensões cardan que permitem rotação a cerca de uma pluralidade de eixos geométricos. As suspensões cardan podem incluir amortecedores que desaceleram as reações para alterações na orientação do UAV 110 durante o voo. Alternativamente, o sistema de câmera 117 pode ser montado diretamente no UAV 110 e ser controlado pelo movimento dos atuadores. O sistema de câmera 117 pode incluir uma câmera fotográfica, uma câmera de vídeo, uma câmera de imaginologia térmica e/ou uma câmera próxima do infravermelho (NIR) para capturar imagens de índice de vegetação de diferença normalizada (NDVI). Alternativamente, o sistema de câmera 117 pode incluir qualquer dispositivo de aquisição de imagem que habilite o sistema 100 funcionar conforme descrito no presente documento.
[020] O sistema de câmera 117 e o posicionamento do sistema de câmera 117 são controlados por uma unidade de processamento central (CPU) de bordo e uma unidade de armazenamento de memória 114. A unidade de processamento central (CPU) pode incluir um microprocessador. A CPU e a unidade de armazenamento de memória 114 facilitam operações aritméticas, lógicas e de entrada/saída da CPU de bordo. A CPU e a unidade de armazenamento de memória 114 também podem assistir e/ou controlar outros aspectos do UAV 110, conforme abordado no presente documento. Por exemplo, em algumas modalidades, a CPU e a unidade de armazenamento de memória 114 recebem informações a partir das IMUs 112 durante operações em voo para assistir com orientação do sistema de câmera 117 e/ou para detectar a possibilidade ou não das condições (por exemplo, luz, velocidade, ângulo, etc.) estarem adequadas para capturar imagens visíveis e úteis. O UAV 110 também pode incluir um ou mais sensores (por exemplo, um sensor de luz incidente) acoplados à CPU e à unidade de armazenamento de memória 114 para monitorar condições ambientes.
[021] Na modalidade exemplificativa, a estação base 140 inclui um sistema de comunicação com base em drone 141 que compreende um transmissor e receptor de rádio (por exemplo, 900 MHz ou 1,2 GHz) para facilitar comunicação com o UAV 110 enquanto em voo. A estação base 140 também inclui um sistema de GPS 145 e uma CPU e unidade de armazenamento de memória 144 similares àqueles abordados acima em relação ao UAV 110.
[022] Nessa modalidade, o computador pessoal (PC) 150 é um dispositivo de computação, tal como um computador do tipo laptop ou desktop. O PC 150 inclui uma CPU e unidade de armazenamento de memória 153 e também inclui software de mapeamento e processamento de dados agrícolas espaciais (por exemplo, Farm Works Software® ou SST Summit Professional®) instalados no mesmo. Em uma modalidade, o PC 150 pode servir como uma interface de usuário para o sistema 100.
[023] O sistema 100 também inclui uma interface gráfica de usuário (GUI) 130 que serve como uma interface de usuário portátil. A GUI 130 pode ser implantada usando de um computador do tipo tablet ou outro dispositivo de computação portátil que permite o usuário ou operador, controlar o sistema 100. Em particular, a GUI 130 pode permitir que o usuário designe trajetórias de voo do UAV 110 e/ou identifique obstáculos aéreos que podem, de alguma forma, obstruir a trajetória de voo do UAV 110. Nessa modalidade, a GUI 130 inclui um aplicativo ("app") ou software de visualização 136 que permite ao usuário acessar remotamente mapas espaciais que incluem dados a respeito de colheita, rendimento e/ou teor de nitrogênio criados a partir das imagens tiradas pelo UAV 110. Por exemplo, a GUI 130 pode incluir software similar ao descrito na Publicação de Pedido de Patente Internacional no WO 2014/026183, que está incorporada a título de referência em sua totalidade. Consequentemente, a GUI 130 inclui uma CPU e unidade de armazenamento de memória 132, e está em comunicação com outros componentes do sistema 100.
[024] O sistema 100 também inclui o dispositivo de interface de usuário (UID) 160 (por exemplo, um controlador ou teclado) que permite o usuário ou operador, controlar o sistema 100. Em particular, o UID 160 pode permitir que o usuário designe trajetórias de voo do UAV 110 e/ou identifique obstáculos aéreos que podem, de alguma forma, obstruir a trajetória de voo do UAV 110. Nessa modalidade, o UID 160 inclui um visor 164 que permite o usuário visualizar remotamente as imagens do sistema de câmera 117. Consequentemente, o UID 160 inclui uma CPU e unidade de armazenamento de memória 163, e está em comunicação com outros componentes do sistema 100. Em uma modalidade, o UID 160 pode permitir que o usuário ou operador controle o UAV 110 enquanto se visualiza as imagens do sistema de câmera 117 no visor de tela sensível ao toque 134 na GUI 130.
[025] Nessa modalidade, a nuvem 120 é um armazenamento de dados, um processamento de imagem e um concentrador de computação para o sistema aéreo não tripulado 100. Mais especificamente, a nuvem 120 é um conjunto de computadores interconectados e servidores conectados através de uma rede de comunicação para permitir computação distribuída. Por exemplo, a nuvem 120 poderia se um centro de armazenamento de dados remotos. O módulo de célula 113 montado no UAV 110 permite que fotografias sejam transferidas para a nuvem 120 enquanto o UAV 110 está em voo. A nuvem 120 pode receber e armazenar informações climáticas atuais e de previsão que incluem temperatura do ar e quantidade de precipitação. A nuvem 120 também pode se comunicar com um ou mais serviços de recomendação e análise que fornecem recomendações e/ou análises baseadas em dados de imagem adquiridos usando do UAV 110.
[026] Em uma modalidade, o UAV 110 transmite as imagens tiradas com o sistema de câmera 117 durante o voo para outros componentes (por exemplo, 130, 140, 150, 160) para armazenamento e/ou processamento. Imagens e metadados transferidos a partir do UAV 110 para a nuvem 120 podem ser ortorretificados e costurados em conjunto para criar uma única imagem contígua. Exemplos de imagem oblíqua ortorretificada para uma vista singular são descritos, por exemplo, no Documento de Patente no U.S. 8,512,266, que é incorporado a título de referência em sua totalidade.
[027] Com referência à Figura 2, um exemplo de um método para operar um sistema aéreo não tripulado, tal como o sistema 100, é indicado, de modo geral, em 200. Nessa modalidade, o método 200 inclui três estágios: um estágio de planejamento de missão 201, um estágio de execução de voo 202 e um estágio de transferência/processamento de dados após o voo 203. Os três estágios do método 200 serão descritos em mais detalhes abaixo.
[028] Com referência à Figura 3, um exemplo do estágio de planejamento de missão do método 200 é indicado, de modo geral, em 300. O estágio de planejamento de missão 300 do método 200 inclui uma sequência de ações realizadas pelo usuário e pelo sistema 100. Na Figura 3, as ações realizadas pelo usuário são fornecidas em um círculo e ações realizadas pelo sistema 100 são fornecidas em um quadrado.
[029] No método exemplificativo 200, seguinte à ativação do sistema 100, o usuário primeiramente indica a área de voo 301 para mapeamento. Em uma modalidade, o usuário delineia a área de voo a ser coberta pelo UAV 110 em GUI 130 ou UID 160 usando dos dados de mapa a partir do Google maps® ou outro software de GPS.
[030] Em uma modalidade, o sistema 100 analisa a entrada de área de voo do usuário 301, calcula a trajetória de voo (ou trajetórias de voo) possível para gerar uma imagem contígua da área de voo e fornece ao usuário possíveis trajetórias de voo de UAV 302. O sistema 100 também pode identificar obstáculos em potencial (por exemplo, postes de telefone e/ou linhas elétricas) na trajetória de voo baseada em voos anteriores e/ou entrada de usuário e pode, consequentemente, ajustar a trajetória de voo. Em outra modalidade, o sistema 100 fornece ao usuário múltiplas trajetórias de voo de UAV possíveis em diferentes elevações e velocidades que dependem da resolução de imagem desejada e da duração de voo. Por exemplo, e a título de ilustração, o sistema 100 poderia fornecer ao usuário duas trajetórias de voo de UVA opcionais em GUI 130 ou UID 160, conforme fornecido na Tabela 1 abaixo:
Figure img0001
[031] No método exemplil ficativo 200, uma vez dotado de trajetórias de voo possíveis, o usuário seleciona uma trajetória de voo desejada 303. Em uma modalidade, o usuário pode solicitar que o sistema 100 forneça opções de trajetória de voo adicionais introduzindo parâmetros específicos para a trajetória de voo (isto é, elevação, resolução de figuração, duração, etc.).
[032] No método exemplificativo 200, na medida em que o usuário seleciona uma trajetória de voo desejada, o sistema 100 fornece ao usuário uma seleção de tipos de imagem possíveis a serem tiradas pelo sistema de câmera 117. Em uma modalidade, o usuário tem a opção de selecionar 305 a partir de fotos estáticas, imagens térmicas, imagens próximas do infravermelho (NIR) e vídeos a imaginologia de luz visível, térmica e/ou NIR. Por exemplo, GUI 130 ou UID 160 podem fornecer ao usuário uma lista que permite ao usuário selecionar o tipo de imagem desejado 304 (por exemplo, exibindo uma caixa de seleção ou outro mecanismo de seleção). Baseado nos tipos de imagem selecionados pelo usuário, em algumas modalidades, GUI 130 ou UID 160 determinam uma elevação otimizada e/ou estimam um tempo de voo.
[033] No método exemplificativo 200, o sistema 100 fornece ao usuário detalhes e fato de voo 306 em GUI 130 ou UID 160. Em uma modalidade, o sistema 100 pode fornecer ao usuário a rota, elevação e/ou duração do voo de UAV, bem como a resolução antecipada das imagens a serem tiradas no tipo de imagem selecionado. Em outra modalidade, antes de gerar trajetórias de voo, o sistema 100 determina se obstáculos de voo (por exemplo, postes de telefone ou linhas elétricas) foram anteriormente identificados na área de voo aplicável. Em ainda outra modalidade, o usuário identifica obstáculos de voo 307 em GUI 130 ou UID 160 usando de imagem de satélite a partir do Google Earth® ou outro fornecedor de imagem. Especificamente, em uma modalidade, GUI 130 ou UID 160 habilitam o usuário desenhar uma borda ao redor de quaisquer obstáculos de voo e introduzir a altura aproximada do obstáculo para evitar que o UAV entre na área obstruída. Com o uso da entrada a partir do usuário, o sistema 100 recalcula a trajetória de voo para evitar os obstáculos.
[034] Com referência à Figura 4, um exemplo do estágio de execução de voo do método 200 é indicado, de modo geral, em 400. O estágio de execução de voo 400 do método 200 inclui uma sequência de ações realizadas pelo usuário e pelo sistema 100. Na Figura 4, as ações realizadas pelo usuário são fornecidas em um círculo e ações realizadas pelo sistema 100 são fornecidas em um quadrado.
[035] No método exemplificativo 200, o estágio de execução de voo 400 ocorre após o estágio de planejamento de missão 201. Em uma modalidade, o usuário direciona o sistema 100 para iniciar o estágio de execução de voo 400 usando de GUI 130 ou UID 160. Em outra modalidade, o estágio de execução de voo 400 começa automaticamente seguinte à identificação de obstáculos, se estiverem presentes, na trajetória de voo de UAV.
[036] No método exemplificativo 200, o estágio de execução de voo 400 começa com o sistema 100 que compara a duração e elevação de voo com uma vida útil de bateria 401 do UAV 110. Quando um nível de carga de bateria é insuficiente, o sistema 100 fornece uma indicação ao usuário (por exemplo, em GUI 130 ou UID 160) de que é exigido carregamento. Adicionalmente a uma verificação de energia, o sistema 100 também realiza um teste operacional dos componentes de sistema, particularmente, UAV 110. Em uma modalidade, o sistema 100 conduz um teste de operação 402 para confirmar que as câmeras necessárias no sistema de câmera 117 estão instaladas e em operação, que as condições climáticas são seguras para o voo de UAV, que a área circundante do UAV 110 está limpa e segura para decolagem e que as coordenadas de GPS do UAV 110 estão corretas.
[037] No método exemplificativo 200, seguinte à confirmação pelo sistema 100 de que o UAV 110 tem capacidade e está pronto para operar, o usuário é alertado pelo sistema 100, por meio de GUI 130 ou UID 160, a iniciar o voo 403. Em uma modalidade, o usuário aperta um botão de "iniciar voo" ou "partir" em GUI 130 ou UID 160. Sob iniciação do voo, o sistema 100 começa o voo de UAV e monitora continuamente os sistemas de UAV 404. Em uma modalidade, o UAV 110 realiza uma ou mais manobras de teste. Por exemplo, o UAV 110 pode decolar verticalmente a partir da estação base 140 e realizar simples manobras (por exemplo, se mover para frente e para trás, de lado a lado, para cima e para trás, etc.) para verificar as capacidades de operação e manobra. No caso de um mau funcionamento de UAV ou sistema em qualquer momento durante o voo, o sistema 100 e o usuário têm a capacidade para encerrar o voo prematuramente 405. Em tal caso, a trajetória de voo selecionada é terminada e o UAV 110 retorna para estação base 140 e/ou tenta retornar ao chão sem danificar o UAV 110.
[038] No método exemplificativo 200, durante o voo do UAV 110, o sistema de câmera 117 tira fotos ou vídeos da área de voo selecionada e armazena as imagens na CPU de bordo e unidade de armazenamento de memória 114. Em uma modalidade, CPU de bordo e unidade de armazenamento de memória 114 ortorretifica a imagem para uma vista singular e identifica áreas com imagem de baixa qualidade.
[039] Em algumas modalidades, o UAV 110 adquire um conjunto inicial de imagens e, então, retorna para uma ou mais áreas-alvo para adquirir imagens adicionais em uma resolução mais alta após rever os mapas de imagem inicial 406. Por exemplo, o sistema de câmera 117 pode adquirir imagens de NDVI da área de voo selecionada, identificar áreas com baixos níveis de nitrogênio (ou outros problemas) por meio do mapa de NDVI e exibir essas áreas para o usuário por meio de GUI 130 para habilita o usuário de modo a instruir o UAV 110 a adquirir fotos de alta resolução ("de aferição") de baixa elevação (por exemplo, entre 3,04 e 15,24 metros (10 e 50 pés) acima do chão) adicionais. Em uma modalidade, as imagens de uma população plantada (por exemplo, milho, soja, etc.) são capturadas pelo sistema de câmera 117 a partir de uma vista aérea antes da população plantada alcançar um comprimento de maduro (isto é, em um momento quando plantas individuais são indistinguíveis de plantas vizinhas).
[040] Em outra modalidade, o UAV 110 voa automaticamente uma rota de "Voltar e Aferir" rota 407 que segue uma primeira passagem sobre a área de voo selecionada para tirar fotos em alta resolução adicionais de áreas-alvo (por exemplo, áreas com baixos níveis de nitrogênio) mostradas na imagem de NDVI. Em ainda outra modalidade, fotos em alta resolução adicionais de áreas-alvo são tiradas para eliminar sombras de cultura. Em tais modalidades, para reduzir o tempo de processamento, análise e processamento de imagem podem ser realizados a bordo do UAV 110.
[041] No método exemplificativo 200, seguinte à conclusão da trajetória de voo do UAV, o UAV pousa (por exemplo, na estação base 140) para encerrar o voo 408.
[042] No método exemplificativo 200, ao concluir o estágio de execução de voo 400, o estágio de transferência/processamento de dados após o voo 203 começa. Alternativamente, transferência/processamento de dados pode ocorrer enquanto o UAV 110 permanece aerotransportado, de modo que o estágio de transferência/processamento de dados 203 se sobrepõe ao estágio de execução de voo 400. Portanto, a transferência e o processamento da imagem obtida pelo UAV 110 podem ocorrer em tempo real conforme os dados são capturados ou brevemente após o mesmo (por exemplo, dentro de 10 minutos da captura de dados). Em uma modalidade, imagens em baixa qualidade são constantemente transmitidas para GUI 130 ou UID 160 durante o voo para manter o usuário informado do status do voo.
[043] Transferir os dados e imagens capturados pelo UAV 110 pode ser feito por meio de comunicação sem fio e/ou celular entre os componentes do sistema 100. A transferência é tipicamente direcionada aos componentes onde o processamento será executado.
[044] Processar os dados e imagens pode incluir ortorretificação e costura das imagens aéreas em um único mapa de área contígua. Notavelmente, o processamento dos dados e imagens pode ser realizado usando de qualquer componente do sistema 100. Por exemplo, o processamento pode ser realizado a bordo do UAV 110 e as imagens processadas podem, então, ser transferidas para a estação base 140, GUI 130 e/ou UID 160.
[045] Em uma modalidade, as imagens adquiridas são sobrepostas (por exemplo, com uma transparência de 50%) sobre mosaicos do Google map® ou imagens geográficas aéreas e exibidas para o usuário. Alternativamente, as imagens aéreas podem ser processadas e exibidas com os mosaicos do Google map® ou com a imagem geográfica aérea, de modo que as mesmas sejam exibidas em uma orientação presa de lado a lado, de modo que mover e/ou aproximar uma imagem move e/ou aproxima a outra imagem pela mesma quantidade. Os pontos centrais das imagens na orientação lado a lado podem ser indicados por um ícone (por exemplo, miras), similar às técnicas descritas na Publicação de Pedido de Patente Internacional no WO 2014/026183. Em outra modalidade, uma sequência de imagens aéreas tiradas em diferentes momentos durante uma temporada de crescimento (por exemplo, diariamente, semanalmente, mensalmente, etc.) são processadas em uma animação que passa pelas imagens em sequência. Em algumas modalidades, a animação é ativada automaticamente exibindo as imagens para definir períodos de tempo; em outras modalidades, a próxima imagem em sequência é exibida em resposta a uma entrada de usuário em uma interface gráfica (por exemplo, seleção usando de um ícone de seta ou ao arrastar um ícone deslizante por uma escala). A animação pode ser sobreposta sobre mosaicos do Google map® ou imagens geográficas aéreas. As imagens podem ser, por exemplo, imagens de NDVI, mapas aéreos e/ou mapas de emergência.
[046] Processar imagens também pode incluir filtrar as imagens usando de software para filtra sujeita e sombras que podem afetar a qualidade de imagem. A filtragem cria um contraste de cor entre a carlinga e sujeira de planta, que podem ser difíceis de distinguir umas das outras na imagem não filtrada. Por exemplo, em uma modalidade, o processamento de imagem remove tudo na fotografia aérea abaixo de um limiar de reflexão ou valor de cor.
[047] Em um exemplo, uma densidade de verdor esperada é identificada baseado em uma população plantada e/ou um estágio de desenvolvimento de plantas na área transformada em imagem. A população plantada pode ser determinada a partir de um mapa conforme plantado e o estágio de desenvolvimento pode ser determinado, por exemplo, usando de um gráfico híbrido específico que relaciona o número de dias de grau de crescimento para um estágio de desenvolvimento esperado. Uma vez que a densidade de verdor esperada é identificada, tudo em uma imagem que está acima da densidade de verdor esperada pode ser representado em tons de verde e tudo na imagem que está abaixo da densidade de verdor esperada pode ser representado em tons de vermelho.
[048] O sistema 100 também pode usar dados de imaginologia para gerar mapas de emergência nos quais um número de plantas por área é calculado e áreas desprovidas de plantas ou de vegetação desejável nas imagens são marcadas como "lacunas." As lacunas são áreas onde plantas ou vegetações falharam em crescer ou não foram inicialmente plantadas. Em uma modalidade, o sistema 100 correlaciona os dados de lacuna com dados de plantio iniciais (por exemplo, o mapa conforme plantado) para remover quaisquer lacunas que ocorreram devido a nenhum plantio inicial, o que deixa apenas verdadeiras lacunas que são indicativas de áreas onde sementes foram plantadas, porém, não emergiram. Esse processamento pode ser aplicado aos dados de imagem de NDVI ou outros dados de imagem adquiridos pelo sistema de câmera 117.
[049] Em algumas modalidades, decisões de aplicação espacial podem ser feitas automaticamente baseadas em imagens adquiridas pelo UAV 110. Por exemplo, os níveis de um mapa de NDVI podem estar associados a uma aplicação após o plantio (por exemplo, adubação de cobertura ou pulverização de cultura) para gerar um mapa de aplicação baseado no mapa de NDVI. O mapa de aplicação gerado pode ser exibido ao usuário para permitir o usuário rejeitar, modificar ou aceitar o mapa de aplicação. Em algumas modalidades, o mapa de aplicação gerado é transmitido a um fornecedor de serviço (por exemplo, um trabalhador ou empreiteira terceirizada) com instruções para aplicar o mapa de aplicação.
[050] Os dados adquiridos pelo UAV 110 também podem ser usados para produzir recomendações agronômicas gerais. Por exemplo, se um mapa de NDVI gerado usando do sistema 100 tem um nível de nitrogênio abaixo de um limiar, o sistema 100 pode recomendar que o nitrogênio seja aplicado por uma cobertura para aumentar os níveis de nitrogênio. O limiar pode ser determinado baseado em um estágio de desenvolvimento da cultura, por exemplo. Em outro exemplo, se um mapa de saúde vegetal indicar que uma área de plantas saudáveis está abaixo de um limiar, o sistema 100 pode recomendar que nitrogênio seja aplicado por uma cobertura. Em ainda outro exemplo, se um mapa de emergência tem uma área de emergência abaixo de um limiar antes de um tempo crítico em desenvolvimento, o sistema 100 pode recomendar que o campo seja replantado.
[051] Com referência à Figura 5, um exemplo do estágio de transferência/processamento de dados 203 do método 200 é indicado, de modo geral, em 500. O estágio de transferência/processamento de dados 500 do método 200 inclui uma sequência de ações realizadas pelo usuário e pelo sistema 100. Na Figura 5, as ações realizadas pelo usuário são mostradas em um círculo e ações realizadas pelo sistema 100 são mostradas em um quadrado.
[052] O estágio de transferência/processamento de dados 500 inclui, de modo geral, os oito seguintes estágios: estágio de obter imagem de NDVI (ou imagens de NDVI) a partir da execução de voo 501; estágio de converter a imagem de NDVI (ou imagens de NDVI) em um mapa 502; estágio de filtrar matéria de não cultura 503; estágio de identificar fileiras de cultura 504; estágio de dividir plantas individuais 505; estágio de identificar recursos de planta individual 506; estágio de estimar potencial de rendimento de cultura estágio 507; e estágio de gerar relatório 508.
[053] No método exemplificativo 200, o estágio de transferência/processamento de dados após o voo 500 começa com o sistema 100 obtendo imagem de NDVI (ou imagens de NDVI) a partir da execução de voo 501. Novamente, transferência/processamento de dados pode ocorrer enquanto o UAV 110 permanece aerotransportado, de modo que o estágio de transferência/processamento de dados 500 se sobrepõe ao estágio de execução de voo 400. O estágio de transferência/processamento de dados 500 pode ocorrer em tempo real conforme os dados são capturados pelo UAV 110 ou brevemente após o mesmo (por exemplo, dentro de 10 minutos da captura de dados).
[054] Nesse exemplo, as imagens obtidas a partir da execução de voo são convertidas pelo sistema 100 em um mapa 502 (por exemplo, um mapa de bits, um mapa de emergência, etc.). Em uma modalidade, uma densidade de verdor esperada é estabelecida baseado em uma população plantada e/ou um estágio de desenvolvimento de plantas na área transformada em imagem. Uma vez que a densidade de verdor esperada é identificada, no mapa gerado, pixels, em cada imagem, que estão acima da densidade de verdor esperada são representados em branco e pixels, na imagem, que estão abaixo da densidade de verdor esperada são representados em preto. Consequentemente, um mapa é criado com espaços brancos unitários 601 que se correlacionam aproximadamente com a localização e área de cada planta nas imagens. Um mapa exemplificativo 600 é fornecido na Figura 6. Na Figura 6, plantas individuais na população plantada (identificada usando da densidade de verdor esperada) são representadas como espaços brancos 601. Recursos circundantes 602 (por exemplo, solo circundante, ervas daninhas, etc.) são levemente sombreadas. Até o processamento adicional, o mapa pode incluir espaços brancos únicos 601 que incluem múltiplas plantas (por exemplo, mostradas no lado direito do mapa 600) e/ou espaços brancos 601 que são ervas daninhas ou outra matéria de planta de não cultura (por exemplo, mostrada no lado esquerdo inferior do mapa 600).
[055] O estágio de filtrar matéria de não cultura 503, no método exemplificativo, inclui identificar "anomalias" no mapa gerado. “Anomalias", conforme usado no presente documento, se refere às áreas no mapa gerado que são inicialmente identificadas pelo sistema 100 com um espaço branco 601 (por exemplo, baseado na densidade de verdor), porém, não representam, realmente, uma planta desejada da população plantada. Por exemplo, uma erva daninha pode ser uma anomalia no mapa gerado. O estágio 503 também inclui filtrar essas anomalias do mapa 600. Nesse exemplo, o sistema 100 identifica anomalias calculando um tamanho (por exemplo, área, diâmetro, etc.) para cada espaço branco 601 e, então, as anomalias são identificadas como espaços brancos com um tamanho substancialmente diferente do (por exemplo, 2 desvios padrão) típico (por exemplo, médio, mediana, média, etc.) tamanho dos espaços brancos 601 no mapa 600. Uma anomalia exemplificativa é mostrada, de modo geral, na Figura 7 como o espaço branco de anomalia 701. O sistema 100 filtra as anomalias sombreando as anomalias da mesma cor que os recursos circundantes 602 ou removendo as anomalias da consideração adicional no método 500. A Figura 8 mostra um mapa exemplificativo 600 com o espaço branco de anomalia 701 removido. Em outra modalidade, o sistema 100 compara as anomalias com os dados de plantio iniciais (por exemplo, um mapa conforme plantado) para remover quaisquer anomalias que ocorram nas áreas onde não havia plantio inicial. Consequentemente, o sistema 100 filtra as anomalias sombreando as mesmas apropriadamente ou removendo as mesmas da consideração adicional. Esse processamento pode ser aplicado aos dados de imagem de NDVI ou outros dados de imagem adquiridos pelo sistema de câmera 117.
[056] O estágio de identificar as fileiras de cultura 504 no método exemplificativo inclui marcar um centroide 801 para cada espaço branco restante 601. A Figura 8 mostra um mapa exemplificativo 600 com uma fileira 802 de espaços brancos 601 marcados com centroides 801. A Figura 9 mostra outro mapa exemplificativo 600 com duas fileiras 901 e 902 de espaços brancos 601 marcados com centroides 801. O sistema 100 identifica fileiras (por exemplo, 802, 901, 902) calculando, aproximando e atribuindo linha de melhor encaixe para as fileiras baseado nas posições dos centroides 801. Especificamente, o sistema 100 usa uma distância de afastamento de fileira 805, que pode ser um valor padrão (por exemplo, 76,20 centímetros (30 polegadas)) ou um valor introduzido por usuário, para identificar localizações aproximadas das fileiras paralelas através dos espaços brancos 601 e/ou centroides 801. Em outras modalidades, o estágio 504 pode sobrepor ou ocorrer ao mesmo tempo que o estágio 503 para assistir o sistema 100 em identificar anomalias.
[057] O estágio de dividir as plantas individuais 505 no método exemplificativo inclui identificar dois ou mais espaços brancos sobrepostos 601 (isto é, duas ou mais plantas sobrepostas). A Figura 10 mostra um exemplo de um par de espaços brancos 601 sobrepostos dentro do círculo 1000. No método exemplificativo, para identificar um par de espaços brancos sobrepostos 601, o sistema 100 primeiramente compara (i) o afastamento em fileira (por exemplo, 1001 e 1003) entre centroides adjacentes; e (ii) o valor de afastamento em fileira (por exemplo, 1002 e 1004) determinado por (a) um valor nominal a partir do usuário, (b) um valor de afastamento conforme plantado a partir de um mapa conforme plantado ou (c) o afastamento mediano ou médio entre plantas em fileira. No caso de um par de espaços brancos sobrepostos 601, tais como os mostrados no círculo 1000 na Figura 10, uma diferença 1005 entre o afastamento 1003 e 1004 é acentuadamente maior que uma diferença 1006 entre o afastamento 1001 e 1002. Como uma etapa separada ou como parte da mesma etapa de identificar um par de espaços brancos sobrepostos 601, o sistema 100 também pode calcular e comparar a área mediana de espaços brancos 601. Consequentemente, o sistema 100 tem capacidade para identificar o par de espaços brancos sobreposto 601 (por exemplo, dentro do círculo 1000) usando da análise descrita acima. Sob identificação de um par de espaços brancos sobrepostos 601, conforme mostrado, por exemplo, na Figura 11, o sistema 100 divide plantas individuais atribuindo novamente dois centroides 801 para marcar a localização dos espaços brancos individuais 601 equidistantes da localização 1100 do centroide deletado 801.
[058] Nesse exemplo, o sistema 100 também atribui um "valor de confiança" (por exemplo, 90%) para cada espaço branco 601 que indica a probabilidade ou certeza estatística de que cada espaço branco 601 se correlaciona com a localização e/ou área de uma planta distinta nas imagens. Em um exemplo, o valor de confiança para um espaço branco individual 601 é maior quando (i) a localização do respectivo centroide 801 é aproximadamente igual a um valor de afastamento em fileira (por exemplo, 1002 e 1004); e (ii) a respectiva área é aproximadamente igual à área mediana e/ou média de espaços brancos 601 no mapa 600. Consequentemente, o sistema 100 pode armazenar o valor de confiança para cada espaço branco 601 em cada mapa 600 para referência, por vários propósitos, conforme descrito abaixo.
[059] O estágio de identificar recursos de planta individual 506 no método exemplificativo inclui tanto corrigir as imagens capturadas pelo sistema de câmera 117 quanto analisar as plantas individuais (por exemplo, aquelas identificadas dentro de espaços brancos 601). Nesse exemplo, o sistema 100 corrige imagens aéreas capturadas pelo sistema de câmera 117 considerando um ponto de dados de imagem (por exemplo, a localização, elevação e velocidade do UAV 110 quando cada imagem foi tirada, a resolução do sistema de câmera 117, o ângulo e aproximação usados pelo sistema de câmera 117, etc.) e medições de afastamento em fileira e paralelo a fileira identificadas nos estágios 504 e 505 descritos acima. Mais especificamente, o sistema 100 atribui uma escala para cada pixel em cada imagem comparando as medições de afastamento em fileira ou paralelo a fileira conhecidas (por exemplo, em polegadas) para as medições de afastamento em imagem em fileira ou paralelo a fileira conhecidas (por exemplo, em pixels).
[060] Em outro exemplo, corrigir as imagens capturadas pelo sistema de câmera 117 pode incluir uma rota "Voltar e Aferir" 407 pelo UAV 110 para tirar fotos em alta resolução adicionais das áreas-alvo.
[061] Nesse exemplo, o sistema 100 também analisa as plantas individuais (por exemplo, aquelas identificadas dentro de espaços brancos 601) examinando uma ou mais imagens de cada planta capturada pelo sistema de câmera 117 a partir das diferentes posições e elevações. De modo similar ao estágio 504 em que cada espaço branco 601 é marcado com um centroide 801, o sistema 100 localiza as estruturas (por exemplo, folhas, caules, espigas, etc.) de cada planta e marca cada estrutura com um centroide. Em um exemplo, o sistema 100 localiza as estruturas de planta usando de um comprimento: razão de largura para estruturas consistentes com a população plantada. Além disso, espinhos de folha podem ser localizados calculando pontos médios entre as arestas de folha. Nesse exemplo, o sistema 100 também localiza um centroide atualizado e mais preciso da planta usando de centroides a partir das estruturas de planta individual. Em outro exemplo, o sistema 100 pode usar um ponto de interseção de linhas encaixadas ao longo do comprimento ou largura e através do centroide de uma pluralidade de estruturas de planta (por exemplo, espinhos de folha) para encontrar o centroide de planta atualizado. Ainda em outras modalidades, o sistema 100 pode retornar aos estágios anteriores para aperfeiçoar a identificação de espaço branco 601 e/ou colocação de centroide 801, por exemplo.
[062] Nesse exemplo, o sistema 100 usa a localização de estrutura de imagens e planta para determinar os dados a respeito das características das plantas na população plantada. As características de planta de interesse particular, por exemplo, incluem, adequadamente sem limitação, comprimento de folha (por exemplo, comprimento médio de espinho), largura e área (por exemplo, da planta inteira) e número de folhas (que pode ser, por exemplo, o número de espinhos identificados). Novamente, o sistema 100 pode usar os pontos de dados de imagem para ajustar as vistas pouco claras ou distorcidas das características de planta. Consequentemente, o sistema 100 pode armazenar as informações a respeito das características de planta para cada planta para referência, para os vários propósitos descritos abaixo.
[063] O estágio de estimar o potencial de rendimento de cultura 507 no método exemplificativo inclui usar informações levantadas e calculadas pelo sistema 100 para estimar um potencial de rendimento. Informações levantadas incluem, por exemplo, o número de plantas na população plantada, o valor de confiança para cada espaço branco 601 e/ou informações a respeito das características de planta. Nesse exemplo, o sistema 100 pode não considerar as características de planta quando um valor de confiança para uma planta particular estiver abaixo de um primeiro limiar (por exemplo, 95%). Também nesse exemplo, o sistema 100 pode não incluir essa planta particular para a contagem de população plantada erguida quando o valor de confiança estiver abaixo de um segundo limiar inferior (por exemplo, 80%).
[064] Em um exemplo, o sistema 100 pode usar a seguinte Equação 1 para estimar um potencial de rendimento de planta ou de população plantada: Equação 1: potencial de rendimento = Ax + By + Cz em que, x = número de folhas y = área de folha z = comprimento máximo de folha ou média das duas folhas mais longas A = 0, se x < valor limiar; A > 0, se x > valor limiar B = 0, se x < valor limiar; B > 0, se x > valor limiar C = 0, se x < valor limiar; C > 0, se x > valor limiar
[065] Em um exemplo, o sistema 100 pode calcular um potencial de espiga usando de uma abordagem booleana. Por exemplo, se quaisquer duas variáveis (por exemplo, número de folhas, área de folha, comprimento máximo de folha) estão acima de um limiar predeterminado associado a cada variável, então, o potencial de espiga é definido em 1. De outra forma, o potencial de espiga é definido em 0. Deve ser verificado que os valores-limiar usados para determinar rendimento ou potencial de espiga podem ser selecionados para exigir uma alta confiança (por exemplo, 99%) de que a planta tem o potencial classificado ou para exigir apenas uma confiança relativamente baixa (por exemplo, 80%).
[066] Em outro exemplo, as características de planta (número de folhas, área de folha, folha comprimento, etc.) usadas para calcular rendimento/potencial de espiga são relativas a outras plantas no campo. As mesmas podem ser, por exemplo, relativas a plantas vizinhas ou próximas, ou relativas a um número mediano/médio para a imagem e/ou campo. Por exemplo, o sistema 100 pode usar a seguinte Equação 2 para estimar um potencial de rendimento de planta ou de população plantada, baseado nas relativas características de planta: Equação 2: potencial de rendimento = A(x-l) + B(y-m) + C(z- n) em que, x = número de folhas em uma planta y = área de folha em uma planta z = comprimento máximo de folha ou média das duas folhas mais longas em uma planta l = número médio de folhas em plantas na mesma imagem ou população plantada m = área média de folha em plantas na mesma imagem ou população plantada n = comprimento médio máximo de folha ou média das duas folhas mais longas em plantas na mesma imagem ou população plantada A = 0, se x < valor limiar; A = 1, se x > valor limiar B = 0, se x < valor limiar; B = 1, se x > valor limiar C = 0, se x < valor limiar; C = 1, se x > valor limiar
[067] Em ambas as Equações 1 e 2, o valor limiar para determinar A, B e C pode ser (i) um valor nominal a partir do usuário; (ii) um valor esperado baseado em populações plantadas anteriores; (iii) um valor extrapolado das plantas individuais; ou (iv) um valor interpolado das maiores populações plantadas.
[068] O estágio de gerar relatório 508 no método exemplificativo inclui criar um mapa ou relatório de dados a respeito da população plantada. Nesse exemplo, o mapa gerado compara o mapa conforme plantado com outro mapa, posteriormente, no desenvolvimento da população plantada. O mapa pode mostrar, por exemplo, regularidade de afastamento de planta, plantios pulados, plantas duas vezes plantadas, etc. Também nesse exemplo, o relatório gerado pode incluir um potencial ou rendimento gerado (por exemplo, número de espigas, sementes, caules, etc.) a partir da população plantada.
[069] Em algumas modalidades uma ou mais medições e mapas espaciais podem ser gerados e exibidos para o usuário baseado em informações levantadas a partir de imagem aérea.
[070] Em uma modalidade, um valor de pressão de erva daninha é determinado para cada localização ou região no campo baseado na quantidade relativa de ervas daninhas na cultura erguida. O valor de pressão de erva daninha está, preferencialmente, relacionado à quantidade de matéria de planta verde identificada entre as fileiras de uma cultura de fileira. Por exemplo, o valor de pressão de erva daninha pode ser determinado para uma região A no campo dividindo a área de "anomalias" identificadas, conforme descrito acima dentro da região A, pela área total da região A. Em alguns métodos, as ervas daninhas são distinguidas das outras anomalias ou do material de cultura baseado em um critério de formato ou tamanho da erva daninha; por exemplo, anomalias que têm uma área total ou largura menor que um limiar podem ser ignoradas por propósitos de calcular um valor de pressão de erva daninha. O valor de pressão de erva daninha determinado para localizações por todo o campo pode ser, então, exibido como um valor de campo ou região, ou apresentado como um mapa espacial de pressão de ervas daninha.
[071] Em outra modalidade, a largura de folha das plantas de cultura identificadas no campo (determinadas conforme descritas acima) é relatada como um média de campo ou apresentada ao usuário como um mapa espacial de largura média de folha no campo.
[072] Em outra modalidade, uma data de emergência estimada das plantas de cultura identificadas é determinada para cada planta ou região do campo. A data de emergência estimada pode ser estimada baseada no tamanho de cada planta de cultura identificada; ainda, onde nenhuma planta de cultura é observada em uma porção do campo em uma dada data, se assume que a data de emergência para aquela porção do campo pode ser após aquela data. A variação espacial em data de emergência estimada pode ser apresentada ao usuário como um mapa ou pode ser usada para aperfeiçoar as estimativas de umidade de planta ou maturidade de planta posteriormente na temporada, por exemplo, quando se determina uma data recomendada de colheita. Deve ser verificado que para decisões amplas operacionais de campo, a data de emergência mais tardia deve ser usada; por exemplo, um atraso de um dia na data de emergência mais tardia determinada para o campo pode resultar em um atraso de um dia na data recomendada de colheita.
[073] Em outra modalidade, um vigor de planta estimado das plantas de cultura identificadas no campo é relatado como uma média de campo ou apresentado ao usuário como um mapa espacial do vigor de planta no campo. O valor de vigor de planta para cada planta ou grupo de plantas é determinado, preferencialmente, calculando uma soma ponderada ou o produto das características de planta (por exemplo, largura de folha e número de folhas). Por exemplo, um valor de vigor de planta para uma planta de cultura pode ser calculado multiplicando a largura média de folha pelo número de folhas ou adicionando a largura média de folha a um valor 10 vezes o número de folhas. Uma variação estatística (por exemplo, desvio padrão) do valor de vigor de planta em relação ao valor médio de vigor de planta para o campo (ou para uma região que inclui múltiplos campos) também pode ser medido e usado para gerar um mapa espacial do desvio de vigor de planta.
[074] Em outra modalidade, uma identificação de doença de planta é determinada comparando a refletividade (por exemplo, espectro visível, infravermelho ou valor de NDVI) das porções de uma única planta de cultura identificada com um valor limiar ou com o valor médio de refletividade da planta de cultura. Se uma ou mais porções de uma planta de cultura tem uma refletividade maior que o limiar de refletividade selecionado (e tem, preferencialmente, uma área maior que um limiar de área), o usuário é, preferencialmente, alertado para doença em potencial e pode ser apresentado com uma imagem fotográfica da planta de cultura.
[075] Em outra modalidade, uma identificação de praga é determinada comparando a refletividade (por exemplo, espectro visível, infravermelho ou valor de NDVI) das porções de uma única planta de cultura identificada com um valor limiar ou com o valor médio de refletividade da planta de cultura. Se uma ou mais porções de uma planta de cultura tem uma refletividade maior que o limiar de refletividade selecionado (e tem, preferencialmente, uma área maior que um limiar de área), o usuário é, preferencialmente, alertado para presença de praga em potencial e pode ser apresentado com uma imagem fotográfica da planta de cultura.
[076] Devido aos métodos de identificação de praga e doença abordados acima poderem ser aperfeiçoados por imagens de resolução mais alta, em algumas modalidades o UAV 110 retorna às áreas que têm valores fracos de NDVI (seja aqueles selecionados pelo usuário ou aqueles que têm valores de NDVI abaixo do limiar) e captura uma imagem de alta resolução, por exemplo, voando em altitudes inferiores (por exemplo, 6,09 metros (20 pés) ou inferior) sobre a área identificada ou pairando (isto é, parando em uma posição estacionária) sobre a área identificada e tirando uma imagem em uma resolução mais alta e/ou nível de aproximação maior do que durante o voo inicial de captura de imagem de NDVIA. Ao obter fotos em baixa altitude (por exemplo, 6,09 metros (20 pés) ou inferior), o UAV 110 determina, preferencialmente, a própria distância para o chão de modo a evitar colisões devido a alterações desconhecidas em elevação. Em algumas modalidades a distância para o chão pode ser determinada usando de um dispositivo sonar no UAV. Em outras modalidades a distância para o chão pode ser determinada processando uma imagem e determinando o número de pixels entre fileiras de cultura e calculando a distância para o chão baseado na distância conhecida entre as fileiras e definições de levantamento de imagem conhecidas, tais como o campo de vista de câmera e nível de aproximação.
[077] Em algumas modalidades, o potencial de rendimento e/ou potencial de espiga das plantas (por exemplo, plantas em estágio de muda), conforme abordado acima, pode ser determinado alternativamente tirando imagens da cultura em um ângulo significativo (por exemplo, entre 30 e 60 graus) em relação à vertical, de modo a observar e comparar a altura das plantas individuais. Plantas mais curtas que as plantas vizinhas por uma porcentagem limiar são identificadas, preferencialmente, como plantas emergentes tardiamente que têm um potencial de rendimento inferior.
[078] Em algumas modalidades, a orientação das plantas de cultura identificadas pode ser determinada determinando a orientação de planta (por exemplo, em relação ao norte) de um melhor encaixe em linha através dos espinhos de uma ou mais folhas (por exemplo, uma linha que passa pelas duas folhas opostas separadas por 180 graus acerca do caule). Uma correlação da orientação de planta com um desempenho de rendimento pode ser determinada baseada no mapa de rendimento desenvolvido posteriormente para o mesmo campo. Uma previsão de potencial de espiga ou de rendimento pode ser gerada baseada, em parte, na orientação de planta de cada planta; por exemplo, o potencial de rendimento pode ser reduzido em 1 alqueire por acre para cada diminuição de 5 graus em orientação média de planta em relação ao norte (isto é, no deslocamento angular das folhas em relação ao norte) por acre. Adicionalmente, uma medição de diâmetro de caule tirada a partir de uma imagem aérea (preferencialmente em um ângulo significativo a partir da vertical, por exemplo, 45 graus) ou por uma câmera baseada na terra ao lado do caule pode ser aperfeiçoado determinando a orientação do caule baseada na orientação de planta. Por exemplo, a imagem aérea ou baseada na terra tirada para medição de diâmetro de caule pode ser tirada em um ângulo de medição de caule desejado, por exemplo, normal para a orientação de planta. Em outras modalidades, a medição de diâmetro de caule pode ser reduzida por um fator relacionado à diferença entre o ângulo da imagem em relação ao caule e o ângulo de medição de caule desejado. A medição de diâmetro de caule pode ser usada para modificar o potencial de espiga ou de rendimento previsto; por exemplo, o rendimento previsto pode ser aumentado em 1 alqueire por acre para cada aumento de 0,5 cm em diâmetro de caule medido.
[079] Em algumas modalidades dos métodos descritos no presente documento, uma medição baseada em uma imagem de uma primeira porção do campo pode ser generalizada para uma maior porção do campo por propósitos de gerar um mapa da medição através do campo. Em algumas modalidades, a maior porção do campo pode compreender uma área circundante e/ou adjacente à primeira porção do campo. Em outras modalidades, a maior porção do campo pode compreender uma zona de gerência (por exemplo, uma região adjacente ou circundante do campo que tem um tipo comum de solo, faixa de rendimento, tipo híbrido plantado ou outra característica ou prática de agricultura aplicada).
[080] Ao introduzir os elementos da presente invenção ou as diversas modalidades da mesma, os artigos “um”, “uma”, “o”, "a", “dito” e "dita" são destinados a significar que existem um ou mais dos elementos. Os termos “que compreende”, “que inclui” e “que tem” são destinados a serem inclusivos e significam que podem existir elementos adicionais além dos elementos listados. O uso de termos que indicam uma orientação particular (por exemplo, "superior", "inferior", "lateral", etc.) é dado por conveniência da descrição e não exige qualquer orientação particular do item descrito. Como podem ser feitas várias mudanças nas construções e métodos acima sem que se afaste do escopo da invenção, é pretendido que todos os assuntos contidos na descrição acima e mostrados nas Figuras de desenho em anexo devem ser interpretados como ilustrativos e não em um sentido limitado.

Claims (22)

1. Método para monitoramento agronômico e agrícola, o método caracterizado pelo fato de que compreende: monitorar, por uma unidade de processamento central (CPU) (144) em uma estação base (140), um veículo aéreo não tripulado (UAV) (110), conforme o UAV (110) voa ao longo de uma trajetória de voo acima de uma área e conforme o UAV (110) realiza: capturar, por uma CPU (114) do UAV (110), uma pluralidade de imagens de índice de vegetação de diferença normalizada (NDVI) iniciais da área conforme o UAV (110) voa ao longo da trajetória de voo; receber, pela CPU (114) do UAV (110), uma identificação de uma ou mais áreas-alvo mostradas nas imagens NDVI tendo baixos níveis de nitrogênio, como uma base para capturar uma ou mais imagens adicionais diferentes da uma ou mais áreas-alvo em resolução mais alta; em resposta ao recebimento da identificação: fazer o UAV (110) retornar para as referias uma ou mais áreas-alvo; fazer, pela CPU (114) do UAV (110), com que o UAV (110) capture a uma ou mais imagens adicionais diferentes da uma ou mais áreas-alvo em resolução mais alta; transmitir a pluralidade de imagens NDVI iniciais e a uma ou mais imagens adicionais diferentes para um destinatário de imagem.
2. Método, de acordo com a reivindicação 1, caracterizado pelo fato de que compreende ainda o UAV (110) identificar ele próprio uma ou mais áreas-alvo para as quais a uma ou mais imagens diferentes são exigidas, conforme o UAV (110) ortorretifica a pluralidade de imagens NDVI iniciais e identifica áreas com uma imagem de baixa qualidade.
3. Método, de acordo com a reivindicação 1, caracterizado pelo fato de que compreende ainda: enviar, pelo UAV (110), para um dispositivo de computação (150) uma indicação de áreas que têm certas características que compreendem um ou mais dentre baixos níveis de nitrogênio, baixos níveis de maturidade de cultura ou altos níveis de sombra de cultura; receber, a partir do dispositivo de computação (150), instruções para adquirir uma ou mais imagens da uma ou mais áreas- alvo para as quais a uma ou mais imagens adicionais diferentes são exigidas; receber, a partir do dispositivo de computação (150), uma identificação da uma ou mais áreas-alvo para as quais a uma ou mais imagens adicionais diferentes são exigidas.
4. Método, de acordo com a reivindicação 1, caracterizado pelo fato de que compreende ainda capturar, pelo UAV (110), a uma ou mais imagens adicionais diferentes em uma resolução mais alta do que uma resolução na qual a pluralidade de imagens NDVI iniciais foi capturada.
5. Método, de acordo com a reivindicação 1, caracterizado pelo fato de que compreende ainda capturar, pelo UAV (100), a uma ou mais imagens diferentes em uma elevação mais baixa.
6. Método, de acordo com a reivindicação 1, caracterizado pelo fato de que compreende ainda transferir a pluralidade de imagens NDVI iniciais e a uma ou mais imagens adicionais diferentes ao destinatário de imagem conforme as imagens são capturadas pelo UAV e enquanto o UAV é aerotransportado.
7. Método, de acordo com a reivindicação 1, caracterizado pelo fato de que compreende ainda determinar a trajetória de voo ao: receber, na estação base (140), uma entrada que indica um tipo de imagem a ser adquirida; receber, na estação base (140), dados de obstáculo que indicam um obstáculo dentro da área; e determinar, pela estação base (140), a trajetória de voo baseada, pelo menos em parte, na entrada e nos dados de obstáculo.
8. Método, de acordo com a reivindicação 1, caracterizado pelo fato de que compreende ainda processar, pelo UAV (110), a pluralidade de imagens NDVI iniciais e a uma ou mais imagens adicionais diferentes a bordo, conforme o UAV (110) voa sobre a área.
9. Método, de acordo com a reivindicação 1, caracterizado pelo fato de que compreende ainda processar, pelo UAV (110), a pluralidade de imagens NDVI iniciais e a uma ou mais imagens adicionais diferentes para ortorretificar e costurar a pluralidade de imagens NDVI iniciais e a uma ou mais imagens adicionais diferentes em um único mapa de área contínuo.
10. Método, de acordo com a reivindicação 1, caracterizado pelo fato de que compreende ainda: processar, pela estação base (140) ou por um computador em nuvem, a pluralidade de imagens NDVI iniciais e a uma ou mais imagens adicionais diferentes realizando um ou mais dentre: ortorretificar e costurar a pluralidade de imagens NDVI iniciais e a uma ou mais imagens diferentes em um único mapa de área contínuo; sobrepor a pluralidade de imagens NDVI iniciais e a uma ou mais imagens diferentes sobre outros tipos de imagens geográficas aéreas; exibir a pluralidade de imagens NDVI iniciais e a uma ou mais imagens adicionais diferentes em uma interface gráfica de usuário (130) para um usuário; baseado na pluralidade de imagens NDVI iniciais e na uma ou mais imagens adicionais diferentes, gerar uma animação visual e exibir a animação visual na interface gráfica de usuário (130) para o usuário; filtrar a pluralidade de imagens NDVI iniciais e a uma ou mais imagens adicionais diferentes aplicando um ou mais filtros à pluralidade de imagens NDVI iniciais e a uma ou mais imagens adicionais diferentes; baseado na pluralidade de imagens NDVI iniciais e na uma ou mais imagens adicionais diferentes, determinar um mapa de densidade de verdor para a área, em que o mapa de densidade de verdor tem uma área de densidade de verdor esperada representada em uma primeira cor e outras áreas representadas em uma segunda cor; baseado na pluralidade de imagens NDVI iniciais e na uma ou mais imagens adicionais diferentes, gerar pelo menos um dentre um mapa de índice de vegetação de diferença normalizada ou um mapa de aplicação para a área; baseado na pluralidade de imagens NDVI iniciais e na uma ou mais imagens adicionais diferentes, determinar um mapa de emergência (600) para a área; baseado na pluralidade de imagens NDVI iniciais e na uma ou mais imagens adicionais diferentes, gerar pelo menos um dentre um mapa de índice de vegetação de diferença normalizada ou um mapa de aplicação; baseado na pluralidade de imagens NDVI iniciais e na uma ou mais imagens adicionais diferentes, gerar uma ou mais recomendações agronômicas para a área; em que o processamento da pluralidade de imagens NDVI iniciais e da uma ou mais imagens diferentes é realizado em um ou mais dentre: a estação base (140) ou um sistema em nuvem.
11. Método, de acordo com a reivindicação 10, caracterizado pelo fato de que compreende ainda processar o mapa de emergência (600) para a área para: identificar fileiras de áreas acima de uma densidade de verdor esperada no mapa de emergência (600); dividindo áreas acima da densidade de verdor esperada em áreas individuais em que cada uma corresponde a uma planta de uma pluralidade de plantas e é consistente com os dados de plantio; identificar estruturas de pelo menos uma planta dentre a pluralidade de plantas; calcular um rendimento estimado a partir de pelo menos uma planta dentre a pluralidade de plantas baseado nas estruturas identificadas; gerar um relatório que inclui o rendimento estimado.
12. Sistema para monitoramento agronômico e agrícola, o sistema caracterizado pelo fato de que compreende: uma estação base (140) compreendendo uma unidade de processamento central (CPU) (144) e é configurada para monitorar um ou mais veículos aéreos não tripulados conforme o um ou mais veículos aéreos não tripulados (110) voa ao longo de uma trajetória de voo acima de uma área; um veículo aéreo não tripulado (UAV) (110) compreendendo uma CPU (114) e configurado de tal forma que: a CPU (114) do UAV (110) captura uma pluralidade de imagens de índice de vegetação de diferença normalizada (NDVI) iniciais da área, conforme o UAV (110) voa ao longo da trajetória de voo; a CPU (114) do UAV (110) identifica uma ou mais áreas alvo mostradas nas imagens NDVI tendo baixos níveis de nitrogênio, como base para capturar uma ou mais imagens adicionais diferentes da uma ou mais áreas-alvo em uma resolução mais alta; a CPU (114) do UAV (110), em resposta à identificação: faz com que o UAV (110) retorne à uma ou mais áreas-alvo; faz com que o UAV (110) capture a uma ou mais imagens adicionais diferentes da uma ou mais áreas-alvo em uma resolução mais alta; a CPU (114) do UAV (110) transmite a pluralidade de imagens NDVI iniciais e a uma ou mais imagens adicionais diferentes para um destinatário de imagem.
13. Sistema, de acordo com a reivindicação 12, caracterizado pelo fato de que UAV (110) é configurado ainda para identificar ele mesmo a uma ou mais áreas-alvo para as quais a uma ou mais imagens adicionais diferentes são exigidas, conforme o UAV (110) ortorretifica a pluralidade de imagens NDVI iniciais e identifica áreas com uma imagem de baixa qualidade.
14. Sistema, de acordo com a reivindicação 12, caracterizado pelo fato de que o UAV (110) é configurado ainda para: enviar para um dispositivo de computação (150) uma indicação de áreas que têm certas características que compreendem um ou mais dentre baixos níveis de nitrogênio, baixos níveis de maturidade de cultura ou altos níveis de sombra de cultura; receber, a partir do dispositivo de computação (150), instruções para adquirir uma ou mais imagens da uma ou mais áreas- alvo para as quais a uma ou mais imagens adicionais diferentes são exigidas; receber, a partir do dispositivo de computação (150), uma identificação da uma ou mais áreas-alvo para as quais a uma ou mais imagens adicionais diferentes são exigidas.
15. Sistema, de acordo com a reivindicação 12, caracterizado pelo fato de que o UAV (110) é configurado ainda para: capturar a uma ou mais imagens adicionais diferentes em uma resolução mais alta do que uma resolução na qual a pluralidade de imagens NDVI iniciais foi capturada.
16. Sistema, de acordo com a reivindicação 12, caracterizado pelo fato de que o UAV (110) é configurado ainda para: capturar a uma ou mais imagens diferentes em uma elevação mais baixa.
17. Sistema, de acordo com a reivindicação 12, caracterizado pelo fato de que o UAV (110) é configurado ainda para: transferir a pluralidade de imagens NDVI iniciais e a uma ou mais imagens adicionais diferentes ao destinatário de imagem conforme as imagens são capturadas pelo UAV (110) e enquanto o UAV (110) é aerotransportado.
18. Sistema, de acordo com a reivindicação 12, caracterizado pelo fato de que a estação base (140) é configurada ainda para: receber uma entrada de usuário (160) que indica um tipo de imagem a ser adquirida; receber dados de obstáculo que indicam um obstáculo dentro da área; e determinar a trajetória de voo baseada, pelo menos em parte, na entrada de usuário (160) e nos dados de obstáculo.
19. Sistema, de acordo com a reivindicação 12, caracterizado pelo fato de que o UAV (110) é configurado ainda para: processar a pluralidade de imagens NDVI iniciais e a uma ou mais imagens adicionais diferentes a bordo, conforme o UAV (110) voa sobre a área.
20. Sistema, de acordo com a reivindicação 12, caracterizado pelo fato de que o UAV (110) é configurado ainda para processar a pluralidade de imagens NDVI iniciais e a uma ou mais imagens adicionais diferentes para ortorretificar e costurar a pluralidade de imagens NDVI iniciais e a uma ou mais imagens adicionais diferentes em um único mapa de área contínuo.
21. Sistema, de acordo com a reivindicação 12, caracterizado pelo fato de que um computador em nuvem processa a pluralidade de imagens NDVI iniciais e a uma ou mais imagens adicionais diferentes realizando um ou mais dentre: ortorretificar e costurar a pluralidade de imagens NDVI iniciais e a uma ou mais imagens adicionais diferentes em um único mapa de área contínuo; sobrepor a pluralidade de imagens NDVI iniciais e a uma ou mais imagens adicionais diferentes sobre outros tipos de imagens geográficas aéreas; exibir a pluralidade de imagens NDVI iniciais e a uma ou mais imagens adicionais diferentes em uma interface gráfica de usuário para um usuário; baseado na pluralidade de imagens NDVI iniciais e na uma ou mais imagens adicionais diferentes, gerar uma animação visual e exibir a animação visual na interface gráfica de usuário (130) para o usuário; filtrar a pluralidade de imagens NDVI iniciais e a uma ou mais imagens adicionais diferentes aplicando um ou mais filtros à pluralidade de imagens iniciais e a uma ou mais imagens adicionais diferentes; baseado na pluralidade de imagens NDVI iniciais e na uma ou mais imagens adicionais diferentes, determinar um mapa de densidade de verdor para a área, sendo que o mapa de densidade de verdor tem uma área de densidade de verdor esperada representada em uma primeira cor e outras áreas representadas em uma segunda cor; baseado na pluralidade de imagens NDVI iniciais e na uma ou mais imagens adicionais diferentes, gerar pelo menos um dentre um mapa de índice de vegetação de diferença normalizada ou um mapa de aplicação para a área; baseado na pluralidade de imagens NDVI iniciais e na uma ou mais imagens adicionais diferentes, determinar um mapa de emergência (600) para a área; baseado na pluralidade de imagens NDVI iniciais e na uma ou mais imagens adicionais diferentes, gerar pelo menos um dentre um mapa de índice de vegetação de diferença normalizada ou um mapa de aplicação; baseado na pluralidade de imagens NDVI iniciais e na uma ou mais imagens adicionais diferentes, gerar uma ou mais recomendações agronômicas para a área; em que o processamento da pluralidade de imagens NDVI iniciais e da uma ou mais imagens diferentes é realizado em um ou mais dentre: a estação base (140) ou um sistema em nuvem.
22. Sistema, de acordo com a reivindicação 21, caracterizado pelo fato de que a estação base (140) é configurada ainda para: identificar fileiras de áreas acima de uma densidade de verdor esperada no mapa de emergência (600); dividir áreas acima da densidade de verdor esperada em áreas individuais em que cada uma corresponde a uma planta de uma pluralidade de plantas e é consistente com os dados de plantio; identificar estruturas de pelo menos uma planta dentre a pluralidade de plantas; calcular um rendimento estimado a partir de pelo menos uma planta dentre a pluralidade de plantas baseado nas estruturas identificadas; gerar um relatório que inclui o rendimento estimado.
BR112017003678-9A 2014-08-22 2015-08-20 Método e sistema para monitoramento agronômico e agrícola BR112017003678B1 (pt)

Applications Claiming Priority (7)

Application Number Priority Date Filing Date Title
US201462040859P 2014-08-22 2014-08-22
US62/040,859 2014-08-22
US201462046438P 2014-09-05 2014-09-05
US62/046,438 2014-09-05
US14/831,165 2015-08-20
PCT/US2015/046165 WO2016029054A1 (en) 2014-08-22 2015-08-20 Methods for agronomic and agricultural monitoring using unmanned aerial systems
US14/831,165 US9922405B2 (en) 2014-08-22 2015-08-20 Methods for agronomic and agricultural monitoring using unmanned aerial systems

Publications (2)

Publication Number Publication Date
BR112017003678A2 BR112017003678A2 (pt) 2020-10-27
BR112017003678B1 true BR112017003678B1 (pt) 2023-04-18

Family

ID=55347082

Family Applications (1)

Application Number Title Priority Date Filing Date
BR112017003678-9A BR112017003678B1 (pt) 2014-08-22 2015-08-20 Método e sistema para monitoramento agronômico e agrícola

Country Status (11)

Country Link
US (4) US9922405B2 (pt)
EP (1) EP3183697B1 (pt)
CN (1) CN107148633B (pt)
AU (1) AU2015305406B2 (pt)
BR (1) BR112017003678B1 (pt)
CA (2) CA3237917A1 (pt)
CL (1) CL2017000426A1 (pt)
CO (1) CO2017002677A2 (pt)
UA (1) UA123573C2 (pt)
WO (1) WO2016029054A1 (pt)
ZA (1) ZA201701638B (pt)

Families Citing this family (181)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9451745B1 (en) * 2012-09-21 2016-09-27 The United States Of America, As Represented By The Secretary Of Agriculture Multi-band photodiode sensor
US10234439B2 (en) * 2012-11-07 2019-03-19 Airscout Inc. Methods and systems for analyzing a field
US20150130936A1 (en) * 2013-11-08 2015-05-14 Dow Agrosciences Llc Crop monitoring system
CN109885080B (zh) 2013-11-27 2022-09-20 宾夕法尼亚大学理事会 自主控制系统及自主控制方法
US12007763B2 (en) 2014-06-19 2024-06-11 Skydio, Inc. Magic wand interface and other user interaction paradigms for a flying digital assistant
US9798322B2 (en) 2014-06-19 2017-10-24 Skydio, Inc. Virtual camera interface and other user interaction paradigms for a flying digital assistant
US9678506B2 (en) 2014-06-19 2017-06-13 Skydio, Inc. Magic wand interface and other user interaction paradigms for a flying digital assistant
CA3237917A1 (en) 2014-08-22 2016-02-25 Climate Llc Methods for agronomic and agricultural monitoring using unmanned aerial systems
US9618934B2 (en) * 2014-09-12 2017-04-11 4D Tech Solutions, Inc. Unmanned aerial vehicle 3D mapping system
CN105518415A (zh) * 2014-10-22 2016-04-20 深圳市大疆创新科技有限公司 一种飞行航线设置方法及装置
IL236606B (en) 2015-01-11 2020-09-30 Gornik Amihay Standards and methods for agricultural monitoring
EP3276544A1 (en) * 2016-07-29 2018-01-31 Accenture Global Solutions Limited Precision agriculture system
US9792557B2 (en) * 2015-01-14 2017-10-17 Accenture Global Services Limited Precision agriculture system
WO2016123201A1 (en) * 2015-01-27 2016-08-04 The Trustees Of The University Of Pennsylvania Systems, devices, and methods for robotic remote sensing for precision agriculture
US9922261B2 (en) * 2015-04-16 2018-03-20 Regents Of The University Of Minnesota Robotic surveying of fruit plants
US10139279B2 (en) * 2015-05-12 2018-11-27 BioSensing Systems, LLC Apparatuses and methods for bio-sensing using unmanned aerial vehicles
AU2016274391B2 (en) 2015-06-08 2020-08-13 Climate Llc Agricultural data analysis
WO2017004074A1 (en) 2015-06-30 2017-01-05 Precision Planting Llc Systems and methods for image capture and analysis of agricultural fields
CA2992426C (en) 2015-07-15 2023-09-12 The Climate Corporation Generating digital models of nutrients available to a crop over the course of the crop's development based on weather and soil data
US9745060B2 (en) * 2015-07-17 2017-08-29 Topcon Positioning Systems, Inc. Agricultural crop analysis drone
WO2017095493A2 (en) 2015-09-11 2017-06-08 The Trustees Of The University Of Pennsylvania Systems and methods for generating safe trajectories for multi-vehicle teams
US10321663B2 (en) 2015-09-24 2019-06-18 Digi-Star, Llc Agricultural drone for use in livestock monitoring
US10231441B2 (en) 2015-09-24 2019-03-19 Digi-Star, Llc Agricultural drone for use in livestock feeding
US9772395B2 (en) 2015-09-25 2017-09-26 Intel Corporation Vision and radio fusion based precise indoor localization
WO2017091768A1 (en) * 2015-11-23 2017-06-01 Kespry, Inc. Autonomous mission action alteration
US10540901B2 (en) 2015-11-23 2020-01-21 Kespry Inc. Autonomous mission action alteration
JP6654649B2 (ja) * 2015-12-14 2020-02-26 株式会社ニコン・トリンブル 欠陥検出装置及びプログラム
US10301019B1 (en) * 2015-12-17 2019-05-28 Amazon Technologies, Inc. Source location determination
US10262407B2 (en) * 2016-02-25 2019-04-16 Prospera Technologies, Ltd. System and method for efficient identification of developmental anomalies
DE102016004250A1 (de) 2016-04-08 2017-10-12 Liebherr-Components Biberach Gmbh Verfahren und Vorrichtung zum Steuern eines Krans, eines Baggers, einer Raupe oder einer ähnlichen Baumaschine
US10817754B2 (en) * 2016-04-27 2020-10-27 SlantRange, Inc. Systems and methods for object classification and selective compression in aerial imagery
US10435176B2 (en) 2016-05-25 2019-10-08 Skydio, Inc. Perimeter structure for unmanned aerial vehicle
CN105955294A (zh) * 2016-05-26 2016-09-21 北京大工科技有限公司 控制无人机植保作业的方法及装置
CN106054917A (zh) 2016-05-27 2016-10-26 广州极飞电子科技有限公司 一种无人飞行器的飞行控制方法、装置和遥控器
CN105979145A (zh) * 2016-06-22 2016-09-28 上海顺砾智能科技有限公司 提高无人机航拍影像质量的拍摄系统及拍摄方法
US9881214B1 (en) * 2016-07-13 2018-01-30 The Climate Corporation Generating pixel maps from non-image data and difference metrics for pixel maps
US10520943B2 (en) * 2016-08-12 2019-12-31 Skydio, Inc. Unmanned aerial image capture platform
US10089716B2 (en) 2016-09-03 2018-10-02 Microsoft Technology Licensing, Llc Generating real-time sensor maps from videos and in-ground sensor data
US10084868B2 (en) 2016-09-03 2018-09-25 Microsoft Technology Licensing, Llc IoT gateway for weakly connected settings
WO2018048387A1 (en) * 2016-09-07 2018-03-15 Precision Hawk Usa, Inc. Systems and methods for mapping emerged plants
CA3035197A1 (en) * 2016-09-08 2018-03-15 Walmart Apollo, Llc Systems and methods for identifying pests in crop-containing areas via unmanned vehicles
GB2568002A (en) * 2016-09-08 2019-05-01 Walmart Apollo Llc Systems and methods for identifying pests in crop-containing areas via unmanned vehicles based on crop damage detection
GB2568007A (en) 2016-09-08 2019-05-01 Walmart Apollo Llc Systems and methods for dispensing an insecticide via unmanned vehicles to defend a crop-containing area against pests
MX2019002715A (es) * 2016-09-09 2019-09-23 Walmart Apollo Llc Sistemas y metodos para monitoreo de un area geografica a traves del intercambio de sistemas utiles entre vehiculos no tripulados.
WO2018049289A1 (en) 2016-09-09 2018-03-15 Cibo Technologies, Inc. Systems for adjusting agronomic inputs using remote sensing, and related apparatus and methods
GB2568186A (en) 2016-09-09 2019-05-08 Walmart Apollo Llc Geographic area monitoring systems and methods utilizing computational sharing across multiple unmanned vehicles
MX2019002716A (es) 2016-09-09 2019-09-23 Walmart Apollo Llc Sistemas y metodos para monitoreo de un area geografica que equilibran el uso de energia entre multiples vehiculos no tripulados.
MX2019002712A (es) * 2016-09-09 2019-09-19 Walmart Apollo Llc Sistemas y metodos para acoplamiento intercambiable de sistemas utiles con vehiculos no tripulados.
US11538099B2 (en) 2016-09-21 2022-12-27 Iunu, Inc. Online data market for automated plant growth input curve scripts
US10635274B2 (en) 2016-09-21 2020-04-28 Iunu, Inc. Horticultural care tracking, validation and verification
US11244398B2 (en) 2016-09-21 2022-02-08 Iunu, Inc. Plant provenance and data products from computer object recognition driven tracking
US10791037B2 (en) 2016-09-21 2020-09-29 Iunu, Inc. Reliable transfer of numerous geographically distributed large files to a centralized store
US10627386B2 (en) 2016-10-12 2020-04-21 Aker Technologies, Inc. System for monitoring crops and soil conditions
CN110022674B (zh) * 2016-10-13 2022-04-01 麦凯恩食品有限公司 用于在作物图像中检测马铃薯病毒的方法、介质和系统
RU2718991C1 (ru) 2016-11-01 2020-04-15 Кинз Мэньюфэкчуринг, Инк. Блоки управления, узлы, система и способ для передачи и обмена данными
US10127450B2 (en) 2016-11-02 2018-11-13 Blue River Technology Inc. Plot gap identification
US10192112B2 (en) * 2016-11-02 2019-01-29 Blue River Technology Inc. Plot gap identification
US10901420B2 (en) * 2016-11-04 2021-01-26 Intel Corporation Unmanned aerial vehicle-based systems and methods for agricultural landscape modeling
US11183073B2 (en) 2016-11-29 2021-11-23 American Robotics Aircraft flight plan systems
US11295458B2 (en) 2016-12-01 2022-04-05 Skydio, Inc. Object tracking by an unmanned aerial vehicle using visual sensors
AU2018210985B2 (en) * 2017-01-23 2022-09-15 The Board Of Trustees Of The University Of Illinois Adaptive cyber-physical system for efficient monitoring of unstructured environments
US10909367B2 (en) * 2017-03-02 2021-02-02 Basecamp Networks, LLC Automated diagnosis and treatment of crop infestations
US10599959B2 (en) * 2017-04-05 2020-03-24 International Business Machines Corporation Automatic pest monitoring by cognitive image recognition with two cameras on autonomous vehicles
WO2018195093A1 (en) * 2017-04-17 2018-10-25 Jacob Barnes Three-dimensional image capturing system and method for obtaining three-dimensional images
US10537062B2 (en) 2017-05-26 2020-01-21 Cnh Industrial America Llc Aerial vehicle systems and methods
US9984455B1 (en) * 2017-06-05 2018-05-29 Hana Resources, Inc. Organism growth prediction system using drone-captured images
US11061155B2 (en) 2017-06-08 2021-07-13 Total Sa Method of dropping a plurality of probes intended to partially penetrate into a ground using a vegetation detection, and related system
IT201700067764A1 (it) * 2017-06-19 2018-12-19 Dinamica Generale S P A Apparato semovente per l’analisi e la gestione ottimale di campi destinati a coltivazioni agricole.
CA2972055C (en) 2017-06-29 2021-01-26 Conseiller Forestier Roy Inc. Airborne material spreading assembly and method for spreading material
US10642264B2 (en) * 2017-07-19 2020-05-05 Superior Communications, Inc. Security drone system
US11263707B2 (en) 2017-08-08 2022-03-01 Indigo Ag, Inc. Machine learning in agricultural planting, growing, and harvesting contexts
CA3073713A1 (en) * 2017-08-25 2019-02-28 The Board Of Trustees Of The University Of Illinois Apparatus and method for agricultural data collection and agricultural operations
CA3073291C (en) 2017-09-11 2023-01-17 Farmers Edge Inc. Generating a yield map for an agricultural field using classification and regression methods
US10983249B2 (en) 2017-09-14 2021-04-20 Farmers Edge Inc. Indicator interpolation to predict a weather state
CN107680084B (zh) * 2017-09-21 2021-11-19 中山乡游生态科技有限公司 一种现代化农业监测系统
US11442144B2 (en) * 2017-09-29 2022-09-13 Biotique Systems, Inc. System and method for automatically determining crop characteristics using unmanned aerial vehicle (UAV)
CN111201498A (zh) * 2017-10-11 2020-05-26 特里纳米克斯股份有限公司 自主机器人设备和相关的控制方法
EP3697686B1 (en) * 2017-10-17 2021-08-25 Basf Se Unmanned aerial vehicle for agricultural field assessment
BR112020008192B1 (pt) 2017-10-27 2024-02-15 Basf Se Aparelho e método para gerenciamento de plantas
RU2668319C1 (ru) * 2017-10-27 2018-09-28 Общество с ограниченной ответственностью "АгроДронГрупп" Способ и система обработки зон посева сельскохозяйственных культур на основании данных мониторинга
US10872534B2 (en) 2017-11-01 2020-12-22 Kespry, Inc. Aerial vehicle inspection path planning
US10725468B2 (en) * 2017-11-13 2020-07-28 Intel IP Corporation Bounding-volume based unmanned aerial vehicle illumination management system
US10779458B2 (en) 2017-12-01 2020-09-22 International Business Machines Corporation Monitoring aerial application tasks and recommending corrective actions
US10477756B1 (en) 2018-01-17 2019-11-19 Cibo Technologies, Inc. Correcting agronomic data from multiple passes through a farmable region
WO2019144298A1 (zh) * 2018-01-23 2019-08-01 深圳市大疆创新科技有限公司 辅助移动方法、移动装置及可移动平台
JP7060624B2 (ja) * 2018-01-26 2022-04-26 株式会社Nttドコモ 情報処理装置
US11062516B2 (en) 2018-02-07 2021-07-13 Iunu, Inc. Augmented reality based horticultural care tracking
US10769466B2 (en) * 2018-02-20 2020-09-08 International Business Machines Corporation Precision aware drone-based object mapping based on spatial pattern recognition
US10750733B1 (en) * 2018-02-28 2020-08-25 Espen Garner Autonomous insect carrier
JP6914874B2 (ja) * 2018-03-14 2021-08-04 株式会社ゼンリンデータコム 飛行経路生成装置及び飛行経路生成方法
US11205073B2 (en) 2018-03-30 2021-12-21 Greensight Agronomics, Inc. System to automatically detect and report changes over time in a large imaging data set
US11116145B2 (en) 2018-03-30 2021-09-14 Greensight Argonomics, Inc. Automated optimization of agricultural treatments based on raster image data system
US10929664B2 (en) * 2018-03-30 2021-02-23 Iunu, Inc. Visual observer of unmanned aerial vehicle for monitoring horticultural grow operations
US11235874B2 (en) 2018-03-30 2022-02-01 Greensight Agronomics, Inc. Automated drone-based spraying system
CN108537164B (zh) * 2018-04-08 2020-08-28 北京农业智能装备技术研究中心 基于无人机遥感的点穴播种出芽率监测方法与装置
US20190325466A1 (en) 2018-04-24 2019-10-24 Indigo Ag, Inc. Satellite-based agricultural modeling
US11373399B2 (en) * 2018-07-26 2022-06-28 Hall Enterprise Llc Method of crop analysis using drone with flying and driving capability
US20210295712A1 (en) * 2018-08-06 2021-09-23 Beijing Xiaomi Mobile Software Co., Ltd. Method and device for configuring flight path
US10660277B2 (en) * 2018-09-11 2020-05-26 Pollen Systems Corporation Vine growing management method and apparatus with autonomous vehicles
US10779476B2 (en) 2018-09-11 2020-09-22 Pollen Systems Corporation Crop management method and apparatus with autonomous vehicles
CN109445457B (zh) * 2018-10-18 2021-05-14 广州极飞科技股份有限公司 分布信息的确定方法、无人飞行器的控制方法及装置
US11256916B2 (en) 2018-10-19 2022-02-22 The Climate Corporation Machine learning techniques for identifying clouds and cloud shadows in satellite imagery
CA3116881A1 (en) 2018-10-19 2020-04-23 The Climate Corporation Detecting infection of plant diseases by classifying plant photos
US10713542B2 (en) 2018-10-24 2020-07-14 The Climate Corporation Detection of plant diseases with multi-stage, multi-scale deep learning
US11178818B2 (en) 2018-10-26 2021-11-23 Deere & Company Harvesting machine control system with fill level processing based on yield data
US11240961B2 (en) 2018-10-26 2022-02-08 Deere & Company Controlling a harvesting machine based on a geo-spatial representation indicating where the harvesting machine is likely to reach capacity
US11589509B2 (en) 2018-10-26 2023-02-28 Deere & Company Predictive machine characteristic map generation and control system
US11641800B2 (en) 2020-02-06 2023-05-09 Deere & Company Agricultural harvesting machine with pre-emergence weed detection and mitigation system
US11653588B2 (en) 2018-10-26 2023-05-23 Deere & Company Yield map generation and control system
US11079725B2 (en) 2019-04-10 2021-08-03 Deere & Company Machine control using real-time model
US11957072B2 (en) 2020-02-06 2024-04-16 Deere & Company Pre-emergence weed detection and mitigation system
US11672203B2 (en) 2018-10-26 2023-06-13 Deere & Company Predictive map generation and control
US11467605B2 (en) 2019-04-10 2022-10-11 Deere & Company Zonal machine control
CA3119812A1 (en) * 2018-12-10 2020-06-18 The Climate Corporation Mapping field anomalies using digital images and machine learning models
US20200217830A1 (en) 2019-01-08 2020-07-09 AgroScout Ltd. Autonomous crop monitoring system and method
US11001380B2 (en) * 2019-02-11 2021-05-11 Cnh Industrial Canada, Ltd. Methods for acquiring field condition data
US11059582B2 (en) 2019-02-11 2021-07-13 Cnh Industrial Canada, Ltd. Systems for acquiring field condition data
CN113767472A (zh) 2019-03-04 2021-12-07 克莱米特公司 用于农业智能计算系统的数据存储和传送设备
US11009625B2 (en) * 2019-03-27 2021-05-18 The Climate Corporation Generating and conveying comprehensive weather insights at fields for optimal agricultural decision making
US11234366B2 (en) 2019-04-10 2022-02-01 Deere & Company Image selection for machine control
US11778945B2 (en) 2019-04-10 2023-10-10 Deere & Company Machine control using real-time model
CN109977924A (zh) * 2019-04-15 2019-07-05 北京麦飞科技有限公司 针对农作物的无人机机上实时图像处理方法及系统
US11170218B2 (en) * 2019-05-13 2021-11-09 Deere & Company Mobile work machine control system with terrain image analysis
US11553640B2 (en) 2019-06-11 2023-01-17 Cnh Industrial Canada, Ltd. Agricultural wear monitoring system
CN110222903B (zh) * 2019-06-13 2021-08-31 苏州市农业科学院 一种基于无人机遥感的水稻产量预测方法及系统
US11778934B2 (en) * 2019-07-02 2023-10-10 Bear Flag Robotics, Inc. Agricultural lane following
KR102101355B1 (ko) * 2019-07-08 2020-04-17 주식회사 이노드 농업용 무인 이동체 및 이의 방제 약품 잔량 측정 시스템
US11440659B2 (en) * 2019-09-12 2022-09-13 National Formosa University Precision agriculture implementation method by UAV systems and artificial intelligence image processing technologies
WO2021062147A1 (en) 2019-09-27 2021-04-01 Indigo Ag, Inc. Modeling field irrigation with remote sensing imagery
US11868145B1 (en) * 2019-09-27 2024-01-09 Amazon Technologies, Inc. Selecting safe flight routes based on localized population densities and ground conditions
US20210149406A1 (en) * 2019-11-20 2021-05-20 FarmWise Labs, Inc. Method for analyzing individual plants in an agricultural field
US11585960B2 (en) * 2019-12-04 2023-02-21 International Business Machines Corporation Effective agriculture and environment monitoring
EP4072940A4 (en) 2019-12-11 2024-01-03 Climate LLC HIGHLY SENSITIVE AGRICULTURE SYSTEMS WITH EXTRAORDINARY OPTIMIZATION IN SEASON
US11583882B2 (en) * 2020-02-13 2023-02-21 Cnh Industrial America Llc System and method for controlling the ground speed of an agricultural sprayer based on a spray quality parameter
AR121386A1 (es) * 2020-02-21 2022-06-01 Climate Corp Señalización de diferencias operacionales en implementos agrícolas
US11495016B2 (en) * 2020-03-11 2022-11-08 Aerobotics (Pty) Ltd Systems and methods for predicting crop size and yield
US11656624B2 (en) 2020-03-25 2023-05-23 Iunu, Inc. Horticulture aided by autonomous systems
US11730089B2 (en) * 2020-03-25 2023-08-22 Iunu, Inc. Horticulture aided by autonomous systems
US11720980B2 (en) 2020-03-25 2023-08-08 Iunu, Inc. Crowdsourced informatics for horticultural workflow and exchange
US11477940B2 (en) 2020-03-26 2022-10-25 Deere & Company Mobile work machine control based on zone parameter modification
US11579611B1 (en) * 2020-03-30 2023-02-14 Amazon Technologies, Inc. Predicting localized population densities for generating flight routes
US11640764B1 (en) 2020-06-01 2023-05-02 Amazon Technologies, Inc. Optimal occupancy distribution for route or path planning
US11620821B2 (en) 2020-06-25 2023-04-04 GEOSAT Aerospace & Technology Apparatus and method for image-guided agriculture
US11580730B2 (en) * 2020-06-25 2023-02-14 GEOSAT Aerospace & Technology Apparatus and method for image-guided agriculture
US11487047B2 (en) 2020-07-15 2022-11-01 International Business Machines Corporation Forecasting environmental occlusion events
EP4185992A1 (en) 2020-07-21 2023-05-31 Indigo Ag, Inc. Remote sensing algorithms for mapping regenerative agriculture
CN111918030B (zh) * 2020-07-22 2022-07-01 南京科沃云计算信息技术有限公司 一种基于边缘计算的农作物病虫害识别系统及其识别方法
TWI778391B (zh) * 2020-07-28 2022-09-21 中華電信股份有限公司 無人機控制方法及無人機控制裝置
US11849671B2 (en) 2020-10-09 2023-12-26 Deere & Company Crop state map generation and control system
US11849672B2 (en) 2020-10-09 2023-12-26 Deere & Company Machine control using a predictive map
US11946747B2 (en) 2020-10-09 2024-04-02 Deere & Company Crop constituent map generation and control system
US11727680B2 (en) 2020-10-09 2023-08-15 Deere & Company Predictive map generation based on seeding characteristics and control
US11675354B2 (en) 2020-10-09 2023-06-13 Deere & Company Machine control using a predictive map
US11983009B2 (en) 2020-10-09 2024-05-14 Deere & Company Map generation and control system
US11592822B2 (en) 2020-10-09 2023-02-28 Deere & Company Machine control using a predictive map
US11927459B2 (en) 2020-10-09 2024-03-12 Deere & Company Machine control using a predictive map
US11864483B2 (en) 2020-10-09 2024-01-09 Deere & Company Predictive map generation and control system
US11825768B2 (en) 2020-10-09 2023-11-28 Deere & Company Machine control using a predictive map
US11711995B2 (en) 2020-10-09 2023-08-01 Deere & Company Machine control using a predictive map
US11889788B2 (en) 2020-10-09 2024-02-06 Deere & Company Predictive biomass map generation and control
US11650587B2 (en) 2020-10-09 2023-05-16 Deere & Company Predictive power map generation and control system
US11635765B2 (en) 2020-10-09 2023-04-25 Deere & Company Crop state map generation and control system
US11871697B2 (en) 2020-10-09 2024-01-16 Deere & Company Crop moisture map generation and control system
US11474523B2 (en) 2020-10-09 2022-10-18 Deere & Company Machine control using a predictive speed map
US11895948B2 (en) 2020-10-09 2024-02-13 Deere & Company Predictive map generation and control based on soil properties
US12013245B2 (en) 2020-10-09 2024-06-18 Deere & Company Predictive map generation and control system
US11845449B2 (en) 2020-10-09 2023-12-19 Deere & Company Map generation and control system
US11844311B2 (en) 2020-10-09 2023-12-19 Deere & Company Machine control using a predictive map
US11874669B2 (en) 2020-10-09 2024-01-16 Deere & Company Map generation and control system
US11889787B2 (en) 2020-10-09 2024-02-06 Deere & Company Predictive speed map generation and control system
CN113966514A (zh) * 2020-10-27 2022-01-21 深圳市大疆创新科技有限公司 用于农业无人飞行器仿地作业的方法和农业无人飞行器
CA3117042A1 (en) 2021-05-03 2022-11-03 AIRM Consulting Ltd. Computer vision system and method for agriculture
ES2930548A1 (es) * 2021-06-02 2022-12-15 Consejo Superior Investigacion Mapeo de surcos de laboreo
WO2023034118A1 (en) 2021-08-30 2023-03-09 Indigo Ag, Inc. Systems for management of location-aware market data
CA3230474A1 (en) 2021-08-31 2023-03-09 Eleanor Elizabeth Campbell Systems and methods for ecosystem credit recommendations
CN114067455B (zh) * 2021-11-15 2023-08-29 李政力 一种城市园林绿化智能巡管方法
US11542003B1 (en) * 2022-03-22 2023-01-03 Beta Air, Llc Systems and methods for remote pilot control of an electric aircraft
CN115225870B (zh) * 2022-09-21 2022-11-22 北京瞭望神州科技有限公司 基于数据处理的耕地智保远程监控方法及监控系统
CN116737729B (zh) * 2023-04-18 2024-01-19 速度科技股份有限公司 基于土壤墒情进行土壤分布地图的实时在线矫正方法
CN116931601B (zh) * 2023-07-25 2024-02-20 苏州瀚易特信息技术股份有限公司 一种基于无人机的航拍摄影摄像控制系统
CN117952877B (zh) * 2024-03-26 2024-06-21 松立控股集团股份有限公司 一种基于层次化结构建模的低质图像矫正方法

Family Cites Families (29)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6529615B2 (en) * 1997-10-10 2003-03-04 Case Corporation Method of determining and treating the health of a crop
US20100004802A1 (en) * 2005-01-25 2010-01-07 William Kress Bodin Navigating UAVS with an on-board digital camera
CN100541120C (zh) * 2005-10-10 2009-09-16 中国农业机械化科学研究院 一种蝗灾超低空预警系统及其田间蝗虫自动识别方法
US9195891B2 (en) * 2006-11-07 2015-11-24 The Curators Of The University Of Missouri Method of predicting crop yield loss due to n-deficiency
US7911517B1 (en) * 2007-10-31 2011-03-22 The United States Of America As Represented By The Secretary Of Agriculture Device and method for acquiring digital color-infrared photographs for monitoring vegetation
AU2008322565B9 (en) * 2007-11-14 2014-04-10 Intergraph Software Technologies Company Method and apparatus of taking aerial surveys
US8675068B2 (en) * 2008-04-11 2014-03-18 Nearmap Australia Pty Ltd Systems and methods of capturing large area images in detail including cascaded cameras and/or calibration features
WO2009149394A1 (en) * 2008-06-06 2009-12-10 Monsanto Technology Llc Generating agricultural information products using remote sensing
CN102246159A (zh) * 2008-12-09 2011-11-16 通腾北美有限公司 产生测地参考数据库产品的方法
US9058633B2 (en) * 2010-10-25 2015-06-16 Trimble Navigation Limited Wide-area agricultural monitoring and prediction
US9213905B2 (en) * 2010-10-25 2015-12-15 Trimble Navigation Limited Automatic obstacle location mapping
US10115158B2 (en) * 2010-10-25 2018-10-30 Trimble Inc. Generating a crop recommendation
US20120101784A1 (en) 2010-10-25 2012-04-26 Trimble Navigation Limited Wide-area agricultural monitoring and prediction
US9354216B2 (en) * 2011-11-07 2016-05-31 Brian Harold Sutton Infrared aerial thermography for use in determining plant health
US9113590B2 (en) * 2012-08-06 2015-08-25 Superior Edge, Inc. Methods, apparatus, and systems for determining in-season crop status in an agricultural crop and alerting users
US20140089045A1 (en) * 2012-09-27 2014-03-27 Superior Edge, Inc. Methods, apparatus and systems for determining stand population, stand consistency and stand quality in an agricultural crop and alerting users
US9235763B2 (en) * 2012-11-26 2016-01-12 Trimble Navigation Limited Integrated aerial photogrammetry surveys
US9075415B2 (en) * 2013-03-11 2015-07-07 Airphrame, Inc. Unmanned aerial vehicle and methods for controlling same
US20140312165A1 (en) * 2013-03-15 2014-10-23 Armen Mkrtchyan Methods, apparatus and systems for aerial assessment of ground surfaces
US9382003B2 (en) 2013-03-24 2016-07-05 Bee Robotics Corporation Aerial farm robot system for crop dusting, planting, fertilizing and other field jobs
US9147110B2 (en) * 2013-04-05 2015-09-29 Pioneer Hi-Bred International, Inc. Field and crop evaluation tool and methods of use
US9798928B2 (en) * 2013-07-17 2017-10-24 James L Carr System for collecting and processing aerial imagery with enhanced 3D and NIR imaging capability
CN103425102A (zh) * 2013-07-30 2013-12-04 上海丰凸通讯科技有限公司 基于低空遥感、多光谱精准识别的智能施肥系统
CN103523224A (zh) * 2013-10-31 2014-01-22 无锡同春新能源科技有限公司 一种带彩色稻病图像识别仪防治水稻白叶枯病的无人机
US20150254800A1 (en) * 2014-03-06 2015-09-10 F12 Solutions, Llc Nitrogen status determination in growing crops
US10089766B2 (en) * 2014-03-28 2018-10-02 Konica Minolta Laboratory U.S.A., Inc Method and system of stitching aerial data using information from previous aerial images
US9390331B2 (en) * 2014-04-15 2016-07-12 Open Range Consulting System and method for assessing riparian habitats
US9401030B2 (en) * 2014-04-25 2016-07-26 Tazco Soil Service Co. Image processing system for soil characterization
CA3237917A1 (en) 2014-08-22 2016-02-25 Climate Llc Methods for agronomic and agricultural monitoring using unmanned aerial systems

Also Published As

Publication number Publication date
US11651478B2 (en) 2023-05-16
UA123573C2 (uk) 2021-04-28
CN107148633B (zh) 2020-12-01
EP3183697A1 (en) 2017-06-28
CA3237917A1 (en) 2016-02-25
US20210217148A1 (en) 2021-07-15
US20190333195A1 (en) 2019-10-31
BR112017003678A2 (pt) 2020-10-27
CO2017002677A2 (es) 2017-06-09
EP3183697B1 (en) 2022-01-12
US10902566B2 (en) 2021-01-26
CN107148633A (zh) 2017-09-08
CA2957081C (en) 2024-06-25
AU2015305406A1 (en) 2017-03-23
CL2017000426A1 (es) 2018-03-02
EP3183697A4 (en) 2018-03-28
CA2957081A1 (en) 2016-02-25
US20160050840A1 (en) 2016-02-25
WO2016029054A1 (en) 2016-02-25
AU2015305406B2 (en) 2020-09-10
US20180158179A1 (en) 2018-06-07
US10346958B2 (en) 2019-07-09
US9922405B2 (en) 2018-03-20
ZA201701638B (en) 2018-06-27

Similar Documents

Publication Publication Date Title
US11651478B2 (en) Methods for agronomic and agricultural monitoring using unmanned aerial systems
Matese et al. Assessment of a canopy height model (CHM) in a vineyard using UAV-based multispectral imaging
US20190253673A1 (en) Systems and methods for agricultural monitoring
Katsigiannis et al. An autonomous multi-sensor UAV system for reduced-input precision agriculture applications
EP3697686B1 (en) Unmanned aerial vehicle for agricultural field assessment
US20180348760A1 (en) Automatic Change Detection System
Ehsani et al. The rise of small UAVs in precision agriculture
Torres-Sánchez et al. Imagery from unmanned aerial vehicles for early site specific weed management
US20240166349A1 (en) Methods and Systems for Cloud-Based Management of Images Captured by Aerial Vehicles
Heaphy et al. UAVs for data collection-plugging the gap
Tahir et al. Application of unmanned aerial vehicles in precision agriculture
Jiménez López et al. Crops diagnosis using digital image processing and precision agriculture technologies
Naumann Exploration of tropical landscape structures by an unmanned aerial vehicle in Sumatra
Delparte et al. sUAS for Wildlife Conservation–Assessing Habitat Quality of the Endangered Black-Footed Ferret
Collins et al. Using Flight and Field Datasets with Digital Photogrammetric Systems to Assess the Accuracy of a UAS Sensor Platform for Mapping Geospatial Input Treatment Zones
Torres-Sánchez et al. WEED SEEDLINGS DETECTION IN WINTER CEREALS FOR SITE-SPECIFIC CONTROL: USE OF UAV IMAGERY TO OVERCOME THE CHALLENGE
Hensh Application of Drone in Agriculture: An Overview

Legal Events

Date Code Title Description
B06F Objections, documents and/or translations needed after an examination request according [chapter 6.6 patent gazette]
B06U Preliminary requirement: requests with searches performed by other patent offices: procedure suspended [chapter 6.21 patent gazette]
B350 Update of information on the portal [chapter 15.35 patent gazette]
B07A Application suspended after technical examination (opinion) [chapter 7.1 patent gazette]
B09A Decision: intention to grant [chapter 9.1 patent gazette]
B16A Patent or certificate of addition of invention granted [chapter 16.1 patent gazette]

Free format text: PRAZO DE VALIDADE: 20 (VINTE) ANOS CONTADOS A PARTIR DE 20/08/2015, OBSERVADAS AS CONDICOES LEGAIS

B25D Requested change of name of applicant approved

Owner name: CLIMATE LLC (US)

B25G Requested change of headquarter approved

Owner name: CLIMATE LLC (US)