BR102021016704A2 - Máquina agrícola, método realizado por uma máquina agrícola, e, sistema de controle para uma máquina agrícola - Google Patents

Máquina agrícola, método realizado por uma máquina agrícola, e, sistema de controle para uma máquina agrícola Download PDF

Info

Publication number
BR102021016704A2
BR102021016704A2 BR102021016704-1A BR102021016704A BR102021016704A2 BR 102021016704 A2 BR102021016704 A2 BR 102021016704A2 BR 102021016704 A BR102021016704 A BR 102021016704A BR 102021016704 A2 BR102021016704 A2 BR 102021016704A2
Authority
BR
Brazil
Prior art keywords
image
agricultural
image processing
agricultural machine
user interface
Prior art date
Application number
BR102021016704-1A
Other languages
English (en)
Inventor
Michelle Kwak
Devin L. Magnus
Barbra CAVANAUGH
Peter D. Martinson
Andrea Maria Anna Agarwal
Michael Carley
Original Assignee
Deere & Company
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Deere & Company filed Critical Deere & Company
Publication of BR102021016704A2 publication Critical patent/BR102021016704A2/pt

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • G06V20/188Vegetation
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B05SPRAYING OR ATOMISING IN GENERAL; APPLYING FLUENT MATERIALS TO SURFACES, IN GENERAL
    • B05BSPRAYING APPARATUS; ATOMISING APPARATUS; NOZZLES
    • B05B1/00Nozzles, spray heads or other outlets, with or without auxiliary devices such as valves, heating means
    • B05B1/14Nozzles, spray heads or other outlets, with or without auxiliary devices such as valves, heating means with multiple outlet openings; with strainers in or outside the outlet opening
    • B05B1/20Arrangements of several outlets along elongated bodies, e.g. perforated pipes or troughs, e.g. spray booms; Outlet elements therefor
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B05SPRAYING OR ATOMISING IN GENERAL; APPLYING FLUENT MATERIALS TO SURFACES, IN GENERAL
    • B05BSPRAYING APPARATUS; ATOMISING APPARATUS; NOZZLES
    • B05B12/00Arrangements for controlling delivery; Arrangements for controlling the spray area
    • B05B12/08Arrangements for controlling delivery; Arrangements for controlling the spray area responsive to condition of liquid or other fluent material to be discharged, of ambient medium or of target ; responsive to condition of spray devices or of supply means, e.g. pipes, pumps or their drive means
    • B05B12/12Arrangements for controlling delivery; Arrangements for controlling the spray area responsive to condition of liquid or other fluent material to be discharged, of ambient medium or of target ; responsive to condition of spray devices or of supply means, e.g. pipes, pumps or their drive means responsive to conditions of ambient medium or target, e.g. humidity, temperature position or movement of the target relative to the spray apparatus
    • B05B12/122Arrangements for controlling delivery; Arrangements for controlling the spray area responsive to condition of liquid or other fluent material to be discharged, of ambient medium or of target ; responsive to condition of spray devices or of supply means, e.g. pipes, pumps or their drive means responsive to conditions of ambient medium or target, e.g. humidity, temperature position or movement of the target relative to the spray apparatus responsive to presence or shape of target
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • G06F3/147Digital output to display device ; Cooperation and interconnection of the display device with other functional units using display panels
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/25Determination of region of interest [ROI] or a volume of interest [VOI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/90Arrangement of cameras or camera modules, e.g. multiple cameras in TV studios or sports stadiums
    • AHUMAN NECESSITIES
    • A01AGRICULTURE; FORESTRY; ANIMAL HUSBANDRY; HUNTING; TRAPPING; FISHING
    • A01BSOIL WORKING IN AGRICULTURE OR FORESTRY; PARTS, DETAILS, OR ACCESSORIES OF AGRICULTURAL MACHINES OR IMPLEMENTS, IN GENERAL
    • A01B79/00Methods for working soil
    • A01B79/005Precision agriculture
    • AHUMAN NECESSITIES
    • A01AGRICULTURE; FORESTRY; ANIMAL HUSBANDRY; HUNTING; TRAPPING; FISHING
    • A01CPLANTING; SOWING; FERTILISING
    • A01C23/00Distributing devices specially adapted for liquid manure or other fertilising liquid, including ammonia, e.g. transport tanks or sprinkling wagons
    • A01C23/007Metering or regulating systems
    • AHUMAN NECESSITIES
    • A01AGRICULTURE; FORESTRY; ANIMAL HUSBANDRY; HUNTING; TRAPPING; FISHING
    • A01MCATCHING, TRAPPING OR SCARING OF ANIMALS; APPARATUS FOR THE DESTRUCTION OF NOXIOUS ANIMALS OR NOXIOUS PLANTS
    • A01M7/00Special adaptations or arrangements of liquid-spraying apparatus for purposes covered by this subclass
    • A01M7/0003Atomisers or mist blowers
    • A01M7/0007Atomisers or mist blowers mounted on a frame and guided by hand; Atomiser barrow
    • AHUMAN NECESSITIES
    • A01AGRICULTURE; FORESTRY; ANIMAL HUSBANDRY; HUNTING; TRAPPING; FISHING
    • A01MCATCHING, TRAPPING OR SCARING OF ANIMALS; APPARATUS FOR THE DESTRUCTION OF NOXIOUS ANIMALS OR NOXIOUS PLANTS
    • A01M7/00Special adaptations or arrangements of liquid-spraying apparatus for purposes covered by this subclass
    • A01M7/0089Regulating or controlling systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Environmental Sciences (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Zoology (AREA)
  • Soil Sciences (AREA)
  • Wood Science & Technology (AREA)
  • Insects & Arthropods (AREA)
  • Pest Control & Pesticides (AREA)
  • Mechanical Engineering (AREA)
  • Human Computer Interaction (AREA)
  • Signal Processing (AREA)
  • General Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)
  • Catching Or Destruction (AREA)
  • Investigating Materials By The Use Of Optical Means Adapted For Particular Applications (AREA)
  • Coating Apparatus (AREA)

Abstract

Uma máquina agrícola inclui um sistema de aplicação de produto que compreende uma pluralidade de mecanismos aplicadores atuáveis. Cada mecanismo aplicador atuável é configurado para aplicar uma substância em uma superfície agrícola. Um sistema de formação de imagem inclui um componente de captura de formação de imagem configurado para capturar uma imagem de matéria vegetal na superfície agrícola e um módulo de processamento de imagem configurado para determinar uma característica da matéria vegetal com base na imagem. Um sistema de controle é configurado para controlar um ou mais dos mecanismos aplicadores atuáveis para aplicar a substância na superfície agrícola com base na característica determinada, obter dados de diagnóstico indicativos de operação do sistema de formação de imagem e gerar um visor de interface de usuário que exibe uma representação dos dados de diagnóstico.

Description

MÁQUINA AGRÍCOLA, MÉTODO REALIZADO POR UMA MÁQUINA AGRÍCOLA, E, SISTEMA DE CONTROLE PARA UMA MÁQUINA AGRÍCOLA REFERÊNCIA CRUZADA A PEDIDO RELACIONADO
[001] O presente pedido tem como base e reivindica o benefício do pedido de patente provisório nº de série US 63/107.672, depositado em 30 de outubro de 2020, cujo conteúdo é aqui incorporado a título de referência em sua totalidade.
CAMPO DA DESCRIÇÃO
[002] A presente descrição refere-se geralmente a aspersores agrícolas ou outros aplicadores agrícolas que aplicam uma substância a um campo. Mais especificamente, mas sem limitação, a presente descrição se refere à visualização e controle de um aspersor agrícola ou outra máquina aplicadora.
FUNDAMENTOS
[003] Existem muitos tipos diferentes de máquinas agrícolas. Uma dessas máquinas é uma máquina aplicadora agrícola configurada para aplicar uma substância agrícola (formas líquidas ou secas) a um campo. Um exemplo de máquina aplicadora agrícola inclui uma máquina de aspersão agrícola ou aspersor. Um aspersor agrícola, por exemplo, geralmente inclui um tanque ou reservatório que contém uma substância a ser aspergida em um campo agrícola. Esses sistemas normalmente incluem uma linha de abastecimento ou conduto montado em uma barra dobrável, articulada ou retrátil e extensível. A linha de abastecimento é acoplada a um ou mais bocais de aspersão montados ao longo da barra. Cada bocal de aspersão é configurado para receber a substância e direcionar a substância para uma cultura ou campo durante a aplicação. Conforme o aspersor se desloca pelo campo, a barra é movida para uma posição desdobrada e a substância é bombeada do tanque ou reservatório, através dos bocais, de modo que seja aspergida ou aplicada ao campo sobre o qual o aspersor está se deslocando.
[004] A discussão acima é fornecida apenas para informações gerais de fundamento e não se destina a ser usada como um auxílio na determinação do escopo da matéria reivindicada.
SUMÁRIO
[005] Uma máquina agrícola inclui um sistema de aplicação de produto que compreende uma pluralidade de mecanismos aplicadores atuáveis. Cada mecanismo aplicador atuável configurado para aplicar uma substância em um campo. Um sistema de imagem é configurado para obter dados de imagem indicativos de matéria vegetal no campo. Um sistema de controle é configurado para controlar um ou mais dos mecanismos aplicadores atuáveis para aplicar a substância a uma área de dispersão no campo com base nos dados de imagem, e gerar uma tela de interface de usuário que exibe um mapa de campo que inclui um elemento de exibição que representa a área de dispersão no campo.
[006] Este Sumário é fornecido para apresentar uma seleção de conceitos em uma forma simplificada que é descrita abaixo na Descrição Detalhada. Este Sumário não se destina a identificar recursos importantes ou recursos essenciais da matéria reivindicada, nem se destina a ser usado como auxílio na determinação do escopo da matéria reivindicada. A matéria reivindicada não se limita a implementações que resolvem qualquer ou todas as desvantagens observadas nos fundamentos.
BREVE DESCRIÇÃO DOS DESENHOS
[007] A Figura 1 ilustra uma máquina de aspersão agrícola exemplificadora.
[008] A Figura 2 é um diagrama de blocos de um exemplo de uma arquitetura de máquina agrícola.
[009] A Figura 3-1 ilustra um exemplo de operação de aspersão por difusão.
[0010] A Figura 3-2 ilustra um exemplo de operação de aspersão baseada em imagem.
[0011] A Figura 4 é um diagrama de blocos que ilustra um exemplo de um controlador de sistema de imagem.
[0012] As Figuras 5-1, 5-2 e 5-3 (coletivamente referidas como Figura 5) fornecem um fluxograma que ilustra um exemplo de operação de um sistema de visualização e controle para uma máquina de aspersão agrícola.
[0013] A Figura 6 ilustra um exemplo de uma tela de interface de usuário.
[0014] A Figura 7 ilustra um exemplo de uma tela de interface do usuário.
[0015] A Figura 8 ilustra um exemplo de uma tela de interface de usuário
[0016] A Figura 9 ilustra um exemplo de uma tela de interface do usuário.
[0017] A Figura 10 ilustra um exemplo de uma tela de interface de usuário.
[0018] A Figura 11 é um diagrama de blocos que ilustra um exemplo de um sistema de diagnóstico.
[0019] A Figura 12 fornece um fluxograma que ilustra um exemplo de operação de uma máquina agrícola na obtenção e visualização de dados de diagnóstico em relação às operações de aspersão com base em imagem.
[0020] A Figura 13 ilustra um exemplo de uma tela de interface de usuário.
[0021] A Figura 14 ilustra um exemplo de uma tela de interface de usuário.
[0022] A Figura 15 ilustra um exemplo de uma tela de interface de usuário.
[0023] A Figura 16 ilustra um exemplo de uma tela de interface de usuário.
[0024] A Figura 17 ilustra um exemplo de uma tela de interface de usuário.
[0025] A Figura 18 é um diagrama de blocos que ilustra um exemplo de um gerador de mapa de campo de modo de aspersão.
[0026] A Figura 19 fornece um fluxograma que ilustra um exemplo de operação de uma máquina agrícola para gerar um mapa de campo que representa as operações de aspersão.
[0027] A Figura 20 ilustra um exemplo de uma tela de interface de usuário.
[0028] A Figura 21 é um diagrama de blocos que mostra um exemplo da arquitetura ilustrada na Figura 2, implantado em uma arquitetura de servidor remoto
[0029] As Figuras 22 a 24 mostram exemplos de dispositivos móveis que podem ser usados nas arquiteturas mostradas nas figuras anteriores.
[0030] A Figura 25 é um diagrama de blocos que mostra um exemplo de um ambiente de computação que pode ser usado nas arquiteturas mostradas nas figuras anteriores.
DESCRIÇÃO DETALHADA
[0031] A presente descrição geralmente se refere a aspersores agrícolas ou máquinas aplicadoras que aplicam uma substância (formas líquidas ou secas) a um campo. Embora aspectos da presente descrição sejam descritos abaixo no contexto de uma máquina de aspersão agrícola configurada para pulverizar uma substância líquida, as presentes características também podem ser usadas com máquinas aplicadoras que aplicam substâncias secas.
[0032] A Figura 1 ilustra um exemplo de uma máquina de aspersão agrícola (ou aspersor agrícola) 100. A máquina 100 inclui um sistema de aspersão 102 que tem pelo menos um tanque 104 que contém um líquido que deve ser aplicado a um campo 106. O tanque 104 está fluidamente acoplado aos bocais de aspersão 108 por um sistema de distribuição que compreende um conjunto de condutos. Uma bomba de fluido é configurada para bombear o líquido do tanque (ou tanques) 104 através dos condutos através dos bocais 108. Os bocais de aspersão 108 são acoplados e espaçados ao longo da barra 110. A barra 110 inclui braços 112 e 114 que podem se articular ou pivotar em relação a uma estrutura central 116. Dessa forma, os braços 112 e 114 são móveis entre uma posição de armazenamento ou transporte e uma posição estendida ou desdobrada (mostrada na Figura 1). A máquina 100 inclui um compartimento do operador 118, um sistema de direção 120 que inclui um conjunto de rodas 122 ou outros elementos de tração e um sistema de propulsão 124 (por exemplo, motor de combustão interna).
[0033] A Figura 2 é um diagrama de blocos que ilustra um exemplo de arquitetura de máquina agrícola 200 que inclui máquina de aspersão agrícola 100. Observa-se que, embora a máquina de aspersão agrícola 100 seja ilustrada como uma máquina autopropelida no presente exemplo, em outros exemplos a máquina de aspersão 100 pode incluir um implemento rebocado acoplado a uma máquina de reboque 202. Um exemplo de máquina de reboque 202 inclui um trator que é acoplado à máquina 100 através de uma ou mais ligações 204 (elétrica, mecânica, pneumática, etc.).
[0034] A máquina 100 inclui um sistema de visualização e controle 206 (também referido como sistema de controle 206) configurado para controlar outros componentes e sistemas da máquina 100. Por exemplo, o sistema de controle 206 inclui um controlador de comunicação 208 configurado para controlar o sistema de comunicação 210 para comunicar-se entre os componentes da máquina 100 e/ou com outras máquinas ou sistemas, como o sistema de computação remoto 212 e/ou máquina (ou máquinas) 216, diretamente ou através de uma rede 214. A rede 214 pode ser qualquer dentre uma ampla variedade de tipos diferentes de redes como a Internet, uma rede celular, uma rede de área local, uma rede de comunicação de campo próximo ou qualquer uma de uma ampla variedade de outras redes ou combinações de redes ou sistemas de comunicação.
[0035] Um usuário remoto 218 é ilustrado interagindo com o sistema de computação remoto 212. O sistema de computação remoto 212 pode ser uma grande variedade de diferentes tipos de sistemas de computação. Por exemplo, o sistema de computação remoto 212 pode incluir ambiente de servidor remoto que é usado pelo usuário remoto 218. Adicionalmente, pode incluir um dispositivo móvel, rede remota ou uma ampla variedade de outros sistemas remotos. O sistema de computação remoto 212 pode incluir um ou mais processadores ou servidores, um armazenamento de dados e pode incluir outros itens também
[0036] O sistema de comunicação 210 pode incluir lógica de comunicação com e/ou sem fio, que pode ser substancialmente qualquer sistema de comunicação que pode ser usado pelos sistemas e componentes da máquina 100 para comunicar informações a outros itens, como entre o sistema de controle 206, sensores 220, subsistemas controláveis 222 e um sistema de captura de imagem 224. Em um exemplo, o sistema de comunicação 210 se comunica através de um barramento de rede de área do controlador (CAN) (ou outra rede, como uma rede Ethernet, etc.) para comunicar informações entre esses itens. As informações podem incluir os vários sinais do sensor e sinais de saída gerados pelas variáveis do sensor e/ou variáveis detectadas.
[0037] O sistema de controle 206 é configurado para controlar interfaces, como interface(s) de operador 226 que incluem mecanismos de entrada configurados para receber entrada de um operador 228 e mecanismos de saída que renderizam saídas para o operador 228. Os mecanismos de entrada podem incluir mecanismos como botões de hardware, interruptores, joysticks, teclados, etc., bem como mecanismos ou atuadores virtuais, como um teclado virtual ou atuadores exibidos em uma tela sensível ao toque. Os mecanismos de saída podem incluir telas de exibição, alto-falantes, etc. Consequentemente, o sistema de controle 206 inclui um controlador de dispositivo de exibição 230 configurado para controlar um ou mais dispositivos de exibição em, ou associados a, máquinas 100 ou 202 e um gerador de interface de usuário 231 configurado para gerar telas de interface de usuário que são renderizadas nos dispositivos de exibição.
[0038] Sensor(es) 220 pode(m) incluir qualquer um de uma ampla variedade de diferentes tipos de sensores. No exemplo ilustrado, os sensores 220 incluem sensor(es) de posição 232, sensor(es) de velocidade 234, sensor(es) de altura de lança 235 e podem incluir outros tipos de sensores 236 também. O(s) sensor(es) de posição 232 é(são) configurado(s) para determinar uma posição geográfica da máquina 100 no campo e podem incluir, mas não estão limitados a, um receptor de Sistema Global de Navegação por Satélite (GNSS) que recebe sinais de um transmissor de satélite GNSS. O mesmo também pode incluir um componente Cinemático em Tempo Real (RTK) que é configurado para melhorar a precisão dos dados de posição derivados do sinal GNSS. O(s) sensor(es) de velocidade 234 é(são) configurado(s) para determinar uma velocidade na qual a máquina 100 está viajando no campo durante a operação de aspersão. A detecção de velocidade pode usar sensores que detectam o movimento de elementos de engate no solo (por exemplo, rodas ou trilhos) e/ou pode usar sinais recebidos de outras fontes, como sensor(es) de posição 232. Sensor(es) de altura de lança 235 é(são) configurado(s) para detectar a altura de uma porção da barra em relação à superfície do solo. Exemplos de sensores de altura incluem sensores ópticos, sensores ultrassônicos, etc. Alternativamente, ou além, os sensores podem incluir acelerômetros, giroscópios, unidades de medição inercial (IMUs), para citar alguns.
[0039] O sistema de controle 206 inclui processador de imagem e componentes de análise 238 (também referidos como componentes de processamento de imagem 238), um controlador de modo de aspersão 240, um controlador de sistema de imagem 242, um sistema de diagnóstico 243 e pode incluir outros itens 244 também. O sistema de controle 206 é configurado para gerar sinais de controle para controlar o sistema de comunicação 210, sensores 220, subsistemas controláveis 222 ou quaisquer outros itens na arquitetura 200. Os subsistemas controláveis 222 incluem sistema de aspersão 102, sistema de direção 120, sistema de propulsão 124, atuadores de máquina 245, e pode incluir outros itens 246 também. O sistema de aspersão 102 inclui uma ou mais bombas 247, configuradas para bombear a substância agrícola (por exemplo, um produto químico líquido) do tanque 104 através de condutos para bocais 108 montados na barra 110. O sistema de aspersão 102 pode incluir outros itens 248 também.
[0040] O sistema de controle 206 é configurado para gerar sinais de controle para controlar o sistema de aspersão 102 para aplicar a substância às áreas de campo identificadas. Por exemplo, dependendo de onde uma área de campo alvo está localizada dentro de uma imagem, o componente 238 comunica um comando de "aspersão" para o(s) bocal(is) apropriado(s) por meio de um barramento de rede de área de controlador (CAN). Em um exemplo, quando os bocais recebem o comando de aspersão, o bocal executa o comando de aspersão com base em quando recebe o comando, uma velocidade de deslocamento do bocal e outros atributos que impactam a aspersão que atinge a área alvo. Os exemplos incluem, mas não estão limitados a, condições ambientais, altura da planta, etc. Os bocais são controlados para permanecer abertos por um período de tempo que é suficiente para cobrir a área alvo.
[0041] A máquina 100 inclui um ou mais processadores ou servidores 250, um armazenamento de dados 251 e pode incluir outros itens 252 também. O armazenamento de dados 251 está configurado para armazenar dados para uso pela máquina 100. Por exemplo, o armazenamento de dados 251 pode armazenar dados de localização de campo que identificam uma localização do campo, forma de campo e dados de topografia que definem uma forma e topografia do campo, local de colheita dados que indicam a localização das culturas no campo (por exemplo, a localização das linhas das culturas) ou quaisquer outros dados.
[0042] Como também ilustrado na Figura 2, onde a máquina de reboque 202 reboca a máquina de aspersão agrícola 100, a máquina de reboque 202 pode incluir alguns dos componentes discutidos no presente documento em relação à máquina 100. Por exemplo, a máquina de reboque 202 pode incluir alguns ou todos os sensores 220, componente(s) de controle sistema 206, alguns ou todos os subsistemas controláveis 222 e/ou alguns ou todos os componentes do sistema 224. Além disso, a máquina de reboque 202 pode incluir um sistema de comunicação 253 configurado para se comunicar com o sistema de comunicação 210, um ou mais processadores ou servidores 254, armazenamento de dados 256 e pode incluir outros itens 258 também.
[0043] O sistema de captura de imagem 224 inclui um ou mais componentes de captura de imagem 260 configurados para capturar imagens do campo e os componentes de processamento de imagem 238 são configurados para processar essas imagens. Exemplos de um componente de processamento de imagem 238 incluem um processador de sinal de imagem ou módulo de processamento de imagem (IPM)
[0044] Com referência ao exemplo mostrado na Figura 1, os componentes de captura de imagem 260 incluem uma pluralidade de câmeras 130 espaçadas ao longo da barra 110. Cada câmera 130 corresponde a um ou mais dos bocais 108 e inclui um campo de visão (FOV) 132 configurado para criar imagens de uma porção 134 do campo que deve ser aspergido pelo(s) bocal(is) 108 correspondente(s). Adicionalmente, como geralmente representado na Figura 1 nos números de referência 136, a máquina 100 inclui uma pluralidade de componentes de processamento de imagem 136 (como IPMs). Cada componente de processamento de imagem 136 é configurado para receber e processar imagens de uma ou mais das câmeras 130. A discussão a seguir também se refere aos componentes de captura de imagem 260 como câmeras 260, mas entende-se que outros componentes de captura de imagem também podem ser usados.
[0045] Com referência novamente à Figura 2, as imagens capturadas representam uma resposta espectral capturada pelo sistema de captura de imagem 224 que é fornecida aos componentes de processamento de imagem 238 e/ou armazenadas no armazenamento de dados 251. Um sistema de imagem espectral obtém imagens espectrais do campo sob análise. Por exemplo, uma câmera pode ser uma câmera multiespectral ou uma câmera hiperespectral, ou uma ampla variedade de outros dispositivos para capturar imagens espectrais. A câmera pode detectar luz visível, radiação infravermelha ou outros. Em um exemplo, um sistema de visão inclui câmeras vermelho verde azul (RGB), próximo ao infravermelho vermelho verde (NRG) ou câmeras de infravermelho próximo (NIR).
[0046] Em um exemplo, as câmeras 260 incluem câmeras estéreo configuradas para capturar imagens estáticas, uma série temporal de imagens e/ou um vídeo do campo. Um exemplo de câmera estéreo captura vídeo de alta definição a trinta quadros por segundo (FPS) com FOV grande angular de cento e dez graus. Claro que isso é apenas para fins de exemplo.
[0047] Ilustrativamente, uma câmera estéreo inclui duas ou mais lentes com um sensor de imagem separado para cada lente. Imagens estéreo (por exemplo, fotos estereoscópicas) capturadas por uma câmera estéreo permitem a visão estéreo do computador que extrai informações tridimensionais das imagens digitais. Em outro exemplo, uma câmera de lente única pode ser usada para adquirir imagens (referida como uma imagem "mono").
[0048] O componente de processamento de imagem 238 inclui um receptor de imagem 262 configurado para receber as imagens do sistema de captura de imagem 224, um gerador de georreferenciamento 264 configurado para georreferenciar as imagens para locais no campo, um corretor de sombra 266 é configurado para executar correção de sombra nas imagens e um normalizador de iluminação 268 configurado para normalizar a iluminação na imagem. Além disso, as condições de iluminação ambiente podem ser obtidas usando uma câmera de balanço de branco ou um sensor de luz incidente, por exemplo. As condições de iluminação ambiente podem ser usadas para corrigir a cor da luz do dia, a direção/posição da luz e/ou a intensidade da luz. Além disso, as imagens adquiridas da área de aplicação/aspersão alvo podem ser corrigidas quanto à distorção da lente, correção de tons/cor, etc. As imagens adquiridas podem ser remapeadas ou redimensionadas de acordo com a altura da câmera e ajustadas para as condições de iluminação ambiente.
[0049] Um combinador de imagem 270 é configurado para combinar uma série de imagens em uma imagem maior do campo em análise. Por exemplo, o combinador de imagens 270 pode costurar ou fazer um mosaico das imagens. Para fazer o mosaico das imagens, as informações de localização geográfica correspondentes a cada uma das imagens podem ser usadas para unir as imagens em uma imagem maior do campo em análise, que é então analisada pelo componente de processamento de imagem 238. Adicionalmente, o georreferenciamento de imagens pode ser feito automaticamente contra os pontos de controle de solo, ou pode ser feito manualmente também.
[0050] O componente de processamento de imagem 238 é configurado para processar os dados de imagem do campo adquiridos a partir da(s) câmera(s) correspondente(s) 260 para identificar matéria vegetal nessas imagens e características (ou seja, tipo, saúde, maturidade, etc.) das plantas. Por exemplo, o componente de processamento de imagem 238 é configurado para identificar áreas do campo que incluem plantas agrícolas e/ou áreas que incluem ervas daninhas. Para fins da presente discussão, uma “erva daninha” ou “planta daninha” refere-se a uma planta diferente da cultura identificada no campo. Ou seja, ervas daninhas incluem tipos de plantas diferentes das plantas de cultivo (por exemplo, plantas de milho em um campo de milho) que se espera que estejam presentes no campo em consideração. No exemplo do campo de milho, ervas daninhas ou plantas daninhas incluem plantas diferentes de plantas de milho.
[0051] O analisador de imagem espacial 272 está configurado para realizar a análise espacial nas imagens e o analisador de imagem espectral 274 está configurado para realizar a análise espectral nas imagens. O analisador de imagem espacial 272, em um exemplo, obtém dados de localização de cultura gerados anteriormente que proveem uma localização geográfica das fileiras de plantas de cultura (ou as próprias plantas). O analisador de imagem espectral 274 realiza análise espectral para avaliar as plantas nas imagens. Em um exemplo, a análise espectral inclui a identificação de áreas na imagem que têm uma assinatura espectral que corresponde ao solo versus plantas. Por exemplo, a análise espectral pode incluir uma comparação verde/marrom.
[0052] Um componente de segmentação de imagem 276 é configurado para realizar a segmentação de imagem em uma imagem recebida, para segmentar ou dividir a imagem em diferentes porções para processamento. Um classificador de planta 278, que pode ser treinado usando dados de treinamento de planta armazenados no armazenamento de dados 251, ou obtidos de outra forma, é configurado para identificar áreas na imagem que representam um tipo de planta alvo (por exemplo, plantas de cultivo, plantas daninhas), dependendo da aplicação de aspersão em execução. Por exemplo, a lógica de identificação de ervas daninhas pode identificar ervas daninhas na imagem, com base na segmentação de imagem realizada pelo componente de segmentação de imagem 276. A localização das plantas pode ser armazenada como dados de localização da planta no armazenamento de dados 251. O componente de processamento de imagem 238 pode incluir outros itens 280 também.
[0053] Controlador de modo de aspersão 240 configurado para operar seletivamente o sistema de aspersão 102 para aplicar uma substância (isto é, produtos químicos ou nutrientes) ao campo usando uma pluralidade de modos de aspersão diferentes. Exemplos da substância incluem, mas sem limitação, herbicidas, fertilizantes, fungicidas ou outros produtos químicos, para controle de pragas, controle de ervas daninhas, regulação do crescimento, controle de fungos, suporte de nutrientes da cultura, etc.
[0054] Em um primeiro modo de aspersão, o sistema de aspersão 102 aplica a substância ao campo em um padrão geralmente uniforme conforme a máquina de aspersão agrícola 100 atravessa o campo. Um exemplo é referido como aspersão por difusão, em que os bocais são operados sem identificar ou direcionar plantas individuais. A Figura 3-1 ilustra um exemplo de operação de aspersão por difusão 300. Como mostrado, os bocais 108 são controlados para prover um alvo ou aplicação prescrita 302 a um campo 304 em toda a largura ou uma porção da barra 110. Consequentemente, a operação de aspersão por difusão 300 aplica a substância ao campo independentemente das necessidades específicas localizadas.
[0055] Em alguns casos, a aspersão por difusão pode resultar em aspersão excessiva (por exemplo, aplicação da substância em áreas onde a substância não é necessária) ou aspersão insuficiente (por exemplo, aplicação de muito pouco da substância em áreas onde a substância é necessária). A aspersão excessiva pode resultar em aumento dos custos de produção e um potencial impacto ambiental negativo no rendimento. A aspersão insuficiente, por outro lado, pode reduzir os rendimentos devido à aplicação subideal da substância. Por exemplo, se um herbicida é aplicado de forma desigual ou aplicado a plantas incorretas, ele é desperdiçado em áreas de aplicação excessiva, resultando em aumento dos custos de produção e um potencial impacto ambiental negativo na produção, e áreas de aplicação insuficiente apresentam redução da prevenção de ervas daninhas. Em algumas aplicações de herbicidas por difusão, por exemplo, oitenta por cento do produto total é aplicado onde não é necessário.
[0056] Para resolver pelo menos alguns problemas, o sistema de aspersão 102 é controlado pelo controlador 240 em um segundo modo de aspersão que aplica a substância às áreas alvo. As áreas alvo são identificadas usando imagens adquiridas pelo sistema de captura de imagem 224 e processadas por componentes de processamento de imagem 238 para identificar a localização de plantas de cultivo e/ou plantas daninhas, a serem aspergidas, dentro dessas imagens. Um exemplo do segundo modo de aspersão é ilustrado na Figura 3-2, e inclui um controle de aspersão automatizado ou operação de aspersão de precisão 320 que controla um subconjunto dos bocais 108 para aspergir áreas de dispersão precisas 322, como diretamente em uma planta (cultura ou erva daninha), entre plantas, ou de outra forma, em uma taxa específica para que uma quantidade alvo da substância seja aplicada à área de dispersão. As aplicações de aspersão de precisão em agricultura de precisão e técnicas de aplicação podem reduzir o uso de substâncias, como pesticidas o que resulta em custos de cultivo reduzidos e uma redução no estresse ambiental.
[0057] O controlador do sistema de imagem 242 é configurado para controlar uma operação dos componentes de captura de imagem 260 na captura de imagens do campo e para controlar uma operação dos componentes de processamento de imagem 238 no processamento dessas imagens. A Figura 4 é um diagrama de blocos que ilustra um exemplo do controlador de sistema de imagem 242. Como mostrado na Figura 4, o controlador 242 inclui um calibrador de câmera 352 configurado para calibrar ou configurar câmeras 260. Como discutido abaixo, a calibração de câmeras 260 pode incluir o ajuste de um FOV de câmera, que muda uma região de interesse (ROI) dentro do FOV e o ajuste de uma sensibilidade de câmera (por exemplo, ajuste da quantidade de dados de imagem que estão sendo coletados em uma determinada área do campo, etc.). Resumidamente, uma ROI define uma região de imagem dentro de uma imagem de captura que é utilizada para detectar a matéria vegetal para controle de aspersão. A ROI corresponde à área do campo abaixo dos bocais correspondentes que são controlados usando essa ROI. Em um exemplo, outras porções da imagem, fora da ROI, são excluídas do processamento subsequente para detecção de plantas e controle de aspersão dos bocais correspondentes.
[0058] O controlador 242 também inclui um gerador de ROI 354 configurado para gerar ou outra forma definir ROIs correspondentes às câmeras 260. O gerador de ROI 354 pode incluir um normalizador de ROI 356 e pode incluir outros itens 358 também. O normalizador de ROI 356 é configurado para normalizar a ROI dentro do FOV da câmera com base na distância da câmera da superfície do campo, que pode variar com base no movimento da barra, de modo que uma ROI correspondente à mesma área ou área semelhante na superfície do campo, independentemente de movimento da barra. Para fins de ilustração, se um ROI de uma câmera fornecida 130 para definir a correspondência a uma área de três pés por três pés na superfície do campo, o normalizador de ROI 356 é definido para ajustar a ROI da câmera específica 130 à medida que a altura da barra aumenta (o que faz com que uma câmera 130 se mova adicionalmente para longe da superfície do campo) de modo que uma área do campo representada dentro da ROI ajustada seja de aproximadamente três pés por três pés.
[0059] O controlador do sistema de imagem 242 também inclui um mapeador de bocal para ROI 360 que é configurado para mapear bocais 108 para as ROIs correspondentes na superfície do campo. Para fins de ilustração, no exemplo acima, o mapeador 360 é configurado para gerar informações de mapeamento que mapeiam, para uma câmera específica, um conjunto (um ou mais) de bocais 108 que são configurados para aspergir uma ROI de três pés por três pés correspondente àquela câmera específica.
[0060] O controlador de sistema de imagem 242 também inclui um costurador de imagem 362, um componente de interface de usuário 364, um gerador de sinal de controle 366 e pode incluir outros itens 368 também. O costurador de imagem 362 está configurado para uma imagem adquirida de uma ou mais das câmeras 260. O componente da interface do usuário 364 inclui ilustrativamente um gerador de alimentação de câmera 370, um gerador de sobreposição 372, um gerador de mapa de campo de modo de aspersão 374 e pode incluir outros itens 376 também.
[0061] As Figuras 5-1, 5-2 e 5-3 (coletivamente referidas no presente documento como Figura 5) proveem um fluxograma 400 que ilustra um exemplo de operação de um sistema de visualização e controle para uma máquina de aspersão agrícola. Para fins de ilustração, mas sem limitação, a Figura 5 será descrita no contexto do sistema de controle 206 na arquitetura 200.
[0062] No bloco 402, um modelo de classificador a ser usado pelo classificador de planta 278 é selecionado ou obtido de outra forma com base em um tipo de planta alvo. O tipo de planta alvo é baseado na operação de aspersão a ser realizada pela máquina de aspersão 100. Por exemplo, quando a máquina de aspersão 100 é usada para aspergir herbicida em ervas daninhas, o classificador de planta é configurado para classificar porções de uma imagem como representando plantas diferentes da cultura ou ervas daninhas, destinadas às operações de aspersão de precisão. Em outro exemplo, um classificador de cultura pode ser usado para classificar áreas de uma imagem como incluindo plantas de cultura e o sistema de aspersão 102 pode ser controlado para aspergir as outras áreas do campo com plantas que não são classificadas como o tipo de cultura alvo. Em ambos os casos, o classificador é usado para identificar as áreas do campo a serem aspergidas para uma dada operação de aspersão.
[0063] O bloco 404 identifica uma determinada câmera 260 (isto é, selecionar uma primeira câmera) a ser calibrada e usada para adquirir imagens a serem processadas para controlar os bocais correspondentes 108 que são mapeados para a ROI dessa câmera específica. No bloco 406, para a câmera selecionada 260, uma ROI é identificada, dentro do FOV da câmera. O FOV para uma câmera específica pode ser definido como um FOV padrão, representado no bloco 408. Alternativamente, ou além disso, um FOV pode ser selecionado pelo usuário, conforme representado no bloco 410.
[0064] Além disso, no bloco 412, uma sensibilidade de detecção pode ser identificada para a câmera selecionada 260. Novamente, a sensibilidade de detecção pode ser uma configuração padrão, conforme representado no bloco 414 e/ou selecionada pelo usuário, conforme representado no bloco 416. A sensibilidade de detecção controla a operação do sistema de imagem ao adquirir imagens e processar essas imagens para determinar a localização das plantas a serem aspergidas. Por exemplo, o controle de sensibilidade de detecção pode incluir a definição de uma sensibilidade da câmera no bloco 418. Por exemplo, ajustes na sensibilidade da câmera podem definir o número de pixels adquiridos pela câmera para uma determinada ROI. Além disso, o bloco 412 pode incluir alterações na funcionalidade do componente de processamento de imagem 238 que processa as imagens adquiridas pela câmera específica 260. Alterações na sensibilidade de detecção de planta são representadas no bloco 420. Por exemplo, a funcionalidade do componente de processamento de imagem 238 pode definir o tamanho das plantas alvo que serão detectadas através do processamento de imagem. Para fins de ilustração, aumentos na sensibilidade de detecção da câmera e/ou planta podem resultar na aplicação da substância agrícola em mais áreas do campo, conforme mais plantas são detectadas. Por outro lado, diminuições na sensibilidade de detecção da câmera e/ou planta podem resultar na aplicação da substância agrícola em menos áreas do campo conforme menos plantas alvo são detectadas.
[0065] No bloco 422, o sistema de imagem é configurado ou calibrado com base na ROI e na sensibilidade de detecção identificada nos blocos 406 e 412, respectivamente. Em um exemplo, o controlador do sistema de imagem 242 é configurado para gerar sinais de controle, com o uso do gerador de sinal de controle 366, que são fornecidos para a câmera 260 e/ou componente de processamento de imagem 238 correspondente à câmera 260.
[0066] No bloco 424, durante a operação de aspersão, os dados de imagem indicativos de um campo são recebidos pelo receptor de imagem 262. Como observado acima, a imagem pode ser obtida em qualquer uma de uma ampla variedade de maneiras. Por exemplo, uma única imagem pode ser obtida pela câmera 260. Além disso, a imagem pode incluir uma imagem dentro de uma série de tempo de imagens estáticas adquiridas pela câmera 260, ou uma imagem de um feed de vídeo obtido da câmera 130. Além disso, a imagem pode incluir uma imagem estéreo (representada pelo bloco 426), uma imagem mono 428 ou outro tipo de imagem 430.
[0067] No bloco 432, a imagem é pré-processada, o que pode incluir a remoção ou correção de sombras usando o corretor de sombra 266, conforme representado no bloco 433. Além disso, a imagem pode ser processada para remover iluminações usando o normalizador de iluminação 268, conforme representado pelo bloco 434. Naturalmente, a imagem pode ser préprocessada de outras maneiras também, conforme representado pelo bloco 436.
[0068] No bloco 438, o classificador é aplicado à ROI na imagem para detectar áreas de planta alvo a serem pulverizadas. A detecção das áreas de planta alvo no bloco 438 pode ser baseada na localização dentro da imagem (bloco 440) e/ou com base na cor dentro da imagem (bloco 442). Além disso, como observado acima, a ROI pode ser normalizada para mudanças na altura, conforme representado no bloco 444. Mais uma vez, a normalização de ROI pode incluir o ajuste da porção da imagem que é analisada para detecção de planta, para normalizar a ROI para a distância da câmera para a superfície do campo quando a câmera adquiriu a imagem. Naturalmente, a detecção no bloco 438 pode ser realizada de outras maneiras, conforme representado pelo bloco 446.
[0069] Além disso, observa-se que em um componente de processamento de imagem exemplificativo 238 pode obter dados de localização de cultura para aumentar a detecção das áreas de planta alvo. Por exemplo, os dados de localização da cultura podem ser obtidos a partir de uma operação de plantio anterior, ou de outra forma, e indicam os locais onde as sementes da cultura foram plantadas, o que pode ser um indicativo das linhas da cultura, o espaçamento da cultura dentro das linhas, etc. Com o uso dos dados de localização de cultura, o componente de processamento de imagem 238 pode identificar os locais dentro da imagem onde uma planta da cultura é esperada. Além disso, com o uso de dados de localização de cultura, o componente de processamento de imagem 238 pode determinar que as plantas que aparecem entre as linhas são provavelmente plantas diferentes da cultura. Isso, é claro, é apenas uma questão de exemplo.
[0070] Além disso, o processamento de imagem realizado pelo componente de processamento de imagem 238 pode analisar vetores de cores RGB a partir de um algoritmo de agrupamento de pixels para determinar se uma área da imagem que representa uma planta indica uma planta da cultura ou uma planta diferente da cultura ou identifica o planta como um tipo de planta alvo a ser aspergido para a operação de aspersão específica. As áreas da planta alvo detectadas na imagem podem então ser correlacionadas às respectivas áreas do campo. Essas áreas do campo são identificadas por conter plantas alvo a serem aspergidas. Além disso, uma métrica de confiança é gerada que representa a classificação da área da planta alvo, conforme representado pelo bloco 448. A métrica de confiança indica a confiança na classificação da área da planta alvo como uma área a ser aspergida pela operação de aspersão. Uma métrica de alta confiança indica que a ROI na imagem representa o tipo de planta alvo e métrica de baixa confiança indica uma baixa confiança na identificação das plantas alvo.
[0071] Em um exemplo, as características operacionais da máquina são obtidas no bloco 450. Por exemplo, as características operacionais podem incluir indicações da velocidade da máquina e/ou altura da barra. Por exemplo, velocidades da máquina e alturas da barra mais altas podem resultar em métricas de confiança mais baixas devido à menor qualidade de captura de imagem.
[0072] Além disso, dados de processamento de imagem, como dados de um módulo de processamento de imagem podem ser obtidos. Por exemplo, os dados de processamento de imagem podem incluir dados de falha de processamento de imagem, informações de diagnóstico, etc. Os exemplos são discutidos em mais detalhes abaixo.
[0073] No bloco 452, a métrica de confiança, gerada no bloco 448, é comparada a um limiar. O limiar pode ser predefinido, definido pelo usuário ou definido de outras maneiras. Em um exemplo, conforme representado no bloco 454, o limiar é baseado na sensibilidade de detecção identificada no bloco 412.
[0074] Como mostrado no bloco 455, se a métrica de confiança estiver acima do limiar, a operação prossegue para o bloco 456 no qual o sistema de controle 206 controla o sistema de aspersão em um primeiro modo de aspersão, que é baseado nos dados de imagem. No presente exemplo, o primeiro modo de aspersão fornece aspersão de precisão com base em imagem, em que os bocais 108 selecionados são operados para aspergir uma ou mais áreas de dispersão discretas no bloco 458. Um exemplo de aspersão de precisão com base em imagem é ilustrado acima em relação à Figura 3-2.
[0075] Se a métrica de confiança estiver abaixo do limiar no bloco 455, a operação prossegue para o bloco 460 no qual o sistema de controle 206 controla o sistema de aspersão 102 para operar em um segundo modo de aspersão. No presente exemplo, o segundo modo de aspersão fornece aspersão por difusão no bloco 462. Um exemplo é discutido acima em relação à Figura 3-1. Além disso, no bloco 464, o sistema de controle 206 pode gerar uma indicação de motivos do modo padrão ou fallback. Motivos do modo de fallback exemplificativos informam ao operador 228, ou outro usuário, por que o modo de aspersão por difusão foi usado em vez do modo de aspersão de precisão. A informação no bloco 464 pode ser gerada de várias maneiras. Em um exemplo, é baseado nas características operacionais obtidas no bloco 450 que afetaram a geração da métrica de confiança (por exemplo, razões pelas quais a métrica de confiança estava abaixo do limiar). Isso, é claro, é apenas uma questão de exemplo.
[0076] Com referência novamente ao bloco 454, pode ser visto que mudanças na sensibilidade de detecção podem aumentar ou diminuir a operação no primeiro modo. Ou seja, aumentos na sensibilidade de detecção podem aumentar a confiança na classificação, resultando em operação do modo de aspersão de precisão mais frequente. Por outro lado, diminuições na sensibilidade de detecção podem diminuir a confiança na classificação, resultando em operação do modo de aspersão de precisão menos frequente.
[0077] No bloco 466, os dados de diagnóstico podem ser gerados pelo sistema de diagnóstico 243. Os exemplos são discutidos em mais detalhes abaixo. Resumidamente, no entanto, os dados de diagnóstico podem ser baseados nas características operacionais obtidas no bloco 450 e podem indicar informações falsas ou outras informações de diagnóstico, conforme representado pelo bloco 468.
[0078] No bloco 470, outras câmeras 130 podem ser calibradas e usadas para captura de imagem e controle dos bocais correspondentes 108. No bloco 472, o gerador de interface de usuário 231 gera uma interface de usuário para o operador 228 (ou outro usuário, como o usuário remoto 218 ). A interface do usuário pode exibir um feed de vídeo de uma ou mais das câmeras 260, conforme representado pelo bloco 473. Por exemplo, um único feed de câmera pode ser fornecido na interface, conforme representado no bloco 474. Além disso, feeds de câmera de várias câmeras 260 podem ser costurados no bloco 475. Além disso, o feed de vídeo pode ser exibido com sobreposições com elementos de exibição que representam a configuração do sistema de imagem e/ou sistema de aspersão, conforme representado pelo bloco 476. Por exemplo, uma sobreposição pode incluir elementos de exibição que representam a ROI da câmera (bloco 477), sensibilidade (bloco 478), comprimento/largura da aspersão (bloco 479) e pode incluir outros elementos de exibição 480 também. Em um exemplo, um elemento de exibição de ROI identifica os bocais que são mapeados para a ROI específica, conforme representado pelo bloco 481.
[0079] No bloco 482, a tela de interface de usuário inclui mecanismos de entrada do usuário que são configurados para receber entrada do operador 228 (ou outro usuário) para controlar o sistema de imagem e/ou sistema de aspersão. Por exemplo, os mecanismos de entrada do usuário podem receber entrada para ajustar a configuração (bloco 483), selecionar a câmera ou câmeras para exibir o feed de vídeo na tela de interface de usuário (bloco 484) ou outros mecanismos de entrada do usuário (bloco 485).
[0080] A tela de interface de usuário também pode incluir uma tela de diagnóstico, conforme representado no bloco 486. Os exemplos são discutidos em mais detalhes abaixo. Resumidamente, no entanto, uma tela de diagnóstico pode exibir uma indicação dos dados de diagnóstico gerados no bloco 466.
[0081] A tela de interface de usuário também pode incluir uma tela de mapa de campo, que mapeia os modos de aspersão para as áreas correspondentes do campo, conforme representado pelo bloco 487. Os exemplos são discutidos em mais detalhes abaixo. Resumidamente, no entanto, uma tela do mapa de campo pode identificar áreas do campo nas quais o sistema de aspersão 102 é operado no primeiro modo de aspersão e áreas do campo nas quais o sistema de aspersão 102 opera no segundo modo de aspersão. O mapa de campo, portanto, exibe o operador 228 para identificar facilmente como a máquina de aspersão agrícola 100 operava ao atravessar o campo.
[0082] No bloco 488, a entrada do usuário através dos mecanismos de entrada do usuário é detectada. Com base na entrada do usuário, a configuração do sistema de imagem e/ou sistema de aspersão é ajustada no bloco 489. Por exemplo, um ajuste de configuração pode incluir alterar a ROI no bloco 490, alterar a sensibilidade no bloco 491, alterar o comprimento de aspersão e/ou largura no bloco 492, ou outros ajustes à configuração no bloco 493. Para ajustar a configuração no bloco 489, o sistema de controle 206 gera sinais de controle correspondentes para executar a ação de configuração.
[0083] No bloco 494, outras ações de controle também podem ser realizadas. As ações de controle podem incluir gerar e armazenar um mapa de aspersão no bloco 495. O mapa de aspersão identifica a operação de aspersão (por exemplo, quais áreas do campo foram pulverizadas e detalhes da operação de aspersão, etc.). O mapa pode ser comunicado a uma máquina ou sistema remoto, conforme indicado no bloco 496. Naturalmente, outras ações de controle podem ser realizadas, conforme representado pelo bloco 497.
[0084] No bloco 498, se a operação de aspersão for continuada, a operação pode retornar ao bloco 404, onde a(s) câmera(s) 130 pode(m) ser recalibrada(s) e/ou usada(s) para adquirir imagens adicionais do campo para controlar a operação de aspersão.
[0085] A Figura 6 ilustra um exemplo de uma tela de interface de usuário 500 gerada no bloco 472 na Figura 5. A tela de interface de usuário 500 inclui um painel de exibição de imagem 502 que exibe imagens, como um feed de vídeo, de uma ou mais das câmeras 260 que podem ser selecionadas pelo uso de mecanismos de entrada de usuário de seleção de câmera 504. No exemplo ilustrado, os mecanismos 504 incluem um primeiro mecanismo de seleção 506 atuável para selecionar uma primeira das câmeras e um segundo mecanismo de seleção 508 atuável para selecionar uma segunda das câmeras. A câmera selecionada é identificada pelo elemento de exibição 510. O mecanismo de entrada 504 permite, assim, ao usuário alternar entre diferentes feeds de câmera no painel de exibição 502
[0086] No exemplo ilustrado, a tela 500 também inclui um elemento de exibição de ROI 512 que representa visualmente a ROI da câmera selecionada como uma sobreposição na imagem de exibição. Como observado acima, a ROI define a região dentro da imagem que é usada pelo componente de processamento de imagem 238 para detectar áreas do campo a serem aspergidas. Dessa forma, o elemento de exibição de ROI 512 indica como o sistema está operando para capturar e processar imagens.
[0087] Em um exemplo, o elemento de exibição de ROI 512 inclui um mecanismo de entrada de usuário de modificação de ROI que pode ser acionado para modificar a ROI. Por exemplo, o usuário pode arrastar e soltar (ou mover) o elemento de exibição de ROI 512 na imagem de exibição. Alternativamente, ou além disso, o usuário pode alterar o tamanho do elemento de exibição de ROI 512. Em ambos os casos, o gerador de ROI 354 ajusta a ROI correspondente usada para a câmera selecionada. Consequentemente, o usuário pode reduzir ou ampliar a ROI e/ou mover a ROI (por exemplo, horizontalmente ou verticalmente na tela) para alterar a ROI correspondente em relação aos bocais mapeados para a ROI.
[0088] A Figura 7 ilustra um exemplo de uma tela de interface de usuário 520 que exibe imagens obtidas de múltiplas câmeras. Uma primeira imagem é obtida a partir de uma primeira câmera (referida como "câmera 1" no exemplo ilustrado) e uma segunda imagem é obtida de uma segunda câmera (denominada "câmera 2"). As imagens são costuradas pelo costurador de imagem 362 e exibidas no painel de exibição 522. O elemento de exibição 524 identifica as câmeras, bem como o componente de processamento de imagem específico 238 (denominado "processador de imagem 1") que processa os dados de imagem recebidos.
[0089] Além disso, a tela 520 inclui um primeiro elemento de exibição ROI 526 que representa visualmente a ROI correspondente à primeira câmera e um segundo elemento de exibição ROI 528 que representa visualmente a ROI correspondente à segunda câmera. Os elementos de exibição 526 e 528 permitem que o usuário determine se as ROIs estão devidamente calibradas ou alinhadas em relação à área do campo. Conforme discutido acima em relação à Figura 6, a tela de interface de usuário 520 pode incluir mecanismos de entrada de usuário de modificação de ROI que são atuáveis para modificar uma ou ambas as ROIs.
[0090] A tela 520 inclui um mecanismo de entrada de usuário de seleção de câmera 530 que pode ser atuável para alternar entre diferentes visualizações de câmera. Por exemplo, a atuação do botão 532 alterna a tela 520 para uma vista costurada da terceira e quarta câmeras, como mostrado na Figura 8. Na Figura 8, o painel de exibição 522 exibe uma imagem costurada de um conjunto diferente de câmeras (ilustrativamente "câmera 3" e "câmera 4"), que é identificada pelo elemento de exibição 524. O elemento de exibição 524 também é atualizado para identificar o componente de processamento de imagem 238 que processa essas imagens.
[0091] Ilustradas na Figura 8, as ROIs representadas pelos elementos de exibição 540 e 542 são deslocadas umas das outras, o que indica uma calibração imprecisa. Dessa forma, o usuário é capaz de visualizar o erro de calibração e ajustar as ROIs de acordo com os mecanismos de entrada do usuário de modificação da ROI.
[0092] A Figura 9 ilustra um exemplo de tela de interface de usuário 560 que inclui um painel de exibição 562 que exibe um feed da câmera de uma ou mais câmeras. A tela de interface de usuário 560 inclui um mecanismo de entrada de usuário 564 que pode ser acionado para selecionar uma sensibilidade de detecção (por exemplo, uma granularidade nos dados de imagem usados para detectar tipos de plantas alvo), como discutido acima em relação ao bloco 412 na Figura 5. O mecanismo de entrada do usuário 564 inclui um primeiro elemento de exibição 566 atuável para selecionar uma primeira configuração de sensibilidade (isto é, alta), um segundo elemento de exibição 568 atuável para selecionar uma segunda configuração de sensibilidade (isto é, média) e um terceiro elemento de exibição 570 atuável para selecionar uma terceira configuração de sensibilidade (ou seja, baixa).
[0093] Com a alta sensibilidade de detecção correspondente ao elemento de exibição 566, detalhes de alto nível de campo são obtidos, permitindo que o sistema detecte tamanhos menores de plantas. Em outras palavras, aumentar a sensibilidade pode detectar plantas menores, o que resulta em um maior número de áreas de dispersão (ou seja, aumentando a quantidade de substância que são aspergidas no campo). Por outro lado, a atuação do elemento de exibição 570 diminui a sensibilidade, aumentando assim o tamanho das plantas detectadas pelo sistema de controle 206. Dessa forma, a sensibilidade diminuída diminui o número de áreas identificadas para serem aspergidas. Além disso, a tela 560 inclui elementos de exibição 572 que identificam onde, dentro da imagem, as áreas de planta alvo foram identificadas. Um tamanho do elemento de exibição 572 representa o tamanho da área da planta que é detectada.
[0094] A Figura 10 ilustra outro exemplo de uma tela de interface de usuário 580 que inclui um mecanismo de entrada de usuário de ajuste de sensibilidade 582. O mecanismo 582 inclui um controle deslizante 584 que é móvel dentro de uma janela ou barra de controle que tem uma primeira extremidade 586 (que corresponde à sensibilidade de detecção diminuída) e uma segunda extremidade 588 que corresponde a uma sensibilidade de detecção mais alta. O controle deslizante 584 é móvel entre uma pluralidade de posições do controle deslizante discretas arrastando o controle deslizante 584 e/ou usando um atuador 590. Além disso, o monitor 580 inclui um elemento de exibição 592 que identifica visualmente a área detectada dentro da imagem. Por exemplo, aumentar ou diminuir a sensibilidade altera de forma ilustrativa a largura do padrão de aspersão.
[0095] A Figura 11 ilustra um exemplo de sistema de diagnóstico 243. No exemplo ilustrado, o sistema de diagnóstico 243 inclui um coletor de dados de diagnóstico 602, um detector de falha 604, um gerador de motivo de modo fallback 606, um gerador de registro de histórico 608, um componente de interface de usuário 610 e pode incluir outros itens 612 também.
[0096] O coletor de dados de diagnóstico 602 é configurado para coletar dados de diagnóstico do sistema de captura de imagem 224 e/ou componentes de processamento de imagem 238. Ilustrativamente, o coletor 602 inclui um detector de métrica de confiança 614 configurado para detectar ou de outra forma identificar as métricas de confiança geradas pelo componente de processamento de imagem 238. O coletor 602 também inclui um detector de desempenho de processamento de imagem 616 configurado para detectar o desempenho do componente de processamento de imagem 238. Por exemplo, o desempenho pode incluir o status dos módulos de processamento de imagem em relação ao processamento de imagem dos feeds de vídeo das câmeras 260. Os exemplos incluem, mas não estão limitados a indicações de condições de sobretensão ou subtensão, ou outras condições de falha que podem ser detectadas pelo detector de falha 604. Um detector de status de câmera 618 é configurado para detectar informações de status de câmera a partir das câmeras 130. O detector de situação do sensor de luz 620 é configurado para detectar a situação dos sensores de luz. Por exemplo, alterações na iluminação podem afetar a capacidade de processamento da imagem. Em um exemplo, um ou mais sensores de luz são posicionados ao longo do comprimento da barra 110 e são configurados para detectar as condições de iluminação. Os sensores de luz podem detectar níveis de iluminação abaixo de um limiar, o que pode indicar qualidade ou confiança na detecção da imagem. O detector de situação do sensor de luz 620 é configurado para receber sinais dos sensores de luz, para indicar se eles estão funcionando corretamente, bem como as informações de iluminação que podem ser usadas para diagnosticar pontuações de baixa confiança ou outras condições de falha.
[0097] O coletor de dados de diagnóstico 602 também inclui um gerador de registro temporal 622 e pode incluir outros itens 624 também. O gerador de registro temporal 622 é configurado para gerar registros temporais para os dados de diagnóstico coletados pelo coletor 602. Ao usar o gerador de registro temporal 622, o gerador de registro de histórico 608 pode gerar um registro de histórico, com dados de diagnóstico com registro temporal, que podem ser apresentados ao operador 228 em uma tela de interface de usuário de diagnóstico. Um exemplo de uma interface de usuário de diagnóstico que pode ser gerada pelo componente de interface de usuário 610 é discutido abaixo.
[0098] O gerador de registro de histórico 608 pode incluir um gerador de histórico de falha 626, um gerador de histórico de modo de fallback 628 e pode incluir outros itens 630 também. O gerador de histórico de falhas 626 é configurado para gerar um histórico de falhas, que pode então ser apresentado ao operador 228 ou outro usuário. Da mesma forma, um histórico de modo de fallback gerado pelo gerador de histórico de modo de fallback 628 pode ser apresentado ao operador 228 ou outro usuário como uma indicação de quando um modo de aspersão padrão foi inserido, por exemplo, devido a baixos escores de confiança.
[0099] A Figura 12 é um fluxograma 700 que ilustra um exemplo de operação de uma máquina agrícola para obter e visualizar dados de diagnóstico em relação às operações de aspersão com base em imagem. Para fins de ilustração, mas sem limitação, a Figura 12 será descrita no contexto do sistema de diagnóstico 243 discutido acima em relação à Figura 11.
[00100] No bloco 702, a máquina de aspersão 100 está operando em um campo. O sistema de aspersão 102 é operado seletivamente entre o primeiro e o segundo modos conforme a máquina 100 atravessa o campo com base na classificação da planta com base em imagem e métricas de confiança correspondentes. Quando um ou mais dos componentes de processamento de imagem 238 detectam áreas alvo da planta com alta confiança (métricas de confiança acima do limiar), o sistema é operado em um primeiro modo de aspersão de precisão. Quando a máquina 100 está em áreas nas quais os componentes de processamento de imagem 238 têm baixa confiança, o sistema de aspersão 102 é operado em um segundo modo de aspersão por difusão (ou outro padrão). Durante as operações, os dados de diagnóstico são coletados no bloco 704. Por exemplo, o coletor de dados de diagnóstico 602 coleta dados de diagnóstico ou outros dados operacionais em relação à operação das câmeras 130, conforme representado no bloco 706. Conforme representado no bloco 708, as informações de situação do sensor de luz podem ser obtido indicando a situação operacional dos sensores de luz usados para detectar as condições de iluminação. Além disso, os dados de diagnóstico que representam a operação de componentes de processamento de imagem 238 (como módulos de processamento de imagem ou IPMs) podem ser obtidos, conforme representado pelo bloco 710. Por exemplo, os dados de diagnóstico podem indicar operação elétrica, como tensão operacional, condições de baixa luminosidade ou outras condições relacionadas à falha. Os dados de diagnóstico também podem indicar erros de comunicação encontrados pelo sistema de comunicação 210.
[00101] Os dados de diagnóstico podem indicar a operação do sistema de aspersão 102, conforme representado pelo bloco 712. Por exemplo, os dados de diagnóstico podem indicar o desempenho do bocal, a altura da barra ou qualquer outra informação relacionada ao sistema de aspersão. No bloco 713, os dados de diagnóstico podem indicar a operação da máquina de aspersão 100, como informações de velocidade, informações de posição, desempenho operacional dos atuadores de máquina 245, sistema de direção 120, sistema de propulsão 124 ou outros itens 246.
[00102] No bloco 714, o gerador de registro temporal 622 marca com data e hora os dados de diagnóstico para indicar a hora em que foram coletados e/ou foram detectados pela máquina de aspersão 100. No bloco 716, uma ou mais condições de falha são identificadas com base nos dados de diagnóstico marcados com data e hora. Por exemplo, os dados de diagnóstico podem ser comparados a condições de falha conhecidas. Um modelo de características de falha pode ser aplicado aos dados de diagnóstico, ou falhas podem ser detectadas de outras maneiras também.
[00103] No bloco 718, o gerador de motivo do modo de fallback 606 determina que o modo fallback ou padrão, foi ativado em um ou mais casos. Por exemplo, o gerador 606 pode identificar um local no campo no qual o sistema de aspersão 102 é ativado para aspergir por difusão a substância agrícola. No bloco 720, o gerador de registro de histórico 608 gera um registro de histórico de diagnóstico. O registro de histórico inclui uma pluralidade de entradas de registro em que cada uma representa uma porção dos dados de diagnóstico coletados.
[00104] No bloco 722, uma tela de interface de usuário de diagnóstico é gerada para representar os dados de diagnóstico. Exemplos de uma tela de interface de usuário de diagnóstico são discutidos abaixo em relação às Figuras 13 a 17. A tela de interface de usuário de diagnóstico pode incluir, por exemplo, elementos de exibição que representam câmeras 260 (bloco 724) e/ou elementos de exibição que representam componentes de processamento de imagem 238 (bloco 726) visualmente associados às câmeras correspondentes. Por exemplo, conforme indicado no bloco 728, os elementos de exibição podem visualizar as posições relativas das câmeras e/ou componentes de processamento de imagem 238 na barra 110.
[00105] Conforme representado no bloco 730, a tela de interface de usuário de diagnóstico pode mapear visualmente os bocais 108 para as câmeras 260 e/ou componentes de processamento de imagem 238. Além disso, a tela de interface de usuário de diagnóstico pode incluir um painel de exibição de feed de câmera (bloco 732) que exibe uma imagem de câmera de uma ou mais das câmeras 260. A tela também pode exibir os dados de diagnóstico em associação com as câmeras relevantes, componentes de processamento de imagem, bocais, etc., conforme representado no bloco 734.
[00106] No bloco 736, a entrada do usuário é detectada por meio da tela de interface de usuário. Por exemplo, a entrada do usuário pode selecionar uma câmera específica no bloco 738. Além disso, a entrada do usuário pode selecionar um componente de processamento de imagem específico no bloco 740. Além disso, a entrada de usuário pode selecionar um histórico de falhas, no bloco 742, ou um histórico de modo de fallback no bloco 744. Outras entradas também podem ser recebidas, conforme representado no bloco 746.
[00107] No bloco 748, telas de interface de usuário adicionais podem ser geradas com base na entrada de usuário no bloco 736. Por exemplo, informações adicionais podem ser renderizadas ao operador 226 com base na seleção de componentes do usuário por meio da tela de interface de usuário de diagnóstico. No bloco 750, a operação é continuada para coletar dados de diagnóstico adicionais durante a operação de aspersão.
[00108] A Figura 13 ilustra um exemplo de tela de interface de usuário de diagnóstico 800 gerada no bloco 722. A tela 800 inclui um mecanismo de entrada de usuário 802 para selecionar uma ou mais porções do sistema de imagem para exibir dados de diagnóstico. No exemplo da Figura 13, o monitor 800 inclui um elemento de exibição 804 que representa a lança 110 e as posições correspondentes das câmeras 260 (representadas por elementos de exibição 806), bem como os locais correspondentes de componentes de processamento de imagem 238 (representados por elementos de exibição 808).
[00109] Para cada processador de imagem representado por um elemento de exibição 808, o monitor 800 inclui um ou mais elementos de exibição que indicam uma situação operacional de cada câmera processada por esse processador de imagem. Por exemplo, o elemento de exibição 807 inclui quatro barras codificadas por cores que representam quatro câmeras processadas pelo processador de imagem representado pelo elemento de exibição 809 (denominado "processador de imagem 1" no presente exemplo). A cor da barra codificada por cor específica correspondente a uma determinada câmera indica a situação operacional (por exemplo, falha) dessa determinada câmera. Por exemplo, um indicador verde pode indicar um status operacional normal, um indicador amarelo pode indicar um problema detectado e um indicador vermelho pode indicar uma condição de falha. Isso, é claro, é apenas uma questão de exemplo. Além disso, um elemento de exibição 811 indica a situação do sensor de luz. No presente exemplo, um único sensor de luz é usado em uma porção central da barra, conforme indicado pelo numeral de referência 813.
[00110] A tela de interface de usuário 800 inclui um ou mais mecanismos de entrada de usuário de pesquisa detalhada que são atuáveis para fazer uma pesquisa detalhada em porções específicas do sistema de imagem. Por exemplo, o usuário pode acionar o mecanismo 802 para mudar para uma tela que representa apenas um subconjunto dos bocais e processadores de imagem. Em outro exemplo, um usuário pode acionar o elemento de exibição 808 que representa um processador de imagem específico.
[00111] No exemplo da Figura 13, o sistema de controle 206 inclui onze componentes de processamento de imagem 238 (por exemplo, IPMs ou outros processadores de imagem), cada um tendo pelo menos uma câmera correspondente 260. Uma caixa delimitadora 810 identifica a porção da máquina 100 selecionada pelo mecanismo de entrada 802. Além disso, o mecanismo 802 identifica quais bocais (todos os bocais 1 a 120 no exemplo ilustrado) são selecionados.
[00112] O painel de exibição 812 exibe dados de diagnóstico relativos ao conjunto selecionado de IPMs, representado por elementos de exibição 808, em uma lista rolável que é rolável usando mecanismos de entrada 814. Uma pluralidade de entradas 816 é exibida, com cada entrada 816 representando uma determinada porção dos dados de diagnóstico. Por exemplo, uma primeira entrada 818 inclui uma descrição 819 e um identificador de processador de imagem 820 identificando que uma condição de falha foi identificada em relação ao "processador de imagem 5", representado pelo elemento de exibição 822. O identificador de câmera 824 identifica as câmeras correspondentes.
[00113] A Figura 14 ilustra um exemplo de uma tela de interface de usuário 830 que é exibida quando um usuário seleciona "processador de imagem 6" no numeral de referência 826 na Figura 13. A tela 830 inclui um elemento de exibição 832 que identifica quais processadores de imagem e bocais estão sendo representados pelos dados de diagnóstico no painel de exibição 834. Além disso, o monitor 830 pode incluir um painel de exibição de alimentação de câmera 836 que exibe uma imagem ou feed de vídeo de câmeras associadas com o processador de imagem selecionado. Quando múltiplas câmeras estão associadas ao processador de imagem selecionado, um mecanismo de entrada do usuário 838 pode ser fornecido para permitir ao usuário selecionar entre a pluralidade de câmeras. A vista da câmera selecionada é exibida no painel 836. Além disso, o painel de exibição 836 pode incluir um elemento de exibição de ROI 840 que representa a ROI da câmera selecionada.
[00114] Além disso, para o processador de imagem selecionado, o painel de exibição 834 inclui um elemento de exibição do modo de aspersão 842 que identifica o modo de aspersão atual do processador de imagem selecionado. No presente exemplo, os bocais correspondentes ao processador de imagem selecionado (isto é, bocais 49 a 53) são identificados como estando em um modo de aspersão por difusão. Além disso, o painel de exibição 834 pode incluir um ou mais elementos de exibição 844 que identificam as razões para o modo de aspersão por difusão, juntamente com ações corretivas recomendadas, como abaixar a barra, diminuir a velocidade da máquina, etc.
[00115] A Figura 15 ilustra outro exemplo de uma tela de interface de usuário 850 que é exibida para um processador de imagem selecionado 852. A tela 850 inclui um painel de exibição 854 que inclui uma pluralidade de entradas 856-1, 856-2, 856-3 e 856-4 (referidas coletivamente como entradas 856) em uma lista rolável. Cada entrada 856 representa um caso de diagnóstico associada ao processador de imagem 852 selecionado, como condições de falha, erros ou outros problemas no painel de exibição 854 e inclui um atuador de detalhes 857 que pode ser acionado para exibir informações adicionais para o caso de diagnóstico. No exemplo da Figura 15, a entrada 856-1 indica que o processador de imagem 852 experimentou uma falha de conexão ethernet, a entrada 856-2 indica que não há conexão de barramento CAN e a entrada 856-3 indica que o processador de imagem selecionado está experimentando um alto consumo de corrente.
[00116] A tela 850 também inclui um elemento de seleção de histórico de diagnóstico 858 que pode ser acionado para exibir uma tela de interface de usuário de histórico de diagnóstico, como a tela 860 mostrada na Figura 16. A tela 860 inclui um mecanismo de entrada de usuário 862 que pode ser acionado para selecionar uma tela de histórico de falhas e um mecanismo de entrada de usuário 864 que pode ser acionado para selecionar um histórico de modo de fallback.
[00117] Na Figura 16, o mecanismo 862 é acionado e um histórico de falhas é exibido no painel de exibição 866. O painel de exibição 866 inclui uma pluralidade de entradas de exibição 868, 870 e 872. Cada entrada de exibição inclui um elemento de descrição 874, um elemento identificador 876 que identifica o processador de imagem correspondente, um elemento identificador de câmera 878 que identifica a câmera correspondente e um elemento de registro temporal 879 que identifica a hora da falha detectada.
[00118] A Figura 17 ilustra uma tela de interface de usuário exemplificativa 880 que é exibida quando o mecanismo 864 é acionado. O monitor 880 inclui um painel de exibição 882 que exibe um histórico de operação de fallback ou modo padrão (por exemplo, modo de aspersão por difusão). Cada entrada de exibição 884, 886 e 888 identifica um caso de aspersão por difusão e inclui um elemento de descrição 890, um elemento identificador de processador de imagem 892 que identifica o processador de imagem relevante, um elemento de identificação de câmera 894 que identifica a câmera correspondente e um elemento de registro temporal 896 que identifica o momento em que ocorreu o modo fallback, representado pela entrada. Em um exemplo, o elemento de descrição 890 identifica para o operador 228 uma ou mais razões para a ocorrência do modo de fallback.
[00119] A Figura 18 é um diagrama de blocos que ilustra um exemplo de gerador de mapa de campo de modo de aspersão 374, discutido acima em relação à Figura 4. O gerador 374 inclui um coletor de dados operacionais de sistema de aspersão 902, um coletor de dados operacionais de sistema de imagem 904, um detector de localização e velocidade de máquina 906, um componente de interface de usuário 908 e pode incluir outros itens 910 também.
[00120] O coletor de dados operacionais do sistema de aspersão 902 é configurado para coletar dados operacionais que representam a operação do sistema de aspersão 102 quando a máquina de aspersão 100 atravessa um campo. Os dados operacionais indicam, por exemplo, qual modo de aspersão (por exemplo, aspersão por difusão ou de precisão) é ativado em vários locais no campo. Além disso, os dados operacionais do sistema de aspersão podem indicar taxas de aplicação da substância em diferentes locais no campo, etc. O coletor de dados operacionais do sistema de imagem 904 é configurado para obter dados que representam a operação das câmeras 260 e/ou componentes de processamento de imagem 238. Por exemplo, os dados coletados ou obtidos pelo coletor 904 indicam locais no campo onde as imagens foram adquiridas pelas câmeras 260 para realizar a classificação da planta, para identificar os tipos de planta alvo nessas áreas. O detector de localização e velocidade da máquina 906 é configurado para identificar a localização e a velocidade da máquina 100 conforme ela atravessa o campo. Por exemplo, o detector 906 pode gerar uma trajetória de máquina em todo o campo. O componente de interface de usuário 908 inclui um visualizador de mapa de campo 912 e pode incluir outros itens 914 também. O visualizador de mapa de campo 912 é configurado para gerar e renderizar um mapa de campo para o operador 228 ou outro usuário. Os exemplos são discutidos em mais detalhes abaixo.
[00121] A Figura 19 fornece um fluxograma 1000 que ilustra um exemplo de operação de uma máquina agrícola para gerar um mapa de campo que representa as operações de aspersão. Para fins de ilustração, mas sem limitação, a Figura 19 será descrita no contexto da máquina agrícola 100 e do gerador de mapa de campo do modo de aspersão 374, discutido acima.
[00122] No bloco 1002, o componente de interface de usuário 908 gera uma tela de interface de usuário de mapa de campo que representa o campo no qual a máquina de aspersão agrícola 100 está operando. Por exemplo, a tela de interface de usuário pode representar a trajetória da máquina sobre o campo, conforme representado pelo bloco 1003. Um exemplo de uma tela de interface de usuário do mapa de campo 1004 é ilustrado na Figura 20.
[00123] Conforme mostrado na Figura 20, a tela 1004 inclui um ícone 1006, ou outra representação, que representa a posição atual da máquina de aspersão 100 em um campo 1008. A tela 1004 também inclui um elemento de exibição 1010 que representa a barra 110 da máquina de aspersão 100 e um elemento de exibição da trajetória da máquina 1012 que representa a trajetória da máquina 100 sobre o campo 1008.
[00124] Com referência novamente à Figura 19, no bloco 1014 os dados operacionais são recebidos do sistema de imagem da máquina de aspersão agrícola 100. Os dados operacionais podem incluir dados das câmeras 260 e/ou componente de processamento de imagem 238. No bloco 1016, áreas do campo onde o sistema de imagem adquiriu imagens para detecção de plantas são identificadas. Por exemplo, essas áreas de campo podem ser identificadas com base em áreas já percorridas pela máquina de aspersão 100 (representada no bloco 1018) e/ou com base na identificação de áreas onde o sistema de imagem estava ativo (representado pelo bloco 1020). Obviamente, as áreas de campo também podem ser identificadas de outras maneiras, conforme representado pelo bloco 1022. No exemplo da Figura 20, a tela 1004 identifica áreas já cobertas pelo sistema de imagem, destacando essas áreas 1024 com uma cor diferente de uma porção restante 1026 no mapa de campo.
[00125] No bloco 1028, as áreas de campo que foram cobertas pelo modo de aspersão de precisão são identificadas. Como observado acima, em um exemplo, essas áreas incluem áreas com uma métrica de confiança (bloco 1030), acima de um limiar onde o sistema de controle 206 controla os bocais 108 em um modo de aspersão de precisão que aplica a substância agrícola a áreas de dispersão discretas.
[00126] No bloco 1032, as áreas de campo cobertas pelo modo padrão ou fallback (por exemplo, o modo de aspersão por difusão) são identificadas. Como observado acima, as áreas de modo padrão têm uma métrica de confiança que está abaixo do limiar, sobre a qual o sistema de controle 206 controla os bocais 103 em um modo de aspersão por difusão. Um exemplo inclui a ativação de todos os bocais para distribuir a substância agrícola de uma maneira substancialmente uniforme, conforme representado pelo bloco 1034.
[00127] No bloco 1036, elementos de exibição são fornecidos na tela de interface do usuário do mapa de campo para visualizar as áreas de campo identificadas. Um exemplo inclui a visualização das áreas do modo por difusão no bloco 1038 e a visualização das áreas do modo de aspersão com base em imagem no bloco 1040. Além disso, as áreas onde o tipo de planta alvo são detectados também podem ser visualizadas, conforme representado no bloco 1042.
[00128] Com referência novamente à Figura 20, o tela 1004 inclui um primeiro tipo de elemento de exibição 1044 que representa as áreas de modo de aspersão por difusão e um segundo tipo de elemento de exibição 1046 que é visualmente distinto do primeiro tipo e identifica as áreas de modo de aspersão com base em imagem e precisão. Em um exemplo, os elementos de exibição 1044 e 1046 são renderizados em cores diferentes, para distinguir visualmente as áreas de modo de aspersão por difusão de áreas de modo de aspersão de precisão. Além disso, no exemplo da Figura 20, as áreas do campo onde o tipo de planta alvo foi detectado, mas a área do modo de aspersão por difusão foi ativada, também podem ser identificadas. Por exemplo, como mostrado nos números de referência 1048, os componentes do processador de imagem 238 identificaram ervas daninhas (ou outro tipo de planta alvo) em áreas no campo, mas a métrica de confiança era muito baixa para desativar o modo de aspersão por difusão. Usando os dados de diagnóstico, o operador 226 pode ajustar manualmente a operação da máquina, como diminuindo a velocidade da máquina, reduzindo a altura da barra ou outra ação corretiva. Consequentemente, o mapa de campo exibido na tela de interface de usuário 1004 permite que o operador 228 identifique facilmente como o sistema de aspersão 102 é operado em vários locais no campo.
[00129] Com referência novamente à Figura 19, os elementos de exibição que representam os dados operacionais podem ser exibidos no bloco 1050. Por exemplo, os elementos de exibição que representam as métricas de confiança (bloco 1052) podem ser renderizados na tela 1004 em locais correspondentes no mapa. Além disso, os elementos de exibição que representam a velocidade da máquina (bloco 1054) e/ou as taxas de aplicação de substância (bloco 1056) também podem ser renderizados na tela 1004 em locais correspondentes no campo. Obviamente, outros elementos de exibição também podem ser fornecidos, conforme representado no bloco 1058.
[00130] No bloco 1060, um mecanismo de interface de usuário pode ser fornecido para navegar para uma tela de diagnóstico, como as telas mostradas nas Figuras 13 a 16. Além disso, um mecanismo de interface de usuário pode ser fornecido no bloco 1062 que permite ao usuário navegar para uma exibição de feed de vídeo, como aquela mostrada na Figura 6. No bloco 1064, para operação de aspersão contínua, o processo retorna ao bloco 1014.
[00131] Assim, pode-se verificar que o sistema atual oferece uma série de vantagens. Por exemplo, mas sem limitação, a operação de um sistema de controle de aspersão com base em imagem é detectada e visualizada com controles para calibrar ou configurar o sistema de imagem, o que pode melhorar o desempenho de aspersão. Além disso, o desempenho de aspersão melhorado pode incluir aumentar os rendimentos produtivos e da cultura e reduzir a ocorrência de aspersão excessiva ou insuficiente.
[00132] Deve-se observar que a discussão acima descreveu uma variedade de diferentes sistemas, componentes e/ou lógica. Deve-se reconhecer que esses sistemas, componentes e/ou lógica podem ser compostos de itens de hardware (como processadores e memória associada, ou outros componentes de processamento, alguns dos quais são descritos abaixo) que executam as funções associadas a esses sistemas, componentes e/ou lógica. Além disso, os sistemas, componentes e/ou lógica podem ser compostos de software que é carregado em uma memória e é subsequentemente executado por um processador ou servidor, ou outro componente de computação, conforme descrito abaixo. Os sistemas, componentes e/ou lógica também podem ser compostos de diferentes combinações de hardware, software, firmware, etc., alguns exemplos dos quais são descritos abaixo. Estes são apenas alguns exemplos de diferentes estruturas que podem ser usadas para formar os sistemas, componentes e/ou lógica descritos acima. Outras estruturas também podem ser usadas.
[00133] A presente discussão mencionou processadores, sistemas de processamento, controladores e/ou servidores. Em um exemplo, estes podem incluir processadores de computador com memória associada e circuitos de temporização, não mostrados separadamente. Eles são partes funcionais dos sistemas ou dispositivos aos quais pertencem e são ativados por, e facilitam a funcionalidade de outros componentes ou itens nesses sistemas.
[00134] Além disso, uma série de telas de interface do usuário foram discutidas. Eles podem assumir uma grande variedade de formas diferentes e podem ter uma grande variedade de diferentes mecanismos de entrada atuáveis pelo usuário dispostos nos mesmos. Por exemplo, os mecanismos de entrada atuáveis pelo usuário podem ser caixas de texto, caixas de seleção, ícones, links, menus suspensos, caixas de pesquisa, etc. Eles também podem ser acionados de uma ampla variedade de maneiras diferentes. Por exemplo, eles podem ser acionados pelo uso de um dispositivo de apontar e clicar (como uma trackball ou mouse). Eles podem ser acionados com o uso de botões de hardware, interruptores, um joystick ou teclado, interruptores de polegar ou blocos de polegar, etc. Eles também podem ser acionados usando um teclado virtual ou outros atuadores virtuais. Além disso, quando a tela em que são exibidos é sensível ao toque, eles podem ser acionados por meio de gestos de toque. Além disso, quando o dispositivo que os exibe possui componentes de reconhecimento de voz, eles podem ser acionados usando comandos de voz.
[00135] Vários armazenamentos de dados também foram discutidos. Será observado que cada um deles pode ser dividido em vários armazenamentos de dados. Todos podem ser locais para os sistemas que os acessam, todos podem ser remotos ou alguns podem ser locais enquanto outros são remotos. Todas essas configurações são contempladas aqui.
[00136] Além disso, as figuras mostram diversos blocos com funcionalidade atribuída a cada bloco. Deve-se observar que menos blocos podem ser usados, portanto a funcionalidade é realizada por menos componentes. Além disso, mais blocos podem ser usados com a funcionalidade distribuída entre mais componentes.
[00137] A Figura 21 é um diagrama de blocos de um exemplo da arquitetura mostrada na Figura 2, onde a máquina de aspersão agrícola 100 se comunica com elementos em uma arquitetura de servidor remoto 10. Em um exemplo, a arquitetura de servidor remoto 10 pode prover computação, software, acesso a dados e serviços de armazenamento que não requerem conhecimento do usuário final da localização física ou configuração do sistema que entrega os serviços. Em vários exemplos, os servidores remotos podem entregar os serviços em uma rede de área ampla, como a Internet, com o uso de protocolos apropriados. Por exemplo, servidores remotos podem prover aplicativos em uma rede de área ampla e podem ser acessados por meio de um navegador da web ou qualquer outro componente de computação. Software ou componentes mostrados na Figura 2, bem como os dados correspondentes, podem ser armazenados em servidores em um local remoto. Os recursos de computação em um ambiente de servidor remoto podem ser consolidados em um local de centro de dados remoto ou podem ser dispersos. As infraestruturas de servidores remotos podem entregar serviços por meio de centros de dados compartilhados, mesmo que apareçam como um único ponto de acesso para o usuário. Dessa forma, os componentes e funções descritos neste documento podem ser fornecidos a partir de um servidor remoto em um local remoto com o uso de uma arquitetura de servidor remoto. Como alternativa, eles podem ser fornecidos a partir de um servidor convencional ou podem ser instalados nos dispositivos clientes diretamente ou de outras maneiras.
[00138] No exemplo mostrado na Figura 21, alguns itens são semelhantes aos mostrados na Figura 2 e são numerados de forma semelhante. A Figura 21 mostra especificamente que o sistema 206 e o armazenamento de dados 251 podem estar localizados em um local de servidor remoto 12. Portanto, a máquina 100 acessa esses sistemas por meio de um local de servidor remoto 12.
[00139] A Figura 21 também descreve outro exemplo de uma arquitetura de servidor remoto. A Figura 21 mostra que também está contemplado que alguns elementos da Figura 2 estão dispostos no local do servidor remoto 12, enquanto outros não. A título de exemplo, o armazenamento de dados 251 pode ser disposto em um local separado do local 12 e acessado através do servidor remoto no local 12. Alternativamente, ou além disso, o sistema 206 pode ser disposto em locais separados do local 12, e acessado por meio do servidor remoto no local 12.
[00140] Independentemente de onde estejam localizados, eles podem ser acessados diretamente pela máquina 100, por meio de uma rede (uma rede de área ampla ou uma rede de área local), eles podem ser hospedados em um site remoto por um serviço, ou podem ser fornecidos como um serviço ou acessado por um serviço de conexão que resida em um local remoto. Além disso, os dados podem ser armazenados em praticamente qualquer local e acessados de forma intermitente ou encaminhados para as partes interessadas. Por exemplo, portadores físicos podem ser usados em vez de, ou além de, portadores de ondas eletromagnéticas. Em tal exemplo, onde a cobertura celular é pobre ou inexistente, outra máquina móvel (como um caminhão de combustível) pode ter um sistema de coleta de informações automatizado. Conforme a máquina se aproxima do caminhão de combustível para abastecer, o sistema coleta automaticamente as informações da máquina ou transfere informações para a máquina usando qualquer tipo de conexão sem fio ad-hoc. As informações coletadas podem então ser encaminhadas para a rede principal quando o caminhão de combustível chega a um local onde há cobertura de celular (ou outra cobertura sem fio). Por exemplo, o caminhão de combustível pode entrar em um local coberto ao viajar para abastecer outras máquinas ou quando em um local de armazenamento de combustível principal. Todas essas arquiteturas são contempladas aqui. Além disso, as informações podem ser armazenadas na máquina até que a máquina agrícola entre em um local coberto. A própria máquina pode então enviar e receber as informações de/para a rede principal.
[00141] Também será observado que os elementos da Figura 2, ou porções dos mesmos, podem ser dispostos em uma ampla variedade de dispositivos diferentes. Alguns desses dispositivos incluem servidores, desktops, laptops, tablets ou outros dispositivos móveis, como palm tops, telefones celulares, smartphones, reprodutores de multimídia, assistentes pessoais digitais, etc.
[00142] A Figura 22 é um diagrama de blocos simplificado de um exemplo ilustrativo de um dispositivo de computação portátil ou móvel que pode ser usado como um dispositivo portátil de usuário ou cliente 16, no qual o presente sistema (ou partes dele) pode ser implantado. Por exemplo, um dispositivo móvel pode ser implantado no compartimento do operador da máquina agrícola 100 (ou 202) ou como sistema de computação remoto 212. As Figuras 23 a 24 são exemplos de dispositivos portáteis ou móveis.
[00143] A Figura 22 fornece um diagrama de blocos geral dos componentes de um dispositivo cliente 16 que pode executar alguns componentes mostrados na Figura 2, que interage com eles, ou ambos. No dispositivo 16, um link de comunicação 13 é fornecido, permitindo que o dispositivo portátil se comunique com outros dispositivos de computação e, em algumas modalidades, fornece um canal para receber informações automaticamente, como por varredura. Exemplos de link de comunicação 13 incluem permitir a comunicação por meio de um ou mais protocolos de comunicação, como serviços sem fio usados para proporcionar acesso celular a uma rede, bem como protocolos que proveem conexões sem fio locais para as redes.
[00144] Em outros exemplos, os aplicativos podem ser recebidos em um cartão Secure Digital (SD) removível que está conectado a uma interface 15. A interface 15 e os links de comunicação 13 se comunicam com um processador 17 (que também pode incorporar processadores ou servidores das Figuras anteriores) ao longo de um barramento 19 que também está conectado à memória 21 e aos componentes de entrada/saída (I/O) 23, bem como ao relógio 25 e ao sistema de localização 27.
[00145] Os componentes de I/O 23, em um exemplo, são fornecidos para facilitar as operações de entrada e saída. Os componentes de I/O 23 para várias modalidades do dispositivo 16 podem incluir componentes de entrada, como botões, sensores de toque, sensores ópticos, microfones, telas sensíveis ao toque, sensores de proximidade, acelerômetros, sensores de orientação e componentes de saída, como um dispositivo de exibição, um alto-falante, e ou uma porta de impressora. Outros componentes de I/O 23 também podem ser usados.
[00146] O relógio 25 compreende, de forma ilustrativa, um componente de relógio em tempo real que emite uma hora e data. Ele também pode, ilustrativamente, prover funções de temporização para o processador 17.
[00147] O sistema de localização 27 ilustrativamente inclui um componente que emite uma localização geográfica atual do dispositivo 16. O sistema de localização 27 pode incluir, por exemplo, um receptor de sistema de posicionamento global (GPS), um sistema LORAN, um sistema de navegação estimada, um sistema de triangulação celular ou outro sistema de posicionamento. Também pode incluir, por exemplo, software de mapeamento ou software de navegação que gera os mapas desejados, rotas de navegação e outras funções geográficas.
[00148] A memória 21 armazena o sistema operacional 29, configurações de rede 31, aplicativos 33, configurações de aplicativo 35, armazenamento de dados 37, drivers de comunicação 39 e configurações de comunicação 41. A memória 21 pode incluir todos os tipos de dispositivos de memória legíveis por computador tangível volátil e não volátil. Também pode incluir mídia de armazenamento de computador (descrita abaixo). A memória 21 armazena instruções legíveis por computador que, quando executadas pelo processador 17, fazem com que o processador execute etapas ou funções implementadas por computador de acordo com as instruções. O processador 17 pode ser ativado por outros componentes para facilitar sua funcionalidade também.
[00149] A Figura 23 mostra um exemplo em que o dispositivo 16 é um computador tablet 50. Na Figura 23, o computador 50 é mostrado com a tela de exibição de interface de usuário 52. A tela 52 pode ser uma tela sensível ao toque ou uma interface ativada por caneta que recebe entradas de uma caneta ou caneta gráfica. Também pode-se usar um teclado virtual na tela. Obviamente, ela também pode ser conectada a um teclado ou outro dispositivo de entrada do usuário por meio de um mecanismo de conexão adequado, como um link sem fio ou porta USB, por exemplo. O computador 50 também pode receber entradas de voz de forma ilustrativa.
[00150] A Figura 24 mostra que o dispositivo pode ser um smartphone 71. O smartphone 71 tem uma tela sensível ao toque 73 que exibe ícones ou quadriculados ou outros mecanismos de entrada do usuário 75. Os mecanismos 75 podem ser usados por um usuário para executar aplicativos, fazer chamadas, executar dados operações de transferência, etc. Em geral, o smartphone 71 é construído em um sistema operacional móvel e oferece capacidade de computação e conectividade mais avançada do que um telefone convencional.
[00151] Observe que outras formas dos dispositivos 16 são possíveis.
[00152] A Figura 25 é um exemplo de um ambiente de computação no qual os elementos da Figura 2, ou partes dele, (por exemplo) podem ser implantados. Com referência à Figura 25, um sistema exemplificativo para implementar algumas modalidades inclui um dispositivo de computação na forma de um computador 1110. Os componentes do computador 1110 podem incluir, mas não estão limitados a, uma unidade de processamento 1120 (que pode compreender processadores ou servidores das Figuras anteriores), uma memória de sistema 1130 e um barramento de sistema 1121 que acopla vários componentes de sistema, incluindo a memória de sistema, à unidade de processamento 1120. O barramento de sistema 1121 pode ser qualquer um dos vários tipos de estruturas de barramento, que inclui um barramento de memória ou controlador de memória, um barramento periférico e um barramento local usando qualquer uma das várias arquiteturas de barramento. Memória e programas descritos em relação à Figura 2 podem ser implantados em porções correspondentes da Figura 25.
[00153] O computador 1110 normalmente inclui uma variedade de mídia legível por computador. A mídia legível por computador pode ser qualquer mídia disponível que pode ser acessada pelo computador 1110 e inclui mídia volátil e não volátil, mídia removível e não removível. A título de exemplo, e não de limitação, a mídia legível por computador pode compreender mídia de armazenamento de computador e mídia de comunicação. A mídia de armazenamento do computador é diferente e não inclui um sinal de dados modulado ou onda portadora. Inclui mídia de armazenamento de hardware, incluindo mídia volátil e não volátil, removível e não removível implementada em qualquer método ou tecnologia para armazenamento de informações, como instruções legíveis por computador, estruturas de dados, módulos de programa ou outros dados. A mídia de armazenamento de computador inclui, mas não está limitada a, RAM, ROM, EEPROM, memória flash ou outra tecnologia de memória, CD-ROM, discos versáteis digitais (DVD) ou outro armazenamento de disco óptico, cassetes magnéticos, fita magnética, armazenamento de disco magnético ou outros dispositivos de armazenamento magnético, ou qualquer outra mídia que pode ser usada para armazenar as informações desejadas e que pode ser acessada pelo computador 1110. As mídias de comunicação podem incorporar instruções legíveis por computador, estruturas de dados, módulos de programa ou outros dados em um mecanismo de transporte e inclui quaisquer mídias de entrega de informação. O termo "sinal de dados modulado" significa um sinal que tem uma ou mais de suas características definidas ou alteradas de forma a codificar informações no sinal.
[00154] A memória do sistema 1130 inclui mídia de armazenamento de computador na forma de memória volátil e/ou não volátil, como memória somente leitura (ROM) 1131 e memória de acesso aleatório (RAM) 1132. Um sistema básico de entrada/saída 1133 (BIOS), contendo as rotinas básicas que ajudam a transferir informações entre os elementos dentro do computador 1110, como durante a inicialização, é normalmente armazenado na ROM 1131. A RAM 1132 normalmente contém dados e/ou módulos de programa que são imediatamente acessíveis para e/ou que estão atualmente sendo operados ou pela unidade de processamento 1120. A título de exemplo, e sem limitação, a Figura 25 ilustra o sistema operacional 1134, programas de aplicativo 1135, outros módulos de programa 1136 e dados de programa 1137.
[00155] O computador 1110 também pode incluir outras mídias de armazenamento de computador removíveis/não removíveis voláteis/não voláteis. Apenas a título de exemplo, a Figura 25 ilustra uma unidade de disco rígido 1141 que lê ou grava em mídia magnética não removível e não volátil, uma unidade de disco óptico 1155 e disco óptico não volátil 1156. A unidade de disco rígido 1141 é normalmente conectada ao barramento de sistema 1121 por meio de uma interface de memória removível, como interface 1140, e unidade de disco óptico 1155 é normalmente conectada ao barramento de sistema 1121 por uma interface de memória removível, como interface 1150.
[00156] Alternativamente, ou além disso, a funcionalidade aqui descrita pode ser realizada, pelo menos em parte, por um ou mais componentes lógicos de hardware. Por exemplo, e sem limitação, os tipos ilustrativos de componentes lógicos de hardware que podem ser usados incluem Arranjos de Porta Programáveis em Campo (FPGAs), Circuitos Integrados de Aplicação Específica (por exemplo, ASICs), Produtos Padrão de Aplicação Específica (por exemplo, ASSPs), Sistemas de sistema em um chip (SOCs), dispositivos Lógicos Programáveis Complexos (CPLDs), etc.
[00157] Os drives e sua mídia de armazenamento de computador associada discutidas acima e ilustrada na Figura 25, proveem armazenamento de instruções legíveis por computador, estruturas de dados, módulos de programa e outros dados para o computador 1110. Na FIG. 25, por exemplo, a unidade de disco rígido 1141 é ilustrada como o sistema operacional de armazenamento 1144, programas de aplicativo 1145, outros módulos de programa 1146 e dados de programa 1147. Observe que esses componentes podem ser iguais ou diferentes do sistema operacional 1134, programas de aplicativos 1135, outros módulos de programa 1136 e dados de programa 1137.
[00158] Um usuário pode inserir comandos e informações no computador 1110 por meio de dispositivos de entrada, como um teclado 1162, um microfone 1163 e um dispositivo indicador 1161, como um mouse, trackball ou dispositivo sensível ao toque. Outros dispositivos de entrada (não mostrados) podem incluir um joystick, console, antena parabólica, digitalizador ou semelhantes. Estes e outros dispositivos de entrada são frequentemente conectados à unidade de processamento 1120 através de uma interface de entrada de usuário 1160 que é acoplada ao barramento do sistema, mas pode ser conectada por outra interface e estruturas de barramento. Uma tela visual 1191 ou outro tipo de dispositivo de exibição também está conectado ao barramento de sistema 1121 por meio de uma interface, como uma interface de vídeo 1190. Além do monitor, os computadores também podem incluir outros dispositivos de saída periféricos, como alto-falantes 1197 e impressora 1196 , que podem ser conectados por meio de uma interface periférica de saída 1195.
[00159] O computador 1110 é operado em um ambiente de rede usando conexões lógicas (como uma rede de área local - LAN, ou rede de área ampla - WAN ou uma rede de área do controlador - CAN) para um ou mais computadores remotos, como um computador remoto 1180.
[00160] Quando usado em um ambiente de rede LAN, o computador 1110 é conectado à LAN 1171 por meio de uma interface de rede ou adaptador 1170. Quando usado em um ambiente de rede WAN, o computador 1110 normalmente inclui um modem 1172 ou outro meio para estabelecer comunicações pela WAN 1173, como a Internet. Em um ambiente de rede, os módulos do programa podem ser armazenados em um dispositivo de armazenamento de memória remoto. A Figura 25 ilustra, por exemplo, que os programas de aplicativos remotos 1185 podem residir no computador remoto 1180.
[00161] Também deve ser observado que os diferentes exemplos descritos neste documento podem ser combinados de diferentes maneiras. Ou seja, partes de um ou mais exemplos podem ser combinadas com partes de um ou mais outros exemplos. Tudo isso é contemplado no presente documento.
[00162] O Exemplo 1 é uma máquina agrícola que compreende: um sistema de aplicação de produto que compreende uma pluralidade de mecanismos aplicadores atuáveis, cada mecanismo aplicador atuável configurado para aplicar uma substância em uma superfície agrícola; um sistema de formação de imagem que compreende: um componente de captura de formação de imagem configurado para capturar uma imagem de matéria vegetal na superfície agrícola; e um módulo de processamento de imagem configurado para determinar uma característica da matéria vegetal com base na imagem; e um sistema de controle configurado para: controlar um ou mais dos mecanismos aplicadores atuáveis para aplicar a substância na superfície agrícola com base na característica determinada; obter dados de diagnóstico indicativos de operação do sistema de formação de imagem; e gerar um visor de interface de usuário que exibe uma representação dos dados de diagnóstico.
[00163] O Exemplo 2 é a máquina agrícola de qualquer ou todos os exemplos anteriores, em que a máquina agrícola compreende um pulverizador agrícola e a pluralidade de mecanismos aplicadores atuáveis compreende uma pluralidade de bocais de pulverização controláveis.
[00164] O Exemplo 3 é a máquina agrícola de qualquer ou todos os exemplos anteriores, em que os dados de diagnóstico indicam uma condição de falha.
[00165] O Exemplo 4 é a máquina agrícola de qualquer ou todos os exemplos anteriores, em que os dados de diagnóstico indicam um modo de pulverização específico.
[00166] O Exemplo 5 é a máquina agrícola de qualquer ou todos os exemplos anteriores, em que o sistema de formação de imagem compreende uma pluralidade de câmeras e uma pluralidade de módulos de processamento de imagem, cada módulo de processamento de imagem configurado para processar dados de imagem de um conjunto de câmeras e os dados de diagnóstico são indicativos da operação de pelo menos uma dentre a pluralidade de câmeras ou a pluralidade de módulos de processamento de imagem.
[00167] O Exemplo 6 é a máquina agrícola de qualquer ou todos os exemplos anteriores, em que cada módulo de processamento de imagem específico, da pluralidade de módulos de processamento de imagem, está associado a um conjunto de mecanismos aplicadores atuáveis, o sistema de controle é configurado para controlar o conjunto de mecanismos aplicadores atuáveis com base em um sinal do módulo de processamento de imagem específico e os dados de diagnóstico são indicativos da operação do módulo de processamento de imagem específico.
[00168] O Exemplo 7 é a máquina agrícola de qualquer ou todos os exemplos anteriores, em que a máquina agrícola compreende uma lança e a pluralidade de mecanismos aplicadores atuáveis estão espaçados ao longo da lança e o visor de interface de usuário inclui uma pluralidade de elementos de exibição que representam as localizações relativas dos mecanismos aplicadores atuáveis na lança.
[00169] O Exemplo 8 é a máquina agrícola de qualquer ou todos os exemplos anteriores, em que o visor de interface de usuário associa visualmente os conjuntos de mecanismos aplicadores atuáveis com as câmeras correspondentes.
[00170] O Exemplo 9 é a máquina agrícola de qualquer ou todos os exemplos anteriores, em que o visor de interface de usuário associa visualmente os conjuntos de mecanismos aplicadores atuáveis com os módulos de processamento de imagem correspondentes.
[00171] O Exemplo 10 é a máquina agrícola de qualquer ou todos os exemplos anteriores, em que o visor de interface de usuário exibe a imagem e inclui um elemento de exibição que representa visualmente a região da imagem dentro da imagem.
[00172] O Exemplo 11 é um método realizado por uma máquina agrícola, em que o método compreende: obter uma imagem de matéria vegetal na superfície agrícola; processar a imagem para determinar uma característica da matéria vegetal; controlar um ou mais de uma pluralidade de mecanismos aplicadores atuáveis para aplicar uma substância na superfície agrícola com base na característica determinada; obter dados de diagnóstico correspondentes a um ou mais da captura ou processamento da imagem; e gerar um visor de interface de usuário que exibe uma representação dos dados de diagnóstico.
[00173] O Exemplo 12 é o método de qualquer ou todos os exemplos anteriores, em que a máquina agrícola compreende um pulverizador agrícola e a pluralidade de mecanismos aplicadores atuáveis compreende uma pluralidade de bocais de pulverização controláveis.
[00174] O Exemplo 13 é o método de qualquer ou todos os exemplos anteriores, em que os dados de diagnóstico indicam pelo menos um dentre uma condição de falha ou um modo de pulverização específico.
[00175] O Exemplo 14 é o método de qualquer ou todos os exemplos anteriores, em que a máquina agrícola compreende uma pluralidade de câmeras e uma pluralidade de módulos de processamento de imagem, e cada módulo de processamento de imagem está associado a um conjunto de mecanismos aplicadores atuáveis e configurado para processar dados de imagem de uma ou mais das câmeras, e o sistema de controle é configurado para controlar o conjunto de mecanismos aplicadores atuáveis com base em um sinal do módulo de processamento de imagem.
[00176] O Exemplo 15 é o método de qualquer ou todos os exemplos anteriores, em que a máquina agrícola compreende uma lança e a pluralidade de mecanismos aplicadores atuáveis estão espaçados ao longo da lança e o visor de interface de usuário inclui uma pluralidade de elementos de exibição que representam as localizações relativas dos mecanismos aplicadores atuáveis na lança.
[00177] O Exemplo 16 é o método de qualquer ou todos os exemplos anteriores, em que o visor de interface de usuário associa visualmente os conjuntos de mecanismos aplicadores atuáveis com as câmeras correspondentes.
[00178] O Exemplo 17 é o método de qualquer ou todos os exemplos anteriores, em que o visor de interface de usuário associa visualmente os conjuntos de mecanismos aplicadores atuáveis com os módulos de processamento de imagem correspondentes.
[00179] O Exemplo 18 é o método de qualquer ou todos os exemplos anteriores, em que o visor de interface de usuário exibe a imagem e inclui um elemento de exibição que representa visualmente a região da imagem dentro da imagem.
[00180] O Exemplo 19 é um sistema de controle para uma máquina agrícola, em que o sistema de controle compreende: pelo menos um processador; e memória que armazena instruções executáveis por pelo menos um processador, em que as instruções, quando executadas, fazem com que o sistema de controle: receber dados de imagem indicativos de uma imagem de matéria vegetal na superfície agrícola; determinar uma característica da matéria vegetal; controlar um ou mais de uma pluralidade de mecanismos aplicadores atuáveis para aplicar uma substância na superfície agrícola com base na característica determinada; obter dados de diagnóstico correspondentes a um ou mais da captura ou processamento da imagem; e gerar um visor de interface de usuário que exibe uma representação dos dados de diagnóstico.
[00181] O Exemplo 20 é o sistema de controle de qualquer ou todos os exemplos anteriores, em que a máquina agrícola compreende uma pluralidade de câmeras e uma pluralidade de módulos de processamento de imagem, cada módulo de processamento de imagem está associado a um conjunto de mecanismos aplicadores atuáveis e configurado para processar dados de imagem de uma ou mais das câmeras, e o sistema de controle é configurado para controlar o conjunto de mecanismos aplicadores atuáveis com base em um sinal do módulo de processamento de imagem, e a visor de interface de usuário inclui uma pluralidade de elementos de exibição que representam os locais relativos dos mecanismos aplicadores atuáveis.
[00182] Embora a matéria tenha sido descrita em linguagem específica para recursos estruturais e/ou atos metodológicos, deve ser entendido que a matéria definida nas reivindicações anexas não é necessariamente limitada aos recursos ou atos específicos descritos acima. Preferencialmente, as características e atos específicos descritos acima são descritos como formas de exemplo de implementação das reivindicações.

Claims (15)

  1. Máquina agrícola (100), caracterizada pelo fato de que compreende: um sistema de aplicação de produto (102) que compreende uma pluralidade de mecanismos aplicadores atuáveis, cada mecanismo aplicador atuável configurado para aplicar uma substância em uma superfície agrícola; um sistema de formação de imagem que compreende: um componente de captura de formação de imagem (260) configurado para capturar uma imagem de matéria vegetal na superfície agrícola; e um módulo de processamento de imagem (238) configurado para determinar uma característica da matéria vegetal com base na imagem; e um sistema de controle (206) configurado para: controlar um ou mais dos mecanismos aplicadores atuáveis para aplicar a substância na superfície agrícola com base na característica determinada; obter dados de diagnóstico indicativos de operação do sistema de formação de imagem; e gerar um visor de interface de usuário que exibe uma representação dos dados de diagnóstico.
  2. Máquina agrícola de acordo com a reivindicação 1, caracterizada pelo fato de que a máquina agrícola compreende um pulverizador agrícola e a pluralidade de mecanismos aplicadores atuáveis compreende uma pluralidade de bocais de pulverização controláveis.
  3. Máquina agrícola de acordo com a reivindicação 1, caracterizada pelo fato de que os dados de diagnóstico indicam pelo menos um dentre: uma condição de falha, ou um modo de pulverização específico.
  4. Máquina agrícola de acordo com a reivindicação 1, caracterizada pelo fato de que o sistema de formação de imagem compreende uma pluralidade de câmeras e uma pluralidade de módulos de processamento de imagem, cada módulo de processamento de imagem configurado para processar dados de imagem de um conjunto de câmeras e os dados de diagnóstico são indicativos da operação de pelo menos uma dentre a pluralidade de câmeras ou a pluralidade de módulos de processamento de imagem.
  5. Máquina agrícola de acordo com a reivindicação 4, caracterizada pelo fato de que cada módulo de processamento de imagem específico, da pluralidade de módulos de processamento de imagem, está associado a um conjunto de mecanismos aplicadores atuáveis, o sistema de controle é configurado para controlar o conjunto de mecanismos aplicadores atuáveis com base em um sinal do módulo de processamento de imagem específico e os dados de diagnóstico são indicativos da operação do módulo de processamento de imagem específico.
  6. Máquina agrícola de acordo com a reivindicação 5, caracterizada pelo fato de que a máquina agrícola compreende uma lança e a pluralidade de mecanismos aplicadores atuáveis estão espaçados ao longo da lança, e o visor de interface de usuário inclui uma pluralidade de elementos de exibição que representam as localizações relativas dos mecanismos aplicadores atuáveis na lança.
  7. Máquina agrícola de acordo com a reivindicação 6, caracterizada pelo fato de que o visor de interface de usuário associa visualmente os conjuntos de mecanismos aplicadores atuáveis com pelo menos um dentre: as câmeras correspondentes, ou os módulos de processamento de imagem correspondentes.
  8. Máquina agrícola de acordo com a reivindicação 1, caracterizada pelo fato de que o visor de interface de usuário exibe a imagem e inclui um elemento de exibição que representa visualmente a região da imagem dentro da imagem.
  9. Método realizado por uma máquina agrícola, o método caracterizado pelo fato de que compreende: obter (424) uma imagem de matéria vegetal na superfície agrícola; processar (438) a imagem para determinar uma característica da matéria vegetal; controlar (456, 460) um ou mais de uma pluralidade de mecanismos aplicadores atuáveis para aplicar uma substância na superfície agrícola com base na característica determinada; obter dados de diagnóstico correspondentes (466) a um ou mais da captura ou processamento da imagem; e gerar (472) um visor de interface de usuário que exibe uma representação dos dados de diagnóstico.
  10. Método de acordo com a reivindicação 9, caracterizada pelo fato de que a máquina agrícola compreende um pulverizador agrícola e a pluralidade de mecanismos aplicadores atuáveis compreende uma pluralidade de bocais de pulverização controláveis.
  11. Método de acordo com a reivindicação 9, caracterizado pelo fato de que os dados de diagnóstico indicam pelo menos um dentre uma condição de falha ou um modo de pulverização específico.
  12. Método de acordo com a reivindicação 9, caracterizado pelo fato de que: a máquina agrícola compreende uma pluralidade de câmeras e uma pluralidade de módulos de processamento de imagem, e cada módulo de processamento de imagem está associado a um conjunto de mecanismos aplicadores atuáveis e configurado para processar dados de imagem de uma ou mais das câmeras, e o sistema de controle é configurado para controlar o conjunto de mecanismos aplicadores atuáveis com base em um sinal do módulo de processamento de imagem.
  13. Método de acordo com a reivindicação 12, caracterizado pelo fato de que que a máquina agrícola compreende uma lança, a pluralidade de mecanismos aplicadores atuáveis é espaçada ao longo da lança, e o visor de interface de usuário inclui uma pluralidade de elementos de exibição que representam as localizações relativas dos mecanismos aplicadores atuáveis no carro e associa visualmente os conjuntos de mecanismos aplicadores atuáveis com um ou mais dentre os seguintes: as câmeras correspondentes, ou os módulos de processamento de imagem correspondentes.
  14. Método de acordo com a reivindicação 9, caracterizada pelo fato de que o visor de interface de usuário exibe a imagem e inclui um elemento de exibição que representa visualmente a região da imagem dentro da imagem.
  15. Sistema de controle (206) para uma máquina agrícola, o sistema de controle caracterizado pelo fato de que compreende: pelo menos um processador (17; 1120); e memória (21; 1140,1141) que armazena instruções executáveis por pelo menos um processador, em que as instruções, quando executadas, fazem com que o sistema de controle: receba (424) dados de imagem indicativos de uma imagem de matéria vegetal na superfície agrícola; determine (438) uma característica da matéria vegetal; controle (456, 460) um ou mais de uma pluralidade de mecanismos aplicadores atuáveis para aplicar uma substância na superfície agrícola com base na característica determinada; obtenha dados de diagnóstico correspondentes (466) a um ou mais da captura ou processamento da imagem; e gere (472) um visor de interface de usuário que exibe uma representação dos dados de diagnóstico.
BR102021016704-1A 2020-10-30 2021-08-23 Máquina agrícola, método realizado por uma máquina agrícola, e, sistema de controle para uma máquina agrícola BR102021016704A2 (pt)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
US202063107673P 2020-10-30 2020-10-30
US63/107,673 2020-10-30
US17/188,258 US20220138464A1 (en) 2020-10-30 2021-03-01 Diagnostic system visualization and control for an agricultural spraying machine
US17/188,258 2021-03-01

Publications (1)

Publication Number Publication Date
BR102021016704A2 true BR102021016704A2 (pt) 2022-05-17

Family

ID=78087208

Family Applications (1)

Application Number Title Priority Date Filing Date
BR102021016704-1A BR102021016704A2 (pt) 2020-10-30 2021-08-23 Máquina agrícola, método realizado por uma máquina agrícola, e, sistema de controle para uma máquina agrícola

Country Status (4)

Country Link
US (1) US20220138464A1 (pt)
EP (1) EP3991553B1 (pt)
AU (1) AU2021240164A1 (pt)
BR (1) BR102021016704A2 (pt)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US12010986B2 (en) 2020-10-30 2024-06-18 Deere & Company Agricultural machine spraying mode field map visualization and control
US11998000B2 (en) 2020-10-30 2024-06-04 Deere & Company Camera system visualization and control for an agricultural spraying machine
US11903379B2 (en) * 2020-12-08 2024-02-20 Cnh Industrial America Llc System and method for performing spraying operations with an agricultural sprayer
US11782453B2 (en) * 2021-02-16 2023-10-10 Deere & Company Image-based position assessment of agricultural machine components
FR3141038A1 (fr) * 2022-10-19 2024-04-26 Exel Industries Procédé de calibrage d’un pulvérisateur agricole
DE102022129369A1 (de) * 2022-11-07 2024-05-08 Zürn Harvesting Gmbh & Co. Kg Höhenführung für ein Schnittsystem, Schnittsystem und Verfahren zur Höhenführung eines solchen Schnittsystems

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20140180549A1 (en) * 2011-01-07 2014-06-26 The Arizona Board Of Regents On Behalf Of The University Of Arizona Automated machine for selective in situ manipulation of plants
US8488874B2 (en) * 2011-01-31 2013-07-16 Dalhouse University Variable rate sprayer system and method of variably applying agrochemicals
US10721859B2 (en) * 2017-01-08 2020-07-28 Dolly Y. Wu PLLC Monitoring and control implement for crop improvement
WO2022009001A2 (en) * 2020-07-10 2022-01-13 Precision Planting Llc Sprayer system

Also Published As

Publication number Publication date
US20220138464A1 (en) 2022-05-05
EP3991553B1 (en) 2024-04-17
EP3991553A1 (en) 2022-05-04
AU2021240164A1 (en) 2022-05-19

Similar Documents

Publication Publication Date Title
BR102021016660A2 (pt) Máquina agrícola, método realizado por uma máquina agrícola, e, sistema de controle para uma máquina agrícola
BR102021016704A2 (pt) Máquina agrícola, método realizado por uma máquina agrícola, e, sistema de controle para uma máquina agrícola
US11259515B2 (en) Agricultural plant detection and control system
BR102021016663A2 (pt) Máquina agrícola, método realizado por uma máquina agrícola, e, sistema de controle para uma máquina agrícola
US10120543B2 (en) Plant emergence system
BR102021004767A2 (pt) Pulverizador agrícola, pulverizador agrícola móvel, e, método para controlar uma máquina agrícola
EP3900511A1 (en) Agricultural machine section control
EP3616487A1 (en) Agricultural machine with resonance vibration response detection
CN114527741A (zh) 农业特性置信度和控制
BR102021018799A2 (pt) Máquina agrícola móvel, método para controlar uma máquina agrícola móvel, e, sistema de pulverização agrícola móvel
DE102022207537A1 (de) Kartenbasiertes steuersystem mit positionsfehlerkorrektur für landwirtschaftliche maschinen
EP3991552B1 (en) Agricultural machine spraying mode field map visualization and control
US20230046844A1 (en) Obtaining and augmenting agricultural data and generating an augmented display
US20230230202A1 (en) Agricultural mapping and related systems and methods
EP4134902A1 (en) Computer-implemented method
US20230048683A1 (en) Obtaining and augmenting agricultural data and generating an augmented display showing anomalies
BR102022013736A2 (pt) Sistemas agrícola e de computação, e, método implementado por computador
BR102022013740A2 (pt) Obtenção e aumento de dados agrícolas e geração de uma exibição aumentada
BR102022013738A2 (pt) Método implementado por computador, e, sistema agrícola

Legal Events

Date Code Title Description
B03A Publication of a patent application or of a certificate of addition of invention [chapter 3.1 patent gazette]