BR102021016489A2 - Máquina agrícola, e, método para controlar uma máquina agrícola - Google Patents

Máquina agrícola, e, método para controlar uma máquina agrícola Download PDF

Info

Publication number
BR102021016489A2
BR102021016489A2 BR102021016489-1A BR102021016489A BR102021016489A2 BR 102021016489 A2 BR102021016489 A2 BR 102021016489A2 BR 102021016489 A BR102021016489 A BR 102021016489A BR 102021016489 A2 BR102021016489 A2 BR 102021016489A2
Authority
BR
Brazil
Prior art keywords
image
boom
agricultural machine
target
nozzle
Prior art date
Application number
BR102021016489-1A
Other languages
English (en)
Inventor
Richard A. Humpal
Steven Rees
Broughton C. Boydell
Tarik Loukili
Travis J. Davis
Terence D. Pickett
Scott M. Buse
Mark M. Chaney
Original Assignee
Deere & Company
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Deere & Company filed Critical Deere & Company
Publication of BR102021016489A2 publication Critical patent/BR102021016489A2/pt

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A01AGRICULTURE; FORESTRY; ANIMAL HUSBANDRY; HUNTING; TRAPPING; FISHING
    • A01MCATCHING, TRAPPING OR SCARING OF ANIMALS; APPARATUS FOR THE DESTRUCTION OF NOXIOUS ANIMALS OR NOXIOUS PLANTS
    • A01M7/00Special adaptations or arrangements of liquid-spraying apparatus for purposes covered by this subclass
    • A01M7/005Special arrangements or adaptations of the spraying or distributing parts, e.g. adaptations or mounting of the spray booms, mounting of the nozzles, protection shields
    • A01M7/0053Mounting of the spraybooms
    • A01M7/0057Mounting of the spraybooms with active regulation of the boom position
    • AHUMAN NECESSITIES
    • A01AGRICULTURE; FORESTRY; ANIMAL HUSBANDRY; HUNTING; TRAPPING; FISHING
    • A01MCATCHING, TRAPPING OR SCARING OF ANIMALS; APPARATUS FOR THE DESTRUCTION OF NOXIOUS ANIMALS OR NOXIOUS PLANTS
    • A01M7/00Special adaptations or arrangements of liquid-spraying apparatus for purposes covered by this subclass
    • A01M7/0089Regulating or controlling systems
    • AHUMAN NECESSITIES
    • A01AGRICULTURE; FORESTRY; ANIMAL HUSBANDRY; HUNTING; TRAPPING; FISHING
    • A01CPLANTING; SOWING; FERTILISING
    • A01C21/00Methods of fertilising, sowing or planting
    • A01C21/005Following a specific plan, e.g. pattern
    • AHUMAN NECESSITIES
    • A01AGRICULTURE; FORESTRY; ANIMAL HUSBANDRY; HUNTING; TRAPPING; FISHING
    • A01CPLANTING; SOWING; FERTILISING
    • A01C23/00Distributing devices specially adapted for liquid manure or other fertilising liquid, including ammonia, e.g. transport tanks or sprinkling wagons
    • A01C23/007Metering or regulating systems
    • AHUMAN NECESSITIES
    • A01AGRICULTURE; FORESTRY; ANIMAL HUSBANDRY; HUNTING; TRAPPING; FISHING
    • A01CPLANTING; SOWING; FERTILISING
    • A01C23/00Distributing devices specially adapted for liquid manure or other fertilising liquid, including ammonia, e.g. transport tanks or sprinkling wagons
    • A01C23/04Distributing under pressure; Distributing mud; Adaptation of watering systems for fertilising-liquids
    • A01C23/047Spraying of liquid fertilisers
    • AHUMAN NECESSITIES
    • A01AGRICULTURE; FORESTRY; ANIMAL HUSBANDRY; HUNTING; TRAPPING; FISHING
    • A01MCATCHING, TRAPPING OR SCARING OF ANIMALS; APPARATUS FOR THE DESTRUCTION OF NOXIOUS ANIMALS OR NOXIOUS PLANTS
    • A01M7/00Special adaptations or arrangements of liquid-spraying apparatus for purposes covered by this subclass
    • A01M7/0025Mechanical sprayers
    • A01M7/0032Pressure sprayers
    • A01M7/0042Field sprayers, e.g. self-propelled, drawn or tractor-mounted
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B05SPRAYING OR ATOMISING IN GENERAL; APPLYING FLUENT MATERIALS TO SURFACES, IN GENERAL
    • B05BSPRAYING APPARATUS; ATOMISING APPARATUS; NOZZLES
    • B05B12/00Arrangements for controlling delivery; Arrangements for controlling the spray area
    • B05B12/08Arrangements for controlling delivery; Arrangements for controlling the spray area responsive to condition of liquid or other fluent material to be discharged, of ambient medium or of target ; responsive to condition of spray devices or of supply means, e.g. pipes, pumps or their drive means
    • B05B12/12Arrangements for controlling delivery; Arrangements for controlling the spray area responsive to condition of liquid or other fluent material to be discharged, of ambient medium or of target ; responsive to condition of spray devices or of supply means, e.g. pipes, pumps or their drive means responsive to conditions of ambient medium or target, e.g. humidity, temperature position or movement of the target relative to the spray apparatus
    • B05B12/124Arrangements for controlling delivery; Arrangements for controlling the spray area responsive to condition of liquid or other fluent material to be discharged, of ambient medium or of target ; responsive to condition of spray devices or of supply means, e.g. pipes, pumps or their drive means responsive to conditions of ambient medium or target, e.g. humidity, temperature position or movement of the target relative to the spray apparatus responsive to distance between spray apparatus and target
    • AHUMAN NECESSITIES
    • A01AGRICULTURE; FORESTRY; ANIMAL HUSBANDRY; HUNTING; TRAPPING; FISHING
    • A01BSOIL WORKING IN AGRICULTURE OR FORESTRY; PARTS, DETAILS, OR ACCESSORIES OF AGRICULTURAL MACHINES OR IMPLEMENTS, IN GENERAL
    • A01B79/00Methods for working soil
    • A01B79/005Precision agriculture
    • AHUMAN NECESSITIES
    • A01AGRICULTURE; FORESTRY; ANIMAL HUSBANDRY; HUNTING; TRAPPING; FISHING
    • A01MCATCHING, TRAPPING OR SCARING OF ANIMALS; APPARATUS FOR THE DESTRUCTION OF NOXIOUS ANIMALS OR NOXIOUS PLANTS
    • A01M7/00Special adaptations or arrangements of liquid-spraying apparatus for purposes covered by this subclass
    • A01M7/0003Atomisers or mist blowers
    • A01M7/0007Atomisers or mist blowers mounted on a frame and guided by hand; Atomiser barrow

Landscapes

  • Life Sciences & Earth Sciences (AREA)
  • Environmental Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Soil Sciences (AREA)
  • Insects & Arthropods (AREA)
  • Wood Science & Technology (AREA)
  • Zoology (AREA)
  • Pest Control & Pesticides (AREA)
  • Water Supply & Treatment (AREA)
  • Mechanical Engineering (AREA)
  • Image Processing (AREA)
  • Guiding Agricultural Machines (AREA)
  • Catching Or Destruction (AREA)
  • Soil Working Implements (AREA)

Abstract

MÁQUINA AGRÍCOLA, E, MÉTODO PARA CONTROLAR UMA MÁQUINA AGRÍCOLA. Um aplicador agrícola, que aplica material a um campo agrícola, inclui um sensor de imagem em tempo real, a bordo, que sensoreia alvos para o material a ser aplicado. Um controlador controla aplicadores, tais como bocais ou outros aplicadores, para aplicar o material aos alvos sensoriados.

Description

MÁQUINA AGRÍCOLA, E, MÉTODO PARA CONTROLAR UMA MÁQUINA AGRÍCOLA REFERÊNCIA CRUZADA A PEDIDO RELACIONADO
[001] O presente pedido é baseado e reivindica o benefício do pedido de patente provisional norte-americano n.° de série 63/128435, depositado em 21 de dezembro de 2020, cujo conteúdo é aqui incorporado para referência em sua totalidade.
CAMPO DA DESCRIÇÃO
[002] A presente descrição se refere à aplicação de material a um campo agrícola. Mais especificamente, a presente descrição se refere a uma máquina agrícola que aplica material a um campo, usando sensoriamento alvo em tempo real, na máquina.
FUNDAMENTOS
[003] Pulverizadores agrícolas e outros aplicadores agrícolas aplicam produtos químicos e nutrientes a campos agrícolas. Os produtos químicos e nutrientes podem ser materiais secos ou líquidos, e eles podem ser aplicados por inúmeras razões. Por exemplo, os materiais que são aplicados a um campo podem ser pesticidas, herbicidas, fungicidas, reguladores de crescimento, fertilizantes, entre outros.
[004] Atualmente, pulverizadores agrícolas e aplicadores aplicam produto uniformemente através do campo, independentemente das específicas necessidades localizadas. Isso é algumas vezes referido como aplicação de “difusão”. Alguns sistemas atuais também geram uma prescrição, antes do início do processo de aplicação, que indica onde aplicar o material, qual material aplicar, e uma taxa de aplicação. A prescrição é então carregada no pulverizador agrícola e o produto selecionado é aplicado aos locais no campo, com base na prescrição.
[005] A prescrição é frequentemente gerada com base em dados que são agregados usando prospecção manual, ou imagens tomadas pela máquinas, tais como Drones, aeronave ou satélites. As prescrições podem também ser geradas com base no histórico de campo do passado.
[006] A discussão acima é meramente provida para informação geral dos fundamentos e não é destinada a ser usada como um auxílio na determinação do escopo da matéria reivindicada.
SUMÁRIO
[007] Um aplicador agrícola, que aplica material a um campo agrícola, inclui um sensor de imagem em tempo real, a bordo, que sensoreia alvos para o material a ser aplicado. Um controlador controla os aplicadores, tais como bocais ou outros aplicadores, para aplicar o material aos alvos sensoriados.
[008] Este sumário é provido para apresentar uma seleção de conceitos de uma forma simplificada, que são descritos mais detalhadamente abaixo na descrição detalhada. Este sumário não é destinado a identificar características importantes ou características essenciais da matéria reivindicada, nem é destinado a ser usado como um auxílio na determinação do escopo da matéria reivindicada. A matéria reivindicada não é limitada às implementações que solucionam qualquer ou todas das desvantagens notadas nos fundamentos.
BREVE DESCRIÇÃO DOS DESENHOS
[009] A figura 1A é uma vista pictórica de uma máquina agrícola.
[0010] A figura 1B é uma vista pictórica ilustrando o movimento de uma lança em uma máquina agrícola.
[0011] A figura 1C é um diagrama de blocos mostrando um exemplo da máquina agrícola em mais detalhe.
[0012] A figura 1D mostra como uma região de interesse de uma câmera se altera com relação a um campo de visão de a câmera em duas diferentes alturas de câmera acima do solo.
[0013] A figura 2 é um diagrama de blocos parcial, diagrama esquemático parcial de uma arquitetura de sistema de computação usada em uma máquina agrícola.
[0014] A figura 3 é um diagrama de blocos de um exemplo de um módulo de processamento de imagem.
[0015] A figura 4A é um diagrama de blocos de um exemplo de um sistema de calibragem de câmera.
[0016] A figura 4B mostra um exemplo de uma esteira de calibragem que pode ser usada para realizar a calibragem de câmera.
[0017] A figura 5 é um diagrama de blocos de um exemplo de um sistema de remapeamento de imagem.
[0018] A figura 6 é um diagrama de blocos de um exemplo de um gerador de nível de confiança.
[0019] A figura 7 é um diagrama de blocos de um exemplo de um sistema de identificação de fileira.
[0020] A figura 8 é um diagrama de blocos de um exemplo de um processador de identificação de alvo.
[0021] A figura 9 é um diagrama de blocos de um exemplo de um sistema de processamento de batida dupla.
[0022] A figura 10 é um diagrama de blocos de um exemplo de um sistema de controle de ativação de bocal.
[0023] A figura 11 é um diagrama de blocos de um exemplo de uma arquitetura de calibragem de câmera.
[0024] As figuras 12A e 12B (coletivamente referidas aqui como a figura 12) ilustram um fluxograma mostrando um exemplo de uma operação de calibragem.
[0025] As figuras 13A e 13B ilustram um fluxograma mostrando um exemplo de uma operação de calibragem.
[0026] A figura 13C mostra um exemplo de como um ângulo de montagem de câmera é identificado.
[0027] A figura 13D ilustra como pontos de pixel em um mapa de imagem para um ponto definido por um sistema de coordenadas de mundo real em um campo.
[0028] A figura 14 mostra um conjunto de exemplo de regiões de dados de interesse coletados durante um processo de calibragem de câmera.
[0029] A figura 15 mostra um exemplo do encontro de um ponto de interseção de melhor ajuste para linhas definindo bordas de uma região de câmera de interesse.
[0030] A figura 16A é uma ilustração gráfica de um exemplo da exibição de um conjunto de linhas definindo uma parte traseira das regiões de interesse mostradas na figura 14, para uma câmera, posicionada em diferentes posições.
[0031] A figura 16B é uma ilustração gráfica de um exemplo da exibição de um conjunto de linhas definindo uma parte dianteira das regiões de interesse mostradas na figura 14, para uma câmera, posicionada em diferentes posições.
[0032] A figura 17 é similar à figura 16A, com valores de pixel ilustrados.
[0033] A figura 18 é um gráfico mostrando a altura da lança externa representada contra comprimento de linha de pixel.
[0034] A figura 19 é uma ilustração gráfica mostrando um ponto de interseção de melhor ajuste para as linhas ilustradas nas figuras 16A e 17.
[0035] A figura 20 é uma ilustração gráfica indicando como uma região da câmera de interesse se altera em diferentes posições de lança.
[0036] A figura 21 é similar à figura 20, exceto que as regiões de interesse estão ilustradas depois de a interpolação ter sido realizada.
[0037] As figuras 22A e 22B (coletivamente referidas aqui como a figura 22) mostram um fluxograma ilustrando um exemplo da operação global da máquina agrícola mostrada na figura 1 na identificação de alvos e aplicação de material aos alvos.
[0038] A figura 23 é um fluxograma ilustrando um exemplo de como uma métrica correspondente à qualidade de imagem, um nível de confiança, ou conjunto de níveis de confiança, é gerado para uma imagem capturada.
[0039] A figura 24 é um fluxograma ilustrando como imagens de uma pluralidade de câmeras diferentes são emendadas juntas.
[0040] A figura 25 é um fluxograma mostrando um exemplo de como imagens são corrigidas para a informação de equilíbrio de branco.
[0041] As figuras 26A e 26B (coletivamente referidas aqui como a figura 26) mostram um exemplo de um fluxograma ilustrando como fileiras de cultivos são identificadas em uma imagem.
[0042] A figura 27 ilustra pixels binarizados segmentados.
[0043] A figura 28 ilustra uma representação mostrando um exemplo de uma tela de exibição
[0044] A figura 29 ilustra o acúmulo de informação de pixel, em colunas, com base em uma imagem segmentada.
[0045] A figura 30 ilustra a identificação das bordas de fileira de cultivo com base na informação de pixel acumulada.
[0046] A figura 31 ilustra o isolamento de ervas daninhas em uma imagem.
[0047] A figura 32 mostra um exemplo da máquina agrícola ilustrada na figura 1, com informação de dinâmica rotulada na mesma.
[0048] A figura 33 é uma ilustração pictórica parcial definindo informação de dimensão de padrão de pulverização de bocal.
[0049] A figura 34 é uma ilustração pictórica parcial definindo informação de dimensão de padrão de pulverização de bocal e região de câmera de interesse.
[0050] A figura 35 é uma ilustração pictórica parcial definindo informação de dimensão de região de câmera de interesse.
[0051] A figura 36 é um fluxograma ilustrando um exemplo da operação da máquina agrícola na identificação de tempos de continuação e de espera, usados para controlar bocais na aplicação de material em um campo agrícola.
[0052] A figura 37 é um fluxograma ilustrando um exemplo da operação da máquina agrícola na realização de uma operação de batida dupla.
[0053] A figura 38 é um diagrama de blocos mostrando um exemplo da máquina agrícola ilustrada na figura 1, implementada em um ambiente de servidor remoto
[0054] As figuras 39, 40, e 41 mostram exemplos de dispositivos móveis que podem ser usados na máquina agrícola e arquiteturas ilustradas nas figuras anteriores.
[0055] A figura 42 é um diagrama de blocos mostrando um exemplo de um ambiente de computação que pode ser usado na máquina agrícola e em arquiteturas ilustradas nas figuras anteriores.
DESCRIÇÃO DETALHADA
[0056] Conforme descrito acima, alguns pulverizadores agrícolas e aplicadores agrícolas atuais aplicam produto uniformemente através de um campo, independentemente de quaisquer necessidades localizadas especificas. Esta proposta, às vezes referida como uma proposta de “tratamento total”, resulta na aplicação de produto químico e de outros materiais, onde não são requeridos. Isso aumenta os custos de produção e pode ter um impacto ambiental potencialmente negativo. Em alguns casos, nos quais herbicida é aplicado, por exemplo, até 80% do produto total é aplicado onde não é necessário.
[0057] Também, conforme discutido brevemente acima, alguns sistemas atuais tentam gerar uma prescrição indicando onde aplicar material ao campo. Todavia, a prescrição é criada à frente do tempo (antes do processo de aplicação pelo qual a máquina agrícola aplica o material ao campo). A prescrição é então carregada ao pulverizador agrícola, ou ao aplicador agrícola, e usada na aplicação do material ao campo.
[0058] Embora esse processo possa reduzir a quantidade de material sendo aplicado, ele tem significantes limitações. Por exemplo, porque o dado usado para gerar tais prescrições é obtido através de prospecção manual ou através de acervo de imagens, ou através do histórico passado do campo, o dado é sujeito a erros de referência geográfica e de aplicação. Por conseguinte, os locais dos alvos particulares da aplicação de material não são precisamente definidos. Isso, por sua vez, significa que maiores zonas de aplicação em torno dos alvos são usadas a fim de assegurar que os alvos desejados sejam de fato cobertos pelo material sendo aplicado.
[0059] Um problema com coleta de dados de imagens aéreas é que a qualidade de imagem não é frequentemente adequada para identificar alvos, tais como pragas ou ervas daninhas. Os problemas de qualidade de imagem são normalmente atribuídos à altura na qual as imagens foram tomadas ou à distância dos alvos na qual as imagens foram tomadas, condições de iluminação, cobertura por nuvens, obscurantes, e outras condições atmosféricas. Similarmente, porque esses tipos de imagens e outros processos de coleta de dados são realizados horas ou até mesmo dias ou semanas antes do processo de aplicação, os alvos no campo podem ter se alterado ou alvos adicionais podem ter aparecido, de forma que o pulverizador não operará em uma prescrição precisa.
[0060] A presente descrição prossegue assim com relação a um sistema que provê um sistema de identificação e controle de alvo a bordo, em tempo real, que usa os sensores ópticos, montados em um pulverizador ou outro aplicador agrícola (daqui em diante referido como a máquina agrícola). O sistema de identificação e controle de alvo captura uma imagem de uma área à frente da máquina agrícola, na direção de deslocamento, e processa essa imagem para identificar alvos em tempo para a funcionalidade do aplicador na máquina agrícola para aplicar um material àqueles alvos.
[0061] A figura 1A mostra uma ilustração pictórica de um exemplo de uma máquina agrícola 100. A máquina agrícola 100 é representada como um pulverizador agrícola que tem um compartimento do operador 102, suportado por uma estrutura de chassi 104, que também suporta elementos engatando ao solo 106. No exemplo mostrado na figura 1A, os elementos engatando ao solo 106 são rodas, mas poderiam ser esteiras ou outras implementações. A figura 1A também mostra que a máquina agrícola 100 tem um sistema de pulverização geralmente indicado por 108. O sistema de pulverização 108 ilustrativamente inclui um tanque ou outro reservatório de material 110, que porta material que deve ser aplicado a um campo agrícola 112. No exemplo mostrado na figura 1A, o campo agrícola 112 tem cultivo em fileiras, plantado em fileiras 114, e uma pluralidade de ervas daninhas 116, que estão crescendo no mesmo. Embora a figura 1A mostre um reservatório de material 110, será notado que a máquina agrícola 100 pode ter mais que um reservatório de material 110, cada um portando um diferente material ou diferente concentração de material. Também, embora a figura 1A mostre a máquina 100 em um campo com fileiras 114 de cultivos, a presente descrição pode também prosseguir com um exemplo no qual a máquina 100 está tratando uma área sem cultivos, tais como um campo depois da colheita e antes da plantação, ou outra área sem cultivos.
[0062] O sistema de pulverização 108 também ilustrativamente inclui uma estrutura de lança 118, que suporta uma pluralidade de corpos de bocal controláveis 120. Os corpos de bocal 120 podem incluir (conforme mostrado em mais detalhe abaixo) um controlador eletrônico que recebe comandos sobre uma rede, tal como uma rede de área de controlador – CAN, ou outros protocolos de comunicação de dados. O corpo de bocal 120 pode também incluir uma ou mais válvulas controláveis que podem ser movidas entre uma posição aberta e uma posição fechada. O corpo de bocal 120 pode também incluir um ou mais bicos de controle de pulverização de bocal. O material a ser aplicado pela máquina móvel 100 é bombeado por uma ou mais bombas do tanque 110, através de mangueiras ou outros condutos, para os corpos de bocal 120. O controlador nos corpos de bocal 120 controla as válvulas controláveis para abrir (ou a posição ligada) de forma que o material se mova através do corpo de bocal e para fora através do bico de controle de pulverização de bocal, onde é aplicado ao campo 112. Quando a válvula é controlada para estar n posição fechada (ou a posição desligada) o material não passa através da válvula. Em um exemplo, as válvulas são variáveis entre as posições ligada e desligada, tais como os valores proporcionais. Em outros exemplos, uma vazão variável pode ser obtida através das válvulas pelo controle da bomba ou pelo controle das válvulas de uma maneira modulada por largura de pulso (variando o tempo de ciclo) ou de outras maneiras intermitentes.
[0063] A figura 1A também mostra que a máquina agrícola 100 é equipada com uma pluralidade de diferentes sensores de imagem ópticos 122 (mostrados como câmeras na figura 1A). Os sensores de imagem 122 podem ser sensores ópticos que capturam imagens pelo sensoreamento da radiação no espectro óptico que, para finalidades da presente discussão, inclui frequências ultravioleta, visível, e infravermelha. Os sensores de imagem 122 são dispostos ao longo da lança de forma que eles tenham campos de visão que cobrem o comprimento do solo à frente da lança 118. Por exemplo, os sensores de imagem 122 são dispostos através de lança 118 de forma que seus campos de visão cubram toda da área do campo 112 à frente dos corpos de bocal 120, quando a máquina agrícola 100 se desloca através do campo.
[0064] Os sensores de imagem 122 são ilustrativamente acoplados a um ou mais módulos de processamento de imagem 124. Os módulos de processamento de imagem 124 ilustrativamente processam as imagens capturadas pelos sensores de imagem 122 para identificar alvos (por exemplo, ervas daninhas 116 ou fileiras 114) no campo 112, sobre o qual a máquina agrícola 100 está se deslocando. Os sensores de imagem 122 podem ter um sistema de processamento de imagem que realiza algum pré-processamento. Por exemplo, as diferentes câmeras podem ser diferentes de forma que o sistema de processamento de imagem na câmera possa gerar matrizes de correção de cor que ajustam ou calibram a câmera de modo que todas as câmeras produzam imagens da mesma cor. O sistema de processamento de imagem a bordo pode também realizar outro processamento, tal como correção de sombreamento de lente, mapeamento de tonalidade local, demosaic, correção de cor, e correção de distorção. A informação de correção pode ser capturada em matrizes de correção ou de outras maneiras. Algum ou todo do pré-processamento pode ser realizado também nos módulos de processamento de imagem 124.
[0065] Será notado que, em um exemplo, a posição de lança 118 (e em particular a posição de cada sensor de imagem 122) com relação à superfície do campo 112, pode alterar o campo de visão dos sensores de imagem 122. Por exemplo, a figura 1D mostra um sensor de imagem 122 e sua correspondente largura de imagem em duas alturas diferentes. Na primeira altura, o campo de visão tem uma largura de imagem mostrada geralmente em 123. A área ou região de interesse 125 sendo analisada para os alvos assume a maioria do campo de visão 123. Todavia, quando o sensor de imagem 122 é movido para uma maior altura (mais longe do solo), então a largura da região no solo que é incluída no campo de visão de sensor de imagem 122 é indicada por 127. Ainda, a área sendo examinada para os alvos é representada pela área 125.
[0066] Por conseguinte, em um exemplo, a lança 118 tem um ou mais sensores de lança 126, que sensoreiam a altura (em outra implementação, o sensor 126 pode também, ou alternativamente, sensorear o ângulo e/ou vibrações de lança) da lança 118 com relação à superfície do campo 112, sobre o qual está se deslocando. A altura da lança (e o ângulo de lança) pode ser usada pelos módulos de processamento de imagem 124 para corrigir as imagens recebidas dos vários sensores de imagem 122, com base em seu local com relação ao solo, do qual as imagens são capturadas. Assim, em um exemplo, os módulos de processamento de imagem 124 identificam as ervas daninhas 116 como alvos de um herbicida sendo aplicado pela máquina agrícola 100 e transmite informação acerca do local das ervas daninhas 116 para um controlador de bocal, de forma que o controlador de bocal possa controlar as válvulas nos corpos de bocal 120 para aplicar o herbicida às ervas daninhas 116. Em um exemplo, os corpos de bocal são controlados para aplicar o material em uma área tratada 128 que tem uma área intermediária em qualquer lado da erva daninha 116 para aumentar a probabilidade de que a erva daninha 116 seja tratada pelo herbicida.
[0067] O processamento de imagem pode ser afetado por condições de luz ambiente. Por conseguinte, a figura 1A também mostra que a lança 118 pode ter uma ou mais fontes de luz suplementares 131, que podem ser ativada em condições de pouca luz.
[0068] Também, a fim de processar as imagens em vários tipos diferentes de condições de luz (que podem alterar com base em se a máquina agrícola 100 está na direção para o sol, contra o sol, ou de outra maneira), a figura 1A mostra que a máquina agrícola 100 pode ter uma câmera de equilíbrio de branco ou um sensor de luz incidental (sensor de luz 130). O sensor de luz 130 pode sensorear a direção do sol com relação à máquina agrícola 100, a cor do sol (tal como se o céu está nublado, se a máquina 100 está se deslocando através de uma sombra, ou outras condições que alteram a cor da luz), e a intensidade de luz, dentre outros fatores. Similarmente, os sensores de luz 130 podem ser dispostos em um ou mais locais ao longo da lança 118, em lugar de, ou em adição a, o sensor de luz 130 no corpo da máquina agrícola 100, conforme mostrado na figura 1A. As condições de iluminação ambiente são sensoreadas por o(s) sensor(es) de luz 130 e a informação representando as condições de iluminação ambiente é enviada para os módulos de processamento de imagem 124. Os dados podem ser enviados usando dados por transmissão de energia, usando uma conexão serial de multimídia de Gigabit (GMSL ou GMSL2) ou o uso de outro mecanismo de comunicação.
[0069] A figura 1B mostra uma ilustração pictórica de uma vista traseira da máquina agrícola 100, e itens que são similares àqueles mostrados na figura 1A são similarmente enumerados. A figura 1B mostra que a lança 118 pode ter uma seção de lança central 134 e um ou mais braços de lança 136 e 138 em cada lado da seção de lança central 134. Em um exemplo, a seção de lança central 134 pode ser elevada e abaixada sob a força de um atuador de lança central (não mostrado na figura 1B). Conforme mostrado na figura 1B, os braços de lança 136 e 138 podem girar em torno de pontos de pivô 144 e 146, respectivamente. Assim, os sensores de imagem 122 podem não simplesmente ser deslocados em uma direção vertical quando os braços de lança 136 e 138 são elevados e abaixados, mas eles estão se movendo em um arco em torno dos pontos de pivô 144 e 146. Isso pode fazer com que a orientação das câmeras seja focada mais para dentro, na direção para o eixo geométrico central da máquina agrícola 100, ou para fora, para longe da máquina agrícola 100. Assim, quando a lança 118 se move, as perspectivas das câmeras, e assim os campos de visão dos sensores de imagem 122 no solo, também se moverão. Similarmente, quando a máquina agrícola 100 se desloca através do campo, ela pode encontrar elevações, sulcos, ou outros distúrbios no solo. Isso pode fazer com que os braços de lança 136 e 138 se movam para cima ou para baixo nas direções indicadas pelas setas 140 e 142. Por conseguinte, em um exemplo, as câmeras ou os sensores de imagem 122 são calibrados em alturas diferentes do solo (por exemplo, em diferentes posições de lança). Uma transformada de calibragem é gerada, que pode ser usada para transformar as imagens capturadas de forma que a área de interesse (ou região de interesse – ROI) dentro da imagem capturada por cada sensor de imagem 122 permaneça em um local fixo no solo com relação ao correspondente sensor de imagem 122 (por exemplo, um medidor à frente do sensor de imagem na direção de deslocamento), independentemente da posição de lança.
[0070] A figura 1C é um diagrama de blocos mostrando algumas porções da máquina agrícola 100 em mais detalhe. Alguns dos itens mostrados na figura 1C são similares àqueles mostrados nas figuras 1A e 1B e eles são similarmente enumerados. A figura 1C mostra que a máquina agrícola 100 pode também incluir um ou mais processadores ou servidores 150, o banco de dados 151, um sistema de comunicação 152, um ou mais mecanismos de interface do operador 154, com os quais um operador 156 pode interagir a fim de controlar e manipular a máquina agrícola 100, o sistema de identificação de alvo 158, o sistema de controle 160, os subsistemas controláveis 162, e a máquina agrícola 100 podem incluir uma grande variedade de outras funcionalidades de máquina agrícola 164. O sistema de identificação de alvo 158 pode incluir sensores ópticos 122, os módulos de processamento de imagem 124, os sensores de luz 130, os sensores de altura/ângulo de lança 126, o sistema de processamento de batida dupla 165, e pode incluir outros itens 166. O sistema de controle 160 pode incluir o controlador de calibragem 168, o controlador de bocal/válvula 170, o controlador de bomba 172, o controlador de posição de lança 174, o controlador de direção 176, o controlador de propulsão 178, e o controlador de multiproduto 179. O sistema de controle 160 pode também incluir outros itens 180. Os subsistemas controláveis 162 podem incluir atuadores de posição de lança 182, uma ou mais bombas 184, os corpos de bocal 120 (que, propriamente, podem incluir um ou mais bicos de bocal 188, válvulas 190, controladores de válvula 192, e outros itens 194), subsistema de direção 196, subsistema de propulsão 198, e uma grande variedade de outros itens 200.
[0071] Antes da descrição da operação global da máquina agrícola 100, uma breve descrição de alguns dos itens mostrados na figura 1C, e de sua operação, será primeiramente provida. Os mecanismos de interface do operador 154 podem incluir qualquer de uma grande variedade de mecanismos, que podem ser usados para prover informação para o operador 156 e receber entradas interativas do operador 156. Os mecanismos de interface do operador 154 podem incluir mecanismos de áudio, visuais, e tácteis, dentre outros. Exemplos dos mecanismos de interface do operador 154 podem incluir um volante, alavancas de controle, pedais, alavancas, teclas, microfones e alto-falantes (como quando funcionalidade de reconhecimento de voz é provida), entre outros fatores. Os mecanismos de interface de usuário 154 podem incluir telas de exibição, telas de exibição sensíveis ao toque, luzes, mecanismos de alerta audíveis, etc. Quando os mecanismos de interface de usuário 154 incluem uma tela de exibição, os mecanismos de entrada de operador podem ser providos na tela de exibição. Tais mecanismos de entrada de operador podem incluir teclas, conexões, ícones, ou outros elementos atuáveis por usuário, que podem ser atuados usando um dispositivo de apontar e clicar, um gesto de toque, uma entrada de voz, ou outras interações.
[0072] O sistema de comunicação 152 pode incluir um controlador de barramento que controla informação em uma ou mais estruturas de barramento (tal como um barramento CAN, uma pluralidade de diferentes subredes de CAN, ou outro barramento) na máquina agrícola 100. O sistema de comunicação 152 pode incluir componentes de conexão em rede com fios, tais como componentes de Ethernet, que operam de acordo com uma norma conhecida (por exemplo, IEEE 802.3), e outros tipos de componentes de rede e o sistema de comunicação. O sistema de comunicação 152 pode também incluir outros sistemas de comunicação que permitem à máquina agrícola 100 se comunicar com dispositivos ou sistemas remotos. Tais sistemas de comunicação podem incluir um sistema de comunicação celular, um sistema de comunicação de rede de área local, um sistema de comunicação de rede de área larga, um sistema de comunicação de campo próximo, ou uma grande variedade de outros sistemas de comunicação.
[0073] O sistema de identificação de alvo 158 ilustrativamente identifica os alvos, nos quais material deve ser aplicado pela máquina agrícola 100. Por exemplo, quando a máquina agrícola 100 deve aplicar o material às plantas de cultivo, então o sistema de identificação de alvo 158 identifica as plantas de cultivo (tais como as fileiras de cultivo ou outras plantas de cultivo, tais como os cultivos semeados). Quando a máquina agrícola 100 deve aplicar o material a uma erva daninha, por exemplo, então o sistema de identificação de alvo 158 identifica as ervas daninhas de forma que o material possa ser aplicado às mesmas. Por conseguinte, cada um dos sensores de imagem 122 captura as imagens de uma região de interesse dentro campo de visão correspondente ao sensor de imagem 122. A imagem capturada pode ser compensada ou corrigida com base em informação detectada pelo sensor de luz 130. Os módulos de processamento de imagem 124 então processam as imagens capturadas pelos sensores de imagem 122 para corrigir as mesmas e para identificar alvos (por exemplo, as fileiras de cultivos, ervas daninhas, etc.) nas imagens. As imagens podem então ser transformadas com base em informação capturada pelos sensores de lança 126 e coeficientes de mapeamento, que conjugam pixels na imagem (por exemplo, os pixels correspondentes a um alvo) aos locais atuais no solo. Os módulos de processamento de imagem 124 identificam quais bocais devem ser atuados, e quando eles devem ser atuados, para aplicar o material aos alvos. Essa informação pode então ser provida para controlar o sistema 160 para controlar os corpos de bocal 120.
[0074] Pode também acontecer que a máquina agrícola 100 faça múltiplos passes através de um campo, quando os passes são separados por alguma duração de tempo. Por exemplo, algumas ervas daninhas podem precisar de múltiplas aplicações de um ou mais herbicidas, com uma a duas semanas entre aplicações, a fim de exterminá-las. Depois da primeira aplicação, as ervas daninhas podem parecer estar mortas, mas, a menos que sejam tratadas novamente, elas podem novamente começar a crescer ativamente. Similarmente, as ervas daninhas podem ser resistentes ao produto químico que é aplicado durante o primeiro passe, de forma que a erva daninha ainda parece vibrante durante o segundo passe. Por conseguinte, pode ser desejável que a máquina agrícola 100 aplique uma dose adicional de herbicida às ervas daninhas, ou aplique uma dose de herbicida diferente, mesmo que elas tiverem sido anteriormente tratadas.
[0075] Em tais casos, e conforme é descrito em maior detalhe abaixo, o sistema de identificação de alvo 158 armazena o local dos alvos durante o primeiro passe através do campo. Então, durante o segundo passe através do campo, mesmo que as ervas daninhas possam parecer estar mortas, de forma que elas não sejam identificadas como alvos de ervas daninhas pelo sistema de identificação de alvo 158, o sistema de processamento de batida dupla 165 identifica, que o local geográfico particular (onde a erva daninha foi tratada durante o primeiro passe) como um alvo para uma segunda aplicação do herbicida. Similarmente, o sistema de processamento de batida dupla 165 pode identificar que uma erva daninha vibrante ainda existe onde ela foi tratada durante o primeiro passe e o controlador de multiproduto 179 pode gerar uma saída para aplicar um produto químico diferente ou uma dose aumentada do produto químico original à erva daninha no segundo passe, do que foi aplicada durante o primeiro passe. O sistema de processamento de batida dupla 165 recebe o mapa armazenado de locais de ervas daninhas, que foi gerado durante o primeiro passe e um sensor de posição geográfica sensoreia uma posição geográfica da máquina agrícola 100. O sensor de posição geográfica pode assim ser um receptor de sistema global de navegação por satélite (GNSS), um sistema de reconhecimento passivo, um sistema de triangulação celular, ou outro sensor de posição. Com base na posição atual da máquina agrícola 100, sua velocidade, e as dimensões da máquina, o sistema de processamento de batida dupla 165 pode identificar quais bocais passarão sobre os locais de erva daninha, nos quais outra aplicação de herbicida deve ser administrada. O controlador de multiproduto 179 pode determinar se o mesmo ou um material diferente deve ser administrado.
[0076] Assim, o sistema de identificação de alvo 158 (se alvos forem identificados com base em entradas dos sensores 122 ou sistema de processamento de batida dupla 165) gera uma saída indicando quais bocais devem ser ativados, quando eles devem ser ativados e a duração de tempo pela qual eles devem ser ativados, com base na análise de imagem realizada pelos módulos de processamento de imagem 124 e o processamento realizado pelo sistema de identificação de alvo de batida dupla 165. As saídas do sistema de identificação de alvo 158 são providas para controlar o sistema 160, que gera sinais de controle para controlar os subsistemas controláveis 162. O controlador de multiproduto 179 determina qual produto deve ser aplicado. O controlador de bocal/válvula 170 gera sinais de controle para controlar os corpos de bocal 120. Os sinais de controle são recebidos pelo controlador 192, que controla o estado ligado e desligado das válvulas 190 para aplicar o material correto no local correto, de acordo com a temporização correta. O controlador 192 pode também controlar os bicos de bocal 188 (onde eles são configuráveis) para alterar a área de aplicação do bocal.
[0077] O controlador de bomba 172 pode gerar sinais de controle para controlar as bombas 184, que bombeiam o material a ser aplicado através dos condutos na lança 118 para os corpos de bocal 120. O controlador de posição de lança 174 pode gerar sinais de controle para controlar os atuadores de posição de lança 182 para mover as várias porções de lança 118 para as diferentes posições desejadas. O controlador de direção 176 pode gerar sinais de controle para controlar os subsistemas de direção 196 para controlar o rumo da máquina agrícola 100. O controlador de propulsão 178 pode gerar sinais de controle para controlar o sistema de propulsão 198 (que pode ser um motor, que aciona os mecanismos engatando ao solo 106 através de uma transmissão, motores individuais, que acionam os mecanismos individuais engatando ao solo 106, ou outra fonte de energia, que aciona a propulsão da máquina agrícola 100) para controlar a velocidade e direção de deslocamento à frente/reversa da máquina agrícola 100.
[0078] A figura 2 é uma ilustração pictórica parcial e diagrama parcial de diagrama esquemático em blocos, da arquitetura de controle 211, que inclui diferentes porções da máquina agrícola 100. Os itens similares são similarmente enumerados àqueles mostrados nas figuras 1A a 1C. A figura 2 mostra, que cada módulo de processamento de imagem 124 processa as imagens de um correspondente conjunto de sensores 122 para o controle de um conjunto correspondente dos corpos de bocal 120. Por exemplo, o módulo de processamento de imagem 124A pode receber entradas de uma pluralidade dos sensores de imagem 122A e gerar sinais de saída, que são usados para controlar o estado aberto/fechado das válvulas em um subconjunto dos corpos de bocal 120A. O módulo de processamento de imagem 124B pode receber entradas e processar as imagens de um diferente subconjunto dos sensores de imagem 122B e gerar sinais de saída, que são usados para controlar o estado de abertura/fechamento das válvulas em um segundo subconjunto dos corpos de bocal 120B. O módulo de processamento de imagem 124C pode receber entradas e processar as imagens de ainda outro subconjunto dos sensores de imagem 122C e gerar sinais de saída para controlar válvulas em ainda outro subconjunto dos corpos de bocal 120C. Embora três módulos de processamento de imagem, três subconjuntos dos sensores de imagem, e três subconjuntos dos corpos de bocal sejam mostrados na figura 2, será notado que mais ou menos módulos de processamento de imagem, subconjuntos dos sensores de imagem, e/ou subconjuntos dos corpos de bocal podem ser usados.
[0079] A informação pode ser transferida dos sensores 122 para seus correspondentes módulos de processamento de imagem 124 sobre um barramento CAN. Sinais de controle podem ser providos para os corpos de bocal 120 sobre um diferente, ou o mesmo, barramento CAN. Além disso, cada subconjunto dos sensores de imagem 122 e dos bocais 120 pode ter sua própria subrede CAN. Ainda, conforme é descrito em maior detalhe abaixo, os módulos de processamento de imagem individuais 124A a 124C podem se comunicar uns com os outros de forma que eles, cada, saibam quais dos sensores de imagem 122 e dos corpos de bocal 120 correspondem a quais dos vários módulos de processamento de imagem 124. Os módulos de processamento de imagem 124 podem se comunicar através de uma porta de ligação telemática 210 usando um interruptor de Ethernet 212, com um mecanismo de exibição ou controlador de exibição 214, que pode fazer parte do sistema de controle 160 e/ou dos mecanismos de interface do operador 154. O controlador de bocal/válvula 170 pode se comunicar com o controlador de exibição 214 sobre um barramento de veículo CAN separado 216, que pode ser controlado por um controlador de chassi 218. O sistema de comunicação 152 (mostrado na figura 1C) pode incluir pode módulo de ligação em ponte 220 que liga em ponte a comunicação através dos vários barramentos CAN e subredes na máquina agrícola 100.
[0080] A figura 2 também mostra que a máquina agrícola 100 pode incluir um controlador de taxa de pulverização 222. A taxa de aplicação de material através do campo pode variar com base em uma grande variedade de critérios diferentes. O controlador de taxa de pulverização 222 provê assim uma saída para o controlador de bocal/válvula 170 indicando a taxa na qual o material deve ser aplicado. O controlador de bocal/válvula 170 pode então controlar a taxa de fluxo de material através dos corpos de bocal 120 com base na taxa de pulverização recebida do de taxa de pulverização 222.
[0081] Antes da descrição da operação da arquitetura 211 ilustrada na figura 2, os itens nas figuras 1C e 2 serão agora descritos em maior detalhe com relação às figuras 3 a 11. A figura 3 mostra um exemplo de um diagrama de blocos de um módulo de processamento de imagem 124. Os módulos de processamento de imagem 124A a 124C podem ser similares ou diferentes. Para as finalidades da presente descrição, será assumido, que eles são similares de forma que somente o módulo de processamento de imagem 124A é descrito na figura 3. Cada módulo de processamento de imagem 124 pode ter seu próprio conjunto de processadores 224, o banco de dados 226, o sistema de comunicação 228, o sistema de calibragem de câmera 230, o sistema de remapeamento de imagem 232, o gerador de nível de confiança 234, o sistema de emenda de imagens 236, o sistema de correção de equilíbrio de branco 238, o sistema de identificação de fileira 240, o processador de identificação de alvo 242, o sistema de identificação de bocal 244 (que pode incluir o componente de determinação de ajuste lateral 245 e outros itens 247), o sistema de controle de ativação de bocal 256, e o gerador de saída 248. O módulo de processamento de imagem 124A pode também incluir outros itens 250. O banco de dados 226, propriamente dito, pode incluir os dados de posição de módulo de processamento de imagem (MPI) 251, os dados de posição de câmera 252, os dados de posição de bocal 253, os dados de mapa de calibragem 254, os coeficientes de mapeamento 256, as matrizes de correção de cor 257, e pode incluir outros itens 258. O sistema de calibragem de câmera 230 controla a máquina agrícola 100 para se mover através de um processo de calibragem, no qual transformadas são geradas para cada sensor 122, em cada uma de uma pluralidade de posições diferentes com relação ao solo. O sistema de remapeamento de imagem 232 remapeia as regiões de interesse em cada imagem, com base nas transformadas, durante o tempo de execução da operação da máquina agrícola 100. O gerador de nível de confiança 234 gera um ou mais escores de confiança e/ou escores de qualidade correspondentes a cada imagem. Os escores de confiança e escores de qualidade podem ser indicativos de tais fatores, como a presença de obscurantes, a capacidade do sistema de aplicar seguramente material com base na imagem, ou a imagem está borrada ou o sensor de imagem 122 está danificado ou bloqueado, dentre outros fatores. O sistema de emenda de imagens 236 processa as imagens de múltiplos sensores 122 para agregá-las em uma única imagem contínua do solo à frente de uma ou mais das seções de lança 118. O sistema de correção de equilíbrio de branco 238 corrige a imagem para o local do sol com relação à imagem, a cor da luz (por exemplo, se a imagem foi tomada em uma sombra, sob as nuvens, etc.), a intensidade de luz, entre outros fatores. O sistema de identificação de fileira 240 identifica as fileiras de cultivo na imagem. As fileiras de cultivo podem ser usadas para aplicar material ou para identificar as ervas daninhas ou outros alvos. Por exemplo, quando o material é um fertilizante que deve ser aplicado às fileiras de cultivo, então a saída do sistema de identificação de fileira 240 pode ser usada para ativar os corpos de bocal 120, que estão se deslocando sobre as fileiras de cultivo. Quando o material deve ser aplicado às ervas daninhas, a saída do sistema de identificação de fileira 240 pode ser usada para mascarar as fileiras de cultivo na imagem e para, assim, identificar de melhor maneira as ervas daninhas entre as fileiras. O processador de identificação de alvo 242 identifica os alvos nas imagens e o sistema de identificações de bocal 244 identifica quais bocais precisam ser ativados para aplicar material aos alvos. O sistema de controle de ativação de bocal 246 determina quando os bocais devem ser ativados, e por quanto tempo os bocais devem ser ativados. O gerador de saída 248 gera uma saída indicando quais bocais devem ser ativados, quando aqueles bocais devem ser ativados, e a duração de tempo em que aqueles bocais devem ser ativados. Alguns dos itens no módulo de processamento de imagem 124A serão agora descritos em maior detalhe.
[0082] Conforme descrito acima com relação às figuras 1B e 1D, as matrizes de correção de cor 257 podem ser geradas para cada sensor de imagem 122 e carregadas à lógica de processamento (ou no módulo de processamento de imagem 124A ou no sensor de imagem 122) de forma que as imagens possam ser corrigidas quanto à distorção, cor, sombreamento de lente, distorção, etc. Também, conforme a máquina agrícola 100 se move através do campo, a posição de lança 118 pode se alterar. O operador 156 pode prover uma entrada para controlar os atuadores de lança 182 para elevar ou abaixar as várias seções de lança 118. Em outro exemplo, a máquina agrícola 100 pode bater em uma elevação ou um sulco ou outro terreno, que causa o movimento da lança 118. Também, um declive ou ravina ou elevação sob a lança 118 pode resultar em uma alteração na distância entre a lança 118 e o solo. Uma alteração na distância entre a lança 118 e o solo pode modificar a orientação e perspectiva dos sensores de imagem 122 com relação ao solo e, assim, alterar o local das imagens sensoreadas pelos sensores de imagem 122 com relação aos corpos de bocal 120. A fim de acomodar isso, os módulos de processamento de imagem 124 incluem o sistema de calibragem de câmera 230 (descrito em maior detalhe abaixo com relação à figura 4), que conduz um processo de calibragem durante o qual as transformadas são geradas para cada um dos sensores de imagem 122 em diferentes posições de lança. As transformadas asseguram, que a ROI, dentro do campo de visão de cada sensor de imagem, corresponda a um local conhecido no solo, com relação aos sensores de imagem 122 e aos corpos de bocal 120 (por exemplo, a ROI sempre corresponde a uma área no solo 2m à frente da lança e 1 m x 1 m em área). O processo de calibragem, conforme é descrito em maior detalhe abaixo, envolve o controlador de calibragem 168 (mostrado na figura 1C) controlando os atuadores de posição de lança 182 para mover a lança 118 para diferentes posições. Em cada posição, os sensores de imagem 122 são calibrados de forma que a transformada desejada seja gerada para essa posição de lança. O controlador de calibragem 168 pode então controlar os atuadores de posição de lança 182 para mover a lança 118 para outra posição na qual as transformadas de calibragem são geradas para os sensores de imagem nessa posição de lança. Então, durante o tempo de execução da operação, a posição da lança 118 é senhoreada e as transformadas de calibragem para essa posição de lança são recuperadas para cada sensor de imagem e usadas no processamento de imagem.
[0083] A figura 4A é um diagrama de blocos mostrando um exemplo de sistema de calibragem de câmera 230 em mais detalhe. O sistema de calibragem de câmera 230 inclui o identificador de posição de câmera/lança 252, o sistema de segmentação 253, o sistema de detecção e processamento de esteira de calibragem 254, o sistema de verificação de montagem de câmera 256, o componente de verificação de conexão de câmera 258, o gerador de transformada de calibragem 260, o identificador da ROI 262, o sistema de interpolação 263, o gerador de saída 264, e outros itens 266. O sistema de detecção e processamento de esteira de calibragem 254 ilustrativamente inclui o componente identificador de linha 268, o componente identificador de ponto de extremidade de linha 270, o componente identificador de marcador central 272, leitor de etiqueta de informação 274, e outros itens 276. O componente de verificação de montagem de câmera 256 pode incluir a lógica de comparação de separação de ponto de extremidade 278, a lógica de comparação de ângulo de linha 280, e outros itens 282. O gerador de transformada de calibragem 260 pode incluir o sistema de identificação de coordenadas de mundo real 284, o gerador de coeficiente de mapeamento 286, e também outros itens 288. Uma breve descrição dos itens no sistema de calibragem de câmera 230, e de sua operação, será agora provida.
[0084] O identificador de posição de câmera/lança 252 gera uma saída que é indicativa de uma posição e/ou orientação dos sensores de imagem 122 na lança 118. Assim, o identificador de posição de câmera/lança 252 pode incluir o sensor de lança 126, que sensoreia a altura da lança 118 acima do solo. O identificador de posição 252 pode também incluir outros sensores ou detectores ou elementos lógicos, que determinam a posição e orientação particulares de cada um dos sensores de imagem 122, em diferentes posições de lança. A posição e a orientação do sensor de imagem 122 podem ser derivadas com base no local e orientação de vários sensores, dadas as dimensões da máquina 100, o espaçamento entre os sensores de imagem 122, o ângulo de montagem dos sensores de imagem, etc. Em um exemplo, a fim de calibrar os sensores de imagem 122 na lança 118, um operador move a máquina 100 para a posição de forma que lança 118 fique próxima a uma esteira de calibragem. A esteira de calibragem ilustrativamente tem marcadores na mesma, de forma que os sensores de imagem 122 possam capturar aqueles marcadores em seu campo de visão e as câmeras possam ser calibradas.
[0085] A figura 4B mostra um exemplo de uma porção de uma tal esteira de calibragem 290. Em um exemplo, a esteira de calibragem 290 pode ser simétrica e pode ser usada com lanças com os sensores de imagem e os corpos de bocal de qualquer espaçamento. A esteira de calibragem 290 ilustrativamente tem um conjunto dos marcadores (não mostrados), que podem ser usados para alinhar a lança 118 com a esteira 290. Por exemplo, a lança de calibragem 118 pode ser equipada com uma ou mais fios de prumo. Quando os fios de prumo estão alinhados com os marcadores na esteira de calibragem 290, então a lança 118 está apropriadamente alinhada à esteira de calibragem 290. Também, a esteira de calibragem 290 pode também ter um padrão de repetição de linhas ou barras verticais igualmente espaçadas 292, 294, 296, 298, 300 e 302, e um marcador central (ou ponto) 304, 306, 308, 310, e 312. As linhas são coloridas diferentemente da cor de fundo. Os pontos podem ser posicionados centralmente entre linhas adjacentes, de forma que, se uma linha for traçada de uma primeira extremidade de uma das linhas adjacentes para uma extremidade oposta da outra linha adjacente, e vice-versa (por exemplo, se as linhas 314 e 316 forem traçadas entre as extremidades opostas das linhas de calibragem 296 e 298), então elas formarão um X e uma cruz em um ponto de centro, no qual o marcador central 308 é posicionado. Os marcadores centrais podem ser da mesma cor ou de cor diferente que as linhas. Também, em um exemplo, a esteira de calibragem 290 inclui uma pluralidade de etiquetas de informação 318, 320, 322, 324, e 326. No exemplo mostrado na figura 4B, as etiquetas de informação 318-326 são etiquetas de “Abril”, que podem ser um código de barras, um código QR, ou similar. As etiquetas de informação podem conter informação identificando um número de linha ou outro identificador de linha da linha adjacente. A informação pode também ser usada para identificar a falha de instalação de sensor de imagem (por exemplo, sensor de imagem errado conectado à errada unidade de processamento de imagem 124 ou à porta errada no módulo de processamento de imagem 124. Também, em um exemplo, a esteira de calibragem 290 pode incluir um conjunto de códigos ou etiquetas legíveis por humanos 328, 330, 332, 334, 336, e 338. Em um exemplo, as linhas de calibragem, os marcadores centrais, as etiquetas de informação e as etiquetas legíveis por humanos podem ser de uma cor pré-definida ou diferentes cores prédefinidas. Por conseguinte, as linhas, as etiquetas dos marcadores podem ser rapidamente identificadas pelos módulos de processamento de imagem 124).
[0086] Também, em um exemplo, a esteira de calibragem 290 não é simétrica verticalmente de forma que a base da esteira possa sempre ser colocada o mais próximo à lança 118. A esteira pode se estender através da lança inteira 118, através da metade da lança 118, ou através de uma diferente quantidade de lança 118.
[0087] O componente identificador de linha 268 (na figura 4A) identifica as linhas 292 a 302. O componente identificador de ponto de extremidade de linha 270 identifica pontos na esteira de calibragem 290 correspondentes às extremidades opostas de cada linha 292 a 302. O componente identificador de marcador central 272 identifica os marcadores centrais 304-312 e o leitor de etiqueta de informação 274 pode ler as etiquetas de informação 318-326. Conforme é descrito em maior detalhe abaixo com relação às figuras 11 a 13B, o sistema de detecção e processamento de esteira de calibragem 254 detecta a informação na esteira de calibragem 290 de forma que o processo de calibragem possa ser completado.
[0088] O componente de verificação de montagem de câmera 256 verifica se as várias câmeras (ou sensores de imagem) 122 estão apropriadamente montadas na lança 118. a lógica de comparação de separação de ponto de extremidade 278 compara a separação dos pontos de extremidade correspondentes às extremidades das linhas de calibragem 292 a 302, na imagem da esteira de calibragem 290 capturada por uma câmera ou sensor de imagem 122 que está sendo calibrada. A lógica 278 compara a distância entre os pontos de extremidade adjacentes de duas linhas de calibragem para assegurar que o sensor de imagem 122 não seja montado de cabeça para baixo. A lógica de comparação de ângulo de linha 280 compara os ângulos das linhas de calibragem identificadas 292 a 302 na imagem capturada para determinar se o sensor de imagem 122 está também montado apropriadamente (dentro de um limite de um ângulo de montagem desejado). Novamente, isso é descrito abaixo.
[0089] O componente de verificação de conexão de câmera 258 determina se a saída do sensor de imagem 122 sendo calibrado é conectada à porta de entrada apropriada no correspondente módulo de processamento de imagem 124. Essa determinação pode ser feita usando a informação lida das etiquetas de informação 318-326.
[0090] O identificador de região de interesse 262 identifica a ROI dentro do campo de visão do sensor de imagem sendo calibrado, e o gerador de transformada de calibragem 260 gera uma ou mais transformadas, que podem ser aplicadas à imagem para transformar as porções da imagem capturada em coordenadas de mundo real no solo, sobre o qual o sensor de imagem está montado. O sistema de identificação de coordenadas de mundo real 284 identifica as coordenadas de mundo real e o gerador de coeficiente de mapeamento 286 gera coeficientes de mapeamento, que são usados para transformar os pixels em uma imagem capturada pelo sensor de imagem em um local no solo definido em termos das coordenadas de mundo real. O gerador de saída 264 gera uma saída indicativa das coordenadas de mundo real e coeficientes de mapeamento de forma que eles possam ser usados posteriormente, durante o tempo de execução da operação da máquina agrícola 100.
[0091] A figura 5 é um diagrama de blocos mostrando um exemplo do sistema de remapeamento de imagem 232. Em um exemplo, os sensores de imagem 122 serão calibrados para diferentes posições acima do solo. Por exemplo, durante a calibragem, a lança 118 é movida para uma primeira posição, e todos dos sensores de imagem 122 são calibrados de forma que os correspondentes coeficientes de mapeamento, para cada sensor de imagem, sejam gerados para essa posição. Então, a lança é movida para outra posição e os sensores de imagem são novamente calibrados para essa nova posição, de forma que os correspondentes coeficientes de mapeamento sejam gerados para cada sensor de imagem nessa posição. Isso irá continuar para uma pluralidade de posições diferentes de lança 118 com relação ao solo. Por conseguinte, durante o tempo de execução, o sistema de remapeamento de imagem 232 ilustrativamente inclui o identificador de coeficiente de mapeamento 340, o identificador de região de interesse 342, e pode incluir outros itens 344. O identificador de coeficiente de mapeamento 340 recebe uma indicação de posição de lança e obtém os coeficientes de mapeamento para o sensor de imagem, de modo que uma imagem em análise foi recebida, com base na posição da lança 118 acima do solo. O identificador de região de interesse 342 identifica a ROI, no solo sob a máquina 100, usando a imagem capturada pelo sensor de imagem em análise, e O uso dos coeficientes de mapeamento, que mapeiam os pixels nessa imagem para um local geográfico no solo.
[0092] A figura 6 é um diagrama de blocos mostrando um exemplo de gerador de nível de confiança 234. Lembre-se que o gerador de nível de confiança 234 pode gerar uma ou mais métricas de nível de confiança ou métricas de nível de qualidade, indicativas da qualidade da imagem sendo analisada e/ou da confiança que o sistema tem em ser capaz de identificar OS alvos nessa imagem e aplicar material aos alvos. Por exemplo, pode ser que um número de obscurantes (tais como poeira, fumaça, etc.) seja detectado no ar. Isso pode reduzir o nível de qualidade correspondente à imagem. Em outro exemplo, pode ser que o sensor de imagem 122 esteja com defeito, ou esteja bloqueado por lama, ou outros detritos. Isso pode também reduzir a qualidade da imagem ou a confiança com a qual o sistema pode identificar e aplicar material aos alvos na imagem. Além disso, a máquina agrícola 100 pode estar se deslocando sobre uma área do campo que tem uma alta densidade de ervas daninhas. Em uma tal área, pode ser difícil distinguir entre as fileiras de cultivo e as ervas daninhas, pois o campo de visão inteiro do sensor de imagem 122 pode estar densamente provido com vegetação. Ainda, pode ser que o sensor de imagem 122 esteja se movendo muito rapidamente, tal como quando a máquina agrícola 100 está fazendo uma curva e o sensor de imagem 122 é uma câmera externa na lança 118 que está se deslocando muito rapidamente durante a curva. Quando o sensor de imagem 122 está se deslocando muito rapidamente, pode ser mais difícil identificar os alvos e ativar o bocal 120 para pulverizar os alvos de forma suficientemente rápida, que o alvo possa ser recoberto pelo material pulverizado pelo bocal (porque o sensor de imagem está se movendo tão rapidamente sobre o solo). Todos desses e outros fatores podem suportar a qualidade da imagem sendo processada e a confiança com a qual o sistema pode identificar e aplicar material aos alvos.
[0093] Por conseguinte, o gerador de nível de confiança 234 pode incluir o detector de nível de confiança de qualidade de imagem 346, o detector de nível de confiança de identificação de fileira 348, o detector de nível de confiança de operação de pulverização 350, e pode incluir outros itens 352. O detector de nível de confiança de qualidade de imagem 346 pode sensorear critérios, que suportam a qualidade de a imagem. O detector de nível de confiança de qualidade de imagem 346 gera então uma saída indicativa da qualidade de imagem. O detector de nível de confiança de identificação de fileira 348 pode detectar ou considerar critérios, que suporta a capacidade do módulo de processamento de imagem de identificar as fileiras de cultivo. O detector de nível de confiança de identificação de fileira 348 gera uma saída indicativa da confiança com a qual as fileiras de cultivo são identificadas. O detector de nível de confiança de operação de pulverização 350 detecta ou considera critérios que afetam a confiança com a qual o sistema pode precisamente aplicar material a um alvo. O detector de nível de confiança de operação de pulverização 350 gera uma saída indicativa de um tal nível de confiança. A qualidade de imagem e os vários níveis de confiança gerados pelo gerador de nível de confiança 234 podem ser considerados por outra lógica ou componentes no sistema na determinação de se, e como, aplicar material ao campo.
[0094] A figura 7 é um diagrama de blocos mostrando um exemplo de sistema de identificação de fileira 240. O sistema de identificação de fileira 240 pode incluir o sistema de segmentação de verde 354, o acumulador de pixel 356, o sistema de agregação histórica 358, o processador de pico 360, o componente de mascaramento de fileira 362, e outros itens 364. O processador de pico 360 pode incluir o identificador de pico 366, o processador de espaçamento de fileira 368, o identificador de borda de fileira 370, o sistema de marcação de pixel 372, e outros itens 374. A operação do sistema de identificação de fileira 240 é descrito em maior detalhe abaixo com relação às figuras 26A a 31. Brevemente, todavia, o sistema de segmentação de verde 354 segmenta a imagem em análise entre pixels verdes e pixels não verdes. O acumulador de pixel 356 acumula pixels na direção vertical na imagem (a direção de deslocamento da máquina agrícola 100) e o sistema de agregação histórica 358 agrega os valores de pixel acumulados com a representação histórica daqueles pixels. O identificador de pico 366 identifica picos nos valores de pixel acumulados e historicamente agregados e o processador de espaçamento de fileira 336 identifica o espaçamento entre fileiras (por exemplo, o espaçamento de fileira de centro a centro) dados os picos identificados pelo identificador de pico 366. O identificador de borda de fileira 370 então identifica as bordas das fileiras na imagem com base no espaçamento entre fileiras e os valores de pixel acumulados e historicamente agregados. O sistema de marcação de pixel 372 marca os pixels dentro dos limites de fileira para identificar as plantas de fileira de cultivo.
[0095] Pode ser, em alguns cenários, que a máquina agrícola 100 deva aplicar material às fileiras. Nesse caso, uma vez quando as fileiras são identificadas, áreas diferentes de fileiras podem ser mascaradas pelo componente de mascaramento de fileira 362 e os bocais particulares, que devem ser ativados para aplicar material às fileiras, podem ser ativados. Em outros cenários, pode ser que a máquina agrícola 100 esteja aplicando material às plantas diferentes de cultivos. Nesse caso, o componente de mascaramento de fileira 362 pode mascarar as fileiras na imagem sendo processadas de forma que os alvos (por exemplo, ervas daninhas) possam ser identificados em áreas diferentes que as fileiras de cultivo. Assim, o componente de mascaramento de fileira 362 pode mascarar as fileiras de forma que a identificação de alvo possa prosseguir nas outras áreas.
[0096] A figura 8 é um diagrama de blocos de um exemplo do processador de identificação de alvo 242. O processador de identificação de alvo 242 pode identificar alvos para a aplicação de material pela máquina agrícola 100 na imagem atualmente sendo processada. O processador de identificação de alvo 242 pode incluir o componente de conversão de cor 376, o componente de segmentação/binarização378, o sistema de filtro de erva daninha 380 (que pode incluir o detector de sensibilidade 382, o filtro 384 e outros itens 386), o localizador de erva daninha 388, o componente de armazenamento de local de erva daninha 390, e outros itens 392.
[0097] Em um exemplo, o componente de conversão de cor 376 converte o espaço de cor de um espaço de cor vermelho, verde, azul (RGB) para um sinal de luma (Y), componente de croma de diferença vermelho (Cr), e componente de croma de diferença azul (Cb), também referido como o espaço de cor aYCrCb. O componente de segmentação/binarização378 então segmenta as cores verdes na imagem, e binariza a imagem de forma que aqueles pixels na imagem, que são de uma cor suficientemente verde sejam atribuídos a um valor de 1 e os restantes dos pixels sejam atribuídos a um valor de 0. O sistema de filtro de erva daninha 380 pode filtrar as ervas daninhas identificadas ou outros alvos, de forma que somente alvos de um tamanho suficiente sejam identificados. Por exemplo, se o valor de sensibilidade for elevado, então os mecanismos de detecção de ervas daninhas detectarão as ervas daninhas de um menor tamanho, enquanto se o valor de sensibilidade for reduzido, então somente ervas daninhas de um maior tamanho serão detectadas.
[0098] O detector de sensibilidade 382 detecta assim um valor de sensibilidade, que pode ser um valor padrão, um valor de entrada de operador, um valor automaticamente ajustado ou aprendido por máquina, ou outro valor de sensibilidade. O filtro 384 então filtra os alvos potenciais (por exemplo, as ervas daninhas) dentro da imagem com base no valor de sensibilidade detectado pelo detector de sensibilidade 382. O localizador de erva daninha 388 então detecta ou localiza as ervas daninhas (ou alvos) dentro da imagem, com base na saída do filtro 384. O componente de armazenamento de local de erva daninha 390 armazena o local geográfico das ervas daninhas identificadas (ou alvos) para o uso posterior. Por exemplo, onde a máquina agrícola 100 está pulverizando ervas daninhas com base na detecção em tempo real, as ervas daninhas podem ser pulverizadas, mas seu local pode também ser armazenado. Então, durante um segundo passe através do campo em um momento posterior, a máquina agrícola 100 pode novamente aplicar material àqueles locais de ervas daninhas, mesmo se as ervas daninhas parecerem estar mortas. Assim, a erva daninha, o componente de armazenamento de local 390, podem incluir um mecanismo que interage com o banco de dados 226 (mostrado na figura 3) para armazenar o local de erva daninha, ou o componente de armazenamento de local de erva daninha 390 pode incluir um banco de dados separado para armazenar os locais de ervas daninhas.
[0099] A figura 9 é um diagrama de blocos de sistema de processamento de batida dupla 165. O sistema de processamento de batida dupla 165, conforme brevemente mencionado acima, processa os locais armazenados de ervas daninhas para determinar se os locais devem ser pulverizados (ou outro material deve ser administrado ou aplicado) com base no local da máquina agrícola 100, e não necessariamente com base em se as ervas daninhas ou alvos são posicionados em tempo real dentro das imagens sendo processadas. Por exemplo, embora as ervas daninhas possam parecer mortas na imagem, elas podem ainda estar vivas, o que causará com que a erva daninha continue a crescer. A reaplicação de material a uma erva daninha que já foi tratada é às vezes referida como um processo de aplicação de “batida dupla”. O sistema de processamento de batida dupla 165 inclui o sensor de posição geográfica 202, o sistema de processamento de mapa/prescrição de erva daninha anterior 201, o sistema de comparação de local 394, o sistema de decisão de pulverização 396, e pode incluir outros itens 204. O sistema de processamento de mapa/prescrição de erva daninha anterior 201 pode incluir o localizador de erva daninha anterior 398, o identificador de substância/dosagem 400, e pode incluir outros itens 402. O sensor de posição geográfica 202 sensoreia a posição geográfica da máquina agrícola 100. Da posição geográfica sensoreada, a posição geográfica de cada um dos corpos de bocal 120 na máquina 100 pode ser derivada ou de outra maneira senhoreada. O sistema de processamento de mapa/prescrição de erva daninha anterior 201 obtém um mapa de erva daninha anteriores, tais como os locais de ervas daninhas armazenados pelo componente de armazenamento de local de erva daninha 390 durante um passe anterior através de um campo. O sistema 201 pode também obter o mapa de erva daninha anterior de outras fontes. O sistema 201 pode também obter uma prescrição indicando o material particular, a resistência do material, a taxa de aplicação, etc., a serem aplicados às ervas daninhas tratadas no mapa de erva daninha anterior. O localizador de erva daninha anterior 398 localiza as ervas daninhas no mapa de erva daninha anterior e o identificador de substância/dosagem 400 identifica uma ou mais da substância ou dosagem ou taxa de aplicação a ser aplicada àquelas ervas daninhas. O sistema de comparação de local 394 compara o local da máquina 100 (ou o local das áreas de pulverização tratadas pelos corpos de bocal 120 na máquina 100) com o local das ervas daninhas e o sistema de decisão de pulverização 396 determina se qualquer dos corpos de bocal 120 deve ser ativado, quais dos corpos de bocal 120 devem ser ativados, e a temporização de ativação daqueles corpos de bocal 120, a fim de aplicar um material particular aos locais de ervas daninhas obtidos do mapa de erva daninha anterior.
[00100] A figura 10 é um diagrama de blocos mostrando um exemplo de sistema de controle de ativação de bocal 246. No exemplo mostrado na figura 10, o sistema de controle de ativação de bocal 246 pode incluir sensores de valor variável 404, o gerador de tempo de retardo de ligação 406, o componente de determinação de ajuste lateral 407, o gerador de tempo de retardo de desligamento 408, o gerador de saída 409, e pode incluir outros itens 410. O sensor de valor variável 404 pode incluir sensores de dimensão/dinâmica e mecanismos de entrada 412, os sensores de tempo real 414, e outros itens 416. O gerador de tempo de retardo de ligação 406 pode incluir o componente de determinação de velocidade de bocal 418, o gerador de tempo de execução de tarefa 420, o gerador de tempo de voo de pulverização 422, e pode incluir também outros itens 424. A operação do sistema de controle de ativação de bocal 246 é descrito abaixo com relação às figuras 32 a 36. Brevemente, todavia, os sensores de valor variável 404 podem sensorear ou detectar os valores de uma grande variedade de variáveis ou critérios, que são usados na determinação de quais bocais ativar, quanto ativar os bocais, quanto tempo mantê-los ligados, e quando desativar os mesmos. Os sensores de dimensão/dinâmica e os mecanismos de entrada 412 obtêm as dimensões de máquina e as dinâmicas de máquina, que são usadas em cálculos de ativação de os bocais. As dimensões e dinâmicas podem ser senhoreadas, ou podem ser de dimensões e/ou dinâmicas padronizadas. As dimensões e dinâmicas podem ser dimensões e dinâmicas alimentadas por operador, ou as dimensões e dinâmicas podem ser obtidas também de uma grande variedade de outras maneiras. Os sensores de tempo real 414 realizam o sensoreamento ou detecção em tempo real de valores de variável, que são usados nos cálculos para a seleção e ativação de bocal. Exemplos das dimensões, dinâmicas, e valores sensoreados em tempo real são descritos em maior detalhe abaixo com relação às figuras 32 a 35.
[00101] O componente de determinação de velocidade de bocal 418 determina a velocidade dos bocais (velocidade de bocal com relação ao solo), que devem ser ativados. O gerador de tempo de voo de pulverização 422 determina quanto tempo o material irá despender entre quando ele deixa o bocal e quando ele impacta o solo ou o alvo. O gerador de tempo de execução de tarefa 420 identifica um instante quando a ativação de bocal deve ocorrer. Na identificação do tempo, o gerador de tempo de execução de tarefa 420 considera quão longe o alvo está do bocal, a velocidade em que o bocal está se deslocando, o tempo requerido entre a energização de uma válvula correspondente, de forma que o material possa fluir através da mesma e quando a válvula atualmente se abre e material começa a escoar, o tempo de voo do material entre deixar o bocal e atingir o solo, e qualquer área intermediária em torno do alvo (por exemplo, pode ser desejável pulverizar 15,24 cm (6 polegadas) em cada lado de um alvo para assegurar que o alvo seja adequadamente coberto).
[00102] O gerador de tempo de retardo de desligamento 408 realiza cálculos similares aos do gerador de tempo de retardo de ligação 406, exceto que o gerador de tempo de retardo de desligamento 408 determina quanto tempo aguardar (depois do bocal ser ativado), para desligar o bocal (ou desativar o mesmo). A determinação do tempo de desativação considerará a quantia de tempo da atuação da válvula correspondente até o fechamento da válvula, o tempo de voo do material deixando o bocal (depois de a válvula ser fechada) até ele atingir o solo, a velocidade do bocal sobre o solo, e qualquer desejada área intermediária no solo.
[00103] A figura 11 é um diagrama de blocos de um exemplo de uma arquitetura de calibragem 426. Os itens mostrados na arquitetura 426 são também mostrados nas figuras anteriores, e eles são similarmente enumerados. Na operação, é primeiramente assumido que a máquina agrícola 100 é posicionada de forma que sua lança 118 esteja em um local pré-definido com relação a uma esteira de calibragem 290, um exemplo da qual é mostrado na figura 4B. O alinhamento da lança 118 com relação uma esteira de calibragem 290 pode ser feito, conforme descrito acima, por deixar cair um ou mais fios de prumo da lança 118 e alinhar os mesmos com as marcas na esteira de calibragem 290.
[00104] Os sensores de lança 126 sensoreiam a altura da lança acima do solo. Isso pode ser feito em uma variedade de diferentes maneiras. Os sensores podem ser radar, LIDAR, ou outros sensores. Os sensores de lança 126 podem ser sensores que sensoreiam a rotação de um braço de lança em torno de um eixo geométrico de pivô. Os sensores de lança 126 podem ser sensores que sensoreiam a extensão ou outra posição de um atuador de posição de lança 182, que é usado para elevar e abaixar as diferentes seções da lança 118. A entrada de sensor de lança 126 é provida para o controlador de calibragem 168. O controlador de calibragem 168 então provê a altura ou posição de lança para o sistema de calibragem de câmeras 230 em cada um dos vários módulos de processamento de imagem 124A a 124C. Para a posição de lança identificada, cada um dos módulos de processamento de imagem 124A a 124C obtém imagens de seus correspondentes sensores de imagem 122 (os sensores de imagem no subconjunto 122A, 122B, e 122C, respectivamente). As imagens para cada sensor de imagem 122 são processadas pelo sistema de calibragem de câmera 320 em cada módulo de processamento de imagem 124A a 124C
[00105] A presente descrição prosseguirá com relação ao módulo de processamento de imagem 124A processando uma imagem do primeiro sensor de imagem no subconjunto 122A. O identificador de câmeras/posição de lança 252 (mostrado na figura 4A, que pode ser o sensor de lança 126) identifica a posição particular do sensor de imagem 122A acima do solo. Por exemplo, na altura da lança sensoreada, a câmera pode estar em uma posição pré-definida acima do solo. Essa posição pré-definida pode ser armazenada nos dados de posição de câmera 252, por exemplo. Em outro exemplo, a altura do sensor de imagem acima do solo pode ser correlacionada com a altura da lança de outras maneiras, ou pode ser calculada com base na altura da lança, ou a altura da lança pode ser de outra maneira determinada. O sistema de detecção e processamento de esteira de calibragem 254 obtém dados de esteira de calibragem 254 do banco de dados 226. Os dados de esteira de calibragem 254 podem definir a configuração da esteira de calibragem particular 290 sendo usada.
[00106] O sistema de detecção e processamento de esteira de calibragem 254 detecta então os vários itens na esteira de calibragem 290, tais como as linhas 292 a 302 e os marcadores 304-312, e o componente de verificação de montagem de câmera 256 verifica que a câmera esteja apropriadamente montada à lança. O componente de verificação de conexão de câmera 258 confirma que o sensor de imagem 122 sendo calibrado está conectado à porta apropriada no módulo de processamento de imagem 124A. O gerador de transformada de calibragem 260 gera então os coeficientes de mapeamento para o sensor de imagem 122 nessa particular posição de lança. O módulo de processamento de imagem 124A faz o mesmo para cada sensor de imagem 122A, ao qual ele está conectado. Os outros módulos de processamento de imagem 124-124C calculam os coeficientes de mapeamento para cada um dos sensores de imagem 122B-122C, aos quais eles estão também conectados. Em resposta aos coeficientes de mapeamento sendo calculados para cada um dos sensores de imagem, então o controlador de calibragem 168 comanda o controlador de posição de lança 174 para mover os atuadores de posição de lança 182 para uma nova posição. Por exemplo, pode ser que a lança seja iniciada em sua posição abaixada máxima e então incrementalmente movida através de uma série de posições alvos para sua posição elevada máxima. Em cada uma das posições alvos incrementais, os módulos de processamento de imagem 124A a 124C geram coeficientes de mapeamento para cada um dos processadores de imagem 122A a 122C de forma que aqueles coeficientes de mapeamento possam ser usados, durante o tempo de execução. Existirá assim um conjunto de coeficientes de mapeamento para cada posição de lança.
[00107] As figuras 12A e 12B (daqui em diante referidas como a figura 12) mostram um fluxograma ilustrando um exemplo da operação de calibragem global, usada pela arquitetura de calibragem 426 na geração dos coeficientes de mapeamento para cada sensor de imagem, em cada posição alvo diferente da lança. No início do processo de calibragem, todos dos sensores de imagem 122A a 122C, que são conectados ao controlador de calibragem 168 através dos módulos de processamento de imagem 124A a 124C são identificados, e sua configuração é também identificada. A identificação dos sensores de imagem 122A a 122C e da configuração daqueles sensores de imagem 122A a 122C é indicada pelo bloco 428 no fluxograma da figura 12. Por exemplo, cada um dos módulos de processamento de imagem 124A a 124C sequencialmente aborda eles próprios em seu correspondente barramento CAN. Essa abordagem pode ser realizada pela passagem de uma mensagem de endereço/sinc (mostrada na figura 2) entre os vários módulos de processamento de imagem 124A a 124C, começando com um primeiro módulo de processamento de imagem na sequência de módulos de processamento de imagem (por exemplo, começando com o módulo de processamento de imagem 124A). Ao receber a mensagem de endereço/sinc, o módulo de processamento de imagem 124A acessa os dados de posição de módulo de processamento de imagem 251 (no banco de dados 226 na figura 3), que identificam a posição de módulo de processamento de imagem 124A, na sequência de módulos de processamento de imagem 124A a 124C, com base na assinatura da mensagem de endereço/sinc. Por exemplo, os dados de posição de módulo de processamento de imagem 252 podem estar em uma tabela de consulta, que correlaciona as mensagens de endereço/sinc (ou uma característica identificável daquelas mensagens) a uma posição de módulo de processamento de imagem na sequência de módulos de processamento de imagem 124. Ter os módulos de processamento de imagem 124 que identificar sua posição na sequência de módulos de processamento de imagem 124A a 124C é indicado pelo bloco 430 no fluxograma da figura 12. Em resposta à determinação de sua posição na sequência, o módulo de processamento de imagem 124A consulta (por exemplo, em outra tabela nos dados de posição de câmera 252) o conjunto de sensores ópticos ou os sensores de imagem 122A, aos quais ele está conectado. Os dados de posição de câmera 252 também indicam a posição de cada sensor de imagem 122A na estrutura de lança 118. A identificação dos correspondentes sensores de imagem 122A e os locais daqueles sensores na estrutura de lança 118 é indicada pelo bloco 432 no fluxograma da figura 12
[00108] A posição do módulo de processamento de imagem 124A também identifica, nos dados de posição de bocal 253, o conjunto particular dos corpos de bocal 120A, pelo qual esse módulo de processamento de imagem particular 124A é responsável. A identificação do conjunto de corpos de bocal 120A correspondentes a esse módulo de processamento de imagem particular 124A, e as posições de cada um daqueles bocais, é indicada pelo bloco 434 no fluxograma da figura 12. Os sensores de imagem e sua configuração, com relação a módulos de processamento de imagem e os bocais, podem ser identificados também de outra maneira, e isso é indicado pelo bloco 436.
[00109] Uma vez quando o módulo de processamento de imagem 124A determinar sua posição, e as posições de seus correspondentes sensores de imagem e corpos de bocal, o módulo 124A incrementa a mensagem de endereço/sinc e passa a mensagem de endereço/sinc para o próximo módulo de processamento de imagem 124B na sequência. Isso continua até todos os módulos de processamento de imagem 124A a 124C no sistema terem determinado suas posições, os sensores de imagem pelos quais eles são responsáveis, as posições daqueles sensores de imagem, os corpos de bocal pelos quais eles são responsáveis, e as posições daqueles corpos de bocal.
[00110] O controlador de calibragem 168 então acessa o banco de dados 226 para determinar se os sensores de imagem 122 já têm transformações específicas de hardware (ou coeficientes de mapeamento) 256 e matrizes de correção de cor 257, conforme indicado pelo bloco 438 no fluxograma da figura 12. Se sim, então aquelas transformações e matrizes de correção são carregadas ao módulo de processamento de imagem 124A de forma que elas possam ser usadas durante a aquisição e tratamento de alvo no tempo de execução. O carregamento das transformações específicas de hardware e matrizes é indicado pelo bloco 440 na figura 12. Se não existirem transformações específicas de hardware e matrizes, então o controlador de calibragem 168 gera um alerta de operador indicando que em pelo menos alguns dos sensores de imagem estão faltando as transformadas e matrizes, conforme indicado pelo bloco 442. O módulo de processamento de imagem 124A pode então carregar dados de calibragem genéricos ou padrões, que podem resultar na detecção de alvo e tratamento que são menos precisos que as transformadas específicas de hardware e matrizes, que podem ser geradas durante a calibragem. O carregamento de dados de calibragem genéricos ou padrões é indicado pelo bloco 444 no fluxograma da figura 12. O alerta gerado para o operador pode indicar que o operador deve calibrar os sensores de imagem antes de prosseguir, ou na próxima oportunidade.
[00111] Em algum ponto, o controlador de calibragem 168 determina que um processo de calibragem deve ser iniciado, conforme indicado pelo bloco 446 no fluxograma da figura 12. O processo de calibragem pode ser iniciado por uma entrada de operador 448, pelo controlador de calibragem 168 detectando que um novo sensor de imagem foi adicionado à, ou instalado na, lança, como indicado pelo bloco 450, ou a entrada de início de calibragem pode ser detectada de outras maneiras, conforme indicado pelo bloco 452.
[00112] O operador então move a máquina agrícola 100 ou move uma esteira de calibragem 290 de forma que a lança 118 seja alinhada com a esteira 290, tal como mostrado na figura 4B. O alinhamento da lança 118 com a esteira 290 é indicado pelo bloco 454. Deve ser notado que a esteira de calibragem 290 pode ser uma esteira física. A exibição dos marcadores de calibragem em uma esteira física é indicada pelo bloco 456 no fluxograma da figura 12. Em outro exemplo, ao invés de serem exibidos em uma esteira física que é posicionada fora, à frente de lança 118, os elementos de calibragem ou marcadores na esteira física 290 podem ser projetados no solo ou também em outra superfície à frente de lança 118. A projeção d a esteira de calibragem no solo é indicada pelo bloco 458 no fluxograma da figura 12. Os elementos de calibragem na esteira de calibragem 290 podem ser providos também de outra maneira. Por exemplo, eles podem ser marcados na lança ou na máquina 100, propriamente dita, ou eles podem ser providos de outras maneiras, conforme indicado pelo bloco 460.
[00113] O sistema de calibragem 230 então acessa os dados de posição armazenados para os sensores de imagem conectados à lança 118, conforme indicado pelo bloco 462 no fluxograma da figura 12. Os dados de posição podem ser incluídos nos dados de posição de câmera 252 armazenados no banco de dados 226. Os dados de posição ilustrativamente identificam o ângulo padrão no qual o sensor de imagem particular é montado com relação à lança 118. Os dados de posição podem ser dados de orientação, que especificam uma orientação do correspondente sensor de imagem com relação a um ponto conhecido (tal como com relação a um ponto conhecido na lança 188 ou em outro lugar), conforme indicado pelo bloco 464. Em um exemplo, uma marca (ou objeto) fixa, afixada à lança 118 no campo de visão do sensor de imagem 122, é identificada e a posição da marca fixa no campo de visão é armazenada. A orientação pode ser identificada com base em onde, no campo de visão, a marca aparece. A orientação do sensor de imagem pode ser comparada com os dados de posição para determinar se o sensor de imagem está na orientação apropriada. Também, durante a operação, se a posição do marcador no campo de visão se alterar, (tal como se o sensor de imagem estiver elevado e movido), então o módulo de processamento de imagem 124 pode notificar o operador que o sensor de imagem precisa de calibragem ou de outra atenção. Essa notificação pode resultar no abaixamento dos níveis de confiança de forma que o sistema caia de volta para o modo de pulverização padrão (tal como pulverização de tratamento total) para os correspondentes bocais. Em outro exemplo, em resposta à determinação que o sensor de imagem se moveu, o controlador de calibragem pode ajustar a ROI do sensor de imagem, no campo de visão, para considerar o movimento do sensor de imagem. Os dados de posição podem incluir outra informação e podem ser acessados também de outra maneira, conforme indicado pelo bloco 466.
[00114] O controlador de calibragem 168 então provê uma posição de alvo desejada para o controlador de posição de lança 174. O controlador de posição de lança 174 gera então sinais de controle para controlar os atuadores de posição de lança 182 para mover a lança 118 para a posição de alvo desejada. Em um exemplo, os atuadores de posição de lança 182 podem ser hidráulicos ou outros atuadores e os sinais de controle podem ser sinais de controle hidráulicos, sinais de controle eletrônicos ou outros sinais de controle, que controlam os atuadores. O controle da lança 118 para se mover para uma posição de alvo desejada é indicado pelo bloco 468 no fluxograma da figura 12.
[00115] Conforme discutido acima, pode ser que a lança 118 tenha um número de elementos independentemente móveis. Por exemplo, os braços de lança 136 e 138 podem ser independentemente móveis um com relação ao outro e com relação à porção central 134. A porção central 134 pode também ser móvel. Por conseguinte, o movimento da lança 118 para sua posição de alvo pode envolver mover um ou múltiplos braços de lança para as posições alvo, conforme indicado pelo bloco 470. Também, o movimento da lança 118 para sua posição de alvo pode envolver mover a porção central 134 da lança 118 para uma altura alvo, conforme indicado pelo bloco 472. A lança 118 pode ser movida para um número de alturas discretas, nas quais a calibragem pode ser efetuada. A lança 118 pode ser movida para uma posição alvo também de outra maneira, conforme indicado pelo bloco 476.
[00116] Uma vez quando a lança 118 está na posição alvo desejada, o sistema de calibragem de câmera 230 executa um processo de calibragem para identificar um conjunto de transformadas ou coeficientes de mapeamento na posição de alvo, para cada sensor de imagem. A execução do processo de calibragem é indicada pelo bloco 478 no fluxograma da figura 12. Um número de modificações ao processo de calibragem pode ser realizado. Por exemplo, pode ser que um sensor de imagem tenha sido danificado ou não esteja funcionando, ou que um novo sensor de imagem tenha sido instalado na lança 118 para substituir um sensor de imagem, por outra razão. Em tais cenários, pode não ser necessário executar o processo de calibragem inteiro, mas a transformada ou os coeficientes de mapeamento para o novo sensor de imagem podem ser derivados dos coeficientes de mapeamento para os sensores de imagem adjacentes, em um ou em ambos o(s) lados(s) do novo sensor de imagem, na lança 118. A calibração de um novo sensor de imagem usando informação de calibragem para os sensores de imagem adjacentes calibrados é indicada pelo bloco 480. O processo de calibragem pode ser realizado também de outra maneira, conforme indicado pelo bloco 482
[00117] O controlador de processo de calibragem 168 então determina se a lança 118 foi movida para todas de suas posições alvos, nas quais a calibragem deve ser realizada. A feitura dessa determinação é indicada pelo bloco 484 no fluxograma da figura 12. Se não, e a lança 118 deve ser movida para uma ou mais posições alvos adicionais, então o processamento reverte para o bloco 468, no qual o controlador de calibragem 168 provê uma nova posição de alvo para o controlador de posição de lança 174, e o controlador de posição de lança 174 gera sinais de controle para controlar os atuadores de posição de lança 182 para mover a lança 118 para a nova posição alvo.
[00118] Se, no bloco 484, for determinado que não mais existem posições alvos para a calibragem, então o sistema de calibragem de câmeras 230 no módulos de processamento de imagem 124 pode interpolar as transformadas entre diferentes posições. Por exemplo, pode ser que as posições de alvo, para as quais a lança 118 é movida, não sejam igualmente espaçadas umas das outras, ou sejam espaçadas irregularmente, ou que transformadas adicionais (coeficientes de mapeamento) sejam desejadas, em adição àquelas que foram geradas em cada posição alvo. Nesse caso, os coeficientes de mapeamento para posições adicionais (em adição às posições de alvo, ) podem ser gerados usando interpolação. O uso de interpolação para obter transformadas adicionais é indicado pelo bloco 486 no fluxograma da figura 12. A interpolação é descrita em maior detalhe abaixo.
[00119] Uma vez quando todas das transformadas desejadas são geradas, então as transformadas para cada sensor de imagem 122, em cada posição alvo, são salvas na memória persistente (por exemplo, os coeficientes de mapeamento 256 podem ser armazenados no banco de dados 226) para o futuro acesso durante o tempo de execução do processamento de imagem. O armazenamento das transformadas para o futuro acesso é indicado pelo bloco 488 no fluxograma da figura 12.
[00120] As figuras 13A e 13B mostram um exemplo de um processo de calibragem. Por conseguinte, as figuras 13A e 13B mostram um exemplo de como o processo de calibragem, descrito acima com relação ao bloco 478 na figura 12, pode ser realizado. A descrição exposta com relação às figuras 13A e 13B é para um único sensor de imagem em uma única posição de alvo de lança. Será notado que o mesmo tipo de calibragem pode ser realizado para múltiplos sensores de imagem simultaneamente ou sequencialmente, ou de outras maneiras.
[00121] É primeiramente assumido que um sensor de imagem 122 captura uma imagem da esteira de calibragem 290. A captura de uma imagem é indicada pelo bloco 490 no fluxograma da figura 13A. O sistema de segmentação 253 no sistema de calibragem de câmera 230 então segmenta a imagem. Por exemplo, pode ser que os elementos de calibragem (por exemplo, as linhas e os pontos de centro, etc.) possam ser de uma única cor, tal como azul. Em um tal cenário, o sistema de segmentação 253 segmenta a imagem para identificar áreas, que são azuis, e áreas, que não são azuis. A segmentação da imagem é indicada pelo bloco 492 no fluxograma da figura 13A. O componente identificador de linha 268 detecta então as linhas verticais na esteira de calibragem 290, conforme indicado pelo bloco 494. O componente identificador de marcador central 272 pode também identificar os marcadores centrais, conforme indicado pelo bloco 496. O leitor de etiqueta de informação274 pode ler também as etiquetas de informação na esteira de calibragem 290. A leitura das etiquetas de informação é indicada pelo bloco 498. A detecção das linhas verticais e informação de calibragem na esteira de calibragem 290 pode ser feita também de outra maneira, conforme indicado pelo bloco 530.
[00122] Em um exemplo, vez quando a imagem está segmentada, o componente identificador de linha 268 realiza o contorno de imagem nas porções segmentadas (por exemplo, as porções azuis) para encontrar o contorno das porções segmentadas. Quando os contornos alongados são identificados (como as linhas na esteira de calibragem 290), então o componente identificador de ponto de extremidade 270 identifica os centroides superior e inferior das extremidades das porções contornadas. Isso identifica o ponto superior de centro (centroide) na extremidade superior de cada linha e o ponto inferior de centro (centroide), na extremidade inferior de cada linha. Esses dois pontos em cada linha são então usados para extrair um eixo geométrico central da linha na imagem contornada. O componente identificador de marcador central 272 pode também identificar um ponto de centro em cada marcador central identificado na imagem.
[00123] Uma vez quando os eixos geométricos de centro das linhas e os pontos de centro são identificados, pode ser que o campo de visão do sensor de imagem inclua mais que duas linhas. Por exemplo, e com referência à figura 4B, pode ser que um único sensor de imagem tenha um campo de visão que inclui as linhas 292, 294, 296 e 298. Pode ser que um sensor de imagem adjacente tenha um campo de visão, que sobrepõe o campo de visão do primeiro sensor de imagem. Por conseguinte, o componente identificador de linha 268 determina se a imagem inclui pelo menos duas linhas detectadas. A identificação se pelo menos duas das linhas são identificadas na imagem é indicada pelo bloco 532. Se não existir pelo menos duas linhas detectadas, então a calibragem falha, conforme indicado pelo bloco 534. Quando a calibragem falha, uma saída pode ser gerada para alertar o operador, ou outras ações podem ser tomadas para indicar que a operação de calibragem falhou, a razão pela falha, o sensor de imagem particular que falhou, etc.
[00124] Todavia, se, no bloco 532, o componente identificador de linha 268 indicar que pelo menos duas linhas foram detectadas na imagem, então as linhas detectadas são verificadas O uso do marcador central. A verificação das linhas é realizada para assegurar que a linha é apropriadamente detectada, conforme indicado pelo bloco 535. Isso pode ser feito em um número de diferentes maneiras. Em um exemplo, podem existir mais que duas linhas detectadas na imagem, em cujo caso as duas linhas mais centrais (por exemplo, as linhas 294 e 296) são identificadas, conforme indicado pelo bloco 536. Também, em um exemplo, os centroides das extremidades superior e inferior das linhas podem ser verificados O uso do marcador central. Sobre a faixa de posições alvo, pela qual a lança 118 pode ser movida, os sensores de imagem de lança 122 têm diferentes perspectivas da esteira de calibragem 290. Em algumas posições, o sensor de imagem 122 pode estar tão próximo à esteira de calibragem 290, que as partes superiores das linhas 294 e 296 se estendem além do campo de visão. Os marcadores centrais 306 podem ser usados de forma a criação de um X entre os pontos de extremidade de linha e comparação de seu centro com o marcador central azul verifique a integridade das linhas segmentadas. Se a verificação falhar, então o ponto de centro e os pontos de extremidade mais próximos à lança da imagem podem ser usados para criar a matriz de transformação (por exemplo, o local dos pontos superiores pode ser estimado com base no ponto de cruzamento do X e a interseção das linhas usadas para gerar o X com as linhas 294 e 296 sob análise. Por exemplo, tendo identificado o marcador central 306 (mostrado na figura 4B), o componente identificador de ponto de extremidade de linha 270 pode projetar extensões de linhas de interseção, que começam nos centroides de ponto de extremidade inferior das linhas 294 e 296 e se interceptam no marcador central 306. As extremidades opostas das linhas tracejadas interceptarão as linhas 294 e 296 em seus centroides de extremidade superior. Assim, mesmo se as extremidades superiores das linhas 294 e 296 forem cortadas como estando fora do campo de visão do sensor de imagem 122, o local de seus centroides de extremidade superior pode ser estimado usando a interseção das linhas tracejadas, que passam através do marcador central 306. O encontro dos pontos de extremidade (possivelmente O uso dos marcadores centrais) das duas linhas centrais é indicado pelo bloco 538. As duas linhas verticais centrais podem ser verificadas também de outra maneira, conforme indicado pelo bloco 540.
[00125] O componente de verificação de montagem de câmera 256 então verifica se o sensor de imagem sob análise está montado apropriadamente. Por exemplo, se o sensor de imagem estiver montado com o lado direito para cima, então, dada a perspectiva do sensor de imagem com relação à esteira de calibragem 290, os centroides de extremidade superior das linhas 294 e 296 devem parecer estarem mais próximos conjuntamente na imagem que os centroides de extremidade inferior das linhas 294 e 296. Isso é porque os centroides de extremidade inferior estarão mais próximos ao sensor de imagem sob análise que os centroides de extremidade superior, dado o local de lança mostrado na figura 4B. Por conseguinte, a lógica de comparação de separação de ponto de extremidade 278 compara a separação, na imagem sendo processada, dos centroides de extremidade superior das linhas 294 e 296 para a separação dos centroides de extremidade inferior das linhas 294 e 296. Se os centroides de extremidade superior estiverem mais distantes que os centroides de extremidade inferior, então o sensor de imagem está montado de cabeça para baixo. A comparação da separação dos centroides de extremidade superior com a separação dos centroides de extremidade inferior para determinar se o sensor de imagem está montado de cabeça para baixo é indicada pelo bloco 542 no fluxograma da figura 13A. Se o sensor de imagem está montado de cabeça para baixo, o processamento novamente reverte para o bloco 534, no qual a calibragem falha e uma mensagem pode ser gerada para o operador indicando a falha, e a razão da falha (por exemplo, o sensor de imagem X está montado de cabeça para baixo), etc.
[00126] A lógica de comparação de ângulo de linha 280 então determina se o ângulo no qual o sensor de imagem está montado à lança 118 está dentro de uma faixa aceitável de ângulos. Assuma que o componente identificador de linha 268 identificou as linhas 294 e 296, conforme mostrado na figura 13C. Os centroides superiores das linhas 294 e 296 são identificados pelos pontos 544 e 546, respectivamente. Os centroides de extremidade inferior são identificados pelos pontos 548 e 550, respectivamente. Assim, o eixo geométrico central da linha 294 se estende entre os centroides 548 e 544, conforme ilustrado pela linha 552. O centro da linha 296 se estende entre os centroides 550 e 546, conforme indicado pela linha 554. O ângulo das linhas com relação ao eixo geométrico vertical 556 na imagem sendo processada é representado por um ângulo α. Se o ângulo α estiver fora de uma faixa aceitável, então isso significa que o sensor de imagem sob análise está montado à lança 118 em um ângulo que está fora de uma faixa aceitável. A lógica de comparação de ângulo de linha 280 compara o ângulo α para as linhas identificadas 294 e 296 na imagem sob análise com uma faixa limite de ângulos, ou um valor limite pré-definido para determinar se o sensor de imagem 122 sendo calibrado está montado em um ângulo que está dentro de uma faixa aceitável. Essa determinação é indicada pelo bloco 558 no fluxograma da figura 13A. Se o sensor de imagem estiver montado em um ângulo que está fora de uma faixa aceitável, então a calibragem falha, novamente, conforme indicado pelo bloco 534, e uma mensagem ou notificação apropriada pode ser enviada para o operador.
[00127] Em algum ponto durante o processo de calibragem, o componente de verificação de conexão de câmera 258 determina se o sensor de imagem sob análise está conectado à porta apropriada do módulo de processamento de imagem 124, ao qual ele é conectado. Por exemplo, a etiqueta de informação 320 pode identificar o sensor de imagem e/ou a porta, à qual o sensor de imagem deve ser conectado. A porta pode ser identificada na informação de configuração acessada pelo módulo de processamento de imagem 124, ou também em outros locais. Em um exemplo, quando o sensor de imagem 122 envia informação para o módulo de processamento de imagem 124, o sensor de imagem identifica ele próprio e sua posição na lança 118. Assim, o componente de verificação de conexão de câmera 258 pode comparar a identidade ou local do sensor de imagem 122, e a porta com a qual ele está conectado, para uma desejada configuração de câmera/porta para determinar se o sensor de imagem está de fato conectado à porta correta. A feitura dessa determinação é indicada pelo bloco 560 no fluxograma da figura 13A. Se o sensor de imagem não estiver conectado à porta correta, então a calibragem falha no bloco 534 e um apropriado alerta ou notificação pode ser enviado para o operador
[00128] O gerador de transformada de calibragem 260 então usa o sistema de identificação de coordenadas de mundo real 284 para identificar as coordenadas de mundo real das linhas identificadas 294 e 296 usando a conhecida posição do sensor de imagem e as conhecidas dimensões de esteira, que podem ser obtidas dos dados de posição de câmera 252 e dos dados de esteira de calibragem 254 no banco de dados 226 (mostrado na figura 3). A identificação das coordenadas de mundo real para as linhas 294 e 296 é indicada pelo bloco 562 no fluxograma da figura 13B. O gerador de coeficiente de mapeamento 286 gera então os coeficientes de mapeamento, que mapeiam os valores de pixel da imagem para as coordenadas de mundo real dos itens exibidos na imagem. A geração dos coeficientes de mapeamento pode ser feita por computação de coeficientes de mapeamento de transformada de homografia usando as coordenadas de pixel e as coordenadas de mundo real para mapear as coordenadas de pixel para as coordenadas de mundo real. A computação dos coeficientes de mapeamento de transformada de homografia é indicada pelo bloco 564 no fluxograma da figura 13B.
[00129] Algumas estruturas de lanças de pulverização têm movimento para frente/para trás, de forma também que, em lugar de simplesmente elevar e abaixar a lança 118 para diferentes locais de alvos, a lança 118 pode também ser movida em uma direção para frente/para trás durante o processo de calibragem. Ainda, em algumas configurações, as lança 118 é elevada, ela também oscila para trás. Isso causa com que a atual posição de esteira de calibragem e estruturas posicionadas na esteira 290 seja mais afastada do que a colocação original para alturas de lança mais altas. A homografia assegura que, independentemente da altura de sensor de imagem 122 acima do solo, a ROI 125 na figura 1D, que está voltada para o solo, seja a mesma, mesmo se a imagem de câmera mostrar mais do solo em alturas maiores e menos do solo em alturas menores. Isto é, as regiões de interesse 125 são exatamente os mesmos locais nas coordenadas de mundo real (por exemplo, 1 metro à frente de sensor de imagem 122 e 2 metros de largura e 0,5 metro de comprimento no solo) mesmo que eles são capturados de diferentes locais de sensor de imagem com base em diferentes posições de lança. A homografia é usada para calibrar os sensores de imagem 122 para acomodar o fato de que os pontos de pixel de imagem e as coordenadas de mundo real são diferentes quando a posição do sensor de imagem se altera. Os parâmetros de calibragem (homografia ou coeficientes de mapeamento) são configurados para cada sensor de imagem 122, em cada local de montagem, em cada lança 118, em cada uma das diferentes alturas de alvo e ângulos nos quais a lança pode ser movida.
[00130] A homografia é uma matriz de transformação, que mapeia os pontos em uma imagem para os correspondentes pontos na outra imagem (ou coordenadas de mundo real), assumindo que esses pontos correspondentes estão no mesmo plano. Um algoritmo de transformada linear direta (DLT) é um algoritmo usado para solucionar a matriz de homografia H, dado um suficiente conjunto de correspondências de pontos. Uma vez que os locais de pixel de uma imagem são convertidos para as coordenadas de mundo real no solo, então o local dos alvos detectados na imagem (por exemplo, o local de ervas daninhas na imagem) pode ser transladado para as coordenadas de mundo real, de forma que o sistema de identificação de alvo 158 na máquina agrícola 100 possa identificar quais bocais devem ser disparados, e quando.
[00130] A figura 13D é usada para ilustrar como os coeficientes de mapeamento são gerados usando homografia. A figura 13D mostra um exemplo de pontos de pixel em uma imagem ilustrada geralmente em 567, e as coordenadas de mundo real (no solo) de um ponto mostrado na imagem 567. As coordenadas de mundo real são ilustradas geralmente em 569. Um mapeamento de um ponto x, y, 0 no sistema de coordenadas de mundo real 569 para um local de pixel u, v na imagem 567 pode ser expresso como segue:
Figure img0001
Figure img0002
[00132] Os coeficientes L1 a L8 nas equações 1 e 2 são parâmetros de transformada linear direta, que refletem as relações entre as coordenadas de mundo real em x, y, 0 e o local de pixel de imagem em (u, v). O rearranjo das equações 1 e 2 provê:
Figure img0003
As equações 3 e 4 são equivalentes a:
Figure img0004
[00133] A expansão da equação 5 para n pontos de controle diferentes provê:
Figure img0005
[00134] Que é na forma de:
Figure img0006
[00135] Onde:
Figure img0007
[00136] Os parâmetros de transformada linear direta podem ser obtidos O uso do método de mínimos quadrados como segue:
Figure img0008
[00137] Uma vez que cada ponto de controle provê duas equações, o número mínimo de pontos de controle para uma transformação inversa é quatro. As equações de transformação inversa são mostradas como segue:
Figure img0009
[00138] Onde,
Figure img0010
[00139] Uma vez que cada correspondência de ponto provê duas equações, quatro correspondências são suficientes para solucionar para os oito graus de liberdade de L (L1 a L8). A restrição é que nenhum dos três pontos pode estar em uma linha. Por conseguinte, pela identificação das extremidades das duas linhas (centroides) em uma imagem, os oito graus de liberdade de L (os coeficientes de mapeamento) podem ser solucionados nas equações 15 a 23.
[00140] Uma vez quando os coeficientes de mapeamento são gerados, então o identificador de região de interesse 262 calcula as coordenadas de pixel da região de sensor de imagem de interesse (ROI) - a região no solo, que será examinada pelo sensor de imagem (independentemente da altura do sensor de imagem) - usando a transformada de homografia. O cálculo das coordenadas de pixel da ROI para essa câmera, nessa posição alvo, é indicado pelo bloco 570 no fluxograma da figura 13B. As transformadas (por exemplo, os coeficientes de transformada de homografia) são então salvas para o uso no momento de execução. O salvamento da transformada é indicado pelo bloco 572. O gerador de saída 264 gera então uma saída indicando que a calibragem para esse sensor de imagem 122, nessa posição alvo particular, foi feita com êxito. A geração da saída é indicada pelo bloco 574 no fluxograma da figura 13B.
[00141] Será notado que as figuras 13A e 13B mostram alguns exemplos de como a informação de calibragem pode ser usada, mas outros exemplos podem ser também usados. Por exemplo, as características das etiquetas de informação (por exemplo, os quatro cantos) podem ser usadas, em lugar dos pontos de extremidade de linha, para determinar a orientação do sensor. Isto é apenas um exemplo.
[00142] Conforme discutido acima com relação à figura 12, os coeficientes de mapeamento podem ser gerados para uma variedade de diferentes posições e orientações de sensor/lança de imagem alvo. Coeficientes de mapeamento adicionais podem ser gerados por interpolação entre duas posições de lança. Isso pode ser feito, por exemplo, porque o controlador de posição de lança 174 pode não ser capaz de mover ou controlar precisamente os atuadores de posição de lança 182 para mover a lança 118 para a posição de alvo desejada. Todavia, as regiões de interesse podem precisar ser identificadas para cada altura alvo de forma que os módulos de processamento de imagem 124 tenham uma precisa representação de relação de pixel-para-solo dentro de uma faixa de alturas de lança. Se uma ROI é incorreta ou faltante do conjunto de alturas alvos, então o módulo de processamento de imagem 124 pode ser incapaz de analisar uma porção no solo, que contém uma erva daninha ou o pulverizador pode não ser capaz de precisamente alvejar uma erva daninha, porque o módulo de processamento de imagem 124 não pode precisamente determinar onde a erva daninha está com relação aos bocais 120.
[00143] Um exemplo de interpolação pode ser realizado pelo sistema de interpolação 263. Assuma, para a presente discussão, que os processos de calibragem conforme discutido acima com relação às figuras 12, 13A e 13B foram executados e dados da ROI foram coletados durante esses processos de calibragem, mas as posições de alvo, da lança 118, durante o processo de calibragem, não eram uniformemente espaçadas e não atingiram precisamente cada altura alvo. A figura 14 mostra um exemplo de um gráfico ilustrando os dados da ROI coletados durante um tal processo de calibragem. As alturas alvos variam de 700 mm a 1700 mm na figura 14, mas os dados da ROI coletados somente vencem alturas de lança de 790 mm a 1548 mm. Em lugar de somente usar esses dados da ROI originais, os dados da ROI podem ser interpolados para cada desejada altura alvo, O uso dos dados originais da ROI, coletados e ilustrados na figura 14. As regiões de interesse na figura 14 têm um conjunto de linhas dianteiras e um conjunto de linhas traseiras. As linhas dianteiras e traseiras são conectadas por linhas laterais.
[00144] Em um exemplo, a interpolação é realizada nos conjuntos das linhas, ao invés de em conjuntos de dados da ROI. As regiões de interesse são divididas em dois conjuntos das linhas antes da interpolação. Um conjunto das linhas pode ser representado pelas equações 24, 25 e 26, como segue:
Figure img0011
[00145] Onde:
H = altura da lança externa;
L = comprimento de linha em pixels;
θ= ângulo do ponto médio da linha para um ponto de interseção de todas das linhas; e
r = raio do ponto médio da linha para o ponto de interseção
[00146] A figura 15 mostra um exemplo de identificação de um ponto de interseção de três linhas. Os valores L,, e r são também ilustrados na figura 15. Os coeficientes a e b para cada das equações são computados usando a equação normal. A equação normal é uma proposta analítica para encontrar a linha de melhor ajuste para um conjunto de no sentido de mínimos quadrados. Uma vez quando os coeficientes são computados para ambos os conjuntos das linhas, as ROIs para cada uma das alturas alvos podem ser calculadas.
[00147] A interpolação será realizada em dois diferentes conjuntos das linhas, das linhas traseiras e das linhas dianteiras das regiões de interesse ilustradas na figura 14. A figura 16A mostra o conjunto traseiro das linhas das regiões de interesse mostradas na figura 14, e a figura 16B mostra o conjunto dianteiro das linhas das regiões de interesse ilustradas na figura 14. Porque o comprimento de linha nunca deve ser negativo, uma equação exponencial é usada para ajudar o comprimento de linha com relação à altura da lança. O comprimento de linha deve, de fato, se aproximar a 0 quando a altura de ampliação vai para o infinito. Quanto mais alta a lança, tanto menor a linha aparecerá na ROI. Para usar a equação normal para encontrar a linha de melhor ajuste, a equação para o comprimento de linha é na forma de um sistema de equações lineares. Tomando os logaritmos de ambos os lados, a equação 24 é ilustrada abaixo:
Figure img0012
[00148] Para n dados pontos de dado, os coeficientes aL e bL podem ser calculados usando a equação normal como segue:
Figure img0013
[00149] A figura 17 ilustra o conjunto traseiro das linhas nas ROIs (também ilustradas na figura 16A) e a figura 18 ilustra um gráfico do comprimento de linha versus altura da lança externa. A função interpolada é mostrada traçada ao longo dos pontos de dado coletados.
[00150] Pode ser mais complicado encontrar o ponto de interseção de melhor ajuste, no qual mais que duas linhas são consideradas. Isso é porque é improvável que todas as linhas se interceptarão no exato mesmo ponto. Por conseguinte, um ponto de interseção de melhor ajuste é usado, em lugar disso. Dados os pontos a e b, cada linha pode ser representada pelo ponto de partida a e seu vetor unitário:
Figure img0014
[00151] O ponto de melhor ajuste P será o ponto que minimiza a soma da distância ao quadrado para todas as linhas. P pode ser encontrado para n linhas diferentes usando as seguintes equações:
Figure img0015
Figure img0016
[00152] A figura 19 mostra um exemplo de um ponto de interseção de melhor ajuste para o conjunto das linhas ilustradas na figura 17. O sistema de interpolação 263 ajusta uma equação linear para o ângulo com relação ao comprimento de linha. O ângulo de linha, no presente exemplo, é o ângulo da linha, que vai do ponto de interseção de melhor ajuste para o ponto médio da linha. o ângulo de linha tem uma relação linear ao comprimento da linha, que é representada como segue:
Figure img0017
[00153] Para n dados pontos de dado, os coeficientes e podem ser calculados usando a seguinte equação:
Figure img0018
[00154] Para finalidades da presente discussão, o, raio é a distância do ponto de interseção de melhor ajuste para o ponto médio de cada uma das linhas. O sistema de interpolação 263 ajusta uma equação linear para o raio com relação ao ângulo de linha. O raio tem uma relação linear ao ângulo, que é representada como segue:
Figure img0019
[00155] Para n dados pontos de dado, os coeficientes ar e br podem ser calculados usando a equação normal como segue:
Figure img0020
Figure img0021
[00156] Depois da obtenção das equações para L,, e r, e o ponto de interseção P para o conjunto traseiro das linhas para as ROIs (mostradas na figura 17), esse processo é repetido para o conjunto dianteiro das linhas, ilustrado na figura 16B. Todas as 6 equações, e os dois pontos de interseção, são usados para computar a ROI final interpolada. Para uma dada altura, as linhas dianteiras e traseiras da ROI são calculadas e então essas duas linhas são conectadas para criar a ROI inteira para essa altura alvo.
[00157] Em um exemplo, a porção central 134 de lança 188 está a uma altura de 1200 mm. As alturas externas alvos variam de 700 mm a 1700 mm em incrementos de 100 mm. A figura 20 mostra ROIs originais, nas quais as alturas alvos não foram precisamente atingidas no controle da lança. A figura 21 mostra as ROIs interpoladas, que provêm um conjunto mais claro da ROIs uniformemente espaçadas e atenua ruído e remove valores atípicos.
[00158] As figuras 22A e 22B mostram um fluxograma ilustrando um exemplo da operação do sistema de identificação de alvo 158 na identificação de alvos e o sistema de controle 160 em controlar os corpos de bocal 120.
[00159] Um ou mais dos sensores de imagem 122 primeiro capturam imagens do solo à frente da lança 118. Isso é indicado pelo bloco 576. Será notado que os sensores de imagem 122 podem ser câmeras do tipo vermelha verde azul (RGB), próximas ao verde infravermelho (NGR) ou próximas ao infravermelho (NIR). Os sensores 122 podem ser câmeras mono ou estéreo. Os sensores 122 podem ser sensores multiespectrais ou hiperespectrais, afixados à estrutura de lança 118. Qualquer processamento de sinal de imagem que é provido no sensor de imagem 122 pode então ser realizado. Isso é indicado pelo bloco 578 no fluxograma da figura 22. Por exemplo, a imagem pode ser corrigida, no sensor de imagem 122, usando as matrizes de correção de cor 257 e O uso doutra informação, quanto à distorção de lente, quanto à tonalidade ou distorção de cor, etc. A imagem corrigida é então transferida para seu correspondente módulo de processamento de imagem 124. Essa transferência da imagem corrigida pode ser feita usando uma linha serial de multimídia de Gigabit, de energia sobre dados, (GMSL/GMSL2), ou outra conexão. Se o sensor de imagem 122 não contiver a funcionalidade de processamento de imagem, a imagem pode ser transferida em um formato bruto para o módulo de processamento de imagem 124, no qual a imagem é corrigida quanto à distorção de lente, tonalidades e distorção de cor, etc. O sensor de lança 126 sensoreia a altura da lança correspondente à imagem (por exemplo, a altura da lança quando a imagem é capturada pelo sensor de imagem 122). A detecção da altura da lança ou orientação de lança é indicada pelo bloco 580 no fluxograma da figura 22A. Podem existir múltiplas seções de lança para a lança 118, e, se existir, a altura de cada uma das diferentes seções de lança podem ser sensoreadas ou detectadas. Isso é indicado pelo bloco 582. A altura da lança pode ser medida pelo sensor de lança 126 com relação ao solo, e/ou à altura da copa de cultivo acima do solo. A medição com relação ao solo e à copa é indicada pelo bloco 584. Os sensores de lança 126 podem ser um sensor ultrassônico ou outros tipos de sensores, tais como RADAR, LIDAR, etc. Os dados de sensor de altura da lança podem ser comunicados do sensor de lança 126 para o módulo de processamento de imagem 124 por intermédio de CAN diretamente ou indiretamente através de outro controlador. A altura da lança e/ou orientação pode/m ser detectada/m também de outra maneira, conforme indicado pelo bloco 586.
[00160] Depois de as imagens serem recebidas pelo módulo de processamento de imagem 124, o gerador de nível de confiança 234 gera uma ou mais métricas de confiança ou qualidade, correspondentes à imagem. A realização do processamento de nível de confiança é indicada pelo bloco 588 no fluxograma da figura 22A. Com base nas métricas de nível de confiança ou qualidade, várias etapas de processamento diferentes podem ser realizadas. Isso é discutido em maior detalhe abaixo com relação à figura 23.
[00161] Com base na altura da lança, a imagem capturada é remapeada para a perspectiva de câmera. Por exemplo, os coeficientes de mapeamento são recuperados da memória. O identificador de coeficiente de mapeamento no sistema de remapeamento de imagem 232 identifica os coeficientes de mapeamento correspondentes a esse sensor de imagem particular nessa altura da lança particular. O identificador de região de interesse 342 então identifica a ROI por aplicação dos coeficientes de mapeamento à imagem. Os coeficientes de mapeamento podem ser armazenados em uma tabela de consulta, para esse processador de imagem, indexados por altura da lança ou de outras maneiras. A altura da lança pode ser usada para acessar o correto conjunto de coeficientes de mapeamento, que são então aplicados à imagem para corrigir a ROI na imagem, com base na perspectiva do sensor de imagem, conforme determinado pela altura da lança. O remapeamento das imagens O uso dos coeficientes de mapeamento é indicado pelo bloco 590. Depois de os coeficientes de mapeamento serem aplicados, as saídas, do campo de visão do sensor de imagem, é uma vista em perspectiva de cabeça para baixo da ROI no solo, que está a uma conhecida distância para frente/atrás e lateral dos corpos de bocal 120 na lança 118. A identificação da área específica no solo, correspondente à ROI, é indicada pelo bloco 592 no fluxograma da figura 22A. O remapeamento das imagens pode ser realizado também de outra maneira, conforme indicado pelo bloco 594.
[00162] Porque os sensores de imagem são montados lado a lado com campos de visão e as regiões de interesse, que se sobrepõem umas às outras, as imagens podem ser emendadas conjuntamente para gerar uma única representação visual da área à frente de lança 118. A determinação de se as imagens devem ser emendadas conjuntamente é indicada pelo bloco 596 no fluxograma da figura 22A. Se sim, então o sistema de emenda de imagens 236 realiza uma operação de emenda para emendar as imagens de sensores de imagem adjacentes, conjuntamente com umas com as outras. A emenda ou união das imagens é indicada pelo bloco 598, e é descrita em maior detalhe abaixo com relação à figura 24.
[00163] O processamento de imagem pode também ser afetado por condições de luz ambiente. Por exemplo, o processamento de imagem pode ser afetado na dependência de se a máquina 100 está voltada para o sol ou contra o sol, ou se o sol está brilhando de um lado do sensor de imagem. Similarmente, o processamento de imagem pode ser afetado com base na posição do sol no céu (tal como se é manhã, meio-dia ou tarde), com base em se o céu está nublado, ou o sensor de imagem 122 está capturando uma imagem que está na sombra, ou em uma sombra, ou com base em outras variações em luz ambiente. Por conseguinte, o sistema de correção de equilíbrio de branco 238 pode ser usado para capturar imagens dos sensores de luz 130 (podem estar presentes um ou mais sensores de luz dispostos em diferentes locais na máquina agrícola 100) e usar a informação dos sensores de luz 130 para corrigir as imagens antes de ela ser processada. A informação de condição de luz ambiente pode ser transmitida para o módulo de processamento de imagem 124 e pode ser usada para corrigir para a cor de luz do dia, direção e posição de luz e intensidade de luz. Os sensores de equilíbrio de banco podem incluir sensores de luz incidente ou outros sensores. Isso pode ser referido como correção de equilíbrio de branco. No bloco 620, o sistema de correção de equilíbrio de branco 238 determina se as imagens devem ser corrigidas para o equilíbrio de branco. Se deverem, então o processamento prossegue no bloco 622, no qual o sistema de correção de equilíbrio de branco computa a informação de correção de equilíbrio de branco e, no bloco 624, no qual o sistema de correção de equilíbrio de branco 238 aplica a correção de equilíbrio de branco às imagens.
[00164] Também, em alguns cenários, a identificação bruta deve ser realizada nas imagens para identificar as fileiras de cultivo dentro das imagens. Assim, no bloco 626 no fluxograma da figura 22A, o sistema de identificação de fileira 240 determina se a identificação bruta deve ser realizada na imagem. Se sim, então o sistema de identificação de fileira 240 realiza a identificação bruta na imagem. Isso é descrito em maior detalhe abaixo com relação às figuras 26A a 31. Brevemente, todavia, o sistema de identificação de fileira 240 identifica o ângulo de fileira dentro da imagem e então gira a imagem para alinhar a mesma com o ângulo de fileira. A fim de encontrar o ângulo de fileira, o sistema de identificação de fileira 230 pode girar as imagens para identificar valores que indicam as fileiras de cultivo e maximizam aqueles valores para obter uma posição de rotação de imagem que identifica as fileiras de cultivo. O encontro do ângulo de fileira é indicado pelo bloco 628 na figura 22A. A rotação das imagens e a maximização das variáveis indicativas das fileiras de cultivo são indicadas pelos blocos 630 e 632, respectivamente. Os ângulos de fileira podem ser identificados também de outra maneira, conforme indicado pelo bloco 634.
[00165] Uma vez que os ângulos de fileiras são identificados, o sistema de identificação de fileira 240 corrige as imagens para o alinhamento com o ângulo de fileira e isola (ou de outra maneira identifica) as fileiras de cultivo nas imagens. A correção imagens para o alinhamento com o ângulo de fileira é indicada pelo bloco 636, e o isolamento ou a identificação de outra maneira das fileiras de cultivo nas imagens é indicado pelo bloco 638.
[00166] Em um exemplo, a fim de processar ainda as imagens, o componente de conversão de cor 376 no processador de identificação de alvo 244 (mostrado na figura 8) converte o espaço de cor das imagens de um espaço de cor RGB para o espaço de cor YCrCb. Essa conversão é indicada pelo bloco 640 no fluxograma da figura 22A. O componente de segmentação/binarização378 então segmenta a imagem e binariza a imagem segmentada. Por exemplo, o excesso de verde pode ser calculado para cada pixel. Se o excesso de verde exceder um limite, então o pixel pode ser atribuído a um valor de 1, enquanto outros pixels são atribuídos a um valor de 0. A segmentação e binarização da imagem são indicadas pelo bloco 642 no fluxograma da figura 22B.
[00167] O sistema de filtro de erva daninha 380 então usa o detector de sensibilidade 382 para detectar ou acessar um valor de ajuste de sensibilidade. Isso é indicado pelo bloco 644. Por exemplo, o operador pode ter uma opção para ajustar o valor de sensibilidade em uma exibição de interface de operador. O ajuste do valor de sensibilidade através de um mecanismo de interface do operador é indicado pelo bloco 646. O valor de sensibilidade corresponde a um tamanho de aglomerado de pixel mínimo (ou aglomerado de pixel), que qualificará como uma identificação de alvo e disparará assim um comando de pulverização. A provisão do nível de sensibilidade para corresponder a um tamanho de aglomerado de pixel mínimo é indicada pelo bloco 648. O acesso do valor de ajuste de sensibilidade pode ser realizado também de outra maneira, conforme indicado pelo bloco 650.
[00168] O filtro 384 então filtra os alvos (por exemplo, as ervas daninhas) detectados na imagem por tamanho, com base no valor de sensibilidade. Esse tipo de filtragem é indicado pelo bloco 652 no fluxograma da figura 22B. As ervas daninhas (ou outros alvos) são identificadas por encontrar bolhas verdes (ou segmentadas) (aglomerados de pixels) na imagem do tamanho suficiente, que elas satisfazem a sensitividade válvula.
[00169] O localizador de erva daninha 388 então determina, espacialmente, onde a erva daninha está, geograficamente, no campo. A determinação do local de erva daninha (ou outro local alvo) é indicada pelo bloco 654 no fluxograma da figura 22B. A identificação do local de erva daninha localiza as coordenadas de pixel do centro dos aglomerados de pixels (que representam as ervas daninhas) em relação à ROI para o sensor de imagem. Em um exemplo, o localizador de erva daninha 388 aplica os coeficientes de mapeamento (ou transformadas de calibragem) correspondentes a esse sensor de imagem particular nessa altura da lança particular ou local de lança, identificado pelo identificador de coeficiente de mapeamento 340 (figura 5). O uso do sensor de imagem e altura da lança e a obtenção dos correspondentes coeficientes de mapeamento são indicados pelo bloco 656. A identificação do local do alvo com relação à ROI é indicada pelo bloco 658. O componente de armazenamento de local de erva daninha 390 então armazena os locais de ervas daninhas para o uso posterior (tal como na realização de uma operação de batida dupla). O armazenamento dos locais de ervas daninhas é indicado pelo bloco 660 na figura 22B. A erva daninha ou o local alvo pode ser determinado também de outra maneira, conforme indicado pelo bloco 662.
[00170] O sistema de identificação de bocal 244 então associa o local de erva daninha (ou outro alvo) a um ou mais bocais na lança 118. A associação do local alvo aos bocais é indicada pelo bloco 664. Em um exemplo, o sistema de identificação de bocal 244 pode acessar um modelo de configuração ou um arquivo de configuração armazenado no banco de dados 226, que associa os bocais a regiões de interesse do sensor de imagem, conforme indicado pelo bloco 666. Usando o arquivo de configuração, o sistema de identificação de bocal 244 determina se a erva daninha está dentro de uma área que pode ser tratada por um bocal, conforme indicado pelo bloco 668. Também, sensores de tempo real podem sensorear uma grande variedade de fatores, tais como a velocidade do vento e a direção do vento. A velocidade do vento e a direção do vento podem ser obtidas também de outra maneira. O vento pode influenciar a direção do material depois dele deixar o bocal. O material pode derivar de forma que o bocal diretamente alinhado com um alvo pode não ser capaz de acertar o alvo. Assim, o componente de determinação de ajuste lateral 245 pode determinar se um ajuste lateral é necessário com base na velocidade e direção do vento ou com base em outros critérios. A determinação de qualquer desvio lateral é indicada pelo bloco 669 na figura 22B. A associação do local de erva daninha a um ou mais bocais pode ser feita também de outra maneira, conforme indicado pelo bloco 670.
[00171] As figuras 22C a 22F mostram exemplos de desvio lateral. A figura 22C mostra um conjunto dos corpos de bocal 120 a 1, 120 a 2 e 120 a 3 em uma lança 118, com o bocal 120 a 2 pulverizando o material 671 em uma erva daninha 116. Todavia, com um forte vento na direção indicada pelas setas 673, o padrão de pulverização do bocal 120 a 2 pode se desviar lateralmente, com relação à lança 118, conforme mostrado na figura 22D. Na figura 22D, o material 671 misses erva daninha 116. Por conseguinte, em um exemplo, o componente de determinação de ajuste lateral 245 pode identificar um ajuste lateral com base na velocidade e direção do vento, características do material 671, características dos bocais 120 (como a densidade de material, velocidade de pulverização, etc.), e lança 118 (por exemplo, a altura da lança) e identifica o bocal 120 a 1 para a ativação, ao invés do bocal 120 a 2. Assim, conforme mostrado na figura 22E, o material 671 é aplicado à erva daninha 116, mesmo sob as condições de vento. Em outro exemplo, o sistema de identificação de bocal 244 pode identificar um ou mais bocais adjacentes 120 a 1 e 120 a 3 para assegurar que erva daninha 116 seja coberta pelo material 671. A ativação de múltiplos bocais é indicada na figura 22F.
[00172] O sistema de controle de ativação de bocal 246 então determina instante de ativação de os bocais e duração para os bocais particulares identificados pelo sistema de identificação de bocal 244. A determinação do instante de ativação de os bocais e a duração é indicada pelo bloco 672 no fluxograma da figura 22B. A determinação do instante de ativação de os bocais e duração é descrita em maior detalhe abaixo com relação às figuras 32 a 36.
[00173] O gerador de saída 248 então provê uma saída indicativa do instante de ativação de os bocais e duração, para um conjunto particular de os bocais, para o controlador de bocal/válvula 170 no sistema de controle 160. O controlador de bocal/válvula 170 gera então sinais de controle para controlar os corpos de bocal 120 com base no instante de ativação de os bocais e duração para os bocais identificados. A geração dos sinais de controle para ativar os bocais em um instante identificado, pela duração identificada, é indicada pelo bloco 674.
[00174] Os bocais podem ser configurados de forma que os bocais adjacentes tenham áreas de pulverização, que se sobrepõem umas às outras. Assim, o operador pode ativar uma característica de sobreposição de bocal, que irá disparar os bocais adjacentes para prover áreas de sobreposição de pulverização sobre os alvos identificados. Se a característica de sobreposição for ativada, os bocais adjacentes são atuados para assegurar que uma pulverização de sobreposição atinja o alvo. A detecção de um ajuste de sobreposição de bocal é indicada pelo bloco 676. O disparo de múltiplos bocais é indicado pelo bloco 678. A geração de sinais de controle para ativar os bocais pode ser feita também de outra maneira, conforme indicado pelo bloco 680. Até a operação de pulverização ou aplicação estar completa, conforme indicado pelo bloco 682, o processamento reverte para o bloco 576, em que imagens adicionais são capturadas.
[00175] A figura 23 é um fluxograma ilustrando um exemplo da operação de gerador de nível de confiança 234, na geração de métricas de qualidade de imagem e métricas de confiança correspondentes à imagem e à capacidade do sistema de aplicar seguramente material a um alvo. O detector de nível de qualidade de imagem 346 primeiro detecta um nível de qualidade de imagem. Isso é indicado pelo bloco 684 na figura 23. Por exemplo, o detector 346 pode determinar se o sensor de imagem está demasiadamente próximo ou demasiadamente longe do alvo para obter uma imagem de alta qualidade, conforme indicado pelo bloco 686. O detector 346 pode também detectar a qualidade de imagem, tal como se a imagem está borrada, se o sensor de imagem está bloqueado, se o sensor de imagem está obstruído por obscurantes, ou de outra maneira. A detecção da qualidade de imagem é indicada pelo bloco 688. O detector 346 pode também gerar um nível de qualidade de imagem com base nas condições de luz ambiente, conforme indicado pelo bloco 690. O nível de qualidade de imagem pode ser gerado também de outra maneira, conforme indicado pelo bloco 692.
[00176] Um número de diferentes determinações de nível de qualidade será agora descrito. A fim de avaliar o nível de obscurantes, tais como poeira, uma câmera ou outro sensor de imagem pode ser instalado à frente da lança (em uma porção dianteira da máquina 100) para detectar alvos. Os resultados da detecção de alvos com a câmera dianteira podem ser comparados com os resultados da detecção de alvos dos sensores de imagem 122. Se o alvo identificado pela câmera dianteira e os sensores de imagem 122 forem diferentes por uma quantia limite, isso pode significar que existe poeira ou outro obscurante e o nível de confiança correspondente à imagem pode ser reduzido. Também, um ou mais dos sensores de imagem 122 podem processar as imagens de um marcador na estrutura de veículo (por exemplo, um ponto verde em um aro de pneu ou aba de lama). Se o marcador não mais for detectável em virtude da poeira ou outros obscurantes, o nível de confiança é reduzido. A velocidade de bocal pode também ser usada para calcular ou inferir borrão da imagem ou outra má qualidade da imagem. Ainda, a altura da lança também pode afetar a qualidade de imagem. Se a lança for demasiadamente alta, a resolução da imagem pode sofrer. Se a lança for demasiadamente baixa, a ROI pode não ser suficientemente grande
[00177] O detector de nível de confiança de identificação de fileira 348 gera um nível de confiança indicativo de quão confiante o sistema é, de que ele identificou adequadamente as fileiras de cultivo na imagem. A detecção de um nível de confiança de identificação de fileira é indicada pelo bloco 694. Por exemplo, em algumas circunstâncias, a copa de cultivo pode ser demasiadamente larga para a distinção adequada entre as fileiras de cultivo. A identificação de se a copa de cultivo é demasiadamente larga é indicada pelo bloco 696. Em outros exemplos, a população de ervas daninhas em uma área pode ser tão excessiva, que se torna difícil distinguir entre as fileiras de cultivo porque os espaços entre as fileiras na imagem são cheios com vegetação. A determinação de se a população de ervas daninhas é excessiva pode ser feita por determinação de que o nível de verde na imagem é excessivo e é indicado pelo bloco 698. Em ainda outros exemplos, as fileiras de cultivo podem ser demasiadamente altas de forma que a copa seja demasiadamente próxima à câmera para identificar precisamente as fileiras de cultivo. A detecção das fileiras de cultivo, que são demasiadamente altas, é indicada pelo bloco 700. A detecção e geração de a um nível de confiança de identificação de fileira pode ser feita também de outra maneira, conforme indicado pelo bloco 702.
[00178] O detector de nível de confiança de operação de pulverização 350 gera um nível de confiança indicativo de quão confiante o sistema é, de que ele pode adequadamente fornecer material para um alvo identificado. A detecção do nível de confiança de operação de pulverização é indicada pelo bloco 704 no fluxograma da figura 23. A geração do nível de confiança de operação de pulverização pode ser com base em uma variedade de critérios diferentes. Em um exemplo, pode ser que o bocal esteja se movendo a uma taxa excessiva de velocidade. Em um tal exemplo, o módulo de processamento de imagem 124 pode não ter tempo suficiente para identificar alvos na imagem, e identificar e ativar os bocais, para aplicar adequadamente material ao alvo. A identificação de velocidade excessiva de bocal é indicada pelo bloco 706. Em outro exemplo, a altura da lança ou bocal pode ser demasiadamente alta de forma que o tempo requerido para o material se deslocar do bocal para o alvo é demasiadamente longo. O uso dessa informação para identificar um nível de confiança de operação de pulverização é indicado pelo bloco 708. Em ainda outro exemplo, podem existir uma falha de sensor que se torna difícil se ter um alto nível de confiança de que o sistema aplicará precisamente o material ao alvo. A identificação de uma falha de sensor e o uso dessa informação para gerar um nível de confiança da operação de pulverização são indicados pelo bloco 710. A detecção do nível de confiança de operação de pulverização pode ser realizada de outras maneiras e também com base em outros critérios, conforme indicado pelo bloco 712.
[00179] Uma vez que os níveis de confiança e métricas de qualidade são gerados pelo gerador de nível de confiança 234, o controlador de bocal/válvula 170 pode controlar as válvulas e os bocais para ativar ou para não ativar, se o nível de confiança não for suficientemente alto. Em outro exemplo, o controlador de bocal/válvula 170 pode alterar os modos de aplicação (como a comutação para um modo de tratamento total, em que os bocais são ligados pelo tempo total), até os níveis de qualidade e confiança retornarem para um nível desejado. A geração de sinais de controle com base nos níveis de confiança e qualidade de imagem é indicada pelo bloco 714. A comutação entre a identificação de alvo em tempo real (sensoreamento e aplicação) e os modos de tratamento total é indicada pelo bloco 716. A geração de um alerta de operador indicativo da baixa confiança ou dos níveis de qualidade de imagem é indicada pelo bloco 718. Os sinais de controle podem ser gerados também de outra maneira, conforme indicado pelo bloco 720.
[00180] A figura 24 é um fluxograma ilustrando um exemplo da operação do sistema de emenda de imagens 236 na emenda de imagens. É assumido que os sensores de imagem 122 são instalados de forma que seus campos de visão, que se sobrepõem uns aos outros, e as regiões de interesse, dentro daqueles campos de visão, que também se sobrepõem uns aos outros. Os sensores de imagem 122 arranjados dessa maneira são indicados pelo bloco 722 no fluxograma da figura 24. A ROI é posicionada em uma conhecida distância para frente/para trás e lateral com relação ao sensor de imagem e lança, conforme indicado pelo bloco 724. As regiões de interesse são ilustrativamente alinhadas horizontalmente para assegurar a completa inspeção pelo sensor de imagem da área do solo ao longo da parte dianteira da lança, conforme indicado pelo bloco 726. A instalação dos sensores de imagem pode ser realizada também de outra maneira, conforme indicado pelo bloco 728.
[00181] Os sensores de imagem 122 então capturam imagens, conforme indicado pelo bloco 730, e o sistema de emenda de imagens 236 então obtém dados de sobreposição gerados durante o processo de calibragem. Os dados de sobreposição podem ser armazenados no banco de dados 226 ou em outro lugar, e indicam como e em que extensão as regiões de interesse nos diferentes sensores de imagem que se sobrepõem umas às outras. Por exemplo, quando os sensores de imagem 122 estão calibrados, as coordenadas dos campos de visão ajudam as regiões de interesse de sensores de imagem adjacentes que podem ser comparadas para identificar a extensão na qual os campos de visão e as regiões de interesse se sobrepõem. Essa informação pode ser armazenada para o acesso pelo sistema de emenda de imagens 236. A obtenção dos dados de sobreposição é indicada pelo bloco 732. O uso dos dados de sobreposição para emendar as imagens conjuntamente é indicado pelo bloco 734. A função de emenda faz a emenda de imagens adjacentes conjuntamente para gerar uma única ROI compreendida das regiões de interesse de muitos sensores de imagem, emendadas juntas.
[00182] A figura 25 é um fluxograma ilustrando um exemplo da operação do sistema de correção de equilíbrio de branco 238 na geração da informação de equilíbrio de branco, que pode ser usada no sistema de processamento de imagem para processar as imagens capturadas pelos sensores de imagem 122. É primeiro assumido que um ou mais sensores de equilíbrio de branco 130 são implementados na máquina de trabalho 100, conforme indicado pelo bloco 736. Esses podem ser um único sensor de equilíbrio de branco, conforme indicado pelo bloco 738, ou múltiplos sensores ópticos de equilíbrio de branco, instalados através da lança 118, conforme indicado pelo bloco 740. O sensor de equilíbrio de branco pode ser uma câmera ou sensor RGB 742 e pode ter uma cúpula difusora disposta no mesmo, conforme indicado pelo bloco 744. O sensor de equilíbrio de branco óptico pode ser um diferente tipo de sensor ou implementado também de outra maneira, conforme indicado pelo bloco 746.
[00183] O sistema de correção de equilíbrio de branco 238 captura imagens dos sensores de equilíbrio de branco, conforme indicado pelo bloco 748. Mapas de luminância e crominância da cúpula difusora são gerados, conforme indicado pelo bloco 750, e o local de pontos quentes nos mapas de luminância e crominância é também identificado, conforme indicado pelo bloco 752. Uma vez quando os pontos quentes são identificados, o centro de cada um dos pontos quentes em cada imagem é também computado, conforme indicado pelo bloco 754. Um local do sol é estimado, com relação ao rumo da máquina agrícola 100, com base no local do centro de os pontos quentes nos mapas de luminância e crominância. A estimativa do local do sol é indicada pelo bloco 756. Em um exemplo, o local geográfico 758 da máquina agrícola 100, a hora do dia 760, o rumo atual 762 da máquina 100, e o histórico de rumo 764 da máquina 100 podem ser usados na estimativa do local do sol com relação ao rumo da máquina agrícola 100. Outra informação 766 pode também ser usada.
[00184] Uma vez quando a cor da luz e a intensidade da luz, sensoreadas pelos sensores ópticos de equilíbrio de branco, e o local do sol com relação ao local e orientação e rumo da máquina agrícola 100 são conhecidos, então as imagens capturadas pelos sensores de imagem 122 podem ser segmentadas com base na informação de equilíbrio de branco (a cor da luz, a intensidade, o local do sol, etc.). A segmentação da imagem com base na informação de equilíbrio de branco é indicada pelo bloco 768 no fluxograma da figura 25. A segmentação pode ser realizada em uma grande variedade de diferentes maneiras.
[00185] As figuras 26A e 26B (daqui em diante referidas como a figura 26) ilustram um fluxograma mostrando um exemplo da operação do sistema de identificação de fileira 240 (mostrado na figura 7) em mais detalhe. As figuras 26A a 31 serão agora descritas umas em conjunção com as outras.
[00186] Uma imagem de um sensor de imagem 122 é recebida. A recepção da imagem é indicada pelo bloco 770 no fluxograma da figura 26. No exemplo discutido aqui, múltiplos bocais de pulverização são montados para pulverizar uma região de interesse para um único sensor de imagem. A provisão de múltiplos bocais de pulverização per imagem é indicada pelo bloco 772. A imagem pode ser recebida e configurada com relação aos bocais também de outra maneira, conforme indicado pelo bloco 774.
[00187] O sistema de segmentação de verde 354 então segmenta as porções de verde das imagens das outras porções. A segmentação das porções de verde da imagem é indicada pelo bloco 776. Os pixels na imagem segmentada podem também ser binarizados de forma que pixels verdes sejam atribuídos a um valor de 1 (ou branco), enquanto as outras porções são atribuídas a um valor de 0 (ou preto). A figura 27 mostra um exemplo de uma imagem segmentada 778. A imagem 778 inclui duas fileiras, que têm pixels verdes que foram atribuídos ao valor branco, enquanto ao resto da imagem é atribuído um valor preto (os valores pretos são mostrados com hachurados cruzados na figura 27). As duas fileiras de verde, que foram atribuídas ao valor branco, são indicadas geralmente em 780 e 782 na figura 27.
[00188] O acumulador de pixel 356 gera uma estrutura de acúmulo de pixel vertical, que acumula os valores de pixels brancos através da imagem 778. A figura 28 mostra um exemplo, no qual a imagem é exibida em um mecanismo de exibição de 640 x 480 pixels. A figura 28 mostra uma imagem que tem pixels ao longo de um eixo geométrico X, designados 0 a 640, e ao longo de um eixo geométrico Y, designados 0 a 480. A estrutura de acúmulo de pixel vertical é obtida pela soma dos pixels brancos através de todas as fileiras verticais em cada dada coluna. Os totais de cada coluna então se tornam os valores de cada caixa na estrutura de acúmulo de pixel. Assim, em um exemplo, o número de caixas na estrutura de acúmulo de pixel vertical corresponde ao número de colunas na imagem. Todavia, em outro exemplo, as caixas podem também ser combinadas para reduzir a quantidade de dados ao custo de resolução mais baixa na estrutura de acúmulo de pixel. A geração da estrutura de acúmulo de pixel vertical é indicada pelo bloco 784 na figura 26.
[00189] A figura 29 mostra um exemplo de uma representação 786 de uma pluralidade de estruturas de acúmulo de pixel verticais 788 e 790, justapostas com relação à imagem 778. A estrutura 786 acumula os pixels de valor branco em cada coluna e assim corresponde à fileira identificada em 780 na imagem 778. A estrutura 790 acumula os pixels de valor branco em cada coluna e assim corresponde à fileira identificada geralmente em 782.
[00190] O sistema de agregação histórica 358 gera então uma agregação histórica das estruturas de acúmulo de pixel de forma que as estruturas de acúmulo de pixel possam ser suavizadas. A estrutura de agregação histórica de acúmulo de fileira é gerada por agregação das estruturas de acúmulo de pixel sobre um número anterior de imagens (ou quadros). A geração da estrutura de agregação histórica é indicada pelo bloco 792 no fluxograma da figura 26. A estrutura de agregação histórica é então suavizada também pelo sistema de agregação histórica 358, conforme indicado pelo bloco 794. Em um exemplo, a estrutura de agregação histórica é gerada por formação de valor médio de cada caixa sobre um número anterior A de quadros. Em um exemplo, A é 10. (O número total de caixas é o número de caixas que é o mesmo que o número de colunas na largura de imagem). A estrutura de agregação histórica é a estrutura de acúmulo de pixel vertical com cada caixa colocada na média sobre um número de quadros, e a estrutura de acúmulo de pixel vertical é a estrutura da imagem atual. A estrutura de agregação histórica é assim gerada, conforme mostrada abaixo na Tabela 1, na qual a agregação histórica da estrutura de acúmulo de pixel é representada por fileiraAcumHistórico (rowAccumHistory), o número anterior de quadros é representado por A, e a estrutura de acúmulo de pixel é representada por PAS:
para (intx = 0; x < totalNúmeroCaixas (totalNumberBins); x++) fileiraAcumHistórico (rowAccumHistory)[x] = (fileiraAcumHistórico (rowAccumHistory)[x] * (A -1) + PAS[x] ) / A; Tabela 1
[00191] A suavização da estrutura de agregação histórica é obtida por formação de valor médio de cada caixa com um número de caixas antes e depois da mesma (por exemplo, com um número de colunas adjacentes). Em um exemplo, cada coluna é colocada na média sobre +/- 7 colunas.
[00192] O sistema de identificação de fileira 240 então identifica as fileiras na imagem. O identificador de pico 366 primeiro identifica os picos nas estruturas de agregação histórica suavizadas. A figura 30 mostra um exemplo das estruturas de acúmulo de pixel depois que elas foram incorporadas em uma estrutura histórica (usando Quadros anteriores A), e suavizadas (por formação do valor médio de cada coluna sobre os valores em um dado número de colunas adjacentes). O identificador de pico 366 identifica os picos nas estruturas de agregação histórica suavizadas 788 e 790. A identificação dos picos nas estruturas de agregação histórica suavizadas 788 e 790 é indicada pelo bloco 796 no fluxograma da figura 26. Em um exemplo, o identificador de pico 366 identifica onde o valor na estrutura de agregação histórica excede um valor pré-definido (ou uma altura pré-definida), que pode ser definido pelo usuário ou definido de outras maneiras. O identificador de pico 366 também identifica onde a estrutura de agregação histórica cai abaixo da altura pré-definida. Um pico é identificado como situando-se entre esses dois pontos. A altura pré-definida é escolhida para assegurar que existem suficientes dados para obter uma confiança desejada na identificação de pico. A altura pré-definida pode depender do estágio de crescimento do cultivo. O centro dos picos pode ser identificado como o centro desses dois pontos. O encontro do centro de pico é indicado pelo bloco 797. Onde múltiplos picos são identificados em uma única estrutura de agregação histórica (por exemplo, a estrutura 788 na figura 30), o pico tendo a altura máxima é também identificado e pode ser considerado ter a confiança mais alta na indicação da posição de fileira.
[00193] O processamento então depende do número de picos identificados. Por exemplo, se picos não forem identificados, então isso indica que fileiras não são identificadas na imagem. Também, o sistema de identificação de fileira 240 pode processar a detecção de fileira diferentemente na dependência de se existem dois ou mais picos, ou somente um pico, identificados na imagem.
[00194] A figura 30 também mostra um exemplo das estruturas de agregação histórica suavizadas 788 e 790, justapostas a uma imagem 800, onde o centro de cada pico nas estruturas 788 e 790 é identificado geralmente em 802 e 804. Similarmente, as bordas de fileira são definidas geralmente em 806, 808, 810 e 812.
[00195] Se existirem mais que dois picos identificados na imagem na qual os diferentes picos são encontrados em diferentes estruturas de agregação histórica, conforme indicado no bloco 798 na figura 26, então o processador de espaçamento de fileira 368 determina se os dois picos são separados por um conhecido ou derivado espaçamento de fileira esperado. Isso é indicado pelo bloco 814 na figura 26. Por exemplo, se as fileiras não forem separadas por um espaçamento de fileira esperado, então o sistema de identificação de fileira 240 descontinua a identificação bruta com base nessa imagem particular. A descontinuação da identificação bruta com base nessa imagem é indicada pelo bloco 816 no fluxograma da figura 26. Em lugar disso, o local das fileiras pode ser extrapolado com base nas posições centrais de fileira das imagens anteriores. A extrapolação da posição de fileira dessa maneira é indicada pelo bloco 818 no fluxograma da figura 26. Uma vez quando as possíveis posições de pico são determinadas, juntamente com sua altura, então as bordas de fileira são encontradas pelo encontro da largura do pico em uma altura definida pelo usuário (por exemplo, ¾ da altura do pico). O identificador de borda de fileira 370 explora sobre uma faixa desejada em torno do centro de pico com base em uma largura de fileira máxima esperada. Se a largura do pico for mais larga que a largura pré-definida máxima esperada, então o pico pode ser desconsiderado como estando fora de uma largura de limite. O identificador de borda de fileira 370 identifica as bordas da fileira com base na largura do pico.
[00196] A identificação das bordas de fileira é indicada no bloco 820 no fluxograma da figura 26. A interação sobre uma faixa desejada em torno do centro dos picos, com base na largura de fileira máxima esperada, é indicada pelo bloco 824. Por exemplo, para identificar o local das bordas da fileira, o processamento começa no centro da posição de pico e itera sobre a posição de pico em cada direção por uma distância horizontal correspondente à metade de a largura de fileira máxima esperada. As larguras de fileira podem ser colocadas na média sobre um número anterior pré-definido de quadros de forma que a largura de fileira esperada máxima seja atualizada. A formação de valor médio da largura sobre um número X de quadros anteriores para atualizar a largura de fileira máxima é indicada pelo bloco 826. As bordas de fileira podem ser encontradas também de outra maneira, conforme indicado pelo bloco 828.
[00197] O sistema de marcação de pixel 372 então marca os pixels entre as duas bordas de fileira, que correspondem aos valores binarizados da cor verde segmentada, como pertencendo a uma fileira de cultivo. A marcação dos pixels dentro das bordas de fileira como pertencendo a uma fileira de cultivo é indicada pelo bloco 830 no fluxograma da figura 26.
[00198] Então, antes de encontrar os alvos, aos quais material deve ser aplicado, o componente de mascaramento de fileira 362 determina se os alvos vão ser as fileiras de cultivo ou as ervas daninhas. A determinação de se os alvos são as fileiras de cultivo ou as ervas daninhas é indicada pelo bloco 832 no fluxograma da figura 26.
[00199] Se os alvos são as fileiras de cultivo, então o sistema de identificação de fileira 240 provê uma saída indicando o local das fileiras de cultivo para o sistema de identificação de bocal 244, no qual os bocais podem ser identificados e sua identidade pode ser provida para o sistema de controle de ativação de bocal 246 de modo que a decisão de pulverizar possa ser feita com relação aos bocais identificados para aplicar material às fileiras de cultivo. Em um exemplo, o sistema de identificação de fileira 240 pode mascarar todas as áreas na imagem, que não sejam as fileiras identificadas. Em outro exemplo, os limites de fileira identificadas podem ser usados para identificar os bocais para a ativação. A tomada dessa decisão de pulverizar é indicada pelo bloco 834 no fluxograma da figura 26.
[00200] Se, no bloco 832, o componente de mascaramento de fileira 362 determinar que o material deve ser aplicado às ervas daninhas (de modo que as fileiras de cultivo não sejam alvos, mas, ao invés disso, as ervas daninhas sejam os alvos), então o componente de mascaramento de fileira 362 apaga ou mascara as fileiras de cultivo das imagens sendo processadas. O apagamento ou mascaramento das fileiras de cultivo é indicado pelo bloco 836 no fluxograma da figura 26.
[00201] Depois de as fileiras serem apagadas ou mascaradas, então o processador de identificação de alvo 242 identifica aglomerados de pixels adicionais de segmentos (por exemplo, segmentados e binarizados com base em a detecção de verde) de material de planta em áreas diferentes de onde as fileiras foram mascaradas. Isso é indicado pelo bloco 838 no fluxograma da figura 26. O sistema de filtro de erva daninha 380 gera uma caixa de delimitação em torno de os aglomerados de pixels identificados. A geração de uma caixa de delimitação em torno dos aglomerados de pixels identificados é indicada pelo bloco 840 no fluxograma da figura 26.
[00202] A figura 31 mostra um exemplo no qual uma pluralidade de caixas de delimitação 842 são geradas em torno dos aglomerados de pixels, que não são co-posicionadas com as fileiras de cultivo. Por exemplo, o aglomerados de pixels estão ainda presentes na imagem depois de as fileiras de cultivo serem mascaradas.
[00203] Pode ser que alguns do aglomerados de pixels identificados sejam atualmente partes pendentes do material de planta das fileiras de cultivo, ao invés de ervas daninhas separadas. Por exemplo, com referência novamente à figura 30, existem porções do material de cultivo em fileira, que se estendem para após as bordas de fileira 808 e 810, respectivamente. Assim, mesmo se as fileiras 802 e 804 estiverem mascaradas, esse material pendente de planta pode ser identificado como um aglomerado de pixels. A fim de assegurar que material de cultivo de fileira não seja pulverizado, o localizador de erva daninha 388 determina se o material de planta em um aglomerado de pixels identificado está conectado à borda da fileira de cultivo. A determinação de se o aglomerado de pixel está conectado à fileira de cultivo é indicada pelo bloco 842 no fluxograma da figura 26. Se o aglomerado de pixel estiver conectado à borda da fileira de cultivo, então as estruturas de acúmulo de pixel correspondentes à fileira de cultivo são analisadas juntamente com os valores de pixel dentro do aglomerado de pixel, que são adjacentes às fileiras de cultivo. Os valores de pixel dentro do aglomerado de pixel se alinharão com os valores de pixel na borda de fileira de cultivo, se for provável que a planta seja uma parte pendente do material de cultivo. A realização de uma comparação de pixel com base na borda de caixa de delimitação e na borda de fileira é indicada pelo bloco 844 no fluxograma da figura 26. Se o número de pixels correspondentes na borda de caixa de delimitação e na borda de fileira de cultivo satisfizer um número de limite de pixels, conforme indicado pelo bloco 846, então o aglomerado de pixel é identificado como uma folha pendente do material de cultivo, conforme indicado pelo bloco 848. Todavia, se o número de pixels correspondentes não satisfizer o número de limite, então o aglomerado de pixel é identificado como uma erva daninha, conforme indicado pelo bloco 850. Novamente, a decisão de pulverizar 834 é feita com base em se o aglomerado de pixel é identificado como uma erva daninha ou uma parte pendente de cultivo.
[00204] As figuras 32 a 35 mostram um exemplo das várias dimensões de máquina, dinâmicas de máquina, e definições de variáveis que podem ser usadas pelo sistema de controle de ativação de bocal 246 (mostrado na figura 10) na determinação de quando ligar um conjunto de bocais, quanto tempo deixar o conjunto de bocais ligado, e quando desligar os mesmos, a fim de aplicar material a um alvo particular (por exemplo, uma erva daninha). A figura 32 mostra um exemplo da máquina 100 com um eixo geométrico longitudinal 852 e um eixo geométrico vertical 854, que se estende verticalmente através de um ponto de conexão entre a lança 118 e a máquina 100. A lança 118 também tem um eixo geométrico longitudinal 856. Os eixos geométricos 852, 856 e 854 representam os eixos geométricos x, y, e z no sistema de coordenadas, conforme mostrado na figura 32. A figura 33 mostra uma porção de lança 118 com um corpo de bocal 120 que está pulverizando um material através de um padrão de pulverização representado em 858. A figura 33 também mostra um sensor de imagem 122 montado à lança 118. A figura 34 é uma vista lateral mostrando uma porção de lança 118, o corpo de bocal de pulverização 120 e o sensor de imagem 122, mostrado na figura 33, exceto que tomados de uma vista lateral. A figura 34 também mostra o padrão de pulverização 858, da vista lateral, e identifica uma região de interesse 860 para o sensor de imagem 122, no solo. A figura 35 é uma vista de uma porção de lança 118, que é oposta àquela mostrada na figura 33. Por conseguinte, a figura 35 mostra uma vista diferente de uma região de interesse 860 do sensor de imagem 122. As variáveis identificadas nas figuras 32 a 35 são definidas como expostas na Tabela 1 abaixo (na qual os sensores de imagem são referidos como câmeras).
TABELA 1
[00205] A1 – Ângulo À Frente/Atrás visualizável pela Câmera
A2 – Ângulo Horizontal Visualizável pela Câmera
A3 – Ângulo de Montagem de Câmera
A4 – Ângulo À Frente/Atrás do padrão de pulverização
A5 – Ângulo Lateral de Padrão de Pulverização
A6 – Angulo do Bico de Bocal
H1 - Altura de Câmera
H2 – Altura de Bocal
D1 – Distância da Câmera para o Centro da ROI
D2 – Distância da Câmera para o ponto Mais Afastado da ROI
D3 – Distância da Câmera para o ponto Mais Próximo da ROI
D4 – Distância de Câmera/Desvio de Bocal
D5 – Distância da Câmera/Desvio de Padrão de Pulverização
D6 – Distância de Pulverização Intermediária à frente do alvo
D7 – Distância de Pulverização Intermediária depois do alvo
L1 – Comprimento de Padrão de pulverização no solo/Alvo
L2 – Comprimento da Região de Visão de Interesse
W1 – Largura do padrão de pulverização
W2 – Largura da Região de Visão de Interesse
[00206] A figura 36 é um fluxograma ilustrando um exemplo da operação do sistema de controle de ativação de bocal 246 (mostrado na figura 10) na determinação de quando um bocal específico deve ser ligado, e quando ele deve ser desligado, dado o local alvo 872 de um alvo (por exemplo, uma erva daninha). Os sensores de valor variável 404 primeiro sensoreiam ou acessam as dinâmicas de máquina e os valores de variável mostrados nas figuras 32 a 35. Os sensores de dimensão/dinâmica e mecanismos de entrada 412 podem sensorear ou acessar as dimensões e dinâmicas de máquina, previamente armazenadas. Os sensores e os mecanismos 412 podem também sensorear as entradas das dimensões e dinâmicas de máquina. As entradas podem ser baixadas ou alimentadas pelos operadores. Os sensores de tempo real 414 sensoreiam os valores de variável em tempo real, quando a máquina 100 está operando. A detecção ou o acesso dos valores de variável usados na determinação da temporização de atuação de bocal é indicado pelo bloco 862 no fluxograma da figura 36.
[00207] As variáveis podem incluir os valores identificados na Tabela 1 acima, e também indicados na figura 36. Os valores podem também incluir entradas de um sensor de taxa de guinada de bocal 864, que sensoreia a taxa de guinada do bocal a ser ativado, conforme definido na figura 32. A guinada é definida como a rotação em torno do eixo geométrico 854, conforme ilustrado na figura 32. As variáveis podem também incluir a posição de bocal e lança 866, que indica a altura da lança acima do solo, e a orientação do bocal, dada essa posição de lança. As variáveis podem também incluir a pressão de pulverização (ou a velocidade, ou ambas, etc.) do material sendo pulverizado do bocal, conforme indicado pelo bloco 868. Os valores de variável podem incluir também uma grande variedade de outras variáveis, conforme indicado pelo bloco 870.
[00208] O sistema de controle de ativação de bocal 246 também recebe o local do alvo (por exemplo, da erva daninha) 872, do localizador de erva daninha 388 no processador de identificação de alvo 242, conforme indicado pelo bloco 874 no fluxograma da figura 36. O gerador de tempo de retardo de ligação 406 gera então o tempo de retardo, que será o tempo decorrido antes da ativação do bocal identificado. O tempo, que a máquina irá retardar antes de ligar o bocal específico, é referido como RetardoTempoLigado (DelayTimeOn) e é indicado pela equação 43 abaixo.
Figure img0022
[00209] Pode ser visto que o RetardoTempoLigadoValor (DelayTimeOnvalue) é dependente do tempo requerido para executar a tarefa (o tempo necessário para ativar o bocal e ter o deslocamento de material da saída do bocal até o alvo) e o tempo disponível para executar a tarefa (o tempo entre um instante atual e quando o bocal irá atingir o local de erva daninha e precisará ser ativado). Assim, o gerador de tempo de execução de tarefa 420 primeiro gera o tempo disponível para executar a tarefa, conforme ilustrado na equação 44 abaixo.
Figure img0023
[00210] O componente de determinação de velocidade de bocal 418 determina a velocidade de bocal conforme indicado pela equação 45.
Figure img0024
[00211] O tempo requerido para executar a tarefa, por sua vez, depende do tempo de processamento para o sensor de imagem 122, qualquer latência de rede (por exemplo, latência de CAN) nas mensagens de transmissão, o tempo de processamento de bocal (a quantia de tempo para o corpo de controlador de bocal para processar o comando, que ele recebe), o tempo de execução de bocal (a quantia de tempo entre quando a válvula de corpo de bocal é energizada e quando ela atualmente se abre), e o tempo de voo de pulverização. O tempo requerido para executar a tarefa é representado pela equação 46 abaixo.
Figure img0025
[00212] O tempo de voo de pulverização é calculado pelo gerador de tempo de voo de pulverização 422. O tempo de voo de pulverização é o tempo requerido para o material se deslocar da extremidade de saída do bocal até o alvo e depende do tipo de bocal, do ângulo do bico de bocal, da altura da lança, e da pressão de pulverização. Isso é indicado pela equação 47 baixo.
Figure img0026
[00213] RetardoTempoLigadoGerador (DelayTimeOngenerator) 406 usa esses valores e determina o RetardoTempoLigado (DelayTimeOn), como indicado pela equação 43.
[00214] RetardoTempoDesligadogerador (DelayTimeOffgenerator) 408 gera uma saída indicativa de a quantia de tempo (de um instante atual) até que o corpo de bocal deva ser desligado. RetardoTempoDesligadogerador (DelayTimeOffgenerator) 408 calcula o RetardoTempoDesligado (DelayTimeOff), como indicado abaixo na equação 48.
Figure img0027
[00215] O cálculo do RetardoTempoDesligado (DelayTimeOff) éindicado pelo bloco 902 no fluxograma da figura 36. O gerador de saída 409 gera então uma saída indicativa do RetardoTempoLigado (DelayTimeOn) e o RetardoTempoDesligado (DelayTimeOff) e envia a saída para o controlador de bocal de corpo de pulverização para controlar o bocal identificado, consequentemente. O fornecimento do RetardoTempoLigado (DelayTimeOn) e do RetardoTempoDesligado (DelayTimeOff) para o controle de bocal é indicado pelo bloco 904 no fluxograma da figura 36.
[00216] A figura 37 é um fluxograma mostrando um exemplo da operação do sistema de processamento de batida dupla 165 (mostrado na figura 9) e o controlador de multiproduto 179 (mostrado na figura 1C). O sistema de processamento de batida dupla 165 primeiro recebe ou acessa um mapa de erva daninha anterior da operação anterior (tal como um sensoreamento e aplicação anteriores ou outra operação de aplicação de material). A obtenção do mapa de erva daninha anterior é indicada pelo bloco 906 no fluxograma da figura 37.
[00217] O sistema de processamento de batida dupla 165 pode também receber ou obter uma prescrição (o material particular a ser aplicado, a taxa de aplicação ou dosagem, etc.) indicando como o material deve ser aplicado. Isso é indicado pelo bloco 908 no fluxograma da figura 37. A prescrição pode incluir a informação do local de erva daninha do mapa de erva daninha ou do mapa de erva daninha e a prescrição pode ser separada. Eles são discutidos aqui como separados, mas isso é apenas um exemplo.
[00218] Com base no mapa de erva daninha anterior e na prescrição, o localizador de erva daninha anterior 398 identifica os locais nos quais as ervas daninhas foram previamente pulverizadas, do mapa de erva daninha anterior. O identificador de substância/dosagem 400 identifica a prescrição para tratar aquelas ervas daninhas, com base na prescrição. Será notado que, em um exemplo, a prescrição pode ser predefinida. Em outro exemplo, a prescrição pode ser variada. O processamento do mapa e da prescrição para identificar os locais de aplicação em ervas daninhas, e a dosagem/taxa de aplicação a aplicar é indicada pelo bloco 910 no fluxograma da figura 37. Esse processamento pode ser realizado antes do início da operação de pulverização, ou durante a operação de pulverização.
[00219] Será notado que, em um exemplo, no qual a máquina 100 transporta múltiplos materiais diferentes, que podem ser aplicados aos alvos identificados, a prescrição pode indicar informação adicional. Por exemplo, se uma erva daninha foi tratada por um primeiro material durante um primeiro passe no campo, mas a erva daninha ainda está vibrante (por exemplo, verde) durante o segundo passe, então isso pode significar que a erva daninha é resistente ao primeiro material que foi aplicado a uma primeira taxa durante o primeiro passe. Por conseguinte, a prescrição pode indicar, que a erva daninha deve ser tratada, no passe atual, com uma taxa de aplicação mais alta do primeiro material, ou que a erva daninha deve ser tratada com um segundo material. O controlador de multiproduto 179 processa assim a prescrição para identificar como a erva daninha deve ser tratada.
[00220] Em algum ponto, no entanto, a máquina 100 começa a operação de pulverização. Isso é indicado pelo bloco 912. A máquina agrícola 100 realiza o processamento de sensoreamento e aplicação conforme descrito acima com relação às figuras 1 a 36. Isso é indicado pelo bloco 914. O sistema de processamento de batida dupla 165 recebe uma posição geográfica da máquina 100 do sensor de posição geográfica 202. Isso é indicado pelo bloco 916. O sistema de comparação de local 394 compara o local atual da máquina agrícola 100 com os locais de ervas daninhas identificados pelo localizador de erva daninha anterior 398. Com base na comparação de onde a máquina 100 está atualmente, bem como seu rumo e velocidade, e com base nos locais anteriores de erva daninha, o sistema de decisão de pulverização 396 determina se deve ativar quaisquer bocais para realizar a aplicação de batida dupla ou uma aplicação de múltiplos produtos. Isso é indicado pelo bloco 918 no fluxograma da figura 37.
[00221] Como um exemplo, as imagens capturadas são analisadas para identificar ervas daninhas, conforme discutido acima. Se uma erva daninha é identificada no mesmo local que no mapa de erva daninha anterior, isso significa que a erva daninha, que foi tratada durante o passe anterior está ainda verde e vibrante, o que pode indicar uma resistência ao material aplicado à mesma no primeiro passe. Assim, o controlador de multiproduto 179 pode gerar uma saída indicando que a erva daninha deve ser tratada com um material diferente ou a uma taxa de aplicação diferente. Em outro exemplo, uma imagem da erva daninha, tomada durante o primeiro passe, pode ser armazenada juntamente com o mapa de erva daninha anterior, e, essa imagem pode ser comparada com a imagem atual para determinar se a erva daninha está morrendo (significando que ela não é resistente ao material aplicado durante o primeiro passe) ou se a erva daninha ainda está vibrante (significando que ela pode ser resistente). O controlador de multiproduto 179 gera então uma saída para tratar a erva daninha com um material diferente ou a uma taxa diferente ou de outra maneira. A análise da(s) imagem(s) para a taxa de aplicação ou aplicação de multiproduto é indicada pelo bloco 917 na figura 37. A determinação de se pulverizar pode ser feita também de outra maneira, conforme indicado pelo bloco 919.
[00222] Se o sistema de decisão de pulverização 396 fornecer uma decisão de que uma operação de pulverização deve ser realizada, ou se outros elementos no sistema de identificação de alvo 158 geram uma saída identificando um alvo a ser pulverizado, então aquelas saídas são providas para o sistema de identificação de bocal e o sistema de controle de ativação de bocal 246 de forma que os corpos de bocal possam ser controlados com base nas determinações ou decisões de pulverização, que são feitas. O controle dos bocais é indicado pelo bloco 920 no fluxograma da figura 37.
[00223] Os locais de ervas daninhas que são pulverizados podem ser armazenados também para o posterior acesso. Isso é indicado pelo bloco 922.
[00224] A presente discussão mencionou processadores e servidores. Em uma modalidade, os processadores e servidores incluem processadores de computador com memória associada e circuito de temporização, não separadamente mostrados. Eles são partes funcionais dos sistemas ou dispositivos, aos quais pertencem e pelos quais são ativados, e facilitam a funcionalidade dos outros componentes ou itens naqueles sistemas.
[00225] Também, inúmeras exibições de interface de usuário (IU) foram discutidas. A exibição de IU pode assumir uma grande variedade de diferentes formas e pode ter uma grande variedade de diferentes mecanismos de entrada atuáveis por usuário, dispostos na mesma. Por exemplo, os mecanismos de entrada atuáveis por usuário podem ser caixas de texto, caixas de verificação, ícones, conexões, menus pendentes, caixas de pesquisa, etc. Os mecanismos podem também ser atuados em uma grande variedade de diferentes maneiras. Por exemplo, eles pode ser atuados usando um dispositivo de apontar e clicar (tal como uma esfera rolante ou Mouse). Os mecanismos podem ser atuados usando teclas de hardware, interruptores, alavanca de controle ou teclado, alavancas livres ou painéis para polegar, etc. Eles podem também ser atuados usando um teclado virtual ou outros atuadores virtuais. Além disso, quando a tela na qual os mecanismos são exibidos for uma tela sensível ao toque, eles podem ser atuados usando gestos de toque. Também, quando o dispositivo, que exibe os mesmos tiver componentes de reconhecimento de voz, os mecanismos podem ser atuados usando comandos de voz.
[00226] Inúmeros bancos de dados também foram discutidos. Será notado que os bancos de dados discutidos aqui podem, cada, ser desmembrados em múltiplos bancos de dados. Todos podem ser locais aos sistemas que acessam os mesmos, todos podem ser remotos, ou alguns podem ser locais, enquanto outros são remotos. Todas dessas configurações são contempladas aqui.
[00227] Também, as figuras mostram um número de blocos com funcionalidade atribuída a cada bloco. Será notado que menos blocos podem ser usados de modo que a funcionalidade seja realizada por menos componentes. Também, mais blocos podem ser usados com a funcionalidade distribuída entre mais componentes.
[00228] Será notado que a discussão acima descreveu uma variedade de diferentes sistemas, componentes e/ou lógica. Será apreciado que tais sistemas, componentes e/ou lógica podem ser compreendidos de itens de hardware (tais como processadores e memória associada, ou outros componentes de processamento, alguns dos quais são descritos abaixo), que realizam as funções associadas com aqueles sistemas, componentes e/ou lógica. Além disso, os sistemas, componentes e/ou lógica podem ser compreendidos de software que é carregado à memória e é subsequentemente executado por um processador ou servidor, ou outro componente de computação, conforme descrito abaixo. Os sistemas, componentes e/ou lógica podem também ser compreendidos de diferentes combinações de hardware, software, firmware, etc., alguns exemplos dos quais são descritos abaixo. Esses são somente alguns exemplos de estruturas diferentes, que pode ser usadas para formar os sistemas, componentes e/ou lógica descritos acima. Outras estruturas podem também ser usadas.
[00229] A figura 38 é um diagrama de blocos da máquina 100, mostrada na figura 1, exceto que ela se comunica com elementos em uma arquitetura de servidor remoto 930. Em um exemplo, a arquitetura de servidor remoto 930 pode prover computação, software, acesso de dados, e serviços de armazenamento, que não requerem o conhecimento do usuário final do local físico ou configuração do sistema, que fornece os serviços. Em vários exemplos, os servidores remotos podem fornecer os serviços sobre uma rede de área larga, tal como a Internet, usando protocolos apropriados. Por exemplo, os servidores remotos podem fornecer aplicativos sobre uma rede de área larga e podem ser acessados através de um navegador da Web ou qualquer outro componente de computação. O software ou os componentes mostrados nas figuras anteriores bem como os correspondentes dados, podem ser armazenados nos servidores em um local remoto. Os recursos de computação em um ambiente de servidor remoto podem ser consolidados em um local de centro de dados remoto ou eles podem ser dispersos. As infraestruturas de servidor remoto podem fornecer serviços através de centros de dados compartilhados, mesmo que apareçam como um único ponto de acesso para o usuário. Assim, os componentes e funções descritos aqui podem ser providos de um servidor remoto em um local remoto usando uma arquitetura de servidor remoto. Alternativamente, eles podem ser providos de um servidor convencional, ou podem ser instalados diretamente nos dispositivos de cliente, ou de outras maneiras.
[00230] No exemplo mostrado na figura 38, alguns itens são similares àqueles mostrados nas figuras anteriores e eles são similarmente enumerados. A figura 38 especificamente mostra que o sistema de identificação de alvo 158 e o banco de dados 151 podem ser posicionados em um local de servidor remoto 932. Por conseguinte, a máquina 100 acessa aqueles sistemas através do local de servidor remoto 932.
[00231] É também contemplado que alguns elementos das figuras anteriores são dispostos no local de servidor remoto 932, enquanto outros não são. A título de exemplo, o banco de dados 151 pode ser disposto em um local separado do local 932, e acessado através do servidor remoto no local 932. Independentemente de onde eles são posicionados, eles podem ser acessados diretamente pela máquina 100, através de uma rede (ou uma rede de área larga ou uma rede de área local), eles podem ser hospedados em um Site remoto por um serviço, ou eles podem ser providos como um serviço, ou acessados por um serviço de conexão, que reside em um local remoto. Também, os dados podem ser armazenados em substancialmente qualquer local e intermitentemente acessados por, ou transmitidos para, as partes interessadas. Por exemplo, portadores físicos podem ser usados, em lugar de, ou em adição a, portadores de ondas eletromagnéticas. Em um tal exemplo, onde a cobertura celular é deficiente ou inexistente, outra máquina móvel (tal como um caminhão de combustível) pode ter um sistema de coleta de informação automático. Quando a máquina 100 chega perto ao caminhão de combustível para o abastecimento, o sistema automaticamente coleta A informação da máquina 100 usando qualquer tipo de conexão sem fio para essa finalidade. A informação coletada pode então ser transmitida para a rede principal quando o caminhão de combustível chegar a um local no qual existe cobertura celular (ou outra cobertura sem fio). Por exemplo, o caminhão de combustível pode entrar em um local coberto quando se desloca para abastecer outras máquinas ou quando em um local de armazenamento de combustível principal. Todas dessas arquiteturas são contempladas aqui. Ainda, a informação pode ser armazenada na máquina 100 até a máquina 100 entrar em um local coberto. A máquina 100, propriamente dita, pode então enviar a informação para a rede principal.
[00232] Será também notado que os elementos da figura 1, ou porções dos mesmos, podem ser dispostos em uma grande variedade de dispositivos diferentes. Alguns daqueles dispositivos incluem servidores, computadores de mesa, computadores portáteis, tablets, ou outros dispositivos móveis, tais como computadores de bolso, telefones celulares, telefones inteligentes, reprodutores de multimídia, assistentes digitais pessoais, etc.
[00233] A figura 39 é um diagrama de blocos simplificado de um exemplo ilustrativo de um dispositivo de computação portátil ou móvel, que pode ser usado como um dispositivo portátil do usuário ou do cliente 16, no qual o presente sistema (ou partes do mesmo) pode ser implementado. Por exemplo, um dispositivo móvel pode ser implementado no compartimento do operador da máquina 100 para o uso na geração de, o processamento de, ou exibição da aplicação de dados de material. As figuras 40 a 41 são exemplos de dispositivos portáteis ou móveis.
[00234] A figura 39 provê um diagrama de blocos geral dos componentes de um dispositivo de cliente 16, que pode rodar alguns componentes mostrados nas figuras anteriores, que interage com os mesmos, ou ambos. No dispositivo 16, uma conexão de comunicações 13 é provida, que permite ao dispositivo portátil se comunicar com outros dispositivos de computação e, sob algumas modalidades, provê um canal para receber informação automaticamente, tal como por varredura. Exemplos da conexão de comunicações 13 incluem a permissão de comunicação através de um ou mais protocolos de comunicação, tais como serviços sem fio usados para prover acesso celular a uma rede, bem como protocolos, que provêm conexões sem fio locais às redes.
[00235] Em outros exemplos, aplicativos podem ser recebidos em um cartão removível Secure Digital (SD), que é conectado a uma interface 15. A interface 15 e as conexões de comunicação 13 se comunicam com um processador 17 (que pode também incorporar os processadores das figuras anteriores) ao longo de um barramento 19, que é também conectado à memória 21 e componentes de entrada/saída (E/S) 23, bem como o relógio 25 e o sistema local 27.
[00236] Os componentes de E/S 23, em uma modalidade, são providos para facilitar as operações de entrada e saída. Os componentes de E/S 23 para as várias modalidades do dispositivo 16 podem incluir componentes de entrada, tais como teclas, sensores de toque, sensores ópticos, microfones, telas sensíveis ao toque, sensores de proximidade, acelerômetros, sensores de orientação, e componentes de saída, tais como um dispositivo de exibição, um alto-falante, e ou uma porta de impressora. Outros componentes de E/S 23 podem ser também usados.
[00237] O relógio 25 ilustrativamente compreende um componente de relógio de tempo real, que fornece uma hora e data. Ele pode também, ilustrativamente, prover funções de temporização para o processador 17.
[00238] O sistema local 27 ilustrativamente inclui um componente, que fornece um local geográfico atual do dispositivo 16. Esse pode incluir, por exemplo, um receptor de sistema de posicionamento global (GPS), um sistema LORAN, um sistema de reconhecimento passivo, um sistema de triangulação celular, ou outro sistema de posicionamento. Ele pode também incluir, por exemplo, software de mapeamento ou software de navegação, que gera os desejados mapas, rotas de navegação e outras funções geográficas.
[00239] A memória 21 armazena o sistema operacional 29, as regulagens de rede 31, aplicativos 33, as regulagens de configuração de aplicativo 35, o banco de dados 37, os controladores de comunicação 39, e as regulagens de configuração de comunicação 41. A memória 21 pode incluir todos os tipos de dispositivos de memória legíveis por computador, voláteis e não voláteis, tangíveis. Ela pode também incluir meios de armazenamento de computador (descritos abaixo). A memória 21 armazena instruções legíveis por computador que, quando executadas pelo processador 17, fazem com que o processador realize as etapas ou funções implementadas por computador de acordo com as instruções. O processador 17 pode ser ativado por outros componentes para facilitar também sua funcionalidade.
[00240] A figura 40 mostra um exemplo no qual o dispositivo 16 é um tablet 934. Na figura 40, o computador 934 é mostrado com a tela de exibição de interface de usuário 936. A tela 936 pode ser uma tela sensível ao toque ou uma interface habilitada por caneta, que recebe entradas de uma caneta ou agulha. Ela pode também usar um teclado virtual na tela. naturalmente, ela poderia também ser afixada a um teclado ou outro dispositivo de entrada de usuário através de um mecanismo de afixação apropriado, tal como uma conexão sem fio ou porta USB, por exemplo. O computador 934 pode também receber, ilustrativamente, entradas de voz.
[00241] A figura 41 mostra que o dispositivo pode ser um telefone inteligente 71. O telefone inteligente 71 tem uma exibição sensível ao toque 73, que exibe ícones ou azulejos ou outros mecanismos de entrada de usuário 75. Os mecanismos 75 podem ser usados por um usuário para rodar aplicativos, fazer chamadas, realizar operações de transferência de dados, etc. Em geral, o telefone inteligente 71 é construído em um sistema operacional móvel e oferece capacidade de computação e conectividade mais avançadas que um telefone comum.
[00242] Note que outras formas dos dispositivos 16 são possíveis.
[00243] A figura 42 é um exemplo de um ambiente de computação, no qual os elementos das figuras anteriores, ou partes dos mesmos (for exemplo), podem ser implementados. Com referência à figura 42, um sistema de exemplo para implementar algumas modalidades inclui um dispositivo de computação na forma de um computador 1010, programado para operar conforme descrito acima. Os componentes do computador 1010 podem incluir, mas não são limitados a, uma unidade de processamento 1020 (que pode compreender os processadores das figuras anteriores), uma memória de sistema 1030, e um barramento de sistema 1021, que acopla vários componentes de sistema incluindo a memória de sistema para a unidade de processamento 1020. O barramento de sistema 1021 pode ser qualquer de vários tipos de estruturas de barramento incluindo um barramento de memória ou controlador de memória, um barramento periférico, e um barramento local usando qualquer de uma variedade de arquiteturas de barramento. A memória e os programas descritos com relação às figuras anteriores podem ser implementados nas porções correspondentes da figura 42.
[00244] O computador 1010 tipicamente inclui uma variedade de meios legíveis por computador. Os meios legíveis por computador podem ser quaisquer meios disponíveis, que podem ser acessados pelo computador 1010 e incluem tanto meios voláteis quanto não voláteis, tanto meios removíveis quanto não removíveis. A título de exemplo, e não de limitação, os meios legíveis por computador podem compreender meios de armazenamento de computador e meios de comunicação. Os meios de armazenamento de computador são diferentes de, e não incluem, um sinal de dado modulado ou onda portadora. Eles incluem meios de armazenamento de hardware incluindo meios tanto voláteis quanto não voláteis, tanto removíveis quanto não removíveis, implementados em qualquer método ou tecnologia para o armazenamento de informação, tais como as instruções legíveis por computador, as estruturas de dados, módulos de programa ou outros dados. Os meios de armazenamento de computador incluem, mas não são limitados a, RAM, ROM, EEPROM, memória flash ou outra tecnologia de memória, CD-ROM, discos versáteis digitais (DVD) ou outro armazenamento em disco óptico, cassetes magnéticos, fita magnética, armazenamento em disco magnético ou outros dispositivos de armazenamento magnético, ou qualquer outro meio que pode ser usado para armazenar a informação desejada e que pode ser acessado pelo computador 1010. Os meios de comunicação podem incorporar as instruções legíveis por computador, as estruturas de dados, os módulos de programa ou outros dados em um mecanismo de transporte e incluem quaisquer meios de fornecimento de informação. O termo “sinal de dado modulado” significa um sinal que tem uma ou mais de suas características ajustadas ou alteradas de uma tal maneira a codificar informação no sinal.
[00245] A memória de sistema 1030 inclui meios de armazenamento de computador na forma de memória volátil e/ou não volátil, tal como memória exclusivamente de leitura (ROM) 1031 e memória de acesso aleatório (RAM) 832. Um sistema de entrada/saída básico 1033 (BIOS), contendo as rotinas básicas, que ajudam a transferir a informação entre os elementos dentro do computador 1010, tal como durante a inicialização, é tipicamente armazenado na ROM 1031. A RAM 1032 tipicamente contém dados e/ou módulos de programa, que são imediatamente acessíveis à, e/ou atualmente sendo operados na, unidade de processamento 1020. A título de exemplo, e não de limitação, a figura 42 ilustra o sistema operacional 1034, programas de aplicativos 1035, outros módulos de programa 1036, e dados de programa 1037.
[00246] O computador 1010 pode também incluir outros meios de armazenamento de computador removíveis/não removíveis, voláteis/não voláteis. Somente a título de exemplo, a figura 42 ilustra uma unidade de disco rígido 1041, que lê de, ou inscreve em, meios magnéticos não voláteis, não removíveis, uma unidade de disco óptico 1055, e disco óptico não volátil 1056. A unidade de disco rígido 1041 é tipicamente conectada ao barramento de sistema 1021 através de uma interface de memória não removível, tal como a interface 1040, e a unidade de disco óptico 1055 é tipicamente conectada ao barramento de sistema 1021 por uma interface de memória removível, tal como interface 1050.
[00247] Alternativamente, ou, além disso, a funcionalidade descrita aqui pode ser realizada, pelo menos em parte, por um ou mais componentes de lógica de hardware. Por exemplo, e sem limitação, tipos ilustrativos de componentes de lógica de hardware, que podem ser usados incluem redes de portas lógicas programáveis (FPGAs), circuitos integrados específicos de aplicação (por exemplo, ASICs), produtos normalizados para aplicação específica (por exemplo, ASSPs), sistemas em uma pastilha (SOCs), dispositivos lógicos programáveis complexos (CPLDs), etc.
[00248] Os controladores e seus meios de armazenamento de computador associados, discutidos acima e ilustrados na figura 42, provêm o armazenamento das instruções legíveis por computador, das estruturas de dados, dos módulos de programa e outros dados para o computador 1010. Na figura 42, por exemplo, a unidade de disco rígido 1041 é ilustrada como armazenando o sistema operacional 1044, os programas de aplicativos 1045, outros módulos de programa 1046, e os dados de programa 1047. Note que esses componentes podem ou ser os mesmos que os, ou diferentes, do sistema operacional 834, programas de aplicativos 1035, outros módulos de programa 1036, e dados de programa 1037.
[00249] Um usuário pode alimentar comandos e informação ao computador 1010 através de dispositivos de entrada, tais como um teclado 1062, um microfone 1063, e um dispositivo de apontar1061, tais como um Mouse, esfera rolante ou painel de controle sensível ao toque. Outros dispositivos de entrada (não mostrados) podem incluir uma alavanca de controle, painel de jogos, antena parabólica, escâner, ou similar. Esses e outros dispositivos de entrada são frequentemente conectados à unidade de processamento 1020 através de uma interface de entrada de usuário 1060, que é acoplada ao barramento de sistema, mas pode ser conectada por outras interfaces e estruturas de barramento. Uma exibição visual 1091 ou outro tipo de dispositivo de exibição é também conectado ao barramento de sistema 1021 por intermédio de uma interface, tal como uma interface de vídeo 1090. Em adição ao monitor, os computadores podem também incluir outros dispositivos de saída periféricos, tais como alto-falantes 1097 e impressora 1096, que podem ser conectados através de uma interface periférica de saída 1095.
[00250] O computador 1010 é operado em um ambiente conectado em rede usando conexões lógicas (tais como uma rede de área local - LAN, ou rede de área larga - WAN ou uma rede de área de controlador - CAN) a um ou mais os computadores remotos, tais como o computador remoto 1080.
[00251] Quando usado em um ambiente conectado em rede LAN, o computador 1010 é conectado à LAN 871 através de uma interface de rede ou adaptador 1070. Quando usado em um ambiente conectado em rede WAN, o computador 810 tipicamente inclui um Modem 1072 ou outro meio para estabelecer comunicações sobre a WAN 1073, tal como a Internet. Em um ambiente conectado em rede, os módulos de programa podem ser armazenados em um dispositivo de armazenamento de memória remoto. A figura 42 ilustra, por exemplo, que programas de aplicativo remotos 1085 podem residir no computador remoto 880.
[00252] Deve também ser notado que os diferentes exemplos descritos aqui podem ser combinados de diferentes maneiras. Isto é, partes de um ou mais exemplos podem ser combinadas com partes de um ou mais outros exemplos. Tudo disso é contemplado aqui.
[00253] O exemplo 1 é uma máquina agrícola que se desloca através de um campo em uma direção de deslocamento, compreendendo: um reservatório de material; Uma válvula controlável; uma bomba que bombeia material do reservatório de material para a válvula controlável; uma pluralidade de sensores ópticos que capturam, cada, uma imagem, de uma pluralidade de imagens capturadas, de uma porção do campo à frente da válvula controlável na direção de deslocamento; um módulo de processamento que recebe a pluralidade de imagens capturadas e inclui um sistema de identificação de alvo que identifica um alvo em pelo menos uma imagem da pluralidade de imagens capturadas; e um controlador de válvula que gera um sinal de controle de válvula para controlar a válvula controlável para aplicar o material ao alvo.
[00254] O exemplo 2 é a máquina agrícola de acordo com qualquer ou todos dos exemplos anteriores, o sistema de identificação de alvo incluindo: um sistema de remapeamento de imagem que identifica um local do alvo no campo com base em um local do alvo na pelo menos uma imagem.
[00255] O exemplo 3 é a máquina agrícola de acordo com qualquer ou todos dos exemplos anteriores em que a máquina agrícola compreende um eixo geométrico longitudinal e compreendendo adicionalmente: uma lança montada transversalmente ao eixo geométrico longitudinal da máquina agrícola, a pluralidade de sensores ópticos e a válvula controlável sendo montadas na lança; e um detector de posição de lança que detecta uma variável de posição de lança indicativa de uma altura da lança com relação ao campo.
[00256] O exemplo 4 é a máquina agrícola de acordo com qualquer ou todos dos exemplos anteriores e compreendendo adicionalmente: uma pluralidade de válvulas controláveis montadas na lança, cada válvula tendo um correspondente bocal, cada bocal dirigindo o material da correspondente válvula para uma área de aplicação no campo.
[00257] O exemplo 5 é a máquina agrícola de acordo com qualquer ou todos dos exemplos anteriores, o sistema de identificação de alvo incluindo: um sistema de identificação de bocal que identifica qual da pluralidade de válvulas controláveis tem uma área de aplicação correspondente ao local do alvo no campo.
[00258] O exemplo 6 é a máquina agrícola de acordo com qualquer ou todos dos exemplos anteriores, o sistema de identificação de alvo incluindo: um sistema de controle de ativação de bocal que identifica uma temporização definindo quando a válvula controlável identificada deve ser ativada e desativada.
[00259] O exemplo 7 é a máquina agrícola de acordo com qualquer ou todos dos exemplos anteriores, o sistema de controle de ativação de bocal incluindo: um conjunto de sensores de valor de variável que obtém pelo menos um dentre valores de dimensão indicativos de dimensões de máquina, os sensores de dinâmica da máquina que obtêm informação de dinâmica de máquina, e os sensores de tempo real que sensoreiam variáveis de tempo de marcha.
[00260] O exemplo 8 é a máquina agrícola de acordo com qualquer ou todos dos exemplos anteriores, o sistema de controle de ativação de bocal incluindo: um tempo de atraso no gerador que gera um primeiro tempo de atraso antes de a válvula controlável identificada dever ser ativada com base nos valores de dimensão, dinâmicas de máquina, e variáveis de tempo de marcha; e um gerador de tempo de atraso de desligamento que gera um segundo tempo de atraso antes de a válvula controlável identificada dever ser desativada, um controlador de válvula gerando um sinal de controle de válvula para controlar a válvula controlável identificada com base no primeiro tempo de atraso e no segundo tempo de atraso.
[00261] O exemplo 9 é a máquina agrícola de acordo com qualquer ou todos dos exemplos anteriores em que cada um da pluralidade de sensores ópticos tem um correspondente campo de visão, e em que o sistema de identificação de alvo é configurado para identificar o alvo em uma região de interesse em um campo de visão de um dentre a pluralidade de sensores ópticos.
[00262] O exemplo 10 é a máquina agrícola de acordo com qualquer ou todos dos exemplos anteriores em que o sistema de remapeamento de imagem é configurado para remapear a região de interesse para uma região de interesse no solo com base na variável de posição de lança.
[00263] O exemplo 11 é a máquina agrícola de acordo com qualquer ou todos dos exemplos anteriores, o sistema de remapeamento de imagem incluindo: um identificador de coeficiente de mapeamento que identifica coeficientes de mapeamento com base na variável de posição de lança; e um identificador de região de interesse configurado para aplicar os coeficientes de mapeamento identificados à pelo menos uma imagem para identificar uma porção da pelo menos uma imagem correspondente à região de interesse.
[00264] O exemplo 12 é a máquina agrícola de acordo com qualquer ou todos dos exemplos anteriores, o sistema de identificação de alvo incluindo: um localizador de alvo que identifica um local do alvo no solo com base nos coeficientes de mapeamento identificados.
[00265] O exemplo 13 é a máquina agrícola de acordo com qualquer ou todos dos exemplos anteriores e adicionalmente incluindo: uma pluralidade de módulos de processamento de imagem montados à lança, cada módulo de processamento de imagem recebendo imagens de um diferente conjunto de sensores ópticos na pluralidade de sensores ópticos, e em que a pluralidade de válvulas controláveis inclui uma pluralidade de diferentes conjuntos de válvulas controláveis, cada uma das válvulas controláveis aplicando material a uma diferente área de tratamento, cada sensor óptico capturando uma imagem de alvos para tratamento por um dentre a pluralidade de diferentes conjuntos de válvulas controláveis.
[00266] O exemplo 14 é a máquina agrícola de acordo com qualquer ou todos dos exemplos anteriores em que a pluralidade de módulos de processamento de imagem é configurada para realizar um processo de identificação de sequência para identificar uma configuração sequencial dos módulos de processamento de imagem uns com relação aos outros, cada módulo de processamento de imagem sendo adicionalmente configurado para acessar dados de configuração para identificar, como os sensores ópticos conectados, o conjunto de sensores ópticos dos quais o módulo de processamento de imagem recebe imagens, e que o conjunto da pluralidade de diferentes conjuntos de válvulas controláveis corresponde aos sensores ópticos conectados.
[00267] O exemplo 15 é um método para controlar uma máquina agrícola que se desloca através de um campo em uma direção de deslocamento, incluindo: sensoriar uma imagem de uma porção do campo à frente de uma válvula controlável na direção de deslocamento, a válvula controlável montada em uma lança transportada pela máquina agrícola e sendo controlável para aplicar material ao campo, o material sendo bombeado por uma bomba de um reservatório de material para a válvula controlável; identificar um alvo na imagem; detectar uma variável de posição de lança indicativa de uma altura da lança com relação ao campo; e gerar um sinal de controle de válvula para controlar a válvula controlável para aplicar o material ao alvo.
[00268] O exemplo 16 é o método de acordo com qualquer ou todos dos exemplos anteriores em que a máquina agrícola inclui uma pluralidade de válvulas controláveis montadas na lança, cada válvula tendo um correspondente bocal, cada bocal dirigindo o material da correspondente válvula para uma área de aplicação no campo e uma pluralidade de sensores ópticos montados na lança, cada sensor óptico tendo um campo de visão no campo em que identificando um alvo inclui: identificar que da pluralidade de válvulas controláveis tem uma área de aplicação correspondente ao local do alvo no campo.
[00269] O exemplo 17 é o método de acordo com qualquer ou todos dos exemplos anteriores em que gerar um sinal de controle de válvula inclui: identificar uma temporização definindo quando a válvula controlável identificada deve ser ativada e desativada.
[00270] O exemplo 18 é o método de acordo com qualquer ou todos dos exemplos anteriores em que identificando uma temporização inclui: obter valores de dimensão indicativos de dimensões de máquina, os sensores de dinâmica da máquina que obtêm informação de dinâmica de máquina, e os sensores de tempo real que sensoreiam variáveis de tempo de marcha; gerar um primeiro tempo de atraso antes de a válvula controlável identificada dever ser ativada com base nos valores de dimensão, dinâmicas de máquina, e variáveis de tempo de marcha; e gerar um segundo tempo de atraso antes de a válvula controlável identificada dever ser desativada, em que gerar um sinal de controle de válvulas compreende gerar um sinal de controle de válvula para controlar a válvula controlável identificada com base no primeiro tempo de atraso e no segundo tempo de atraso.
[00271] O exemplo 19 é uma máquina agrícola que se desloca através de um campo em uma direção de deslocamento, compreendendo: um reservatório de material; uma lança montada transversalmente a um eixo geométrico longitudinal da máquina agrícola; uma pluralidade de válvulas controláveis montadas à lança; uma bomba que bombeia material do reservatório de material to a pluralidade de válvulas controláveis; uma pluralidade de sensores ópticos que capturam, cada, uma imagem separada de uma diferente porção do campo, à frente das válvulas controláveis, na direção de deslocamento; Um sistema de identificação de alvo que identifica alvos nas imagens separadas; e Um controlador de válvula que gera o sinal de controle de válvulas para controlar as válvulas controláveis para aplicar o material aos alvos.
[00272] O exemplo 20 é a máquina agrícola de acordo com qualquer ou todos dos exemplos anteriores e adicionalmente incluindo: um detector de posição de lança que detecta uma variável de posição de lança indicativa de uma altura da lança com relação ao campo e em que o sistema de identificação de alvo compreende um sistema de remapeamento de imagem que identifica um local do alvo no campo com base em um local do alvo na imagem e com base na variável de posição de lança.
[00273] Embora a matéria tenha sido descrita em linguagem específica às características estruturais e/ou atos metodológicos, deve ser entendido que a matéria definida nas reivindicações anexas não é necessariamente limitada às características específicas ou atos descritos acima. Ao contrário, as características específicas e atos descritos acima são expostos como formas de exemplo de implementação das reivindicações.

Claims (15)

  1. Máquina agrícola (100) que se desloca através de um campo em uma direção de deslocamento, caracterizada pelo fato de que compreende: um reservatório de material; uma válvula controlável (190); uma bomba (184) que bombeia material do reservatório de material para a válvula controlável (190); uma pluralidade de sensores ópticos (122) que capturam, cada, uma imagem, de uma pluralidade de imagens capturadas, de uma porção do campo à frente da válvula controlável (190) na direção de deslocamento; um módulo de processamento (124) que recebe a pluralidade de imagens capturadas e inclui um sistema de identificação de alvo (158) que identifica um alvo em pelo menos uma imagem da pluralidade de imagens capturadas; e um controlador de válvula (170) que gera um sinal de controle de válvula para controlar a válvula controlável (190) para aplicar o material ao alvo.
  2. Máquina agrícola de acordo com a reivindicação 1, caracterizada pelo fato de que o sistema de identificação de alvo incluindo: um sistema de remapeamento de imagem que identifica um local do alvo no campo com base em um local do alvo na pelo menos uma imagem.
  3. Máquina agrícola de acordo com a reivindicação 2, caracterizada pelo fato de que a máquina agrícola compreende um eixo geométrico longitudinal e compreende adicionalmente: uma lança montada transversalmente ao eixo geométrico longitudinal da máquina agrícola, a pluralidade de sensores ópticos e a válvula controlável sendo montadas na lança; e um detector de posição de lança que detecta uma variável de posição de lança indicativa de uma altura da lança com relação ao campo.
  4. Máquina agrícola de acordo com a reivindicação 3, caracterizada pelo fato de que compreende adicionalmente: uma pluralidade de válvulas controláveis montadas na lança, cada válvula tendo um correspondente bocal, cada bocal dirigindo o material da correspondente válvula para uma área de aplicação no campo.
  5. Máquina agrícola de acordo com a reivindicação 4, caracterizada pelo fato de que o sistema de identificação de alvo inclui: um sistema de identificação de bocal que identifica qual da pluralidade de válvulas controláveis tem uma área de aplicação correspondente ao local do alvo no campo.
  6. Máquina agrícola de acordo com a reivindicação 5, caracterizada pelo fato de que o sistema de identificação de alvo inclui: um sistema de controle de ativação de bocal que identifica uma temporização definindo quando a válvula controlável identificada deve ser ativada e desativada.
  7. Máquina agrícola de acordo com a reivindicação 6, caracterizada pelo fato de que o sistema de controle de ativação de bocal inclui: um conjunto de sensores de valor de variável que obtém pelo menos um dentre valores de dimensão indicativos de dimensões de máquina, os sensores de dinâmica da máquina que obtêm informação de dinâmica de máquina, e os sensores de tempo real que sensoreiam variáveis de tempo de marcha.
  8. Máquina agrícola de acordo com a reivindicação 7, caracterizada pelo fato de que o sistema de controle de ativação de bocal inclui: um tempo de atraso no gerador que gera um primeiro tempo de atraso antes de a válvula controlável identificada dever ser ativada com base nos valores de dimensão, dinâmicas de máquina, e variáveis de tempo de marcha; e um gerador de tempo de atraso de desligamento que gera um segundo tempo de atraso antes de a válvula controlável identificada dever ser desativada, um controlador de válvula gerando um sinal de controle de válvula para controlar a válvula controlável identificada com base no primeiro tempo de atraso e no segundo tempo de atraso.
  9. Máquina agrícola de acordo com a reivindicação 3, caracterizada pelo fato de que cada um da pluralidade de sensores ópticos tem um correspondente campo de visão, e em que o sistema de identificação de alvo é configurado para identificar o alvo em uma região de interesse em um campo de visão de um dentre a pluralidade de sensores ópticos.
  10. Máquina agrícola de acordo com a reivindicação 9, caracterizada pelo fato de que o sistema de remapeamento de imagem é configurado para remapear a região de interesse para uma região de interesse no solo com base na variável de posição de lança.
  11. Máquina agrícola de acordo com a reivindicação 10, caracterizada pelo fato de que o sistema de remapeamento de imagem inclui: um identificador de coeficiente de mapeamento que identifica coeficientes de mapeamento com base na variável de posição de lança; e um identificador de região de interesse configurado para aplicar os coeficientes de mapeamento identificados à pelo menos uma imagem para identificar uma porção da pelo menos uma imagem correspondente à região de interesse.
  12. Máquina agrícola de acordo com a reivindicação 11, caracterizada pelo fato de que o sistema de identificação de alvo inclui: um localizador de alvo que identifica um local do alvo no solo com base nos coeficientes de mapeamento identificados.
  13. Máquina agrícola de acordo com a reivindicação 4, caracterizada pelo fato de que inclui adicionalmente: uma pluralidade de módulos de processamento de imagem montados à lança, cada módulo de processamento de imagem recebendo imagens de um diferente conjunto de sensores ópticos na pluralidade de sensores ópticos, e em que a pluralidade de válvulas controláveis inclui uma pluralidade de diferentes conjuntos de válvulas controláveis, cada uma das válvulas controláveis aplicando material a uma diferente área de tratamento, cada sensor óptico capturando uma imagem de alvos para tratamento por um dentre a pluralidade de diferentes conjuntos de válvulas controláveis; e em que a pluralidade de módulos de processamento de imagem é configurada para realizar um processo de identificação de sequência para identificar uma configuração sequencial dos módulos de processamento de imagem uns com relação aos outros, cada módulo de processamento de imagem sendo adicionalmente configurado para acessar dados de configuração para identificar, como os sensores ópticos conectados, o conjunto de sensores ópticos dos quais o módulo de processamento de imagem recebe imagens, e que o conjunto da pluralidade de diferentes conjuntos de válvulas controláveis corresponde aos sensores ópticos conectados.
  14. Método para controlar uma máquina agrícola (100) que se desloca através de um campo em uma direção de deslocamento, caracterizado pelo fato de que inclui: sensoriar uma imagem de uma porção do campo à frente de uma válvula controlável (170) na direção de deslocamento, a válvula controlável (190) montada em uma lança (118) transportada pela máquina agrícola (100) e sendo controlável para aplicar material ao campo, o material sendo bombeado por uma bomba (184) de um reservatório de material para a válvula controlável (190); identificar um alvo na imagem; detectar uma variável de posição de lança indicativa de uma altura da lança (118) com relação ao campo; e gerar um sinal de controle de válvula para controlar a válvula controlável (190) para aplicar o material ao alvo.
  15. Máquina agrícola (100) que se desloca através de um campo em uma direção de deslocamento, caracterizada pelo fato de que compreende: um reservatório de material; uma lança (118) montada transversalmente a um eixo geométrico longitudinal da máquina agrícola (100); uma pluralidade de válvulas controláveis (190) montadas à lança (118); uma bomba (184) que bombeia material do reservatório de material to a pluralidade de válvulas controláveis (190); uma pluralidade de sensores ópticos (122) que capturam, cada, uma imagem separada de uma diferente porção do campo, à frente das válvulas controláveis (190), na direção de deslocamento; um sistema de identificação de alvo (158) que identifica alvos nas imagens separadas; e um controlador de válvula (170) que gera o sinal de controle de válvulas para controlar as válvulas controláveis (190) para aplicar o material aos alvos.
BR102021016489-1A 2020-12-21 2021-08-19 Máquina agrícola, e, método para controlar uma máquina agrícola BR102021016489A2 (pt)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
US202063128435P 2020-12-21 2020-12-21
US63/128,435 2020-12-21
US17/172,290 2021-02-10
US17/172,290 US20220192174A1 (en) 2020-12-21 2021-02-10 Agricultural sprayer with real-time, on-machine target sensor

Publications (1)

Publication Number Publication Date
BR102021016489A2 true BR102021016489A2 (pt) 2022-07-05

Family

ID=78844706

Family Applications (1)

Application Number Title Priority Date Filing Date
BR102021016489-1A BR102021016489A2 (pt) 2020-12-21 2021-08-19 Máquina agrícola, e, método para controlar uma máquina agrícola

Country Status (4)

Country Link
US (1) US20220192174A1 (pt)
EP (1) EP4014733A1 (pt)
AU (1) AU2021273511A1 (pt)
BR (1) BR102021016489A2 (pt)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11832609B2 (en) 2020-12-21 2023-12-05 Deere & Company Agricultural sprayer with real-time, on-machine target sensor
US11944087B2 (en) 2020-12-21 2024-04-02 Deere & Company Agricultural sprayer with real-time, on-machine target sensor
US11793187B2 (en) * 2021-01-15 2023-10-24 Cnh Industrial America Llc System and method for monitoring agricultural fluid deposition rate during a spraying operation
US20230189783A1 (en) * 2021-12-22 2023-06-22 Cnh Industrial America Llc System and method for an agricultural applicator
US20230292734A1 (en) * 2022-03-18 2023-09-21 Agco Corporation Systems and methods for applying herbicide to agricultural fields
EP4316239A1 (en) * 2022-08-03 2024-02-07 Deere & Company Agricultural machine and method of identifying a nozzle in an active position and its characteristics on the agricultural machine

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
ES2922250T3 (es) * 2017-02-06 2022-09-12 Bilberry Sas Pulverizador agrícola
FR3063206B1 (fr) * 2017-02-24 2021-08-13 Bilberry Sas Systeme de controle pour epandage agricole
US11903379B2 (en) * 2020-12-08 2024-02-20 Cnh Industrial America Llc System and method for performing spraying operations with an agricultural sprayer

Also Published As

Publication number Publication date
AU2021273511A1 (en) 2022-07-07
US20220192174A1 (en) 2022-06-23
EP4014733A1 (en) 2022-06-22

Similar Documents

Publication Publication Date Title
BR102021016489A2 (pt) Máquina agrícola, e, método para controlar uma máquina agrícola
BR102021020993A2 (pt) Máquina agrícola, e, método para controlar uma máquina agríola
US11690368B2 (en) Agricultural plant detection and control system
US11998000B2 (en) Camera system visualization and control for an agricultural spraying machine
US10089712B2 (en) System and method providing automatic alignment of aerial/satellite imagery to known ground features
EP3991553B1 (en) Diagnostic system visualization and control for an agricultural spraying machine
EP3991552B1 (en) Agricultural machine spraying mode field map visualization and control
CN110718137A (zh) 目标物密度分布地图的构建方法及装置、终端、移动装置
US20230343090A1 (en) Automated Treatment of an Agricultural Field
BR102021020118A2 (pt) Máquina agrícola, e, método para controlar uma máquina agrícola
Ospina et al. Simultaneous mapping and crop row detection by fusing data from wide angle and telephoto images
US20230230202A1 (en) Agricultural mapping and related systems and methods
CN116543309B (zh) 一种作物异常信息获取方法、系统、电子设备及介质
AU2021246257B2 (en) Agricultural systems and methods
CN114485612B (zh) 路线生成方法、装置、无人作业车、电子设备及存储介质
US20220058770A1 (en) Plant identification using dynamic cropping
BR102023011804A2 (pt) Método implementado por computador para controlar um pulverizador agrícola, e, sistema agrícola
CN114782552A (zh) 一种利用几何畸变参数进行无人机光谱影像辐射标定方法
BR102022026786A2 (pt) Calibração de conjunto de câmeras em máquina agrícola

Legal Events

Date Code Title Description
B03A Publication of a patent application or of a certificate of addition of invention [chapter 3.1 patent gazette]