BR102020009247A2 - método para controlar uma máquina de trabalho móvel, e, máquinas de trabalho móvel e agrícola - Google Patents
método para controlar uma máquina de trabalho móvel, e, máquinas de trabalho móvel e agrícola Download PDFInfo
- Publication number
- BR102020009247A2 BR102020009247A2 BR102020009247-2A BR102020009247A BR102020009247A2 BR 102020009247 A2 BR102020009247 A2 BR 102020009247A2 BR 102020009247 A BR102020009247 A BR 102020009247A BR 102020009247 A2 BR102020009247 A2 BR 102020009247A2
- Authority
- BR
- Brazil
- Prior art keywords
- image
- color vector
- distance
- terrain
- generate
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims abstract description 39
- 230000004044 response Effects 0.000 claims abstract description 34
- 230000003595 spectral effect Effects 0.000 claims abstract description 34
- 239000013598 vector Substances 0.000 claims description 79
- 238000001556 precipitation Methods 0.000 claims description 28
- 238000010191 image analysis Methods 0.000 claims description 26
- 238000004891 communication Methods 0.000 claims description 21
- 230000007246 mechanism Effects 0.000 claims description 17
- 230000000875 corresponding effect Effects 0.000 description 20
- 238000004140 cleaning Methods 0.000 description 14
- 238000004364 calculation method Methods 0.000 description 11
- 230000001276 controlling effect Effects 0.000 description 9
- 239000002699 waste material Substances 0.000 description 9
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 description 9
- 238000012545 processing Methods 0.000 description 8
- 238000010586 diagram Methods 0.000 description 7
- 230000001960 triggered effect Effects 0.000 description 7
- 230000002411 adverse Effects 0.000 description 5
- 239000000446 fuel Substances 0.000 description 5
- 230000006870 function Effects 0.000 description 5
- 239000000463 material Substances 0.000 description 5
- 230000003287 optical effect Effects 0.000 description 5
- 230000008859 change Effects 0.000 description 4
- 238000010183 spectrum analysis Methods 0.000 description 4
- 239000010902 straw Substances 0.000 description 4
- 241001124569 Lycaenidae Species 0.000 description 3
- 230000001413 cellular effect Effects 0.000 description 3
- 238000013500 data storage Methods 0.000 description 3
- 238000003306 harvesting Methods 0.000 description 3
- 230000002093 peripheral effect Effects 0.000 description 3
- 239000002689 soil Substances 0.000 description 3
- 238000012546 transfer Methods 0.000 description 3
- 229920000742 Cotton Polymers 0.000 description 2
- 240000000111 Saccharum officinarum Species 0.000 description 2
- 235000007201 Saccharum officinarum Nutrition 0.000 description 2
- 239000000969 carrier Substances 0.000 description 2
- 238000010276 construction Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 239000004459 forage Substances 0.000 description 2
- 238000007726 management method Methods 0.000 description 2
- 210000003813 thumb Anatomy 0.000 description 2
- 230000007723 transport mechanism Effects 0.000 description 2
- 230000000007 visual effect Effects 0.000 description 2
- 101000822695 Clostridium perfringens (strain 13 / Type A) Small, acid-soluble spore protein C1 Proteins 0.000 description 1
- 101000655262 Clostridium perfringens (strain 13 / Type A) Small, acid-soluble spore protein C2 Proteins 0.000 description 1
- 101000655256 Paraclostridium bifermentans Small, acid-soluble spore protein alpha Proteins 0.000 description 1
- 101000655264 Paraclostridium bifermentans Small, acid-soluble spore protein beta Proteins 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 230000010267 cellular communication Effects 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 230000002596 correlated effect Effects 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 230000005055 memory storage Effects 0.000 description 1
- 238000012552 review Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/161—Detection; Localisation; Normalisation
- G06V40/162—Detection; Localisation; Normalisation using pixel segmentation or colour matching
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/22—Matching criteria, e.g. proximity measures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2413—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on distances to training or reference patterns
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/60—Analysis of geometric attributes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/90—Determination of colour characteristics
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/74—Image or video pattern matching; Proximity measures in feature spaces
- G06V10/75—Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
- G06V10/751—Comparing pixel values or logical combinations thereof, or feature values having positional relevance, e.g. template matching
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/74—Image or video pattern matching; Proximity measures in feature spaces
- G06V10/761—Proximity, similarity or dissimilarity measures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/10—Terrestrial scenes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/10—Terrestrial scenes
- G06V20/13—Satellite images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/10—Terrestrial scenes
- G06V20/17—Terrestrial scenes taken from planes or by drones
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/10—Terrestrial scenes
- G06V20/188—Vegetation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/58—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
-
- A—HUMAN NECESSITIES
- A01—AGRICULTURE; FORESTRY; ANIMAL HUSBANDRY; HUNTING; TRAPPING; FISHING
- A01B—SOIL WORKING IN AGRICULTURE OR FORESTRY; PARTS, DETAILS, OR ACCESSORIES OF AGRICULTURAL MACHINES OR IMPLEMENTS, IN GENERAL
- A01B69/00—Steering of agricultural machines or implements; Guiding agricultural machines or implements on a desired track
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30181—Earth observation
- G06T2207/30188—Vegetation; Agriculture
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- Software Systems (AREA)
- Computing Systems (AREA)
- Databases & Information Systems (AREA)
- Medical Informatics (AREA)
- Remote Sensing (AREA)
- Life Sciences & Earth Sciences (AREA)
- Data Mining & Analysis (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Human Computer Interaction (AREA)
- Astronomy & Astrophysics (AREA)
- Bioinformatics & Cheminformatics (AREA)
- General Engineering & Computer Science (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Computational Biology (AREA)
- Geometry (AREA)
- Environmental Sciences (AREA)
- Soil Sciences (AREA)
- Mechanical Engineering (AREA)
- Image Processing (AREA)
- Navigation (AREA)
- Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
- Instructional Devices (AREA)
Abstract
Um método para controlar uma máquina de trabalho móvel inclui receber uma imagem de resposta espectral em uma área de terreno correspondente a um trajeto da máquina de trabalho móvel, gerar uma métrica de distância de imagem com base em uma distância entre a resposta espectral e um modelo de resposta espectral de base correspondente ao terreno, comparar a métrica de distância de imagem com um limiar de distância, e controlar um subsistema controlável da máquina de trabalho móvel com base na comparação.
Description
[001] A presente descrição no geral se refere a máquinas de trabalho móveis. Mais especificamente, mas não a título de limitação, a presente descrição se refere a análise de imagem de terreno para controlar uma máquina agrícola, tal como uma colheitadeira combinada.
[002] Existe uma ampla variedade de diferentes tipos de máquinas de trabalho móveis. Elas incluem máquinas tais como máquinas de construção, máquinas de gerenciamento de turfe, máquinas florestais, máquinas agrícolas, etc.
[003] Durante operações de trabalho, as máquinas utilizam unidades de tração, incluindo rodas, esteiras, etc., acionadas por sistemas de propulsão para cruzar um terreno que consiste em condições de solo variáveis, que podem afetar adversamente a operação da máquina.
[004] Por exemplo, em uma operação agrícola de exemplo, uma colheitadeira (por exemplo, colheitadeira combinada, colheitadeira de forragem, colheitadeira de algodão, colheitadeira de cana de açúcar) cruza um campo para colher lavouras. A máquina pode encontrar áreas de água parada ou lama que podem fazer com que a máquina fique atolada.
[005] A discussão apresentada é meramente provida para informação de fundo geral e não deve ser usada como uma ajuda na determinação do escopo da matéria objeto reivindicada.
[006] Um método para controlar uma máquina de trabalho móvel inclui receber uma imagem de resposta espectral em uma área de terreno correspondente a um trajeto da máquina de trabalho móvel, gerar uma métrica de distância de imagem com base em uma distância entre a resposta espectral e um modelo de resposta espectral de base correspondente ao terreno, comparar a métrica de distância de imagem com um limiar de distância, e controlar um subsistema controlável da máquina de trabalho móvel com base na comparação.
[007] Este Sumário é provido para introduzir uma seleção de conceitos em uma forma simplificada que são adicionalmente descritos a seguir na Descrição Detalhada. Este Sumário não visa identificar recursos chaves ou recursos essenciais da matéria objeto reivindicada, nem é para ser usado como uma ajuda na determinação do escopo da matéria objeto reivindicada. A matéria objeto reivindicada não é limitada às implementações que solucionam qualquer ou todas as desvantagens notadas nos fundamentos.
[008] A FIG. 1 é um diagrama de blocos mostrando um exemplo de uma arquitetura de sistema de computação que inclui uma máquina de trabalho móvel.
[009] A FIG. 2 é uma ilustração pictorial parcial, esquemática parcial de um exemplo de uma máquina de trabalho móvel na forma de uma colheitadeira combinada.
[0010] A FIG. 3 é um fluxograma de um método de exemplo realizado pela arquitetura mostrada na FIG. 1.
[0011] A FIG. 4 é um fluxograma de um método de exemplo para gerar um modelo de resposta espectral de base.
[0012] A FIG. 5 é um fluxograma de um método de exemplo para calcular uma distância de imagem.
[0013] A FIG. 6 ilustra imagens de exemplo e valores de distância correspondentes.
[0014] A FIG. 7 é um diagrama de blocos mostrando um exemplo da arquitetura ilustrada na FIG. 1, desdobrada em um ambiente de servidor remoto.
[0015] As FIGS. 8-10 mostram exemplos de dispositivos móveis que podem ser usados nas arquiteturas mostradas nas figuras anteriores.
[0016] A FIG. 11 é um diagrama de blocos mostrando um exemplo de um ambiente de computação que pode ser usado nas arquiteturas mostradas nas figuras anteriores.
[0017] A FIG. 1 é um diagrama de blocos mostrando um exemplo de uma arquitetura de sistema de computação 100 na qual uma máquina de trabalho móvel 102 é desdobrada. A máquina de trabalho móvel 102 pode compreender qualquer de uma variedade de diferentes tipos de máquinas de trabalho móveis, tais como as supradiscutidas. Por exemplo, a máquina de trabalho 102 pode compreender uma máquina de construção, uma máquina de gerenciamento de turfe, uma máquina florestal, ou outro tipo de máquina. No exemplo ilustrado, mas não a título de limitação, a máquina de trabalho móvel 102 compreende uma máquina agrícola configurada para realizar uma operação agrícola enquanto cruza um terreno. A título de ilustração, mas não de limitação, a máquina de trabalho móvel 102 será descrita no contexto de uma combinada que realiza uma operação de colheita enquanto cruza um campo. Um exemplo de uma combinada é discutido a seguir com relação à FIG. 2.
[0018] Resumidamente, a máquina 102 inclui um ou mais processadores 104, um sistema de comunicação 106, um armazenamento de dados 108, um conjunto de sensores 110, um sistema de controle 112, subsistemas controláveis 114, mecanismos de interface de operador 116, e pode incluir uma ampla variedade de outros itens 118. O operador 120 interage com mecanismos de interface de operador 116 a fim de controlar e manipular a máquina 102. Portanto, os mecanismos de interface de operador 116 podem incluir alavancas, um volante, manetes de jogos, botões, pedais, articulações, etc. Onde mecanismos 116 incluem uma tela de exibição sensível ao toque, então eles podem também incluir elementos atuáveis pelo operador, tais como ligações, ícones, botões, etc. que podem ser acionados usando um dispositivo de apontamento e clique ou gestos de toque. Onde mecanismos 116 incluem funcionalidade de processamento de fala, então eles podem incluir um microfone, um alto-falante, e outros itens para receber comandos de fala e gerar saídas de fala sintetizada. Eles podem incluir uma ampla variedade de outros mecanismos visuais, de áudio e hápticos.
[0019] Os sensores 110 podem incluir um sensor de posição 122, um sensor de direção 124, um sensor de velocidade 126, e podem incluir outros sensores 128 igualmente. O sensor de posição 122, como discutido em detalhe adicional a seguir, é configurado para gerar um sinal indicativo da posição geográfica da máquina 102. Por exemplo, o sensor de posição 122 pode compreender um sensor de sistema de posicionamento global (GPS), ou outro sensor adequado para detectar a posição de máquina atual 102. O sensor de direção 124 gera um sinal indicativo de uma direção ou rota que a máquina 102 está adotando, e o sensor de velocidade 126 é configurado para gerar um sinal indicativo de uma velocidade atual da máquina 102.
[0020] Os subsistemas controláveis 114 podem incluir um sistema de propulsão 130, um subsistema de direção 132, acionadores de máquina 134, um subsistema de potência 136, e podem incluir outros subsistemas controláveis 138 igualmente. O sistema de propulsão 130 pode incluir um motor ou outra fonte de potência que controla a propulsão da máquina 102. O subsistema de direção 132 pode incluir acionadores que podem ser acionados para esterçar a máquina 102. Acionadores de máquina 134 podem incluir qualquer de uma ampla variedade de diferentes tipos de acionadores que podem ser usados para mudar definições de máquina, mudar configuração de máquina, levantar e abaixar elementos estruturais (tal como uma ponteira no caso de uma combinada), mudar velocidades de diferentes subsistemas, etc. O subsistema de potência 248 pode ser usado para controlar a utilização de potência da máquina 102. Ele pode ser usado para controlar quanto potência é alocada a diferentes subsistemas, etc.
[0021] A FIG. 2 é uma ilustração pictorial parcial, esquemática parcial de um exemplo de uma máquina agrícola 200, em um exemplo onde a máquina 200 é uma colheitadeira combinada (ou combinada). Pode-se ver na FIG. 2 que a combinada 200 ilustrativamente inclui um compartimento do operador 201, que pode ter uma variedade de diferentes mecanismos de interface de operador, para controlar a combinada 200, como será discutido em mais detalhe a seguir. A combinada 200 pode incluir um conjunto de equipamento de extremidade dianteira que pode incluir ponteira 202, e um cortador no geral indicado por 204. Ela pode também incluir uma câmara de alimentação 206, um acelerador de alimentação 208, e um trilhador no geral indicado por 210. O trilhador 210 ilustrativamente inclui um rotor de trilhagem 212 e um conjunto de côncavos 214. Adicionalmente, a combinada 200 pode incluir um separador 216 que inclui um rotor de separador. A combinada 200 pode incluir um subsistema de limpeza (ou sapata de limpeza) 218 que, por si, pode incluir uma ventoinha de limpeza 220, picador de palha 222 e peneira 224. O subsistema de manuseio de material na combinada 200 pode incluir (além de uma câmara de alimentação 206 e acelerador de alimentação 208) batedor de descarga 226, elevador de refugos 228, elevador de grão limpo 230 (que move grão limpo para o tanque de grão limpo 232) bem como trado de descarga 234 e bocal 236. A combinada 200 pode adicionalmente incluir um subsistema de resíduos 238 que pode incluir picador 240 e espalhador 242. A combinada 200 pode também ter um subsistema de propulsão que inclui um motor (ou outra fonte de potência) que aciona rodas de engate no terreno 244 ou esteiras, etc. Nota-se que a combinada 200 pode também ter mais que um de qualquer dos subsistemas supramencionados (tais como sapatas de limpeza esquerda e direita, separadores, etc.).
[0022] Em operação, e a título de revisão, a combinada 200 ilustrativamente move através de um campo na direção indicada pela seta 246. À medida que ela move, a ponteira 202 engata a lavoura a ser colhida e agrupa-a em direção ao cortador 204. Após ela ser cortada, ela é movimentada através de um transportador na câmara de alimentação 206 para o acelerador de alimentação 208, que acelera a lavoura para o trilhador 210. A lavoura é trilhada pelo rotor 212 que roda a lavoura contra o côncavo 214. A lavoura trilhada é movimentada por um rotor de separador no separador 216 onde parte do resíduo é movimentado pelo batedor de descarga 226 para o subsistema de resíduos 238. Ela pode ser picado pelo picador de resíduo 240 e espalhada no campo pelo espalhador 242. Em outras implementações, o resíduo é simplesmente solto em uma leira, em vez de ser picado e espalhado.
[0023] Grão cai na sapata de limpeza (ou subsistema de limpeza) 218. O picador de palha 222 separa parte de material maior do grão, e a peneira 224 separa parte do material mais fino do grão limpo. Grão limpo cai em um trado no elevador de grão limpo 230, que move o grão limpo para cima e deposita-o no tanque de grão limpo 232. O resíduo pode ser removido da sapata de limpeza 218 pelo fluxo de ar gerado pela ventoinha de limpeza 220. Esse resíduo pode também ser movimentado para trás na combinada 200 em direção ao subsistema de manuseio de resíduo 238.
[0024] Refugos podem ser movimentados pelo elevador de refugos 228 de volta para o trilhador 210 onde eles podem ser retrilhados. Alternativamente, os refugos podem também ser passados a um mecanismo de retrilhagem separado (também usando um elevador de refugos ou um outro mecanismo de transporte) onde eles podem ser retrilhados igualmente.
[0025] A FIG. 2 também mostra que, em um exemplo, a combinada 200 pode incluir sensor de velocidade em relação ao terreno 247, um ou mais sensores de perda no separador 248, uma câmera de grão limpo 250, e um ou mais sensores de perda na sapata de limpeza 252. O sensor de velocidade em relação ao terreno 247 ilustrativamente sensoreia a velocidade de deslocamento da combinada 200 sobre o terreno. Isto pode ser feito sensoreando a velocidade de rotação das rodas, do eixo de acionamento, do eixo de rodas, ou de outros componentes. A velocidade de deslocamento e posição da combinada 200 podem também ser sensoreadas por um sistema de posicionamento 257, tais como um sistema de posicionamento global (GPS), um sistema de posicionamento relativo, um sistema LORAN, ou uma ampla variedade de outros sistemas ou sensores que fornecem uma indicação de velocidade de deslocamento.
[0026] Os sensores de perda na sapata de limpeza 252 ilustrativamente provêm um sinal de saída indicativo da quantidade de perda de grão pelos lados tanto direito quanto esquerdo da sapata de limpeza 218. Em um exemplo, os sensores 252 são sensores de colisão (ou sensores de impacto) que contam colisões de grão por unidade de tempo (ou por unidade de distância deslocada) para prover uma indicação da perda de grão na sapata de limpeza. Os sensores de colisão para os lados direito e esquerdo da sapata de limpeza podem prover sinais individuais, ou um sinal combinado ou agregado. Nota-se que os sensores 252 podem compreender apenas um sensor simples igualmente, em vez de sensores separados para cada sapata.
[0027] O sensor de perda no separador 248 provê um sinal indicativo de perda de grão nos separadores esquerdo e direito. Os sensores associados com os separadores esquerdo e direito podem prover sinais de perda de grão separados ou um sinal combinado ou agregado. Isto pode ser feito usando uma ampla variedade de diferentes tipos de sensores igualmente. Nota-se que os sensores de perda no separador 248 podem também compreender apenas um sensor simples, em vez de sensores esquerdo e direito separados.
[0028] Percebe-se também que o sensor e mecanismos de medição (além dos sensores já descritos) podem incluir outros sensores na combinada 200 igualmente. Por exemplo, eles podem incluir um sensor de definição de resíduo que é configurado para sensorear se a máquina 200 é configurada para picar o resíduo, formar uma leira, etc. Eles podem incluir sensores de velocidade da ventoinha da sapata de limpeza que podem ser configurados próximos à ventoinha 220 para sensorear a velocidade da ventoinha. Eles podem incluir um sensor de folga de trilhagem que sensoreia a folga entre o rotor 212 e os côncavos 214. Eles incluem um sensor de velocidade do rotor de trilhagem que sensoreia uma velocidade de rotor do rotor 212. Eles podem incluir um sensor de folga do picador de palha que sensoreia o tamanho das aberturas no picador de palha 222. Eles podem incluir um sensor de folga na peneira que sensoreia o tamanho das aberturas na peneira 224. Eles podem incluir um sensor de umidade de material sem ser grão (MOG) que pode ser configurado para sensorear o nível de umidade do material sem ser grão que está passando pela combinada 200. Eles podem incluir sensores de definição de máquina que são configurados para sensorear as várias definições configuráveis na combinada 200. Eles podem também incluir um sensor de orientação de máquina que pode ser qualquer de uma ampla variedade de diferentes tipos de sensores que sensoreiam a orientação ou pose da combinada 200. Sensores de propriedade de lavoura podem sensorear uma variedade de diferentes tipos de propriedades de lavoura, tais como tipo de lavoura, umidade de lavoura, e outras propriedades de lavoura. Eles podem também ser configurados para sensorear características da lavoura à medida que ela está sendo processada pela combinada 200. Por exemplo, eles podem sensorear a taxa de alimentação de grão, à medida que ela desloca através do elevador de grão limpo 230. Eles podem sensorear produtividade como vazão de massa de grão através do elevador 230, correlacionada a uma posição da qual ele foi colhido, como indicado pelo sensor de posição 257, ou prover outros sinais de saída indicativos de outras variáveis sensoreadas. Alguns exemplos adicionais dos tipos de sensores que podem ser usados são descritos a seguir.
[0029] Também, nota-se que a FIG. 2 mostra apenas um exemplo de máquina 200. Outras máquinas, tais como colheitadeiras de forragem, colheitadeiras de algodão, colheitadeiras de cana de açúcar, etc., podem ser igualmente usadas.
[0030] Referindo-se novamente à FIG. 1, em operação, a máquina 102 é controlada pelo operador 120 para cruzar um campo ou outro terreno. A máquina 102 pode encontrar condições ou tipos de terreno inconsistentes que podem afetar adversamente a operação da máquina 102. Por exemplo, no caso de uma colheitadeira combinada que está sendo usada para colher lavouras em fileira, a máquina 102 pode encontrar água parada e/ou lama entre as fileiras que pode fazer com que as rodas (ou esteiras ou outros elementos de tração de engate no terreno) da máquina 102 fiquem atolados. Adicionalmente, essas condições de terreno adversas podem ser ocultas da vista do operador, de forma que o operador não fica à par das condições do terreno no trajeto a frente da máquina 102.
[0031] A arquitetura 100 inclui recursos configurados para detectar mudanças nas condições do terreno, de forma que o operador seja alertado ou a máquina 102 seja de outra forma controlada. Como mostrado na FIG. 1, um sistema de captura de imagem 140 é configurado para capturar imagens de uma área de terreno em um trajeto da máquina 102 (isto é, à frente da máquina 102 em sua direção de deslocamento) e um sistema de análise de imagem 142 é configurado para analisar as imagens capturadas, para detectar mudanças no terreno que são usadas para gerar sinais de controle para a máquina 102. No exemplo discutido em detalhe adicional a seguir, o resultado da análise de imagem indica a presença de água parada, solo lamacento, ou outra condição de terreno adversa que pode fazer com que a máquina 102 fique atolada ou senão afetar adversamente o desempenho da máquina 102. A análise de imagem compara a imagem como um modelo de linha de base para detectar uma diferença do terreno em relação a uma condição de terreno normal ou prevista (por exemplo, solo normal, insaturado).
[0032] O sistema de controle 112 ilustrativamente inclui lógica de geração de advertência 144 configurada para gerar um indicador de advertência ou alerta ao operador 120, para indicar a condição do terreno detectada. A lógica de controle 146 é configurada para controlar subsistemas 114 com base na condição de terreno detectada. O sistema de controle 112 pode incluir outros itens 148 igualmente.
[0033] Antes de discutir sistemas 140 e 142 em detalhe adicional, nota-se que eles são mostrados na FIG. 1 como blocos separados apenas por questão de ilustração. Um ou ambos os sistemas 140 e 142 (ou partes dos mesmos) podem ser implementados em máquina 102. Isto é indicado pelos blocos tracejados 140 e 142. Alternativamente, ou adicionalmente, um ou ambos os sistemas 140 e 142 (ou partes dos mesmos) podem ser implementados em uma outra máquina de trabalho 150 e/ou um sistema remoto 152.
[0034] Um exemplo de máquina 150 compreende um veículo aéreo não tripulado (UAV) (ou um veículo aéreo tripulado) que carrega componentes de sistema de captura de imagem 140 para capturar as imagens do terreno no trajeto da máquina 102. Um exemplo de sistema remoto 152 compreende um servidor remoto que recebe imagens capturadas do sistema de captura de imagem 140, analisa as imagens, e provê dados e sinais correspondentes à máquina 102. Esses, certamente, são apenas exemplos.
[0035] Como aqui mencionado, o sistema de captura de imagem 140 é configurado para capturar uma ou mais imagens da área em consideração (isto é, a porção do campo no trajeto da máquina 102). As imagens capturadas representam uma resposta espectral capturada pelo sistema de captura de imagem 140 que são providas ao sistema de análise de imagem 142 e/ou armazenadas em armazenamento de dados 162.
[0036] O sistema de captura de imagem 140 pode incluir um ou mais de um sistema de captura de imagem aérea 154, um sistema de captura de imagem a bordo 156 e/ou outros sistemas de captura de imagem 158. O sistema 140 também inclui um sistema de localização 160, um armazenamento de dados 162, e pode incluir outros itens 164 igualmente.
[0037] Um exemplo de sistema de captura de imagem aérea 154 inclui uma câmera ou outro componente de formação de imagem carregado em um UAV. Um exemplo de sistema de captura de imagem a bordo 156 inclui uma câmera (ou outro componente de formação de imagem) montada na, ou senão carregada pela máquina 102. Um exemplo de sistema de captura de imagem 158 inclui um sistema de formação de imagem de satélite.
[0038] O sistema de localização 160 é configurado para gerar um sinal indicando uma localização geográfica associada com a imagem capturada. Por exemplo, o sistema de localização 160 pode produzir coordenadas de GPS, que são associadas com a imagem capturada para obter imagens georreferenciada 166, que são providas ao sistema de análise de imagem 142.
[0039] O sistema de análise de imagem 142 ilustrativamente inclui um ou mais processadores ou servidores 168, um sistema de comunicação 170, um armazenamento de dados 172, lógica de análise espectral 173, lógica de agrupamento 174, lógica de cálculo de distância de imagem 176, lógica de geração de modelo 178, lógica de cálculo de limiar de distância 180, lógica de aplicação de limiar de distância 182, lógica de cálculo de fator de precipitação histórico 184, lógica de cálculo de fator de elevação 186, e pode incluir outros itens 188 igualmente.
[0040] O sistema de comunicação 170 pode ser um sistema que é configurado para comunicar por uma rede de área abrangente, uma rede de área local, uma rede de comunicação de campo próximo, uma rede de comunicação celular, ou qualquer outra de uma ampla variedade de diferentes redes ou combinações de redes.
[0041] O sistema de comunicação 170 é configurado para comunicar com o sistema de captura de imagem 140 para receber imagens capturadas com informação de localização associada (isto é, imagens georreferenciadas 166) e comunicar com a máquina de trabalho móvel 102 para enviar resultados de análise de imagem e/ou sinais de controle à máquina 102. Adicionalmente, o sistema de comunicação 170 pode também ser configurado para comunicar com outra(s) máquina(s) de trabalho 150 e sistema(s) remoto(s) 152. Adicionalmente, o sistema de comunicação 170 ilustrativamente recebe dados de elevação de terreno georreferenciados 190, e dados de precipitação histórica georreferenciados 192. Como discutido em detalhe adicional a seguir, dados de elevação de terreno georreferenciados 190 são indicativos de uma elevação relativa do terreno em consideração, em relação ao terreno adjacente ou circundante. Por exemplo, dados de elevação de terreno georreferenciados 190 podem ser utilizados para determinar a elevação relativa de uma porção de um campo em relação à elevação média para todo o campo.
[0042] Dessa forma, os dados 190 podem ser utilizados para determinar uma elevação relativa do terreno capturada na imagem, em relação ao terreno circundante, isto é, determinar se a área de terreno na imagem tem uma maior elevação do que uma elevação média para o campo (e dessa forma menos probabilidade de acumular água) ou tem uma menor elevação em relação à elevação média do campo (e dessa forma menos provável de acumular água).
[0043] Os dados 190 podem ser obtidos de uma ampla variedade de diferentes fontes. Por exemplo, os dados de elevação de terreno podem ser obtidos pelo sistema remoto 152, na forma de mapas de elevação de GPS. Alternativamente, ou adicionalmente, a máquina 102 e/ou máquina 150 pode incluir sensores configurados para detectar a elevação do terreno.
[0044] Os dados de precipitação histórica georreferenciados compreendem uma indicação de quantidades de precipitação em um período de tempo antes de a operação agrícola ser realizada pela máquina 102. Isto pode incluir totais de precipitação de um ou mais dias antes do dia atual da operação agrícola. Isto é discutido em detalhe adicional a seguir. Novamente, estes dados podem ser obtidos do sistema remoto 152, ou de outra forma.
[0045] Uma vez que as imagens georreferenciada 166 são recebidas pelo sistema de análise de imagem 142, a lógica de análise espectral 173 realiza análise espectral nas imagens. Por exemplo, a análise da imagem pode obter dados de imagem em cores, tais como dados de cor vermelha-verde-azul (RGB), dados de cor CMYK, dados de cor HSV, ou dados de imagem em outros espaços de cor.
[0046] No presente exemplo, mas não a título de limitação, o processamento de imagem será discutido no contexto do uso de vetores de cor RGB. Os dados de cor RGB se referem a um modelo de cor no qual luz vermelha, verde e azul (ou sinais ou dados representativos dos mesmos) são combinados para representar outras cores. Cada pixel ou grupo de pixels de dos dados de imagem coletados pode ser associado com um nível de parâmetro de imagem ou um valor de pixel correspondente ou valor de pixel agregado. Dessa forma, cada pixel quer dizer uma localização discreta na imagem e armazena dados para três canais (vermelho, verde e azul) para representar uma certa cor. O nível de parâmetro de imagem é um indicador ou uma medida de um parâmetro de imagem que é observado, refletido e/ou emitido por um ou mais objetos ou qualquer outra porção de um ou mais objetos na imagem.
[0047] A lógica de agrupamento 174 é configurada para agrupar valores de pixel da imagem capturada para gerar um vetor de cor de base e/ou vetor de cor médio para a imagem capturada. Isto é discutido em detalhe adicional a seguir.
[0048] A lógica de cálculo de distância de imagem 176 é configurada para calcular uma distância entre um vetor de cor de imagem, gerado para a imagem recebida, relativa a um vetor de cor de base gerado pela lógica de geração de modelo 178. Dessa forma, a distância representa um desvio, no espaço de cor RGB, entre pixel(s) da imagem capturada relativa ao vetor de cor de base. Um limiar de distância é calculado pela lógica de cálculo de limiar de distância 180. O limiar de distância pode ser um valor de distância predefinido e/ou pode ser dinamicamente atualizado durante operação da arquitetura 100. De qualquer maneira, a lógica de aplicação de limiar de distância 182 aplica o limiar de distância pela comparação da distância de imagem calculada pela lógica 176 com o limiar de distância calculado pela lógica 180.
[0049] Com base em uma determinação se a distância de imagem calculada excede o limiar de distância, o sistema de controle 112 controla a máquina de trabalho móvel 102, por exemplo, para suprir uma advertência usando a lógica 144 e/ou controlar um ou mais subsistemas 114 usando a lógica de controle 146.
[0050] Em um exemplo, a lógica 184 gera um fator de precipitação histórico com base nos dados de precipitação histórica 192. Similarmente, a lógica de cálculo de fator de elevação 186 gera um fator de elevação com base nos dados de elevação de terreno 190. Os fatores gerados pela lógica 184 e 186 podem ser aplicados ao cálculo de distância antes da comparação de limiar. Este ponderamento leva em conta uma maior (ou menor) probabilidade de que a imagem representa água parada ou lama (ou outro desvio de característica de terreno) com base em precipitação recente e/ou nas características de elevação de terreno. Para ilustrar, se chuva for detectada no(s) dia(s) anterior(es), e a elevação relativa do terreno na imagem for baixa (relativa ao terreno circundante), é mais provável que a imagem represente água parada ou condições lamacentas. Dessa forma, o fator de elevação de terreno e o fator de precipitação histórico aumentam o cálculo de distância, ao qual o limiar é aplicado.
[0051] A FIG. 3 é um fluxograma ilustrando um exemplo de um método realizado pela arquitetura de sistema de computação na FIG. 1. No bloco 302, um modelo de resposta espectral de base é gerado pela lógica de geração de modelo 178. Um exemplo de geração de um modelo de base é aqui discutido com relação à FIG. 4. Resumidamente, o modelo de resposta espectral de base representa características previstas ou normais do terreno a ser cruzado pela máquina 102. A geração de modelo de base pode ser feita para todo o campo (por exemplo, uma vez por campo) (bloco 304) ou para porções de um campo (bloco 306). Também, o modelo de base pode ser continuamente atualizado à medida que a máquina 102 cruza o campo e imagens são capturadas pelo sistema 140 e processadas pelo sistema de análise de imagem 142. Isto é representado pelo bloco 308.
[0052] No bloco 310, uma imagem de uma porção do campo em um trajeto da máquina 102 é recebida. Por exemplo, como aqui notado, isto pode compreender uma imagem recebida de uma câmera a bordo (bloco 312) montada ou senão carregada pela máquina 102. Em um exemplo, a imagem é recebida de um UAV, ou outra máquina. Isto é representado pelo bloco 314. Por exemplo, um UAV pode ser controlado para voar diretamente à frente da máquina 102 (por exemplo, diversos metros) e capturar imagens do terreno. As imagens podem ser recebidas de outras maneiras igualmente. Isto é representado pelo bloco 316. Por exemplo, imagens de satélite podem ser recebidas de um sistema baseado em satélite.
[0053] No bloco 318, a imagem recebida é processada, por exemplo, pela realização de análise espectral para determinar um vetor de cor de imagem. Isto é representado pelo bloco 320. No bloco 322, uma distância entre a resposta espectral da imagem recebida e o modelo de resposta espectral de base gerado no bloco 302 é calculada. Um exemplo de cálculo de distância de imagem é discutido a seguir com relação a FIG. 5. Resumidamente, uma distância entre um vetor de cor de imagem (por exemplo, um vetor de cor RGB) e um vetor de cor de base é determinada. Isto é representado pelo bloco 324.
[0054] Adicionalmente, a cálculo de distância pode incluir aplicar um ajuste ou fator de ponderação à distância de imagem calculada. Isto é representado pelo bloco 326. Como aqui notado, isto pode incluir um ou mais de um fator de precipitação histórico 328 ou um fator de elevação relativa 330.
[0055] No bloco 332, a distância de imagem calculada é comparada a um limiar de distância calculado ou senão determinado pela lógica 180. Isto pode ser, por exemplo, um valor de distância predefinido ou um valor de distância que é dinamicamente atualizado durante operação da arquitetura 100.
[0056] No bloco 334, a máquina 102 é controlada com base na comparação no bloco 332. Isto inclui, em um exemplo, a lógica de geração de advertência 144 controlando mecanismos 116 para gerar uma advertência que é exibida ou de outra forma disponibilizada para operação 120. Isto é representado pelo bloco 336. Alternativamente, ou adicionalmente, a lógica de controle 146 controlando um ou mais subsistemas controláveis 114 com base na comparação no bloco 332. Por exemplo, o sistema de propulsão 130 pode ser configurado para ajustar uma velocidade de máquina de trabalho 102 e/ou o subsistema de direção 132 pode ser configurado para esterçar a máquina 102 para mudar sua direção atual. Isto é representado pelo bloco 338.
[0057] Em um outro exemplo, a máquina 102 pode ser controlada para enviar os dados de imagem e/ou resultados da comparação ao sistema remoto 152, para análise e/ou armazenamento adicional. Isto é representado no bloco 340. Também, os limiares de distância podem ser ajustados. Isto é representado pelo bloco 342.
[0058] No bloco 344, o modelo de base pode opcionalmente ser atualizado com base na imagem recebida e no processamento e cálculo de distâncias.
[0059] No bloco 346, o método determina se existem imagens adicionais para uma área subsequente a ser processada. Se houver, o método retorna para o bloco 310 em que a imagem subsequente é recebida e processada.
[0060] A FIG. 5 é um fluxograma ilustrando um exemplo de um método 500 para calcular distância de imagem. A título de ilustração, mas não de limitação, o método 500 será descrito no contexto do sistema 142 obtendo uma imagem 166 do sistema 140.
[0061] No bloco 502, a imagem 166 é obtida do sistema 140. No bloco 504, um vetor de cor (por exemplo, um vetor de cor RGB) de um pixel particular na imagem é obtido. No bloco 506, uma distância entre cada vetor de cor de pixel na imagem e o vetor de cor de base é calculada. Isto pode incluir, em um exemplo, obtido um valor quadrado entre o valor RGB de pixel e o valor RGB do vetor de base. Um exemplo é ilustrado a seguir na Equação 1.
Valor de distância (DV) = √((Pr-Br)2+(Pg-Bg)2+(Pb-Bb)2), Eq(1)
Valor de distância (DV) = √((Pr-Br)2+(Pg-Bg)2+(Pb-Bb)2), Eq(1)
[0062] A título de ilustração, considere que um vetor de cor de base RGB [0,255,0] seja aplicado a um pixel em consideração tendo um vetor de cor RGB [0,0,0]. Neste caso, a Equação 1 produz um valor de distância de 255.
[0063] No bloco 510, o método determina se existem mais pixels na imagem para o qual será calculada a distância. Se houver, o método retorna para bloco 504 para o pixel adicional. Uma vez que a distância de todos os pixels tenha sido calculada, o método vai para o bloco 512 em que a distância calculada para todos os pixels é transformada em média, para obter uma distância média. Esta distância média é indicativa de uma medida de variação de toda a imagem do vetor de base.
[0064] Nos blocos 514, 516 e 518, os fatores de ajuste são calculados e aplicados ao valor de distância médio dos pixels na imagem, para obter uma métrica de distância geral para a imagem. Ilustrativamente, isto inclui calcular um fator de precipitação histórico, no bloco 514, com base em dados de precipitação históricos 192 que são georreferenciados com a localização do terreno representado na imagem capturada. Um exemplo para calcular o fator de precipitação é mostrado a seguir na Equação 2.
[0065] Onde R(D-1) é a precipitação pluviométrica (por exemplo, medida em polegadas) um dia antes do dia atual (correspondente à captura da imagem), R(D-2) é a precipitação pluviométrica dois dias antes do dia atual, R(D-3) é a precipitação pluviométrica três dias antes do dia atual, e R(avg) é a precipitação pluviométrica média para o dado mês (ou outro período de tempo adequado).
[0066] Um maior valor do fator de precipitação indica uma maior possibilidade de água parada ou lama, e aumenta o valor de distância para subsequente comparação de limiar.
[0067] No bloco 516, um fator de elevação relativa de terreno é calculado com base em dados de elevação de terreno georreferenciados 190. Ou seja, com base em informação geográfica associada com imagem 166, a lógica 186 extrai dados de elevação para coordenadas das imagens (ou porção da imagem). Adicionalmente, os dados de elevação para o terreno que circunda a porção do terreno que deve ser submetida a imagem em consideração são também obtidos. Por exemplo, isto pode incluir obter dados de elevação para o campo circundante (por exemplo, toda terra em um raio predefinido das coordenadas da imagem 166). Um exemplo para gerar a fator de elevação relativa do terreno é mostrado a seguir na Equação 3.
[0068] Um menor fator de elevação indica que a elevação das coordenadas da imagem é relativamente mais alta comparada à elevação média do terreno circundante. Como tal, existe uma menor possibilidade de água parada já que a porção do terreno é mais alta em relação ao terreno circundante. Isto reduz a métrica de distância de imagem para subsequente comparação de limiar.
[0069] No bloco 520, a métrica de distância de imagem é enviada, por exemplo, ao sistema de controle 112. Com base em uma determinação de que a métrica de distância de imagem está acima do limiar, a lógica de controle 146 gera advertências ou alertas para o operador 120 ou senão controla a máquina 102 de forma correspondente.
[0070] A FIG. 6 ilustra um conjunto de imagens de exemplo e resultados de análise de imagem correspondentes. Cada uma das imagens 1-9 é obtida para diferentes áreas de um campo, e são processadas pelo sistema de análise de imagem 142 para gerar valores de distância médios 602. Cada valor de distância médio 602 é comparado a um limiar (ilustrativamente um valor de distância de 300). Com base nesta comparação, o sistema determina se uma advertência é deve ser gerada para a porção do terreno representada pela imagem correspondente. Isto é representado pelas indicações 604.
[0071] Nota-se que a discussão apresentada foi descrita uma variedade de diferentes sistemas, componentes e/ou lógica. Percebe-se que tais sistemas, componentes e/ou lógica podem ser compreendidos de itens de hardware (tais como processadores e memória associada, ou outro componentes de processamento, alguns dos quais são descritos a seguir) que realizam as funções associadas com esses sistemas, componentes e/ou lógica. Além do mais, os sistemas, componentes e/ou lógica podem ser compreendidos de software que é carregado em uma memória e é subsequentemente executado por um processor ou servidor, ou outro componente de computação, como descrito a seguir. Os sistemas, componentes e/ou lógica podem também ser compreendidos de diferentes combinações de hardware, software, firmware, etc., alguns exemplos dos quais são descritos a seguir. Esses são apenas alguns exemplos de diferentes estruturas que podem ser usadas para formar os sistemas, componentes e/ou lógica supradescritos. Outras estruturas podem ser igualmente usadas.
[0072] A presente discussão mencionou processadores e servidores. Em uma modalidade, os processadores e servidores incluem processadores de computador com memória e sistema de circuitos de sincronismo associados, não mostrados separadamente. Eles são partes funcionais dos sistemas ou dispositivos aos quais eles pertencem ou pelos quais são ativados, e facilitam a funcionalidade dos outros componentes ou itens nesses sistemas.
[0073] Também, inúmeras exibições de interface de usuário displays foram discutidas. Elas podem assumir uma ampla variedade de diferentes formas e podem ter uma ampla variedade de diferentes mecanismos de entrada acionáveis pelo usuário dispostos nas mesmas. Por exemplo, os mecanismos de entrada acionáveis pelo usuário podem ser caixas de texto, caixas de verificação, ícones, ligações, menus suspensos, caixas de busca, etc. Eles podem também ser acionados em uma ampla variedade de diferentes maneiras. Por exemplo, eles podem ser acionados usando um dispositivo de apontamento e clique (tal como um mouse tipo esfera ou mouse). Eles podem ser acionados usando botões de hardware, interruptores, uma manete de jogos ou teclado, interruptores de polegar ou blocos de polegar, etc. Eles podem também ser acionados usando um teclado virtual ou outros acionadores virtuais. Além do mais, onde a tela na qual eles são exibidos é uma tela sensível ao toque, eles podem ser acionados usando gestos de toque. Também, onde o dispositivo que exibe os mesmos tem componentes de reconhecimento de fala, eles podem ser acionados usando comandos de fala.
[0074] Um número de armazenamentos de dados foi também discutido. Nota-se que eles podem cada um ser desmembrados em múltiplos armazenamentos de dados. Todos podem ser locais aos sistemas que os acessa, todos podem ser remotos, ou alguns podem ser locais enquanto outros são remotos. Todas essas configurações são contempladas aqui.
[0075] Também, as figuras mostram um número de blocos com funcionalidade atribuída a cada bloco. Nota-se que menos blocos podem ser usados de forma que a funcionalidade seja realizado por menos componentes. Também, mais blocos podem ser usados com a funcionalidade distribuída dentre mais componentes.
[0076] A FIG. 7 é um diagrama de blocos da arquitetura 100, mostrada na FIG. 1, desdobrada em uma arquitetura de servidor remoto 700. Em um exemplo, a arquitetura de servidor remoto 700 pode prover serviços de computação, software, acesso de dados e armazenamento que não exigem conhecido do usuário final da localização física ou configuração do sistema que entrega os serviços. Em vários exemplos, servidores remotos podem entregar os serviços por uma rede de área abrangente, tal como a internet, usando protocolos apropriados. Por exemplo, servidores remotos podem entregar aplicações por uma rede de área abrangente e elas podem ser acessadas através de um navegador de rede ou qualquer outro componente de computação. O software ou componentes mostrados na FIG. 1, bem como os dados correspondentes, podem ser armazenados em servidores em uma localização remota. Os recursos de computação em um ambiente de servidor remoto podem ser considerados em uma localização de centro de dados remota ou eles podem ser dispersos. Infraestruturas de servidor remoto podem entregar serviços através de centros de dados compartilhados, mesmo que eles pareçam um único ponto de acesso para o usuário. Dessa forma, os componentes e funções descritos aqui podem ser providos por um servidor remoto em uma localização remota usando uma arquitetura de servidor remoto. Alternativamente, eles podem ser providos por um servidor convencional, ou eles podem ser instalados em dispositivos de cliente diretamente, ou de outras maneiras.
[0077] No exemplo mostrado na FIG. 7, alguns itens são similares aos mostrados na FIG. 1 e eles são similarmente enumerados. A FIG. 7 mostra especificamente que o sistema de análise de imagem 142 pode ser localizado em uma localização de servidor remoto 702. Portanto, a máquina 102 acessa esses sistemas através da localização do servidor remoto 702.
[0078] A FIG. 7 também representa um outro exemplo de uma arquitetura de servidor remoto. A FIG. 7 mostra que é também contemplado que alguns elementos da FIG. 1 sejam dispostos na localização do servidor remoto 702, enquanto outros não. A título de exemplo, o sistema 142 pode ser disposto em uma localização separada da localização 702, e acessado através do servidor remoto na localização 702. Adicionalmente, um ou mais dos armazenamentos de dados 108, 162 e 172 pode ser disposto em uma localização separada da localização 702, e acessado através do servidor remoto na localização 702. Independentemente de onde eles são localizados, eles podem ser acessados diretamente por máquina 102, através de uma rede (tanto uma rede de área abrangente quanto uma rede de área local), eles podem ser hospedados em um local remoto por um serviço, ou eles podem ser providos como um serviço, ou acessados por um serviço de conexão que reside em uma localização remota. Também, os dados podem ser armazenados substancialmente em qualquer localização e intermitentemente acessados ou encaminhados pelas partes interessadas. Por exemplo, portadoras físicas podem ser usadas em substituição, ou em adição, a portadoras de ondas eletromagnéticas. Em um exemplo como esse, onde cobertura celular é fraca ou inexistente, uma outra máquina móvel (tal como um caminhão de combustível) pode ter um sistema de coleta de informação automatizado. À medida que a máquina 102 se aproxima do caminhão de combustível para abastecimento, o sistema automaticamente coleta a informação da máquina 102 ou transfere informação para a máquina 102 usando qualquer tipo de conexão sem fio ad-hoc. A informação coletada pode então ser encaminhada à rede principal à medida que o caminhão de combustível chega a uma localização onde existe cobertura celular (ou outra cobertura sem fio). Por exemplo, o caminhão de combustível pode entrar em uma localização com cobertura enquanto desloca para abastecer outras máquinas ou quando em uma localização de armazenamento de combustível principal. Todas essas arquiteturas são contempladas aqui. Adicionalmente, a informação pode ser armazenada em máquina 102 até que a máquina 102 entre em uma localização com cobertura. A máquina 102, em si, pode então enviar e receber a informação da rede principal.
[0079] Nota-se também que os elementos da FIG. 1, ou porções dos mesmos, podem ser dispostos em uma ampla variedade de diferentes dispositivos. Alguns desses dispositivos incluem servidores, computadores de mesa, computadores de colo, computadores tipo mesa digitalizadora, ou outros dispositivos móveis, tais como computadores miniaturas, telefones celulares, telefones inteligentes, tocadores de multimídia, assistentes digitais pessoais, etc.
[0080] A FIG. 8 é um diagrama de blocos simplificado de um exemplo ilustrativo de um dispositivo de computação portátil ou móvel que pode ser usado como um dispositivo portátil de usuário ou cliente 16, no qual o presente sistema (ou partes dele) pode ser desdobrado. Por exemplo, um dispositivo móvel pode ser desdobrado no compartimento da máquina do operador 102. As FIGS. 9-10 são exemplos de dispositivos portáteis ou móveis.
[0081] A FIG. 8 provê um diagrama de blocos geral dos componentes de um dispositivo de cliente 16 que pode rodar alguns componentes mostrados na FIG. 1, que interagem com os mesmos, ou ambos. No dispositivo 16, uma ligação de comunicações 13 é provida que permite que o dispositivo portátil comunique com outros dispositivos de computação e em algumas modalidades provê um canal para receber informação automaticamente, tal como por escaneamento. Exemplos de ligação de comunicações 13 incluem permitir comunicação através de um ou mais protocolos de comunicação, tais como serviços sem fio usados para prover acesso celular a uma rede, bem como protocolos que provêm conexões sem fio locais a redes.
[0082] Em outros exemplos, aplicações podem ser recebidas em um cartão Digital Seguro Removível (SD) que é conectado a uma interface 15. A interface 15 e ligações de comunicação 13 comunicam com um processador 17 (que pode também incorporar processadores ou servidores das FIGS. anteriores) ao longo de um barramento 19 que é também conectado à memória 21 e componentes de entrada/saída (I/O) 23, bem como relógio 25 e sistema de localização 27.
[0083] Os componentes I/O 23, em um exemplo, são providos para facilitar as operações de entrada e saída. Os componentes I/O 23 para várias modalidades do dispositivo 16 podem incluir componentes de entrada tais como botões, sensores de toque, sensores ópticos, microfones, telas sensíveis ao toque, sensores de proximidade, acelerômetros, sensores de orientação e componentes de saída tais como um dispositivo de exibição, um alto-falante, e ou uma porta de impressora. Outros componentes I/O 23 podem ser igualmente usados.
[0084] O relógio 25 ilustrativamente compreende um componente de relógio em tempo real que produz hora e data. Ele pode também, ilustrativamente, prover funções de sincronismo para o processor 17.
[0085] O sistema de localização 27 ilustrativamente inclui um componente que produz uma localização geográfica atual do dispositivo 16. Isto pode incluir, por exemplo, um receptor de sistema de posicionamento global (GPS), um sistema LORAN, um sistema de posicionamento relativo, um sistema de triangulação celular, ou outro sistema de posicionamento. Ele pode também incluir, por exemplo, software de mapeamento ou software de navegação que gera mapas desejados, rotas de navegação e outras funções geográficas.
[0086] A memória 21 armazena sistema operacional 29, definições de rede 31, aplicações 33, definições de configuração de aplicação 35, armazenamento de dados 37, unidades de comunicação 39, e definições de configuração de comunicação 41. A memória 21 pode incluir todos os tipos de dispositivos de memória legíveis por computador voláteis e não voláteis tangíveis. Ela pode também incluir mídias de armazenamento por computador (descrita a seguir). A memória 21 armazena instruções legíveis por computador que, quando executadas por processor 17, fazem com que o processor realize etapas ou funções implementadas por computador de acordo com as instruções. O processor 17 pode ser ativado por outros componentes para facilitar sua funcionalidade igualmente.
[0087] A FIG. 9 mostra um exemplo no qual o dispositivo 16 é um computador de mesa 750. Na FIG. 9, o computador 750 é mostrado com tela de exibição de interface de usuário 752. A tela 752 pode ser uma tela sensível ao toque ou uma interface habilitada por caneta que recebe entradas de uma caneta ou dispositivo tipo caneta. Ele pode também usar um teclado virtual na tela. Certamente, ele pode também ser afixado a um teclado ou outro dispositivo de entrada de usuário através de um mecanismo de fixação adequado, tal como uma ligação sem fio ou porta USB, por exemplo. O computador 750 pode também ilustrativamente receber entradas de voz igualmente.
[0088] A FIG. 10 mostra que o dispositivo pode ser um telefone inteligente 71. O telefone inteligente 71 tem um monitor sensível ao toque 73 que exibe ícones ou títulos ou outros mecanismos de entrada de usuário 75. Os mecanismos 75 podem ser usados por um usuário para rodar aplicações, fazer chamadas, realizar operações de transferência de dados, etc. Em geral, o telefone inteligente 71 é incorporado em um sistema operacional móvel e oferece capacidade de computação e conectividade mais avançada do que um telefone de recurso.
[0089] Note que outras formas dos dispositivos 16 são possíveis.
[0090] A FIG. 11 é um exemplo de um ambiente de computação no qual elementos da FIG. 1, ou partes dele (por exemplo), podem ser desdobrados. Com referência à FIG. 11, um sistema de exemplo para implementar algumas modalidades inclui um dispositivo de computação na forma de um computador 810. Os componentes de computador 810 podem incluir, mas sem se limitar a uma unidade de processamento 820 (que pode compreender processadores ou servidores das FIGS. anteriores), uma memória do sistema 830, e um barramento do sistema 821 que acopla vários componentes do sistema incluindo a memória do sistema à unidade de processamento 820. O barramento do sistema 821 pode ser qualquer de diversos tipos de estruturas de barramento incluindo um barramento de memória ou controlador de memória, um barramento periférico, e um barramento local usando qualquer de uma variedade de arquiteturas de barramento. Memória e programas descritos com relação à FIG. 1 podem ser desdobradas em porções correspondentes da FIG. 11.
[0091] O computador 810 tipicamente inclui uma variedade de mídias legíveis por computador. As mídias legíveis por computador podem ser qualquer mídia disponível que pode ser acessada por computador 810 e inclui tanto mídias voláteis quanto não voláteis, mídias removíveis quanto não removíveis. A título de exemplo, e não de limitação, mídias legíveis por computador podem compreender mídias de armazenamento por computador e mídias de comunicação. Mídias de armazenamento por computador são diferentes de, e não incluem, um sinal de dados modulado ou onda portadora. Ele inclui mídias de armazenamento de hardware incluindo tanto mídias voláteis quanto não voláteis, mídias removíveis quanto não removíveis implementadas em qualquer método ou tecnologia para armazenamento de informação tais como instruções legíveis por computador, estruturas de dados, módulos de programa ou outros dados. Mídias de armazenamento por computador incluem, mas não se limitando a RAM, ROM, EEPROM, memória flash ou outra tecnologia de memória, CD-ROM, discos versáteis digitais (DVD) ou outro armazenamento de disco óptico, cassetes magnéticos, fita magnética, armazenamento de disco magnético ou outros dispositivos de armazenamento magnéticos, ou qualquer outra mídia que pode ser usada para armazenar a informação desejada e que pode ser acessada pelo computador 810. Mídias de comunicação podem incorporar instruções legíveis por computador, estruturas de dados, módulos de programa ou outros dados em um mecanismo de transporte e inclui qualquer mídia de entrega de informação. A expressão “sinal de dados modulado” significa um sinal que tem uma ou mais de suas características definidas ou alteradas de uma maneira tal a codificar informação no sinal.
[0092] A memória do sistema 830 inclui mídias de armazenamento por computador na forma de memória volátil e/ou não volátil tais como memória apenas de leitura (ROM) 831 e memória de acesso aleatório (RAM) 832. Um sistema de entrada/saída básico 833 (BIOS), contendo as rotinas básicas que ajudam a transferir informação entre elementos no computador 810, tal como durante iniciação, é tipicamente armazenado em ROM 831. RAM 832 tipicamente contém dados e/ou módulos de programa que são imediatamente acessíveis a e/ou que estão sendo atualmente operados pela unidade de processamento 820. A título de exemplo, e não de limitação, a FIG. 11 ilustra o sistema operacional 834, programas de aplicação 835, outros módulos de programa 836 e dados de programa 837.
[0093] O computador 810 pode também incluir outras mídias de armazenamento por computador removíveis/não removíveis voláteis/não voláteis. Apenas a título de exemplo, a FIG. 11 ilustra uma unidade de disco rígido 841 que lê ou grava em mídias magnéticas não removíveis não voláteis, uma unidade de disco óptico 855, e disco óptico não volátil 856. A unidade de disco rígido 841 é tipicamente conectada ao barramento do sistema 821 através de uma interface de memória não removível tal como a interface 840, e a unidade de disco óptico 855 é tipicamente conectada ao barramento do sistema 821 por uma interface de memória removível, tal como a interface 850.
[0094] Alternativamente, ou adicionalmente, a funcionalidade descrita aqui pode ser realizada, pelo menos em parte, por um ou mais componentes de lógica de hardware. Por exemplo, e sem limitação, tipos ilustrativos de componentes de lógica de hardware que podem ser usados incluem Arranjos de Porta Programáveis no Campo (FPGAs), Circuitos Integrados Específicos da Aplicação (por exemplo, ASICs), Produtos Padrões Específicos da Aplicação (por exemplo, ASSPs), sistemas Sistema-em-um-chip (SOCs), Dispositivos de Lógica Programável Complexa (CPLDs), etc.
[0095] As unidades e suas mídias de armazenamento por computador associadas aqui discutidas e ilustradas na FIG. 11 fornecem armazenamento de instruções legíveis por computador, estruturas de dados, módulos de programa e outros dados para o computador 810. Na FIG. 11, por exemplo, a unidade de disco rígido 841 é ilustrada armazenando o sistema operacional 844, programas de aplicação 845, outros módulos de programa 846 e dados de programa 847. Note que esses componentes podem ser tanto os mesmos quanto diferentes do sistema operacional 834, programas de aplicação 835, outros módulos de programa 836 e dados de programa 837.
[0096] Um usuário pode entrar com comandos e informação no computador 810 através de dispositivos de entrada tais como um teclado 862, um microfone 863, e um dispositivo de apontamento 861, tal como um mouse, mouse tipo esfera ou bloco de toque. Outros dispositivos de entrada (não mostrados) podem incluir uma manete de jogos, bloco de jogos, disco satélite, escâner, ou similares. Esses e outros dispositivos de entrada são frequentemente conectados à unidade de processamento 820 através de uma interface de entrada de usuário 860 que é acoplada ao barramento do sistema, mas podem ser conectados por outras estruturas de interface e barramento. Uma exibição visual 891 ou outro tipo de dispositivo de exibição é também conectado ao barramento do sistema 821 por meio de uma interface, tal como uma interface de vídeo 890. Além do monitor, computadores podem também incluir outros dispositivos de saída periféricos tais como alto-falantes 897 e impressora 896, que podem ser conectados por uma interface periférica de saída 895.
[0097] O computador 810 é operado em um ambiente ligado em rede usando conexões lógicas (tal como uma rede de área local - LAN, ou rede de área abrangente - WAN ou uma rede de área do controlador - CAN) a um ou mais computadores remotos, tal como um computador remoto 880.
[0098] Quando usado em um ambiente em rede LAN, o computador 810 é conectado à LAN 871 através de uma interface de rede ou adaptador 870. Quando usado em um ambiente em rede WAN, o computador 810 tipicamente inclui um modem 872 ou outros meios para estabelecer comunicações pela WAN 873, tal como a Internet. Em um ambiente ligado em rede, módulos de programa podem ser armazenados em um dispositivo de armazenamento de memória remoto. A FIG. 11 ilustra, por exemplo, que programas de aplicação remotos 885 podem resistir em computador remoto 880.
[0099] Deve-se notar também que os diferentes exemplos descritos aqui podem ser combinados de diferentes maneiras. Ou seja, partes de um ou mais exemplos podem ser combinadas com partes de um ou mais outros exemplos. Tudo isto é contemplado aqui.
[00100] Exemplo 1 é um método para controlar uma máquina de trabalho, o método compreendendo:
receber uma imagem de resposta espectral em uma área de terreno correspondente a um trajeto da máquina de trabalho móvel;
gerar uma métrica de distância de imagem com base em uma distância entre a resposta espectral e um modelo de resposta espectral de base correspondente ao terreno;
comparar a métrica de distância de imagem com um limiar de distância; e
controlar um subsistema controlável da máquina de trabalho móvel com base na comparação.
receber uma imagem de resposta espectral em uma área de terreno correspondente a um trajeto da máquina de trabalho móvel;
gerar uma métrica de distância de imagem com base em uma distância entre a resposta espectral e um modelo de resposta espectral de base correspondente ao terreno;
comparar a métrica de distância de imagem com um limiar de distância; e
controlar um subsistema controlável da máquina de trabalho móvel com base na comparação.
[00101] Exemplo 2 é o método de qualquer ou todos os exemplos anteriores, em que o terreno compreende um campo e a máquina de trabalho móvel compreende uma máquina agrícola configurada para realizar uma operação agrícola no campo.
[00102] Exemplo 3 é o método de qualquer ou todos os exemplos anteriores, em que a imagem é capturada por um veículo aéreo não tripulado (UAV).
[00103] Exemplo 4 é o método de qualquer ou todos os exemplos anteriores, em que:
o modelo de resposta espectral de base compreende um vetor de cor de base, e
gerar a métrica de distância de imagem compreende: determinar um vetor de cor de imagem para a imagem recebida, e
determinar uma distância entre o vetor de cor de imagem e o vetor de cor de base.
o modelo de resposta espectral de base compreende um vetor de cor de base, e
gerar a métrica de distância de imagem compreende: determinar um vetor de cor de imagem para a imagem recebida, e
determinar uma distância entre o vetor de cor de imagem e o vetor de cor de base.
[00104] Exemplo 5 é o método de qualquer ou todos os exemplos anteriores, e adicionalmente compreendendo:
determinar uma pluralidade de vetores de cor de pixel, cada vetor de cor de pixel representando um pixel da imagem;
determinar uma pluralidade de distâncias vetoriais de cor, cada uma representando uma distância entre um dos vetores de cor de pixel e o vetor de cor de base; e
gerar a métrica de distância de imagem com base na pluralidade de distâncias vetoriais de cor.
determinar uma pluralidade de vetores de cor de pixel, cada vetor de cor de pixel representando um pixel da imagem;
determinar uma pluralidade de distâncias vetoriais de cor, cada uma representando uma distância entre um dos vetores de cor de pixel e o vetor de cor de base; e
gerar a métrica de distância de imagem com base na pluralidade de distâncias vetoriais de cor.
[00105] Exemplo 6 é o método de qualquer ou todos os exemplos anteriores, em que gerar a métrica de distância de imagem compreende determinar a média da pluralidade de distâncias vetoriais de cor.
[00106] Exemplo 7 é o método de qualquer ou todos os exemplos anteriores, e adicionalmente compreendendo:
gerar um fator de precipitação com base em dados de precipitação históricos correspondentes ao terreno, e
gerar a métrica de distância de imagem com base na(o): distância determinada entre o vetor de cor de imagem e o vetor de cor de base, e
fator de precipitação.
gerar um fator de precipitação com base em dados de precipitação históricos correspondentes ao terreno, e
gerar a métrica de distância de imagem com base na(o): distância determinada entre o vetor de cor de imagem e o vetor de cor de base, e
fator de precipitação.
[00107] Exemplo 8 é o método de qualquer ou todos os exemplos anteriores, em que o fator de precipitação é gerado com base em valores de precipitação medidos correspondentes a um período de tempo antes de um tempo no qual a imagem foi capturada.
[00108] Exemplo 9 é o método de qualquer ou todos os exemplos anteriores, e adicionalmente compreendendo:
gerar um fator de elevação de terreno com base em dados de elevação de terreno correspondentes ao terreno, e
gerar a métrica de distância de imagem com base na(o): distância determinada entre o vetor de cor de imagem e o vetor de cor de base, e
fator de elevação de terreno.
gerar um fator de elevação de terreno com base em dados de elevação de terreno correspondentes ao terreno, e
gerar a métrica de distância de imagem com base na(o): distância determinada entre o vetor de cor de imagem e o vetor de cor de base, e
fator de elevação de terreno.
[00109] Exemplo 10 é o método de qualquer ou todos os exemplos anteriores, em que a área compreende uma primeira área, e o fator de elevação de terreno é gerado com base em uma elevação da primeira área relativa a uma elevação de uma segunda área do terreno.
[00110] Exemplo 11 é o método de qualquer ou todos os exemplos anteriores, e adicionalmente compreendendo atualizar o vetor de cor de base com base no vetor de cor determinado.
[00111] Exemplo 12 é o método de qualquer ou todos os exemplos anteriores, em que controlar um subsistema controlável da máquina de trabalho móvel compreende:
controlar um mecanismo de interface de usuário para fornecer uma indicação de uma condição de terreno em um trajeto de a máquina de trabalho móvel.
controlar um mecanismo de interface de usuário para fornecer uma indicação de uma condição de terreno em um trajeto de a máquina de trabalho móvel.
[00112] Exemplo 13 é o método de qualquer ou todos os exemplos anteriores, em que controlar um subsistema controlável da máquina de trabalho móvel compreende controlar automaticamente pelo menos um dentre um sistema de propulsão ou um sistema de direção da máquina de trabalho móvel.
[00113] Exemplo 14 é uma máquina de trabalho móvel compreendendo:
um sistema de comunicação configurado para receber uma imagem de resposta espectral em uma área de terreno correspondente a um trajeto da máquina de trabalho móvel;
um subsistema controlável;
um sistema de análise de imagem configurado para:
gerar uma métrica de distância de imagem com base em uma distância entre a resposta espectral e um modelo de resposta espectral de base correspondente a o terreno; e
comparar a métrica de distância de imagem com um limiar de distância;
um sistema de controle configurado para controlar o subsistema controlável da máquina de trabalho com base na comparação.
um sistema de comunicação configurado para receber uma imagem de resposta espectral em uma área de terreno correspondente a um trajeto da máquina de trabalho móvel;
um subsistema controlável;
um sistema de análise de imagem configurado para:
gerar uma métrica de distância de imagem com base em uma distância entre a resposta espectral e um modelo de resposta espectral de base correspondente a o terreno; e
comparar a métrica de distância de imagem com um limiar de distância;
um sistema de controle configurado para controlar o subsistema controlável da máquina de trabalho com base na comparação.
[00114] Exemplo 15 é a máquina de trabalho móvel de qualquer ou todos os exemplos anteriores, em que:
o modelo de resposta espectral de base compreende um vetor de cor de base, e
o sistema de análise de imagem é configurado para gerar métrica de distância de imagem pela determinação de um vetor de cor de imagem para a imagem recebida, e determinar uma distância entre o vetor de cor de imagem e o vetor de cor de base.
o modelo de resposta espectral de base compreende um vetor de cor de base, e
o sistema de análise de imagem é configurado para gerar métrica de distância de imagem pela determinação de um vetor de cor de imagem para a imagem recebida, e determinar uma distância entre o vetor de cor de imagem e o vetor de cor de base.
[00115] Exemplo 16 é a máquina de trabalho móvel de qualquer ou todos os exemplos anteriores, em que o sistema de análise de imagem é configurado para:
determinar uma pluralidade de vetores de cor de pixel, cada vetor de cor de pixel representando um pixel da imagem;
determinar uma pluralidade de distâncias vetoriais de cor, cada uma representando uma distância entre um dos vetores de cor de pixel e o vetor de cor de base; e
gerar a métrica de distância de imagem com base na pluralidade de distâncias vetoriais de cor.
determinar uma pluralidade de vetores de cor de pixel, cada vetor de cor de pixel representando um pixel da imagem;
determinar uma pluralidade de distâncias vetoriais de cor, cada uma representando uma distância entre um dos vetores de cor de pixel e o vetor de cor de base; e
gerar a métrica de distância de imagem com base na pluralidade de distâncias vetoriais de cor.
[00116] Exemplo 17 é a máquina de trabalho móvel de qualquer ou todos os exemplos anteriores, em que a métrica de distância de imagem é gerada com base em uma média da pluralidade de distâncias vetoriais de cor.
[00117] Exemplo 18 é a máquina de trabalho móvel de qualquer ou todos os exemplos anteriores, em que o sistema de análise de imagem é configurado para:
gerar um fator de precipitação com base em dados de precipitação históricos correspondentes ao terreno, e
gerar a métrica de distância de imagem com base na(o): distância determinada entre o vetor de cor de imagem e o vetor de cor de base, e
fator de precipitação.
gerar um fator de precipitação com base em dados de precipitação históricos correspondentes ao terreno, e
gerar a métrica de distância de imagem com base na(o): distância determinada entre o vetor de cor de imagem e o vetor de cor de base, e
fator de precipitação.
[00118] Exemplo 19 é a máquina de trabalho móvel de qualquer ou todos os exemplos anteriores, em que o sistema de análise de imagem é configurado para:
gerar um fator de elevação de terreno com base em dados de elevação de terreno correspondentes ao terreno, e
gerar a métrica de distância de imagem com base na(o): distância determinada entre o vetor de cor de imagem e o vetor de cor de base, e
fator de elevação de terreno.
gerar um fator de elevação de terreno com base em dados de elevação de terreno correspondentes ao terreno, e
gerar a métrica de distância de imagem com base na(o): distância determinada entre o vetor de cor de imagem e o vetor de cor de base, e
fator de elevação de terreno.
[00119] Exemplo 20 é uma máquina agrícola compreendendo:
um subsistema controlável configurado para realizar uma operação agrícola em um campo;
um sistema de comunicação configurada para receber uma imagem de resposta espectral em uma área do campo;
um sistema de análise de imagem configurado para: gerar uma métrica de distância de imagem com base em uma distância entre a resposta espectral e um modelo de resposta espectral de base correspondente ao terreno; e
comparar a métrica de distância de imagem com um limiar de distância;
um sistema de controle configurado para gerar um sinal de controle que controla a máquina agrícola com base na comparação.
um subsistema controlável configurado para realizar uma operação agrícola em um campo;
um sistema de comunicação configurada para receber uma imagem de resposta espectral em uma área do campo;
um sistema de análise de imagem configurado para: gerar uma métrica de distância de imagem com base em uma distância entre a resposta espectral e um modelo de resposta espectral de base correspondente ao terreno; e
comparar a métrica de distância de imagem com um limiar de distância;
um sistema de controle configurado para gerar um sinal de controle que controla a máquina agrícola com base na comparação.
[00120] Embora a matéria objeto tenha sido descrita em linguagem específica de recursos estruturais e/ou atos metodológicos, deve-se entender que a matéria objeto definida nas reivindicações anexas não é necessariamente limitada aos recursos ou atos específicos supradescritos. Em vez disso, os recursos e atos específicos supradescritos são descritos como formas de exemplo de implementar as reivindicações.
Claims (15)
- Método para controlar uma máquina de trabalho móvel (102; 200), o método caracterizado pelo fato de que compreende:
receber (310) uma imagem de resposta espectral em uma área de terreno correspondente a um trajeto da máquina de trabalho móvel;
gerar (322) uma métrica de distância de imagem com base em uma distância entre a resposta espectral e um modelo de resposta espectral de base correspondente ao terreno;
comparar (332) a métrica de distância de imagem com um limiar de distância; e
controlar (334) um subsistema controlável da máquina de trabalho móvel com base na comparação. - Método de acordo com a reivindicação 1, caracterizado pelo fato de que o terreno compreende um campo e a máquina de trabalho móvel compreende uma máquina agrícola configurada para realizar uma operação agrícola no campo.
- Método de acordo com a reivindicação 2, caracterizado pelo fato de que a imagem é capturada por um veículo aéreo não tripulado (UAV).
- Método de acordo com a reivindicação 2, caracterizado pelo fato de que:
o modelo de resposta espectral de base compreende um vetor de cor de base, e
gerar a métrica de distância de imagem compreende:
determinar um vetor de cor de imagem para a imagem recebida, e
determinar uma distância entre o vetor de cor de imagem e o vetor de cor de base. - Método de acordo com a reivindicação 4, caracterizado pelo fato de que compreende adicionalmente:
determinar uma pluralidade de vetores de cor de pixel, cada vetor de cor de pixel representando um pixel da imagem;
determinar uma pluralidade de distâncias vetoriais de cor, cada um representando uma distância entre um dos vetores de cor de pixel e o vetor de cor de base; e
gerar a métrica de distância de imagem com base na pluralidade de distâncias vetoriais de cor. - Método de acordo com a reivindicação 5, caracterizado pelo fato de que gerar a métrica de distância de imagem compreende determinar a média da pluralidade de distâncias vetoriais de cor.
- Método de acordo com a reivindicação 4, caracterizado pelo fato de que compreende adicionalmente:
gerar um fator de precipitação com base em dados de precipitação históricos correspondentes ao terreno, e
gerar a métrica de distância de imagem com base na(o):
distância determinada entre o vetor de cor de imagem e o vetor de cor de base, e
fator de precipitação. - Método de acordo com a reivindicação 4, caracterizado pelo fato de que compreende adicionalmente:
gerar um fator de elevação de terreno com base em dados de elevação de terreno correspondentes ao terreno, e
gerar a métrica de distância de imagem com base na(o):
distância determinada entre o vetor de cor de imagem e o vetor de cor de base, e
fator de elevação de terreno. - Método de acordo com a reivindicação 1, caracterizado pelo fato de que controlar um subsistema controlável da máquina de trabalho móvel compreende pelo menos um de:
controlar um mecanismo de interface de usuário para fornecer uma indicação de uma condição de terreno em um trajeto da máquina de trabalho móvel,
controlar automaticamente um sistema de propulsão da máquina de trabalho móvel, ou
controlar automaticamente um sistema de direção da máquina de trabalho móvel. - Máquina de trabalho móvel (102; 200), caracterizada pelo fato de que compreende:
um sistema de comunicação (106) configurado para receber uma imagem de resposta espectral em uma área de terreno correspondente a um trajeto da máquina de trabalho móvel;
um subsistema controlável (114);
um sistema de análise de imagem (142) configurado para:
gerar uma métrica de distância de imagem com base em uma distância entre a resposta espectral e um modelo de resposta espectral de base correspondente ao terreno; e
comparar a métrica de distância de imagem com um limiar de distância;
um sistema de controle (112) configurado para controlar o subsistema controlável da máquina de trabalho com base na comparação. - Máquina de trabalho móvel de acordo com a reivindicação 10, caracterizada pelo fato de que:
o modelo de resposta espectral de base compreende um vetor de cor de base, e
o sistema de análise de imagem é configurado para gerar métrica de distância de imagem pela determinação de um vetor de cor de imagem para a imagem recebida, e determinar uma distância entre o vetor de cor de imagem e o vetor de cor de base. - Máquina de trabalho móvel de acordo com a reivindicação 10, caracterizada pelo fato de que o sistema de análise de imagem é configurado para:
determinar uma pluralidade de vetores de cor de pixel, cada vetor de cor de pixel representando um pixel da imagem;
determinar uma pluralidade de distâncias vetoriais de cor, cada uma representando uma distância entre um dos vetores de cor de pixel e o vetor de cor de base; e
gerar a métrica de distância de imagem com base na pluralidade de distâncias vetoriais de cor. - Máquina de trabalho móvel de acordo com a reivindicação 10, caracterizada pelo fato de que o sistema de análise de imagem é configurado para:
gerar um fator de precipitação com base em dados de precipitação históricos correspondentes ao terreno, e
gerar a métrica de distância de imagem com base na(o): distância determinada entre o vetor de cor de imagem e o vetor de cor de base, e
fator de precipitação. - Máquina de trabalho móvel de acordo com a reivindicação 10, caracterizada pelo fato de que o sistema de análise de imagem é configurado para:
gerar um fator de elevação de terreno com base em dados de elevação de terreno correspondentes ao terreno, e
gerar a métrica de distância de imagem com base na(o): distância determinada entre o vetor de cor de imagem e o vetor de cor de base, e
fator de elevação de terreno. - Máquina agrícola (102; 200), caracterizada pelo fato de que compreende:
um subsistema controlável (114) configurado para realizar uma operação agrícola em um campo;
um sistema de comunicação (106) configurado para receber uma imagem de resposta espectral em uma área do campo;
um sistema de análise de imagem (142) configurado para:
gerar uma métrica de distância de imagem com base em uma distância entre a resposta espectral e um modelo de resposta espectral de base correspondente ao terreno; e
comparar a métrica de distância de imagem com um limiar de distância;
um sistema de controle (112) configurado para gerar um sinal de controle que controla a máquina agrícola com base na comparação.
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US16/410,646 | 2019-05-13 | ||
US16/410,646 US11170218B2 (en) | 2019-05-13 | 2019-05-13 | Mobile work machine control system with terrain image analysis |
Publications (1)
Publication Number | Publication Date |
---|---|
BR102020009247A2 true BR102020009247A2 (pt) | 2020-11-17 |
Family
ID=70616997
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
BR102020009247-2A BR102020009247A2 (pt) | 2019-05-13 | 2020-05-11 | método para controlar uma máquina de trabalho móvel, e, máquinas de trabalho móvel e agrícola |
Country Status (3)
Country | Link |
---|---|
US (2) | US11170218B2 (pt) |
EP (1) | EP3739510B1 (pt) |
BR (1) | BR102020009247A2 (pt) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11170218B2 (en) * | 2019-05-13 | 2021-11-09 | Deere & Company | Mobile work machine control system with terrain image analysis |
CN114120119A (zh) * | 2021-11-25 | 2022-03-01 | 深圳市德传技术有限公司 | 干滩检测方法、系统及存储介质 |
Family Cites Families (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8280111B2 (en) * | 2010-02-17 | 2012-10-02 | The Boeing Company | Advanced background estimation technique and circuit for a hyper-spectral target detection method |
US8692689B2 (en) * | 2011-05-12 | 2014-04-08 | Qualcomm Incorporated | Vehicle context awareness by detecting engine RPM using a motion sensor |
US8494726B2 (en) * | 2011-05-16 | 2013-07-23 | Trimble Navigation Ltd. | Agricultural autopilot path adjustment |
US9036943B1 (en) * | 2013-03-14 | 2015-05-19 | Amazon Technologies, Inc. | Cloud-based image improvement |
US9493170B2 (en) * | 2014-01-29 | 2016-11-15 | Continental Automotive Systems, Inc. | Method for reducing false activations in reverse collision avoidance systems |
US20150245565A1 (en) * | 2014-02-20 | 2015-09-03 | Bob Pilgrim | Device and Method for Applying Chemicals to Specific Locations on Plants |
CN107148633B (zh) * | 2014-08-22 | 2020-12-01 | 克莱米特公司 | 用于使用无人机系统进行农艺和农业监测的方法 |
US9576216B2 (en) * | 2014-11-07 | 2017-02-21 | The Boeing Company | Hyperspectral resolution using three-color camera |
WO2017024254A1 (en) | 2015-08-05 | 2017-02-09 | Iteris, Inc. | Customized land surface modeling for irrigation decision support in a crop and agronomic advisory service in precision agriculture |
US10025983B2 (en) | 2015-09-21 | 2018-07-17 | The Climate Corporation | Ponding water detection on satellite imagery |
US20170357267A1 (en) * | 2016-06-10 | 2017-12-14 | Cnh Industrial America Llc | Autonomous work vehicle obstacle detection system |
US10497129B1 (en) * | 2016-08-31 | 2019-12-03 | Amazon Technologies, Inc. | Image-based weather condition detection |
US11170218B2 (en) | 2019-05-13 | 2021-11-09 | Deere & Company | Mobile work machine control system with terrain image analysis |
-
2019
- 2019-05-13 US US16/410,646 patent/US11170218B2/en active Active
-
2020
- 2020-05-07 EP EP20173507.3A patent/EP3739510B1/en active Active
- 2020-05-11 BR BR102020009247-2A patent/BR102020009247A2/pt unknown
-
2021
- 2021-10-07 US US17/496,033 patent/US11989970B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
US11989970B2 (en) | 2024-05-21 |
US20200364455A1 (en) | 2020-11-19 |
US20220100998A1 (en) | 2022-03-31 |
EP3739510B1 (en) | 2023-06-14 |
US11170218B2 (en) | 2021-11-09 |
EP3739510A1 (en) | 2020-11-18 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US20230380346A1 (en) | Machine control using real-time model | |
US11768498B2 (en) | Machine control through active ground terrain mapping | |
CN111802061B (zh) | 使用实时模型的机械控制 | |
US11641801B2 (en) | Agricultural harvesting machine control using machine learning for variable delays | |
BR102020002765A2 (pt) | Método para controlar uma máquina de trabalho, máquina de trabalho, e, sistema de seleção de imagem | |
KR102618797B1 (ko) | 콤바인, 포장 영농 맵 생성 방법, 포장 영농 맵 생성 프로그램 및 포장 영농 맵 생성 프로그램이 기록된 기록 매체 | |
US10028435B2 (en) | Sensor calibration using field information | |
US20200326727A1 (en) | Zonal machine control | |
US20200128737A1 (en) | Controlling a harvesting machine based on a geo-spatial representation indicating where the harvesting machine is likely to reach capacity | |
US9807932B2 (en) | Probabilistic control of an agricultural machine | |
BR102019016876A2 (pt) | máquina de colheita agrícola, e, método para controlar uma máquina de colheita agrícola. | |
US11758844B2 (en) | Forward-looking perception and machine control during crop harvesting operations | |
US11989970B2 (en) | Mobile work machine control system with terrain image analysis | |
US9961831B1 (en) | Controlling a mobile machine based on sensed variables filtered with different filters |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
B03A | Publication of a patent application or of a certificate of addition of invention [chapter 3.1 patent gazette] |