WO2023168506A1 - Método e sistema de análise e processamento de imagens para estimativa de cobertura vegetal por meio de software em aprendizagem de máquina - Google Patents

Método e sistema de análise e processamento de imagens para estimativa de cobertura vegetal por meio de software em aprendizagem de máquina Download PDF

Info

Publication number
WO2023168506A1
WO2023168506A1 PCT/BR2023/050081 BR2023050081W WO2023168506A1 WO 2023168506 A1 WO2023168506 A1 WO 2023168506A1 BR 2023050081 W BR2023050081 W BR 2023050081W WO 2023168506 A1 WO2023168506 A1 WO 2023168506A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
mass
plant
different
fact
Prior art date
Application number
PCT/BR2023/050081
Other languages
English (en)
French (fr)
Inventor
Ivan Carlos PERISSINI
André Luiz Carvalho Silva SANTOS
André Carmona HERNANDES
Leandro Martins BARBERO
Carlos GROSSKLAUS
Mauricio Scoton IGARASI
Original Assignee
Fundação Universidade Federal De São Carlos
Universidade Federal De Uberlândia - Ufu
Pasture View Serviços De Agropecuária Ltda
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from BR102022004512-7A external-priority patent/BR102022004512A2/pt
Application filed by Fundação Universidade Federal De São Carlos, Universidade Federal De Uberlândia - Ufu, Pasture View Serviços De Agropecuária Ltda filed Critical Fundação Universidade Federal De São Carlos
Publication of WO2023168506A1 publication Critical patent/WO2023168506A1/pt

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N33/00Investigating or analysing materials by specific methods not covered by groups G01N1/00 - G01N31/00
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/02Agriculture; Fishing; Forestry; Mining
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • AHUMAN NECESSITIES
    • A01AGRICULTURE; FORESTRY; ANIMAL HUSBANDRY; HUNTING; TRAPPING; FISHING
    • A01BSOIL WORKING IN AGRICULTURE OR FORESTRY; PARTS, DETAILS, OR ACCESSORIES OF AGRICULTURAL MACHINES OR IMPLEMENTS, IN GENERAL
    • A01B79/00Methods for working soil
    • AHUMAN NECESSITIES
    • A01AGRICULTURE; FORESTRY; ANIMAL HUSBANDRY; HUNTING; TRAPPING; FISHING
    • A01GHORTICULTURE; CULTIVATION OF VEGETABLES, FLOWERS, RICE, FRUIT, VINES, HOPS OR SEAWEED; FORESTRY; WATERING
    • A01G7/00Botany in general

Definitions

  • the present invention belongs to the field of engineering, containing improvements applicable to the agroindustry, using intelligent software to estimate forage mass.
  • the invention relates to a method for identifying the coverage area and estimating the forage mass of a given region through a conventional image captured by photographs from ground vehicles, aerial vehicles or satellite.
  • the method and system proposed here are capable of subdividing the image into microregions and identifying for each one, the existence or not of the plant material of interest, differentiating it from materials such as soil, invasive vegetation and foreign objects in the scene, to subsequently promote estimates of local vegetation biomass density.
  • Document JP2019037198A presents a method for determining the degree or percentage of vegetation cover in a location with the aim of carrying out the best agricultural planning with reduced environmental impact.
  • JP2019037198A also provides a device to be used in this determination process. The analysis is carried out on images captured by cameras attached to drones or similar devices, with these images being treated by image filters.
  • JP2019037198A presents the analysis method disconnected from the drone, leaving as possibility of varying the connection of these elements, so that the drone is capable of including not only the camera but also the onboard software for processing the image obtained.
  • JP2019037198A A differentiator of the invention of this present document in relation to JP2019037198A is the fact that the JP2019037198A system analyzes vegetation cover by removing non-plant elements from the soil image through band filters, while the present invention treats the image fully , classifying each element therein .
  • US20210004594 presents a method for measuring vegetation data aimed at optimizing work routes in the process of planting this vegetation. This method consists of using a pre-trained intelligent system to identify optimized planting routes, without the limitation of application purely to the optimization of this route. In a variation, US20210004594 presents the use of this method for monitoring/analysis of the growth conditions of this vegetation. The analysis is carried out on an image collected from the location, this image being collected, for example, by a camera attached to a drone or similar. The analysis method is not explained in US20210004594, and the possibility of using algorithms for color recognition or recognition of a certain image, for example, is open.
  • US20210004594 also presents as input data historical factors associated with the planting region which, for reference in this present search, can be understood as data incorporated during the training of the intelligent algorithm such as, for example, seasons, soil quality, common intrusive vegetation and the association of these elements with the images from the training database.
  • US20210004594 uses a convolutional neural network (Convolutional Neural Networks - CNN) for this analysis of historical data, and leaves open the possibility of adaptation to other image recognition models.
  • the image segmentation of US20210004594 is carried out using the FPN (Feature Pyramid Network) model.
  • FPN Feature Pyramid Network
  • Document W02020068962 discloses a digital image analysis method for detecting soil surface conditions. Despite not being directly related to vegetation detection, the degree of detail given to the method of W02020068962 is comparable to the proposed invention, with the necessary reservations and adaptations. W02020068962 provides possibilities for applying the method to detect damage to parking lots, sidewalks, roads and any other surfaces. The method of W02020068962 performs the analysis of digital images, these images being obtained by means such as satellite and cameras attached to drones, in addition to images obtained on the ground and by sensor devices. Furthermore, W02020068962 leaves open the possibility of adapting its model to any digital image by those skilled in the art.
  • the damage analysis system of W02020068962 uses the procedure for generating an orthomosaic map or through orthorectification of images, reducing existing distortions and reducing analysis costs per pixel.
  • the image pre-processing phase of W02020068962 performs the labeling of the partitioned image, the partitioning being apparently carried out by homogeneous mesh, differing from the analysis and labeling method of the present invention.
  • W02020068962 leave in Open the possibility of using other image labeling and partitioning models.
  • Document CN102592056 presents an image analysis method for determining the region covered by vegetation, being capable of additionally identifying visual elements of soil, shadow and water.
  • the method is based on a classification model using historical data on different soil types, seasonal variations, heterogeneity and interannual changes.
  • the model uses SVD decomposition or SNR transformation on the remotely obtained image to define microregions or subdivide the image for later analysis. Each of these members or microregions is analyzed in search of vegetation cover identification.
  • Document CN108229403 presents a hybrid model for estimating vegetation cover area index for pest monitoring and vegetation cover estimation. More specifically, this model deals with estimating the area of vegetation cover by analyzing high-resolution images and satellite data, and extracts the region with and without vegetation through 8 vegetation indices.
  • the present invention refers to a method of analyzing and processing images for estimating vegetation cover using software with an intelligent algorithm and mesh generation.
  • Mesh elements subdivide, identify and classify image elements into soil (CO), tree (Cl), weedy or invasive plant mass (C2), shadow or shaded region (C3), animal (C5), plant mass (C6) or in another element not belonging to any category (C4), and the identifications and classifications are given by software training and depending on the image parameters, which include time of year, period of day, geospatial image collection data , height in relation to the ground of the image capture position, rainfall conditions and dry season.
  • the mesh is generated via software trained with an intelligent machine learning algorithm, so that the mesh elements define a heterogeneous distribution mesh. It is noteworthy that the method of this invention allows for obtaining the forage mass by analyzing a single image, without the need for additional or complementary data.
  • the plant mass category (C6) is represented by a continuous response between 0 and 5, proportionally indicating the amount of plant mass available, allowing fluidity in determining biomass between species or different heights of plant mass.
  • the software training is carried out using images collected in situ, in which each image is collected in duplicate, and images are collected for different environmental factors, different pasture factors and different noise variables, so that the software with AI algorithm is configured to Image identification with minimization of classification error due to visual noise.
  • Environmental factors include the time of year, different collection times, different solar incidence and different natural lighting conditions.
  • Noise variables include non-plant intrusive elements, presence of animals, rough terrain, terrain with high relief and plant or weed intrusive elements.
  • the image is collected in flight by a camera attached to a drone-type aerial vehicle, any of which is maneuvered by an operator on site, maneuvered by an operator remotely, semi-automated or automated.
  • the software is capable of processing RGB images collected at altitudes from 10m to 250m, preferably from 30m to 150m, even more preferably from 50m to 100m, using conventional capture equipment.
  • the present invention refers to an image collection, processing and analysis system for estimating vegetation cover with an image collection step, a processing and labeling step for image elements and a step data classification.
  • the image collection stage is carried out by a camera attached to a remote steering vehicle and the processing and labeling of elements and data classification stages are carried out in software according to the analysis method of this invention.
  • the system of this invention is applied to the estimation of forage mass in pastures, which can be expanded to the use of identification of any type of RGB image of green masses and the like.
  • An objective of the present invention is to present a system and method for analyzing pasture images that allows, based on data from a single conventional image, to estimate forage mass and other statistical data of interest.
  • Another objective of the present invention is the use of remote information capture and aerial mobile technologies, with the rotary-wing drone as the best compromise for transporting sensor systems, the main one being a conventional high-speed RGB camera. resolution, thus ensuring a good cost ratio for technology and sampling/inference area
  • Another objective is to enable basic commercial and professional drones as basic and sufficient hardware for estimating plant mass in the agricultural context.
  • Figure 1 shows the collection and capture frame system at ground level of the cutting region for control and reference and a detail of the image captured by the drone, generating clear delimitation of the collection point.
  • Figure 2 shows two images taken from the same location, one referring to the wet period and the other taken during the dry period.
  • Figure 3 shows images taken during the drought period under different environmental conditions.
  • Figure 4 presents an example of the labeling process for general classification (left) and focusing only on the collection area (right).
  • Figure 5 shows the representative flow of information transformation according to this invention.
  • Figure 6 presents an image captured with a flight at 50 meters (left) and in detail the observation of the selection details (right).
  • Figure 7 shows examples of different image processing results for highlighting plant material.
  • Figure 8 shows the illustrative composition of the drought index generated for classifying seasons (left) and the focus index and examples of images in each of the quality categories (right).
  • Figure 9 shows an illustrative sequence of operations under an aerial image cutout of the Marandu species during the wet season.
  • Figure 10 shows an embodiment of a software interface using the method of this invention.
  • Figure 11 shows the color system established for interpreting the visual results of the models, with the ruler on a continuous scale for plant mass.
  • Figures 12A to 12F show images evaluated according to the method of this invention.
  • Figures 13A to 13D show representative images of the robustness of the method of this invention, and its application flexibility.
  • the present invention refers to a METHOD for identifying the coverage area and estimating the forage mass of a given region through a conventional image (RGB) captured by photographs from ground vehicles, aerial vehicles or satellite.
  • RGB conventional image
  • the process is capable of subdividing the image into microregions and identifying for each one, the existence or not of the plant material of interest, differentiating it from materials such as soil, invasive vegetation and foreign objects in the scene, to subsequently promote estimates of the local density of the vegetation biomass.
  • the SYSTEM generates a biomass map of the input image which, combined with information from the image capture, also provides information on the effective coverage areas, as well as the calculation of the total mass belonging to these regions. This set of information provides a source of great value for pasture management processes, promoting gains in livestock production as well as pasture sustainability, reducing costs or expenses with failed predictions.
  • the method and system of this invention have three characteristic phases: (a) data collection and processing, (b) development of modeling or training of the intelligent algorithm, and (c) implementation of the interface or analysis and collection of statistical data desired images from the collected images.
  • the collection process was conditioned by the sample category, however, for reasons of standardization and simplification of correlations and metrics, the collection area was agreed to a common square area of 1 m2 .
  • Time of year - The time of year proved to be highly relevant to the results, and can essentially be divided into 3 periods: wet period, dry period, and a transition period. It is also worth noting that the transition period occurs accelerated when going from droughts to waters, with a maximum period of around a few weeks, being considerably slower in the opposite direction.
  • Presence of shadows - Shadows can be generated in the image, by trees, holes and other strange objects in the scene, causing difficulties in classification and even occlusions of the pasture of interest. Given this high lack of characterization, a specific class was assigned to the shadow regions, enabling the identification of the shadow with subsequent isolated treatment, if applicable, instead of trying to infer the pasture beneath it.
  • Lighting condition - Another important aspect is the usual variations in lighting generated by natural variations in climatic conditions, highlighting open weather, considered the ideal operating condition, cloudy weather, marked by changes in light intensity during capture, and rainy and closed weather, which were discarded as representing conditions in which the drone could not take off. Complementing the relationship, Figure 3 exemplifies the influence of this and other environmental factors.
  • Collection locations The collection location for software training offers a particular variety of terrain, lighting, objects, animals and the like, ensuring the reproducibility of the solution.
  • Pasture condition The pasture and its interaction with the land may present different levels of quality, degradation and deficiencies, and can be treated with random image collections along with considerations randomly susceptible to these variations.
  • Presence of invaders The level, type of invasion and its interaction with the pasture are also factors considered noise, and can be treated by expanding the species portfolio, including subclasses or reclassifying the image after initial analysis by the software .
  • Class labeling Manual and supervised labeling of the different regions in the images, making use of the entire set of classes, with 5 levels of biomass, soil, shade, tree, weed and animal. This activity aims at the volume and quality of notes, providing sufficient input for the development of models.
  • Figure 4 aims to illustrate and promote greater understanding of labeling activities for the two different classification approaches, in which an example of a labeling process for general classification is presented on the left and, on the right, an example of a labeling process focusing only on the collection area.
  • buttons Considering the operation on multiple images, two buttons were implemented that allow the user to advance to the next image or regress to the previous image, speeding up the navigation process.
  • Species selection box In order to associate class notes with their respective species, a selection box, with some species initially provided, was implemented. This process allows the classification of multiple species per image.
  • Block reference visual fields Two visual fields were implemented that allow the user to select two blocks of their choice that serve as parameters so that they can reference themselves during the classifications.
  • the system improves navigation in order to minimize annotation time, setting the zoom at 75% and centering the image close to the collection point.
  • Height estimation model Model that correlates mass and height information for each species group and season, that is, it returns the height equivalent to a given mass value.
  • Figure 6 shows the automatic selection of regions with a flight distance of 50 meters, along with a highlighted zoom of the image itself to observe the details of the selection. It is possible to visualize the flexibility of the irregular mesh generated, capable of contouring the different elements, appropriately separating them into each previously informed classification.
  • the second stage of image processing aims to provide a mathematical description for each of the blocks, transforming the image into sets of numbers that describe it.
  • a series of descriptors were implemented and applied to the blocks in order to highlight characteristics of interest, seeking to promote differences between classes.
  • the descriptors made use of descriptive statistics in combination with image processing involving: color spaces, color indices, format, texture, among others. To exemplify the potential of the descriptors used, some of the processing applied can be visually observed in the images in Figure 7.
  • Selected learning model At the end of the evaluations, the random decision tree model was selected, as it presented the best compromise in adapting to the complexity and volume of input data, reducing the effects of unbalance and over-adjustment, in addition to enabling the creation of different types and variations of machine learning models.
  • Model combination Aiming for a better Taking advantage of the volume of training data and greater precision for estimating biomass levels, a model combination approach was employed. For the main times of the year (droughts and rains) a classification model, denoted as general, makes use of all data available in the period and aims to recognize and differentiate: soil, grass and other materials. Regression models defined as experts are trained for each group of species and only aim to differentiate biomass levels. The result comprises the selective combination of both, replacing the grass classes with a continuous value, between 0 and 5, coming from the regression;
  • Figure 10 shows a functional prototype of the interface, highlighting the main interaction fields, a) Image viewing area, b) Results area, c) Left side menu, d) Options menu.
  • Classifications are carried out using indicative colors, as shown in Figures 11A to 11D. Colors are assigned to the elements: soil (CO), tree (Cl), weedy or invasive plant mass (C2), shadow or shaded region (C3), animal (C5), plant mass (C6) or another element not belonging to any category (C4).
  • the vegetable mass category (C6) represents a continuous range of values between 0 and 5, proportionally indicating the amount of vegetable mass available.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Software Systems (AREA)
  • Chemical & Material Sciences (AREA)
  • Business, Economics & Management (AREA)
  • General Health & Medical Sciences (AREA)
  • Mathematical Physics (AREA)
  • Agronomy & Crop Science (AREA)
  • Pathology (AREA)
  • Artificial Intelligence (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Medical Informatics (AREA)
  • Food Science & Technology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Analytical Chemistry (AREA)
  • Medicinal Chemistry (AREA)
  • Immunology (AREA)
  • Animal Husbandry (AREA)
  • Marine Sciences & Fisheries (AREA)
  • Mining & Mineral Resources (AREA)
  • Biochemistry (AREA)
  • Economics (AREA)
  • Human Resources & Organizations (AREA)
  • Marketing (AREA)
  • Primary Health Care (AREA)
  • Strategic Management (AREA)
  • Tourism & Hospitality (AREA)
  • General Business, Economics & Management (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)

Abstract

A presente invenção pertence ao campo da engenharia, contendo aprimoramentos aplicáveis à agroindústria, em utilização de softwares inteligentes para estimativas de massa de forragem. A invenção refere-se a um método para identificar a área de cobertura e estimar a massa de forragem de uma determinada região através de uma imagem convencional capturada por fotografias de veículos em solo, veículos aéreos ou satélite. O método e o sistema aqui reivindicados são capazes de subdividir a imagem em microrregiões e identificar para cada uma, a existência ou não do material vegetal de interesse, se diferenciando de materiais como solo, vegetação invasora e objetos estranhos da cena, para em sequência promover estimativas da densidade local da biomassa da vegetação. Uma das características dessa invenção é a classificação de elemento sombra individualmente, possibilitando a otimização da análise da imagem.

Description

"MÉTODO E SISTEMA DE ANÁLISE E PROCESSAMENTO DE IMAGENS PARA ESTIMATIVA DE COBERTURA VEGETAL POR MEIO DE SOFTWARE EM APRENDIZAGEM DE MÁQUINA" .
CAMPO DA INVENÇÃO
[ 001 ] A presente invenção pertence ao campo da engenharia, contendo aprimoramentos aplicáveis à agroindústria, em utili zação de so ftwares inteligentes para estimativas de massa de forragem . A invenção refere-se a um método para identi ficar a área de cobertura e estimar a massa de forragem de uma determinada região através de uma imagem convencional capturada por fotografias de veículos em solo , veículos aéreos ou satélite . O método e o sistema ora propostos são capazes de subdividir a imagem em microrregiões e identi ficar para cada uma, a exi stência ou não do material vegetal de interesse , se di ferenciando de materiais como solo , vegetação invasora e obj etos estranhos da cena, para em sequência promover estimativas da densidade local da biomassa da vegetação .
DESCRIÇÃO DO ESTADO DA TÉCNICA
[ 002 ] O documento JP2019037198A apresenta um método de determinação do grau ou percentual de cobertura vegetal de uma locali zação com o intuito de reali zar o melhor planej amento agricola com reduzido impacto ambiental . Além da apresentação de um método de determinação , JP2019037198A também fornece um dispositivo a ser utili zado nesse processo de determinação . A análise é reali zada em imagens capturadas por câmeras fixadas a drones ou análogos , sendo essas imagens tratadas por filtros de imagem . JP2019037198A apresenta o método de análise desvinculado do drone , deixando como possibilidade de variação a conexão desses elementos , de modo que o drone sej a capaz de contemplar não apenas a câmera fotográfica como também o software embarcado para processamento da imagem obtida . Um di ferencial da invenção deste presente documento em relação a JP2019037198A é o fato de que o sistema de JP2019037198A faz a análise da cobertura vegetal pela remoção de elementos não vegetais da imagem do solo através de filtros de banda, enquanto a presente invenção trata a imagem integralmente , classi ficando cada elemento ali pertencente .
[ 003 ] US20210004594 apresenta um método de medição de dados de vegetação voltado para a otimi zação de rotas de trabalho no processo de plantio dessa vegetação . Esse método consiste na utili zação de um sistema inteligente pré- treinado para identi ficação de rotas otimi zadas de plantio , sem a limitação de aplicação puramente à otimi zação dessa rota . Em uma variação , US20210004594 apresenta a utili zação desse método para acompanhamento/ análise das condições de crescimento dessa vegetação . A análise é feita em uma imagem coletada do local , sendo essa imagem coletada, por exemplo , por câmera acoplada a drone ou análogo . O método de análise não fica explicitado em US20210004594 , sendo aberta a possibilidade de utili zação de algoritmos por reconhecimento de cor ou por reconhecimento de uma determinada imagem, por exemplo . US20210004594 ainda apresenta como dados de entrada fatores históricos associados à região de plantio que , para referência desta presente busca, podem ser compreendidos como dados incorporados durante o treinamento do algoritmo inteligente como , por exemplo , estações do ano , qualidade do solo , vegetação intrusa comum e a associação desses elementos com as imagens do banco de dados de treinamento . US20210004594 utili za rede neural convolucional ( Convolutional Neural Networks - CNN) para essa análise de dados históricos , e deixa aberta a possibilidade de adaptação a outros modelos de reconhecimento de imagem . A segmentação da imagem de US20210004594 é reali zada por meio de modelo FPN ( Feature Pyramid Network) .
[ 004 ] O documento W02020068962 revela um método de análise de imagens digitais para detecção de condições de superfície de solo . Apesar de não estar diretamente relacionado à detecção de vegetação , o grau de detalhamento conferido ao método de W02020068962 é comparável à invenção proposta, com as devidas ressalvas e adaptações . W02020068962 deixa como possibi lidades de aplicação do método à detecção de dano em estacionamentos , calçadas , estradas e quaisquer outras superficies . O método de W02020068962 reali za a análise de imagens digitais , sendo essas imagens obtidas por meios tais como satélite e câmeras acopladas a drones , além de imagens obtidas no solo e por dispositivos sensores . Ainda, W02020068962 deixa em aberto a possibilidade de adaptação de seu modelo a qualquer imagem digital por aqueles versados na técnica . O sistema de análise de danos de W02020068962 utili za o procedimento de geração de um mapa ortomosaico ou através de ortorreti f icação das imagens , reduzindo as distorções existentes e reduzindo os custos de análise por pixels . A fase de pré-processamento de imagem de W02020068962 reali za a rotulação da imagem particionada, sendo o particionamento aparentemente reali zado por malha homogênea, di ferindo do método de análise e rotulação da presente invenção . W02020068962 deixa em aberto a possibilidade de utili zação de outros modelos de rotulação e particionamento de imagem .
[ 005 ] O documento CN102592056 apresenta um método de análise de imagem para determinação de região coberta por vegetação , sendo capaz de identi ficar adicionalmente elementos visuais de solo , de sombra e de água . O método se baseia em um modelo de classi ficação utili zando dados históricos de di ferentes tipos de solo , variações de estação , heterogeneidade e mudanças interanuais . O modelo utili za decomposição SVD ou trans formação SNR na imagem obtida remotamente para definir microrregiões ou subdividir a imagem para posterior análise . Cada um desses membros ou microrregiões é analisado em busca de identi ficação de cobertura vegetal .
[ 006 ] O documento CN108229403 apresenta um modelo hibrido de estimativa de indice de área de cobertura de vegetação para monitoramento de pestes e estimativa de cobertura vegetal . Mais especi ficamente , esse modelo trata da estimativa da área da cobertura vegetal por análise de imagens de alta resolução e dados de satélite , e extrai a região com e sem vegetação através de 8 indices de vegetação .
[ 007 ] O Requerente concebeu, testou e incorporou a presente invenção de forma a superar as de ficiências do estado da técnica e obter os propósitos e vantagens acima mencionados e abaixo explicitados .
SUMÁRIO DA INVENÇÃO
[ 008 ] A presente invenção é apresentada e caracterizada nas reivindicações independentes , enquanto as reivindicações dependentes descrevem outras características da invenção ou modalidades relativas à ideia inventiva principal . [009] Em um primeiro aspecto a presente invenção refere- se a um método de análise e processamento de imagens para estimativa de cobertura vegetal por meio de software com algoritmo inteligente e geração de malha. Os elementos de malha subdividem, identificam e classificam os elementos da imagem em solo (CO) , árvore (Cl) , massa vegetal do tipo daninha ou invasora (C2) , sombra ou região sombreada (C3) , animal (C5) , massa vegetal (C6) ou em outro elemento não pertencente a nenhuma categoria (C4) , e as identificações e classificações são dadas por treinamento do software e em função dos parâmetros de imagem, que incluem época ano, periodo o dia, dado geoespacial de coleta de imagem, altura em relação ao solo da posição de captura da imagem, condições pluviométricas e periodo de estio. A malha é gerada via software treinado com algoritmo inteligente por aprendizagem de máquina, de modo que os elementos de malha definem uma malha de distribuição heterogênea. Destaca-se que o método desta invenção permite a obtenção da massa de forragem pela análise de uma única imagem, sem necessidade de dados adicionais ou complementares.
[010] A categoria massa vegetal (C6) é representada por uma resposta continua entre 0 e 5, indicando proporcionalmente a quantidade da massa vegetal disponível, permitindo a fluidez na determinação de biomassa entre espécies ou diferentes alturas de massa vegetal.
[011] O treinamento do software é realizado por imagens colhidas in situ, em que cada imagem é colhida em tréplica, e são colhidas imagens para diferentes fatores ambientais, diferentes fatores de pasto e diferentes variáveis ruido, de modo que o software com algoritmo IA é configurado para identificação de imagens com minimização de erro de classificação por ruido visual. Entre os fatores ambientais, tem-se época do ano, diferentes horários de coleta, diferentes incidências solares e diferentes condições naturais de iluminação. Nas diferenças nos fatores de pasto, destacam-se a existência de diferentes espécies componentes da massa vegetal, a observação de diferentes alturas e massas de cobertura vegetal. As variáveis ruido incluem elementos intrusivos não-vegetais, presença de animais, terreno acidentado, terreno com alto relevo e elementos intrusivos vegetais ou daninhas.
[012] A imagem é colhida em voo por uma câmera acoplada a um veiculo aéreo do tipo drone, sendo qualquer um dentre manobrado por um operador no local, manobrado por um operador remotamente, semi automatizado ou automatizado. Para estas imagens o software é capaz de processar imagens RGB colhidas em altitude de 10m até 250m, preferencialmente de 30m até 150m, ainda mais preferencialmente de 50m a 100m, através de equipamentos convencionais de captura.
[013] Em um segundo aspecto a presente invenção refere- se a um sistema de coleta de imagens, processamento e análise para estimativa de cobertura vegetal com uma etapa de coleta de imagens, uma etapa de tratamento e rotulação de elementos das imagens e uma etapa de classificação dos dados. A etapa de coleta de imagens é realizada por uma câmera acoplada a um veiculo de direção remota e as etapas de tratamento e rotulação de elementos e de classificação dos dados são realizadas em um software segundo o método de análise desta invenção .
[014] O sistema dessa invenção é aplicado para a estimativa de massa de forragem em pastagens , podendo ser expandido à utili zação de identi ficação de qualquer tipo de imagem RGB de massas verdes e afins .
OBJETIVOS DA INVENÇÃO
[ 015 ] Um obj etivo da presente invenção é o de apresentar um sistema e um método de análise de imagens de pastagens que permita, a partir dos dados de uma única imagem convencional , estimar a massa de forragem e demais dados estatísticos de interesse .
[ 016 ] 0 proj eto e o estudos desenvolvidos tem como motivadores a concepção de uma solução tecnológica adequada ao contexto agropecuário capaz de promover estimativa confiável da massa vegetal e altura, fazendo uso de tecnologias acessíveis e com capacidade de ampla área de amostragem .
[ 017 ] Outro obj etivo da presente invenção é o uso de tecnologias de captura remota de informações e móveis aéreos , tendo o drone de asa rotativa como o melhor compromisso para o transporte dos sistemas de sensores , sendo o principal uma câmera convencional RGB de alta resolução , assegurando assim uma boa relação de custo da tecnologia e área de amostragem/ inferência
[ 018 ] Outro obj etivo é a viabili zação de drones comerciais e profissionais básicos como hardware base e suficiente para de estimativa da massa vegetal no contexto agropecuário .
BREVE DESCRIÇÃO DAS FIGURAS
[ 019 ] Essas e outras características da presente invenção tornar-se-ão evidentes a partir da descrição a seguir de algumas modalidades , dadas como exemplo não restritivo com referência aos desenhos anexos, em que
[020] A Figura 1 apresenta o sistema de quadro de coleta e captura a nivel do solo da região de corte para controle e referência e um detalhe da imagem capturada pelo drone, gerando delimitação clara do ponto de coleta.
[021] A Figura 2 apresenta duas imagens retiradas do mesmo local, sendo uma referente ao periodo de águas e outra realizada no periodo das secas.
[022] A Figura 3 apresenta imagens retiradas no periodo de secas sob diferentes condições ambientais.
[023] A Figura 4 apresenta um exemplo do processo de rotulação para classificação geral (esquerda) e com enfoque apenas na área de coleta (direita) .
[024] A Figura 5 apresenta o fluxo representativo da transformação da informação segundo esta invenção.
[025] A Figura 6 apresenta uma imagem capturada com um voo a 50 metros (esquerda) e em detalhe a observação dos detalhes da seleção (direita) .
[026] A Figura 7 apresenta exemplos de resultados de processamentos de imagens distintos para o destaque do material vegetal.
[027] A Figura 8 traz a composição ilustrativa do indice de seca gerado para classificação de épocas (esquerda) e o indice de foco e exemplos de imagens em cada uma das categorias de qualidade (direita) .
[028] A Figura 9 traz uma sequência ilustrativa das operações sob um recorte de imagem aérea da espécie Marandu na época das águas .
[029] A Figura 10 apresenta uma modalidade da interface de um software utilizando o método desta invenção. [030] A Figura 11 traz o sistema de cores estabelecido para interpretação dos resultados visuais dos modelos, com a régua em escala continua para massa vegetal.
[031] As Figuras 12A a 12F trazem imagens avaliadas segundo o método desta invenção.
[032] As Figuras 13A a 13D trazem imagens representativas da robustez do método desta invenção, e de sua flexibilidade de aplicação.
DESCRIÇÃO DETALHADA DA INVENÇÃO
[033] Os exemplos aqui mostrados têm o intuito somente de exemplificar uma das inúmeras maneiras de se realizar a invenção, contudo sem limitar o escopo da mesma.
[034] A presente invenção refere-se a um MÉTODO para identificar a área de cobertura e estimar a massa de forragem de uma determinada região através de uma imagem convencional (RGB) capturada por fotografias de veículos em solo, veículos aéreos ou satélite. O processo é capaz de subdividir a imagem em microrregiões e identificar para cada uma, a existência ou não do material vegetal de interesse, se diferenciando de materiais como solo, vegetação invasora e objetos estranhos da cena, para em sequência promover estimativas da densidade local da biomassa da vegetação.
[035] O SISTEMA gera um mapa de biomassa da imagem de entrada que, aliado às informações da captura da imagem, promovem também informações das áreas efetivas de cobertura, assim como o cálculo da massa total pertencente a estas regiões. Esse conjunto de informações confere uma fonte de grande valor para os processos de manejo da pastagem, promovendo ganhos na produção pecuária assim como a sustentabilidade do pasto, reduzindo custos ou gastos com previsões falhas.
[036] Os objetivos específicos do invento buscaram a viabilização de drones comerciais e profissionais básicos como hardware base e suficiente para de estimativa da massa vegetal no contexto agropecuário. Promovendo informações importantes para a o manejo da pastagem como:
- Local e área sob análise;
- Estimativa da massa de forragem; e
- Estimativa da cobertura do solo.
[037] A presente seção contempla os esforços de adquirir e tratar a informação da aplicação, promovendo os insumos criticos para os modelos de aprendizagem de máquina utilizados. As abordagens aqui apresentadas promovem grande importância à construção dos bancos de dados, sendo passo fundamental para o sucesso de aprendizado do algoritmo utilizado no software desenvolvido e participante desta invenção .
[038] O método e o sistema dessa invenção possuem três fases características: (a) coleta e processamento de dados, (b) desenvolvimento da modelagem ou treinamento do algoritmo inteligente, e (c) implementação da interface ou análise e coleta de dados estatísticos desejados das imagens coletadas .
[039] O processo de coleta de imagens, em especial para a captura das imagens em voo e o ideal posicionamento da câmera, do local de marcação no solo e da redução de indicadores visuais, apresentou grande evolução durante o desenvolvimento, tanto em qualidade quanto em logística. Por exemplo, em meados da coleta no periodo de secas, o procedimento formalizado e aqui apresentado se tornou ótimo e representativo da análise realizada in situ . A Figura 1 apresenta o método de coleta de imagens otimi zado , em que são expostos o posicionamento do quadro de coleta e captura a nivel do solo da região de corte , com detalhe da imagem capturada pelo drone . É possível notar a clara delimitação do ponto de coleta, definida pela área de lm2 demarcada e o padrão de coleta abaixo explicitado :
- Foto centralizada e perpendicular ao solo : 0 processo de voo e captura das imagens foi sendo refinado , promovendo fotos de melhor qualidade para a observação da cena .
- Repetição da foto : Inicialmente uma única foto de cada região era coletada, um processo de tréplica foi implementado , gerando comparativos e redução dos erros de captura .
- Captura da região de corte ao nivel do solo : De maneira a promover melhor entendimento da condição original da amostra antes do processo de corte , fotos adicionais ao nivel do solo passaram a ser coletadas em conj unto as imagens do drone .
- Padronização da área de corte : 0 processo de coleta era condicionado a categoria da amostra, contudo por questões de padroni zação e simpli ficação das correlações e métricas , a área de coleta foi convencionada para uma área comum quadrada de 1 m2 .
- Implementação de um quadro de coleta : Complementando a padroni zação da área discutida, uma das principais melhorias do processo de coleta, reside na utili zação de um quadro com a mesma dimensão da região da coleta, proporcionando para as imagens aéreas a fácil e direta identificação do local de corte. Este artificio, auxiliou muito na definição precisa do local de geração dos dados, facilitando e garantindo a devida correlação das informações.
- Remoção dos marcadores de nivel e de posição de coleta: Como consequência a este novo processo, os demais marcadores de nivel e posição, puderam ser removidos, reduzindo o ruido visual da imagem, além de simplificar a logística em campo para captura dos dados. [040] Um outro ponto importante dessa fase de coleta (a) é a diferença observada devido a fatores ambientais, como estações do ano e estiagem, como apresentado na Figura 2. Em uma mesma localidade, a diferença substancial entre o visual da cobertura vegetal é um fator critico a ser considerado, e o método e o sistema desta invenção transpassam essa dificuldade. Assim, o algoritmo inteligente utilizado pelo software participante nesta invenção leva em consideração fatores ambientais, fatores do pasto e variáveis ruido.
[041] FATORES AMBIENTAIS
[042] Época do ano - A época do ano se mostrou altamente relevante para os resultados, podendo ser dividida essencialmente em 3 períodos: periodo de águas, periodo de secas, e um periodo de transição. Vale notar, ainda, que o periodo de transição ocorre de modo acelerado quando indo das secas para as águas, com um prazo máximo de cerca de algumas semanas, sendo consideravelmente mais lento no sentido inverso.
[043] Horário da coleta - O horário de captura das imagens afeta a cena pela inclinação da fonte luminosa, no nascente e no poente, alterando sua cromaticidade, e modificando de forma considerável as projeções de sombras. Tais fatores são grandes descaracterizadores da imagem e, portanto, esta invenção considera dois niveis distintos de operação para essa variável: o intervalo de operação durante o dia, das 10 às 16 horas, e das extremidades associadas a momentos além dos discutidos.
[044] Presença de sombras - Sombras podem ser geradas na imagem, por árvores, buracos e outros objetos estranhos na cena, ocasionando em dificuldades na classificação e até mesmo oclusões do pasto de interesse. Frente a esta alta descaracterização, atribuiu-se para as regiões de sombra uma classe especifica, possibilitando a identificação da sombra com posterior tratamento isolado, se aplicável, ao invés de tentar inferir o pasto sob ela.
[045] Condição de iluminação - Outro aspecto importante trata-se das variações usuais de iluminação geradas por variações naturais das condições climáticas, destacando-se o tempo aberto, considerada a condição ideal de operação, o tempo nublado, marcada pela mudança de intensidade luminosa na captura, e tempos chuvosos e fechados, que foram descartados por representarem condições em que o drone não poderia levantar voo. Complementando a relação, a Figura 3 exemplifica a influência deste e outros fatores ambientais.
[046] FATORES DO PASTO
[047] Espécies - A separação dos bancos de dados em função de suas espécies evidenciou a grande variedade existente e, principalmente, as suas diferenças quanto à altura, à massa e a aspectos visuais. Visando reduzir o grande espectro de pastos, estes foram organizados em grupos de características similares, sendo proposta uma subdivisão em três grupos, com as espécies de tipo alto, médio e baixo.
[ 048 ] Altura/Massa - Este aspecto da coleta configura um dos principais fatores do planejamento amostrai, dado o objetivo da tecnologia de promover classificação e estimativa das diferentes regiões da imagem. Assim foi necessária uma coleta que promova observações de todos os diferentes niveis de biomassa passíveis de serem visualizados no campo. Este requisito guiou as coletas, visando uma distribuição equilibrada das classes.
[049] Alguns outros fatores, embora não tenham sido manipulados e explicitados na invenção apresentada neste documento, podem ser considerados como facilmente aplicáveis, tais como fatores pluviométricos , inserção de espécies, acidentes ambientais e outros. O conteúdo aqui exposto não deve ser tratado como restritivo, podendo ser expandido, trabalhado e incorporado a diferentes variações e incrementações .
[050] VARIÁVEIS RUÍDO
[051] Locais de coleta - O local de coleta para treinamento do software oferece uma particular variedade de terreno, iluminação, objetos, animais e afins, assegurando a reprodutibilidade da solução.
[052] Relevo - A maior parte dos terrenos tratados possuem uma disposição plana e razoavelmente comportada, gerando imagens de regiões ortogonais de captura. Assim grandes desníveis e variações bruscas de relevo não foram diretamente contabilizadas, podendo ser facilmente adaptados. Por exemplo, a coleta de imagem angulada ou a associação de duas ou mais imagens coletadas em diferentes posições no entorno de uma região acidentada ou de elevado relevo permitiria a utilização da presente invenção.
[053] Condição do pasto - 0 pasto e a sua interação com o terreno podem apresentar diferentes niveis de qualidade, degradação e deficiências, podendo ser tratados com coletas aleatórias de imagem junto a considerações susceptíveis aleatoriamente a estas variações.
[054] Presença de invasoras - O nivel, o tipo de invasão e a sua interação com o pasto também são fatores considerados ruido, podendo ser tratados pela expansão do portfolio de espécies, inclusão de subclasses ou reclassif icação da imagem após análise inicial pelo software.
[055] O conjunto de informações de imagens e dados do campo, após coletados, são compilados, tratados e anotados de forma a compor um banco de dados centralizado, consolidando e catalogando as informações das condições de aplicações propostas. Esta estrutura possibilita o acompanhamento, direcionamento e principalmente os fundamentos para as atividades posteriores de tratamento e treinamento dos modelos desenvolvidos, análise estatística das imagens e obtenção de dados desejados.
[056] Em complemento a essa base centralizadora de dados, outras bases complementares de dados de extrema importância podem ser desenvolvidas e registradas, tendo como insumo as atividades de rotulação realizadas pelos especialistas da área agropecuária. Estas atividades têm o intuito de caracterizar os elementos presentes na cena por classificação em classes. Esse processo visa capturar a interpretação de olhos treinados sobre as condições da imagem, possibilitando o adequado treinamento de modelos de aprendizagem de máquina. [057] A rotulação das regiões configura assim o insumo básico dos modelos tratados em sequência. Para suporte e velocidade, um sistema de realização dos rótulos foi implementado, facilitando a captura da percepção dos especialistas. As atividades de rotulação tiveram em principio duas formas de atuação, denominadas de:
[058] Rotulação das classes: Rotulação manual e supervisionada das diversas regiões nas imagens, fazendo uso de todo conjunto de classes, sendo 5 niveis de biomassa, solo, sombra, árvore, daninha e animal. Esta atividade visa volume e qualidade das anotações, promovendo insumos suficientes para o desenvolvimento dos modelos.
[059] Rotulação das massas: Rotulação apenas das regiões de coleta considerando apenas os 5 niveis de biomassa, com o propósito de avaliar a correlação entre a percepção do especialista e os dados de altura e biomassa coletados. Esta atividade tem como propósito avaliar o desempenho dos anotadores e orientar os estudos de ajuste e calibração das estimativas .
[060] A Figura 4 visa ilustrar e promover maior entendimento das atividades de rotulação para as duas diferentes abordagens de classificação, em que é apresentado à esquerda um exemplo de processo de rotulação para classificação geral e, à direita, um exemplo de processo de rotulação com enfoque apenas na área de coleta.
[061] FUNCIONALIDADES DO SOFTWARE
[062] Quanto ao software de rotulação, destacam-se importantes características que conferem otimizada experiência ao usuário.
- Ferramentas de seleção: Possibilidade de selecionar individualmente os blocos , assim como uma área em formato de caixa que permite ao usuário a seleção de múltiplos componentes .
- Opção de esconder a grade da imagem : Para facilitar a visuali zação da imagem original , foi implementada a opção de esconder ou habilitar a grade de blocos da imagem .
- Botões de avançar e voltar imagem : Considerando a operação em múltiplas imagens , foram implementados dois botões que permitem ao usuário avançar para a próxima imagem ou regredir para a imagem anterior, agili zando o processo de navegação .
- Salvar automaticamente : Para garantir a integridade dos dados e evitar retrabalhos , a cada rotulação do usuário o trabalho é salvo de forma automática .
- Caixa de seleção de espécie : De maneira a associar os apontamentos das classes a sua respectiva espécie , uma caixa de seleção , com algumas espécies inicialmente fornecidas , foi implementada . Este processo permite a classi ficação de múltiplas espécies por imagem .
- Caixa de seleção de usuário : Visto a necessidade de avaliar a consistência e reprodutibilidade das anotações , e consequente melhoria no processo de estimação . Uma lista de usuários foi implementada, possibilitando a identi ficação e resgate automático das atividades do autor .
Campos visuais de referência de bloco : Foram implementados dois campos visuais que permitem ao usuário selecionar dois blocos de sua escolha que sirvam como parâmetros para que possa se referenciar durante as classificações.
- Consistência na marcação: Para garantir consistência nas rotulações, o software só permite que sejam realizadas as marcações das classes quando a imagem estiver com zoom entre 75% ou 100%.
- Sistema de cores e legenda: Para uma melhor gestão visual da anotação, um sistema baseado em um padrão intuitivo de cores foi utilizado para demarcar as classes, alterando a tonalidade das regiões anotadas.
- Contador e legenda de cores: Um campo de visualização das legendas e contagem de classes foi implementado para orientar a anotação.
- Fluxo para rotulação das massas: Para as atividades de rotulação de massa, o sistema aprimora a navegação de maneira a minimizar o tempo de anotação, fixando o zoom em 75% e centralizando a imagem próximo ao ponto de coleta.
[063] FASE DE MODELAGEM
[064] Os desafios técnicos foram divididos e abordados com a concepção de três diferentes modelos, que são utilizados em sequência para obtenção das variáveis resposta desejadas, são eles:
- Modelo de cobertura vegetal: Modelo para promover interpretação aos elementos constituintes da imagem. Promove como saida um mapa de classes, possibilitando entre outras a avaliação da cobertura vegetal da área.
- Modelo de estimativa de biomassa: Modelo capaz de estimar a biomassa em função das classes de biomassa promovidas pelo modelo anterior e do grupo de espécies e época sob análise, em outras palavras, converte a medida compreendida na escala de 0 a 5 em valores reais de massa por área.
Modelo de estimativa de altura: Modelo que correlaciona para cada grupo de espécie e época as informações de massa e altura, isto é, retorna a altura equivalente a um determinado valor de massa.
[065] A interação dos modelos, assim como suas entradas e saldas, podem ser ilustradas através do fluxo da Figura 5.
[066] A Figura 6 apresenta a seleção automática de regiões com um voo à 50 metros, junto a um zoom em destaque da própria imagem para observação dos detalhes da seleção. É possível visualizar a flexibilidade da malha irregular gerada, capaz de contornar os diferentes elementos, adequadamente os separando em cada classificação previamente informada .
[067] A partir da subdivisão discorrida, a segunda etapa de processamento de imagens visa promover descrição matemática a cada um dos blocos, transformando a imagem em conjuntos de números que a descrevem. Assim, uma série de descritores foram implementados e aplicados aos blocos de forma a destacar características de interesse, buscando promoção das diferenças entre as classes. Em sintese, os descritores fizeram uso da estatística descritiva em combinação a processamentos de imagens envolvendo: espaços de cor, indices de cor, formato, textura entre outros. Para exemplificar o potencial dos descritores utilizados, alguns dos processamentos aplicados podem ser visualmente observados nas imagens da Figura 7.
[068] Em um fluxo paralelo, a imagem como um todo é também descrita e classificada por meio de operações de processamento de imagens , com intuito de promover suporte às operações de treinamento e estimativa, aprimorando o desempenho dos métodos de aprendi zagem de máquina, suas operações são as que seguem e podem ser visuali zadas também na Figura 8 .
[ 069 ] Com base nas informações levantadas pelo processamento de imagens , e no direcional definido para a estratégia de aprendi zagem de máquina, uma série de desenvolvimentos , tentativas , melhorias e aj ustes foram reali zados para concepção do modelo , sendo os principais explanados brevemente em sequência :
- Seleção dos dados de treinamento : A anotação dos três rotuladores foram combinadas para formar uma nova referência de treinamento , gerando dados de treinamento aprimorados . Esta combinação considerou a experiência e avaliações de desempenho dos rotuladores .
Balanceamento dos dados : Devido a distribuição natural das classes nas imagens ser altamente desbalanceada, algoritmos de balanceamento foram empregados , reali zando corte de dados excedentes e simulando novos dados para as classes de baixa ocorrência .
Modelo de aprendi zagem selecionado : Ao fim das avaliações o modelo de árvores de decisão aleatórias foi o selecionado , por apresentar o melhor compromisso de adequação a complexidade e volume dos dados de entrada, redução dos efeitos do desbalanceamento e sobre aj uste , além de possibilitar a criação de diversos tipos e variações de modelos de aprendi zagem de máquina .
Combinação de modelos : Visando um melhor aproveitamento do volume de dados de treinamento e maior precisão para as estimativas dos niveis de biomassa, uma abordagem por combinação de modelos foi empregada. Para as principais épocas do ano (secas e águas) um modelo de classificação, denotado como geral, faz uso de todos os dados disponíveis no periodo e tem o objetivo de reconhecer e diferenciar: solo, capim e outros materiais. Já os modelos de regressão definidos como especialistas, são treinados para cada grupo de espécies e tem o objetivo apenas de diferenciar os niveis de biomassa. 0 resultado compreende a combinação seletiva de ambos, substituindo as classes do capim, por um valor continuo, entre 0 e 5, proveniente da regressão ;
Hiperparâmetros do modelo: Trabalhando com os compromissos de complexidade, desempenho, tempo de inferência e sobre ajuste, diversos hiperparâmetros dos modelos de árvores aleatórias foram extensivamente testados e avaliados.
[070] As avaliações que guiaram essa definição de estrutura e parâmetros tiveram como base um extenso conjunto de testes, com mais de 300 configurações distintas, tendo como direcional as respostas quantitativas baseadas nas principais métricas de desempenho de modelos de classificação (acurácia, Fl-score, AUROC e matriz de confusão) e regressão (coeficiente de determinação, erro médio quadrático) , assim como resultados qualitativos com a aplicação dos modelos e avaliação dos especialistas a imagens reais de campo. Os resultados dos modelos escolhidos poderão ser visualizados nas Figuras 12A a 12F e 13A a 13D. [071] A Figura 9 apresenta uma sequência ilustrativa das operações sob um recorte de imagem aérea da espécie Marandu na época das águas, sendo um exemplo de forma a evidenciar as escolhas da arquitetura final para a modelagem da cobertura. Ainda, A Figura 10 traz um protótipo funcional da interface, com destaque aos principais campos de interação, a) Área de visualização da imagem, b) Área de resultados, c) Menu lateral esquerdo, d) Menu de opções. As classificações são realizadas por cores indicativas, segundo o exposto nas Figuras 11A a 11D. As cores são atribuídas aos elementos: solo (CO) , árvore (Cl) , massa vegetal do tipo daninha ou invasora (C2) , sombra ou região sombreada (C3) , animal (C5) , massa vegetal (C6) ou em outro elemento não pertencente a nenhuma categoria (C4) . A categoria massa vegetal (C6) representa um intervalo continuo de valores entre 0 e 5, indicando proporcionalmente a quantidade da massa vegetal disponível .
[072] Para a construção dos modelos de estimativa de massa, algumas alternativas foram exploradas, ponderando o volume de informação e suas condições de obtenção. Dentre os dados disponíveis tem-se para cada imagem catalogada a coleta de uma região delimitada de massa e altura, assim como para algumas imagens sua classificação correspondente pela rotulação. Além disto de forma a complementar e expandir a quantidade de dados, foram consideradas para a concepção do modelo os dados totais da rotulação, isto é, a anotação das classes em múltiplos pontos nas imagens.
[073] Esta adição de informação se mostrou importante devido o relativo baixo volume das informações combinadas de massa e imagens, impedindo pela dimensionalidade do problema a implementação de modelos de regressão complexos regidos por abordagens de aprendi zagem de máquina, tanto de forma direta, com a regressão dos descritores da imagem para os dados de massa, quanto de forma indireta com a correlação das classes com os dados de massa . Vale , contudo , ressaltar que estas abordagens têm potencial para serem reavaliadas em caso de aumento dos dados de coleta em campo .
[ 074 ] Dadas as condições expostas a abordagem adotada considerando cada uma das principais épocas ( secas e águas ) teve como conj unto de premissas e direcionais os seguintes pontos :
- A rotulação por possuir um alto volume de dados (mais de 400 mil pontos ) e ser reali zada sob di ferentes imagens aleatoriamente selecionadas , tendem a refletir a realidade prática da distribuição das classes em cada época ;
- De maneira análoga, o levantamento de dados de massa, apesar de menos recorrentes , visa também acompanhar a distribuição de massa da época ;
- Ao fim do desenvolvimento , estima-se que os modelos de classi ficação terão alta aderência ao rotuladores , tornando as proposições de distribuição válidas ;
Para a regressão dos modelos foi considerada os valores de massa acumulada fornecidos em kg/ha .
[ 075 ] Nas reivindicações apresentadas neste documento , o único obj etivo das referências entre parênteses é facilitar a leitura : elas não podem ser consideradas como fatores restritivos no que di z respeito ao campo de proteção reivindicado nas reivindicações especi ficas .

Claims

REIVINDICAÇÕES
1. MÉTODO DE ANÁLISE E PROCESSAMENTO DE IMAGENS PARA ESTIMATIVA DE COBERTURA VEGETAL POR MEIO DE SOFTWARE E GERAÇÃO DE MALHA, caracterizado por gerar uma malha por Inteligência Artificial, em que os elementos de malha subdividem, identificam e classificam os elementos da imagem em árvore (Cl) , massa vegetal do tipo daninha ou invasora (C2) , sombra ou região sombreada (C3) , animal (C5) , solo (CO) , massa vegetal (C6) ou em outro elemento não pertencente a nenhuma categoria (C4) , e
- as identificações e classificações são dadas por treinamento do software e em função dos parâmetros de imagem, que incluem época ano, periodo o dia, dado geoespacial de coleta de imagem, altura em relação ao solo da posição de captura da imagem, condições pluviométricas e periodo de estio ; sendo a malha gerada via software treinado com algoritmo inteligente em aprendizagem de máquina, de modo que os elementos de malha definem uma malha de distribuição heterogênea, e
- a massa de forragem pode ser obtida pela análise e processamento de uma única imagem.
2. MÉTODO, de acordo com a reivindicação 1, caracterizado pelo fato de que a categoria massa vegetal (06) apresenta uma resposta continua entre 0 e 5, indicando proporcionalmente a quantidade da massa vegetal disponível, considerando a espécie observada e condições ambientais.
3. MÉTODO, de acordo com a reivindicação 1, caracterizado pelo fato de que a escala continua da categoria de massa vegetal de 0 a 5 é convertida em uma escala real de biomassa, em que a conversão se dá por utilização de dados históricos das espécies e condições ambientais.
4. MÉTODO, de acordo com a reivindicação 1, caracterizado pelo fato de que o treinamento do software é realizado por imagens colhidas in situ, em que
- cada imagem é colhida em tréplica, e são colhidas imagens para diferentes fatores ambientais como época do ano, diferentes horários de coleta, com diferentes incidências solares e para diferentes condições naturais de iluminação, e
- para diferentes fatores de pasto, como existência de diferentes espécies componentes da massa vegetal, observação de diferentes alturas e massas de cobertura vegetal, e
- para diferentes variáveis ruido de imagem, como elementos intrusivos não-vegetais, presença de animais, terreno acidentado, terreno com alto relevo e elementos intrusivos vegetais,
- de modo que o software com algoritmo de Inteligência Artificial é configurado para identificação de imagens com minimização de erro de classificação por ruido visual.
5. MÉTODO, de acordo com a reivindicação 4, caracterizado pelo fato de que a imagem é colhida em altitudes de 10m, configurando a imagem colhida no solo, até 250m.
6. MÉTODO, de acordo com as reivindicações 4 e 5, caracterizado pelo fato de que a imagem é colhida por uma câmera acoplada a um veiculo aéreo do tipo drone, sendo qualquer um dentre manobrado por um operador no local, manobrado por um operador remotamente, semiautomatizado ou automatizado .
7. MÉTODO, de acordo com qualquer uma das reivindicações anteriores, caracterizado pelo fato de ser aplicado para estimativa de massa verde.
8. SISTEMA DE COLETA DE IMAGENS, PROCESSAMENTO E ANÁLISE PARA ESTIMATIVA DE COBERTURA VEGETAL COM UMA ETAPA DE COLETA DE IMAGENS, UMA ETAPA DE TRATAMENTO E ROTULAÇÃO DE ELEMENTOS DAS IMAGENS E UMA ETAPA DE CLASSIFICAÇÃO DOS DADOS, caracterizado pelo fato de que a etapa de coleta de imagens é realizada por uma câmera acoplada a um veiculo de direção remota, e as etapas de tratamento e rotulação de elementos e de classificação dos dados são realizadas em um software segundo o método de análise da reivindicação 1.
9. SISTEMA, de acordo com a reivindicação 8, caracterizado pelo fato de ser aplicado para a estimativa de massa de forragem em pastagens.
PCT/BR2023/050081 2022-03-11 2023-03-08 Método e sistema de análise e processamento de imagens para estimativa de cobertura vegetal por meio de software em aprendizagem de máquina WO2023168506A1 (pt)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
BR102022004512-7A BR102022004512A2 (pt) 2022-03-11 Método e sistema de análise e processamento de imagens para estimativa de cobertura vegetal por meio de software em aprendizagem de máquina
BR1020220045127 2022-03-11

Publications (1)

Publication Number Publication Date
WO2023168506A1 true WO2023168506A1 (pt) 2023-09-14

Family

ID=87936847

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/BR2023/050081 WO2023168506A1 (pt) 2022-03-11 2023-03-08 Método e sistema de análise e processamento de imagens para estimativa de cobertura vegetal por meio de software em aprendizagem de máquina

Country Status (1)

Country Link
WO (1) WO2023168506A1 (pt)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9959507B2 (en) * 2015-01-14 2018-05-01 Accenture Global Services Limited Precision agriculture system
US20180177136A1 (en) * 2016-12-23 2018-06-28 Hexagon Technology Center Gmbh Method for prediction of soil and/or plant condition
US20200193589A1 (en) * 2018-12-10 2020-06-18 The Climate Corporation Mapping field anomalies using digital images and machine learning models
US11074447B1 (en) * 2018-07-13 2021-07-27 Hana Resources, Inc. Land analysis system using drone-captured data

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9959507B2 (en) * 2015-01-14 2018-05-01 Accenture Global Services Limited Precision agriculture system
US20180177136A1 (en) * 2016-12-23 2018-06-28 Hexagon Technology Center Gmbh Method for prediction of soil and/or plant condition
US11074447B1 (en) * 2018-07-13 2021-07-27 Hana Resources, Inc. Land analysis system using drone-captured data
US20200193589A1 (en) * 2018-12-10 2020-06-18 The Climate Corporation Mapping field anomalies using digital images and machine learning models

Similar Documents

Publication Publication Date Title
Shendryk et al. Mapping individual tree health using full-waveform airborne laser scans and imaging spectroscopy: A case study for a floodplain eucalypt forest
Serneels et al. Land cover changes around a major east African wildlife reserve: the Mara Ecosystem (Kenya)
Ismail et al. Satellite data classification accuracy assessment based from reference dataset
CN106407880A (zh) 使用图像处理的存量、生长和风险预测
Madsen et al. Detecting shrub encroachment in seminatural grasslands using UAS LiDAR
Beaubien Forest type mapping from Landsat digital data
Green et al. Chimpanzees use least-cost routes to out-of-sight goals
Oldeland et al. New tools for old problems—comparing drone-and field-based assessments of a problematic plant species
CN117408495B (zh) 一种基于土地资源综合管理的数据分析方法及系统
WO2023168506A1 (pt) Método e sistema de análise e processamento de imagens para estimativa de cobertura vegetal por meio de software em aprendizagem de máquina
BR102022004512A2 (pt) Método e sistema de análise e processamento de imagens para estimativa de cobertura vegetal por meio de software em aprendizagem de máquina
CN113514402B (zh) 一种冬小麦叶绿素含量的预测系统及方法
Pabi et al. Linking Optical SPOT and Unmanned Aerial Vehicle data for a rapid biomass estimation in a Forest-savanna Transitional Zone of Ghana
Morell-Monzó et al. Detecting abandoned citrus crops using Sentinel-2 time series. A case study in the Comunitat Valenciana region (Spain)
Sealey et al. Quantifying cumulative effects of harvesting on aspen regeneration through fuzzy logic suitability mapping
Alphan Bi-temporal analysis of landscape changes in the easternmost Mediterranean deltas using binary and classified change information
Heiskanen et al. Aerial photo interpretation for change detection of treeline ecotones in the Swedish mountains
Burke Shelterbelt density dynamics and their driving forces in Grand Forks County, North Dakota, 1962 to 2014
Fiorentini et al. Remote Sensing and Machine Learning for Riparian Vegetation Detection and Classification
Phelan Patterns of vegetation structural diversity across heterogeneous landscapes in southwestern Nova Scotia
Chib Drones for conservation: integrating UAVs with field methods to classify satellite imagery to map plant communities–A case study of Drentsche AA, The Netherlands
Davis et al. Best practices for incorporating UAS image collection into wetland monitoring efforts: a guide for entry level users
Čermáková et al. Usage of unmanned aerial vehicles for detection of plant anomalies
Hemming-Schroeder Mapping and Modeling Individual Tree Mortality in California’s Sierra Nevada After the 2012-2016 Drought
Tuominen Improving Individual Tree Detection Using Drone Remote Sensing for Ecosystem Modeling Purposes

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 23765621

Country of ref document: EP

Kind code of ref document: A1