BR112018009108B1 - Método para a aquisição e análise de imagens aéreas - Google Patents

Método para a aquisição e análise de imagens aéreas Download PDF

Info

Publication number
BR112018009108B1
BR112018009108B1 BR112018009108-1A BR112018009108A BR112018009108B1 BR 112018009108 B1 BR112018009108 B1 BR 112018009108B1 BR 112018009108 A BR112018009108 A BR 112018009108A BR 112018009108 B1 BR112018009108 B1 BR 112018009108B1
Authority
BR
Brazil
Prior art keywords
images
regions
image
multispectral
resolution
Prior art date
Application number
BR112018009108-1A
Other languages
English (en)
Other versions
BR112018009108A2 (pt
BR112018009108A8 (pt
Inventor
Ira Dvir
Nitzan RABINOWITZ BATZ
Original Assignee
Agrowing Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Agrowing Ltd filed Critical Agrowing Ltd
Publication of BR112018009108A2 publication Critical patent/BR112018009108A2/pt
Publication of BR112018009108A8 publication Critical patent/BR112018009108A8/pt
Publication of BR112018009108B1 publication Critical patent/BR112018009108B1/pt

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/18Information format or content conversion, e.g. adaptation by the network of the transmitted or received information for the purpose of wireless delivery to users or terminals
    • H04W4/185Information format or content conversion, e.g. adaptation by the network of the transmitted or received information for the purpose of wireless delivery to users or terminals by embedding added-value information into content, e.g. geo-tagging
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01JMEASUREMENT OF INTENSITY, VELOCITY, SPECTRAL CONTENT, POLARISATION, PHASE OR PULSE CHARACTERISTICS OF INFRARED, VISIBLE OR ULTRAVIOLET LIGHT; COLORIMETRY; RADIATION PYROMETRY
    • G01J3/00Spectrometry; Spectrophotometry; Monochromators; Measuring colours
    • G01J3/28Investigating the spectrum
    • G01J3/2823Imaging spectrometer
    • G01J2003/2826Multispectral imaging, e.g. filter imaging
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10032Satellite or aerial image; Remote sensing
    • G06T2207/10036Multispectral image; Hyperspectral image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30181Earth observation
    • G06T2207/30188Vegetation; Agriculture
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/56Extraction of image or video features relating to colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • G06V20/188Vegetation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • G06V20/194Terrestrial scenes using hyperspectral data, i.e. more or other wavelengths than RGB

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Radiology & Medical Imaging (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Quality & Reliability (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Medical Informatics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • Remote Sensing (AREA)
  • Spectroscopy & Molecular Physics (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Investigating Or Analysing Materials By Optical Means (AREA)
  • Investigating, Analyzing Materials By Fluorescence Or Luminescence (AREA)
  • Investigating Or Analysing Biological Materials (AREA)
  • Catching Or Destruction (AREA)

Abstract

método para a aquisição e análise de imagens aéreas. método e sistema para aquisição e análise de imagens multiespectrais, incluindo a captura de imagens aéreas multiespectrais preliminares de acordo com parâmetros pré-definidos em uma resolução pré-selecionada, realizando automaticamente análises preliminares no local ou em campo usando segmentação de regiões de larga escala das imagens capturadas em tempo real ou quase em tempo real, detectando irregularidades dentro dos parâmetros de levantamento pré-definidos e fornecendo resultados correspondentes, e determinando, a partir da análise de resultados preliminar, a realização de um segundo estágio de aquisição e análise de imagens em uma resolução maior que a resolução pré-selecionada. a invenção também inclui um método para análise e identificação de objetos incluindo análise de imagens multiespectrais de alta resolução de acordo com parâmetros pré-definidos de objetos, quando são encontrados parâmetros dentro dos parâmetros de objetos predefinidos, realizando segmentação de regiões nas imagens contendo tais parâmetros para identificar regiões, e comparar objetos confinados a essas regiões com parâmetros de referência pré-definidos para identificar objetos que possuem os parâmetros pré-definidos de objeto.

Description

Pedidos Relacionados
[1] O presente pedido reivindica o benefício do Pedido de Patente provisório no 62/252.513 depositado em 8 de novembro de 2015.
Campo da Invenção
[2] A presente invenção se refere à aquisição e análise de imagem, de modo geral, e, em particular, à aquisição e análise de imagens aéreas.
Antecedentes da Invenção
[3] A captação remota aérea tem se desenvolvido rapidamente nas últimas décadas.
[4] A captação remota é usada para vários propósitos, dentre os quais estão propósitos de monitoramento agrícola ou de outro monitoramento ambiental. Com o rápido desenvolvimento de veículos aéreos leves, tais como drones, aerodeslizadores e muitos outros tipos de UAVs, além do custo acessível de veículos aéreos leves e ultraleves tripulados, a captação remota, que compreende aquisição de imagem, está em desenvolvimento e é acessível até mesmo para organizações de pequena escala e fazendeiros.
[5] Os veículos aéreos podem ser controlados e manipulados remotamente. Durante o voo sobre uma cidade ou um campo, as imagens podem ser capturadas a título de captação remota. A missão de voo de veículos aéreos não ocupados por operário, assim como aqueles ocupados por operário com um piloto automático, pode ser pré-planejada para rotas específicas, de acordo com os propósitos da missão, e também alteradas em tempo real, caso exigido.
[6] O software e as ferramentas de NDVI (Diferença Normalizada do Índice de Vegetação), que são o veículo principal para medição de captação remota agrícola, como muitas ferramentas de captação remota para outros propósitos, auxiliam organizações e fazendeiros no monitoramento da situação do ambiente e de campos/culturas. A medida de índice de vegetação NDVI (índice de vegetação com diferença normalizada) pode ser usada para analisar as medições de captação remota, tipicamente, porém não necessariamente, de uma plataforma de espaço ou um veículo aéreo e para avaliar a possibilidade de o alvo que é observado conter vegetação verde viva ou não. O NDVI e outras ferramentas de análise multiespectral e hiperespectral, quando usados apropriadamente e com base no equipamento corrente de aquisição de imagem, podem indicar, por exemplo, presença de enxames de águas-vivas e flocos de sardinha no mar, minas militares em solo raso, a presença de objetos de metal no solo, o estresse e vigor de vegetação, áreas secas/molhadas, saúde e doenças florestais, a presença de pragas e gado e assim por diante. O resultado proveniente da análise de NDVI e ferramentas semelhantes pode ser apresentado como um indicador gráfico simples (por exemplo, uma imagem de mapa de bits).
[7] No entanto, a análise de NDVI e outras ferramentas é realizada normalmente off-line (em seguida da aquisição do drone/avião/satélite), e a imagem resultante ou conjunto de imagens (ortofotos) que apresenta diferentes áreas da imagem em várias cores é apresentada ao fazendeiro/usuário após um atraso significativo. Além disso, para uma pessoa/fazendeiro comum, as imagens de resultado dessas ferramentas não têm muito valor, uma vez que o mesmo não é um especialista e não pode realizar as análises necessárias a fim de entender completamente o que é apresentado no mapa de bits. Além disso, na maioria dos casos com base nos resultados de análises, o usuário é enviado ao campo para uma observação mais minuciosa, a fim de constatar a natureza exata das irregularidades que são indicadas. Há serviços que analisam as imagens e enviam um relatório ao fazendeiro, porém normalmente esses relatórios são preparados por um especialista humano que examina as imagens como um clínico examina uma radiografia de raio-X e tais análises são enviadas um dia ou alguns dias após a aquisição das imagens e, conforme declarado acima, exigem muitos casos exploração adicional e mais detalhada.
[8] Um uso agrícola típico de captação remota pode servir como um bom exemplo de tal necessidade. Caso um fazendeiro deseje realizar pesquisa a fim de detectar, de maneira oportuna, a presença de mosca branca ou afídeos em suas culturas, e o tamanho tanto da mosca branca quanto dos afídeos possa ser de l mm a 2 mm apenas, fica claro que não se pode triar cada centímetro (polegada) das culturas buscando pelos mesmos. No entanto, pode haver mudanças, que ficam evidentes em imagens de resolução mais baixa (ou imagens multiespectrais, hiperespectrais ou visuais) que indicam que uma determinada área de um campo pode estar infectada com algumas pragas ou doenças não identificadas. Infelizmente, as melhores imagens a satélite (como GeoEye- 1) são de 1 pixel por 40 cm, o que está longe de ser suficiente para detecção antecipada de pragas. A fotografia e formação de imagens por drone aéreo, por exemplo, com uma lente de 25 mm três metros acima do solo pode cobrir uma área retangular de 1,6 x 2,4 m (3,84 metros quadrados. Com o uso de uma câmera de 10 Mega Pixels, isso significa 26 pixels por cm quadrado. Tais imagens detalhadas podem permitir a identificação de mosca branca, porém a aquisição de imagens de centenas de quilômetros quadrados (acres) em tal resolução exigirá recursos em excesso e tornará o processo não prático.
[9] Consequentemente, há uma necessidade de um método inteligente para análise automática e um sistema de suporte de decisão, que permitirá não apenas uma melhor captação remota, porém fornecerá ao usuário final (organizações/fazendeiros) resultados de análise e orientações imediatas e a curto prazo, uma vez que em muitos casos a orientação atrasada pode ser inútil, e os danos de uma análise tardia podem ser irreversíveis.
[10] Há programas de computador de processamento de imagem conhecidos para analisar as imagens adquiridas de um objeto de formato não conhecido e para comparar os mesmos aos formatos em um banco de dados a fim de identificar o objeto. O método de classificação de imagem com base em uma abordagem de rede neural profunda é um dos métodos usados mais comumente para esse propósito.
[11] Em análise de imagem por computador, os métodos de detecção de região são conhecidos por detectar regiões em uma imagem digital que têm propriedades diferentes, tais como brilho ou cor, em comparação às regiões circundantes. De modo informal, uma região é uma região de uma imagem na qual algumas propriedades são constantes ou aproximadamente constantes; todos os pontos em uma região podem ser considerados, em certo sentido, como semelhantes entre si. Na metodologia de segmentação de regiões, cada imagem digital é compreendida de brilho de nível de cinza, ou seja, 256 níveis de brilho. Cada pixel na imagem está associado a um dentre esses níveis. A abordagem da segmentação de regiões agrupa pixels adjacentes do mesmo brilho e representa os mesmos em uma exibição como um objeto ou região distinto. Ou seja, o fato de que o tamanho de cada região é definido pelo número de pixels compreendidos.
Descrição Resumida da Invenção
[12] De acordo com a presente invenção, um método para análise automática e um sistema de suporte de decisão que permite aquisição e análise de dados de imagem multiespectrais, de preferência, em tempo real ou quase real. Em particular, o método compreende uma aquisição de imagem inicial e segmentação de regiões de larga escala, acumulando em centenas até milhares de pixels por região, para uma análise inicial, a fim de determinar a possibilidade de proceder com uma segunda aquisição de imagem e segmentação de regiões em pequena escala, agrupamento de dezenas de pixels por região, de acordo com critérios selecionados a fim de investigar irregularidades nas imagens iniciais.
[13] De acordo com a invenção, é fornecido um método para aquisição e análise de imagens multiespectrais, sendo que o método compreende capturar imagens aéreas multiespectrais preliminares, de acordo com parâmetros de pesquisa predefinidos em uma resolução pré-selecionada, executar automaticamente a análise preliminar no local ou localização no campo com o uso de segmentação de regiões de larga escala das imagens capturadas em tempo real ou em quase tempo real, detectar irregularidades dentro dos parâmetros de pesquisa predefinidos e fornecer um resultado correspondente aos mesmos e determinar, a partir do resultado de análise preliminar, a possibilidade de executar um segundo estágio de aquisição e análise de imagem em uma resolução mais alta que a resolução pré-selecionada.
[14] De acordo com as modalidades da invenção, o método compreende adicionalmente associar dados de GPS às irregularidades detectadas, dirigir um dispositivo de aquisição de imagem, em tempo real ou em quase tempo real, a fim de capturar imagens adicionais de pelo menos uma dentre as irregularidades detectadas na resolução mais alta que a resolução pré-selecionada com o uso dos dados de GPS associados e executar a análise com o uso de segmentação de regiões de pequena escala das imagens capturadas em tempo real ou em quase tempo real.
[15] De acordo com a invenção, é fornecido adicionalmente um sistema para aquisição e análise de imagens multiespectrais, sendo que o sistema compreende pelo menos um dispositivo de captura de imagem multiespectral, um processador acoplado ao dispositivo de captura de imagem, sendo que o processador executa um módulo de processamento de imagem que compreende um módulo de segmentação de regiões para analisar automaticamente as imagens capturadas pela segmentação de regiões de acordo com parâmetros de pesquisa predefinidos e fornecer resultado correspondente às irregularidades em cada imagem compreendida nos referidos parâmetros de pesquisa predefinidos, o módulo de segmentação de regiões tem capacidade para implantar tanto segmentação de regiões de larga escala e segmentação de regiões de pequena escala e um indicador de localização geográfica adaptado e configurado para fornecer uma indicação de uma localização geográfica das irregularidades, sendo que o processador é configurado para determinar automaticamente a possibilidade de dirigir um dentre os dispositivos de captura de imagem multiespectral para a localização geográfica indicada a fim de capturar imagens das irregularidades em resposta ao resultado.
[16] De acordo com a invenção, também é fornecido um método para análise e identificação de objeto que compreende analisar imagens multiespectrais de alta resolução, de acordo com parâmetros de objeto predefinidos, quando os parâmetros dentro dos parâmetros de objeto predefinidos forem constatados, executar segmentação de regiões nas imagens que contêm tais como parâmetros para identificar regiões e comparar objetos confinados nessas regiões aos parâmetros de referência predefinidos para identificar objetos que têm os parâmetros de objeto predefinidos.
Breve descrição dos Desenhos
[17] A presente invenção será mais bem entendida e observada a partir da descrição detalhada a seguir considerada em combinação com os desenhos nos quais:
[18] A Figura 1a mostra um par de imagens obtidas de um UAV que voa acima de um campo de plantação com o uso de filtros adequados para obter imagens Visíveis e NIR do campo em conformidade com uma modalidade da presente invenção;
[19] A Figura 1b mostra os pixels na Figura 1a associados a valores de NDVI selecionados sobrepostos na imagem visível;
[20] A Figura 1c mostra o conjunto de 34 regiões maiores da Figura 1b derivadas desse conjunto de pixels;
[21] A Figura 2a mostra um par de imagens Visíveis e NIR de um determinado campo de plantação; a Figura 2b mostra pixels associados a valores de NDVI selecionados em uma faixa derivada das imagens da Figura 2a;
[22] A Figura 2c mostra um conjunto de pontos associados a polígonos que têm os valores de densidade mais altos da Figura 2b;
[23] As Figuras 3a e 3b ilustram um método em que uma detecção é declarada, de acordo com uma modalidade da invenção;
[24] As Figuras 4a e 4b mostram um conjunto de pragas de SMS detectadas resultantes da extração de regiões pequenas cujas cores estão confinadas em uma distância “próxima” à cor branca;
[25] As Figuras 5a e 5b ilustram uma alta correlação, o que sinaliza a presença de pragas de SMS;
[26] As Figuras 6a, 6b e 6c ilustram a sinalização de detecção de praga quando a medida de correlação excede um valor limite pré-projetado;
[27] As Figuras 7a, 7b e 7c ilustram uma praga original de CMS, uma imagem binária resultante da projeção dos pixels das três regiões maiores da praga original, e limites resultantes da praga após processamento, respectivamente;
[28] As Figuras 8a e 8b ilustram um método de detecção com base em CMS de segmentação de regiões;
[29] A Figura 9a mostra uma mina típica de um Minador das Folhas dos Citros;
[30] As Figuras 9b e 9c mostram limites e pontos de canto calculados da imagem da Figura 9a;
[31] A Figura 10 ilustra uso de manipulação de cor para intensificar as cores na planta que são associadas à ferrugem; e
[32] A Figura 11 é uma ilustração em digrama de blocos de um sistema construção e operacional em conformidade com modalidades da presente invenção.
Descrição Detalhada da Invenção
[33] A presente invenção fornece um método da invenção para aquisição e análise de imagem e um sistema de suporte de decisão que fornecerá melhor captação remota e fornecerá ao usuário final (organizações/fazendeiros) a aquisição de imagens, resultados de análise e orientação aprimorados. Em particular, o método permite uma aquisição de um ou dois estágios e análise de imagens multiespectrais, em que pelo menos a análise de primeiro estágio, em baixa resolução sobre uma área ampla, é realizada em tempo real ou em quase tempo real. A partir dos resultados dessa análise, é feita uma determinação da possibilidade de proceder ou não para um segundo estágio da aquisição e análise de imagem multiespectrais, em alta resolução em uma área menor. A análise pode ser realizada na localização, isto é, no tempo de aquisição de cada imagem ou quadro com adição posterior de indicações geográficas, ou a análise pode ser realizada em uma ortofoto com geomarcação de uma área maior. Para efeito da presente invenção, a análise em quase tempo real, para cada imagem adquirida, particularmente, na análise de localização (no campo), significa não mais que alguns segundos (5 segundos ou menos) após a sessão de aquisição, e para a criação e análise de uma ortofoto com geomarcação que cobre um campo de algumas dezenas de quilômetros quadrados (hectares) ou mais, em quase tempo real significa alguns minutos (15 minutos ou menos) em seguida da aquisição. O fornecimento de um processador embutido na aeronave que estiver capturando as imagens multiespectrais pode permitir a análise dos quadros individuais capturados e identificação de áreas de interesse em tempo real. Além disso, de acordo com a presente invenção, é possível realizar análise em tempo real ou em quase tempo em real, caso as imagens capturadas sejam transmitidas por meio de uma rede sem fio para uma plataforma de processamento (por exemplo, computador) no solo.
[34] De acordo com a invenção, a análise das imagens de baixa resolução é realizada com o uso da segmentação de regiões em larga escala, a fim de identificar irregularidades ou regiões de interesse. O segundo estágio de análise utiliza segmentação de regiões em uma pequena escala, durante a análise de resultados de aquisição de imagem de alta resolução, por exemplo, para detecção e identificação de praga. Em particular, a invenção utiliza a aquisição e análise de dados multiespectrais e não apenas das imagens na faixa visível. De acordo com algumas modalidades da invenção, a determinação quanto à possibilidade de realizar um segundo estágio de aquisição e análise é feita automaticamente. Tal sistema de suporte de decisão automático analisará as imagens adquiridas, que auxiliam o gerenciamento dos processos de aquisição, e permitirá a aquisição de imagens mais detalhadas de áreas geográficas selecionadas, com base na análise inicial das imagens preliminares capturadas, possibilitando, assim, o exame de pontos de interesse as áreas pesquisadas em uma resolução que não é prática de adquirir sobre uma área maior. Dentre outras tarefas, uma aquisição de imagens aprimoradas está relacionada a delinear com precisão áreas com propriedades exigidas específicas, definidas antecipadamente pela pressão que solicita a pesquisa, tais como uma faixa desejada específica de valores de NDVI ou outras medidas.
[35] A presente invenção fornece uma solução eficiente para delinear automaticamente as áreas associadas aos valores desejados de NDVI - ou outros com base em outro índice de vegetação - ou quaisquer outros parâmetros selecionados, fornecendo-se um método para aquisição e análise de imagens aéreas automáticas multiespectrais ou hiperespectrais adicionais eficientes visuais. Isso é realizado adquirindo-se as imagens em uma resolução denominada “aquisição de baixa resolução”, suficiente durante análise para permitir a detecção precisa de regiões cujos valores associados estão confinados no NDVI exigido ou outra faixa de parâmetro. Isso é realizado tipicamente buscando-se automaticamente regiões que indicam a vegetação em um estado de estresse de algum tipo (por exemplo, conforme manifestado nos valores de NDVI que, em média, são inferiores em 15% a 20% ao valor de NDVI ideal). O estresse pode indicar vários problemas em relação ao estado e saúde de vegetação, tais como secura, vigor, pragas e doenças.
[36] Será observado que o dispositivo de aquisição de imagem pode estar disposto de modo que adquira imagens multiespectrais por toda uma ampla banda do espectro. Alternativa ou adicionalmente, o dispositivo de aquisição de imagem pode ser disposto para adquirir imagens em uma pluralidade de bandas pré-selecionadas ou canais de cor, selecionados de acordo com os objetos que que são buscados na pesquisa. De todo modo, a análise da imagem multiespectral será realizada com a utilização de canais de cor adquiridos selecionados de acordo com os objetos que são buscados na pesquisa.
[37] De preferência, o dispositivo de aquisição de baixa resolução usa uma câmera de baixa distorção, de preferência, com o uso de um pêndulo NADIR. Isso possibilita garantir uma vista vertical, minimizando, assim, a distorção devido ao ângulo da câmera. Alternativamente, outros dispositivos adequados de aquisição de baixa resolução podem ser utilizados. De preferência, o dispositivo de aquisição de imagem é equipado com um aparelho de calibração digital automático, possibilitando, assim, o processamento de imagens individualmente capturadas, sem a necessidade de alinhamento complexo dos canais de cor, e evitando a necessidade de pré-processamento, tais como metamorfosear as imagens e correção de distorção. Os exemplos de um aparelho adequado de captura de imagem são descritos no Pedido de Patente pendente do Requerente no USSN 62/260.272 depositado em 26 de novembro de 2015.
[38] A presente invenção permite análise rápida e até mesmo em tempo real das imagens adquiridas pela aquisição de imagens e tipo de arquivo exclusivos da mesma. A aquisição de imagem multiespectral deve ser, de preferência, realizada com o uso de um tipo de arquivo (como JPEG, RAW, TIFF ou qualquer outro formato de arquivo de imagem) ao passo que os canais multiespectrais (Azul, Verde, Vermelho, Borda Vermelha, NIR - todas ou algumas das mesmas) são guardados como imagens de múltiplos canais lado a lado. Isso pode ser realizado com eficiência com o uso múltiplas lentes (conforme descrito no pedido de patente de captura de imagem citado acima) com o uso de um único sensor dividido em áreas separadas, embora a invenção não se limite a esses exemplos. Com o uso de tal câmera (que tem múltiplas lentes e um único sensor), os diferentes canais RGB (Vermelho, Verde e Azul) e NIR (Quase Infravermelho) podem ser guardados separadamente. Desse modo, por exemplo, o canal vermelho pode ser capturado no lado esquerdo do sensor, ao passo que o canal quase infravermelho pode ser capturado no lado direito do sensor. Além disso, as diferentes faixas de verde e azul podem ser capturadas nas diferentes áreas do sensor, ao passo que todos os canais são, em seguida, guardados em um único arquivo. Tal processo de captura permite uma simples divisão de até 6 canais distintivos com o uso de duas lentes com um único sensor. Qualquer lado pode conter idealmente até três canais de sombra de vermelho, verde e azul. Tal estrutura de arquivo permite uma separação de canal simples e rápida. À medida que os diferentes tipos de vermelho (650 nm ou 710 nm) são guardados lado a lado com o canal de 850 nm, e da mesma maneira se pode ter diferentes canais estreitos de azul e verde, a divisão dos canais e RGB e a separação da imagem em duas (no caso em que duas lentes são usadas), produzirão todos os canais diferentes. Tal formato de arquivo pode ser qualquer arquivo de formato RGB padrão como JPG, BMP, PNG, TIFF etc, ao passo que esses arquivos são limitados a 3 bandas ou 3 bandas e um canal Gama. Visto que índices importantes de vegetação atualmente em uso empregam mais que duas bandas para detectar com precisão regiões de interesse (tais como um VI - “Índice de Vegetação de Resistência à Atmosfera” que emprega bandas de Vermelho Azul e NIR), tal separação lado a lado é vital para identificação correta das regiões de interesse.
[39] A presente invenção utiliza os métodos de detecção de região para detectar regiões nas imagens digitais que têm propriedades diferentes, tais como brilho ou cor, em comparação às regiões circundantes. Tais regiões ou irregularidades indicam áreas possivelmente problemáticas que exigem investigação adicional. A detecção de regiões associadas a parâmetros predefinidos na área pesquisada guia a segunda etapa da missão de aquisição de imagens, etapa de alta resolução. Tal guiamento pode ser realizado associando- se os dados de GPS a essas regiões e dirigindo-se um dispositivo de captura de imagem em um UAV/drone/aerodeslizador/ultraleve etc, para obter imagens adicionais altamente detalhadas (resolução mais alta) de pontos de interesse (irregularidades), seja em quase tempo real, tempo real ou pós-processamento. Tal aquisição de imagens detalhada pode ser feita pelo mesmo veículo aéreo e dispositivo de captura ou pelo menos veículo com o uso de outro dispositivo de captura ou por outro veículo aéreo com um dispositivo de captura de resolução mais alta ou por um veículo terrestre com um dispositivo de captura.
[40] Uma vez que imagens altamente detalhadas são adquiridas (VIS, imagens hiperescpectrais e multiespectrais), é possível analisar as imagens adquiridas e auxiliar o fazendeiro em decidir quais etapas ele precisa seguir, imediatamente ou a curto prazo ou a longo prazo. Esse segundo estágio de análise também é realizado com o uso de segmentação de regiões, tipicamente, segmentação de regiões de pequena escala.
[41] Em outras palavras, a presente invenção aplica análise automática de imagens de primeiro baixa e depois alta resolução, a fim de produzir um sistema de suporte de decisão totalmente automático que utilize dispositivos de captação. As imagens de baixa resolução podem ser o resultado de câmera em alta altitude e/ou de baixa resolução e/ou aquisição de imagens aéreas de curta distância focal. Visto que uma resolução mais baixa fornece menos dados para processar, uma varredura de baixa resolução é muito mais rápida e mais eficiente. As imagens detalhadas de alta resolução podem ser adquiridas através de câmera de aquisição em baixa altitude e/ou de alta resolução e/ou uma longa distância focal (zum) ou até mesmo adquirir as imagens do solo. De acordo com a presente invenção, diferentes métodos são usados para cada etapa do processo de aquisição de imagem, a fim de utilizar com eficiência os dispositivos de capturar de imagem e executar varredura rápida e prática do ambiente/campos quando possível em tempo real ou em quase tempo real, ao mesmo tempo que “focam” em imagens em alta resolução em regiões de interesse e identificar, com mais precisão possível, a natureza dos mesmos de acordo com a pesquisa exigida. Para fins agrícolas, por exemplo, a presente invenção implementa uma sistemática automática para identificar pragas, doenças e vigor de vegetação e outros aspectos das culturas.
[42] É importante esclarecer que as regiões de interesse são definidas antecipadamente, de acordo com o propósito da particular pesquisa. Caso, por exemplo, minas terrestres devem ser encontradas, então, os pixels que representam a representação gráfica após a análise adequada (com o uso de NDVI ou quaisquer outros parâmetros métricos ou pré-selecionados com base no índice de vegetação) serão definidas como os pixels de interesse. Caso, por exemplo, dossel de algodão deve ser encontrado, então, os pixels que representam as bolas de algodão branco serão definidos como os pixels e regiões de interesse.
[43] A primeira etapa de uma possível modalidade de acordo com a presente invenção compreende aquisição aérea de imagens multiespectrais de uma resolução preferencialmente baixa. Tal resolução baixa pode ser de 1 pixel por 100 centímetros quadrados (10 cm x 10 cm) ou até mesmo 1 pixel por metro quadrado ou qualquer outra resolução semelhante àquela capturada por satélites, que ao longo dos anos se mostrou adequada para a captação remota para a pesquisa exigida. Em outras palavras, caso, por exemplo, uma pesquisa agrícola esteja voltada para dossel de algodão, já se sabe (conforme documento em várias publicações US DOA) que a aquisição de imagem pode ser realizada de uma altitude de algumas centenas de metros com o uso de uma 50 mm distância focal câmera. Em tal caso, sabe-se que uma câmera multiespectral de quatro bandas espectrais (Vermelho; Verde; Azul e Quase Infravermelho) pode adquirir as imagens exigidas para apresentação de NDVI.
[44] A segunda etapa desse exemplo de captação remota agrícola, de acordo com a presente invenção, compreende uma análise, de acordo com NDVI (e/ou uma dentre as ferramentas com base em no mesmo). Os valores resultantes da análise podem ser apresentados como uma imagem, que apresentam as áreas cobertas com algodão em uma cor e aqueles não cobertos por algodão em outra cor. O mesmo princípio se aplica à maioria de pesquisas agrícolas, em que vegetação seca ou não saudável ou ervas serão “pintadas” de uma cor e a vegetação saudável aparecerá “pintada” de outra cor. Esses pixels coloridos representam apenas os resultados das análises em de maneira adequada ao usuário, e a análise automática usa os valores, que são fixos a esses pixels.
[45] A terceira etapa, de acordo com a presente invenção, compreende o agrupamento automático dos pixels associados aos parâmetros predefinidos, por exemplo, valores NDVI (ou qualquer outra métrica de índice de vegetação agrícola) durante a análise de imagem, nas regiões. A criação de tais regiões consiste em uma operação de quantização uniforme que depende da pesquisa exigida. Em algumas pesquisas (como detecção de mosca branca), muitos poucos pixels não podem ser ignorados e até mesmo regiões pequenas são significativos, ao passo que em outras pesquisas (com detecção de cardume de atuns) apenas regiões grandes são importantes. Visto que o NDVI é, na realidade, uma imagem sintética, isto é, cada pixel tem um valor calculado obtido de canais vermelho e NIR, antes de qualquer criação de região, o mapa de NDVI pode se submeter a uma operação de remoção de ruído, o que permite a criação de regiões contínuos, o que preserva idealmente recursos importantes da imagem adquirida.
[46] Essa análise preliminar é usada pelo processador de sistema a determinar a possibilidade de um segundo estágio de aquisição e análise de imagem ser exigido, por exemplo, caso irregularidades sejam observadas e caso a extensão ou tamanho das mesmas passe de um limite pré-secionado. Em caso negativo, a pesquisa termina, e essas informações são enviadas à pessoa que solicita a pesquisa. Por outro lado, caso seja determinado que um segundo estágio é garantido, o processador ou procede automaticamente, conforme descrito doravante, ou notifica a pessoa que solicita a pesquisa e espera instruções manuais. Alternativamente, a análise das imagens após a segmentação de regiões pode ser realizada manualmente (visualmente por um ser humano) a fim de determinar a possibilidade de processador para uma segunda etapa de aquisição.
[47] No caso da aquisição e análise automática, a quarta etapa compreende a fixação de dados de GPS às regiões que indicam irregularidades para os quais a pesquisa está voltada (campos infestados por praga, vazamento de água etc.). Os dados de GPS podem ser fixados às imagens de várias maneiras. Algumas câmeras têm um sensor de GPS integrados com as mesmas. Em outros casos, as câmeras são operadas de maneira sem fio por um tele inteligente operacional (conforme é o caso com câmera como lente QX1 da Sony e a câmera Olympus Air A01, que podem adicionar os dados de GPS do telefone inteligente operacional ou uma plataforma de piloto automático/processamento fixado à câmera). A solução preferencial, de acordo com a presente invenção, devido à melhor precisão, é adicionar os dados de GPS do sensor de GPS do veículo aéreo, que é posicionado normalmente no topo do veículo e conectado ao piloto automático ou diretamente à câmera (caso suportado pela câmera). A sincronização do tempo de captura das imagens e dos dados de GPS é importante, uma vez que os veículos aéreos podem se mover rapidamente. Será observado que cada quadro pode ter dados de GPS associados ao mesmo, ou uma ortofoto de uma área maior pode ter geomarcação.
[48] Outra maneira, e com mais precisão, é criando-se uma ortofoto das imagens adquiridas e ajustando-se as mesmas a um mapa preciso. Tal compatibilização, embora seja lenta e exija uma computação muito pesada, supera inclinação e desvio devido à distorção de lente, falta de sinais de satélite e o ângulo do veículo ao mesmo tempo que adquire as imagens.
[49] A quinta etapa, de acordo com a presente invenção, compreende a preparação automática de aquisição de imagens altamente detalhadas das áreas representadas pelas regiões de interesse. O dispositivo de aquisição de imagens (por exemplo, câmera aerotransportada ou transportada pelo solo), que é, de preferência, uma câmera multiespectral ou hiperespectral, é enviado à localização geográfica dessas regiões para capturar as imagens detalhadas dessas localizações. Algumas maneiras possíveis para adquirir imagens altamente detalhadas são usar um aerodeslizador de baixa altitude ou helicóptero que voa alguns pés/metros acima da cultura ou enviar um robô terrestre e/ou um ser humano para adquirir as imagens da distância próxima possível. Outro método é usar uma câmera com uma distância focal maior do zoom. No entanto, esse método é muito dispendioso e ineficiente, caso imagens hiperespectrais ou multiespectrais altamente detalhadas sejam exigidas. A precisão dos dados de GPS é importante, uma vez que tais observações nas regiões de interesse podem significar, por exemplo, a aquisição de imagens de um retângulo de 0,8 m x 1,2 m retângulo a 10 Mega Pixels, conforme descrito acima.
[50] Deve-se verificar que em algumas pesquisas (como a detecção de cardume de atuns), os dados de GPS de uma região em uma única imagem podem não ser suficiente, uma trajetória precisa ser prevista com base e várias imagens sucessivas, com uma análise adicional das mudanças de dados de GPS das regiões. Tal análise, calculada com o tempo de processamento e de aquisição, permitirá que o sistema siga as regiões exigidos de interesse, que não são estáticos e adquirem as imagens detalhadas de tais regiões na localização prevista dos mesmos.
[51] A sexta etapa, de acordo com a presente invenção, compreende sistemáticas automáticas e identificação das constatações. A sistemática, ou biologia sistemática, para efeito da invenção, compreende, entre outros, descrever e fornecer classificações para os organismos, chaves para a identificação dos mesmos e dados nas distribuições dos mesmos. Essa etapa é uma etapa muito complexa e isso compreende, por si só, algumas subetapas. Será observado que a sistemática e identificação de objetos descritos abaixo podem ser utilizados para analisar imagens de resolução alta resolução capturadas de qualquer modo, e não apenas por meio dos métodos e sistema de aquisição de imagem automática descritos acima.
[52] Primeiramente, as imagens adquiridas são analisadas de acordo com o tipo de pesquisa. Por exemplo, a identificação de mosca verde em folhas verdes é mais difícil que identificar mosca branca, caso as imagens adquiridas sejam do espectro visual apenas. No entanto, a adição de imagens de NIR de mosca verde em folhas verdes remove a camuflagem verde dos afídeos, uma vez que a mosca verde não reflete o espectro quase infravermelho da mesma maneira que a clorofila.
[53] Em segundo lugar, uma vez que a presença de objetos suspeitos (afídeos, mosca verde, vermes, gafanhotos etc.) é constada, fragmentos de imagens que contêm tais objetos são extraídos, tipicamente desenhando-se quadrados retangulares centralizados em um centroide de cada fragmento, sendo que os quadrados têm o comprimento de alguns pixels. De preferência, cada fragmento contém um único objeto com o mínimo de “ruído” em segundo plano, para permitir melhor classificação e identificação. Os objetos suspensos são, de preferência, classificados primeiramente utilizando-se um servidor remoto que contém um banco de dados de pragas de referência, de acordo com o tipo da pesquisa. Um modo preferencial para classificar as pragas/doenças de uma pesquisa agrícola, por exemplo, compreenderá a localização, tipo de cultura e uma referência a um banco de pragas/doenças potenciais, que são relevantes a esse tipo específico de cultura. No entanto, além disso, é possível realizar a sistemática automática na plataforma de aquisição. Nesse caso, a plataforma de aquisição será equipada com um programa interno com um programa interno com capacidade para identificar a praga comparando-se a mesma a um pequeno conjunto de dados de imagens de praga de referência na memória de processamento de plataforma. A sétima etapa compreende a identificação dos objetos suspeitos (e classificados, caso os mesmos tivessem sido classificados na etapa anterior).
[54] A ideia básica subjacente para identificar os objetos nessa etapa está associada à afirmação de que a segmentação apropriada da imagem adquirida na subimagem de tamanho confinado garante, com grande probabilidade, que, caso os objetos suspeitos estejam presentes na imagem adquirida detalhada, os mesmos estão propensos a serem encontrados nas subimagens de tamanho confinado.
[55] O tamanho das subimagens de tamanho confinado é definido de acordo com o tipo de pesquisa, o que compatibilizar o tamanho de imagem àquele das regiões que são devem representar os objetos para os quais a pesquisa está voltada. Uma vez que um conjunto de tais subimagens de tamanho confinado, que contém regiões, é preparado, o processo de identificar os objetos dentro desse conjunto de sub- imagens pode ser realizado ou enviando-se o conjunto dessas subimagens a um servidor remoto para identificação ou identificando-se o objeto no ponto ativando-se um código de identificação local.
[56] Vários métodos de segmentação de imagem e métodos de detecção correspondentes são detalhados na presente invenção. De modo geral, dois tipos de objetos são pesquisados, objetos que têm estrutura simples e objetos que têm estrutura complexa. Alguns métodos com base de segmentação de imagem específica são adaptados para cada tipo.
[57] A oitava etapa, de acordo com a presente invenção, compreende enviar os resultados da análise ao destinatário (quem pediu a pesquisa ou o fornecedor de serviço). Os resultados compreendem a possível identificação das constatações e podem também compreender orientações em relação às etapas que precisam ser seguidas a fim de, por exemplo, exterminar uma praga ou extinguir fogo ou instalar uma cerca e sinais de aviso ao redor de minas terrestres antigas (dependendo da pesquisa). Os resultados podem ser enviados com fragmentos menores das imagens da nuvem (Internet) ou até mesmo do veículo aéreo, por exemplo, quando a plataforma de processamento for um telefone inteligente equipado com uma conexão de celular (por exemplo, 3G ou LTE). Em algumas possíveis modalidades da presente invenção, as frações das imagens, a localização e a orientação até o usuário são enviadas através do serviço de mensagens de multimídia (MMS) ou através de um serviço de mensagens instantâneas (IM), como Messenger, WhatsApp, Skype etc.
Descrição Detalhada de Algumas das Etapas em uma Pesquisa Agrícola Exemplificativa
[58] A identificação de áreas associadas a valores Específicos de NDVI (e métricas semelhantes)
[59] Um processo preferencial compreenderá as seguintes etapas:
[60] 1. Capturar imagens visuais e/ou hiperespectrais ou multiespectrais de uma faixa eficiente (de preferência, uma altitude de algumas dúzias de metros até uma centena de metros e até mesmo mais);
[61] 2. Analisar as imagens, de acordo com a pesquisa desejada (por exemplo, secura; vigor de vegetação; pragas; doenças etc.);
[62] 3. Definir as áreas de interesse nas imagens que exigem exame mais detalhado por segmentação de regiões de larga escala.
[63] 4. Fixar precise dados de GPS às áreas de interesse.
[64] 5. Direcionar automaticamente o mesmo veículo aéreo ou outro veículo com um dispositivo de captura de imagem para essas áreas de interesse, dirigindo o mesmo para obter imagens detalhadas, de acordo com o tipo de pesquisa. Tipicamente, os critérios que instruem a plataforma a executar a plataforma a executar aquisição em alta resolução serão a presença de regiões que estão associados aos valores de NDVI 10% ou 20% inferiores ao valor de NDVI ideal - isto é, uma indicação de “estresse na vegetação”.
[65] No presente contexto, a meta geral é detectar automaticamente, de um veículo aéreo, de imagens de baixa resolução relativamente baixas, áreas de interesse que são associadas aos valores de NDVI específico (ou alguma outra ferramenta). Tais áreas de interesse podem indicar tipicamente o estresse/vigor na vegetação, áreas úmidas, áreas cobertas com água, cultura madura, vigor de vegetação etc. Uma vez que o mapa de NDVI (ou outro com base em índice de vegetação) é, na realidade, uma imagem sintética, o mesmo contém uma quantidade extremamente grande de ruído. Desse modo, uma operação de pré-processamento e remoção de ruído pode ser realizada. Na presente invenção, de preferência, um algoritmo de remoção de ruído avançado, que preserva recursos-chave da imagem de, é empregado. (Consultar, por exemplo, “Total Variation Filter” -, Chambolle 2004). Alternativamente, qualquer algoritmo de remoção de ruído adequado pode ser utilizado.
[66] A detecção de tais áreas pode ser realizada “agrupando-se” em regiões os pixels que indicam o desvio dos valores normais para a pesquisa exigida (por exemplo, NDVI ou EVI ou qualquer métrico semelhante), de preferência, com base em um número configurável de pixels e de densidade.
[67] Uma possível modalidade do processo com o uso da métrica de NDVI é de acordo com o seguinte:
[68] A entrada para o cálculo é uma matriz de valores de NDVI em uma faixa de -1 a 1, conforme adquirido por uma câmera aerotransportada multiespectral. A banda de NI e a banda de VIS VERMELHO são usadas para produzir os valores de NDVI, com o uso da fórmula NDVI = (NIR - VIS_VERMELHO)/(NIR + VIS Vermelho). Tais baixas de NIR e VIS Vermelho podem ser bandas estreitas de 20 nm a 70 nm, sendo que o centro das bandas é 650 nm e 850 nm.
[69] Em tal modalidade possível da invenção, após ter aplicado uma operação de remoção de ruído avançada no mapa de NDVI, as regiões que têm uma faixa de valores de NDVI são buscados. Os pixels associados aos valores de NDVI exigidos são “recolhidos” para definir define regiões através do seguinte procedimento de três etapas:
[70] Etapa 1. Supondo que a área de interesse está associada a uma faixa conhecida valores de NDVI ou outros valores de parâmetro predefinidos, o algoritmo constrói um mapa binário da imagem de NDVI, em que os pixels relevantes associados à faixa relevante de valores de NDVI é definida como 1, e o resto dos pixels é definido como 0.
[71] Etapa 2. O conjunto de as possíveis regiões (agrupamentos) associados ao mapa binário derivado da etapa 1 é construído com o uso, por exemplo, de um algoritmo de Marcação de Agrupamento ou outro algoritmo adequado. Esse algoritmo se baseia no algoritmo de marcação de agrupamento “Hoshen Kopelman” (1975). Basicamente, o algoritmo Hoshen Kopelman que é usado na presente invenção realiza a varredura rastreada em um mapa binário e, em uma passagem, encontra as regiões ao longo do processo de varredura e atribui os mesmos com um índice de execução.
[72] Outras técnicas para construção de regiões, tais como vários métodos de busca de pixels vizinhos exauridos, também podem ser utilizadas, embora incorram carga computacional. Etapa 3. Um critério de decisão para definir um determinado grupo de regiões como uma irregularidade ou uma “área de interesse, que pertencem aos valores de NDVI exigidos” é definido de acordo com o seguinte:
[73] 1. Caso o número de pixels que pertence a uma determinada região única exceda uma parâmetro-limite determinado.
[74] 2. O número de pixels que pertencem a um conjunto de regiões, todos confinados em um determinado raio (do centro de gravidade do conjunto de regiões acima), excede um limite determinado. As Figuras 1a, 1b e 1c ilustram como o procedimento funciona. A Figura 1a mostra um par de imagens obtidas de um UAV que voa acima de um campo de plantação com o uso de filtros adequados para obter imagens Visíveis e de NI do campo. A Figura 1b mostra os pixels associados a valores de NDVI em uma faixa de -0,3 a -0,1 (coloridos em vermelho) (a faixa de interesse pré-definida) sobreposta nas imagens visíveis. Esses pixels marcam as áreas úmidas no campo. A Figura 1c mostra o conjunto de 34 regiões maiores (sendo que cada região, coloridos aleatoriamente, contém um número de pixels que excede 200) derivados desse conjunto de pixels que foi calculado automaticamente com o uso do algoritmo descrito acima.
[75] Em outra modalidade da presente invenção, a detecção de áreas associadas aos valores de NDVI pré- selecionados é realizada pelo procedimento a seguir.
[76] O mapa binário dos pixels associados a valores exigidos de NDVI é segmentado em polígonos que têm áreas iguais, e a densidade de cada polígono é calculada. Os polígonos que têm grande densidade são, em seguida, escolhidos para representar os centros das áreas associadas aos valores de NDVI exigidos.
[77] As Figuras 2a, 2b e 2c mostram como esse procedimento funciona. A Figura 2a mostra um par de imagens Visíveis e NIR de um determinado campo de plantação. A Figura 2b mostra pixels associados a valores de NDVI em uma faixa de 0,75 a 0,9 (a range de interesse pré-definida) derivada das imagens da Figura 2a. A Figura 2c mostra um conjunto de pontos (marcados na cor branca) associados a polígonos (na realidade, blocos do tamanho 4x4) que têm os valores de densidade mais altos. Os pontos vermelhos da imagem esquerda retratam o conjunto de todos os pixels cujos valores de NDVI estão na faixa entre 0,75 e 0,9.
[78] O método descrito pode ser implantado por um sistema 10 para aquisição e análise de imagens multiespectrais ilustradas esquematicamente na Figura 11. O sistema 10 compreende pelo menos um dispositivo de captura de imagem multiespectral 12 e um processador 14 acoplado ao dispositivo de captura de imagem 12. De preferência, o processador está em comunicação bidirecional com um usuário 20 para trocar os dados e as instruções. O processador executa um módulo de processamento de imagem 16 que compreende um módulo de segmentação de regiões 18 para analisar automaticamente as imagens capturadas por meio da segmentação de regiões de acordo com parâmetros de pesquisa predefinidos e fornecer resultado correspondente a irregularidades em cada imagem que está dentro dos parâmetros de pesquisa predefinidos. Conforme descrito acima, esse resultado pode ser usado pelo processador 14 ou fornecido ao usuário 20. O módulo de segmentação de regiões 18 pode implantar tanto a segmentação de regiões de larga escala quanto a segmentação de regiões de pequena escala. O sistema compreende adicionalmente um indicador de localização geográfica 22 adaptado e configurado para fornecer uma indicação de uma localização geográfica das irregularidades. Embora o indicador de localização geográfica 22 seja ilustrado nessa modalidade como sendo uma unidade separada, de acordo com outras modalidades da invenção, o mesmo pode ser parte do dispositivo de captura de imagem 12. O processador é configurado adicionalmente para determinar automaticamente a possibilidade de dirigir um dentre os dispositivos de captura de imagem multiespectral para a localização geográfica indicada a fim de capturar capture imagens das irregularidades em resposta ao resultado.
[79] A presente invenção também se refere a um método para identificar objetos em imagens multiespectrais. O método compreende analisar imagens multiespectrais em alta resolução de acordo com parâmetros de objeto predefinidos e, quando os parâmetros dentro os parâmetros de objeto pré- definidos forem constatados, realizar a segmentação de regiões nas imagens que contêm tais parâmetros para identificar regiões. Os objetos configurados nessas regiões são comparados aos parâmetros de referência predefinidos a fim de identificar os objetos que têm os parâmetros de objeto pré-definidos. De acordo com algumas modalidades, os objetos são classificados antes da comparação. Vários exemplos não limitativos de uso desse método conforme a seguir.
Identificação Automatizada de Objetos de Morfologia Simples
[80] Alguns objetos selecionados para identificação possui a propriedade de ter morfologia muito simples (forma e estrutura) (doravante “SMS” - Estrutura De Morfologia Simples), tipicamente, em um formato de uma mancha pequena. Uma abordagem útil para detectar objetos de SMS consiste no cálculo do conjunto de regiões muito pequenos (1 a 15 pixels), na extração de uma imagem pequena ao redor de cada região pequena e buscar o objeto selecionado nessa imagem. Tipicamente, tal busca envolverá ativar um programa de compatibilização de padrão interno entre os regiões pequenas e os padrões de referência.
[81] Uma implantação importante para detectar objetos de SMS é a aplicação do mesmo na detecção de praga pequena. As imagens de SMS das pragas exibem um formato de uma “mancha pequena”, cujos limites podem ser aproximados por um formato de elipse.
[82] A identificação computadorizada das pragas de SMS em áreas infectadas se baseia nas seguintes suposições por observação:
[83] a. As imagens de SMS são geometricamente significativas, possuindo um formato semelhante a elipse e, normalmente, o contraste de cor de uma praga de SMS em relação aos arredores da mesma são muito afiados.
[84] b. A morfologia visual de uma planta infectada que contém uma alta concentração de “manchas” - pragas de SMS - em comparação a uma planta não infectada. Desse modo, uma planta infectada pode ser distinguida de uma planta não infectada comparando-se a “concentração de manchas” em uma porta de processamento de imagem adequada.
[85] A presente invenção emprega métodos para detecção automática de pragas de SMS com base na transformação das suposições por observação descrita acima nos algoritmos eficazes.
[86] Em uma modalidade algorítmica dessas observações, a imagem adquirida (em Imagem Visíveis de NI ou NDVI, ou qualquer tipo de separação de canal como CMYK (ciano, magenta, amarelo e preto) é convertida primeiramente em uma imagem de nível cinza e, em seguida, se submete a uma segmentação com base em regiões em nível de cinza. Dependendo da qualidade da imagem, a segmentação de regiões eficaz consistirá em uma operação de quantização uniforme. 32 valores de níveis de cinza serão, normalmente, o suficiente para a maioria das aplicações. O mapa binário de cada um dos valores de níveis de cinza está submetido ao algoritmo de marcação de agrupamento Hoshen-Kopelman descrito acima e, por fim, o conjunto de as regiões possíveis consiste em todos os valores de níveis de cinza é criado e armazenado. A partir desse conjunto de regiões calculados, apenas regiões pequenos que têm um tamanho menor que um número limite de pixels (tipicamente, porém sem limitação, que tem um tamanho menor que 10 pixels) são extraídos.
[87] A imagem é segmentada em diversas subimagens iguais. Em cada subimagem, o número de regiões pequenos criados pelo método descrito acima e contado. Uma detecção da presença de pragas de SMS é declarada, caso o número de regiões pequenos em uma determinada porcentagem das subimagens exceda um valor limite calibrado pré-definido. Tal definição do limite pode ser definida de modo a ser compatível com as políticas de aspersão agrícolas.
[88] Em outra modalidade algorítmica da presente invenção, a imagem é convertida em uma imagem de nível cinza e se submete a uma segmentação de regiões de nível cinza com o uso do mesmo método descrito acima. A partir do conjunto de regiões segmentados, as regiões que têm um tamanho muito pequeno, (que têm, porém sem limitação, tipicamente um tamanho menor que 10 pixels) são selecionados e os centros de gravidade dos mesmos são registrados.
[89] Todas as subimagens ao redor de cada centro de gravidade registrado (que tem um comprimento de raio definido, tipicamente, porém sem limitação, menor que 50 pixels) são extraídas e são comparação às imagens de referência das pragas de SMS que têm tipicamente uma forma elíptica, que permanecem na memória, com o uso de um operador de correlação ou uma função de classificador de rede neural profunda pré-programada. Caso a correlação exceda um valor limite predefinido, e/ou uma classificação bem-sucedida seja sinalizada, uma detecção é declarada. As Figuras 3a e 3b demonstram como esse método funciona. As duas imagens de nível cinza retratam um campo de algodão infectado. O conjunto de pontos vermelhos sobrepostos a imagem na Figura 3a mostra os centros de gravidade de as regiões pequenos cujo número de pixels é menor que 50, conforme calculado pelo método descrito acima. Nesse exemplo, a imagem de nível cinza foi reduzida até 32 níveis. As imagens pequenas com tamanho de 16 x 16 pixels ao redor das quais esses pontos são extraídos e foram submetidos para compatibilização com as imagens de referência com o uso de um operador de referência. O conjunto de pontos de vermelho sobrepostos na imagem na Figura 3b mostra todas as subimagens que o operador de referência constatou.
[90] Em outra modalidade algorítmica da análise, a seleção de pequenas regiões está confinada no conjunto de regiões que tem uma cor que está dentro de uma distância próxima a uma cor de referência que caracteriza tipicamente as pragas de SMS na consulta. Na presente invenção, a distância entre duas cores RGB determinada é definida conforme a seguir: Caso X1 = {R1,G1,B1} e X2 = {R2,G2,B2} então Distância[X1,X2] = Max{Abs[R1-R2], Abs[G1-G2], Abs[B1- B2]};
[91] As Figuras 4a e 4b mostram a maneira que esse procedimento funciona. A Figura 4a mostra uma folha que contém um conjunto de pragas de SMS (cor branca). A Figura 4b mostra um conjunto de pragas de SMS detectadas (indicada pelos pontos roxos sobrepostos na imagem da Figura 4a) resultante da extração de regiões pequenos cujas cores são confinadas em uma distância “próxima” no sentido definido acima, (nesse exemplo, menos que 40 unidades de cor) para a cor branca. Será observado que a cor selecionada para indicar as pragas na exibição não tem significado, por si só, e que a exibição pode ser qualquer cor selecionada.
[92] Em uma modalidade algorítmica da análise, a detecção de pragas de SMS é realizada com o uso do método a seguir. Uma imagem de nível cinza adquirida da imagem visível é segmentada em diversas imagens não sobrepostas muito semelhantes, por exemplo, quatro, formando-se um operador de entrelaçamento no sentido da linha e no sentido da coluna, o que resulta na formação de quatro subimagens cuja união expande com precisão a imagem original. No presente documento, supõe-se que a imagem de nível cinza original é marcada como X, e X1, X2, X3 e X4 são as subimagens resultantes devido à aplicação do operador de entrelaçamento.
[93] A definição da imagem A (“imagem de aceleração de X”) como: A = (X1 + X4 - 2*X3); resultará em uma imagem A que intensifica os contrastes. Reivindica-se que a extraindo de A um conjunto de um número pré-selecionado de pixels que tem os maiores valores de brilho rende um conjunto de pixels que têm uma alta probabilidade de compreender pragas de SMS. As subimagens pequenas ao redor do conjunto de pixels de alto valor calculado são extraídas e o conteúdo dos mesmos é comparado às imagens das pragas de SMS que permanecem na memória. Uma alta correlação sinalizará a presença pragas de SMS. As Figuras 5a e 5b ilustram essa ideia. A Figura 5a mostra uma folha infectada que contém pragas de SMS e a Figura 5b mostra um conjunto de pontos de vermelho, sobrepostos na Figura 5a. Os pontos de vermelho são os pontos criados pelo método descrito acima, para os quais o correlacionador identificou as subimagens pequenas extraídas correspondentes como contendo uma praga de SMS. Em outra modalidade da ideia algorítmica acima, a detecção de pragas de SMS é realizada com o uso do a seguir método. O nível cinza das imagens Visíveis ou NIR se submete a um operador de detecção de borda. A partir da imagem detectada de borda resultante, um conjunto de pixels cujos valores de intensidade excedem um valor limite determinado é selecionado.
[94] As subimagens pequenas ao redor desses pixels são extraídos e o conteúdo das mesmas é comparado às imagens de referência conhecidas com o uso de um método de correlação. Caso a medida de correlação exceda um valor limite pré- projetado, a detecção de praga é sinalizada. As Figuras 6a, 6b e 6c demonstram a ideia. A Figura 6a mostra uma folha que contém pragas de SMS (colocada em branco), a Figura 6b mostra uma aplicação de detecção de borda da Figura 6a e da Figura 6c mostram um conjunto de pontos (amarelos) sobrepostos na Figura 6a que é o resultado de extrair os pontos relevantes da Figura 6b em conformidade com o método descrito.
[95] Em outra modalidade da ideia algorítmica acima, a detecção de pragas de SMS é realizada com o uso do a seguir método. O nível de cinza das imagens Visíveis ou NIR se submete a uma operação de limite binário. O nível de limite é calculado de acordo com o seguinte: iniciar com limite muito alto (quadro escuro), o nível de limite é diminuído gradualmente de modo que, caso o número de pontos brancos (resultante da operação de limite) exceda um determinado nível, um limite desejado é declarado.
[96] A partir da imagem resultante, um conjunto de pixels cujos valores de identidade excedem o valor limite desejado acima é selecionado. As subimagens pequenas ao redor desses pixels são extraídos e o conteúdo das mesmas é comparado às imagens de referência conhecidas com o uso de um método de correlação. Caso a medida de correlação exceda um valor limite pré-projetado, a detecção de praga é sinalizada.
[97] A identificação automatizada dos Objetos de Morfologia Complexa, alguns objetos cuja identificação é exigida, possuiu a propriedade de ter uma estrutura complexa (doravante CMS). Uma abordagem geral para detectar objetos CMS consiste em segmentar a imagem em regiões que têm tamanho moderado, dependendo da morfologia de objeto exigido específica. Reivindica-se que, caso os objetos de CMS estejam presentes na imagem adquirida, os mesmos estão muito propensos a serem encontrados em diversas imagens ao redor de tais regiões de tamanho moderado, tipicamente transmitindo-se essas imagens preferencialmente menores (normalmente confinadas apenas em algumas dúzias de pixels) a um servidor remoto para identificação, de preferência, porém sem limitação, com o uso de uma abordagem de rede neural profunda. Outra identificação é ativar um código interno (tal como descrito abaixo) com capacidade para identificar o objeto.
[98] Um número de métodos de identificação de praga de CMS será descrito agora.
[99] Os exemplos de pragas de CMS são mosca, gafanhoto, insetos etc. A observação das estruturas dessas pragas mostra uma morfologia muito complicada cuja detecção exige normalmente um código de compatibilização sofisticado.
[100] Em uma modalidade do método de detecção de pragas CMS, a imagem adquirida (opcionalmente uma imagem VISÍVEL e/ ou NI e/ou NDVI e/ou com base em outro índice de vegetação) se submete primeiramente ao à conversão de nível de cinza e igualdade de histograma. Em seguida, a imagem se submete à segmentação de regiões com o uso da abordagem de marcação de agrupamento Hoshen Kopelman descrita acima.
[101] As regiões que têm um número moderado para alto de pixels são selecionadas e as subimagens que cercam os centros de gravidade desses que têm um raio menor que um determinado nível (tipicamente, porém sem limitação, 32 pixels) são extraídos.
[102] Cada uma das subimagens selecionadas se submetem à segmentação de regiões adicional, de preferência, com o uso de 4 valores de níveis de cinza. Alternativamente, um número diferente de valores de intensidade pode ser utilizado. As regiões calculadas estão dispostas com relação ao tamanho em pixels dos mesmos. Um número selecionado, por exemplo, as primeiras três regiões grandes são extraídas e uma imagem binária que compreende os pixels associados dos mesmos pixels é criada. No caso de uma praga ser “capturada” na subimagem acima extraída, e a para fins de delinear os limites de morfologia, dois operadores binários de morfologia são aplicados no mapa binário que compreende as regiões grandes: o operador binário dilatado e o operador erodido binário. Por fim, a diferença entre as imagens erodidas e dilatada calculada, o que resulta em uma imagem que captura aproximadamente os limites da morfologia de praga.
[103] As Figuras 7a, 7b e 7c demonstram como o algoritmo funciona. Cada uma das imagens na Figura 7a mostra uma praga original de CMS. Cada imagem na Figura 7b mostra uma imagem binária resultante da projeção dos pixels das três regiões maiores da imagem correspondente na Figura 7a. Além disso, cada imagem na Figura 7c mostra os limites resultante da praga da Figura 7a correspondente após aplicação dos operadores binário erodidos e dilatados. Em seguida, as imagens resultantes na Figura 7c são comparadas a imagens de tipo semelhante, por exemplo, limites de praga de CMS, com o uso de um procedimento de correlação e/ou procedimento de classificação com o uso de uma rede neural profunda ou outro método de visão por máquina, tal como um previsor ou classificador.
[104] Em outra modalidade de um método de detecção com base em CMS de segmentação de regiões, o nível de cinza da imagem visível ou da imagem NI ou da NDVI ou outra imagem com base em índice de vegetação se submete à segmentação de regiões (de preferência, porém sem limitação, 4 níveis de intensidade) e regiões que tem um tamanho de pixels selecionado, por exemplo, em uma faixa de 50 a 300 números de pixels são extraídos. A imagem que circunda cada região é extraída e é enviada a um servidor remoto para classificação para a categoria certa de pragas de CMS com o uso de uma abordagem de rede neural profunda, ou outro método de visão por máquina, tal como um previsor e classificador, em comparação a um grande conjunto de dados de imagens de praga que foram usadas como um conjunto de treinamento para classificação de praga. As Figuras 8a e 8b ilustram esse conceito. A Figura 8a retrata uma folha infectada com afídeos de CMS, e a Figura 8b mostra um conjunto de regiões cujos tamanhos estão em uma faixa entre 100 e 200 pixels. A compatibilização entre pragas e regiões extraídos é significativa.
IDENTIFICAÇÃO INDIRETA AUTOMATIZADA DE OBJETOS
[105] Em alguns casos, em particular, no caso de identificação de praga automática, a presença de uma praga pode ser detectada pelo impacto exclusivo da mesma em seus arredores. Em outras palavras, pode ser difícil ou impossível capturar a praga real nas imagens adquiridas, porém, a presença da praga pode ser deduzida do estado da planta. Dois tais casos, fora de muitas dessas situações, são apresentados abaixo a título de exemplo não limitante apenas.
[106] A praga conhecida como “Minador das Folhas dos Citros” pode servir como um bom exemplo. A presença de minas “de enrolamento”, atribuídas a essa praga, é geralmente encontrada na superfície da folha. Desse modo, a detecção de tais de mina manifesta a presença dessa praga. A presente invenção fornece dois métodos algoritmos para identificar essa praga: A. Usar método para identificação automática da Estrutura Morfológica Complexa, conforme descrito na seção anterior, em que as imagens ao redor das regiões têm um número relativamente grande de pixels (tipicamente entre 100 e 700) são extraídas e o conteúdo dessa imagem é comparado a várias imagens de referência que contém o Minador das Folhas dos Citros.
[107] B. Um algoritmo de detecção feito sob encomenda de minador específico é descrito de acordo com o seguinte: As imagens de regiões que têm um número relativamente grande de pixels são extraídos. Os limites de objetos propensos que permanecem nas imagens calculadas. Em qualquer imagem dessa, um Filtro de Canto de Imagem é aplicado e o número de coordenadas de canto calculadas é contada. Caso o número de coordenadas de canto exceda um determinado limite, uma detecção de Minador das Folhas dos Citros é declarada.
[108] As Figuras 9a, 9b e 9c demonstram a ideia: A Figura 9a mostra uma mina típica do Minador das Folhas dos Citros (circulado com a cor amarela) e a Figura 9b mostra os limites do mesmo e a Figura 9c mostra os pontos de canto resultantes, que resultam da aplicação do Filtro de Canto (Figura inferior). Claramente há um grande número relativamente grande de tais pontos, que indicam a presença de uma mina
[109] Será observado que a aparência de um objeto em relação ao segundo plano do mesmo é diferente quando visualizada em diferentes bandas espectrais. De acordo com modalidades da presente invenção, esse fato pode ser utilizado para aprimorar isolamento e a identificação de vários objetos de interesse. Por exemplo, a imagem multiespectral em alta resolução pode se submeter primeiramente à manipulação de cor para esticar e isolar a aparência do objeto almejado do resto dos objetos da imagem. Essas manipulações podem compreender combinar algumas das bandas visuais multiespectrais originais e alguns canais do espaço de cor CMYK (Chave Ciano Magenta Amarelo (Preto)) e/ou HLS (Tonalidade Luminosidade e Saturação) espaço de cor e/ou qualquer outro espaço ou espaços de cor. O uso de bandas estreitas multiespectrais na presente invenção em várias combinações entre bandas individuais do espaço de cor RGB, espaço de cor de CMYK, o espaço de cor de HSL e possivelmente outros espaços de cor, possibilita separação aprimorada do objeto buscado dos antecedentes circundantes do mesmo. Após a distinção de aparência da doença ou outro objeto ser examinada 'nos vários canais de cor e matrizes, o cálculo aritmético que intensifica essa aparência é escolhido. Tais combinações de bandas podem ser realizadas com o uso de várias ferramentas de processamento de imagem, tais como Diferença de Imagem, Adicionar<Subtrair, pixels Mais Claros/Mais Escuros, ajuste de imagem etc. A combinação pode estar entre dois canais/matrizes ou mais, de acordo com a aparência do objeto nas matrizes diferentes. Isso fornece uma separação de objeto muito melhor da separação de cor da cor em segundo plano com o uso apenas do espaço de cor RGB. Uma separação adicional do objeto buscado, em general, pode ser alcançando também incorporando-se a banda vermelha específica de 650 nm do espectro multiespectral. Nesse caso, uma cor branca pronunciada indica a detecção do objeto. A realização de detecção cruzada de várias combinações de cor pode aprimorar a detecção. Várias combinações de cor, conforme descrito acima, podem ser pré-selecionadas e adaptadas aos tipos específicos, aumentado, assim, as chances de detecção de praga.
[110] Outro exemplo importante de identificação de praga indireta automatizada, de acordo com essas modalidades da invenção, é apresentado no presente documento com referência aos fenômenos de ferrugem. A ferrugem se refere a sintomas que afetam plantas em resposta à infecção por um organismo patogênico. Isso está associado tipicamente a uma cor marrom e uma folha seca. De acordo com a presente invenção, uma busca automática para ferrugem é realizada com o uso da imagem multiespectral de alta resolução. A imagem adquirida se submete primeiramente à manipulação de cor, conforme descrito acima, a fim de esticar e isolar a aparência da ferrugem de outros objetos da imagem. O uso de várias combinações entre bandas individuais do espaço de cor RGB, espaço de cor de CMYK, o espaço de cor de HSL e possivelmente outros espaços de cor, possibilita separação substancial das folhas infectadas por ferrugem do segundo plano circundante da mesma. Isso é tipicamente a parte verde da folha ou a cor marrom do solo.
[111] A manipulação bem-sucedida de cor exibe tipicamente a parte de ferrugem muito claramente, normalmente com duas (ou mais) cores dominantes pronunciadas. A título de conveniência, as mesmas são denominadas de cor principal e cor secundária. Esses valores de cor dependem da manipulação de cor específica realizada. A Figura 10 ilustra esse exemplo. No presente contexto, a manipulação de cor consistiu em obter a diferença de imagem entre a imagem visual composta dos canais RGB e o canal magenta associado à cor CMYK da imagem. A folha no centro mostra claramente duas cores - marrom e roxo. O algoritmo de detecção de ferrugem automática extrai primeiramente todos os pixels associados à cor principal e aplica uma segmentação de regiões nessa definição. As regiões que possuem pixels associados à segunda cor nas proximidades imediatas dos mesmos são declaradas como associados à ferrugem.
[112] Embora esse princípio de manipulação de cor tenha sido exemplificado acima com referência à ferrugem, será observado que o mesmo pode ser utilizado em muitas aplicações diferentes, seja buscando por diferentes tipos de pragas ou doenças ou monitorando objetos totalmente diferentes. As etapas importantes são capturar imagens multiespectrais e, após a segmentação de regiões, realizar divisão das imagens em vários espaços de cor e cruzar canais de cor selecionados para fazer com os objetos almejados se destaquem do restante da imagem.
[113] Será observado que, embora a presente invenção tenha sido exemplificada acima com relação a pesquisas agrícolas, também é aplicável a muitas outras situações em que é necessário realizar varredura em uma área na terra ou no mar a fim de detectar irregularidades locais para investigação adicional, por exemplo, buscar cardumes de peixes ou minas terrestres ou outras irregularidades na superfície no solo.
[114] Embora a invenção tenha sido descrita em relação a um número limitado de modalidades, será observado que muitas variações, modificações e outras aplicações da invenção podem ser feitas. Será observado adicionalmente que a invenção não é limitada ao que foi descrito acima no presente documento apenas a título de exemplo. De preferência, a invenção é limitada apenas pelas reivindicações a seguir. Referências J. Hoshen e R. Kopelman (1976).” Percolation and Cluster Distribution”. Phys. Rev. B. 1(14): 3.438 a 3.445 http://jpe.oxfordjournals.Org/content/1/1/9.full Imagens de Captação Remota em mapeamento de vegetação: uma revisão Referência aos Dependendo de Agricultura dos EUA em relação à captação remota e bandas espectrais. ww .mdpi.com%2F2072- 4292%2F6%2F6%2F5257%2Fpdf&usg=AFQjCNErQYE2iPKfPKwtJYLn XLB0jWN5KA&sig2=9bMbgRXFMNgmqMIrr2TWqA Um Sistema de Imageamento Multiespectral Aerotransportado com Base em Duas Câmeras de Grau de Consumidor para Captação Remota Agrícola “Biologia sistemática (doravante denominada simplesmente de sistemática) (a) fornece nomes científicos para organismos, (b) descreve os mesos, (c) preservar coleções dos mesmos, (d) fornece classificações para os organismos, chaves para a identificação dos mesmos e dados sobre as distribuições dos mesmos, (e) investiga os históricos de evolução dos mesmos e (f) considera as adaptações ambientais dos mesmos.” *** *** Wikipedia - Sistemática Imagens por UAV, conforme descrito pelo US DO A usa no máximo apenas um pixel por pixel 0,1 m (10 cm), que é uma resolução x 12,5 inferior ao cenário descrito acima, ao passo que um uso de uma lente de 50 mm no cenário mencionado acima, resultará em uma altitude de três metros em uma resolução de x50 em comparação à melhor resolução da pesquisa de DOA - ao longo de 100 pixels por centímetro quadrado! Os campos de captação nesse tipo de resolução permitem a identificação do tipo de praga, e até mesmo diferenciação remota entre afídeos e moscas. Chambolle, A. (2004). “An algorithm for total variation minimization and applications”. Journal of Mathematical Imaging and Vision. 20: 89 a 97.

Claims (18)

1. Método para aquisição e análise de imagens multiespectrais, o método caracterizado pelo fato de que compreende: adquirir imagens aéreas multiespectrais em uma baixa resolução pré-selecionada; identificar irregularidades ou regiões de interesse que estão associadas a um intervalo desejado de valores de Diferença Normalizada do Índice de Vegetação, NDVI, executando automaticamente uma análise preliminar das imagens de baixa resolução usando segmentação de regiões em larga escala, em que a larga escala é definida pelos pixels por região usados em tempo real ou quase real, e fornecer uma saída correspondente às mesmas; associar dados de GPS, sincronizados com o tempo de captura das imagens aéreas multiespectrais, com as irregularidades detectadas; e determinar automaticamente, a partir da referida saída, se deve executar um segundo estágio de aquisição de imagens a uma resolução mais alta do que a referida baixa resolução pré-selecionada e realizar uma análise utilizando segmentação de regiões de pequena escala, em que a pequena escala é definida por pixels por região usados, a partir da determinação de se a extensão ou tamanho das irregularidades atendem a um limite pré-selecionado.
2. Método, de acordo com a reivindicação 1, caracterizado pelo fato de que compreende ainda: direcionar um dispositivo de aquisição de imagens, para capturar imagens multiespectrais adicionais de pelo menos uma das referidas irregularidades detectadas a uma resolução mais alta do que a referida baixa resolução pré-selecionada utilizando os referidos dados de GPS associados; e realizar análise usando a segmentação de regiões em pequena escala das imagens multiespectrais adicionais em tempo real ou quase em tempo real.
3. Método, de acordo com a reivindicação 1 ou reivindicação 2, caracterizado pelo fato de que capturar as imagens aéreas multiespectrais compreende capturar as imagens aéreas multiespectrais usando um aparelho de captura de imagem com múltiplas lentes e um sensor, em que o sensor registra múltiplos canais em áreas separadas do sensor.
4. Método, de acordo com a reivindicação 2, caracterizado pelo fato de que a etapa de direcionar inclui direcionar automaticamente o dispositivo de aquisição de imagem.
5. Método, de acordo com a reivindicação 1 ou reivindicação 2, caracterizado pelo fato de que identificar irregularidade ou regiões de interesse compreende: construir de um mapa binário da imagem, em que os pixels associados ao intervalo predefinido de valores de parâmetros são definidos como 1 e os pixels restantes são definidos como 0; construir um conjunto de todas as regiões possíveis associadas ao mapa binário por varrimento do mapa binário, encontrando regiões ao longo do processo de varredura e atribuindo a elas um índice em execução; definir um grupo de regiões como uma irregularidade quando: a. um número de pixels pertencentes a uma única determinada região excede um parâmetro de limiar predefinido; ou b. um número de pixels pertencentes a um conjunto de regiões, todos confinados a um determinado raio (de um centro de gravidade do conjunto de regiões), excedem um limite predefinido.
6. Método, de acordo com a reivindicação 2, caracterizado pelo fato de que compreende ainda comparar a morfologia de pelo menos uma das referidas irregularidades detectadas com a morfologia de objetos conhecidos.
7. Método, de acordo com qualquer uma das reivindicações 1 a 6, caracterizado pelo fato de que as referidas imagens multiespectrais incluem pelo menos duas imagens selecionadas a partir do grupo que inclui imagens visíveis e NIR.
8. Método, de acordo com a reivindicação 2, caracterizado pelo fato de que compreende ainda: analisar imagens multiespectrais de alta resolução de acordo com parâmetros de objeto pré-definidos; quando são encontrados parâmetros dentro dos parâmetros de objeto pré-definidos, realizar segmentação de regiões em pequena escala nas referidas imagens contendo tais parâmetros para identificar regiões; e comparar objetos confinados às referidas regiões a parâmetros de referência pré-definidos para identificar objetos tendo os referidos parâmetros de objeto.
9. Método, de acordo com a reivindicação 8, caracterizado pelo fato de que compreende ainda: classificar os referidos objetos antes da etapa de comparação.
10. Método, de acordo com a reivindicação 8 ou reivindicação 9, caracterizado pelo fato de que compreende ainda: segmentar as imagens de alta resolução adquiridas em um conjunto de sub-imagens de tamanho confinado de acordo com um tipo de pesquisa, fazer corresponder um tamanho de imagem com o das regiões; e identificar os objetos dentro do conjunto de sub- imagens por um dos seguintes: enviar o conjunto destas sub-imagens para um servidor remoto para identificação; ou identificar o objeto no local, ativando um código de identificação local.
11. Método, de acordo com a reivindicação 8 ou reivindicação 9, caracterizado pelo fato de que compreende ainda ativar um programa interno de casamento de padrões entre as regiões e padrões de referência, de modo a detectar um objeto de Estrutura Morfológica Simples (SMS) selecionado na imagem de alta resolução.
12. Método, de acordo com a reivindicação 8 ou reivindicação 9, caracterizado pelo fato de que compreende ainda: converter a imagem de alta resolução para uma imagem em níveis de cinza que sofre uma segmentação de regiões baseada em níveis de cinza; selecionar, a partir do conjunto de regiões segmentadas, regiões com tamanhos muito pequenos pré- definidos e registrar seus centros de gravidade; extrair sub-imagens em torno de cada centro de gravidade registrado; e comparar as sub-imagens extraídas com as imagens de referência das pragas de Estrutura Morfológica Simples, usando um método de visão de máquina; e declarar detecção de pragas de Estrutura Morfológica Simples quando a correlação exceder um valor limiar predefinido, e/ou ser sinalizada uma classificação bem- sucedida.
13. Método, de acordo com a reivindicação 8 ou reivindicação 9, caracterizado pelo fato de que compreende ainda: realizar segmentação de regiões nas imagens de alta resolução multiespectrais; selecionar pequenas regiões com uma cor que fica próxima a uma cor de referência pré-selecionada que tipicamente caracteriza as pragas da Estrutura Morfológica Simples, onde a distância entre duas cores RGB é definida da seguinte forma: Se X1 = {R1,G1,B1} e X2 = {R2,G2,B2} Então Distância [X1,X2] = Max{Abs[R1-R2], Abs[G1- G2], Abs[B1-B2]}.
14. Método, de acordo com qualquer uma das reivindicações 8 ou 9, caracterizado pelo fato de que compreende ainda: executar uma operação de limite binário em uma imagem em nível de cinza de uma imagem Visível ou NIR; da imagem resultante, selecionar um conjunto de pixels cujos valores de intensidade excedem um valor limite predefinido; extrair pequenas sub-imagens em torno desses pixels; comparar o conteúdo das sub-imagens pequenas extraídas com imagens de referência conhecidas utilizando um método de correlação; e sinalizar a detecção de pragas de Estrutura Morfológica Simples quando uma medida de correlação excede um valor limite pré-determinado.
15. Método, de acordo com a reivindicação 8 ou reivindicação 9, caracterizado pelo fato de que compreende ainda: converter uma imagem Visível ou uma imagem NIR em uma imagem em níveis de cinza; executar segmentação de regiões na imagem em níveis de cinza; extrair regiões com tamanho de pixels selecionados; extrair uma imagem em torno de cada uma dessas regiões; e classificar cada uma dessas imagens em um servidor remoto para uma categoria de pragas CMS usando um método de visão de máquina.
16. Método, de acordo com qualquer uma das reivindicações 8 ou 9, caracterizado pelo fato de que compreende ainda: realizar manipulação de cor em uma imagem multiespectral de alta resolução para fortalecer e isolar a aparência de um objeto em relação a outros objetos na imagem; realizar a segmentação de regiões na imagem manipulada; dividir as imagens em canais de cor de acordo com pelo menos dois espaços de cor; e combinar canais de cores selecionados de pelo menos dois espaços de cores para melhorar a aparência do objeto.
17. Sistema (10) para aquisição e análise de imagens multiespectrais, o sistema caracterizado pelo fato de que compreende: pelo menos um dispositivo de captura de imagem multiespectral (12); um processador (14) acoplado ao dispositivo de captura de imagem; o processador que executa um módulo de processamento de imagem (16) incluindo um módulo de segmentação de regiões (18) para: identificar irregularidades ou regiões de interesse associadas a um intervalo desejado de valores de Diferença Normalizada do Índice de Vegetação, NDVI, analisando automaticamente as imagens capturadas usando segmentação de regiões em larga escala, e fornecer uma saída correspondente às irregularidades; em que o módulo de segmentação de regiões é capaz de implementar tanto a segmentação de regiões em larga escala como a segmentação de regiões em pequena escala, em que a larga e pequena escala são definidas pelos pixels por região usada; e um indicador de localização geográfica (22) adaptado e configurado para fornecer uma indicação da localização geográfica das irregularidades; o processador sendo configurado para determinar automaticamente, a partir da referida saída, se deve direcionar um dos pelo menos um dispositivos de captura de imagem multiespectral para a referida localização geográfica indicada para capturar imagens das referidas irregularidades a partir da determinação de se a extensão ou tamanho das irregularidades atendem a um limite pré-selecionado.
18. Sistema, de acordo com a reivindicação 17, caracterizado pelo fato de que o processador está em comunicação bidirecional com um usuário (20) para trocar dados e instruções.
BR112018009108-1A 2015-11-08 2016-11-08 Método para a aquisição e análise de imagens aéreas BR112018009108B1 (pt)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US201562252513P 2015-11-08 2015-11-08
US62/252,513 2015-11-08
PCT/IL2016/051205 WO2017077543A1 (en) 2015-11-08 2016-11-08 A method for aerial imagery acquisition and analysis

Publications (3)

Publication Number Publication Date
BR112018009108A2 BR112018009108A2 (pt) 2018-11-06
BR112018009108A8 BR112018009108A8 (pt) 2019-02-26
BR112018009108B1 true BR112018009108B1 (pt) 2023-10-24

Family

ID=58662917

Family Applications (1)

Application Number Title Priority Date Filing Date
BR112018009108-1A BR112018009108B1 (pt) 2015-11-08 2016-11-08 Método para a aquisição e análise de imagens aéreas

Country Status (11)

Country Link
US (1) US10943114B2 (pt)
EP (1) EP3374928B1 (pt)
JP (1) JP6921095B2 (pt)
KR (1) KR102623403B1 (pt)
CN (1) CN108369635B (pt)
AU (1) AU2016350155B2 (pt)
BR (1) BR112018009108B1 (pt)
CA (1) CA3004388C (pt)
EA (1) EA039345B1 (pt)
MX (1) MX2018005714A (pt)
WO (1) WO2017077543A1 (pt)

Families Citing this family (116)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20160065414A1 (en) 2013-06-27 2016-03-03 Ken Sundermeyer Control system user interface
US10200504B2 (en) 2007-06-12 2019-02-05 Icontrol Networks, Inc. Communication protocols over internet protocol (IP) networks
US20090077623A1 (en) 2005-03-16 2009-03-19 Marc Baum Security Network Integrating Security System and Network Devices
US11316958B2 (en) 2008-08-11 2022-04-26 Icontrol Networks, Inc. Virtual device systems and methods
US9141276B2 (en) 2005-03-16 2015-09-22 Icontrol Networks, Inc. Integrated interface for mobile device
US20170118037A1 (en) 2008-08-11 2017-04-27 Icontrol Networks, Inc. Integrated cloud system for premises automation
US11677577B2 (en) 2004-03-16 2023-06-13 Icontrol Networks, Inc. Premises system management using status signal
US9729342B2 (en) 2010-12-20 2017-08-08 Icontrol Networks, Inc. Defining and implementing sensor triggered response rules
US10339791B2 (en) 2007-06-12 2019-07-02 Icontrol Networks, Inc. Security network integrated with premise security system
US7711796B2 (en) 2006-06-12 2010-05-04 Icontrol Networks, Inc. Gateway registry methods and systems
US11582065B2 (en) 2007-06-12 2023-02-14 Icontrol Networks, Inc. Systems and methods for device communication
US10156959B2 (en) 2005-03-16 2018-12-18 Icontrol Networks, Inc. Cross-client sensor user interface in an integrated security network
US11277465B2 (en) 2004-03-16 2022-03-15 Icontrol Networks, Inc. Generating risk profile using data of home monitoring and security system
US11113950B2 (en) 2005-03-16 2021-09-07 Icontrol Networks, Inc. Gateway integrated with premises security system
EP1738540B1 (en) 2004-03-16 2017-10-04 Icontrol Networks, Inc. Premises management system
US11489812B2 (en) 2004-03-16 2022-11-01 Icontrol Networks, Inc. Forming a security network including integrated security system components and network devices
US10721087B2 (en) 2005-03-16 2020-07-21 Icontrol Networks, Inc. Method for networked touchscreen with integrated interfaces
US11811845B2 (en) 2004-03-16 2023-11-07 Icontrol Networks, Inc. Communication protocols over internet protocol (IP) networks
US10237237B2 (en) 2007-06-12 2019-03-19 Icontrol Networks, Inc. Communication protocols in integrated systems
US11201755B2 (en) 2004-03-16 2021-12-14 Icontrol Networks, Inc. Premises system management using status signal
US11368429B2 (en) 2004-03-16 2022-06-21 Icontrol Networks, Inc. Premises management configuration and control
US11916870B2 (en) 2004-03-16 2024-02-27 Icontrol Networks, Inc. Gateway registry methods and systems
US9531593B2 (en) 2007-06-12 2016-12-27 Icontrol Networks, Inc. Takeover processes in security network integrated with premise security system
US11159484B2 (en) 2004-03-16 2021-10-26 Icontrol Networks, Inc. Forming a security network including integrated security system components and network devices
US10127802B2 (en) 2010-09-28 2018-11-13 Icontrol Networks, Inc. Integrated security system with parallel processing architecture
US10142392B2 (en) 2007-01-24 2018-11-27 Icontrol Networks, Inc. Methods and systems for improved system performance
US10522026B2 (en) 2008-08-11 2019-12-31 Icontrol Networks, Inc. Automation system user interface with three-dimensional display
US11343380B2 (en) 2004-03-16 2022-05-24 Icontrol Networks, Inc. Premises system automation
US11244545B2 (en) 2004-03-16 2022-02-08 Icontrol Networks, Inc. Cross-client sensor user interface in an integrated security network
US10999254B2 (en) 2005-03-16 2021-05-04 Icontrol Networks, Inc. System for data routing in networks
US20170180198A1 (en) 2008-08-11 2017-06-22 Marc Baum Forming a security network including integrated security system components
US11496568B2 (en) 2005-03-16 2022-11-08 Icontrol Networks, Inc. Security system with networked touchscreen
US9306809B2 (en) 2007-06-12 2016-04-05 Icontrol Networks, Inc. Security system with networked touchscreen
US11615697B2 (en) 2005-03-16 2023-03-28 Icontrol Networks, Inc. Premise management systems and methods
US20110128378A1 (en) 2005-03-16 2011-06-02 Reza Raji Modular Electronic Display Platform
US11700142B2 (en) 2005-03-16 2023-07-11 Icontrol Networks, Inc. Security network integrating security system and network devices
US20120324566A1 (en) 2005-03-16 2012-12-20 Marc Baum Takeover Processes In Security Network Integrated With Premise Security System
US10079839B1 (en) 2007-06-12 2018-09-18 Icontrol Networks, Inc. Activation of gateway device
US11706279B2 (en) 2007-01-24 2023-07-18 Icontrol Networks, Inc. Methods and systems for data communication
US7633385B2 (en) 2007-02-28 2009-12-15 Ucontrol, Inc. Method and system for communicating with and controlling an alarm system from a remote server
US8451986B2 (en) 2007-04-23 2013-05-28 Icontrol Networks, Inc. Method and system for automatically providing alternate network access for telecommunications
US11601810B2 (en) 2007-06-12 2023-03-07 Icontrol Networks, Inc. Communication protocols in integrated systems
US10523689B2 (en) 2007-06-12 2019-12-31 Icontrol Networks, Inc. Communication protocols over internet protocol (IP) networks
US11212192B2 (en) 2007-06-12 2021-12-28 Icontrol Networks, Inc. Communication protocols in integrated systems
US11089122B2 (en) 2007-06-12 2021-08-10 Icontrol Networks, Inc. Controlling data routing among networks
US11237714B2 (en) 2007-06-12 2022-02-01 Control Networks, Inc. Control system user interface
US11646907B2 (en) 2007-06-12 2023-05-09 Icontrol Networks, Inc. Communication protocols in integrated systems
US11218878B2 (en) 2007-06-12 2022-01-04 Icontrol Networks, Inc. Communication protocols in integrated systems
US11316753B2 (en) 2007-06-12 2022-04-26 Icontrol Networks, Inc. Communication protocols in integrated systems
US11423756B2 (en) 2007-06-12 2022-08-23 Icontrol Networks, Inc. Communication protocols in integrated systems
US11831462B2 (en) 2007-08-24 2023-11-28 Icontrol Networks, Inc. Controlling data routing in premises management systems
US11916928B2 (en) 2008-01-24 2024-02-27 Icontrol Networks, Inc. Communication protocols over internet protocol (IP) networks
US20170185278A1 (en) 2008-08-11 2017-06-29 Icontrol Networks, Inc. Automation system user interface
US11792036B2 (en) * 2008-08-11 2023-10-17 Icontrol Networks, Inc. Mobile premises automation platform
US11758026B2 (en) 2008-08-11 2023-09-12 Icontrol Networks, Inc. Virtual device systems and methods
US11729255B2 (en) 2008-08-11 2023-08-15 Icontrol Networks, Inc. Integrated cloud system with lightweight gateway for premises automation
US10530839B2 (en) 2008-08-11 2020-01-07 Icontrol Networks, Inc. Integrated cloud system with lightweight gateway for premises automation
US11258625B2 (en) * 2008-08-11 2022-02-22 Icontrol Networks, Inc. Mobile premises automation platform
US8638211B2 (en) 2009-04-30 2014-01-28 Icontrol Networks, Inc. Configurable controller and interface for home SMA, phone and multimedia
US8836467B1 (en) 2010-09-28 2014-09-16 Icontrol Networks, Inc. Method, system and apparatus for automated reporting of account and sensor zone information to a central station
US11750414B2 (en) 2010-12-16 2023-09-05 Icontrol Networks, Inc. Bidirectional security sensor communication for a premises security system
US9147337B2 (en) 2010-12-17 2015-09-29 Icontrol Networks, Inc. Method and system for logging security event data
US11146637B2 (en) 2014-03-03 2021-10-12 Icontrol Networks, Inc. Media content management
US11405463B2 (en) 2014-03-03 2022-08-02 Icontrol Networks, Inc. Media content management
MX2019002644A (es) 2016-09-08 2019-06-17 Walmart Apollo Llc Sistemas y metodos para dispensar un insecticida a traves de vehiculos no tripulados para defender un area que contiene cultivo contra plagas.
US11266054B2 (en) 2017-01-24 2022-03-08 Cnh Industrial America Llc System and method for automatically estimating and adjusting crop residue parameters as a tillage operation is being performed
JP6868304B2 (ja) * 2017-03-12 2021-05-12 株式会社ナイルワークス 作物撮影用ドローン
WO2018175552A1 (en) * 2017-03-21 2018-09-27 Gauvreau Paul Richard Jr Unmanned aerial vehicle for augmenting plant pollination
US11543836B2 (en) * 2017-04-28 2023-01-03 Optim Corporation Unmanned aerial vehicle action plan creation system, method and program
IL253260B (en) 2017-07-02 2021-07-29 Manna Irrigation Ltd Methods and systems for directing irrigation
CN110868852B (zh) 2017-07-06 2023-06-02 拜耳股份公司 用于杂草控制的装置
EP3425572A1 (en) * 2017-07-06 2019-01-09 Bayer Aktiengesellschaft Apparatus for automated weed control
CN109406412A (zh) * 2017-08-18 2019-03-01 广州极飞科技有限公司 一种植物健康状态监控方法及装置
US10491778B2 (en) 2017-09-21 2019-11-26 Honeywell International Inc. Applying features of low-resolution data to corresponding high-resolution data
US11094055B2 (en) * 2018-01-11 2021-08-17 Intelinair, Inc. Anomaly detection system
US11205073B2 (en) 2018-03-30 2021-12-21 Greensight Agronomics, Inc. System to automatically detect and report changes over time in a large imaging data set
US11235874B2 (en) 2018-03-30 2022-02-01 Greensight Agronomics, Inc. Automated drone-based spraying system
US11116145B2 (en) * 2018-03-30 2021-09-14 Greensight Argonomics, Inc. Automated optimization of agricultural treatments based on raster image data system
IL258665B (en) 2018-04-12 2021-12-01 Manna Irrigation Ltd Growth constants and their use for guiding irrigation
US11651038B2 (en) 2018-05-30 2023-05-16 Google Llc Optimizing geographic region selection
US11270423B2 (en) * 2018-07-12 2022-03-08 TerraClear Inc. Object collection system and method
IL260844B (en) * 2018-07-29 2019-09-26 Benedek Nadav System and method for locating and destroying insects
CN109100350B (zh) * 2018-08-21 2022-01-28 珠海市博恩科技有限公司 一种面粉麸星检测方法
US10813262B2 (en) * 2018-10-16 2020-10-27 Cnh Industrial America Llc System and method for generating a prescription map for an agricultural implement based on yield map and/or crop biomass
JP7292850B2 (ja) * 2018-10-17 2023-06-19 キヤノン株式会社 画像処理装置、画像処理方法、及びプログラム
CN109492541B (zh) * 2018-10-18 2021-02-19 广州极飞科技有限公司 目标对象类型的确定方法及装置、植保方法、植保系统
US10778916B2 (en) 2018-10-24 2020-09-15 Honeywell International Inc. Applying an annotation to an image based on keypoints
CN115580709A (zh) * 2018-10-26 2023-01-06 深圳市道通智能航空技术股份有限公司 航拍相机的图像处理方法、图像处理系统及无人机
CN111191488B (zh) * 2018-11-15 2023-06-27 中国电信股份有限公司 活体检测方法、装置、系统和计算机可读存储介质
CN109684938A (zh) * 2018-12-06 2019-04-26 广西大学 一种基于作物冠层航拍俯视图的甘蔗株数自动识别方法
CN109919088B (zh) * 2019-03-06 2022-09-23 贵州师范大学 一种喀斯特地区火龙果单株识别自动提取方法
WO2020193056A1 (en) * 2019-03-22 2020-10-01 Basf Coatings Gmbh Method and system for defect detection in image data of a target coating
JP6690106B1 (ja) * 2019-03-26 2020-04-28 エスゼット ディージェイアイ テクノロジー カンパニー リミテッドSz Dji Technology Co.,Ltd 決定装置、撮像システム、及び移動体
CN110334372B (zh) * 2019-04-22 2023-02-03 武汉建工智能技术有限公司 一种基于图纸配准的bim增强现实仿真方法
JP7415348B2 (ja) 2019-07-03 2024-01-17 ソニーグループ株式会社 情報処理装置、情報処理方法、プログラム、センシングシステム
WO2021062459A1 (en) * 2019-10-04 2021-04-08 Single Agriculture Pty Ltd Weed mapping
CN110866493B (zh) * 2019-11-14 2022-03-22 生态环境部南京环境科学研究所 基于遥感影像的规模化生猪养殖场识别方法
KR102254491B1 (ko) * 2019-11-22 2021-05-21 (주)가시 지능형 영상 분석 모듈을 탑재한 자율비행 드론
CN111027441B (zh) * 2019-12-03 2023-05-05 西安石油大学 一种基于机载高光谱遥感影像的道路提取方法
CN111047566B (zh) * 2019-12-04 2023-07-14 昆明市滇池高原湖泊研究院 无人机和多光谱卫星影像进行水生植被年变化统计的方法
CN112948371A (zh) * 2019-12-10 2021-06-11 广州极飞科技股份有限公司 数据处理方法、装置、存储介质、处理器
US11263454B2 (en) * 2020-05-25 2022-03-01 Jingdong Digits Technology Holding Co., Ltd. System and method for video-based pig counting in the crowd
KR102162342B1 (ko) * 2020-06-17 2020-10-06 주식회사 아이온커뮤니케이션즈 태양광 패널 검사용 고품질 영상 획득을 위한 무인 비행체 및 그의 비행 제어 방법
KR102187654B1 (ko) * 2020-07-09 2020-12-07 주식회사 이노드 저고도 무인 비행체 및 이를 포함하는 작물 재배 정보 획득 시스템
CN112034512B (zh) * 2020-09-02 2023-03-14 中海石油(中国)有限公司 基于深度学习模型的地震数据不连续性检测方法和系统
KR102218863B1 (ko) * 2020-10-16 2021-02-24 네이버시스템(주) 드론을 이용한 실시간 변량 살포 방법 및 드론을 이용한 실시간 변량 살포 시스템
KR102267022B1 (ko) * 2020-10-30 2021-06-18 주식회사 스페이스소프트인더스트리 액제 혹은 입제를 변량 살포하기 위한 드론
WO2022155565A1 (en) * 2021-01-15 2022-07-21 Medici Land Governance Enhancement of coarse resolution imagery using super-resolution and convolution neural networks to be used for fit-for-purpose systematic land titling and land valuation
CN112906648A (zh) * 2021-03-24 2021-06-04 深圳前海微众银行股份有限公司 一种地块中对象的分类方法、装置及电子设备
KR102300349B1 (ko) * 2021-04-13 2021-09-09 주식회사 프로펠 탐지 상황에 따라 자동으로 이동 경로를 설정하는 무인 항공기, 및 운용 방법
KR102300348B1 (ko) * 2021-04-13 2021-09-09 주식회사 프로펠 실시간 이미지 분석을 기반으로 현장 상황을 공유하는 무인 항공기, 및 제어 방법
CN113177956A (zh) * 2021-05-11 2021-07-27 南通大学 一种面向无人机遥感影像的语义分割方法
CN113361350A (zh) * 2021-05-25 2021-09-07 东南大学 一种地表生境因子量化解析方法
JP2023170711A (ja) * 2022-05-19 2023-12-01 横河電機株式会社 データ取得装置、データ取得方法、および、データ取得プログラム
CN117014584B (zh) * 2023-09-28 2023-12-29 中国科学院空天信息创新研究院 植被遥感产品获取系统及方法
CN117611784A (zh) * 2023-11-30 2024-02-27 华北电力大学 面向多光谱高时效性放电检测的协同控制方法及装置

Family Cites Families (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6178253B1 (en) * 1997-10-10 2001-01-23 Case Corporation Method of determining and treating the health of a crop
US20010016053A1 (en) * 1997-10-10 2001-08-23 Monte A. Dickson Multi-spectral imaging sensor
JP2000194833A (ja) * 1998-12-28 2000-07-14 Hitachi Ltd 観測衛星を利用した地域管理システム,地域管理方法と農業育成管理システム及び観測衛星運用システム
US6567537B1 (en) 2000-01-13 2003-05-20 Virginia Commonwealth University Method to assess plant stress using two narrow red spectral bands
US7161665B2 (en) * 2002-12-18 2007-01-09 University Of Wyoming High resolution imaging fountain flow cytometry
US7208733B2 (en) * 2004-08-24 2007-04-24 International Electronic Machines Corp. Non-visible radiation imaging and inspection
US8009871B2 (en) * 2005-02-08 2011-08-30 Microsoft Corporation Method and system to segment depth images and to detect shapes in three-dimensionally acquired data
US8503794B2 (en) * 2010-07-28 2013-08-06 Microsoft Corporation Data difference guided image capturing
JP5560157B2 (ja) * 2010-10-19 2014-07-23 株式会社日立製作所 スペクトル情報抽出装置
US20140312165A1 (en) * 2013-03-15 2014-10-23 Armen Mkrtchyan Methods, apparatus and systems for aerial assessment of ground surfaces
FR3003380A1 (fr) * 2013-03-18 2014-09-19 Delta Drone Procede de surveillance de l'etat de vegetation aux abords d'une infrastructure
FR3003377A1 (fr) 2013-03-18 2014-09-19 Delta Drone Procede d'analyse d'une parcelle agricole cultivee
EP3541071A1 (en) * 2013-08-02 2019-09-18 Xactware Solutions Inc. System and method for detecting features in aerial images using disparity mapping and segmentation techniques
US9830514B2 (en) 2013-12-27 2017-11-28 Weyerhaeuser Nr Company Method and apparatus for distinguishing between types of vegetation using near infrared color photos
US20150254800A1 (en) * 2014-03-06 2015-09-10 F12 Solutions, Llc Nitrogen status determination in growing crops
US9734399B2 (en) * 2014-04-08 2017-08-15 The Boeing Company Context-aware object detection in aerial photographs/videos using travel path metadata
CN104851113B (zh) * 2015-04-17 2017-11-03 华中农业大学 多分辨率遥感影像的城市植被自动提取方法
US9989965B2 (en) * 2015-08-20 2018-06-05 Motionloft, Inc. Object detection and analysis via unmanned aerial vehicle

Also Published As

Publication number Publication date
MX2018005714A (es) 2019-08-16
EA039345B1 (ru) 2022-01-17
EP3374928A1 (en) 2018-09-19
AU2016350155A1 (en) 2018-05-24
CA3004388C (en) 2024-02-13
BR112018009108A2 (pt) 2018-11-06
CA3004388A1 (en) 2017-05-11
KR102623403B1 (ko) 2024-01-12
BR112018009108A8 (pt) 2019-02-26
KR20180081104A (ko) 2018-07-13
CN108369635B (zh) 2022-07-29
EP3374928B1 (en) 2024-03-27
US20190073534A1 (en) 2019-03-07
AU2016350155B2 (en) 2021-08-19
US10943114B2 (en) 2021-03-09
WO2017077543A1 (en) 2017-05-11
EP3374928A4 (en) 2019-06-05
EA201890935A1 (ru) 2018-11-30
JP6921095B2 (ja) 2021-08-25
CN108369635A (zh) 2018-08-03
JP2018534714A (ja) 2018-11-22

Similar Documents

Publication Publication Date Title
BR112018009108B1 (pt) Método para a aquisição e análise de imagens aéreas
Reza et al. Rice yield estimation based on K-means clustering with graph-cut segmentation using low-altitude UAV images
Onishi et al. Automatic classification of trees using a UAV onboard camera and deep learning
Laliberte et al. Image processing and classification procedures for analysis of sub-decimeter imagery acquired with an unmanned aircraft over arid rangelands
US20200244890A1 (en) Unmanned aerial vehicle
de Oca et al. The AgriQ: A low-cost unmanned aerial system for precision agriculture
Baron et al. Combining image processing and machine learning to identify invasive plants in high-resolution images
Diago et al. On‐the‐go assessment of vineyard canopy porosity, bunch and leaf exposure by image analysis
CN104881865A (zh) 基于无人机图像分析的森林病虫害监测预警方法及其系统
Guldogan et al. Automated tree detection and density calculation using unmanned aerial vehicles
She et al. Applications of small UAV systems for tree and nursery inventory management
Finn et al. Unsupervised spectral-spatial processing of drone imagery for identification of pine seedlings
Tubau Comas et al. Automatic apple tree blossom estimation from UAV RGB imagery
Tang et al. Non-productive vine canopy estimation through proximal and remote sensing
Yuba et al. Counting of Pennisetum alopecuroides at heading stage in a grazed pasture using images from an unmanned aerial vehicle
Hervás Martínez et al. A weed monitoring system using UAV-imagery and the Hough transform
KR102183559B1 (ko) 피해목 검출 장치 및 방법
Bonaria Grapevine yield estimation using image analysis for the variety Arinto
López et al. Multi-Spectral Imaging for Weed Identification in Herbicides Testing
Lozano et al. Detection and Monitoring of Alien Weeds Using Unmanned Aerial Vehicle in Agricultural Systems in Sardinia (Italy)
Pudełko et al. Identification of the intensity of weeds in maize plantations based on aerial photographs
Wijesingha et al. Mapping invasive Lupinus polyphyllus Lindl. in semi-natural grasslands using object-based analysis of UAV-borne images
Choudhury et al. UAV-assisted multi-modal detection and severity assessment for red spider mites in tea
Baron Mapping invasive plants using RPAS and remote sensing
Peña et al. Comparing visible and color-infrared UAV imagery for early-season weed mapping: The case of maize a wide row crop

Legal Events

Date Code Title Description
B06U Preliminary requirement: requests with searches performed by other patent offices: procedure suspended [chapter 6.21 patent gazette]
B07A Application suspended after technical examination (opinion) [chapter 7.1 patent gazette]
B09A Decision: intention to grant [chapter 9.1 patent gazette]
B15K Others concerning applications: alteration of classification

Free format text: AS CLASSIFICACOES ANTERIORES ERAM: G06K 9/00 , G01J 3/28

Ipc: G06V 20/10 (2022.01), G06V 20/00 (2022.01), G06V 1

B16A Patent or certificate of addition of invention granted [chapter 16.1 patent gazette]

Free format text: PRAZO DE VALIDADE: 20 (VINTE) ANOS CONTADOS A PARTIR DE 08/11/2016, OBSERVADAS AS CONDICOES LEGAIS