BR112021001634A2 - sistema e método para localizar e eliminar insetos - Google Patents

sistema e método para localizar e eliminar insetos Download PDF

Info

Publication number
BR112021001634A2
BR112021001634A2 BR112021001634-1A BR112021001634A BR112021001634A2 BR 112021001634 A2 BR112021001634 A2 BR 112021001634A2 BR 112021001634 A BR112021001634 A BR 112021001634A BR 112021001634 A2 BR112021001634 A2 BR 112021001634A2
Authority
BR
Brazil
Prior art keywords
insect
image
space
location
images
Prior art date
Application number
BR112021001634-1A
Other languages
English (en)
Inventor
Nadav Benedek
Saar Wilf
Original Assignee
Bzigo Ltd.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Bzigo Ltd. filed Critical Bzigo Ltd.
Publication of BR112021001634A2 publication Critical patent/BR112021001634A2/pt

Links

Classifications

    • AHUMAN NECESSITIES
    • A01AGRICULTURE; FORESTRY; ANIMAL HUSBANDRY; HUNTING; TRAPPING; FISHING
    • A01MCATCHING, TRAPPING OR SCARING OF ANIMALS; APPARATUS FOR THE DESTRUCTION OF NOXIOUS ANIMALS OR NOXIOUS PLANTS
    • A01M1/00Stationary means for catching or killing insects
    • A01M1/02Stationary means for catching or killing insects with devices or substances, e.g. food, pheronones attracting the insects
    • A01M1/026Stationary means for catching or killing insects with devices or substances, e.g. food, pheronones attracting the insects combined with devices for monitoring insect presence, e.g. termites
    • AHUMAN NECESSITIES
    • A01AGRICULTURE; FORESTRY; ANIMAL HUSBANDRY; HUNTING; TRAPPING; FISHING
    • A01MCATCHING, TRAPPING OR SCARING OF ANIMALS; APPARATUS FOR THE DESTRUCTION OF NOXIOUS ANIMALS OR NOXIOUS PLANTS
    • A01M1/00Stationary means for catching or killing insects
    • A01M1/06Catching insects by using a suction effect
    • AHUMAN NECESSITIES
    • A01AGRICULTURE; FORESTRY; ANIMAL HUSBANDRY; HUNTING; TRAPPING; FISHING
    • A01MCATCHING, TRAPPING OR SCARING OF ANIMALS; APPARATUS FOR THE DESTRUCTION OF NOXIOUS ANIMALS OR NOXIOUS PLANTS
    • A01M1/00Stationary means for catching or killing insects
    • A01M1/14Catching by adhesive surfaces
    • AHUMAN NECESSITIES
    • A01AGRICULTURE; FORESTRY; ANIMAL HUSBANDRY; HUNTING; TRAPPING; FISHING
    • A01MCATCHING, TRAPPING OR SCARING OF ANIMALS; APPARATUS FOR THE DESTRUCTION OF NOXIOUS ANIMALS OR NOXIOUS PLANTS
    • A01M1/00Stationary means for catching or killing insects
    • A01M1/20Poisoning, narcotising, or burning insects
    • A01M1/2022Poisoning or narcotising insects by vaporising an insecticide
    • AHUMAN NECESSITIES
    • A01AGRICULTURE; FORESTRY; ANIMAL HUSBANDRY; HUNTING; TRAPPING; FISHING
    • A01MCATCHING, TRAPPING OR SCARING OF ANIMALS; APPARATUS FOR THE DESTRUCTION OF NOXIOUS ANIMALS OR NOXIOUS PLANTS
    • A01M1/00Stationary means for catching or killing insects
    • A01M1/22Killing insects by electric means
    • A01M1/223Killing insects by electric means by using electrocution
    • AHUMAN NECESSITIES
    • A01AGRICULTURE; FORESTRY; ANIMAL HUSBANDRY; HUNTING; TRAPPING; FISHING
    • A01MCATCHING, TRAPPING OR SCARING OF ANIMALS; APPARATUS FOR THE DESTRUCTION OF NOXIOUS ANIMALS OR NOXIOUS PLANTS
    • A01M5/00Catching insects in fields, gardens, or forests by movable appliances
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects

Landscapes

  • Life Sciences & Earth Sciences (AREA)
  • Pest Control & Pesticides (AREA)
  • Engineering & Computer Science (AREA)
  • Insects & Arthropods (AREA)
  • Environmental Sciences (AREA)
  • Zoology (AREA)
  • Wood Science & Technology (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Forests & Forestry (AREA)
  • Ecology (AREA)
  • Biodiversity & Conservation Biology (AREA)
  • Health & Medical Sciences (AREA)
  • Toxicology (AREA)
  • General Health & Medical Sciences (AREA)
  • Catching Or Destruction (AREA)
  • Software Systems (AREA)
  • Burglar Alarm Systems (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Medical Informatics (AREA)
  • Artificial Intelligence (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Image Analysis (AREA)

Abstract

SISTEMA E MÉTODO PARA LOCALIZAR E ELIMINAR INSETOS. Trata-se de sistemas e métodos fornecidos para localizar um inseto em um espaço e para indicar a um usuário a localização do inseto e/ou para eliminar o inseto. O sistema inclui uma câmera para obter uma imagem do espaço e um processador para detectar um objeto comparando pelo menos duas imagens do espaço e determinar que o objeto é um inseto com base em uma característica do objeto em uma imagem do espaço. Em algumas modalidades, um dispositivo móvel independente pode ser controlado para eliminar o inseto no local do inseto no espaço.

Description

“SISTEMA E MÉTODO PARA LOCALIZAR E ELIMINAR INSETOS” CAMPO
[0001] A presente invenção se situa no campo do controle de pragas, especificamente, usando visão computacional para detectar, localizar e eliminar pragas, como insetos voadores.
ANTECEDENTES
[0002] Nas casas e em outros espaços urbanos, as pragas, como os insetos voadores, que dividem o ambiente com os humanos, espalham doenças, estragam os alimentos e geralmente causam incômodo. O controle dessas pragas geralmente é tentado por meio de exclusão, repulsão, remoção física ou química.
[0003] Um sistema que usa um sensor de imagem com lente de aumento é usado para detectar pragas em um ambiente tipicamente agrícola, onde o sensor de imagem é movido ou itens são movidos em vista do sensor de imagem, para permitir a vigilância de uma grande área.
[0004] Esse sistema, que requer uma câmera em movimento, não é adequado para uso interno, pois as pessoas não estão interessadas em uma câmera em movimento constante em suas residências e/ou locais de trabalho.
[0005] Outro sistema que usa um sensor de imagem rastreia insetos voadores em uma área de interesse definida por uma câmera e uma superfície retrorrefletiva afastada da câmera. A necessidade de empregar uma superfície retrorrefletiva, além de uma câmera, torna este sistema intrusivo e complicado e, portanto, menos provável de ser amplamente instalado em residências, escritórios e outros espaços urbanos.
SUMÁRIO
[0006] As modalidades da invenção fornecem um sistema e método para detectar e localizar pragas, como insetos voadores, normalmente em um ambiente interno, para permitir uma ação precisa e sem esforço contra pragas, normalmente, em um ambiente fechado.
[0007] Os sistemas de acordo com as modalidades da invenção incluem uma câmera e processador para detectar e localizar pragas a partir de imagens obtidas pela câmera. O sistema pode operar a partir de um único alojamento, que inclui a câmera, e não requer elementos adicionais separados do único alojamento, para localizar pragas. Além disso, a câmera do sistema não precisa ser fixada ou incorporada em uma plataforma móvel para capturar imagens utilizáveis. Assim, o sistema pode ser facilmente configurado e distintamente localizado em um espaço como uma sala em uma casa ou escritório ou espaço público, como um teatro, um museu, etc.
[0008] As modalidades da invenção podem distinguir um inseto do ruído e/ou de objetos que não sejam inseto.
[0009] Em uma modalidade, o sistema pode fornecer uma marca visível para os humanos, para indicar a localização do inseto na sala, para ação posterior.
[0010] As modalidades da invenção fornecem uma variedade de tipos de soluções para agir contra pragas detectadas e localizadas a partir de imagens do espaço.
BREVE DESCRIÇÃO DAS FIGURAS
[0011] A invenção será agora descrita em relação a certos exemplos e modalidades com referência às seguintes figuras de desenhos ilustrativos, de modo que possa ser mais completamente entendida. Nos desenhos:
[0012] A Figura 1A é uma ilustração esquemática de um sistema para localizar um inseto em um espaço, de acordo com uma modalidade da invenção;
[0013] A Figura 1B é uma ilustração esquemática de um método para detectar e localizar um inseto em um espaço, de acordo com uma modalidade da invenção;
[0014] As Figuras 2A e 2B são ilustrações esquemáticas de um sistema para localizar um inseto em um espaço, de acordo com outra modalidade da invenção;
[0015] A Figura 2C é uma ilustração esquemática de um método para detectar e localizar um inseto em um espaço, de acordo com outra modalidade da invenção;
[0016] A Figura 3 é uma ilustração esquemática de um sistema incluindo um projetor de uma marca visual, de acordo com uma modalidade da invenção;
[0017] As Figuras 4A e 4B são ilustrações esquemáticas de sistemas incluindo um dispositivo auxiliar para lidar com um inseto, de acordo com as modalidades da invenção;
[0018] A Figura 4C é uma ilustração esquemática de um método para controlar um dispositivo auxiliar para lidar com um inseto, de acordo com uma modalidade da invenção;
[0019] A Figura 5 é uma ilustração esquemática de um dispositivo auxiliar para lidar com um inseto, de acordo com uma modalidade da invenção;
[0020] A Figura 6 é uma ilustração esquemática de um método para detectar um inseto em imagens de um espaço, de acordo com uma modalidade da invenção;
[0021] A Figura 7 é uma ilustração esquemática de um método para determinar se um objeto em uma imagem é um inseto, de acordo com uma modalidade da invenção; e
[0022] A Figura 8 é uma ilustração esquemática de um método para determinar se um objeto em uma imagem é um inseto com base em imagens anteriores, de acordo com uma modalidade da invenção.
DESCRIÇÃO DETALHADA
[0023] As modalidades da invenção fornecem sistemas e métodos para detectar a localização de um ou mais insetos em um espaço fechado, como uma sala, e indicar a localização detectada do inseto no espaço.
[0024] Os exemplos descritos neste documento se referem principalmente a pragas de insetos, especialmente a insetos voadores, como mosquitos, no entanto, modalidades da invenção podem ser usadas para localizar outras pragas também.
[0025] Na seguinte descrição, vários aspectos da presente invenção serão descritos. Para fins de explicação, configurações e detalhes específicos são estabelecidos a fim de fornecer uma compreensão completa da presente invenção. No entanto, também será evidente para um especialista na técnica que a presente invenção pode ser praticada sem os detalhes específicos aqui apresentados. Além disso, características bem conhecidas podem ser omitidas ou simplificadas a fim de não obscurecer a presente invenção.
[0026] A menos que especificamente indicado de outra forma, como aparente a partir das discussões a seguir, é apreciado que ao longo das discussões de especificações utilizando termos como “análise”, “processamento”, “computação”, “cálculo”, “determinação”, “detecção”, “identificação”, “estimar”, “compreender” ou semelhantes, referem-se à ação e/ou processos de um computador ou sistema de computação, ou dispositivo de computação eletrônico semelhante, que manipula e/ou transforma dados representados como físicos, como eletrônicos, quantidades dentro dos registros e/ou memórias do sistema de computação em outros dados representados de forma semelhante como quantidades físicas nas memórias, registros ou outros dispositivos de armazenamento, transmissão ou exibição de informações do sistema de computação.
[0027] Em uma modalidade, que é esquematicamente ilustrada na Figura 1A, um sistema 100 para detectar e localizar um inseto inclui uma câmera 103 para obter uma imagem de um espaço, tal como, sala 104 ou parte da sala 104. O inseto 105, como um ou mais mosquitos, pode estar na sala
104.
[0028] A câmera 103, que inclui um sensor de imagem e óptica adequada, está em comunicação com um processador 102. O processador 102 recebe uma imagem da sala ou porção da sala 104, obtida pela câmera 103, e detecta a localização do inseto 105 na imagem da sala. Com base na localização do inseto 105 na imagem, o processador 102 gera um sinal para permitir a criação de um indicador de localização, que é visível a um olho humano, para indicar a localização do inseto 105 na sala 104.
[0029] O processador 102 pode determinar a localização do inseto 105 em um espaço (por exemplo, sala 104) com base em uma imagem do espaço e pode controlar um dispositivo de projeção para direcionar uma fonte de luz para criar uma indicação visível a um olho humano, nas proximidades da localização do inseto no espaço.
[0030] No exemplo ilustrado na Figura 1A, o indicador de localização é uma marca visual 115 na localização do inseto 105 na sala 104. A marca visual 115 é criada, em uma modalidade, através do projetor 108 que projeta um laser ou outro feixe para a vizinhança do inseto 105, na sala 104, formando, na vizinhança da localização do inseto na sala, uma marca visual
115.
[0031] Alguns ou todos os componentes do sistema 100 são fixados ou encerrados dentro de um compartimento 101. Assim, por exemplo, a câmera 103 e o processador 102 podem ser ambos incluídos em um único compartimento 101. Em outras modalidades, alguns dos componentes do sistema (por exemplo, processador 102) estão localizados remotamente.
[0032] O invólucro 101, que pode ser feito de materiais práticos e seguros para uso, como plástico e/ou metal, pode incluir um ou mais elementos articulados, como dobradiças, juntas rotativas ou articulações esféricas, permitindo vários movimentos do invólucro 101. Para exemplo, o alojamento 101 pode ser estacionado em um local na sala 104, mas pode permitir vários campos de visão (FOV) para a câmera 103, que está encerrada dentro do alojamento 101, girando e/ou inclinando o alojamento 101. No entanto, o alojamento 101 tipicamente fornece estabilidade para a câmera 103 de forma que ela não se mova durante a obtenção das imagens.
[0033] Em algumas modalidades, a câmera 103 é posicionada de modo que seu plano focal seja paralelo a uma superfície na sala 104. Por exemplo, uma superfície na sala pode incluir o piso ou teto da sala ou uma parede ou superfície de uma mobília na sala, etc.
[0034] Em uma modalidade, o processador 102 detecta a localização do inseto 105 na imagem em uma superfície da sala (por exemplo, em uma parede, teto, superfície de um móvel na sala, etc.) e gera um sinal para permitir a criação do visual marca 115 na localização do inseto 105 na superfície.
[0035] Em algumas modalidades, o processador 102 detecta um inseto estacionário (por exemplo, não voador) em uma imagem da sala e a marca visual 115 é formada ou direcionada para a localização do inseto estacionário.
[0036] Em algumas modalidades, o processador 102 detecta um inseto pousando, por exemplo, o processador detecta o inseto voando e então se estabelecendo. O processador 102 então detecta a localização do inseto após pousar, por exemplo, depois de se estabelecer, e a marca visual 115 é formada ou direcionada para a localização do inseto após pousar.
[0037] A câmera 103 pode incluir um sensor de imagem, por exemplo, um chip apropriado, como um chip CCD ou CMOS e pode ser uma câmera 2D ou 3D. A câmera 103 pode incluir lentes e/ou outras ópticas para permitir a obtenção de uma imagem da sala (ou parte da sala) 104.
[0038] Em algumas modalidades, a câmera 103 inclui um sensor sensível a infravermelho (IR) e/ou pode incluir lentes e/ou filtros para filtrar outros comprimentos de onda para eliminar o ruído, para permitir a obtenção de imagens da sala 104 em condições de iluminação especiais. Por exemplo, o sistema 100 pode incluir uma fonte de iluminação IR 106. A fonte de iluminação IR 106 pode incluir um LED ou outra fonte de iluminação emitindo em uma faixa de cerca de 750 a 950nm. Em um exemplo, a fonte de iluminação 106 ilumina em cerca de 850 nm. A fonte de iluminação IR 106 pode permitir o uso do sistema 100, mesmo em um quarto escuro, fornecendo iluminação que não é visível e/ou irritante para o olho humano, mas que permite à câmera 103 obter imagens significativas de um quarto escuro.
[0039] O processador 102 pode incluir, por exemplo, um ou mais processadores e pode ser uma unidade de processamento central (CPU), um processador de sinal digital (DSP), um microprocessador, um controlador, um chip, um microchip, um circuito integrado (IC), ou qualquer outro processador ou controlador específico ou multiuso adequado.
[0040] Em algumas modalidades, o sistema 100 pode incluir um dispositivo de aviso, por exemplo, um dispositivo de emissão de som e/ou uma fonte de luz, como um LED dedicado, e o processador 102 pode gerar um sinal de aviso, de modo a causar um som ou luz a ser emitida, com base na detecção da localização do inseto.
[0041] Em algumas modalidades, o processador 102 está em comunicação com uma ou mais unidades de memória 112. As unidades de memória 112 podem incluir, por exemplo, uma memória de acesso aleatório (RAM), uma RAM dinâmica (DRAM), uma memória flash, uma memória volátil, uma memória não volátil, uma memória cache, um buffer, uma unidade de memória de curto prazo, uma unidade de memória de longo prazo ou outras unidades de memória ou unidades de armazenamento adequadas.
[0042] Os componentes do sistema 100 podem ser conectados uns aos outros sem fio, por exemplo, por meio de hubs de rede adequados ou via cabeamento apropriado ou portas adequadas, como USB.
[0043] De acordo com algumas modalidades, pelo menos algumas das imagens obtidas pela câmera 103 são armazenadas na memória 112. A memória 112 pode ainda armazenar instruções executáveis que, quando executadas pelo processador 102, facilitam os métodos aqui descritos.
[0044] Um exemplo de um método, algumas etapas do qual são realizadas pelo processador 102, é esquematicamente ilustrado na Figura 1B. O método, para detectar e localizar um inseto em um espaço fechado, inclui as etapas de obtenção de uma imagem do espaço (1001), por exemplo, sala 104, e detecção de uma localização de um inseto na imagem (1003). A localização do inseto na imagem é traduzida para coordenadas do mundo real (1005) e um indicador de localização é criado para indicar as coordenadas do mundo real (1007).
[0045] Em algumas modalidades, uma vez que a localização de um inseto é detectada, um sinal é gerado para notificar um usuário. O sinal pode ser enviado (por exemplo, via Bluetooth, rádio, etc.) para o dispositivo móvel de um usuário (como o telefone móvel do usuário ou para um dispositivo dedicado).
[0046] Em uma modalidade, o método inclui a detecção de um inseto estacionário (por exemplo, um inseto que não voa e/ou não muda de localização no espaço) na imagem do espaço e a detecção da localização do inseto estacionário. Um indicador de localização é criado para indicar as coordenadas do mundo real do inseto estacionário.
[0047] Em outra modalidade, o método inclui detectar um inseto pousando em imagens do espaço e detectar a localização do inseto após pousar. Um indicador de localização é criado para indicar as coordenadas do mundo real do inseto após o desembarque.
[0048] Em uma modalidade, o método inclui projetar o indicador de localização (por exemplo, um feixe de luz visível ao olho humano, como um feixe de laser de luz visível) para a localização das coordenadas do mundo real no espaço (1009) de modo que uma marca visível seja criada no local no espaço. Por exemplo, se um inseto (por exemplo, um inseto estacionário e/ou um inseto após pousar) é detectado em um local em uma superfície no espaço, o feixe de luz é direcionado para o local na superfície de modo que um círculo (ou outra forma) de luz na superfície marca a localização do inseto.
[0049] A localização do inseto na imagem pode ser traduzida para coordenadas do mundo real (etapa 1005) usando geometria projetiva, por exemplo, se o plano focal da câmera que obtém a imagem for paralelo a uma superfície no espaço em que o inseto está localizado.
[0050] Em outra modalidade, um sistema, que inclui um imageador (por exemplo, câmera 103) e projetor (por exemplo, projetor 108) pode ser pré-calibrado. Por exemplo, o projetor pode ser posicionado próximo à câmera (por exemplo, ver distância D descrita com referência à Figura 3 abaixo). Durante a calibração, um raio visível para a câmera pode ser projetado do projetor para vários locais dentro do espaço e pode ser visualizado pela câmera nesses locais. Dessa forma, usando interpolação, cada local na imagem (por exemplo, cada pixel ou grupo de pixels) pode ser correlacionado em tempo real a uma coordenada x, y no espaço de modo que o projetor possa ser direcionado para locais no espaço com base nos locais detectados na imagem. Alternativamente ou além disso, o uso de um raio visível para a câmera pode permitir a correção da direção do projetor em tempo real com base na indicação visível.
[0051] Em uma modalidade, o projetor inclui um ou mais rotores para permitir a projeção de um indicador de localização em diferentes ângulos. Nesse caso, cada local na imagem pode ser correlacionado a coordenadas a, b do rotor, com base na pré-calibração.
[0052] Em um exemplo, os rotores podem incluir um motor de etapa, de modo que a mudança no ângulo seja conhecida para cada etapa. Uma ou mais paradas físicas podem ser utilizadas de forma que os ângulos do rotor, nos limites de seu movimento, sejam conhecidos. Para lentes de câmeras conhecidas, cada pixel pode ser correlacionado a um ângulo conhecido. Assim, o número de etapas necessárias para direcionar o rotor em cada ângulo pode ser calculado. Como o projetor normalmente não está localizado no mesmo local da câmera, os cálculos podem exigir ajustes à distância entre o projetor e a câmera.
[0053] Outros métodos podem ser usados para traduzir a localização do inseto na imagem para a localização do mundo real.
[0054] Em outra modalidade, que é esquematicamente ilustrada na Figura 2A, o sistema 200 detecta um inseto, por exemplo, conforme descrito neste documento, e cria um indicador de localização, que é visível em uma imagem da sala. Nessa modalidade, o processador 202 localiza um inseto 205 em uma imagem 223 da sala e gera um sinal para criar um indicador de localização 225 na imagem 223 no local do inseto. Em um exemplo, a imagem 223 da sala é exibida junto com o indicador de localização 225, que pode ser um ícone ou outra indicação gráfica sobreposta na imagem 223.
[0055] Um exemplo de uma imagem 223 de uma sala é mostrado na Figura 2B. A imagem 223, que inclui parte de uma divisão, mostra uma superfície, nomeadamente o teto 226 da divisão, onde se encontra um inseto. Um indicador de localização 225 é sobreposto na imagem 223 para indicar para um usuário visualizando a imagem 223, a localização do inseto no teto
226.
[0056] Em uma modalidade, as imagens obtidas pela câmera 203 podem ser armazenadas localmente (por exemplo, na unidade de memória 212) e/ou remotamente (por exemplo, as imagens podem ser transmitidas pela internet ou usando outra comunicação sem fio adequada, para armazenamento remoto, por exemplo, na nuvem). As imagens podem então ser recuperadas e exibidas em um dispositivo 209, como um dispositivo pessoal e/ou móvel (por exemplo, smartphone, tablet, etc.) ou em um dispositivo dedicado, normalmente móvel.
[0057] Em uma modalidade, a imagem 223 da sala é uma imagem da sala em tempo real e o indicador de localização 225 é sobreposto na mesma imagem em que a localização do inseto 205 é detectada.
[0058] Em algumas modalidades, a imagem 223 da sala é manipulada de modo que certos detalhes (como informações pessoais, privadas e/ou confidenciais) sejam obscurecidos ou removidos da imagem. Assim, uma imagem em tempo real (a mesma imagem em que o inseto 205 é detectado) pode ser exibida sem comprometer a privacidade e/ou confidencialidade. A imagem 223 pode ser manipulada para proteger a privacidade e/ou confidencialidade pelo processador 202 ou por um processador diferente (por exemplo, um processador no dispositivo 209).
[0059] Em outra modalidade, um conjunto de imagens da sala é obtido pela câmera 203. A câmera 203 não é movida ou reposicionada ao obter o conjunto de imagens de modo que todas as imagens capturem o mesmo campo de visão. Uma primeira imagem pode ser uma imagem da sala 204 apenas, sem ocupantes, enquanto uma segunda imagem da sala 204 pode ser uma imagem em tempo real da sala (possivelmente com ocupantes) em que um inseto 205 é detectado. Em algumas modalidades, a fim de proteger a privacidade dos ocupantes, apenas a primeira imagem é transmitida ao dispositivo 209 para ser exibida e a localização do inseto 205 na segunda imagem, é indicada e exibida na primeira imagem, que é a imagem sendo exibida para o usuário.
[0060] Em algumas modalidades, a primeira imagem (que normalmente não inclui informações pessoais) pode ser uma imagem escolhida por um usuário a partir de um conjunto de imagens da sala. Em outras modalidades, a primeira imagem pode ser uma imagem modificada ou manipulada da sala em que as informações pessoais são obscurecidas pela modificação das informações pessoais na imagem.
[0061] Em algumas modalidades, a primeira imagem pode ser uma imagem representativa, o que permite que um usuário entenda o layout do espaço sendo visualizado, mas não é necessariamente uma imagem real do espaço. Por exemplo, uma imagem representativa pode ser criada a partir de uma combinação de várias imagens do espaço, tipicamente obtidas pela câmera 203. Por exemplo, a imagem representativa pode ser uma média de várias imagens de um conjunto de imagens do espaço. Em outro exemplo, uma imagem representativa pode incluir uma representação gráfica do espaço, mas não os componentes realmente imageados do espaço. Além de ser útil na proteção de informações pessoais, usar uma imagem média (ou outra imagem representativa) como primeira imagem, pode ser útil caso a câmera (por exemplo, a câmera 203) seja reposicionada entre as imagens, de modo que as imagens não sejam todas exatamente do mesmo campo de visão.
[0062] Em uma modalidade, um método para detectar e localizar um inseto, realizado pelo processador 202, inclui a marcação visual de uma localização de um inseto no espaço em uma imagem do espaço. Um método exemplificador, que é esquematicamente ilustrado na Figura 2C, inclui a obtenção de uma primeira imagem de um espaço (2001) e o armazenamento da primeira imagem (2003). Normalmente, a primeira imagem inclui o espaço vazio de ocupantes e/ou no qual as informações pessoais são obscurecidas.
[0063] Uma segunda imagem do espaço é obtida (2005). A segunda imagem tem aproximadamente o mesmo campo de visão da primeira imagem, mas é obtida mais tarde do que a primeira imagem. A segunda imagem inclui um inseto no espaço. A localização do inseto na segunda imagem é determinada (2007) e um indicador de localização (por exemplo, uma marca gráfica) é criado para marcar essa localização em uma imagem do espaço (2009).
[0064] Em uma modalidade, o indicador de localização marca a localização na mesma imagem em que o inseto foi detectado. Em outras modalidades, o indicador de localização marca a localização em uma imagem diferente da sala. A imagem diferente da sala pode ser uma imagem capturada em um momento anterior, por exemplo, a primeira imagem da sala.
[0065] Em algumas modalidades, o método inclui aceitar a entrada de um usuário e determinar qual imagem usar como uma primeira imagem (ou seja, qual imagem exibir junto com o indicador de localização) com base na entrada do usuário. Assim, um usuário pode escolher uma imagem para enviar para armazenamento e/ou exibição, que não inclui informações que o usuário considera pessoais ou privadas.
[0066] Em outras modalidades ou modalidades adicionais, o método inclui uma etapa de criação de uma imagem representativa do espaço (por exemplo, uma imagem média) e usando a imagem representativa como a primeira imagem.
[0067] Em algumas modalidades, a primeira imagem é recuperada do armazenamento e exibida para um usuário, por exemplo, no dispositivo móvel pessoal do usuário ou em um dispositivo dedicado, com o indicador de localização sobreposto a ele, no mesmo local que na segunda imagem (2011).
[0068] Assim, por exemplo, uma grade pode ser usada em todas as imagens do espaço que são do mesmo campo de visão (ou quase o mesmo campo de visão), de modo que uma localização do inseto em uma imagem possa ser dada coordenadas x, y da grade, que são as mesmas coordenadas x, y em todas as outras imagens do mesmo campo de visão.
[0069] Conforme discutido acima, e conforme exemplificado na Figura 3, um projetor 308 pode ser controlado pelo processador 302 para projetar ou direcionar um indicador de localização para a localização do inseto no espaço do mundo real, por exemplo, sala 104.
[0070] Em uma modalidade, um projetor 308 e uma câmera 303 estão dispostos em estreita proximidade dentro do alojamento 301. O projetor 308 inclui uma fonte de indicador, por exemplo, uma fonte de luz, como laser 316 e um dispositivo de direcionamento de indicador 312, como um sistema óptico, incluindo lentes e/ou espelhos ou outros componentes ópticos para direcionar a luz da fonte de luz em uma direção ou ângulo desejado. Em uma modalidade, o dispositivo de direcionamento indicador 312 inclui elementos ópticos rotativos, como um gimbal de suporte de espelho disposto para girar em torno de um único eixo. Um conjunto de dois ou três desses gimbais, um montado no outro com eixos geométricos de pivô ortogonais, pode ser usado para permitir que a luz do laser 316 seja direcionada em qualquer inclinação, rotação e guinada desejadas.
[0071] Com base na localização detectada do inseto 305 em uma imagem obtida pela câmera 303, o processador 302 controla o dispositivo de direcionamento do indicador 312 de modo que o indicador, por exemplo, laser 316, seja direcionado para a localização do mundo real do inseto. Por exemplo, o controle da guinada e inclinação dos gimbal do dispositivo de direcionamento do indicador 312 permite direcionar um indicador, como o laser 316, para um local do mundo real.
[0072] Normalmente, a câmera 303 está localizada a uma distância mínima D do projetor 308 (ou de componentes do projetor, como o laser e/ou dispositivo de direcionamento do indicador) para permitir o objetivo preciso do indicador. Em um exemplo, a câmera 303 e o laser 316 ou dispositivo de direcionamento do indicador 312 estão localizados a menos de 20 cm um do outro. Em outro exemplo, a câmera 303 e o laser 316 ou dispositivo de direcionamento do indicador 312 estão localizados a menos de 10 cm um do outro.
[0073] O laser 316 pode incluir luz visível de modo que a marca criada pelo laser no local detectado do inseto seja visível e possa ser visualizada pela câmera 303 e exibida a um usuário, por exemplo, no dispositivo 209. Assim, em uma modalidade, um usuário pode receber a imagem de uma sala com indicação visual da localização do inseto criada pelo laser 316, na imagem da sala.
[0074] Em uma modalidade, o projetor 308 está configurado para eliminar ou incapacitar o inseto 305. Por exemplo, o laser 316 pode ser um UV ou IR ou outra luz com potência alta o suficiente de modo que quando direcionado a um inseto 305 em uma superfície na sala ou em um inseto estacionário ou em um inseto após pousar, ele pode desativar e/ou matar o inseto 305.
[0075] Em algumas modalidades, o projetor 308, que inclui uma fonte de indicador, por exemplo, uma fonte de luz, como laser 316 e um dispositivo de direcionamento de indicador 312 controlado por um processador, pode ser usado em outros campos além do controle de pragas. Por exemplo, o projetor 308 pode ser usado para produzir efeitos visuais, como animação. Por exemplo, o projetor 308 pode ser parte de um brinquedo. Em algumas modalidades, o processador que controla o dispositivo de direcionamento recebe entrada de um sensor de imagem e/ou com base no processamento de imagem e pode ser usado em jogos de realidade virtual ou outros aplicativos.
[0076] Em outra modalidade, o projetor 308 pode ser usado como um dispositivo de direcionamento, por exemplo, para direcionar os usuários a um ponto específico em um espaço fechado ou outro. Alguns exemplos incluem:
[0077] - direcionar as forças de segurança para um local identificado por câmeras de segurança;
[0078] - direcionar um usuário para um local desejado em grandes espaços, como arquivos, lojas ou depósitos;
[0079] - direcionar o pessoal de construção ou manutenção para um local específico onde um problema seja detectado (possivelmente, o problema é detectado por meio de processamento de imagem); e
[0080] - operar uma máquina de corte a laser baseada no processamento de imagem.
[0081] Algumas modalidades da invenção fornecem dispositivos para lidar com insetos, como eliminar ou incapacitar os insetos. Tal dispositivo também pode incluir um aparelho, como uma câmera adicional e/ou fonte de iluminação, para auxiliar na confirmação do inseto, por exemplo, confirmando a existência e/ou tipo de inseto em uma imagem. Os dispositivos, que são normalmente móveis, são controlados para se aproximar de um local de um inseto em um espaço, como um espaço fechado, para lidar com o inseto de perto, limitando assim os efeitos que podem ser perigosos para o espaço circundante.
[0082] Alguns exemplos de dispositivos para manipulação de insetos, que são descritos abaixo, são dispositivos controlados por sistemas para localização de insetos de acordo com modalidades da invenção, no entanto, em algumas modalidades, os dispositivos para manipulação de insetos podem ser controlados por outros sistemas.
[0083] Os sistemas descritos acima podem incluir, em algumas modalidades, um dispositivo auxiliar a ser usado, juntamente com os sistemas descritos neste documento, para eliminar e/ou manipular insetos detectados nas imagens, de acordo com as modalidades da invenção.
[0084] Em modalidades exemplificadores, que são ilustradas esquematicamente nas Figuras 4A e 4B, um sistema para detectar a localização de um inseto em uma sala inclui um alojamento 401 que envolve uma câmera 403 usada para obter uma imagem de um espaço (como um quarto em uma casa, espaço de escritório e outras áreas internas públicas ou privadas espaços). A câmera 403 está em comunicação com um processador 402 e memória 412, por exemplo, como descrito acima. O sistema inclui ainda um dispositivo auxiliar em comunicação com o processador 402.
[0085] Na Figura 4A, o dispositivo auxiliar é um dispositivo móvel independente 415, que pode ser usado para eliminar um inseto ou para outros fins, como remover, capturar ou analisar o inseto, conforme descrito na Figura
5.
[0086] O sistema descrito na Figura 4A também pode incluir uma porta 413, tipicamente no alojamento 401, tal como uma estação de acoplamento ou outro terminal para alimentar e/ou carregar o dispositivo móvel independente 415.
[0087] Em uma modalidade, o dispositivo móvel independente 415 é um dispositivo voador, como um drone.
[0088] O dispositivo móvel independente 415 pode ser controlado remotamente pelo processador 402. Por exemplo, o dispositivo móvel independente 415 pode estar em comunicação sem fio (por exemplo, via Bluetooth, rádio, etc.) com o processador 402.
[0089] O sistema ilustrado esquematicamente na Figura 4A inclui uma câmera 403 para obter imagens de um espaço e um dispositivo móvel 415 que é separadamente móvel da câmera 403. O processador 402 pode detectar um inseto em pelo menos uma das imagens do espaço obtido pela câmera 403 e pode controlar o dispositivo 415 para se mover para a vizinhança do inseto, com base na análise das imagens do espaço.
[0090] Em uma modalidade, o processador 402 controla o dispositivo móvel 415 para se mover para a vizinhança do inseto, com base na análise de uma imagem do espaço com o inseto e o dispositivo móvel 415 dentro de um único quadro. O processador 402 pode controlar o dispositivo móvel 415 para se mover em um caminho direto da câmera 403 na direção do inseto, em que a direção para o inseto pode ser estimada a partir da localização da imagem do inseto dentro do quadro. Uma vez que o inseto e o dispositivo móvel 415 estão dentro do mesmo quadro, o processador 402 controla ainda o movimento do dispositivo móvel 415, de modo que ele fique na vizinhança do inseto na imagem, enquanto o guia para longe da câmera e em direção ao inseto. Por exemplo, o processador 402 pode determinar periodicamente a distância angular do dispositivo móvel 415 do inseto na estrutura, que pode ser estimada usando a distância, em pixels, entre os dois objetos na estrutura. Se a distância angular determinada estiver acima de um valor predeterminado, o processador 402 pode calcular a distância e a direção necessárias para mover o dispositivo móvel 415 a fim de trazê-lo para dentro da distância angular predeterminada do inseto e pode fazer com que o dispositivo móvel 415 se mova a distância calculada na direção calculada.
[0091] Esse processo pode ser repetido até que o dispositivo móvel 415 esteja dentro de uma distância predeterminada, por exemplo, uma distância de eliminação, do inseto. Por exemplo, uma distância de eliminação pode ser uma distância a partir da qual o dispositivo pode lidar efetivamente com o inseto, por exemplo, a distância a partir da qual um inseticida pode ser pulverizado com eficácia sobre o inseto. Uma vez que a distância predeterminada (por exemplo, distância de eliminação) é alcançada, o dispositivo 415 e/ou membro 426 (descrito abaixo) pode ser controlado para eliminar o inseto, por exemplo, usando métodos químicos, mecânicos ou elétricos.
[0092] Assim, o processador 402 estima uma direção do inseto da câmera 403 e controla o dispositivo para se mover aproximadamente nessa direção.
[0093] Em uma modalidade, determinar se uma distância de eliminação foi alcançada pode ser feito utilizando uma câmera adicional no dispositivo móvel 415 para obter uma imagem do inseto. A imagem do inseto pode ser analisada (por exemplo, comparando seu tamanho na imagem com um tamanho esperado desse tipo de inseto a partir da distância desejada). Em outra modalidade, um processador (por exemplo, processador 402 ou outro processador, que pode estar conectado ao dispositivo móvel 415) pode estar em comunicação com um telêmetro ou sistema semelhante (que pode ser anexado ao dispositivo móvel 415 ou em outro local dentro do sistema) para determinar, com base na entrada do telêmetro, se uma distância de eliminação foi atingida. Em outra modalidade, determinar se uma distância de eliminação foi alcançada pode ser feito pelo dispositivo móvel 415 emitindo luz em uma direção conhecida (por exemplo, usando um apontador laser ou outro projetor) para obter um ponto de luz e analisar a localização do ponto de luz em uma imagem da câmera 403 (por exemplo, um ponto em uma parede ou teto criado pelo apontador laser). A localização do dispositivo móvel 415 em relação à câmera 403 é conhecida (conforme descrito neste documento). Portanto, o ângulo do dispositivo móvel 415 para a localização do ponto de luz é conhecido. O ângulo da câmera 403 para a localização do ponto de luz pode ser calculado detectando o pixel (ou grupo de pixels) do ponto na imagem. A distância até o ponto de luz pode ser triangulada, a partir da qual a distância do dispositivo móvel 415 ao inseto pode ser estimada, uma vez que o inseto muitas vezes está na mesma superfície que o ponto de luz.
[0094] Em algumas modalidades, o dispositivo móvel 415 pode incluir um projetor para projetar um feixe de uma forma de energia para a vizinhança do inseto, para criar o ponto de luz e/ou para lidar com o inseto. Além disso, o dispositivo móvel 415 pode incluir uma câmera adicional (por exemplo, câmera 503 na Figura 5). A direção e/ou distância do dispositivo móvel 415 de um inseto pode ser calculada (por exemplo, como descrito acima) usando o projetor e/ou câmera adicional do dispositivo móvel 415.
[0095] Uma vez dentro da distância predeterminada, o dispositivo móvel 415 pode usar um membro, possivelmente extensível do dispositivo à vizinhança do inseto, por exemplo, para lidar com o inseto, como descrito abaixo.
[0096] Na Figura 4B, o dispositivo auxiliar é fixado ao alojamento 401 no ponto de fixação 411 e pode estar em comunicação com uma fonte de energia e/ou reservatório dentro do alojamento 401, através do ponto de fixação 411. O dispositivo auxiliar pode incluir uma ferramenta de manuseio, tal como um membro móvel e tipicamente extensível 426, como um braço telescópico. O membro 426 pode ser controlado pelo processador 402 para se estender a partir do alojamento 401 e se mover para o local do inseto para lidar com o inseto no local, por exemplo, para capturar ou matar o inseto, conforme descrito abaixo.
[0097] Em algumas modalidades, o membro 426 é um braço telescópico e/ou deformável ou mola feita de, por exemplo, material com memória de forma que geralmente está em uma forma dobrada ou enrolada e pode ser estendido e movido para interagir com o inseto no local do inseto, mediante um sinal do processador 402.
[0098] O manuseio do inseto pode incluir o uso de métodos mecânicos e/ou químicos. Em alguns casos, meios ou métodos mecânicos e químicos são usados para lidar com o inseto.
[0099] Em algumas modalidades, o membro 426 serve como um conduto para instrumentos ou agentes usados para lidar com o inseto. Por exemplo, o membro 426 pode incluir ou pode estar em comunicação com uma câmara contendo uma substância química (por exemplo, na forma de gás, líquido ou pó) que pode ser pulverizada ou deixada cair sobre o inseto de uma faixa relativamente próxima, limitando assim o efeito da substância química no próprio inseto e não afetando o espaço circundante. Em um exemplo, a câmara pode conter um pesticida. Em outro exemplo, a câmara pode incluir um repelente, como óleo de citronela, que é um repelente de inseto à base de plantas.
[0100] Em algumas modalidades, o alojamento 401 inclui um reservatório da substância química. Em outras modalidades, o alojamento 401 armazena cápsulas (ou outros recipientes) da substância química, que pode ser carregada no membro 426.
[0101] Em uma modalidade, o membro 426 pode incluir um bico ligado à extremidade distal 427 do membro 426. O membro 426, carregando um bico, pode ser direcionado para a localização do inseto e um pulso ou spray de uma substância química (por exemplo, como descrito acima) pode ser direcionado ao inseto de perto através do bico.
[0102] Em uma modalidade, o membro 426 pode incluir ou pode estar em comunicação com uma câmara de sucção para atrair e capturar (e/ou matar) o inseto.
[0103] Em outra modalidade, o membro 426 pode incluir um elemento eletrificante pelo qual eletrocutar o inseto. Em outra modalidade, o membro 426 pode incluir um elemento adesivo pelo qual captura (e/ou mata) o inseto.
[0104] Outras soluções elétricas e/ou mecânicas e/ou químicas podem ser empregadas por meio do membro 426.
[0105] O membro 426 não tem características humanas ou de predador e, portanto, normalmente não é identificado por insetos (como mosquitos) como humanos ou predadores e pode, portanto, se aproximar do inseto e ficar perto do inseto sem assustá-lo.
[0106] Em algumas modalidades, um dispositivo auxiliar pode incluir, por exemplo, um projetor (por exemplo, além do projetor 108) para projetar um feixe de qualquer forma de energia prejudicial ou letal ao inseto para a localização do inseto. Em algumas modalidades, um único projetor (por exemplo, projetor 108) pode ser usado para indicar a localização de um inseto e para projetar um feixe para manipular (por exemplo, incapacitar) o inseto. Assim, um projetor pode ser controlado por um sinal gerado a partir do processador 102 para projetar um feixe de uma forma de energia, como luz, calor e semelhantes, para a localização do inseto, para lidar com o inseto.
[0107] Em algumas modalidades, redes neurais, como redes neurais convolucionais ou outro software de visão por computador e algoritmos são usados para detectar e identificar detalhes do inseto a partir de uma imagem ou uma pluralidade de imagens do local. Por exemplo, algoritmos de detecção de forma e/ou movimento e/ou cor podem ser usados para determinar a forma e/ou cor e/ou padrão de movimento e/ou outros detalhes do inseto. O padrão de movimento pode incluir, por exemplo, direção do movimento, tamanho do movimento, velocidade do movimento, etc. Esses detalhes do inseto podem ser usados para determinar um tipo de inseto sendo fotografado e/ou diferenciar entre diferentes insetos e/ou entre um objeto inseto e não inseto, como partículas de poeira ou outro ruído que pode ser gerado.
[0108] Em algumas modalidades, o processador 102 controla o dispositivo auxiliar com base na determinação do tipo de inseto. Por exemplo, um projetor pode ser controlado para lidar com o inseto apenas se for um tipo específico de inseto.
[0109] Em outras modalidades, um dispositivo auxiliar pode incluir, por exemplo, uma ferramenta para melhorar a imagem da sala no local do inseto. Por exemplo, o sistema (por exemplo, 100) pode incluir uma câmera (por exemplo, além da câmera 103) com óptica para permitir realçar a localização do inseto, por exemplo, para confirmar a existência e/ou tipo de inseto no local, com base em uma imagem ampliada do local.
[0110] Em uma modalidade, uma lente de foco longo (por exemplo, lente telefoto) pode ser usada para aumentar o zoom na localização do inseto para permitir ver a forma ou outros detalhes do inseto com melhores detalhes e foco.
[0111] Em uma modalidade, uma vez que a câmera 103 detecta a localização de um inseto suspeito, a câmera adicional pode ser direcionada e/ou movida para a localização do inseto suspeito, por exemplo, para confirmar a existência e/ou tipo de inseto. Em uma modalidade, uma câmera com uma lente de foco longo (ou outra óptica de ampliação) pode ser fixada ou localizada no dispositivo de direcionamento do indicador 312, por exemplo, em um gimbal, de modo que a óptica de ampliação possa ser movida em paralelo ao dispositivo de direcionamento do indicador, direcionando automaticamente a ótica para a localização de um inseto suspeito.
[0112] Em uma modalidade, a análise diferencial pode ser usada para confirmar um inseto suspeito e/ou para detectar um inseto. Por exemplo, uma área pode ser escaneada em baixa resolução para detectar um inseto suspeito, e a área do inseto suspeito pode então ser analisada em alta resolução, por exemplo, para confirmar a existência e/ou tipo de inseto. O uso de análise diferencial de imagens permite reduzir o processamento, proporcionando assim uma solução econômica.
[0113] Assim, em uma modalidade, a câmera 103 pode obter uma imagem FOV ampla da sala e um dispositivo auxiliar, como uma câmera adicional que permite o zoom, obtém uma imagem detalhada de uma parte da sala. O processador 102 pode detectar a localização de um inseto suspeito na imagem FOV ampla da sala, direcionar a câmera adicional para a localização do inseto suspeito (por exemplo, controlando o movimento dos gimbais) e confirmar o inseto (por exemplo, confirmar a existência e/ou tipo de inseto) na imagem detalhada da parte da sala (a localização do inseto suspeito).
[0114] Em uma modalidade, um sistema para lidar com um inseto, como o sistema 100, pode incluir uma fonte de iluminação auxiliar para permitir a imagem de maior resolução de uma localização de um inseto suspeito e para auxiliar na confirmação do inseto. Opcionalmente, uma fonte de iluminação, que também pode ser anexada ao gimbal de modo que seja movida em paralelo ao dispositivo de direcionamento do indicador, pode ser usada, por exemplo, para obter uma imagem mais brilhante. A fonte de iluminação pode ter um comprimento de onda relativamente curto (por exemplo, luz azul) de modo a reduzir o limite de difração e permitir imagens de maior resolução do inseto suspeito. Em algumas modalidades, a fonte de iluminação e o indicador de localização são o mesmo elemento.
[0115] Uma vez que um inseto suspeito é confirmado, o processador 102 pode controlar o projetor 108 para indicar a localização do inseto confirmado e possivelmente controlar outro dispositivo auxiliar para eliminar ou de outra forma controlar o inseto confirmado.
[0116] O uso de um dispositivo auxiliar, como uma câmera adicional e/ou fonte de iluminação adicional, permite a obtenção de uma imagem aprimorada via óptica e/ou iluminação e depender menos de algoritmos de visão computacional que consomem energia. Assim, uma CPU menos poderosa pode ser usada com a câmera 103, fornecendo assim uma solução econômica.
[0117] Em algumas modalidades, uma única câmera (por exemplo, câmera 103) pode ser usada para fornecer imagens a partir das quais detectar a localização de um inseto ou inseto suspeito e para ampliar ou de outra forma melhorar a imagem no local detectado. Por exemplo, um elemento óptico pode ser empregado para a imagem de uma grande área (por exemplo, uma sala) e outro elemento óptico pode ser empregado para a imagem de uma pequena área dentro da grande área (por exemplo, o local detectado dentro da sala). Alternativamente ou além disso, a análise diferencial pode ser usada para realçar localmente regiões dentro de uma imagem de uma grande área, por exemplo, para auxiliar na identificação de um inseto. A ferramenta para melhorar a imagem da sala no local do inseto pode ser controlada pelo processador 102.
[0118] Em uma modalidade, que é esquematicamente ilustrada na Figura 4C, um método, algumas etapas do qual podem ser realizadas pelo processador 402, para eliminar, incapacitar ou manipular um inseto, inclui a obtenção de uma imagem de um espaço (4001) e a detecção uma localização de um inseto na imagem (4003). A localização do inseto na imagem é traduzida para as coordenadas do mundo real (4005). O processador 402 (ou outro processador), então, controla um dispositivo auxiliar (como um dispositivo móvel independente 415 ou membro 426) com base nas coordenadas do mundo real. Por exemplo, o dispositivo auxiliar pode ser direcionado para as coordenadas do mundo real (4007).
[0119] Em algumas modalidades, um dispositivo auxiliar só é empregado para eliminar ou de outra forma manipular um inseto se for determinado que não há outros objetos suscetíveis que podem ser feridos pela ação do dispositivo auxiliar. Objetos suscetíveis podem incluir, por exemplo, seres vivos (por exemplo, humanos, animais de estimação, etc.) e/ou outros objetos ou materiais, como papel ou tecido ou objetos incluindo tais materiais que podem ser danificados pela ação do dispositivo auxiliar.
[0120] Assim, um método para eliminar um inseto pode incluir uma etapa para determinar se há um ser vivo (ou objeto ou material que pode ser prejudicado pela ação do dispositivo auxiliar) nas proximidades da localização do inseto e direcionar o auxiliar dispositivo nas coordenadas do mundo real detectadas na etapa (4005) apenas se nenhum ser vivo (ou objeto ou material) for detectado nas proximidades do inseto. A existência de um ser vivo nas proximidades da localização do inseto pode ser determinada, por exemplo, determinando o movimento no espaço. O movimento acima de um tamanho predeterminado pode indicar uma pessoa ou outro ser vivo no espaço. Em uma modalidade, o movimento ou o tamanho do movimento é determinado pela detecção de mudanças ao longo do tempo nas imagens do espaço.
[0121] Em outras modalidades, a existência de uma pessoa ou outro ser vivo (ou objeto ou material específico) no espaço pode ser determinada usando técnicas de visão de computador, por exemplo, para detectar a partir da imagem (por exemplo, uma imagem obtida pela câmera 103 ou uma câmera) uma forma, cor ou outro atributo de uma pessoa ou objeto ou material.
[0122] Assim, em algumas modalidades, um sistema para eliminar um inseto em uma sala inclui uma câmera para obter uma imagem da sala e um processador para detectar a localização do inseto na imagem da sala. Por exemplo, o processador detecta, a partir da imagem da sala, um inseto após pousar e/ou um inseto na superfície de um espaço. O processador pode então traduzir a localização do inseto (por exemplo, o inseto depois de pousar) na imagem para coordenadas do mundo real e controlar um dispositivo auxiliar baseado nas coordenadas do mundo real para eliminar ou manipular o inseto.
[0123] Alternativamente ou além disso, o processador pode determinar se há uma pessoa (ou outro ser vivo) ou objeto ou material suscetível específico, nas proximidades do inseto e pode controlar o dispositivo auxiliar para eliminar ou de outra forma manipular o inseto com base na determinação.
[0124] Alternativamente ou além disso, o processador pode confirmar a existência e/ou tipo de inseto no local e pode controlar o dispositivo auxiliar para eliminar ou de outra forma manipular o inseto com base na confirmação da existência e/ou tipo de inseto no local. Em um exemplo, o processador pode controlar a câmera ou uma câmera adicional para obter uma imagem ampliada ou mais detalhada do inseto para confirmar a existência e/ou tipo do inseto no local.
[0125] O controle do dispositivo auxiliar, que pode ser via comunicação sem fio, pode ser, por exemplo, o controle de um mecanismo de propulsão do dispositivo auxiliar e/ou controle de uma ferramenta de manuseio do dispositivo auxiliar.
[0126] Um exemplo de um dispositivo auxiliar, que é independentemente móvel, é esquematicamente ilustrado na Figura 5.
[0127] Em uma modalidade, o dispositivo 515 é um dispositivo voador (por exemplo, drone) que inclui um mecanismo de propulsão 525 para mover o dispositivo sem ajuda e uma ferramenta de manipulação de inseto 526 ou, alternativamente ou além disso, incluindo um ponto de fixação configurado para receber e proteger de forma liberável uma ferramenta de manuseio para o dispositivo 515.
[0128] A ferramenta de manuseio 526 pode aplicar métodos mecânicos e/ou químicos e/ou elétricos pelos quais lidar com um inseto. Em algumas modalidades, a ferramenta de manuseio 526 aplica meios ou métodos mecânicos e químicos para manusear o inseto.
[0129] Em uma modalidade, a ferramenta de manuseio 526 pode incluir uma câmara de sucção para atrair e capturar (e/ou matar) o inseto. Em outra modalidade, a ferramenta de manuseio 526 pode incluir um elemento eletrizante pelo qual eletrocuta o inseto. Em outra modalidade, a ferramenta de manuseio 526 pode incluir um elemento adesivo para capturar (e/ou matar) o inseto. Outras soluções elétricas e/ou mecânicas podem ser empregadas pela ferramenta de manuseio 526.
[0130] Em uma modalidade, a ferramenta de manuseio 526 pode incluir, por exemplo, um braço telescópico ou braço deformável ou mola feita de, por exemplo, material com memória de forma que pode estar em uma forma dobrada ou enrolada, enquanto o dispositivo 515 está em trânsito e pode ser estendido para interagir com o inseto mediante um sinal do processador
402.
[0131] Em outra modalidade, a ferramenta de manuseio 526 pode incluir uma câmara contendo uma substância química (por exemplo, como descrito acima) que pode ser pulverizada ou deixada cair sobre o inseto de uma faixa relativamente próxima, limitando assim o efeito da substância química ao próprio inseto e não afetando o espaço circundante.
[0132] Em algumas modalidades, a porta 413 inclui um reservatório da substância química para permitir que o dispositivo 515 atracar na porta, recarregar e estocar a ferramenta de manuseio 526 com a substância química. Em outras modalidades, a porta 413 armazena cápsulas (ou outros recipientes) da substância química. Uma cápsula pode ser carregada na ferramenta de manuseio 526 enquanto o dispositivo 515 está atracado na porta
413. Uma cápsula pode durar vários eventos de manipulação de insetos antes de ser esgotada e pode ser substituída na porta 413 quando esgotada.
[0133] Em algumas modalidades, o dispositivo 515 pode incluir uma combinação de diferentes ferramentas de manuseio e pode usar uma combinação de métodos (por exemplo, químico e/ou mecânico) para o manuseio de insetos.
[0134] O dispositivo 515 não tem características humanas ou de outro predador e, portanto, normalmente não é identificado por insetos (como mosquitos) como um humano ou predador e pode, portanto, se aproximar do inseto e chegar perto do inseto sem assustá-lo.
[0135] No exemplo da Figura 5, o dispositivo 515 é um drone aéreo e o mecanismo de propulsão 525 inclui um mecanismo de hélice adequado para voo aéreo. Diferentes tipos de dispositivos móveis independentes podem ter diferentes tipos de mecanismos de propulsão ou vários tipos de mecanismos de propulsão. Por exemplo, um drone terrestre pode ter um mecanismo de propulsão que inclui um motor, transmissão e rodas.
[0136] O dispositivo 515 inclui tipicamente um circuito de controle (não mostrado) em comunicação com um processador (por exemplo, processador 402) e é configurado para receber entrada em relação à localização de um inseto.
[0137] Em algumas modalidades, o dispositivo 515 (e/ou membro 426) pode incluir ainda um ou mais sensores, como um sensor de imagem (por exemplo, câmera 503) e/ou um sensor de distância (como um telêmetro).
[0138] Em uma modalidade, o dispositivo 515 (e/ou membro 426) é controlado para lidar com um inseto estacionário ou um inseto após pousar (por exemplo, um inseto em uma superfície em um espaço). O dispositivo 515 ou membro 426 recebe informações de direção (por exemplo, um vetor) do processador 402, com base na localização detectada do inseto estacionário e é impulsionado de acordo com a informação recebida. Um sensor de distância no dispositivo 515 (ou membro 426) pode detectar a distância do dispositivo 515 (ou membro 426) do inseto (e/ou da superfície) e parar de impulsionar a uma distância predeterminada do inseto.
[0139] Em uma modalidade, o dispositivo 515 (e/ou membro 426) pode incluir uma fonte de sinal (como uma fonte de luz ou transmissor de áudio) para emitir um sinal que pode ser recebido e analisado pelo processador 402 e pode ser usado para estimar ou calcular a distância do dispositivo 515 ou membro 426 do inseto (e/ou da superfície). Por exemplo, o dispositivo 515 pode incluir um projetor para projetar uma marca visível na vizinhança do inseto. O processador 402 pode então controlar o dispositivo 515 (por exemplo, para controlar a ferramenta de manuseio 526) ou membro 426 com base na distância calculada.
[0140] Em algumas modalidades, um sensor de imagem dedicado anexado ao ou dentro do alojamento 401 pode ser usado para capturar uma imagem do inseto (e possivelmente da marca visível projetada a partir de um projetor do dispositivo 515), que pode ser usado para direcionar o dispositivo 515 ou membro 426 para o inseto. A marca visual pode ser detectada a partir de uma imagem obtida pela câmera 403 ou pela câmera dedicada e dispositivo 515 ou membro 426 e pode, assim, ser direcionada para a localização da marca visual como imageada.
[0141] O uso de um dispositivo e/ou membro extensível controlado por um processador com base na localização de um inseto em uma imagem, de acordo com as modalidades da invenção, permite uma ação precisa e amigável ao meio ambiente para remover ou eliminar pragas, como insetos voadores.
[0142] Conforme descrito acima, as modalidades da invenção podem distinguir um inseto do ruído, como ruído eletrônico no sensor de imagem e/ou ruído ambiente, como partículas de poeira no espaço, variações na iluminação ambiente, reflexos, etc. Além disso, um tipo específico de inseto (por exemplo, mosquito) pode ser diferenciado de outro tipo de inseto (por exemplo, mosca).
[0143] Em uma modalidade, um método é fornecido para diferenciar entre um inseto-alvo e um objeto de inseto não alvo a partir de imagens de um espaço. Por exemplo, um inseto-alvo pode ser um inseto, em oposição a um objeto não inseto (por exemplo, ruído ou outro objeto) e/ou um tipo específico de inseto, em oposição a um tipo diferente de inseto.
[0144] O método, que pode ser realizado por um sistema como o sistema 100, inclui o uso de várias imagens para determinar se um objeto em uma imagem é um inseto-alvo.
[0145] Em uma modalidade, o processador 102 pode detectar um objeto comparando duas (ou mais) imagens do espaço e pode determinar que o objeto é um inseto-alvo com base em uma característica do objeto em uma imagem do espaço. Em algumas modalidades, um objeto é detectado se cumprir um critério predeterminado.
[0146] Em uma modalidade, a câmera 103 pode capturar uma imagem (também chamada de “imagem atual”), a partir da qual é desejável determinar se um inseto está presente no espaço. O processador 102 pode obter uma imagem de subtração subtraindo a imagem atual do espaço de uma segunda imagem diferente do espaço. A imagem de subtração destaca as mudanças no espaço, uma vez que os objetos que não mudaram (por exemplo, não se moveram ou não mudaram de posição) entre as imagens, normalmente não aparecem na imagem de subtração.
[0147] O processador 102 pode detectar na imagem de subtração um objeto com um critério predeterminado e determinar que o objeto é um inseto-alvo.
[0148] Conforme descrito acima, um dispositivo pode ser controlado com base na determinação de que um objeto é um inseto-alvo.
[0149] Em uma modalidade da invenção, duas ou mais imagens do espaço são comparadas, a fim de detectar um objeto que atende a um critério predeterminado. Por exemplo, uma imagem atual pode ser comparada a uma segunda imagem que foi capturada anteriormente, para detectar um objeto que está presente na imagem atual, mas não na imagem anterior. Em algumas modalidades, a segunda imagem pode incluir uma representação de uma pluralidade de imagens do espaço. Por exemplo, a segunda imagem pode ser uma média (ou outra representação estatística adequada) de várias imagens do espaço. Em outro exemplo, a segunda imagem pode incluir uma imagem de fundo construída usando imagens do espaço capturadas ao longo do tempo, compreendendo os elementos constantes e temporários nas imagens do espaço e construindo uma imagem dos elementos constantes (por exemplo, paredes e móveis, mas não pessoas e animais de estimação).
[0150] Um exemplo desta modalidade é esquematicamente ilustrado na Figura 6. Duas imagens de um espaço são obtidas (etapa 602). Em um exemplo, as imagens são comparadas por subtração, por exemplo, uma imagem atual é subtraída de outra imagem do espaço para obter uma imagem de subtração (etapa 604).
[0151] Na etapa 606, um objeto que atende a um critério predeterminado é detectado na imagem de subtração. Um critério predeterminado pode estar relacionado a uma ou mais características do objeto. Por exemplo, uma característica do objeto pode incluir tamanho, forma, localização na imagem de subtração, cor, transparência e outros atributos do objeto na imagem de subtração. Assim, um critério predeterminado pode ser, por exemplo, um intervalo de tamanho (por exemplo, em pixels), uma forma específica (por exemplo, conforme determinado por um algoritmo de detecção de forma aplicado na imagem de subtração), um local específico ou intervalo de locais do objeto dentro da imagem de subtração, cores específicas (por exemplo, conforme determinado pela aplicação de um algoritmo de detecção de cores na imagem de subtração), etc.
[0152] O processador 102 determina se o objeto que cumpre o critério predeterminado é um inseto-alvo. Por exemplo, uma ou mais características do objeto (como padrão de movimento, forma, cor ou transparência) podem ser determinadas e o objeto pode ser determinado como um inseto-alvo com base na característica determinada. Por exemplo, os mosquitos são mais transparentes e de cor mais clara do que alguns outros insetos comuns, portanto, em um exemplo, em que o inseto-alvo é um mosquito, se a cor dos pixels associados ao objeto são cores típicas dos mosquitos do objeto seria determinado a ser um mosquito. Em outra modalidade, se for determinado que um objeto tem um certo nível de transparência ou um padrão predeterminado de áreas transparentes, pode ser determinado que é um mosquito. A transparência de um objeto pode ser determinada, por exemplo, com base em uma cor de fundo conhecida no espaço. Se for determinado que um objeto tem a cor de fundo (por exemplo, se a cor de fundo não é uma cor típica do inseto-alvo), o objeto pode ser considerado parcialmente transparente. Em outro exemplo, diferentes insetos têm diferentes formas, portanto, um inseto-alvo pode ser determinado com base em sua forma na imagem de subtração.
[0153] Em algumas modalidades, um objeto pode ser detectado a partir de uma pluralidade de imagens, enquanto a detecção se o objeto atende a um critério predeterminado e a determinação de que o objeto é um inseto- alvo são feitas a partir de uma única imagem. Em uma modalidade, uma mesma característica de um objeto pode ser usada para detectar um objeto que atende a um critério predeterminado, em uma primeira imagem e para determinar se o objeto é um inseto-alvo, na mesma imagem ou em uma segunda imagem. Em outras modalidades, diferentes características são usadas para detectar um objeto que atende a um critério predeterminado em uma primeira imagem e para determinar se o objeto é um inseto-alvo na mesma imagem ou em uma segunda imagem.
[0154] Por exemplo, uma imagem de subtração pode incluir vários objetos, mas apenas dois que estão dentro de um intervalo de tamanho predeterminado. Assim, dois objetos são detectados na imagem de subtração. Uma ou mais características, além do tamanho, podem ser determinadas para os dois objetos, por exemplo, a cor e/ou transparência e/ou padrão de movimento dos dois objetos podem ser determinados e os objetos podem ser determinados como insetos-alvo ou não, com base em sua cor e/ou transparência e/ou padrão de movimento.
[0155] Em algumas modalidades, uma imagem de alta resolução do objeto pode ser obtida e o objeto pode ser determinado como um inseto- alvo com base na imagem de alta resolução. Por exemplo, um objeto pode ser detectado em uma primeira imagem, por exemplo, em uma imagem de subtração, possivelmente, com base em seu tamanho ou outra característica, e pode então ser determinado como um inseto-alvo (ou não) de uma segunda imagem que é de resolução mais alta do que a primeira imagem.
[0156] Em algumas modalidades, características, como cor e/ou movimento, podem ser espacialmente correlacionadas. Por exemplo, se um número de pixels que estão próximos uns dos outros têm propriedades indicativas de um inseto-alvo, esses pixels podem receber mais peso na determinação da presença de um inseto-alvo, do que um número de pixels com as mesmas propriedades, mas que não estão agrupados intimamente. Em outro exemplo, várias características correlacionadas ou propriedades de pixel, por exemplo, mesmos padrões de movimento e/ou mudanças na iluminação, detectados em vários locais em uma imagem, podem apontar para o movimento de um objeto maior e/ou reflexos, e podem ser atribuídos a um peso menor na determinação da presença de um inseto-alvo, do que características únicas e não correlacionadas.
[0157] Pesos diferentes podem ser atribuídos a características (ou pixels que representam essas características) com base no comportamento da característica em uma pluralidade de imagens. Por exemplo, uma característica que persiste ao longo do tempo tem menos probabilidade de ser ruído e pode, portanto, receber um peso maior.
[0158] Técnicas de visão de máquina, como algoritmos de detecção de objeto, segmentação, etc., podem ser usadas para detectar um objeto em imagens do espaço (por exemplo, uma imagem de subtração) e para determinar os pixels associados ao objeto. Em algumas modalidades, um modelo de aprendizagem pode ser aplicado em imagens do espaço para determinar se o objeto é um inseto-alvo. Um modelo de aprendizagem pode ser aplicado, por exemplo, na imagem de subtração para detectar um objeto com um critério predeterminado e/ou em uma imagem atual para determinar se o objeto é um inseto-alvo. Um modelo de aprendizagem pode ser aplicado em outras etapas também, como integrar as várias entradas (cor, transparência, tamanho, padrão de movimento, etc.) em uma única decisão de determinar se o objeto é um inseto-alvo.
[0159] Se o objeto for determinado como um inseto-alvo (etapa 608), o processador 102 gera um sinal para controlar um dispositivo (etapa 610). Se o objeto não for determinado como um inseto-alvo, outra imagem atual é obtida e processada.
[0160] Um dispositivo controlado com base na determinação de que um objeto é um inseto-alvo pode incluir um dispositivo auxiliar, por exemplo, conforme descrito acima. Em um exemplo, um dispositivo (como um projetor de uma fonte de luz) pode criar um indicador de localização visível a um olho humano (por exemplo, marca visual 115). Assim, um método pode incluir determinar uma localização no mundo real do inseto-alvo a partir das imagens do espaço e controlar um dispositivo para criar um indicador de localização visível a um olho humano e indicativo da localização no mundo real do inseto-alvo.
[0161] Em outra modalidade, um dispositivo pode ser usado para eliminar e/ou de outra forma lidar com insetos-alvo. Assim, um método pode incluir determinar uma localização no mundo real do inseto-alvo a partir das imagens do espaço e controlar um dispositivo para eliminar (ou de outra forma controlar) o inseto-alvo na localização do mundo real. O dispositivo pode incluir um dispositivo auxiliar para lidar com um inseto, por exemplo, como descrito acima. Por exemplo, o dispositivo pode incluir um projetor para projetar uma forma de energia no local do mundo real do inseto-alvo. Alternativamente ou adicionalmente, o dispositivo pode incluir um dispositivo móvel independente controlado remotamente e/ou um braço telescópico e/ou bico.
[0162] Em uma modalidade, um objeto (por exemplo, o objeto detectado em uma imagem de subtração) é rastreado em várias imagens do espaço e em vários locais no espaço, e o objeto pode ser determinado como um inseto-alvo (ou não) com base em o rastreamento.
[0163] Em uma modalidade, que é esquematicamente ilustrada na Figura 7, um padrão de movimento de um objeto é detectado e o objeto é determinado como um inseto-alvo (ou não) com base no padrão de movimento.
[0164] Um objeto é detectado em imagens de um espaço (etapa 702) e um padrão de movimento do objeto é determinado (etapa 704). Se o padrão de movimento for semelhante a um padrão predeterminado (etapa 706), então o objeto é determinado como um inseto-alvo (etapa 708). Se o padrão de movimento não for semelhante ao padrão de movimento predeterminado (etapa 706), então o objeto não é determinado como um inseto-alvo (etapa (710).
[0165] Normalmente, um padrão de movimento predeterminado será um padrão consistente com um padrão esperado do inseto-alvo. Por exemplo, um padrão de movimento predeterminado pode incluir um padrão de pousar (por exemplo, voar e depois pousar), que é típico dos mosquitos. Em outro exemplo, o padrão de movimento predeterminado pode incluir predominantemente um movimento não repetitivo, uma vez que um movimento predominantemente repetitivo é característico de um movimento não intencional (como o movimento de um ventilador, objetos soprados pelo vento e/ou ruído eletrônico). Em ainda outro exemplo, um padrão de movimento pode incluir uma mudança na direção e um movimento predeterminado inclui uma mudança na direção em um ângulo específico ou faixa de ângulos. Por exemplo, os mosquitos geralmente mudam de direção em um ângulo menos agudo do que as moscas. Assim, um padrão de movimento predeterminado pode incluir uma mudança de direção em um ângulo em uma faixa predeterminada. Em outro exemplo, os mosquitos se movem mais lentamente do que as moscas, portanto, um padrão de movimento predeterminado pode incluir uma velocidade específica (ou intervalo de velocidades).
[0166] Além disso, determinar as características dos objetos, como cor e transparência, pode ser mais preciso ao usar várias imagens e/ou comparar imagens ao longo do tempo. Em alguns casos, ao longo do tempo, um objeto em movimento (como um inseto) pode passar por diferentes fundos, auxiliando na determinação da cor e/ou transparência do objeto (conforme descrito acima). Por exemplo, um objeto completamente opaco não mudaria sua cor ou intensidade ao passar por fundos diferentes, enquanto um objeto translúcido faria.
[0167] Em algumas modalidades, os dados históricos podem ser usados para determinar se um objeto é um inseto-alvo. Por exemplo, determinar se um objeto em uma imagem capturada posteriormente é um inseto-alvo pode ser baseado em um peso atribuído a pixels em uma imagem capturada anteriormente.
[0168] Em um exemplo, que está esquematicamente ilustrado na Figura 8, um objeto é detectado em um local em uma primeira imagem (por exemplo, primeira imagem atual) de um espaço (etapa 802). Se for determinado que o objeto não é um inseto-alvo (etapa 804), então um primeiro peso é atribuído aos pixels naquele local (etapa 806). Se for determinado que o objeto é um inseto-alvo (etapa 804), então um segundo peso é atribuído aos pixels naquele local (etapa 808).
[0169] Um objeto é detectado em um local em uma segunda imagem (por exemplo, uma segunda imagem atual) (etapa 810) e os pesos das etapas 806 e 808 são atribuídos aos pixels da segunda imagem com base em sua localização na segunda imagem. O objeto na segunda imagem pode então ser determinado como um inseto-alvo (ou não) com base nos pixels ponderados associados ao objeto na segunda imagem (etapa 812).
[0170] Por exemplo, as imagens de um espaço (como uma sala) podem incluir janelas, uma tela de TV, um ventilador, reflexos e muito mais, o que pode criar áreas “ruidosas” nas imagens.
Tal ruído pode ser detectado, por exemplo, por alta variação nos valores de pixel ao longo do tempo, por muitos falsos positivos (por exemplo, insetos-alvo falsamente detectados) ou pela aplicação de algoritmos de detecção de objetos para identificar os objetos susceptíveis de criar ruído (por exemplo, janela, TV, etc.). Em algumas modalidades, as características dos objetos (ou pixels que representam essas características) detectados em áreas relativamente “ruidosas” de uma imagem podem ter menos peso do que as características (ou pixels) dos objetos detectados em outras áreas da imagem.
Em outro exemplo, as características (ou pixels) de objetos detectados em uma área da imagem, em que um inseto- alvo foi determinado erroneamente em casos anteriores, podem ser atribuídos menos peso do que as características (ou pixels) detectados em outras áreas da imagem.

Claims (37)

REIVINDICAÇÕES
1. Método para detectar um inseto-alvo em um espaço, caracterizado pelo fato de que compreende: detectar um objeto comparando pelo menos duas imagens do espaço; determinar que o objeto é um inseto-alvo com base em uma característica do objeto em uma imagem do espaço; e controlar um dispositivo com base na determinação de que o objeto é um inseto-alvo.
2. Método, de acordo com a reivindicação 1, caracterizado pelo fato de que o objeto atende a um critério predeterminado.
3. Método, de acordo com a reivindicação 1, caracterizado pelo fato de que uma das pelo menos duas imagens compreende uma representação de uma pluralidade de imagens do espaço.
4. Método, de acordo com a reivindicação 1, caracterizado pelo fato de que comparar as pelo menos duas imagens do espaço compreende obter uma imagem de subtração subtraindo uma imagem atual do espaço de uma segunda imagem do espaço; e que compreende detectar na imagem de subtração um objeto que atende a um critério predeterminado.
5. Método, de acordo com a reivindicação 4, caracterizado pelo fato de que a segunda imagem compreende uma imagem do espaço capturada antes da imagem atual.
6. Método, de acordo com a reivindicação 2, caracterizado pelo fato de que o critério predeterminado se refere a uma ou mais características do objeto, em que a característica compreende um dentre: tamanho, forma, localização em uma imagem, cor e transparência.
7. Método, de acordo com a reivindicação 1, caracterizado pelo fato de que compreende: determinar uma ou mais características do objeto, em que a característica compreende um dentre: padrão de movimento, forma, cor e transparência; e determinar que o objeto é um inseto-alvo com base na característica determinada.
8. Método, de acordo com a reivindicação 1, caracterizado pelo fato de que compreende rastrear o objeto em imagens do espaço; e determinar que o objeto é um inseto-alvo com base no rastreamento.
9. Método, de acordo com a reivindicação 8, caracterizado pelo fato de que compreende: detectar um padrão de movimento do objeto, com base no rastreamento do objeto; e determinar que o objeto é um inseto-alvo se o padrão de movimento for semelhante a um padrão de movimento predeterminado.
10. Método, de acordo com a reivindicação 9, caracterizado pelo fato de que o padrão de movimento predeterminado compreende um ou mais dentre: um padrão de iluminação, predominantemente um movimento não repetitivo e uma mudança de direção em um ângulo em uma faixa predeterminada.
11. Método, de acordo com a reivindicação 1, caracterizado pelo fato de que compreende: obter uma imagem de alta resolução do objeto; e determinar que o objeto é um inseto-alvo com base na imagem de alta resolução.
12. Método, de acordo com a reivindicação 1, caracterizado pelo fato de que compreende: detectar características espacialmente correlacionadas do objeto; e determinar se o objeto é um inseto-alvo com base nas características espacialmente correlacionadas.
13. Método, de acordo com a reivindicação 1, caracterizado pelo fato de que compreende: atribuir um peso a pixels em uma localização do objeto em uma primeira imagem do espaço com base na determinação de que o objeto é um inseto-alvo; e determinar que um objeto em uma segunda imagem do espaço é um inseto-alvo atribuindo o peso a pixels no local do objeto na segunda imagem.
14. Método, de acordo com a reivindicação 1, caracterizado pelo fato de que compreende: determinar uma localização do mundo real do inseto-alvo a partir de imagens do espaço; e controlar o dispositivo para criar um indicador de localização visível a um olho humano e indicativo da localização no mundo real do inseto- alvo.
15. Método, de acordo com a reivindicação 14, caracterizado pelo fato de que o dispositivo compreende um projetor de uma fonte de luz.
16. Método, de acordo com a reivindicação 1, caracterizado pelo fato de que compreende: determinar uma localização do mundo real do inseto-alvo a partir de imagens do espaço; e controlar um dispositivo para eliminar o inseto-alvo no local do mundo real.
17. Método, de acordo com a reivindicação 16, caracterizado pelo fato de que o dispositivo compreende um projetor para projetar uma forma de energia na localização do mundo real do inseto-alvo.
18. Método, de acordo com a reivindicação 16, caracterizado pelo fato de que o dispositivo compreende um dispositivo móvel independente controlado remotamente.
19. Método, de acordo com a reivindicação 16, caracterizado pelo fato de que o dispositivo compreende um braço telescópico.
20. Método, de acordo com a reivindicação 16, caracterizado pelo fato de que o dispositivo compreende um bico.
21. Método, de acordo com a reivindicação 16, caracterizado pelo fato de que compreende: determinar a partir das imagens do espaço se existe um ser vivo nas proximidades do inseto-alvo; e controlar o dispositivo para eliminar o inseto-alvo na localização do mundo real do inseto-alvo com base na determinação se há um ser vivo nas proximidades do inseto-alvo.
22. Método, de acordo com a reivindicação 1, caracterizado pelo fato de que o dispositivo é um dispositivo autônomo móvel, o método compreendendo: determinar uma localização do mundo real do inseto-alvo a partir de imagens do espaço; e controlar o dispositivo para se mover para a vizinhança da localização do mundo real do inseto-alvo.
23. Método, de acordo com a reivindicação 1, caracterizado pelo fato de que compreende a aplicação de um modelo de aprendizagem em imagens do espaço para determinar se o objeto é um inseto-alvo.
24. Sistema para detectar um inseto-alvo em um espaço, caracterizado pelo fato de que compreende: uma câmera para obter imagens do espaço; e um processador em comunicação com a câmera, o processador para detectar um objeto comparando pelo menos duas das imagens do espaço; e determinar que o objeto é um inseto-alvo com base em uma característica do objeto em uma imagem do espaço.
25. Sistema para lidar com um inseto em um espaço, caracterizado pelo fato de que compreende: uma câmera para obter imagens do espaço;
um dispositivo móvel separado da câmera; e um processador para detectar o inseto em pelo menos uma das imagens do espaço e controlar o dispositivo para se deslocar para as proximidades do inseto, com base na análise das imagens do espaço.
26. Sistema, de acordo com a reivindicação 25, caracterizado pelo fato de que o processador controla o dispositivo para se mover para a vizinhança do inseto, com base na análise de uma imagem do espaço com o inseto e o dispositivo dentro de um mesmo quadro.
27. Sistema, de acordo com a reivindicação 26, caracterizado pelo fato de que o processador estima uma direção do inseto a partir da câmera e em que o processador controla o dispositivo para se mover aproximadamente na direção.
28. Sistema, de acordo com a reivindicação 27, caracterizado pelo fato de que o processador estima uma distância do dispositivo do inseto e em que o processador controla o dispositivo para se mover a uma distância predeterminada do inseto.
29. Sistema, de acordo com a reivindicação 28, caracterizado pelo fato de que compreende um telêmetro em comunicação com o processador para estimar a distância entre o dispositivo e o inseto.
30. Sistema, de acordo com a reivindicação 28, caracterizado pelo fato de que o processador estima a distância do dispositivo do inseto comparando o tamanho do inseto a partir de uma imagem do espaço com um tamanho esperado do inseto.
31. Sistema, de acordo com a reivindicação 28, caracterizado pelo fato de que o processador estima a distância do dispositivo do inseto analisando a localização de um ponto de luz no quadro, em que o ponto de luz é projetado do dispositivo.
32. Sistema, de acordo com a reivindicação 28, caracterizado pelo fato de que o processador controla o dispositivo para eliminar o inseto quando o dispositivo está a uma distância predeterminada do inseto.
33. Sistema, de acordo com a reivindicação 32, caracterizado pelo fato de que o dispositivo compreende um membro extensível do dispositivo e o processador controla o dispositivo para eliminar o inseto através do membro.
34. Sistema, de acordo com a reivindicação 25, caracterizado pelo fato de que o dispositivo compreende uma câmera adicional para obter uma imagem do inseto.
35. Sistema, de acordo com a reivindicação 25, caracterizado pelo fato de que o dispositivo compreende um projetor para projetar um feixe de uma forma de energia para as proximidades do inseto.
36. Sistema, de acordo com a reivindicação 25, caracterizado pelo fato de que compreende uma estação de acoplamento para alimentar e/ou carregar o dispositivo.
37. Sistema, de acordo com a reivindicação 25, caracterizado pelo fato de que o dispositivo é configurado para eliminar o inseto eletricamente, mecanicamente ou quimicamente.
BR112021001634-1A 2018-07-29 2019-07-24 sistema e método para localizar e eliminar insetos BR112021001634A2 (pt)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
IL260844A IL260844B (en) 2018-07-29 2018-07-29 System and method for locating and destroying insects
IL260844 2018-07-29
US201862743593P 2018-10-10 2018-10-10
US62/743.593 2018-10-10
PCT/IL2019/050839 WO2020026230A1 (en) 2018-07-29 2019-07-24 System and method for locating and eliminating insects

Publications (1)

Publication Number Publication Date
BR112021001634A2 true BR112021001634A2 (pt) 2021-05-04

Family

ID=68069430

Family Applications (1)

Application Number Title Priority Date Filing Date
BR112021001634-1A BR112021001634A2 (pt) 2018-07-29 2019-07-24 sistema e método para localizar e eliminar insetos

Country Status (12)

Country Link
US (1) US20210251209A1 (pt)
EP (1) EP3830755A4 (pt)
JP (1) JP2021531806A (pt)
KR (1) KR20210035252A (pt)
CN (1) CN112513880A (pt)
AR (1) AR115817A1 (pt)
AU (1) AU2019313665A1 (pt)
BR (1) BR112021001634A2 (pt)
CA (1) CA3105655A1 (pt)
IL (1) IL260844B (pt)
TW (1) TW202022698A (pt)
WO (1) WO2020026230A1 (pt)

Families Citing this family (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
AT522373B1 (de) * 2019-03-18 2023-04-15 Univ Innsbruck Vorrichtung zur störung der optischen navigationsfähigkeit von organismen
US11176652B2 (en) * 2019-04-05 2021-11-16 Waymo Llc High bandwidth camera data transmission
EP3975710A1 (en) * 2019-05-24 2022-04-06 Romanova, Anastasiia Romanivna Mosquito monitoring and counting system
CN110674805B (zh) * 2019-10-11 2022-04-15 杭州睿琪软件有限公司 昆虫识别方法及系统
TWI763099B (zh) * 2020-10-28 2022-05-01 李寬裕 光學除蟲設備
KR102531690B1 (ko) * 2020-11-25 2023-05-12 유한회사 평화스테인레스 Oled 및 빅데이터와 파장을 기반으로 하는 겹눈해충 퇴치시스템
CN112674057A (zh) * 2021-01-08 2021-04-20 中国人民解放军海军航空大学 一种智能蚊虫消灭设备及方法
CN114431773B (zh) * 2022-01-14 2023-05-16 珠海格力电器股份有限公司 扫地机器人的控制方法
IL298319A (en) * 2022-11-16 2024-06-01 Bzigo Ltd Unmanned aerial vehicle to neutralize insects
CN116391693B (zh) * 2023-06-07 2023-09-19 北京市农林科学院智能装备技术研究中心 天牛灭杀方法及系统
JP7445909B1 (ja) 2023-08-21 2024-03-08 株式会社ヤマサ 害獣駆除システムおよび害獣駆除プログラム
US12022820B1 (en) * 2023-10-11 2024-07-02 Selina S Zhang Integrated insect control system

Family Cites Families (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4015366A (en) * 1975-04-11 1977-04-05 Advanced Decision Handling, Inc. Highly automated agricultural production system
JP3002719B2 (ja) * 1996-07-19 2000-01-24 工業技術院長 微小生物モニタによる環境清浄度計測装置
WO2004006854A2 (en) * 2002-07-15 2004-01-22 Baylor College Of Medicine Method for identification of biologically active agents
US7496228B2 (en) * 2003-06-13 2009-02-24 Landwehr Val R Method and system for detecting and classifying objects in images, such as insects and other arthropods
JP2005021074A (ja) * 2003-07-01 2005-01-27 Terada Seisakusho Co Ltd 画像処理計数方法と画像処理計数装置
JP5066575B2 (ja) * 2006-10-23 2012-11-07 ダウ アグロサイエンシィズ エルエルシー ナンキンムシ検出、監視及び防除技術
JP2008200002A (ja) * 2007-02-22 2008-09-04 Matsushita Electric Works Ltd 夜行性虫捕虫システム
JP2010149727A (ja) * 2008-12-25 2010-07-08 Aisin Aw Co Ltd 虫類車室内進入阻止システム及びプログラム
AU2011317278B2 (en) * 2010-10-17 2014-10-30 Purdue Research Foundation Automatic monitoring of insect populations
US9965850B2 (en) * 2012-07-05 2018-05-08 Bernard Fryshman Object image recognition and instant active response with enhanced application and utility
WO2013069059A1 (en) * 2011-11-09 2013-05-16 Feugier Francois Gabriel Pest control system, pest control method and pest control program
US20150085100A1 (en) * 2013-09-26 2015-03-26 Micholas Raschella System for detection of animals and pests
JP6274430B2 (ja) * 2014-06-03 2018-02-07 みこらった株式会社 害虫捕獲収容装置及び害虫殺虫装置
JP6479364B2 (ja) * 2014-07-31 2019-03-06 近藤電子株式会社 家禽の健康状態診断装置
US10568316B2 (en) * 2014-08-15 2020-02-25 Monsanto Technology Llc Apparatus and methods for in-field data collection and sampling
JP2016136916A (ja) * 2015-01-29 2016-08-04 シャープ株式会社 害虫駆除装置および害虫駆除方法
JP2016185076A (ja) * 2015-03-27 2016-10-27 三菱自動車工業株式会社 虫追い出し装置
US9828093B2 (en) * 2015-05-27 2017-11-28 First Principles, Inc. System for recharging remotely controlled aerial vehicle, charging station and rechargeable remotely controlled aerial vehicle, and method of use thereof
MX2018005714A (es) * 2015-11-08 2019-08-16 Agrowing Ltd Un metodo para la adquisicion y analisis de imagenes aereas.
US20170231213A1 (en) * 2016-02-17 2017-08-17 International Business Machines Corporation Pest abatement utilizing an aerial drone
JP6410993B2 (ja) * 2016-05-31 2018-10-24 株式会社オプティム ドローン飛行制御システム、方法及びプログラム
US10496893B2 (en) * 2016-08-11 2019-12-03 DiamondFox Enterprises, LLC Handheld arthropod detection device
JP6512672B2 (ja) * 2017-12-25 2019-05-15 みこらった株式会社 害虫駆除装置

Also Published As

Publication number Publication date
EP3830755A4 (en) 2022-05-18
AU2019313665A1 (en) 2021-01-28
EP3830755A1 (en) 2021-06-09
JP2021531806A (ja) 2021-11-25
TW202022698A (zh) 2020-06-16
CA3105655A1 (en) 2020-02-06
CN112513880A (zh) 2021-03-16
AR115817A1 (es) 2021-03-03
US20210251209A1 (en) 2021-08-19
KR20210035252A (ko) 2021-03-31
IL260844B (en) 2019-09-26
WO2020026230A1 (en) 2020-02-06

Similar Documents

Publication Publication Date Title
BR112021001634A2 (pt) sistema e método para localizar e eliminar insetos
JP6755316B2 (ja) 少なくとも1つの物体の少なくとも1つの画像を記録するカメラ
CN107836012B (zh) 投影图像生成方法及其装置、图像像素与深度值之间的映射方法
US9811764B2 (en) Object image recognition and instant active response with enhanced application and utility
JP6836042B2 (ja) 三次元走査支援システム及び方法
US10147177B2 (en) Object image recognition and instant active response with enhanced application and utility
CN110998596B (zh) 夜间感测
US8111289B2 (en) Method and apparatus for implementing multipurpose monitoring system
US11887278B2 (en) System and method for training a neural network to fill gaps between scan points in images and to de-noise point cloud images
EP3602262A1 (en) Display system and method for delivering multi-view content
McNeil et al. Autonomous fire suppression system for use in high and low visibility environments by visual servoing
CN113544745A (zh) 用于确定至少一个对象的位置的检测器
WO2018087462A1 (fr) Dispositif individuel d'immersion visuelle pour personne en mouvement avec gestion des obstacles
US20190037133A1 (en) Tracking image collection for digital capture of environments, and associated systems and methods
US20190008136A1 (en) Apparatus to Effect an Optical Barrier to Pests
CN109920048A (zh) 监控画面生成方法及装置
WO2020036910A1 (en) System and method for creating a single perspective synthesized image
CA3148404A1 (en) Information processing device, data generation method, and non-transitory computer-readable medium storing program
US20230342952A1 (en) Method for coordinative measuring by terrestrial scanning with image-based interference detection of moving objects
JP2020162438A (ja) 監視システム及び飛行ロボット
Paiva et al. Internal positioning system for trajectory control of mobile robots
WO2024105676A1 (en) Unmanned aerial vehicle for neutralizing insects
Green et al. A Multi-Modal, Silicon Retina Technique for Detecting the Presence of Reflective and Transparent Barriers
Zhang et al. Jellyfish: non-radio frequency counter drone technology
RU2021104015A (ru) Система и способ обнаружения и уничтожения насекомых

Legal Events

Date Code Title Description
B08F Application dismissed because of non-payment of annual fees [chapter 8.6 patent gazette]

Free format text: REFERENTE A 5A ANUIDADE.