CN112513880A - 用于定位和消除昆虫的系统和方法 - Google Patents
用于定位和消除昆虫的系统和方法 Download PDFInfo
- Publication number
- CN112513880A CN112513880A CN201980049892.5A CN201980049892A CN112513880A CN 112513880 A CN112513880 A CN 112513880A CN 201980049892 A CN201980049892 A CN 201980049892A CN 112513880 A CN112513880 A CN 112513880A
- Authority
- CN
- China
- Prior art keywords
- image
- insect
- space
- location
- insects
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 241000238631 Hexapoda Species 0.000 title claims abstract description 344
- 238000000034 method Methods 0.000 title claims abstract description 63
- 230000033001 locomotion Effects 0.000 claims description 43
- 230000001276 controlling effect Effects 0.000 claims description 13
- 238000004891 communication Methods 0.000 claims description 9
- 238000004458 analytical method Methods 0.000 claims description 7
- 230000002596 correlated effect Effects 0.000 claims description 4
- 238000003032 molecular docking Methods 0.000 claims description 3
- 230000003252 repetitive effect Effects 0.000 claims description 3
- 239000000126 substance Substances 0.000 description 18
- 238000005286 illumination Methods 0.000 description 16
- 241000255925 Diptera Species 0.000 description 15
- 241000607479 Yersinia pestis Species 0.000 description 14
- 238000012545 processing Methods 0.000 description 14
- 230000015654 memory Effects 0.000 description 13
- 239000003550 marker Substances 0.000 description 12
- 230000000007 visual effect Effects 0.000 description 12
- 239000000463 material Substances 0.000 description 8
- 238000001514 detection method Methods 0.000 description 7
- 230000007246 mechanism Effects 0.000 description 7
- 230000008030 elimination Effects 0.000 description 5
- 238000003379 elimination reaction Methods 0.000 description 5
- 230000003287 optical effect Effects 0.000 description 5
- 239000002775 capsule Substances 0.000 description 4
- 238000010586 diagram Methods 0.000 description 4
- 244000062645 predators Species 0.000 description 4
- 230000002708 enhancing effect Effects 0.000 description 3
- 241000282412 Homo Species 0.000 description 2
- 239000000853 adhesive Substances 0.000 description 2
- 230000001070 adhesive effect Effects 0.000 description 2
- 238000013459 approach Methods 0.000 description 2
- 230000005540 biological transmission Effects 0.000 description 2
- 239000000428 dust Substances 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 238000010291 electrical method Methods 0.000 description 2
- 238000003384 imaging method Methods 0.000 description 2
- 239000000077 insect repellent Substances 0.000 description 2
- 239000002917 insecticide Substances 0.000 description 2
- 238000010297 mechanical methods and process Methods 0.000 description 2
- 239000002245 particle Substances 0.000 description 2
- 239000012781 shape memory material Substances 0.000 description 2
- 241000196324 Embryophyta Species 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 238000007664 blowing Methods 0.000 description 1
- 239000000872 buffer Substances 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 239000003795 chemical substances by application Substances 0.000 description 1
- 239000010632 citronella oil Substances 0.000 description 1
- 238000012790 confirmation Methods 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 238000013527 convolutional neural network Methods 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 201000010099 disease Diseases 0.000 description 1
- 208000037265 diseases, disorders, signs and symptoms Diseases 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 239000004744 fabric Substances 0.000 description 1
- 235000013305 food Nutrition 0.000 description 1
- 239000007789 gas Substances 0.000 description 1
- 231100000518 lethal Toxicity 0.000 description 1
- 230000001665 lethal effect Effects 0.000 description 1
- 239000007788 liquid Substances 0.000 description 1
- 230000007787 long-term memory Effects 0.000 description 1
- 238000012423 maintenance Methods 0.000 description 1
- 239000002184 metal Substances 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 231100000344 non-irritating Toxicity 0.000 description 1
- 230000005019 pattern of movement Effects 0.000 description 1
- 230000002085 persistent effect Effects 0.000 description 1
- 239000000843 powder Substances 0.000 description 1
- 230000001846 repelling effect Effects 0.000 description 1
- 230000011218 segmentation Effects 0.000 description 1
- 230000006403 short-term memory Effects 0.000 description 1
- 239000007921 spray Substances 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 230000000153 supplemental effect Effects 0.000 description 1
Images
Classifications
-
- A—HUMAN NECESSITIES
- A01—AGRICULTURE; FORESTRY; ANIMAL HUSBANDRY; HUNTING; TRAPPING; FISHING
- A01M—CATCHING, TRAPPING OR SCARING OF ANIMALS; APPARATUS FOR THE DESTRUCTION OF NOXIOUS ANIMALS OR NOXIOUS PLANTS
- A01M1/00—Stationary means for catching or killing insects
- A01M1/02—Stationary means for catching or killing insects with devices or substances, e.g. food, pheronones attracting the insects
- A01M1/026—Stationary means for catching or killing insects with devices or substances, e.g. food, pheronones attracting the insects combined with devices for monitoring insect presence, e.g. termites
-
- A—HUMAN NECESSITIES
- A01—AGRICULTURE; FORESTRY; ANIMAL HUSBANDRY; HUNTING; TRAPPING; FISHING
- A01M—CATCHING, TRAPPING OR SCARING OF ANIMALS; APPARATUS FOR THE DESTRUCTION OF NOXIOUS ANIMALS OR NOXIOUS PLANTS
- A01M1/00—Stationary means for catching or killing insects
- A01M1/06—Catching insects by using a suction effect
-
- A—HUMAN NECESSITIES
- A01—AGRICULTURE; FORESTRY; ANIMAL HUSBANDRY; HUNTING; TRAPPING; FISHING
- A01M—CATCHING, TRAPPING OR SCARING OF ANIMALS; APPARATUS FOR THE DESTRUCTION OF NOXIOUS ANIMALS OR NOXIOUS PLANTS
- A01M1/00—Stationary means for catching or killing insects
- A01M1/14—Catching by adhesive surfaces
-
- A—HUMAN NECESSITIES
- A01—AGRICULTURE; FORESTRY; ANIMAL HUSBANDRY; HUNTING; TRAPPING; FISHING
- A01M—CATCHING, TRAPPING OR SCARING OF ANIMALS; APPARATUS FOR THE DESTRUCTION OF NOXIOUS ANIMALS OR NOXIOUS PLANTS
- A01M1/00—Stationary means for catching or killing insects
- A01M1/20—Poisoning, narcotising, or burning insects
- A01M1/2022—Poisoning or narcotising insects by vaporising an insecticide
-
- A—HUMAN NECESSITIES
- A01—AGRICULTURE; FORESTRY; ANIMAL HUSBANDRY; HUNTING; TRAPPING; FISHING
- A01M—CATCHING, TRAPPING OR SCARING OF ANIMALS; APPARATUS FOR THE DESTRUCTION OF NOXIOUS ANIMALS OR NOXIOUS PLANTS
- A01M1/00—Stationary means for catching or killing insects
- A01M1/22—Killing insects by electric means
- A01M1/223—Killing insects by electric means by using electrocution
-
- A—HUMAN NECESSITIES
- A01—AGRICULTURE; FORESTRY; ANIMAL HUSBANDRY; HUNTING; TRAPPING; FISHING
- A01M—CATCHING, TRAPPING OR SCARING OF ANIMALS; APPARATUS FOR THE DESTRUCTION OF NOXIOUS ANIMALS OR NOXIOUS PLANTS
- A01M5/00—Catching insects in fields, gardens, or forests by movable appliances
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/52—Surveillance or monitoring of activities, e.g. for recognising suspicious objects
Landscapes
- Life Sciences & Earth Sciences (AREA)
- Pest Control & Pesticides (AREA)
- Engineering & Computer Science (AREA)
- Insects & Arthropods (AREA)
- Environmental Sciences (AREA)
- Zoology (AREA)
- Wood Science & Technology (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- Multimedia (AREA)
- Forests & Forestry (AREA)
- Ecology (AREA)
- Biodiversity & Conservation Biology (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Toxicology (AREA)
- Catching Or Destruction (AREA)
- Software Systems (AREA)
- Artificial Intelligence (AREA)
- Burglar Alarm Systems (AREA)
- Length Measuring Devices By Optical Means (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Medical Informatics (AREA)
- Image Analysis (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Physics (AREA)
Abstract
提供了用于在空间中对昆虫进行定位并且用于向用户指示昆虫的位置和/或用于消灭昆虫的系统和方法。该系统包括:相机,该相机用于获取空间的图像;以及处理器,该处理器用于通过比较空间的至少两个图像来检测对象并基于空间的图像中对象的特征来确定对象是昆虫。在一些实施例中,可以控制独立移动设备以在空间中消除昆虫的位置处的昆虫。
Description
技术领域
本发明属于害虫防治领域,具体地说是使用计算机视觉来检测、定位和消除害虫,例如飞行昆虫。
背景技术
在家庭和其他城市空间中,害虫(例如与人类共享环境的飞行昆虫)传播疾病、破坏食品并通常造成滋扰。通常试图通过驱逐、排斥、物理去除或化学手段来控制这些害虫。
使用带放大透镜的图像传感器的系统用于在典型的农业环境中检测害虫,在该环境中,移动图像传感器或在图像传感器的视野中移动物品,以实现对大区域的监视。
这种需要移动相机的系统不适合在室内使用,因为人们对在其生活和/或工作空间中不断移动的相机不感兴趣。
另一使用图像传感器的系统,在由相机和与相机间隔开的逆反射表面所限定的所关注区域中跟踪飞行昆虫。除了相机之外,还需要采用逆反射表面,这使得该系统显得突兀又笨重,因此不太可能广泛安装在家庭、办公室和其他城市空间中。
发明内容
本发明的实施例提供了一种系统和方法,用于通常在室内环境中对诸如飞行昆虫之类的害虫进行检测和定位,以使得能够通常在封闭环境中轻松而准确地对害虫采取行动。
根据本发明实施例的一种系统包括相机和处理器,该处理器用于从由相机所获取的图像中对害虫进行检测和定位。该系统可以从包括相机的单个壳体上进行操作,并且不需要与单个壳体分开的附加元件来定位害虫。此外,为了捕获可用的图像,系统的相机不必附接到或嵌入在可移动平台中。因此,该系统可以容易地设置并且不显眼地定位于诸如房屋或办公室中的房间之类的空间或诸如剧院、博物馆等的公共空间中。
本发明的实施例可以将昆虫与噪声和/或与非昆虫对象区分开。
在一个实施例中,该系统可提供人类可见的标记,以指示昆虫在房间中的位置,以供进一步操作。
本发明的实施例提供了多种类型的解决方案,用于对抗从空间的图像中所检测和定位的害虫。
附图说明
现在将参考以下说明性附图结合某些示例和实施例来描述本发明,以便可以更充分地理解本发明。在附图中:
图1A是根据本发明的一个实施例的用于在空间中对昆虫进行定位的系统的示意图;
图1B是根据本发明的一个实施例的用于在空间中对昆虫进行检测和定位的方法的示意图;
图2A和图2B是根据本发明的另一实施例的用于在空间中对昆虫进行定位的系统的示意图;
图2C是根据本发明的另一实施例的用于在空间中对昆虫进行检测和定位的方法的示意图;
图3是根据本发明的一个实施例的包括视觉标记的投射器的系统的示意图;
图4A和图4B是根据本发明的实施例的包括用于对昆虫进行处理的辅助设备的系统的示意图;
图4C是根据本发明的一个实施例的用于控制对昆虫进行处理的辅助设备的方法的示意图;
图5是根据本发明的一个实施例的用于对昆虫进行处理的辅助设备的示意图;
图6是根据本发明的一个实施例的用于在空间的图像中检测昆虫的方法的示意图;
图7是根据本发明的一个实施例的用于确定图像中的对象是否是昆虫的方法的示意图;以及
图8是根据本发明的一个实施例的基于先前图像确定图像中的对象是否是昆虫的方法的示意图。
具体实施方式
本发明的实施例提供了用于对诸如房间之类的封闭空间中的一个或更多个昆虫进行检测、并指示该空间中检测到的昆虫位置的系统和方法。
本文所述的示例主要是指昆虫害虫,尤其是指飞行昆虫,例如蚊子,但是,本发明的实施例也可以用于定位其他害虫。
在下面的描述中,将描述本发明的各个方面。为了说明的目的,阐述了特定的配置和细节以便提供对本发明的透彻理解。然而,对于本领域技术人员而言,显然可以在没有本文所呈现的具体细节的情况下实践本发明。此外,可以省略或简化众所周知的特征,以免模糊本发明。
除非另有特别说明,从下面的讨论中可以明显看出,在整个说明书讨论中,使用诸如“分析”、“处理”、“计算”、“算出”、“确定”、“检测”、“识别”、“估计”、“理解”等术语,是指计算机或计算系统或类似的电子计算设备的以下行动和/或过程:将表示为计算系统的寄存器和/或存储器中的诸如电子量之类的物理量的数据操纵和/或转换为类似地表示为计算系统的存储器、寄存器或其他此类信息存储、传输或显示设备中的物理量的其他数据。
在图1A中示意性示出的实施例中,用于对昆虫进行检测和定位的系统100包括相机103,以获取空间的图像,例如房间104或房间104的一部分的图像。昆虫105(例如一个或更多个蚊子)可能在房间104中。
包括图像传感器和合适的光学器件的相机103与处理器102通信。处理器102接收由相机103所获取的房间或房间104的一部分的图像,并在房间的图像中检测昆虫105的位置。基于昆虫105在图像中的位置,处理器102生成信号以使得能够创建人眼可见的位置指示符,以指示昆虫105在房间104中的位置。
处理器102可以基于空间的图像来确定昆虫105在空间(例如房间104)中的位置,并且可以控制投射器设备对光源进行引导以在空间中昆虫的位置的附近创建人眼可见的指示。
在图1A所示的示例中,位置指示符是昆虫104在房间104中的位置处的视觉标记115。在一个实施例中,视觉标记115是通过投射器108创建的,该投射器108将激光或其他束投射到房间104中昆虫105的附近,从而在房间中昆虫的位置的附近形成视觉标记115。
系统100的一些或全部部件附接至壳体101或封闭在壳体101内。因此,例如,相机103和处理器102都可以包括在单个壳体101内。在其他实施例中,系统的一些组件(例如,处理器102)是远程定位的。
壳体101可以由实用且安全使用的材料制成,例如塑料和/或金属,该壳体101可以包括一个或更多个枢转元件,例如铰链、可旋转接头或球形接头,以允许壳体101进行各种移动。例如,壳体101可以安置在房间104中的一个位置处,但是可以通过旋转和/或倾斜壳体101而使封装在壳体101中的相机103具有数个视场(FOV)。然而,壳体101通常为相机103提供稳定性,使得相机在获取图像时不移动。
在一些实施例中,相机103放置成使得其焦平面平行于房间104中的表面。例如,房间中的表面可以包括房间的地板或天花板,或房间中家具的壁或表面等。
在一个实施例中,处理器102对在房间表面上(例如,在墙壁、天花板、房间内家具的表面等上)的图像中的昆虫105的位置进行检测,并生成信号以使得能够在昆虫105在表面上的位置处创建视觉标记115。
在一些实施例中,处理器102在房间的图像中检测到静止的(例如,不飞行的)昆虫,并且将视觉标记115形成或引导至静止的昆虫的位置。
在一些实施例中,处理器102检测到降落的昆虫,例如,处理器检测到昆虫飞行并且随后安定下来。然后,处理器102在昆虫降落之后(例如在安定下来之后)检测昆虫的位置,并且将视觉标记115形成或引导至昆虫降落之后的位置。
相机103可以包括图像传感器,例如,诸如CCD或CMOS芯片之类的合适芯片,并且可以是2D或3D相机。相机103可以包括透镜和/或其他光学器件,以使得能够获取房间(或房间的一部分)104的图像。
在一些实施例中,相机103包括红外(IR)敏感传感器和/或可以包括透镜和/或滤波器,以过滤出其他波长以消除噪声,以使得能够在特定照明条件下获取房间104的图像。例如,系统100可以包括IR照明源106。IR照明源106可以包括在约750nm至950nm范围内发射的LED或其他照明源。在一示例中,照明源106在约850nm处进行照明。IR照明源106通过提供以下照明使得即使在黑暗房间中也能够使用系统100:该照明对人眼不可见和/或不具刺激性,但是使得相机103能够获取黑暗房间的有意义的图像。
处理器102可以包括例如一个或更多个处理器,并且可以是中央处理单元(CPU)、数字信号处理器(DSP)、微处理器、控制器、芯片、微芯片、集成电路(IC)或任何其他合适的多用途或特定处理器或控制器。
在一些实施例中,系统100可以包括警报设备,例如,声音发射设备和/或光源,例如专用LED,并且处理器102可以基于对昆虫的位置的检测来生成警报信号,例如引起声音或光发射。
在一些实施例中,处理器102与一个或更多个存储器单元112通信。一个或更多个存储器单元112可以包括,例如,随机存取存储器(RAM)、动态RAM(DRAM)、闪存、易失性存储器、非易失性存储器、高速缓冲存储器、缓冲器、短期存储器单元、长期存储器单元或其他适当的存储器单元或存储单元。
系统100的部件可以例如经由合适的网络集线器,或者经由适当的线缆或诸如USB之类的合适端口彼此无线地连接。
根据一些实施例,由相机103获取的图像中的至少一些图像存储在存储器112中。存储器112可以进一步存储可执行指令,该可执行指令在由处理器102执行时有助于本文所述的方法。
图1B中示意性地示出了方法的一个示例,该方法的一些步骤由处理器102执行。该用于在封闭空间中对昆虫进行检测和定位的方法包括以下步骤:获取空间(例如房间104)的图像(1001),以及在图像中对昆虫的位置进行检测(1003)。将昆虫在图像中的位置转换为真实世界坐标(1005),以及创建位置指示符以指示真实世界坐标(1007)。
在一些实施例中,一旦检测到昆虫的位置,就生成信号来通知用户。该信号可以发送(例如,经由蓝牙、无线电等)至用户的移动设备(诸如用户的移动电话或专用设备)。
在一个实施例中,该方法包括在空间的图像中对静止昆虫进行检测(例如,不飞行和/或不改变在空间中的位置的昆虫)以及对静止昆虫的位置进行检测。创建位置指示符以指示静止昆虫的真实世界坐标。
在另一个实施例中,该方法包括在空间的图像中对降落的昆虫进行检测以及对昆虫在降落之后的位置进行检测。创建位置指示符以指示昆虫在降落之后的真实世界坐标。
在一个实施例中,该方法包括将位置指示符(例如,人眼可见的光束,诸如可见光激光束)投射到空间中的真实世界坐标的位置(1009),以便在空间中的位置处创建可见标记。例如,如果在空间中的表面上的某个位置处检测到昆虫(例如,静止的昆虫和/或降落后的昆虫),则将光束引导在该表面上的该位置处,从而使在表面上的光圈(或其他形状)来标记昆虫的位置。
例如,如果获取图像的相机的焦平面平行于空间中的昆虫所在的表面,则可以通过使用投影几何将昆虫在图像中的位置转换为真实世界坐标(步骤1005)。
在另一个实施例中,可以对包括成像仪(例如,相机103)和投射器(例如,投射器108)的系统进行预校准。例如,投射器可以非常接近于相机放置(例如,参见下面参照图3描述的距离D)。在校准期间,相机可见的射线可以从投射器投射到空间内的若干位置,并可以由相机在那些位置处进行成像。这样,通过使用插值,可以将图像中的每个位置(例如,每个像素或像素的组)实时关联到空间中的x、y坐标,从而基于图像中检测到的位置将投射器引导到空间中的位置。替代性地或附加地,使用相机可见的射线可以实现基于可见的指示实时地校正投射器的方向。
在一个实施例中,投射器包括一个或更多个转子,以能够以不同角度投射位置指示符。在这种情况下,可以基于预校准将图像中的每个位置与转子的α、β坐标相关联。
在一个示例中,转子可以包括步进马达,使得对于每一步长而言角度的变化是已知的。可以使用一个或更多个物理止挡件,使得转子在其运动极限处的角度是已知的。对于已知的相机的光学器件,每个像素都可以与已知的角度相关联。因此,可以计算出以每个角度引导转子所需的步长个数。由于投射器通常不在与相机相同的位置,因此计算可能需要调整投射器与相机之间的距离。
可以使用其他方法将昆虫在图像中的位置转换为真实世界位置。
在图2A中示意性示出的另一实施例中,系统200例如如本文所述的检测昆虫,并创建位置指示符,该位置指示符在房间的图像中可见。在该实施例中,处理器202在房间的图像223中对昆虫205进行定位,并生成信号以在图像223中在昆虫的位置处创建位置指示符225。在一个示例中,房间的图像223与位置指示符225一起显示,位置指示符225可以是叠加在图像223上的图标或其他图形指示。
在图2B中示出了房间的图像223的一个示例。包括房间的一部分的图像223示出了房间的昆虫所在的表面,即房间的天花板226。位置指示符225叠加在图像223上,以向观看图像223的用户指示昆虫在天花板226上的位置。
在一个实施例中,由相机203获取的图像可以本地存储(例如,在存储器单元212中)和/或远程存储(例如,图像可以通过因特网或通过使用另一合适的无线通信被传输到远程存储装置,例如,在云上)。然后可以检索图像并将图像显示在设备209上,例如个人和/或移动设备(例如,智能手机、平板电脑等)或专用的、通常地是移动设备上。
在一个实施例中,房间的图像223是房间的实时图像,并且位置指示符225叠加在其中检测到昆虫205的位置的同一图像上。
在一些实施例中,操纵房间的图像223,使得某些细节(例如个人、私人和/或机密信息)被遮盖或从图像中去除。因此,可以在不损害隐私和/或机密性的情况下显示实时图像(在其中检测到昆虫205的相同图像)。可以通过处理器202或通过不同的处理器(例如,设备209中的处理器)来操纵图像223以保护隐私和/或机密性。
在另一个实施例中,通过相机203获取房间的图像集。在获取图像集的同时不移动或重新放置相机203,以使得所有图像捕获相同的视野。第一图像可以仅是房间204的图像,没有居住者,而房间204的第二图像可以是其中检测到昆虫205的房间的实时图像(可能有居住者)。在一些实施例中,为了保护居住者的隐私,仅将第一图像发送到设备209以进行显示,并且将在第二图像中的昆虫205的位置指示并显示在第一图像上,第一图像是正在向用户显示的图像。
在一些实施例中,第一图像(通常不包括个人信息)可以是用户从房间的图像集中选择的图像。在其他实施例中,第一图像可以是房间的经修改或操纵的图像,其中通过修改图像中的个人信息而掩盖了个人信息。
在一些实施例中,第一图像可以是代表性图像,其使用户能够理解被成像的空间的布局,但是不一定是该空间的真实图像。例如,可以从通常由相机203所获取的空间的若干图像的组合来创建代表性图像。例如,代表性图像可以是来自空间的图像集的若干图像的平均值。在另一个示例中,代表性图像可以包括空间的图形表示,但是不包括空间的实际成像的分量。除了在保护个人信息方面有用之外,使用平均图像(或其他代表性图像)作为第一图像,在相机(例如,相机203)重新放置在图像之间的情况下可能是有用的,以使图像并非全部是恰好相同的视野。
在一个实施例中,由处理器202执行的用于对昆虫进行检测和定位的方法包括在空间的图像上视觉地标记昆虫在空间中的位置。在图2C中示意性示出的一种示例性方法包括获取空间的第一图像(2001)以及存储第一图像(2003)。通常,第一图像包括没有居住者的空间和/或其中个人信息被遮盖的空间。
获取该空间的第二图像(2005)。第二图像具有与第一图像大约相同的视野,但是第二图像是在比第一图像晚的时间获取的。第二图像包括空间中的昆虫。确定昆虫在第二图像中的位置(2007),以及创建位置指示符(例如,图形标记)以在空间的图像中标记该位置(2009)。
在一个实施例中,位置指示符在检测到昆虫的同一图像上标记位置。在其他实施例中,位置指示符在房间的不同图像上标记位置。房间的不同图像可以是在较早的时间所捕获的图像,例如,房间的第一图像。
在一些实施例中,该方法包括:接受来自用户的输入并基于来自用户的输入来确定将哪个图像用作第一图像(即,将哪个图像与位置指示符一起显示)。因此,用户可以选择要发送到存储装置和/或显示器的图像,该图像不包括用户认为是个人或私人的信息。
在其它或附加实施例中,该方法包括以下步骤:创建空间的代表性图像(例如,平均图像)并使用该代表性图像作为第一图像。
在一些实施例中,从存储装置中检索第一图像并(例如,在用户的个人移动设备上或在专用设备上)将其显示给用户,其中,位置指示符在与第二图像中相同的位置处叠加在第一图像上(2011)。
因此,例如,可以在空间的具有相同视场(或大约相同视场)的所有图像上使用网格,以便可以将昆虫在一个图像中的位置赋予网格的x、y坐标,其在相同视场的所有其他图像中是相同的x、y坐标。
如上所述,并且如在图3中进一步举例说明,可以通过处理器302控制投射器308以将位置指示符投射或引导到昆虫在真实世界空间例如房间104中的位置。
在一个实施例中,投射器308和相机303非常接近地布置在壳体301内。投射器308包括指示符源,例如光源(诸如激光器316),以及指示符引导设备312,例如光学系统,该指示符引导设备312包括透镜和/或镜子或其他光学部件,用于以期望的方向或角度将来自光源的光进行引导。在一个实施例中,指示符引导设备312包括旋转的光学元件,诸如布置成绕单个轴枢转的承载镜子的万向架。可以使用两个或三个此类万向架的集合,其中一个万向架安装在具有正交枢转轴的其他的万向架上,以允许激光器316的光以任何期望的俯仰、侧倾和横摆被引导。
基于在由相机303获取的图像中检测到的昆虫305的位置,处理器302控制指示符引导设备312,使得指示符装置(例如激光器316)被引导到昆虫的真实世界位置。例如,对指示符引导设备312的万向架的偏转和俯仰的控制使得能够将指示符装置(例如激光器316)被引导到真实世界的位置。
通常,相机303定位在距投射器308(或距投射器的部件,例如激光其和/或指示符引导设备)的最小距离D处,以能够使指示符装置精确瞄准。在一示例中,相机303和激光器316或指示符引导设备312定位成彼此相距小于20cm。在另一个示例中,相机303和激光器316或指示符引导设备312定位成彼此相距小于10cm。
激光器316可以包括可见光,使得由激光器在检测到的昆虫的位置处创建的标记是可见的,并且可以由相机303进行成像并显示给用户,例如显示在设备209上。因此,在一个实施例中,用户可以接收房间的图像,该图像具有由激光器316创建的在房间的图像中的昆虫的位置的视觉指示。
在一个实施例中,投射器308配置成消除昆虫305或使其丧失能力。例如,激光器316可以是具有足够高的功率的UV或IR或其他光,使得当指向房间中的表面上的昆虫305或静止的昆虫或降落后的昆虫时,激光器316可使昆虫失去305能力和/或杀死昆虫305。
在一些实施例中,投射器308包括指示符源,例如,光源(诸如激光器316),以及由处理器控制的指示符引导设备312,该投射器308可用于害虫防治以外的领域。例如,投射器308可用于产生视觉效果,例如动画。例如,投射器308可以是玩具的一部分。在一些实施例中,对该引导设备进行控制的处理器接收来自图像传感器的输入和/或基于图像处理的输入,并且可以在虚拟现实游戏或其他应用中使用。
在另一个实施例中,投射器308可用作引导设备,例如,将用户引导到封闭或其他空间中的特定点。一些例子包括:
-将保安队引导到由安全相机所识别的位置;
-将用户引导到大空间(例如档案馆、商店或仓库)中的期望位置;
-将施工或维护人员引导到检测到问题的特定站点(可能是通过图像处理检测到问题);和
-基于图像处理来操作激光切割机。
本发明的一些实施例提供用于对昆虫进行处理的设备,例如消除昆虫或使昆虫丧失能力。这种设备还可以包括诸如附加相机和/或照明源的仪器,以帮助确认昆虫,例如,确认图像中昆虫的存在和/或类型。通常可移动的设备被控制成接近诸如封闭空间之类的空间中的昆虫的位置,以在近距离处对昆虫进行处理,从而限制了可能对周围空间有害的影响。
下面描述的用于对昆虫进行处理的设备的一些示例是由根据本发明的实施例的由用于对昆虫进行定位的系统来控制的设备,但是,在一些实施例中,用于对昆虫进行处理的设备可以由其他系统控制。
根据本发明的实施例,如上所述的系统在一些实施例中可以包括与本文描述的系统一起使用的辅助设备,以消除和/或以其他方式处理在图像中检测到的昆虫。
在图4A和图4B中示意性地示出的示例性实施例中,用于对房间中昆虫的位置进行检测的系统包括壳体401,该壳体401包封用于获取空间(例如房屋中的房间、办公空间和其他公共或私人室内空间)的图像的相机403。例如,如上所述的相机403与处理器402和存储器412通信。该系统还包括与处理器402通信的辅助设备。
在图4A中,辅助设备是独立移动设备415,其可用于消除昆虫或用于其他目的,例如去除、捕获或分析昆虫,如图5进一步所述。
图4A中描述的系统还可以包括通常在壳体401上的端口413,例如用于为独立移动设备415提供动力和/或对独立移动设备415进行加载的扩展坞或其他终端。
在一个实施例中,独立移动设备415是飞行设备,诸如无人机。
处理器402可以远程地控制独立移动设备415。例如,独立移动设备415可以与处理器402进行无线通信(例如,经由蓝牙、无线电等)。
在图4A中示意性地示出的系统包括:用于获取空间的图像的相机403,以及,可以与相机403分开移动的移动设备415。处理器402可以在由相机403获取的空间的图像中的至少一个图像中对昆虫进行检测,并且可以基于对空间的图像的分析来控制设备415移动到昆虫的附近。
在一个实施例中,处理器402基于对在单个帧内具有昆虫和移动设备415的空间的图像的分析,控制移动设备415移动到昆虫的附近。处理器402可以控制移动设备415以从相机403沿昆虫的方向的直接路径移动,其中可以根据昆虫的图像在帧内的位置来估计到昆虫的方向。一旦昆虫和移动设备415在同一帧内,处理器402就进一步控制移动设备415的移动,使得在引导移动设备415远离相机并朝向昆虫的同时,使移动设备415保持在图像中昆虫的附近。例如,处理器402可以周期性地确定移动设备415与帧中的昆虫的角距离,处理器402可以使用帧中两个对象之间的距离(以像素为单位)来估计该角距离。如果确定的角距离大于预确定的值,则处理器402可以计算使移动设备415移动所需的距离和方向,以便使其在与昆虫相距的预确定的角距离内,并且可以致使移动设备415在所计算的方向上移动所计算的距离。
该过程可以重复,直到移动设备415在距昆虫的预确定的距离内,例如消除距离之内。例如,消除距离可以是设备能够有效地处理昆虫的距离,例如,可以将杀虫剂有效地喷洒到昆虫上的距离。一旦达到预确定的距离(例如,消除距离),就可以例如通过使用化学、机械或电气方法来对设备415和/或构件426进行控制以消除昆虫。
因此,处理器402从相机403估计昆虫的方向,并控制设备大致在该方向上移动。
在一个实施例中,可以通过利用移动设备415上的用于获取昆虫的图像的附加相机来确定是否达到消除距离。可以分析昆虫的图像(例如,通过对昆虫在图像中的尺寸与来自期望距离的该类型昆虫的预期尺寸进行比较)。在另一个实施例中,处理器(例如,处理器402或可以附接到移动设备415的另一个处理器)可以与测距仪或类似系统(可以附接到移动设备415或在系统内的另一位置处)通信,以基于测距仪的输入确定是否达到消除距离。在另一个实施例中,确定是否达到消除距离可以通过以下操作来完成:移动设备415在已知方向上发射光(例如,使用激光笔或其他投射器)来获取光点并分析来自相机403的图像中该光点的位置(例如,由激光笔创建的在墙壁或天花板上的点)。移动设备415相对于相机403的位置是已知的(如本文所述)。因此,从移动设备415到光点的位置的角度是已知的。可以通过检测图像中光点的像素(或像素组)来计算从相机403到该光点的位置的角度。可以对到光点的距离进行三角测量,由此可以估算出移动设备415距昆虫的距离,因为昆虫通常与光点在同一表面上。
在一些实施例中,移动设备415可以包括投射器,以将能量形式的束投射到昆虫的附近来创建光点和/或处理昆虫。附加地,移动设备415可以包括附加的相机(例如,图5中的相机503)。可以使用移动设备415的附加相机和/或投射器来计算移动设备415与昆虫的方向和/或距离(例如,如上所述)。
一旦在预确定的距离之内,移动设备415可以使用可能从该设备可延伸到昆虫的附近的构件,例如用来处理昆虫,如下所述。
在图4B中,辅助设备在附接点411处附接至壳体401,并且可以经由附接点411与壳体401内的电源和/或储存装置通信。辅助设备可以包括处理工具,例如可移动且通常可延伸的构件426,例如伸缩臂。如下所述,构件426可以由处理器402控制以从壳体401延伸并移动到昆虫的位置,以在该位置处对昆虫进行处理,例如捕获或杀死昆虫。
在一些实施例中,构件426是例如由通常为折叠或盘绕形式的形状记忆材料制成的可伸缩和/或可变形的臂或弹簧,并且可以根据来自处理器402的信号来延伸和移动以在昆虫的位置处与昆虫相互作用。
对昆虫进行处理可以包括使用机械和/或化学方法。在某些情况下,机械和化学手段或方法都可以用来处理昆虫。
在一些实施例中,构件426用作用于对昆虫进行处理的器械或试剂的导管。例如,构件426可以包括容纳化学物质(例如,以气体,液体或粉末的形式)的腔或可以与该腔连通,该化学物质可以从相对近的距离喷洒或滴落到昆虫上,从而限制了化学物质对昆虫本身的影响并且不影响周围的空间。在一个示例中,腔室可以包含杀虫剂。在另一示例中,该腔可以包括诸如香茅油之类的驱虫剂,香茅油为基于植物的驱虫剂。
在一些实施例中,壳体401包括化学物质的储存装置。在其它实施例中,壳体401储存了化学物质的胶囊(或其他容器),其可以装载到构件426中。
在一个实施例中,构件426可以包括附接到构件426的远端427的喷嘴。可以将承载有喷嘴的构件426引导到昆虫的位置,并且可以经由喷嘴将化学物质的脉冲或喷雾(例如,如上所述)指向近距离处的昆虫。
在一个实施例中,构件426可包括抽吸腔或可与抽吸腔连通以吸入和捕获(和/或杀死)昆虫。
在另一个实施例中,构件426可以包括通电元件,通过该通电元件来电击昆虫。在另一个实施例中,构件426可以包括粘附元件,通过该粘附元件捕获(和/或杀死)昆虫。
可以经由构件426采用其他电气的和/或机械的和/或化学的解决方案。
构件426不具有人类或其他掠食者的特征,因此通常不会被昆虫(例如蚊子)识别为人类或掠食者,并且因而可以接近昆虫并进入昆虫的近距离之内而不会将其吓跑。
在一些实施例中,辅助设备可以包括例如投射器(例如,除了投射器108之外的其他辅助设备),以将对昆虫有害或致命的任何形式的能量的束投射到昆虫的位置。在一些实施例中,单个投射器(例如,投射器108)可以用于指示昆虫的位置并将束投射以对昆虫进行处理(例如,使昆虫丧失能力)。因此,可以通过由处理器102生成的信号来控制投射器,以将诸如光、热等能量形式的束投射到昆虫的位置,以处理昆虫。
在一些实施例中,使用诸如卷积神经网络之类的神经网络或其他计算机视觉软件和算法来根据位置的图像或多个图像来检测和识别昆虫的细节。例如,形状和/或运动和/或颜色检测算法可以用于确定昆虫的形状和/或颜色和/或运动模式和/或其他细节。运动模式可以包括例如运动的方向、运动的尺寸、运动的速度等。昆虫的这些细节可用于确定正在被成像的昆虫的类型,和/或在不同的昆虫之间和/或在昆虫与非昆虫对象之间进行区分,例如灰尘颗粒或其他可能被成像的噪声。
在一些实施例中,处理器102基于对昆虫类型的确定来控制辅助设备。例如,仅当昆虫是特定类型的昆虫时,才可以控制投射器处理昆虫。
在其他实施例中,辅助设备可以包括例如用于增强在昆虫的位置处的房间的图像的工具。例如,系统(例如100)可以包括具有光学器件的相机(例如,除了相机103之外的其他光学器件),以使得能够增强昆虫的位置,例如,基于该位置的放大图像来确认该位置处的昆虫的存在和/或类型。
在一个实施例中,可以使用长焦透镜(例如,远摄透镜)来放大昆虫的位置,以能够更详细和更聚焦地看到昆虫的形状或其他细节。
在一个实施例中,一旦相机103检测到可疑昆虫的位置,就可以将附加相机引导和/或移动到可疑昆虫的位置,例如,用于确认昆虫的存在和/或类型。在一个实施例中,具有长焦透镜(或其他放大光学器件)的相机可以附接到指示符引导设备312(例如万向架)或位于指示符引导设备312(例如万向架)上,使得放大光学器件可以平行于指示符引导设备移动,从而将光学器件自动指向可疑昆虫的位置处。
在一个实施例中,差异分析可以用于确认可疑昆虫和/或检测昆虫。例如,可以以低分辨率对区域进行扫描以检测可疑昆虫,然后可以以高分辨率分析可疑昆虫的区域,例如,用于确认昆虫的存在和/或类型。使用图像的差异分析能够减少处理,从而提供具有成本效益的解决方案。
因此,在一个实施例中,相机103可以获取房间的宽FOV图像,并且辅助设备(诸如能够进行放大的附加相机)获取房间的一部分的详细图像。处理器102可以在房间的宽FOV图像中对可疑昆虫的位置进行检测,将附加相机引导至可疑昆虫的位置(例如,通过控制万向架的移动)并在房间的该部分的详细图像(可疑昆虫的位置)中确认昆虫(例如,确认昆虫的存在和/或类型)。
在一个实施例中,用于对昆虫进行处理的系统,例如系统100,可以包括辅助照明源,以允许对可疑昆虫的位置进行更高分辨率的成像并协助确认昆虫。可选地,可以使用照明源,该照明源也可以附接到万向架,使得照明源平行于指示符引导设备移动,例如,用于获取更明亮的图像。照明源可以具有相对短的波长(例如,蓝光),以便减小衍射极限并允许对可疑昆虫进行更高分辨率的成像。在一些实施例中,照明源和位置指示符装置是相同的元件。
一旦确认可疑昆虫,处理器102就可以控制投射器108以指示已确认的昆虫的位置,并且可能控制另一辅助设备以消除或以其他方式处理已确认的昆虫。
使用诸如附加相机和/或附加照明源之类的辅助设备使得能够经由光学器件和/或照明获取增强的图像,并且更少地依赖于功耗计算机视觉算法。因此,不那么强大的CPU可以与相机103一起使用,从而提供具有成本效益的解决方案。
在一些实施例中,单个相机(例如,相机103)可以用于提供图像,从该图像中对昆虫或可疑昆虫的位置进行检测,并放大或以其他方式增强检测位置处的图像。例如,一个光学元件可用于对大区域(例如,房间)成像,而另一光学元件可用于对大区域内的小区域(例如,房间内的检测位置)成像。可替代地或附加地,可以使用差异分析来局部增强大区域的图像内的区,例如,用于帮助识别昆虫。可以通过处理器102来控制用于增强昆虫的位置处的房间的图像的工具。
在图4C中示意性地示出的一个实施例中,方法的一些步骤可以由处理器402来执行以消除昆虫、使昆虫丧失能力或以其他方式处理昆虫,该方法包括获取空间的图像(4001)和在图像中对昆虫的位置进行检测(4003)。将昆虫在图像中的位置转换为真实世界坐标(4005)。处理器402(或另一处理器)然后基于真实世界坐标来控制辅助设备(例如独立移动设备415或构件426)。例如,辅助设备可以被引导到真实世界坐标(4007)。
在一些实施例中,如果确定没有其他可能受该辅助设备的动作伤害的易感对象,则辅助设备仅用于消除昆虫或以其他方式对昆虫进行处理。易感对象可能包括,例如,活物(例如,人类、宠物等)和/或其他对象或材料,例如纸张或织物、或包括那种可能会受辅助设备动作伤害的材料的对象。
因此,用于消除昆虫的方法可以包括以下步骤:确定昆虫位置的附近是否存在活物(或可能受辅助设备的动作伤害的对象或材料),以及仅当在昆虫的附近未检测到活物(或对象或材料)时,才将辅助设备指向在步骤(4005)中检测到的真实世界坐标。可以例如通过确定空间中的运动来确定在昆虫位置的附近存在活物。超过预确定尺寸的运动可能指示该空间中有人或其他活物。在一个实施例中,通过检测空间的图像中随时间的变化来确定运动或运动的尺寸。
在其他实施例中,可以通过使用计算机视觉技术来确定空间中存在人或其他活物(或特定对象或材料),例如,以从图像(例如,由相机103或附加相机获取的图像)中检测人或对象或材料的形状、颜色或其他属性。
因此,在一些实施例中,用于消除房间中昆虫的系统包括用于获取房间的图像的相机和用于在房间的图像中对昆虫的位置进行检测的处理器。例如,处理器从房间的图像中检测降落后的昆虫和/或空间中表面上的昆虫。然后,处理器可以将昆虫(例如,降落后的昆虫)在图像中的位置转换为真实世界坐标,以及基于真实世界坐标来控制辅助设备以消除或以其他方式对昆虫进行处理。
可替代地或附加地,处理器可以确定昆虫的附近是否存在人(或其他活物)或特定易感对象或材料,以及可基于该确定来控制辅助设备消除或以其他方式对昆虫进行处理。
可替代地或附加地,处理器可以确认该位置处的昆虫的存在和/或类型,以及可以基于对该位置处的昆虫的存在和/或类型的确认来控制辅助设备消除或以其他方式对昆虫进行处理。在一个示例中,处理器可以控制相机或附加相机以获取昆虫的放大或更详细图像,以确认该位置处昆虫的存在和/或类型。
可以经由无线通信来对辅助设备进行的控制可以是,例如,控制辅助设备的推进机构和/或控制辅助设备的处理工具。
图5中示意性地示出了可独立移动的辅助设备的一个示例。
在一个实施例中,设备515是飞行设备(例如,无人机),其包括推进机构525以在无需协助的情况下移动设备以及昆虫处理工具526,或者,可替代地或附加地,包括配置成可释放地接纳处理工具并将处理工具固定到设备515的附接点。
处理工具526可以应用机械和/或化学和/或电气方法来处理昆虫。在一些实施例中,处理工具526应用机械和化学手段或方法来处理昆虫。
在一个实施例中,处理工具526可以包括抽吸腔以吸入和捕获(和/或杀死)昆虫。在另一个实施例中,处理工具526可以包括通电元件,通过该通电元件电击昆虫。在另一个实施例中,处理工具526可以包括粘附元件,通过该粘附元件来捕获(和/或杀死)昆虫。处理工具526可以采用其他电气和/或机械解决方案。
在一个实施例中,处理工具526可以包括例如由在设备515运输时可以呈折叠或盘绕形式的形状记忆材料制成的伸缩臂或可变形臂或弹簧,并且处理工具526可以根据来自处理器402的信号延伸以与昆虫相互作用。
在另一个实施例中,处理工具526可以包括含有化学物质(例如,如上所述)的腔,该化学物质可以从相对近的距离喷洒或滴落到昆虫上,从而限制了化学物质对昆虫本身有影响并且不影响周围的空间。
在一些实施例中,端口413包括化学物质的储存装置,以使设备515能够对接在该端口处,用化学物质对处理工具526进行再充注和存料。在其他实施例中,端口413存储化学物质的胶囊(或其他容器)。当设备515在端口413处对接时,可以将胶囊装载到处理工具526中。胶囊在耗尽之前可以持续处理昆虫的若干事件,并且在耗尽时可以在端口413处更换。
在一些实施例中,设备515可以包括不同处理工具的组合,并且可以使用用于对昆虫进行处理的方法(例如,化学的和/或机械的方法)的组合。
设备515不具有人类或其他掠食者的特征,因此通常不会被昆虫(例如蚊子)识别为人类或掠食者,并且因而可以接近昆虫并进入昆虫的近距离之内而不会将其吓跑。
在图5中的示例中,设备515是空中无人机,推进机构525包括适合于空中飞行的螺旋桨机构。不同类型的独立移动设备可以具有不同类型的推进机构,或多种类型的推进机构。例如,地面无人机可以具有包括马达、传动装置和轮子的推进机构。
设备515通常包括与处理器(例如,处理器402)通信的控制电路(未示出),并且配置成接收关于昆虫位置的输入。
在一些实施例中,设备515(和/或构件426)还可以包括一个或更多个传感器,例如图像传感器(例如,相机503)和/或距离传感器(例如,测距仪)。
在一个实施例中,对装置515(和/或构件426)进行控制以处理静止的昆虫或在降落后的昆虫(例如,在空间中的表面上的昆虫)。设备515或构件426基于检测到的静止昆虫的位置从处理器402接收方向信息(例如,向量),并根据接收到的信息被推进。设备515(或构件426)中的距离传感器可以检测设备515(或构件426)距昆虫(和/或与表面)的距离,并在与昆虫相距的预确定的距离处停止推进。
在一个实施例中,设备515(和/或构件426)可以包括信号源(例如光源或音频发射器)以发射可以由处理器402接收和分析的信号,并且该信号可以用于估计或计算设备515或构件426距昆虫(和/或距表面)的距离。例如,设备515可以包括用于将可见标记投射到昆虫的附近的投射器。处理器402然后可以基于所计算的距离来控制设备515(例如,控制处理工具526)或构件426。
在一些实施例中,附接到壳体401上或在壳体401内的专用图像传感器可以用于捕获昆虫的图像(以及可能捕获从设备515的投射器投射的可见标记),该图像可以用于将设备515或构件426引导到昆虫。视觉标记可以从由相机403或由专用相机和设备515或部件426所获取的图像中检测到,并且因此可以被引导到所成像的视觉标记的位置。
根据本发明的实施例,使用由处理器基于图像中昆虫的位置来控制的设备和/或可延伸构件,使得能够进行精确且环境友好的动作,以去除或消除诸如飞虫之类的害虫。
如上所述,本发明的实施例可以将昆虫与噪声(例如,图像传感器上的电子噪声和/或环境噪声(例如,空间中的灰尘颗粒、环境照明的变化、反射等))区分开。附加地,可以将特定昆虫类型(例如,蚊子)与其他昆虫类型(例如,苍蝇)区分开。
在一个实施例中,提供了一种用于从空间的图像中区分目标昆虫和非目标昆虫对象的方法。例如,目标昆虫可以是昆虫,而不是非昆虫对象(例如,噪声或其他对象)和/或特定类型的昆虫,而不是不同类型的昆虫。
该方法可由诸如系统100的系统执行,包括使用多个图像来确定图像中的对象是否是目标昆虫。
在一个实施例中,处理器102可以通过比较空间的两个(或更多个)图像来检测对象,以及可以基于所述空间的图像中对象的特征来确定对象是目标昆虫。在一些实施例中,如果对象满足预确定的标准,则对对象进行检测。
在一个实施例中,相机103可以捕获图像(也被称为“当前图像”),可期望从该图像中确定空间中是否存在昆虫。处理器102可以通过从空间的不同的第二图像中减去空间的当前图像来获取减影图像。减影图像突出示出空间中的变化,因为图像之间没有变化(例如,没有移动或没有改变位置)的对象通常不会显示在减影图像中。
处理器102可以在减影图像中对具有预确定的标准的对象进行检测,并确定该对象是目标昆虫。
如上所述,可以基于对象是目标昆虫的确定来控制设备。
在本发明的一个实施例中,比较空间的两个或更多个图像,以便检测满足预确定的标准的对象。例如,可以对当前图像与先前所捕获的第二图像进行比较,以对存在于当前图像中但不存在于先前图像中的对象进行检测。在一些实施例中,第二图像可以包括该空间的多个图像的表示。例如,第二图像可以是该空间的多个图像的平均(或其他合适的统计表示)。在另一示例中,第二图像可包括以下背景图像:该背景图像是通过理解空间的图像中的恒定和临时元素并构建恒定元素(例如,墙壁和家具,但不包括人和宠物)的图像,使用随时间变化所捕获的空间的图像来构建的。
在图6中示意性地示出了该实施例的一个示例。获取空间的两个图像(步骤602)。在一个示例中,通过减法来比较图像,例如,从空间的另一图像中减去当前图像以获取减影图像(步骤604)。
在步骤606中,在减影图像中对满足预确定的标准的对象进行检测。预确定的标准可以涉及该对象的一个或更多个特征。例如,该对象的特征可以包括减影图像中的对象的尺寸、形状、位置、在减影图像中的对象的颜色、透明度以及其他此类属性。因此,预确定的标准可以是例如尺寸范围(例如,以像素为单位)、特定形状(例如,如由应用于减影图像的形状检测算法所确定)、对象在减影图像内的特定位置或位置范围、特定颜色(例如,如通过在减影图像上应用颜色检测算法来确定)等。
处理器102确定满足预确定的标准的对象是否是目标昆虫。例如,可以确定对象的一个或更多个特征(例如,运动模式、形状、颜色或透明度),并且可以基于所确定的特征将对象确定为目标昆虫。例如,蚊子比其他一些普通昆虫更透明并且颜色更浅,因此,在目标昆虫是蚊子的一个示例中,如果与对象相关联的像素的颜色是蚊子的典型颜色,则对象将被确定为蚊子。在另一个实施例中,如果确定对象具有一定水平的透明度或具有预确定图案的透明区域,则可以将该对象确定为蚊子。例如,可以基于空间中背景的已知颜色来确定对象的透明度。如果确定对象具有背景的颜色(例如,如果背景颜色不是目标昆虫的典型颜色),则可以确定该对象是部分透明的。在另一个示例中,不同的昆虫具有不同的形状,因此可以基于目标昆虫在减影图像中的形状来确定该目标昆虫。
在一些实施例中,可以从多个图像中对对象进行检测,而从单个图像中检测对象是否满足预确定的标准并确定该对象是目标昆虫。在一个实施例中,对象的相同特征可以用于在第一图像中对满足预确定的标准的对象进行检测,以及在同一图像中或在第二图像中确定对象是目标昆虫。在其他实施例中,使用不同的特征以在第一图像中对满足预确定的标准的对象进行检测,以及在同一图像中或在第二图像中确定对象是目标昆虫。
例如,减影图像可以包括若干对象,但是仅有两个对象在预确定的尺寸范围内。因此,在减影图像中检测到两个对象。除了尺寸之外,可以为两个对象确定一个或更多个特征,例如,可以确定两个对象的颜色和/或透明度和/或运动模式,以及可以基于两个对象的颜色和/或透明度和/或运动模式来确定两个对象是否是目标昆虫。
在一些实施例中,可以获取对象的高分辨率图像,并且基于高分辨率图像可以确定对象是目标昆虫。例如,可以在第一图像中,例如,在减影图像中,可能基于对象的尺寸或其他特征来对对象进行检测,然后可以根据比第一图像分辨率更高的第二图像来确定对象是目标昆虫(或不是目标昆虫)。
在一些实施例中,诸如颜色和/或运动等的特征可以在空间上相关。例如,如果彼此接近的若干像素具有指示目标昆虫的特征,则在确定目标昆虫的存在时,这些像素可以被赋予比具有相同特征但没有紧密分组的若干像素更多的权重。在另一示例中,在图像中的若干位置中检测到的若干相关特征或像素特性(例如,相同的运动模式和/或照明变化)可以指向较大对象的运动和/或反射,并且可以在确定目标昆虫的存在时被分配与单一的和不相关的特征相比较低的权重。
可以基于特征在多个图像中的行为将不同的权重分配给特征(或分配给表示这些特征的像素)。例如,随时间变化而持久的特征不太可能是噪声,因此可以被分配较高的权重。
机器视觉技术,例如对象检测算法、分割等,可以用于在空间的图像(例如,减影图像)中对对象进行检测并确定与该对象相关联的像素。在一些实施例中,学习模型可以应用于空间的图像以确定对象是目标昆虫。例如,学习模型可以应用于减影图像以检测具有预确定的标准的对象和/或应用于当前图像以确定对象是否是目标昆虫。学习模型也可以应用于其它步骤,例如将各种输入(颜色、透明度、尺寸、运动模式等)集成到确定对象是否为目标昆虫的单个决策中。
如果对象被确定为目标昆虫(步骤608),则处理器102生成信号以控制设备(步骤610)。如果目标没有被确定为目标昆虫,则获取并处理另一个当前图像。
例如,如上所述,基于对象是目标昆虫的确定而受控制的设备可以包括辅助设备。在一个示例中,设备(例如光源的投射器)可以创建人眼可见的位置指示符(例如,视觉标记115)。因此,一种方法可以包括从空间的图像中确定目标昆虫的真实世界位置,以及对设备进行控制来创建对人眼可见并且指示目标昆虫的真实世界位置的位置指示符。
在另一个实施例中,可以使用设备来消除和/或以其他方式对目标昆虫进行处理。因此,一种方法可以包括从空间的图像中确定目标昆虫的真实世界位置,以及对设备进行控制以消除(或以其他方式处理)真实世界位置处的目标昆虫。例如,如上所述,该设备可以包括用于对昆虫进行处理的辅助设备。例如,该设备可以包括投射器,以在目标昆虫的真实世界位置处以能量的形式进行投射。可替代地或附加地,该设备可以包括远程控制的独立移动设备和/或伸缩臂和/或喷嘴。
在一个实施例中,对象(例如,在减影图像中检测到的对象)在空间的多个图像中被跟踪并且被跟踪至空间中的多个位置,并且可以基于该跟踪来确定对象是否是目标昆虫。
在图7中示意性地示出的一个实施例中,对对象的运动模式进行检测,以及基于该运动模式来确定对象为目标昆虫(或不是目标昆虫)。
在空间的图像中对对象进行检测(步骤702),以及确定对象的运动模式(步骤704)。如果运动模式类似于预确定的模式(步骤706),则确定对象是目标昆虫(步骤708)。如果运动模式不类似于预确定的运动模式(步骤706),则不将对象确定为目标昆虫(步骤710)。
通常,预确定的运动模式将是与从目标昆虫所预期的模式一致的模式。例如,预确定的运动模式可以包括降落模式(例如,飞行然后安定下来),该模式是典型的蚊子。在另一个示例中,预确定的运动模式可以主要地包括非重复运动,因为主要地重复运动是非计划性的运动(例如风扇的运动、风吹物体和/或电子噪声)的特征。在又一个示例中,运动模式可以包括方向的改变,并且预确定运动包括方向以特定角度或角度范围的改变。例如,蚊子通常以比苍蝇锐利的校角度来改变方向。因此,预确定的运动模式可以包括方向在预确定范围内以一角度的改变。在另一个示例中,蚊子的运动比苍蝇慢得多,因此,预确定的运动模式可以包括特定的速度(或速度范围)。
另外,当使用多个图像和/或比较随时间的变化的图像时,确定对象的特征(例如颜色和透明度)可能更准确。在某些情况下,随着时间的流逝,移动的对象(例如昆虫)可能经过了不同的背景,这有助于确定对象的颜色和/或透明度(如上所述)。例如,完全不透明的对象在经过不同背景时不会改变其颜色或强度,而半透明的对象则在经过不同背景时会改变它的颜色或强度。
在一些实施例中,历史数据可以用于确定对象是否为目标昆虫。例如,可以基于分配给先前所捕获的图像中的像素的权重来确定稍后所捕获的图像中的对象是否是目标昆虫。
在图8中示意性地示出的一个示例中,在空间的第一图像(例如,第一当前图像)中的位置处对对象进行检测(步骤802)。如果确定对象不是目标昆虫(步骤804),则将第一权重分配给该位置处的像素(步骤806)。如果确定对象是目标昆虫(步骤804),则将第二权重分配给该位置处的像素(步骤808)。
在第二图像(例如,第二当前图像)中的位置处对对象进行检测(步骤810),以及将来自步骤806和808的权重分配给第二图像的基于在该第二图像中的对象的位置的像素。然后,可以基于与第二图像中的对象相关联的经加权的像素来确定第二图像中的对象是否是目标昆虫(步骤812)。
例如,空间(例如房间)的图像可以包括窗户、电视屏幕、风扇、反射物等,它们可能会在图像中产生“噪声”区域。例如,可以通过以下各者来检测这种噪声:通过像素值随时间的大变化、通过许多误报(例如,错误检测的目标昆虫)或通过应用对象检测算法来识别可能产生噪声的对象(例如,窗户、电视等)。在一些实施例中,与在图像的其他区域中检测到的对象的特征(或像素)相比,在图像的相对“噪声”的区域中检测到的对象的特征(或表示这些特征的像素)可以被分配较小的权重。在另一示例中,在图像的一区域(目标昆虫在过去的情况中被错误地确定在该区域中)中检测到的对象的特征(或像素)可以被分配与在图像的其他区域中检测到的特征(或像素)相比较小的权重。
Claims (37)
1.一种用于在空间中对目标昆虫进行检测的方法,所述方法包括:
通过比较所述空间的至少两个图像来检测对象;
基于所述空间的所述图像中的所述对象的特征来确定所述对象为目标昆虫;以及
基于所述对象是目标昆虫的确定来控制设备。
2.根据权利要求1所述的方法,其中,所述对象满足预确定的标准。
3.根据权利要求1所述的方法,其中,所述至少两个图像中的一个图像包括所述空间的多个图像的表示。
4.根据权利要求1所述的方法,其中,比较所述空间的所述至少两个图像包括通过从所述空间的第二图像减去所述空间的当前图像来获取减影图像;并且所述方法包括:
在所述减影图像中检测满足预确定的标准的对象。
5.根据权利要求4所述的方法,其中,所述第二图像包括在所述当前图像之前所捕获的所述空间的图像。
6.根据权利要求2所述的方法,其中,所述预确定的标准与所述对象的一个或更多个特征有关,所述特征包括以下各者之一:尺寸、形状、在图像中的位置、颜色和透明度。
7.根据权利要求1所述的方法,包括:
确定所述对象的一个或更多个特征,所述特征包括以下各者之一:运动模式、形状、颜色和透明度;以及
基于所确定的特征来确定所述对象是目标昆虫。
8.根据权利要求1所述的方法,包括:
在所述空间的图像中跟踪所述对象;以及
基于所述跟踪来确定所述对象是目标昆虫。
9.根据权利要求8所述的方法,包括:
基于对所述对象的所述跟踪来检测所述对象的运动模式;以及
如果所述运动模式与预确定的运动模式相似,则确定所述对象为目标昆虫。
10.根据权利要求9所述的方法,其中,所述预确定的运动模式包括以下各者中的一者或更多者:降落模式、主要地非重复运动以及在预确定范围内的角度处的方向变化。
11.根据权利要求1所述的方法,包括:
获取所述对象的高分辨率图像;以及
基于所述高分辨率图像来确定所述对象为目标昆虫。
12.根据权利要求1所述的方法,包括:
检测所述对象的在空间上相关的特征;以及
基于所述在空间上相关的特征来确定所述对象是否为目标昆虫。
13.根据权利要求1所述的方法,包括:
基于所述对象是目标昆虫的确定,向所述空间的第一图像中的所述对象的位置处的像素分配权重;以及
通过向所述空间的第二图像中的对象的位置处的像素分配所述权重来确定所述第二图像中的所述对象为目标昆虫。
14.根据权利要求1所述的方法,包括:
根据所述空间的图像来确定所述目标昆虫的真实世界位置;以及
控制所述设备以创建位置指示符,所述位置指示符是人眼可见的并且指示所述目标昆虫的所述真实世界位置。
15.根据权利要求14所述的方法,其中,所述设备包括光源的投射器。
16.根据权利要求1所述的方法,包括:
根据所述空间的图像来确定所述目标昆虫的真实世界位置;以及
对设备进行控制以消除在所述真实世界位置处的所述目标昆虫。
17.根据权利要求16所述的方法,其中,所述设备包括投射器,以在所述目标昆虫的所述真实世界位置处以能量形式进行投射。
18.根据权利要求16所述的方法,其中,所述设备包括远程控制的独立移动设备。
19.根据权利要求16所述的方法,其中,所述设备包括伸缩臂。
20.根据权利要求16所述的方法,其中,所述设备包括喷嘴。
21.根据权利要求16所述的方法,包括:
根据所述空间的所述图像来确定在所述目标昆虫的附近是否有活物;以及
基于在所述目标昆虫的附近是否有活物的确定,控制所述设备以在所述目标昆虫的所述真实世界位置处消除所述目标昆虫。
22.根据权利要求1所述的方法,其中,所述设备是自主移动设备,所述方法包括:
根据所述空间的图像来确定所述目标昆虫的真实世界位置;以及
控制所述设备移动到所述目标昆虫的所述真实世界位置的附近。
23.根据权利要求1所述的方法,包括:在所述空间的图像上应用学习模型,以确定所述对象为目标昆虫。
24.一种用于在空间中对目标昆虫进行检测的系统,所述系统包括:
相机,所述相机用于获取所述空间的图像;和
与所述相机通信的处理器,所述处理器用于通过比较所述空间的所述图像中的至少两个图像来检测对象;以及基于所述空间的图像中的所述对象的特征来确定所述对象是目标昆虫。
25.一种用于在空间中对昆虫进行处理的系统,所述系统包括:
相机,所述相机用于获取所述空间的图像;
与所述相机分开移动的设备;和
处理器,所述处理器用于检测在所述空间的所述图像中的至少一个图像中的所述昆虫,并基于对所述空间的所述图像的分析来控制所述设备移动到所述昆虫的附近。
26.根据权利要求25所述的系统,其中,所述处理器基于对在同一帧内具有所述昆虫和所述设备的所述空间的图像的分析来控制所述设备移动到所述昆虫的附近。
27.根据权利要求26所述的系统,其中,所述处理器根据所述相机来估计所述昆虫的方向,并且其中,所述处理器控制所述设备大致沿所述方向移动。
28.根据权利要求27所述的系统,其中,所述处理器估计所述设备与所述昆虫的距离,并且其中,所述处理器控制所述设备移动到与所述昆虫相距的预确定的距离。
29.根据权利要求28所述的系统,包括与所述处理器通信的测距仪,用于估计所述设备与所述昆虫的距离。
30.根据权利要求28所述的系统,其中,所述处理器通过对来自所述空间的图像的所述昆虫的尺寸与所述昆虫的预期尺寸进行比较来估计所述设备距所述昆虫的距离。
31.根据权利要求28所述的系统,其中,所述处理器通过分析所述帧中的光点的位置来估计所述设备距所述昆虫的距离,所述光点是从所述设备投射的。
32.根据权利要求28所述的系统,其中,所述处理器在所述设备处于与所述昆虫相距预确定的距离时控制所述设备消除所述昆虫。
33.根据权利要求32所述的系统,其中,所述设备包括能够从所述设备延伸的构件,并且所述处理器控制所述设备经由所述构件消除所述昆虫。
34.根据权利要求25所述的系统,其中,所述设备包括另外的相机,所述另外的相机获取所述昆虫的图像。
35.根据权利要求25所述的系统,其中,所述设备包括投射器,所述投射器用于将能量形式的束投射到所述昆虫的附近。
36.根据权利要求25所述的系统,包括用于为所述设备供以动力和/或对所述设备进行加载的扩展坞。
37.根据权利要求25所述的系统,其中,所述设备配置成以电气的方式、机械的方式或化学的方式来消除所述昆虫。
Applications Claiming Priority (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
IL260844 | 2018-07-29 | ||
IL260844A IL260844B (en) | 2018-07-29 | 2018-07-29 | System and method for locating and destroying insects |
US201862743593P | 2018-10-10 | 2018-10-10 | |
US62/743,593 | 2018-10-10 | ||
PCT/IL2019/050839 WO2020026230A1 (en) | 2018-07-29 | 2019-07-24 | System and method for locating and eliminating insects |
Publications (1)
Publication Number | Publication Date |
---|---|
CN112513880A true CN112513880A (zh) | 2021-03-16 |
Family
ID=68069430
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201980049892.5A Pending CN112513880A (zh) | 2018-07-29 | 2019-07-24 | 用于定位和消除昆虫的系统和方法 |
Country Status (12)
Country | Link |
---|---|
US (1) | US12063920B2 (zh) |
EP (1) | EP3830755A4 (zh) |
JP (1) | JP2021531806A (zh) |
KR (1) | KR20210035252A (zh) |
CN (1) | CN112513880A (zh) |
AR (1) | AR115817A1 (zh) |
AU (1) | AU2019313665A1 (zh) |
BR (1) | BR112021001634A2 (zh) |
CA (1) | CA3105655A1 (zh) |
IL (1) | IL260844B (zh) |
TW (1) | TW202022698A (zh) |
WO (1) | WO2020026230A1 (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114431773A (zh) * | 2022-01-14 | 2022-05-06 | 珠海格力电器股份有限公司 | 扫地机器人的控制方法 |
CN116391693A (zh) * | 2023-06-07 | 2023-07-07 | 北京市农林科学院智能装备技术研究中心 | 天牛灭杀方法及系统 |
Families Citing this family (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
AT522373B1 (de) * | 2019-03-18 | 2023-04-15 | Univ Innsbruck | Vorrichtung zur störung der optischen navigationsfähigkeit von organismen |
US11176652B2 (en) * | 2019-04-05 | 2021-11-16 | Waymo Llc | High bandwidth camera data transmission |
US20220217962A1 (en) * | 2019-05-24 | 2022-07-14 | Anastasiia Romanivna ROMANOVA | Mosquito monitoring and counting system |
CN110674805B (zh) * | 2019-10-11 | 2022-04-15 | 杭州睿琪软件有限公司 | 昆虫识别方法及系统 |
TWI763099B (zh) * | 2020-10-28 | 2022-05-01 | 李寬裕 | 光學除蟲設備 |
KR102531690B1 (ko) * | 2020-11-25 | 2023-05-12 | 유한회사 평화스테인레스 | Oled 및 빅데이터와 파장을 기반으로 하는 겹눈해충 퇴치시스템 |
CN112674057A (zh) * | 2021-01-08 | 2021-04-20 | 中国人民解放军海军航空大学 | 一种智能蚊虫消灭设备及方法 |
IL298319A (en) * | 2022-11-16 | 2024-06-01 | Bzigo Ltd | Unmanned aerial vehicle to neutralize insects |
JP7445909B1 (ja) | 2023-08-21 | 2024-03-08 | 株式会社ヤマサ | 害獣駆除システムおよび害獣駆除プログラム |
US12022820B1 (en) * | 2023-10-11 | 2024-07-02 | Selina S Zhang | Integrated insect control system |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20040076583A1 (en) * | 2002-07-15 | 2004-04-22 | Baylor College Of Medicine | Method for indentification of biologically active agents |
CN101170901A (zh) * | 2005-03-22 | 2008-04-30 | L·凯茨 | 用于害虫检测的系统和方法 |
US8400348B1 (en) * | 1999-05-14 | 2013-03-19 | Applied Information Movement and Management, Inc. | Airborne biota monitoring and control system |
US20160176542A1 (en) * | 2014-12-18 | 2016-06-23 | The Boeing Company | Image capture systems and methods and associated mobile apparatuses |
US20180046872A1 (en) * | 2016-08-11 | 2018-02-15 | DiamondFox Enterprises, LLC | Handheld arthropod detection device |
US20180075596A1 (en) * | 2012-07-05 | 2018-03-15 | Bernard Fryshman | Object image recognition and instant active response with enhanced application and utility |
Family Cites Families (34)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US4015366A (en) | 1975-04-11 | 1977-04-05 | Advanced Decision Handling, Inc. | Highly automated agricultural production system |
JP3002719B2 (ja) * | 1996-07-19 | 2000-01-24 | 工業技術院長 | 微小生物モニタによる環境清浄度計測装置 |
US7057516B2 (en) | 2001-06-01 | 2006-06-06 | Dimitri Donskoy | Device and method for detecting localization, monitoring, and identification of living organisms in structures |
US7496228B2 (en) * | 2003-06-13 | 2009-02-24 | Landwehr Val R | Method and system for detecting and classifying objects in images, such as insects and other arthropods |
US7656300B2 (en) | 2003-06-16 | 2010-02-02 | Rønnau Development ApS | Pest control system |
JP2005021074A (ja) * | 2003-07-01 | 2005-01-27 | Terada Seisakusho Co Ltd | 画像処理計数方法と画像処理計数装置 |
JP5066575B2 (ja) * | 2006-10-23 | 2012-11-07 | ダウ アグロサイエンシィズ エルエルシー | ナンキンムシ検出、監視及び防除技術 |
JP2008200002A (ja) * | 2007-02-22 | 2008-09-04 | Matsushita Electric Works Ltd | 夜行性虫捕虫システム |
JP2010149727A (ja) * | 2008-12-25 | 2010-07-08 | Aisin Aw Co Ltd | 虫類車室内進入阻止システム及びプログラム |
US8705017B2 (en) | 2009-01-15 | 2014-04-22 | Tokitae Llc | Photonic fence |
BR112013009401A2 (pt) * | 2010-10-17 | 2016-07-26 | Purdue Research Foundation | monitoração automática de populações de insetos |
SG189915A1 (en) | 2010-10-29 | 2013-06-28 | Commw Scient Ind Res Org | A real-time insect monitoring device |
US9381646B1 (en) | 2012-07-05 | 2016-07-05 | Bernard Fryshman | Insect and other small object image recognition and instant active response with enhanced application and utility |
ES2763412T3 (es) * | 2011-11-09 | 2020-05-28 | Francois Gabriel Feugier | Sistema de control de plagas, método de control de plagas y programa de control de plagas |
US20150075060A1 (en) | 2013-02-12 | 2015-03-19 | Jody Arthur Balsam | Apparatus and method for detection of insects |
US20150085100A1 (en) * | 2013-09-26 | 2015-03-26 | Micholas Raschella | System for detection of animals and pests |
CN103914733B (zh) | 2014-03-31 | 2016-09-28 | 北京市农林科学院 | 一种害虫诱捕计数装置及计数系统 |
JP6274430B2 (ja) * | 2014-06-03 | 2018-02-07 | みこらった株式会社 | 害虫捕獲収容装置及び害虫殺虫装置 |
JP6479364B2 (ja) * | 2014-07-31 | 2019-03-06 | 近藤電子株式会社 | 家禽の健康状態診断装置 |
US10568316B2 (en) | 2014-08-15 | 2020-02-25 | Monsanto Technology Llc | Apparatus and methods for in-field data collection and sampling |
DE202014007499U1 (de) | 2014-09-19 | 2014-11-03 | Florian Franzen | Weitgehend autonom agierende Minidrohne (UAV-Hubschrauber-Drohne) zum Abtöten von Mücken und anderen kleinen flugfähigen Insekten in Gebäuden und von Menschen genutzten Außenbereichen |
US9693547B1 (en) | 2014-10-20 | 2017-07-04 | Jean François Moitier | UAV-enforced insect no-fly zone |
JP2016136916A (ja) * | 2015-01-29 | 2016-08-04 | シャープ株式会社 | 害虫駆除装置および害虫駆除方法 |
JP2016185076A (ja) * | 2015-03-27 | 2016-10-27 | 三菱自動車工業株式会社 | 虫追い出し装置 |
US9828093B2 (en) * | 2015-05-27 | 2017-11-28 | First Principles, Inc. | System for recharging remotely controlled aerial vehicle, charging station and rechargeable remotely controlled aerial vehicle, and method of use thereof |
MX2018005714A (es) * | 2015-11-08 | 2019-08-16 | Agrowing Ltd | Un metodo para la adquisicion y analisis de imagenes aereas. |
US20170231213A1 (en) * | 2016-02-17 | 2017-08-17 | International Business Machines Corporation | Pest abatement utilizing an aerial drone |
US9807996B1 (en) | 2016-05-28 | 2017-11-07 | Simon Siu-Chi Yu | Bug eater |
JP6410993B2 (ja) * | 2016-05-31 | 2018-10-24 | 株式会社オプティム | ドローン飛行制御システム、方法及びプログラム |
US9856020B1 (en) | 2016-07-27 | 2018-01-02 | International Business Machines Corporation | Drone-based mosquito amelioration based on risk analysis and pattern classifiers |
CN107094734A (zh) | 2017-04-01 | 2017-08-29 | 史德成 | 能自动识别并杀死害虫的激光杀虫器 |
CN107041349A (zh) | 2017-04-06 | 2017-08-15 | 南京三宝弘正视觉科技有限公司 | 一种害虫杀灭装置及系统 |
CN106940734A (zh) | 2017-04-24 | 2017-07-11 | 南京信息工程大学 | 一种迁飞昆虫空中监测识别方法及装置 |
JP6512672B2 (ja) * | 2017-12-25 | 2019-05-15 | みこらった株式会社 | 害虫駆除装置 |
-
2018
- 2018-07-29 IL IL260844A patent/IL260844B/en active IP Right Grant
-
2019
- 2019-07-19 TW TW108125706A patent/TW202022698A/zh unknown
- 2019-07-19 AR ARP190102042A patent/AR115817A1/es not_active Application Discontinuation
- 2019-07-24 WO PCT/IL2019/050839 patent/WO2020026230A1/en unknown
- 2019-07-24 AU AU2019313665A patent/AU2019313665A1/en not_active Abandoned
- 2019-07-24 BR BR112021001634-1A patent/BR112021001634A2/pt not_active IP Right Cessation
- 2019-07-24 US US17/259,205 patent/US12063920B2/en active Active
- 2019-07-24 CA CA3105655A patent/CA3105655A1/en active Pending
- 2019-07-24 KR KR1020217005289A patent/KR20210035252A/ko active Search and Examination
- 2019-07-24 EP EP19843552.1A patent/EP3830755A4/en active Pending
- 2019-07-24 JP JP2021504834A patent/JP2021531806A/ja active Pending
- 2019-07-24 CN CN201980049892.5A patent/CN112513880A/zh active Pending
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8400348B1 (en) * | 1999-05-14 | 2013-03-19 | Applied Information Movement and Management, Inc. | Airborne biota monitoring and control system |
US20040076583A1 (en) * | 2002-07-15 | 2004-04-22 | Baylor College Of Medicine | Method for indentification of biologically active agents |
CN101170901A (zh) * | 2005-03-22 | 2008-04-30 | L·凯茨 | 用于害虫检测的系统和方法 |
US20180075596A1 (en) * | 2012-07-05 | 2018-03-15 | Bernard Fryshman | Object image recognition and instant active response with enhanced application and utility |
US20160176542A1 (en) * | 2014-12-18 | 2016-06-23 | The Boeing Company | Image capture systems and methods and associated mobile apparatuses |
US20180046872A1 (en) * | 2016-08-11 | 2018-02-15 | DiamondFox Enterprises, LLC | Handheld arthropod detection device |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114431773A (zh) * | 2022-01-14 | 2022-05-06 | 珠海格力电器股份有限公司 | 扫地机器人的控制方法 |
CN116391693A (zh) * | 2023-06-07 | 2023-07-07 | 北京市农林科学院智能装备技术研究中心 | 天牛灭杀方法及系统 |
CN116391693B (zh) * | 2023-06-07 | 2023-09-19 | 北京市农林科学院智能装备技术研究中心 | 天牛灭杀方法及系统 |
Also Published As
Publication number | Publication date |
---|---|
TW202022698A (zh) | 2020-06-16 |
US20210251209A1 (en) | 2021-08-19 |
KR20210035252A (ko) | 2021-03-31 |
CA3105655A1 (en) | 2020-02-06 |
AU2019313665A1 (en) | 2021-01-28 |
AR115817A1 (es) | 2021-03-03 |
BR112021001634A2 (pt) | 2021-05-04 |
JP2021531806A (ja) | 2021-11-25 |
WO2020026230A1 (en) | 2020-02-06 |
EP3830755A4 (en) | 2022-05-18 |
EP3830755A1 (en) | 2021-06-09 |
IL260844B (en) | 2019-09-26 |
US12063920B2 (en) | 2024-08-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US12063920B2 (en) | System and method for locating and eliminating insects | |
US10147177B2 (en) | Object image recognition and instant active response with enhanced application and utility | |
US9811764B2 (en) | Object image recognition and instant active response with enhanced application and utility | |
CN108141579B (zh) | 3d相机 | |
US10026165B1 (en) | Object image recognition and instant active response | |
US20200056973A1 (en) | Particle detection | |
US20190096058A1 (en) | Object image recognition and instant active response with enhanced application and utility | |
JP2022518391A (ja) | 少なくとも1つの物体の位置を決定するための検出器 | |
JP2022516791A (ja) | 少なくとも1つの物体の位置を決定するための検出器 | |
CN108572730B (zh) | 用于使用深度感知相机与计算机实现的交互式应用程序进行交互的系统和方法 | |
EP3455827B1 (en) | Object image recognition and instant active response with enhanced application and utility | |
AU2018282480A1 (en) | Particle detection | |
JP2020162438A (ja) | 監視システム及び飛行ロボット | |
US20230342952A1 (en) | Method for coordinative measuring by terrestrial scanning with image-based interference detection of moving objects | |
WO2024105676A1 (en) | Unmanned aerial vehicle for neutralizing insects |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |