CN114641666A - 自主激光杂草根除 - Google Patents

自主激光杂草根除 Download PDF

Info

Publication number
CN114641666A
CN114641666A CN202080079695.0A CN202080079695A CN114641666A CN 114641666 A CN114641666 A CN 114641666A CN 202080079695 A CN202080079695 A CN 202080079695A CN 114641666 A CN114641666 A CN 114641666A
Authority
CN
China
Prior art keywords
target
targeting
optical control
aiming
reflective element
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202080079695.0A
Other languages
English (en)
Inventor
P·米克塞尔
J·梅
C·加布里尔森
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Carbon Autonomous Robotic Systems Inc
Original Assignee
Carbon Autonomous Robotic Systems Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Carbon Autonomous Robotic Systems Inc filed Critical Carbon Autonomous Robotic Systems Inc
Publication of CN114641666A publication Critical patent/CN114641666A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B26/00Optical devices or arrangements for the control of light using movable or deformable optical elements
    • G02B26/08Optical devices or arrangements for the control of light using movable or deformable optical elements for controlling the direction of light
    • G02B26/10Scanning systems
    • G02B26/101Scanning systems with both horizontal and vertical deflecting means, e.g. raster or XY scanners
    • AHUMAN NECESSITIES
    • A01AGRICULTURE; FORESTRY; ANIMAL HUSBANDRY; HUNTING; TRAPPING; FISHING
    • A01MCATCHING, TRAPPING OR SCARING OF ANIMALS; APPARATUS FOR THE DESTRUCTION OF NOXIOUS ANIMALS OR NOXIOUS PLANTS
    • A01M21/00Apparatus for the destruction of unwanted vegetation, e.g. weeds
    • A01M21/04Apparatus for destruction by steam, chemicals, burning, or electricity
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01PMEASURING LINEAR OR ANGULAR SPEED, ACCELERATION, DECELERATION, OR SHOCK; INDICATING PRESENCE, ABSENCE, OR DIRECTION, OF MOVEMENT
    • G01P15/00Measuring acceleration; Measuring deceleration; Measuring shock, i.e. sudden change of acceleration
    • G01P15/02Measuring acceleration; Measuring deceleration; Measuring shock, i.e. sudden change of acceleration by making use of inertia forces using solid seismic masses
    • G01P15/08Measuring acceleration; Measuring deceleration; Measuring shock, i.e. sudden change of acceleration by making use of inertia forces using solid seismic masses with conversion into electric or magnetic values
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B26/00Optical devices or arrangements for the control of light using movable or deformable optical elements
    • G02B26/08Optical devices or arrangements for the control of light using movable or deformable optical elements for controlling the direction of light
    • G02B26/0816Optical devices or arrangements for the control of light using movable or deformable optical elements for controlling the direction of light by means of one or more reflecting elements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • G06T1/0014Image feed-back for automatic industrial control, e.g. robot with camera
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30181Earth observation
    • G06T2207/30188Vegetation; Agriculture
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Theoretical Computer Science (AREA)
  • Optics & Photonics (AREA)
  • Insects & Arthropods (AREA)
  • Pest Control & Pesticides (AREA)
  • Wood Science & Technology (AREA)
  • Zoology (AREA)
  • Environmental Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Robotics (AREA)
  • Biophysics (AREA)
  • Mathematical Physics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Biomedical Technology (AREA)
  • Software Systems (AREA)
  • Artificial Intelligence (AREA)
  • Health & Medical Sciences (AREA)
  • Investigating Or Analysing Materials By Optical Means (AREA)
  • Catching Or Destruction (AREA)
  • Laser Beam Processing (AREA)
  • Mechanical Light Control Or Optical Switches (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)

Abstract

本文中公开了可用于自动化杂草识别、控制和根除的方法、设备、模块和系统。这些方法、设备、模块和系统提供了对于人工耕作或化学除草剂的备选方案。本文中公开的设备可配置成利用诸如激光波束的波束来定位、识别杂草并自主地瞄准杂草,所述波束可燃烧或辐照杂草。所述方法、设备、模块和系统可用于农作物管理或用于家庭杂草控制。

Description

自主激光杂草根除
相关申请的交叉引用
本申请要求2019年9月17日提交的美国临时申请No. 62/901,641的权益,该申请以其全部通过引用并入本文中。
背景技术
全世界每年农业产出价值数万亿美元。农业是粮食生产的重要组成部分,并且包括牲畜和植物两者的培育。由于气候变化导致的人口增加和作物产量下降威胁到全球粮食安全。通过提高作物产量和提高劳动效率来增加农业生产的方法可能有助于缓解粮食短缺。
发明内容
本公开提供了可被采用于植物的自动识别、维护、控制或瞄准(或称为锁定,即targeting)的各种方法、设备、模块和系统。例如,本文中公开的方法、设备、模块和系统可用来自主地识别和根除位于作物的田地内的杂草。该方法、设备、模块和系统可用作对于人工耕作或化学除草剂的备选方案。例如,该方法、设备、模块和系统可用于农作物管理或用于家庭杂草控制。
在各个方面,本公开提供了一种光学控制系统,其包括:发射器,其构造成沿着光学路径朝向在表面上的目标位置发射波束,其中,目标位置通过自主地定位在表面上的目标来确定;第一反射元件,其定位成与光学路径相交并偏转波束;第一瞄准致动器,其连接到第一反射元件并构造成旋转第一反射元件并使波束朝向目标位置偏转;和组合元件,其定位在发射器和第一反射元件之间的光学路径中,并构造成有差别地偏转波束和在与该波束相反的方向上沿着光学路径行进的来自目标位置的散射光。
在一些方面,光学控制系统还包括瞄准相机,该瞄准相机光学地连接到组合元件并配置成接收反射离开第一反射元件的散射光并对包括目标位置的瞄准视场成像。在一些方面,光学控制系统配置成在光学控制系统相对于表面移动的同时将波束朝向目标位置引导。在一些方面,光学控制系统还包括瞄准系统计算机,该瞄准系统计算机配置成检测相对于目标位置的瞄准视场的像素移动并将瞄准视场的像素移动转换成第一反射元件的旋转。
在一些方面,从像素移动转换成第一反射元件的旋转包括参考校准函数。在一些方面,通过将校准表面上的基准标记的位置与相机像素移动关联来获得校准函数。
在一些方面,光学控制系统还包括耦联到光学控制系统的惯性测量单元,其中,惯性测量单元配置成测量光学控制系统的加速度、光学控制系统相对于表面的旋转或它们的组合。在一些方面,瞄准系统计算机配置成基于自成像以来的时间量、光学控制系统的加速度、光学控制系统相对于表面的旋转或它们的组合来调整目标位置。
在一些方面,光学控制系统被封闭在外壳中,该外壳包括能够透射发射和可见光并且定位在第一反射元件和表面之间的光学路径中的逸出窗。在一些方面,光学控制系统被完全封闭在外壳中。在一些方面,光学控制系统还包括空气源,该空气源构造成引导来自的空气流。在一些方面,外壳还包括与孔口相对的壁,该壁构造成控制空气流的方向并减少湍流而不阻碍波束。
在一些方面,第一反射元件是反射镜(或称为镜子,即mirror)。在一些方面,组合元件透射波束并反射可见光。在一些方面,发射器是激光发射器。在一些方面,激光发射器选自由红外激光器、紫外激光器和可见光激光器组成的组。在一些方面,光学控制系统还包括第二瞄准致动器,该第二瞄准致动器连接到第一反射元件并构造成旋转第一反射元件并使波束朝向目标位置偏转。在一些方面,光学控制系统还包括:第二反射元件,其定位成与光学路径相交并使由第一反射元件偏转的波束偏转;和第二瞄准致动器,其连接到第二反射元件并构造成旋转第二反射元件并使波束朝向目标位置偏转。在一些方面,第一瞄准致动器沿着第一轴线偏转波束,并且第二瞄准致动器沿着第二轴线偏转波束,其中,第一轴线和第二轴线是正交的。在一些方面,相对于波束的方向,组合元件定位在发射器之后,第一反射元件定位在组合元件之后,并且第二反射元件定位在第一反射元件之后。在一些方面,杂草定位在目标位置处。
在各个方面,本公开提供了一种杂草根除方法,该方法包括:利用预测相机捕获预测视场的图像;在预测视场中定位目标;将目标分配给多个瞄准模块中的一个,该多个瞄准模块包括具有与目标的位置重叠的瞄准视场的瞄准相机;利用瞄准相机捕获瞄准视场的图像;在瞄准视场中定位目标;和将波束朝向目标的位置引导。
在一些方面,在预测视场中定位目标还包括识别目标在预测视场中的方位。在一些方面,杂草根除方法还包括识别包含目标的区域,其中,该区域由多边形限定。在一些方面,杂草根除方法还包括将方位转换成预测的表面位置。在一些方面,杂草根除方法还包括确定瞄准视场中的预期移动。在一些方面,杂草根除方法还包括将预期移动转换成致动器方位改变。在一些方面,定位目标包括使用训练的神经网络识别目标。在一些方面,训练的神经网络能够在目标周围提供边界框(bounding box)、多边形掩模(polygon mask)或它们的组合。在一些方面,训练的神经网络利用田地的图像来训练。
在一些方面,在瞄准视场中定位目标还包括参考通过将校准表面上的基准标记的位置与相机像素坐标关联而获得的校准函数以及校正目标的位置。在一些方面,将目标分配给多个瞄准模块中的一个包括将目标的位置提供给多个瞄准模块中的一个。在一些方面,将波束朝向目标的位置引导还包括参考通过将校准表面上的基准标记的像素移动与致动器倾斜值关联而获得的校准函数以及校正致动器倾斜值。在一些方面,杂草根除方法还包括一旦目标已经被损坏或杀死就停用波束。
在一些方面,利用瞄准相机捕获瞄准视场的图像、在瞄准视场中定位目标以及将波束朝向目标的位置引导以高精度执行。在一些方面,目标是杂草。
在一些方面,杂草根除方法还包括损坏或杀死杂草。在一些方面,损坏或杀死杂草包括辐照杂草。在一些方面,损坏或杀死杂草包括燃烧杂草。在一些方面,定位目标包括在杂草和预期植物之间进行区分。
在各个方面,本公开提供了一种瞄准系统,该瞄准系统包括预测模块、瞄准模块和光学控制模块;预测模块包括:预测相机,其配置成对在表面上的预测视场成像并定位预测视场中的目标;和预测模块控制器,其配置成将预测视场中的目标的位置转换成在表面上的预测位置并将目标分配给瞄准模块;瞄准模块包括:瞄准模块控制器,其配置成将预测位置转换成瞄准致动器的方位;并且光学控制模块包括:发射器,其构造成沿着光学路径朝向目标发射波束;和瞄准致动器,其构造成从瞄准模块控制器接收方位信息并使波束朝向目标偏转。
在一些方面,瞄准系统还包括瞄准相机,该瞄准相机配置成对在表面上的瞄准视场成像并在瞄准视场中定位目标。在一些方面,光学控制模块还包括:第一反射元件,其由瞄准致动器控制并定位成与光学路径相交并偏转波束;和组合元件,其定位在发射器和第一反射元件之间的光学路径中并构造成有差别地偏转波束和在与该波束相反的方向上沿着光学路径行进的来自瞄准视场的散射光。
在一些方面,光学控制模块配置成在瞄准系统相对于表面移动的同时将波束朝向目标引导。在一些方面,瞄准模块配置成检测瞄准视场相对于目标的像素移动并从瞄准视场的像素移动转换成瞄准致动器的运动。
在一些方面,瞄准系统还包括惯性测量单元,该惯性测量单元配置成测量瞄准系统的加速度和瞄准系统相对于表面的旋转。在一些方面,瞄准模块配置成基于自成像以来的时间量、瞄准系统的加速度、瞄准系统相对于表面的旋转或它们的组合来调整预测位置。在一些方面,瞄准系统还包括第二瞄准模块,该第二瞄准模块包括:第二瞄准相机,其配置成对在表面上的第二瞄准视场成像并在第二瞄准视场中定位目标;和瞄准模块控制器,其配置成将目标在第二瞄准视场中的位置转换成第二瞄准致动器的方位。在一些方面,预测视场包括瞄准视场。
在一些方面,瞄准系统还包括运送预测相机和光学控制模块的车辆。在一些方面,车辆是自主车辆。在一些方面,车辆包括多个车轮。
在一些方面,光学控制模块被封闭在外壳中,该外壳包括能够透射发射和可见光并且定位在第一反射元件和表面之间的光学路径中的逸出窗。在一些方面,光学控制模块被完全封闭在外壳中。在一些方面,瞄准系统还包括空气源,该空气源构造成将空气流从外壳的外表面中的孔口朝向逸出窗的外表面引导。在一些方面,外壳还包括与孔口相对的壁,该壁构造成控制空气流的方向并减少湍流而不阻碍波束。
在一些方面,第一反射元件是反射镜。在一些方面,组合元件透射波束并反射可见光。在一些方面,发射器是激光发射器。在一些方面,激光发射器选自由红外激光器、紫外激光器和可见光激光器组成的组。在一些方面,光学控制模块还包括第二瞄准致动器,该第二瞄准致动器连接到第一反射元件并构造成旋转第一反射元件并使波束朝向目标偏转。在一些方面,光学控制模块还包括:第二反射元件,其定位成与光学路径相交并使由第一反射元件偏转的波束偏转;和第二瞄准致动器,其连接到第二反射元件并构造成旋转第二反射元件并使波束朝向目标偏转。在一些方面,第一瞄准致动器沿着第一轴线偏转波束,并且第二瞄准致动器沿着第二轴线偏转波束,其中,第一轴线和第二轴线是正交的。在一些方面,相对于波束的方向,组合元件定位在发射器之后,第一反射元件定位在组合元件之后,并且第二反射元件定位在第一反射元件之后。
从下面的详细描述中,本公开的附加方面和优点对于本领域的技术人员将变得容易理解,其中仅示出和描述了本公开的说明性实施例。如将认识到的,本公开能够具有其它和不同的实施例,并且其若干细节能够在各种明显的方面进行修改,所有这些都不脱离本公开。因此,附图和描述应被视为性质上说明性的而非限制性的。
在本说明书中提到的所有出版物、专利和专利申请都通过引用并入本文,程度上如同每个单独的出版物、专利或专利申请被具体地和单独地表示为通过引用并入本文。
附图说明
在所附权利要求书中特别地阐述了本公开的新颖特征。通过参考下面的详细描述和附图,将获得对本公开的特征和优点的更好理解,该详细描述阐述说明性实施例,在其中利用了本公开的原理并且其附图:
图1A图示根据本文中的一个或多个实施例的激光瞄准系统的等距视图;
图1B图示根据本文中的一个或多个实施例的具有指示的激光路径和可见光路径的激光瞄准系统的等距视图;
图2图示根据本文中的一个或多个实施例的具有指示的激光路径和可见光路径的激光瞄准系统的俯视图;
图3A图示根据本文中的一个或多个实施例的激光瞄准系统的侧视图;
图3B图示根据本文中的一个或多个实施例的具有指示的清洁空气路径的激光瞄准系统的侧视图剖面图;
图4图示根据本文中的一个或多个实施例的瞄准激光器和瞄准激光器的瞄准覆盖区;
图4A图示根据本文中的一个或多个实施例的瞄准激光器和瞄准激光器的瞄准覆盖区的侧视图;
图4B图示根据本文中的一个或多个实施例的瞄准激光器和瞄准激光器的瞄准覆盖区的前视图;
图5图示根据本文中的一个或多个实施例的预测相机、多个瞄准激光器、预测相机的预测视图区和瞄准激光器的瞄准覆盖区的等距视图;
图6图示根据本文中的一个或多个实施例的自主激光杂草根除机器人、预测相机和多个瞄准激光器的覆盖区的前视图;
图7图示根据本文中的一个或多个实施例的自主激光杂草根除机器人、预测相机和多个瞄准激光器的覆盖区的等距视图;
图8描绘根据本文中的一个或多个实施例的识别、分配和瞄准目标的方法;
图9描绘根据本文中的一个或多个实施例的识别、分配、瞄准和根除田地中的杂草的方法。
具体实施方式
作物的耕作对于粮食和纺织品生产是非常重要的。作物管理的一个重要组成部分是通常称为杂草的不合需要的植物物种的控制或消除。杂草可通过从预期植物剥夺资源(包括水、养分、阳光和空间)而降低作物产量。杂草可能通过藏有损害预期植物的害虫或寄生虫来进一步干扰作物生长。传统的杂草控制和根除方法包括人工耕作或化学除草剂。人工耕作是劳动密集型的,导致增加的作物生产成本以及更高的粮食和纺织品价格。使用化学除草剂可能具有负面的环境影响,包括地下水污染、急性毒性或诸如癌症的长期健康影响。
开发生态友好和低成本的杂草控制和根除方法对更高的作物产量、更低的粮食价格和长期环境稳定来说很重要。减少或消除对除草剂的需求可减少作物生产的许多负面环境副作用,包括有毒径流和地下水污染。减少对体力劳动的需求可显著降低农业成本并提高劳动标准。
本公开提供了可用于植物的自动识别、维护、控制或瞄准的各种方法、设备、模块和系统。在一些实施例中,本文中公开的方法、设备、模块和系统可用来自主地识别和根除位于作物的田地内的杂草。例如,本文中公开了用于利用包括电磁辐射的波束自主地定位、识别和瞄准例如杂草的对象的特定方法。本文中还公开了配置成利用波束定位、识别和自主地瞄准对象的设备。该设备可用来例如控制或消除杂草。例如,该设备可用来燃烧或辐照杂草。本文中公开的模块可用于本文中公开的设备和系统的自主控制,以实现本文中公开的方法,例如以定位、识别、瞄准、以及控制或消除杂草。本文中公开的系统可包括配置成通过利用发射物定位、识别和瞄准对象来自主地控制或消除对象(例如杂草)的设备、模块和方法。有时,该方法、设备、模块和系统可用于农作物管理或用于家庭杂草控制。该方法、设备、模块和系统可用作对于人工耕作或化学除草剂的备选方案。
光学控制系统
本文中描述了用于将波束(例如光束)朝向表面上的目标位置引导的光学控制系统。图1A图示了如本文中公开的光学控制系统100的实施例的等距视图。发射器101构造成沿着光学路径102引导波束。在一些实施例中,波束包括电磁辐射,例如光、无线电波、微波或X射线。在一些实施例中,光是可见光、红外光或紫外光。波束可为相干的。在优选实施例中,发射器是诸如红外激光器的激光器。在一些实施例中,发射器发射具有约1 m、约100mm、约10 mm、约1 mm、约100 μm、约10 μm、约1.5 μm、约1 μm、约900 nm、约800 nm、约700nm、约600 nm、约500 nm、约400 nm、约300 nm、约100 nm、约10 nm或约1 nm的波长的波束。在一些实施例中,发射器发射具有从约1 m至约100 mm、从约100 mm至约10 mm、从约10 mm至约1 mm、从约1 mm至约100 μm、从约100 μm至约10 μm、从约10 μm至约1.5 μm、从约1.5 μm至约1 μm、从约1 μm至约900 nm、从约900 nm至约800 nm、从约800 nm至约700 nm、从约700 nm至约600 nm、从约600 nm至约500 nm、从约500 nm至约400 nm、从约400 nm至约300nm、从约300 nm至约100 nm、从约100 nm至约10 nm或从约10 nm至约1 nm的波长的波束。在一些实施例中,发射器可能够发射高达10 mW、高达100 mW、高达1 W、高达10 W、高达100 W、高达1 kW或高达10 kW的电磁辐射。在一些实施例中,发射器可能够发射从10 mW至100 mW、从100 mW至1 W、从1 W至10 W、从10 W至100 W、从100 W至1 kW或从1 kW至10 kW的电磁辐射。
图1B示出了图1A中所示的光学控制设备100的实施例的等距视图,并进一步图示了波束路径102的方位和方向。附图标记在图1A和图1B之间是一致的。一个或多个光学元件可定位在波束的路径中。所述光学元件可包括波束组合器103、第一反射元件105和第二反射元件106中的一个或多个。这些元件可在波束路径的方向上按照波束组合器103、然后是第一反射元件105、然后是第二反射元件106的顺序构造。在另一个示例中,第一反射元件或第二反射元件中的一者或两者可在波束路径的方向上按顺序构造在波束组合器之前。在另一个示例中,光学元件可在波束路径的方向上按照波束组合器103、然后是第一反射元件105的顺序构造。在另一个示例中,第一反射元件或第二反射元件中的一者或两者可在波束路径的方向上构造在波束组合器之前。任何数量的附加反射元件可定位在波束路径中。
波束组合器也可称为波束组合元件。在一些实施例中,波束组合器103可为硒化锌(ZnSe)、硫化锌(ZnS)或锗(Ge)波束组合器。例如,波束组合器可构造成传输红外光并反射可见光。在一些实施例中,波束组合器103可为二色性的。在一些实施例中,波束组合器可构造成使具有长于截止波长的波长的电磁辐射通过并反射具有短于截止波长的波长的电磁辐射。在一些实施例中,波束组合器可构造成使具有短于截止波长的波长的电磁辐射通过并反射具有长于截止波长的波长的电磁辐射。在一些实施例中,截止波长可为约1 m、约100mm、约10 mm、约1 mm、约100 μm、约10 μm、约1.5 μm、约1 μm、约900 nm、约800 nm、约700nm、约600 nm、约500 nm、约400 nm、约300 nm、约100 nm、约10 nm或约1 nm。在一些实施例中,截止波长可为从约1 m至约100 mm、从约100 mm至约10 mm、从约10 mm至约1 mm、从约1mm至约100 μm、从约100 μm至约10 μm、从约10 μm至约1.5 μm、从约1.5 μm至约1 μm、从约1μm至约900 nm、从约900 nm至约800 nm、从约800 nm至约700 nm、从约700 nm至约600 nm、从约600 nm至约500 nm、从约500 nm至约400 nm、从约400 nm至约300 nm、从约300 nm至约100 nm、从约100 nm至约10 nm或从约10 nm至约1 nm。在其它实施例中,波束组合器可为偏振分束器、长通滤波器、短通滤波器或带通滤波器。
第一反射元件105和第二反射元件106中的一者或两者的方位和取向可由致动器控制。在一些实施例中,致动器可为马达、螺线管、电流计或伺服机构。例如,第一反射元件的方位可由第一致动器控制,并且第二反射元件的方位和取向可由第二致动器控制。在一些实施例中,单个反射元件可由多个致动器控制。例如,第一反射元件可由沿着第一轴线的第一致动器和沿着第二轴线的第二致动器控制。在一些实施例中,单个致动器可沿着多个轴线控制反射元件。致动器可通过旋转反射元件来改变反射元件的方位,从而改变遇到反射元件的波束的入射角。改变入射角可引起波束遇到表面的方位的平移。在一些实施例中,可调整入射角,使得在光学系统相对于表面移动时保持波束遇到表面的方位。在一些实施例中,第一致动器使第一反射元件围绕第一旋转轴线旋转,从而使波束遇到表面的方位沿着第一平移轴线平移,并且第二致动器使第二反射元件围绕第二旋转轴线旋转,从而使波束遇到表面的方位沿着第二平移轴线平移。在一些实施例中,第一致动器和第二致动器使第一反射元件围绕第一旋转轴线和第二旋转轴线旋转,从而使波束遇到第一反射元件表面的方位沿着第一平移轴线和第二平移轴线平移。例如,单个反射元件可由第一致动器和第二致动器控制,提供波束遇到表面的方位沿着第一平移轴线和第二平移轴线的平移,其中单个反射元件由两个致动器控制。第一平移轴线和第二平移轴线可为正交的。在表面上的覆盖区可由沿着第一平移轴线的最大平移和沿着第二平移轴线的最大平移来限定。第一致动器和第二致动器中的一者或两者可为伺服控制的、压电致动的、压电惯性致动的、步进马达控制的、电流计驱动的、线性致动器控制的或它们的任何组合。第一反射元件和第二反射元件中的一者或两者可为反射镜;例如,二向色反射镜或介质反射镜;棱镜;分束器;或它们的任何组合。在一些实施例中,第一反射元件和第二反射元件中的一者或两者可为能够偏转波束的任何元件。
图2示出了如图1A和图1B中所示的光学控制系统100的实施例的俯视图。图1A、图1B和图2之间的附图标记是一致的。瞄准相机104可定位成捕获沿着光学路径在与波束路径151相反的方向上行进的光152,例如可见光。光可由表面(诸如包括目标的表面)散射。在一些实施例中,瞄准相机定位成使得其捕获反射离开波束组合器103的光。在其它实施例中,瞄准相机定位成使得其捕获通过波束组合器透射的光。瞄准相机可配置成对表面上的目标视场成像。瞄准相机可耦联到波束组合器,或者瞄准相机可耦联到支撑波束组合器的支撑结构。在优选实施例中,瞄准相机不相对于波束组合器移动。
图3A和图3B示出了本文中公开的光学控制设备的实施例的侧视图。附图标记在图1至图3之间是一致的。图3B图示了用于防止灰尘和碎屑积聚在图1至图3中所示的光学控制设备的光学元件上的机构。在一些实施例中,光学元件可包括在反射镜上的硬挡块(stop)351,以防止波束撞击在表面上预定边界之外的光学控制设备的区域。光学元件(例如,波束组合元件和一个或两个反射元件)可由外壳保护。光学元件可由外壳包围。在一些实施例中,外壳被密封以防止灰尘、碎屑、水或它们的任何组合接触光学元件。如图3B中所示,外壳可包括激光逸出窗(escape window)107。在一些实施例中,激光逸出窗定位成在波束路径中与第二反射元件之后的波束相交,或者激光逸出窗定位成在波束路径中与第一反射元件之后的波束相交。在一些实施例中,激光逸出窗是波束路径中的最后一个元件。激光逸出窗可防止灰尘、碎屑、水或它们的任何组合到达光学元件。在一些实施例中,激光逸出窗包括对电磁辐射(诸如光)基本上透明的材料。例如,激光逸出窗可包括玻璃、石英、熔融二氧化硅、硒化锌、透明聚合物或它们的组合。
外壳还可包括自清洁设备,该自清洁设备构造成防止灰尘或碎屑在激光逸出窗的表面上积聚或者去除已经积聚在激光逸出窗的表面上的灰尘或碎屑。在一些实施例中,自清洁设备包括在外壳的外表面中的孔口352,该孔口352构造成排出清洁空气353。清洁空气可防止碎屑损坏激光逸出窗。在一些实施例中,清洁空气可被过滤。孔口可构造成将空气流朝向逸出窗的外表面引导。该孔口可构造成使得清洁空气横跨激光逸出窗的表面被引导。在一些实施例中,外壳构造成导向清洁空气而不阻碍波束102。例如,外壳可包括在波束路径中的激光逸出窗之后的开口354,该开口354具有间隙,使得波束可不受阻碍地通过。在一些实施例中,开口包括与孔口相对的壁。壁可构造成控制空气流的方向并减少湍流而不阻碍波束。开口可涵盖激光逸出窗和波束路径,并且构造成使得开口在波束路径的方向上靠近激光逸出窗较窄并且远离激光逸出窗较宽。在一些实施例中,开口具有光滑的拐角355,以允许清洁空气通过同时防止湍流。
在离开光学控制系统之后,波束102可朝向表面被引导,如图4A和图4B中所示。在一些实施例中,表面包括目标,例如杂草。如图2中所示,反射元件105和106中的一者或两者的旋转运动可产生沿着第一平移轴线401的激光扫掠和沿着第二平移轴线402的激光扫掠,分别如图4A和图4B的视图400和450中所示。反射元件中的一者或两者的旋转运动可控制波束遇到表面的位置。例如,反射元件中的一者或两者的旋转运动可将波束遇到表面的位置移动到目标在表面上的方位。在一些实施例中,波束构造成损坏目标。例如,波束可包括电磁辐射,并且波束可辐照目标。在另一个示例中,波束可包括红外光,并且波束可燃烧目标。在一些实施例中,反射元件中的一者或两者可旋转,使得波束扫描围绕目标并包括目标的区域。
复合系统
在一些实施例中,可组合多个光学控制系统以增加表面上的覆盖区。图5图示了包括多个光学控制系统100的复合系统500。多个光学控制系统配置成使得沿着每个光学控制系统的平移轴线402的激光扫掠与沿着相邻光学控制系统的平移轴线的激光扫掠重叠。组合激光扫掠限定覆盖区503,该覆盖区可由来自多个光学控制系统的多个波束中的至少一个波束到达。预测相机501可定位成使得预测相机视场502完全涵盖覆盖区503。
多个光学控制系统可构造在车辆601上,如图6的视图600和图7的视图700中所示。例如,车辆可为自主车辆。自主车辆可为机器人。在一些实施例中,车辆可由人控制。例如,车辆可由人类驾驶员驾驶。在一些实施例中,车辆可耦联到由人类驾驶员驾驶的第二车辆,例如拖曳在第二车辆后面或由第二车辆推动。车辆可由人类例如通过远程控制器远程控制。在一些实施例中,车辆可经由长波信号、光信号、卫星或任何其它远程通信方法远程控制。多个光学控制系统可构造在车辆上,使得覆盖区与车辆下面、后面、前面或周围的表面重叠。车辆可构造成在包括多个目标的表面(例如,包括多个杂草的作物田地)上导航。车辆可包括多个车轮、功率源、马达、预测相机501或它们的任何组合中的一个或多个。在一些实施例中,车辆在表面上方具有足够的间隙,以在植物(例如,作物)上方行驶,而不损坏植物。在一些实施例中,左车轮的内边缘和右车轮的内边缘之间的空间足够宽,以在一行植物上方通过,而不损坏植物。在一些实施例中,左车轮的外边缘和右车轮的外边缘之间的距离足够窄,以允许车辆在两行植物(例如,两行作物)之间通过,而不损坏植物。在优选实施例中,包括多个车轮、多个光学控制系统和预测相机的车辆可在成行的作物上导航,并朝向目标(例如,杂草)发射多个波束中的一个波束,从而燃烧或辐照杂草。
预测模块
本文中公开了一种配置成定位表面上的目标的预测模块。图8图示了配置成识别、分配和瞄准目标的预测模块810。在一些实施例中,目标预测系统811配置成使用预测相机501捕获包括表面的预测视场的图像、识别图像中的目标并在预测视场中定位目标。相机到控制转变系统812可构造成将预测视场中的目标的位置转变为表面上的方位。例如,相机到控制转变系统可建立多个内插函数,其提供从预测视场中的位置到控制一个或多个反射元件105和106的一个或多个致动器的一个或多个致动器方位(例如,平移和倾斜方位)的转变,如图1至图3中所示。
图8中所示的预测模块810还可包括姿态和运动校正系统813。姿态和运动校正系统可包括定位系统,例如惯性测量单元(IMU)、全球定位系统(GPS)或内部导航系统(INS)。姿态和运动校正系统可利用惯性测量单元(IMU),该惯性测量单元可直接或间接耦联到预测相机。例如,预测相机和IMU可安装到车辆。IMU可收集IMU以及直接或间接耦联到IMU的任何东西(诸如预测相机)的运动读数。例如,IMU可收集包括可用来确定经过的时间内的运动的幅度和方向的三维加速度和三维旋转信息的读数。姿态和运动校正系统可包括全球定位系统(GPS)。GPS可直接或间接耦联到瞄准相机。例如,GPS可与基于卫星的无线电导航系统通信,以在第一时间测量瞄准相机的第一方位并在第二时间测量瞄准相机的第二方位。姿态和运动校正系统可包括内部导航系统(INS)。INS可直接或间接地耦联到瞄准相机。例如,INS可包括运动传感器(例如,加速度计)和旋转传感器(例如,陀螺仪),以测量瞄准相机的方位、取向和速度。姿态和运动校正系统可使用或者可不使用外部参考来确定瞄准相机的方位中的变化。姿态和运动校正系统可确定瞄准相机的方位从第一方位和第二方位的变化。在一些实施例中,在目标预测系统在图像中定位目标之后,姿态和运动校正系统确定自图像被捕获以来已经经过的时间量以及在经过的时间期间已经发生的预测相机的运动的幅度和方向。姿态和运动校正系统可集成目标位置、经过的时间以及运动的幅度和方向,以确定目标在表面上的校正的位置。
预测模块还可包括图像检测模块(image detection module)。成像检测模块(imaging detection module)可配置成定位和识别图像中的目标。例如,成像检测模块可配置成在两种植物之间(诸如在作物和杂草之间)进行区分。在一些实施例中,成像检测模块包括使用卷积神经网络。神经网络可利用有或没有目标的表面的许多图像(诸如来自预测相机或瞄准相机的图像)来训练。例如,神经网络可利用有或没有杂草的田地的图像来训练。一旦被训练,神经网络可配置成识别图像中包括目标的区域。该区域可由多边形(例如,矩形)限定。在一些实施例中,该区域是边界框。在一些实施例中,该区域是覆盖被识别区域的多边形掩模。
基于目标的位置,目标分配系统814可将目标分配给多个瞄准模块中的瞄准模块820。目标的位置可基于在经过的时间期间的运动的幅度和方向来校正,或者该位置可在由多边形限定的区域内,或者两种情况都有。未来目标位置可基于在未来时间段期间的运动的预测幅度和方向来确定。目标分配模块可将目标分配给具有与目标位置、校正的目标位置或未来目标位置重叠的覆盖区的瞄准模块。
预测模块可包括系统控制器,例如具有存储装置、随机存取存储器(RAM)、中央处理单元(CPU)和图形处理单元(GPU)的系统计算机。系统计算机可包括张量处理单元(TPU)。系统计算机应当包括足够的RAM、存储空间、CPU处理能力和GPU处理能力来执行检测和识别目标的操作。预测相机应当提供具有足够分辨率的图像,以便在其上执行检测和识别目标的操作。
瞄准模块
本文中公开了构造成将波束朝向表面上的目标位置引导的瞄准模块。图8图示了瞄准模块820,该瞄准模块820配置成预测目标的位置并移动一个或多个光学元件以将波束朝向目标位置引导。多个瞄准模块可与预测模块810通信。瞄准模块包括如本文中所述的光学控制系统。例如,如图1至图3中所示,瞄准模块可包括:发射器101,其沿着光学路径发射波束102;和波束组合元件103;任选地瞄准相机104;第一反射元件105,其构造成偏转由第一致动器控制的波束;和任选地定位在光学路径中的第二反射元件106,其构造成偏转由第二致动器控制的波束。致动器中的一者或两者可构造成围绕第一旋转轴线和任选地第二旋转轴线旋转反射元件中的一者或两者,从而改变波束路径的偏转并使波束遇到表面的方位沿着第一平移轴线和可选地沿着第二平移轴线平移。在一些实施例中,第一致动器和第二致动器可围绕第一旋转轴线和第二旋转轴线旋转单个反射元件,从而提供波束遇到表面的点的方位沿着第一平移轴线和第二平移轴线的平移。预测相机应当具有足够大的视场来对波束路径的覆盖区成像。
如图8中所示,目标预测系统821捕获表面上的区的图像。该区可被预测为包含目标,如由预测模块810预测的那样。目标预测系统可识别图像中目标的像素位置。相机到控制转变系统822可将目标图像的像素位置转换成第一反射元件的方位以及任选地第二反射元件的方位。反射元件的方位可由致动器控制,如本文中所述。例如,相机到控制转变系统可将目标的像素位置转换成一个或两个致动器的平移或倾斜值,所述致动器对应于预测的将波束偏转到目标位置的反射镜方位。
在一些实施例中,目标预测系统还包括图像检测模块。成像检测模块可配置成定位和识别图像中的目标。例如,成像检测模块可配置成在两种植物之间(诸如在作物和杂草之间)进行区分。在一些实施例中,成像检测模块包括使用卷积神经网络。神经网络可利用有或没有目标的表面的许多图像(诸如来自预测相机或瞄准相机的图像)来训练。例如,神经网络可利用有或没有杂草的田地的图像来训练。一旦被训练,神经网络可配置成识别图像中包括目标的区域。该区域可由多边形(例如,矩形)限定。在一些实施例中,该区域是边界框。在一些实施例中,该区域是覆盖被识别区域的多边形掩模。
目标位置可使用姿态和运动校正系统823进一步校正。姿态和运动校正系统可使用定位系统(例如,IMU、GPS或INS)来确定瞄准相机的运动的幅度和方向。在一些实施例中,来自直接或间接耦联到瞄准相机的IMU的加速度和旋转读数被用来确定运动的幅度和方向。例如,预测相机和IMU可安装到车辆。IMU可收集IMU以及直接或间接耦联到IMU的任何东西(诸如瞄准相机)的运动读数。例如,IMU可收集包括可用来确定经过的时间内的运动的幅度和方向的三维加速度和三维旋转信息的读数。在一些实施例中,姿态和运动校正系统可使用GPS来确定瞄准相机的运动的幅度和方向。例如,GPS可安装到车辆。GPS可与基于卫星的无线电导航系统通信,以在第一时间测量瞄准相机的第一方位并在第二时间测量瞄准相机的第二方位。在一些实施例中,姿态和运动校正系统可使用INS来确定瞄准相机的运动的幅度和方向。例如,INS可测量瞄准相机的方位、取向和速度。在一些实施例中,在目标预测系统821在图像中定位目标之后,姿态和运动校正系统确定自图像被捕获以来已经经过的时间量以及在经过的时间期间已经发生的瞄准相机的运动的幅度和方向。姿态和运动校正系统可集成目标位置、经过的时间以及运动的幅度和方向,以确定目标在表面上的校正的位置。在一些实施例中,由瞄准模块823的姿态和运动校正系统使用的定位系统和由预测模块813的姿态和运动校正系统使用的定位系统是相同的。未来目标位置可基于在未来时间段期间的运动的预测幅度和方向来确定。在一些实施例中,由瞄准模块的姿态和运动校正系统使用的定位系统和由预测模块的姿态和运动校正系统使用的定位系统是不同的。
致动器控制系统824包括软件驱动的电气部件,所述软件驱动的电气部件能够向第一致动器和任选地第二致动器提供信号,从而控制第一反射元件和任选地第二反射元件。例如,致动器控制系统向第一致动器和第二致动器发送包括致动器平移倾斜(pantilt)值的信号。致动器采用信号通知的平移倾斜方位并围绕第一旋转轴线和第二旋转轴线将第一反射元件和第二反射元件移动到使得波束被偏转到目标位置、校正的目标位置或未来目标位置的方位。
激光控制系统825包括能够控制发射器的启用和停用的软件驱动的电气部件。启用或停用可取决于由瞄准相机104检测到的目标的存在或不存在。启用或停用可取决于朝向表面引导的波束路径相对于目标位置的方位。在一些实施例中,当目标由预测系统识别时,激光控制系统可启用发射器。在一些实施例中,当波束路径定位成与目标位置重叠时,激光控制系统可启用发射器。在一些实施例中,当波束路径在包括由多边形(例如,边界框或覆盖被识别区域的多边形掩模)限定的目标的表面的区域内时,激光控制系统可激发发射器。一旦目标已经被消除,包括目标的区域已经由波束扫描,目标不再由目标预测模块识别,指定的时间段已经过去,或者它们的任何组合,激光控制系统可停用发射器。例如,一旦表面上包括杂草的区域已经由波束扫描,或者一旦杂草已经被辐照或燃烧,激光控制系统可停用发射器。
本文中所述的预测模块和瞄准模块可组合使用,以利用波束定位、识别和瞄准目标。瞄准控制模块可包括如本文中所述的光学控制系统。预测模块和瞄准模块可通信,例如电通信或数字通信。在一些实施例中,预测模块和瞄准模块直接或间接耦联。例如,预测模块和瞄准模块可耦联到支撑结构。在一些实施例中,预测模块和瞄准模块构造在车辆(例如,车辆601)上,如图6和图7中所示。
瞄准模块可包括系统控制器,例如具有存储装置、随机存取存储器(RAM)、中央处理单元(CPU)和图形处理单元(GPU)的系统计算机。系统计算机可包括张量处理单元(TPU)。系统计算机应当包括足够的RAM、存储空间、CPU处理能力和GPU处理能力来执行检测和识别目标的操作。瞄准相机应当提供具有足够分辨率的图像,以便在其上执行检测和识别目标的操作。
校准方法
本文中公开的预测模块还可包括校准步骤。在一些实施例中,预测模块812的相机到控制转变系统被校准。在一些实施例中,校准表面定位在预测相机的视场内。校准表面包括在已知方位处的已知标记。预测相机可在相对于校准表面的不同方位处收集校准表面的多个图像。预测模块随后可将已知标记的像素方位与表面上的已知方位关联。可从多个相关像素方位和已知表面方位构建内插函数。在一些实施例中,内插函数可保存到硬盘驱动器并由预测模块从硬盘驱动器加载。
本文中公开的瞄准模块还可包括校准步骤。在一些实施例中,瞄准模块812的相机到控制转变系统被校准。在一些实施例中,校准表面定位在瞄准相机的视场内。校准表面包括在已知方位处的已知标记。瞄准模块可收集校准表面的多个图像和多个致动器方位,使得多个图像包括不同的视场。例如,瞄准模块可在第一致动器和第二致动器的多个随机选择的平移倾斜值处收集多个图像。校准图可由多个采样点构建。每个采样点可通过识别在已知致动器方位处收集的图像中的已知标记的像素位置并将已知位置与致动器方位和像素位置关联来收集。在一些实施例中,地图被拟合到样条平滑算法,以构建平滑曲线,从而允许对采样点之间的位置进行精确估计。在一些实施例中,样条平滑算法可保存到硬盘驱动器并由瞄准模块从硬盘驱动器加载。
杂草根除系统
图9图示了用于本文中公开的设备和方法的实施例的过程900。下面的示例是说明性的并且不限制到本文中描述的设备、系统和方法的范围。该过程包括识别、分配、瞄准和根除田地中的杂草。在该示例中,杂草根除系统包括与多个瞄准模块820通信的预测模块810。预测模块和瞄准模块由系统控制器(例如,包括存储装置、RAM、CPU和GPU的计算机)控制。每个瞄准模块包括光学控制系统100,如图1至图3中所示。预测模块和瞄准模块耦联到固体支撑件。如图6和图7中所示,固体支撑件定位在车辆601上。
如图9中所示,迭代操作920、930、940、950和960,直到感兴趣的田地被完全扫描910为止。首先,预测模块运行操作920。预测相机收集在车辆周围或前方的区中的田地表面的图像。系统控制器处理图像并识别图像中的杂草。在步骤921,预测模型预测在图像中识别的一个或多个杂草的位置。在步骤922,相机到控制系统将图像中杂草的像素坐标转变到地面位置。在922,系统控制器基于由IMU测量的车辆的运动来指示车辆调整方位和速度923。基于杂草的地面位置和瞄准模块的覆盖区,将一个或多个杂草中的每一个分配给瞄准模块924。
针对每个目标模块925迭代操作930、940、950和960。针对每个杂草迭代操作940、950和960。多个瞄准模块中的瞄准模块运行操作940。瞄准相机捕获田地的目标图像,并且系统控制器识别目标图像中的杂草941。系统控制器将目标图像中杂草的像素位置转变成用于控制由瞄准模块控制的光学控制系统中的每个反射元件的每个致动器的平移和倾斜值942。系统控制器在943基于由IMU测量的车辆的运动对致动器平移和倾斜值应用姿态和运动校正,并为由致动器平移和倾斜方位控制的发射波束路径规划路线944。一旦致动器到达确定的方位,发射器被启用945。
重复操作950,同时实现规划的路线946。在由瞄准相机收集的图像中识别杂草,并且基于观察到的杂草的方位来更新路线计划952。在953,系统控制器基于由IMU测量的车辆的运动对致动器平移和倾斜值应用姿态和运动校正。基于更新的路线计划954将致动器移入方位。一旦规划的路线已经完成,发射器就被停用960。
虽然本文已经示出和描述了本公开的优选实施例,但是对于本领域技术人员来说,显然这些实施例仅仅是作为示例提供的。在不脱离本公开的情况下,本领域技术人员现在将会想到许多变型、改变和替换。应当理解,在实践本公开时,可采用本文中所述的本公开的实施例的各种备选方案。所附权利要求书旨在限定本公开的范围,并且在这些权利要求及其等同物的范围内的方法和结构由此被覆盖。

Claims (64)

1.一种光学控制系统,包括:
发射器,其构造成沿着光学路径朝向在表面上的目标位置发射波束,其中,所述目标位置通过自主地定位在所述表面上的目标来确定;
第一反射元件,其定位成与所述光学路径相交并偏转所述波束;
第一瞄准致动器,其连接到所述第一反射元件并构造成旋转所述第一反射元件并使所述波束朝向所述目标位置偏转;和
组合元件,其定位在所述发射器和所述第一反射元件之间的光学路径中,并构造成有差别地偏转所述波束和在与所述波束相反的方向上沿着所述光学路径行进的来自所述目标位置的散射光。
2.根据权利要求1所述的光学控制系统,还包括瞄准相机,所述瞄准相机光学地连接到所述组合元件并配置成接收反射离开所述第一反射元件的散射光并对包括所述目标位置的瞄准视场成像。
3.根据权利要求1或权利要求2所述的光学控制系统,其中,所述光学控制系统配置成在所述光学控制系统相对于所述表面移动的同时将所述波束朝向所述目标位置引导。
4.根据权利要求1至3中任一项所述的光学控制系统,还包括瞄准系统计算机,所述瞄准系统计算机配置成检测相对于所述目标位置的瞄准视场的像素移动并将所述瞄准视场的像素移动转换成所述第一反射元件的旋转。
5.根据权利要求4所述的光学控制系统,其中,从所述像素移动转换成所述第一反射元件的旋转包括参考校准函数。
6.根据权利要求5所述的光学控制系统,其中,通过将校准表面上的基准标记的位置与相机像素移动关联来获得所述校准函数。
7.根据权利要求1至6中任一项所述的光学控制系统,还包括耦联到所述光学控制系统的惯性测量单元,其中,所述惯性测量单元配置成测量所述光学控制系统的加速度、所述光学控制系统相对于所述表面的旋转或它们的组合。
8.根据权利要求7所述的光学控制系统,其中,所述瞄准系统计算机配置成基于自成像以来的时间量、所述光学控制系统的加速度、所述光学控制系统相对于所述表面的旋转或它们的组合来调整所述目标位置。
9.根据权利要求1至8中任一项所述的光学控制系统,其中,所述光学控制系统被封闭在外壳中,所述外壳包括逸出窗,所述逸出窗能够透射所述发射和所述可见光并定位在所述第一反射元件和所述表面之间的光学路径中。
10.根据权利要求9所述的光学控制系统,其中,所述光学控制系统被完全封闭在所述外壳中。
11.根据权利要求9或权利要求10所述的光学控制系统,还包括空气源,所述空气源构造成将空气流从所述外壳的外表面中的孔口朝向所述逸出窗的外表面引导。
12.根据权利要求9至11中任一项所述的光学控制系统,其中,所述外壳还包括与所述孔口相对的壁,所述壁构造成控制所述空气流的方向并减少湍流而不阻碍所述波束。
13.根据权利要求1至12中任一项所述的光学控制系统,其中,所述第一反射元件是反射镜。
14.根据权利要求1至13中任一项所述的光学控制系统,其中,所述组合元件透射所述波束并反射所述可见光。
15.根据权利要求1至14中任一项所述的光学控制系统,其中,所述发射器是激光发射器。
16.根据权利要求15所述的光学控制系统,其中,所述激光发射器选自由红外激光器、紫外激光器和可见光激光器组成的组。
17.根据权利要求1至16中任一项所述的光学控制系统,还包括第二瞄准致动器,所述第二瞄准致动器连接到所述第一反射元件并构造成旋转所述第一反射元件并使所述波束朝向所述目标位置偏转。
18.根据权利要求1至16中任一项所述的光学控制系统,还包括:第二反射元件,其定位成与所述光学路径相交并使由所述第一反射元件偏转的波束偏转;和第二瞄准致动器,其连接到所述第二反射元件并构造成旋转所述第二反射元件并使所述波束朝向所述目标位置偏转。
19.根据权利要求17或权利要求18所述的光学控制系统,其中,所述第一瞄准致动器沿着第一轴线偏转所述波束,并且所述第二瞄准致动器沿着第二轴线偏转所述波束,其中,所述第一轴线和所述第二轴线正交。
20.根据权利要求1至19中任一项所述的光学控制系统,其中,相对于所述波束的方向,所述组合元件定位在所述发射器之后,所述第一反射元件定位在所述组合元件之后,并且所述第二反射元件定位在所述第一反射元件之后。
21.根据权利要求1至20中任一项所述的光学控制系统,其中,杂草定位在所述目标位置处。
22.一种杂草根除方法,包括:
利用预测相机捕获预测视场的图像;
在预测视场中定位目标;
将所述目标分配给多个瞄准模块中的一个,所述多个瞄准模块包括具有与所述目标的位置重叠的瞄准视场的瞄准相机;
利用所述瞄准相机捕获所述瞄准视场的图像;
在所述瞄准视场中定位所述目标;和
将波束朝向所述目标的位置引导。
23.根据权利要求22所述的杂草根除方法,其中,在所述预测视场中定位所述目标还包括识别所述目标在所述预测视场中的方位。
24.根据权利要求22或权利要求23所述的杂草根除方法,还包括识别包含所述目标的区域,其中,所述区域由多边形限定。
25.根据权利要求22至24中任一项所述的杂草根除方法,还包括将所述方位转换成预测的表面位置。
26.根据权利要求22至25中任一项所述的杂草根除方法,还包括确定所述瞄准视场中的预期移动。
27.根据权利要求26所述的杂草根除方法,还包括将所述预期移动转换成致动器方位改变。
28.根据权利要求22至27中任一项所述的杂草根除方法,其中,定位所述目标包括使用训练的神经网络识别目标。
29.根据权利要求28所述的杂草根除方法,其中,所述训练的神经网络能够在所述目标周围提供边界框、多边形掩模或它们的组合。
30.根据权利要求28或29所述的杂草根除方法,其中,所述训练的神经网络是利用田地的图像训练的。
31.根据权利要求22至30中任一项所述的杂草根除方法,其中,在所述瞄准视场中定位所述目标还包括参考通过将校准表面上的基准标记的位置与相机像素坐标关联而获得的校准函数以及校正所述目标的位置。
32.根据权利要求22至31中任一项所述的杂草根除方法,其中,将所述目标分配给所述多个瞄准模块中的一个包括将所述目标的位置提供给所述多个瞄准模块中的一个。
33.根据权利要求22至32中任一项所述的杂草根除方法,其中,将波束朝向所述目标的位置引导还包括参考通过将校准表面上的基准标记的像素移动与致动器倾斜值关联而获得的校准函数以及校正所述致动器倾斜值。
34.根据权利要求22至33中任一项所述的杂草根除方法,还包括一旦所述目标已被损坏或杀死就停用所述波束。
35.根据权利要求22至34中任一项所述的杂草根除方法,其中,利用所述瞄准相机捕获所述瞄准视场的图像、在所述瞄准视场中定位所述目标以及将波束朝向所述目标的位置引导以高精度执行。
36.根据权利要求22至35中任一项所述的杂草根除方法,其中,所述目标是杂草。
37.根据权利要求36所述的杂草根除方法,还包括损坏或杀死所述杂草。
38.根据权利要求37所述的杂草根除方法,其中,损坏或杀死所述杂草包括辐照所述杂草。
39.根据权利要求36所述的杂草根除方法,其中,损坏或杀死所述杂草包括燃烧所述杂草。
40.根据权利要求36至39中任一项所述的杂草根除方法,其中,定位所述目标包括在所述杂草和预期植物之间进行区分。
41.一种瞄准系统,包括预测模块、瞄准模块和光学控制模块;
所述预测模块包括:
预测相机,其配置成对在表面上的预测视场成像并定位所述预测视场中的目标,和
预测模块控制器,其配置成将所述预测视野中的目标的位置转换成在所述表面上的预测位置并将所述目标分配给所述瞄准模块;
所述瞄准模块包括:
瞄准模块控制器,其配置成将所述预测位置转换成瞄准致动器的方位;并且
所述光学控制模块包括:
发射器,其构造成沿着光学路径朝向所述目标发射波束,和
所述瞄准致动器,其构造成从所述瞄准模块控制器接收方位信息并使所述波束朝向所述目标偏转。
42.根据权利要求41所述的瞄准系统,其中,所述瞄准系统还包括瞄准相机,所述瞄准相机配置成对在所述表面上的瞄准视场成像并在所述瞄准视场中定位所述目标。
43. 根据权利要求41或42所述的瞄准系统,其中,所述光学控制模块还包括:
第一反射元件,其由所述瞄准致动器控制并定位成与所述光学路径相交并偏转所述波束,和
组合元件,其定位在所述发射器和所述第一反射元件之间的光学路径中,并构造成有差别地偏转所述波束和在与所述波束相反的方向上沿着所述光学路径行进的来自所述瞄准视场的散射光。
44.根据权利要求41至43中任一项所述的瞄准系统,其中,所述光学控制模块配置成在所述瞄准系统相对于所述表面移动的同时将所述波束朝向所述目标引导。
45.根据权利要求41至44中任一项所述的瞄准系统,其中,所述瞄准模块配置成检测所述瞄准视场相对于所述目标的像素移动并从所述瞄准视场的像素移动转换成所述瞄准致动器的运动。
46.根据权利要求41至45中任一项所述的瞄准系统,还包括惯性测量单元,所述惯性测量单元配置成测量所述瞄准系统的加速度和所述瞄准系统相对于所述表面的旋转。
47.根据权利要求41至46中任一项所述的瞄准系统,其中,所述瞄准模块配置成基于自成像以来的时间量、所述瞄准系统的加速度、所述瞄准系统相对于所述表面的旋转或它们的组合来调整所述预测位置。
48. 根据权利要求41至47中任一项所述的瞄准系统,还包括第二瞄准模块,所述第二瞄准模块包括:
第二瞄准相机,其配置成对在所述表面上的第二瞄准视场成像并在所述第二瞄准视场中定位所述目标,和
瞄准模块控制器,其配置成将所述目标在所述第二瞄准视场中的位置转换成第二瞄准致动器的方位。
49.根据权利要求41至48中任一项所述的瞄准系统,其中,所述预测视场包括所述瞄准视场。
50.根据权利要求41至49中任一项所述的瞄准系统,还包括运输所述预测相机和所述光学控制模块的车辆。
51.根据权利要求50所述的瞄准系统,其中,所述车辆是自主车辆。
52.根据权利要求50或权利要求51所述的瞄准系统,其中,所述车辆包括多个车轮。
53.根据权利要求52所述的瞄准系统,其中,所述光学控制模块被封闭在外壳中,所述外壳包括逸出窗,所述逸出窗能够透射所述发射和所述可见光并定位在所述第一反射元件和所述表面之间的光学路径中。
54.根据权利要求53所述的瞄准系统,其中,所述光学控制模块被完全封闭在所述外壳中。
55.根据权利要求53或权利要求54所述的瞄准系统,还包括空气源,所述空气源构造成将空气流从所述外壳的外表面中的孔口朝向所述逸出窗的外表面引导。
56.根据权利要求53至55中任一项所述的瞄准系统,其中,所述外壳还包括与所述孔口相对的壁,所述壁构造成控制所述空气流的方向并减少湍流而不阻碍所述波束。
57.根据权利要求43至56中任一项所述的瞄准系统,其中,所述第一反射元件是反射镜。
58.根据权利要求43至57中任一项所述的瞄准系统,其中,所述组合元件透射所述波束并反射所述可见光。
59.根据权利要求41至58中任一项所述的瞄准系统,其中,所述发射器是激光发射器。
60.根据权利要求59所述的瞄准系统,其中,所述激光发射器选自由红外激光器、紫外激光器和可见光激光器组成的组。
61.根据权利要求43至60中任一项所述的瞄准系统,其中,所述光学控制模块还包括第二瞄准致动器,所述第二瞄准致动器连接到所述第一反射元件并构造成旋转所述第一反射元件并使所述波束朝向所述目标偏转。
62.根据权利要求43至61中任一项所述的瞄准系统,其中,所述光学控制模块还包括:第二反射元件,其定位成与所述光学路径相交并使由所述第一反射元件偏转的波束偏转;和第二瞄准致动器,其连接到所述第二反射元件并构造成旋转所述第二反射元件并使所述波束朝向所述目标偏转。
63.根据权利要求61或62所述的瞄准系统,其中,所述第一瞄准致动器沿着第一轴线偏转所述波束,并且所述第二瞄准致动器沿着第二轴线偏转所述波束,其中,所述第一轴线和所述第二轴线正交。
64.根据权利要求62或权利要求63所述的瞄准系统,其中,相对于所述波束的方向,所述组合元件定位在所述发射器之后,所述第一反射元件定位在所述组合元件之后,并且所述第二反射元件定位在所述第一反射元件之后。
CN202080079695.0A 2019-09-17 2020-09-16 自主激光杂草根除 Pending CN114641666A (zh)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US201962901641P 2019-09-17 2019-09-17
US62/901641 2019-09-17
PCT/US2020/051081 WO2021055485A1 (en) 2019-09-17 2020-09-16 Autonomous laser weed eradication

Publications (1)

Publication Number Publication Date
CN114641666A true CN114641666A (zh) 2022-06-17

Family

ID=74867714

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202080079695.0A Pending CN114641666A (zh) 2019-09-17 2020-09-16 自主激光杂草根除

Country Status (9)

Country Link
US (3) US11602143B2 (zh)
EP (1) EP4031832A4 (zh)
JP (1) JP2022548645A (zh)
KR (1) KR20220062090A (zh)
CN (1) CN114641666A (zh)
AU (1) AU2020351150A1 (zh)
CA (1) CA3152982A1 (zh)
IL (1) IL290967A (zh)
WO (1) WO2021055485A1 (zh)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20220299635A1 (en) * 2021-03-17 2022-09-22 Carbon Autonomous Robotic Systems Inc. Systems and methods for point to point object matching and targeting
WO2023049979A1 (pt) * 2021-10-01 2023-04-06 Tecsoil Automação E Sistemas S.A. Plataforma robótica autônoma para identificação e controle de pragas
WO2023141144A1 (en) * 2022-01-19 2023-07-27 Carbon Autonomous Robotic Systems Inc. Systems and methods for object tracking and location prediction
CN114568418B (zh) * 2022-02-16 2023-03-14 海南思沃家电子商务有限公司 一种农业除杂系统
DE202022001391U1 (de) 2022-06-18 2022-07-12 Volker Johanning Autonom agierende Vorrichtung zur Beseitigung von Unkraut in horizontalen Fugen

Family Cites Families (51)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US3778155A (en) * 1972-08-07 1973-12-11 Cutler Hammer Inc Method and apparatus for reducing optical interference patterns recorded by contact printers
US6199000B1 (en) * 1998-07-15 2001-03-06 Trimble Navigation Limited Methods and apparatus for precision agriculture operations utilizing real time kinematic global positioning system systems
US20160286779A1 (en) * 1999-05-14 2016-10-06 Applied Information Movement And Management, Inc Airborne biota monitoring and control system
JP2001046321A (ja) * 1999-08-09 2001-02-20 Asahi Optical Co Ltd 内視鏡装置
US7859519B2 (en) * 2000-05-01 2010-12-28 Tulbert David J Human-machine interface
US9955551B2 (en) * 2002-07-12 2018-04-24 Yechezkal Evan Spero Detector controlled illuminating system
WO2013111134A1 (en) * 2012-01-24 2013-08-01 Yechezkal Evan Spero Detector controlled illuminating system
EP1904826B1 (en) * 2005-07-14 2019-02-20 Battelle Memorial Institute Systems and methods for biological and chemical detection
US8216214B2 (en) * 2007-03-12 2012-07-10 Ethicon Endo-Surgery, Inc. Power modulation of a scanning beam for imaging, therapy, and/or diagnosis
US7919723B2 (en) * 2007-04-03 2011-04-05 Renewable Thermodynamics, Llc Apparatus and method for cutting lawns using lasers
AU2008323626B2 (en) * 2007-11-15 2014-09-18 Garrett Thermal Systems Limited Particle detection
WO2009126264A2 (en) * 2008-04-06 2009-10-15 David Chaum Proximal image projection system
FR2941047A1 (fr) * 2009-01-15 2010-07-16 Centre Nat Rech Scient Dispositif et procede de determination d'une information de polarisation et imageur polarimetrique
WO2011047214A2 (en) * 2009-10-14 2011-04-21 Optimum Technologies, Inc. Portable retinal camera and image acquisition method
WO2011093757A1 (en) * 2010-01-29 2011-08-04 Saab Ab A system and method for tracking and guiding at least one object
US8746914B2 (en) * 2010-02-15 2014-06-10 Webb T. Nelson Sports set that utilize stereoscopic illumination and retroreflective materials
DE112012001082B4 (de) * 2011-03-03 2015-12-03 Faro Technologies Inc. Verfahren zum Messen von Zielen
US20130194548A1 (en) * 2011-04-07 2013-08-01 Raytheon Company Portable retinal imaging device
GB2504890A (en) * 2011-04-15 2014-02-12 Faro Tech Inc Enhanced position detector in laser tracker
ES2763412T3 (es) * 2011-11-09 2020-05-28 Francois Gabriel Feugier Sistema de control de plagas, método de control de plagas y programa de control de plagas
US9639941B2 (en) * 2012-12-28 2017-05-02 Trimble Inc. Scene documentation
US9467814B2 (en) * 2012-12-28 2016-10-11 Trimble Navigation Limited Collecting external accessory data at a mobile data collection platform that obtains raw observables from an external GNSS raw observable provider
US9462446B2 (en) * 2012-12-28 2016-10-04 Trimble Navigation Limited Collecting external accessory data at a mobile data collection platform that obtains raw observables from an internal chipset
US9456067B2 (en) * 2012-12-28 2016-09-27 Trimble Navigation Limited External electronic distance measurement accessory for a mobile data collection platform
US9476695B2 (en) * 2013-07-03 2016-10-25 Faro Technologies, Inc. Laser tracker that cooperates with a remote camera bar and coordinate measurement device
US9565848B2 (en) 2013-09-13 2017-02-14 Palo Alto Research Center Incorporated Unwanted plant removal system
US9705289B2 (en) * 2014-03-06 2017-07-11 Nlight, Inc. High brightness multijunction diode stacking
US10126415B2 (en) * 2014-12-31 2018-11-13 Faro Technologies, Inc. Probe that cooperates with a laser tracker to measure six degrees of freedom
US9992396B1 (en) * 2015-02-02 2018-06-05 Apple Inc. Focusing lighting module
KR20160117815A (ko) * 2015-03-31 2016-10-11 삼성전자주식회사 광학 검사 장치
KR20170139626A (ko) * 2015-04-22 2017-12-19 트리나미엑스 게엠베하 하나 이상의 물체의 광학적 검출을 위한 검출기
US9747503B2 (en) * 2015-12-30 2017-08-29 Surefire Llc Optical narrowcasting augmented reality
WO2017139885A1 (en) * 2016-02-16 2017-08-24 UNIVERSITé LAVAL Method and system for improving lateral resolution in optical scanning microscopy
WO2017149526A2 (en) * 2016-03-04 2017-09-08 May Patents Ltd. A method and apparatus for cooperative usage of multiple distance meters
KR102472631B1 (ko) * 2016-09-20 2022-11-30 이노비즈 테크놀로지스 엘티디 Lidar 시스템 및 방법
EP3566078A1 (en) * 2017-01-03 2019-11-13 Innoviz Technologies Ltd. Lidar systems and methods for detection and classification of objects
JP7157054B2 (ja) * 2017-01-26 2022-10-19 モービルアイ ビジョン テクノロジーズ リミテッド 整合画像及びlidar情報に基づいた車両ナビゲーション
KR101994937B1 (ko) * 2017-02-15 2019-07-01 울산과학기술원 어레이 트랜듀서 기반 측면 스캔 광음향-초음파 내시경 시스템
JP6635073B2 (ja) * 2017-03-01 2020-01-22 カシオ計算機株式会社 読取装置
JP6626036B2 (ja) * 2017-04-18 2019-12-25 ファナック株式会社 測定機能を有するレーザ加工システム
US11153499B2 (en) * 2017-07-19 2021-10-19 Perkinelmer Health Sciences, Inc. Rapid, high dynamic range image acquisition with a charge-coupled device (CCD) camera
WO2019064062A1 (en) * 2017-09-26 2019-04-04 Innoviz Technologies Ltd. SYSTEMS AND METHODS FOR DETECTION AND LOCATION BY LIGHT
US10771155B2 (en) * 2017-09-28 2020-09-08 Soraa Laser Diode, Inc. Intelligent visible light with a gallium and nitrogen containing laser source
US10684370B2 (en) * 2017-09-29 2020-06-16 Veoneer Us, Inc. Multifunction vehicle detection system
CA3198664A1 (en) * 2017-10-18 2019-04-25 Perkinelmer Health Sciences, Inc. Rapid, high dynamic range image acquisition with a charge-coupled device (ccd) camera
DE102017124934A1 (de) * 2017-10-25 2019-04-25 M-Farms Gmbh System zur halbautomatischen und/oder automatischen Unkrautentfernung
EP3734350A4 (en) * 2017-12-25 2021-04-28 Goertek Technology Co., Ltd. LASER BEAM SCAN DISPLAY DEVICE AND AUGMENTED REALITY GLASSES
US10863668B2 (en) * 2017-12-29 2020-12-15 Dcentralized Systems, Inc. Autonomous mobile platform with harvesting system and pest and weed suppression systems
WO2019144231A1 (en) * 2018-01-25 2019-08-01 Eleos Robotics Inc. Autonomous unmanned ground vehicle and handheld device for pest control
US10371935B1 (en) * 2018-03-29 2019-08-06 The Boeing Company Unmanned aerial vehicle beam redirection system and method
US20200116643A1 (en) * 2018-10-11 2020-04-16 Rigaku Analytical Devices, Inc. Device for calibrating a spectrometer

Also Published As

Publication number Publication date
AU2020351150A1 (en) 2022-03-24
IL290967A (en) 2022-05-01
US20240041018A1 (en) 2024-02-08
US20230292736A1 (en) 2023-09-21
US11602143B2 (en) 2023-03-14
CA3152982A1 (en) 2021-03-25
EP4031832A1 (en) 2022-07-27
KR20220062090A (ko) 2022-05-13
US20210076662A1 (en) 2021-03-18
EP4031832A4 (en) 2023-10-18
JP2022548645A (ja) 2022-11-21
WO2021055485A1 (en) 2021-03-25

Similar Documents

Publication Publication Date Title
US11602143B2 (en) Autonomous laser weed eradication
US10051854B2 (en) Unwanted plant removal system having variable optics
US9609859B2 (en) Unwanted plant removal system having a stabilization system
US9565848B2 (en) Unwanted plant removal system
ES2763412T3 (es) Sistema de control de plagas, método de control de plagas y programa de control de plagas
WO2022107588A1 (ja) 移動体、制御ユニット、データ生成ユニット、移動体の動作を制御する方法、およびデータを生成する方法
WO2022107587A1 (ja) 移動体、データ生成ユニット、およびデータを生成する方法
US20220299635A1 (en) Systems and methods for point to point object matching and targeting
US20230252624A1 (en) Point detection systems and methods for object identification and targeting
JPWO2021055485A5 (zh)
US20230237697A1 (en) Systems and methods for object tracking and location prediction
WO2022107586A1 (ja) 移動体、制御ユニット、および移動体の動作を制御する方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
REG Reference to a national code

Ref country code: HK

Ref legal event code: DE

Ref document number: 40069838

Country of ref document: HK