CN108661362A - 具有激光测距仪系统的水池清洁器和方法 - Google Patents
具有激光测距仪系统的水池清洁器和方法 Download PDFInfo
- Publication number
- CN108661362A CN108661362A CN201810604132.3A CN201810604132A CN108661362A CN 108661362 A CN108661362 A CN 108661362A CN 201810604132 A CN201810604132 A CN 201810604132A CN 108661362 A CN108661362 A CN 108661362A
- Authority
- CN
- China
- Prior art keywords
- pool cleaner
- camera
- laser
- clast
- pool
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title abstract description 39
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 claims description 38
- BVPWJMCABCPUQY-UHFFFAOYSA-N 4-amino-5-chloro-2-methoxy-N-[1-(phenylmethyl)-4-piperidinyl]benzamide Chemical compound COC1=CC(N)=C(Cl)C=C1C(=O)NC1CCN(CC=2C=CC=CC=2)CC1 BVPWJMCABCPUQY-UHFFFAOYSA-N 0.000 claims description 25
- 238000005259 measurement Methods 0.000 claims description 25
- 238000004140 cleaning Methods 0.000 claims description 21
- NJPPVKZQTLUDBO-UHFFFAOYSA-N novaluron Chemical compound C1=C(Cl)C(OC(F)(F)C(OC(F)(F)F)F)=CC=C1NC(=O)NC(=O)C1=C(F)C=CC=C1F NJPPVKZQTLUDBO-UHFFFAOYSA-N 0.000 claims description 18
- 238000004422 calculation algorithm Methods 0.000 claims description 17
- 230000033001 locomotion Effects 0.000 claims description 14
- 230000009182 swimming Effects 0.000 claims description 14
- 238000005457 optimization Methods 0.000 claims description 7
- 230000000007 visual effect Effects 0.000 claims description 6
- 238000003860 storage Methods 0.000 claims description 4
- 238000012545 processing Methods 0.000 description 30
- 230000000712 assembly Effects 0.000 description 20
- 238000000429 assembly Methods 0.000 description 20
- 238000005516 engineering process Methods 0.000 description 13
- 230000008569 process Effects 0.000 description 12
- 238000006243 chemical reaction Methods 0.000 description 9
- 238000001514 detection method Methods 0.000 description 6
- 230000009466 transformation Effects 0.000 description 6
- 230000008878 coupling Effects 0.000 description 4
- 238000010168 coupling process Methods 0.000 description 4
- 238000005859 coupling reaction Methods 0.000 description 4
- 238000001914 filtration Methods 0.000 description 4
- 239000012530 fluid Substances 0.000 description 4
- 239000000654 additive Substances 0.000 description 3
- 230000000996 additive effect Effects 0.000 description 3
- 230000008901 benefit Effects 0.000 description 3
- 230000008859 change Effects 0.000 description 3
- 238000010586 diagram Methods 0.000 description 3
- 230000002708 enhancing effect Effects 0.000 description 3
- 230000007613 environmental effect Effects 0.000 description 3
- 239000000284 extract Substances 0.000 description 3
- 238000000605 extraction Methods 0.000 description 3
- 230000006870 function Effects 0.000 description 3
- 238000013507 mapping Methods 0.000 description 3
- 230000007246 mechanism Effects 0.000 description 3
- 238000004364 calculation method Methods 0.000 description 2
- 238000004891 communication Methods 0.000 description 2
- 238000013461 design Methods 0.000 description 2
- 238000003708 edge detection Methods 0.000 description 2
- 239000004744 fabric Substances 0.000 description 2
- 238000009434 installation Methods 0.000 description 2
- 230000004807 localization Effects 0.000 description 2
- 238000004519 manufacturing process Methods 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 230000001360 synchronised effect Effects 0.000 description 2
- 238000012360 testing method Methods 0.000 description 2
- 238000013519 translation Methods 0.000 description 2
- 241000208340 Araliaceae Species 0.000 description 1
- 241000406668 Loxodonta cyclotis Species 0.000 description 1
- 235000005035 Panax pseudoginseng ssp. pseudoginseng Nutrition 0.000 description 1
- 235000003140 Panax quinquefolius Nutrition 0.000 description 1
- 208000027418 Wounds and injury Diseases 0.000 description 1
- 238000010521 absorption reaction Methods 0.000 description 1
- 230000009471 action Effects 0.000 description 1
- 230000003416 augmentation Effects 0.000 description 1
- 230000004888 barrier function Effects 0.000 description 1
- 238000005452 bending Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 239000002775 capsule Substances 0.000 description 1
- 230000015556 catabolic process Effects 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 230000006866 deterioration Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 235000013399 edible fruits Nutrition 0.000 description 1
- 230000005611 electricity Effects 0.000 description 1
- 239000012634 fragment Substances 0.000 description 1
- 230000014509 gene expression Effects 0.000 description 1
- 235000008434 ginseng Nutrition 0.000 description 1
- 238000005286 illumination Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 238000011221 initial treatment Methods 0.000 description 1
- 208000014674 injury Diseases 0.000 description 1
- 238000007689 inspection Methods 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 238000000691 measurement method Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000008450 motivation Effects 0.000 description 1
- 230000010355 oscillation Effects 0.000 description 1
- 238000003909 pattern recognition Methods 0.000 description 1
- 230000000737 periodic effect Effects 0.000 description 1
- 230000000717 retained effect Effects 0.000 description 1
- 238000005201 scrubbing Methods 0.000 description 1
- 238000000926 separation method Methods 0.000 description 1
- 239000002893 slag Substances 0.000 description 1
- 239000007921 spray Substances 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 238000012549 training Methods 0.000 description 1
- 230000007704 transition Effects 0.000 description 1
Classifications
-
- E—FIXED CONSTRUCTIONS
- E04—BUILDING
- E04H—BUILDINGS OR LIKE STRUCTURES FOR PARTICULAR PURPOSES; SWIMMING OR SPLASH BATHS OR POOLS; MASTS; FENCING; TENTS OR CANOPIES, IN GENERAL
- E04H4/00—Swimming or splash baths or pools
- E04H4/14—Parts, details or accessories not otherwise provided for
- E04H4/16—Parts, details or accessories not otherwise provided for specially adapted for cleaning
- E04H4/1654—Self-propelled cleaners
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C15/00—Surveying instruments or accessories not provided for in groups G01C1/00 - G01C13/00
- G01C15/002—Active optical surveying means
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C3/00—Measuring distances in line of sight; Optical rangefinders
- G01C3/02—Details
- G01C3/06—Use of electric means to obtain final indication
- G01C3/08—Use of electric radiation detectors
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0212—Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
- G05D1/0214—Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory in accordance with safety or protection criteria, e.g. avoiding hazardous areas
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0231—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
- G05D1/0238—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using obstacle or wall sensors
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0231—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
- G05D1/0238—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using obstacle or wall sensors
- G05D1/024—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using obstacle or wall sensors in combination with a laser
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Architecture (AREA)
- Electromagnetism (AREA)
- Aviation & Aerospace Engineering (AREA)
- Automation & Control Theory (AREA)
- Civil Engineering (AREA)
- Structural Engineering (AREA)
- Optics & Photonics (AREA)
- Length Measuring Devices By Optical Means (AREA)
- Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
- Optical Radar Systems And Details Thereof (AREA)
Abstract
公开了具有激光测距仪系统的水池清洁器和方法。本发明的实施例提供了一种水池清洁器控制系统,包括激光测距仪,激光测距仪具有第一激光线发生器、第二激光线发生器和相机。第一激光线发生器和第二激光线发生器被定位为发射平行的激光线,并且相机被定位为拍摄对象上投射的激光线的图像。控制系统还包括与激光测距仪通信的控制器,其被配置成控制激光线发生器的操作以发射激光线并控制相机以拍摄图像。控制器还被配置成从相机接收图像,计算图像中激光线之间的像素距离,并基于像素距离计算相机和对象之间的物理距离。
Description
本申请是申请日为2013年6月27日、申请号为201380041089.X、 题为“具有激光测距仪系统的水池清洁器和方法”的中国发明专利申请 的分案申请。
相关申请
本申请依据35U.S.C.§119要求于2012年6月27日提交的美国 临时专利申请No.61/664,945的优先权,在此通过引用将其全部内容 并入本文。
背景技术
为了让无人驾驶运载工具真正自主,它们必须拥有在被置入未知 环境中时定位自己并了解它们周围的物理对象的能力。例如,这样的 运载工具为高级应用(例如绘图和运载工具定位)以及低级应用(例 如障碍物躲避)获知信息。一旦运载工具获知其工作所处的环境的信 息,就能够自由地且以优化的模式在环境附近运动,以实现其需要的 任务,同时保持不受损伤。尽管已经为在水外操作的运载工具开发了 各种传感器,但可用于水下运载工具的传感器数量是有限的。
例如,对于工作在户外环境的运载工具,可以利用能够提供厘米 范围的精确度的基于卫星的定位传感器(例如GPS传感器)完成定位。 而且,基于激光的测距仪,包括光探测和测距(LiDAR)传感器,能 够向运载工具提供毫米精确度的关于周围环境的信息。不过,LiDAR 传感器成本高昂,阻止了低预算应用,且LiDAR和基于卫星的传感 器都不能在室内(即,封闭)或水下环境中正常工作。
在水下环境中,大部分通用的传感器技术基于声学。例如,声波 导航和测距(SONAR)能够为在大尺度开放水环境中操作的运载工具 提供准确的传感器数据。不过,在封闭的水下空间中,例如游泳池中, 基于声学的解决方案(例如SONAR)由于封闭环境中的反射所导致 的大量多次回波而难以使用。结果,已经提出了一些基于激光的方法。 例如,一种方法包括具有激光指示器和相机的运载工具,激光指示器 投射(project)单个点,且相机可视化从封闭空间的壁反射的点。由 于该设计,这种运载工具仅能够确定与相机正前方的单个位置相关的 距离信息。而且,这样的设计严重依赖于校准例程(calibrationroutine),该校准例程利用距离绘制激光指示器在图像系中的位置。 另一种方式包括使用单条激光线和相机来产生水下对象的完整3D地 图。不过,在并非极暗的环境中找到完整的激光线可能是有难度的。 因此,这种方式不能够用于可能存在大量天然和人造光的操作环境中, 例如游泳池和温泉环境中。
发明内容
本发明的一些实施例提供了一种水池清洁器控制系统,以检测距 水池清洁器前方对象的物理距离。控制系统包括激光测距仪,其具有 第一激光线发生器、第二激光线发生器和相机。第一激光线发生器和 第二激光线发生器被定位以发射平行的激光线,并且相机被相对于第 一激光线发生器和第二激光线发生器定位以拍摄对象上投射的激光线 的图像。控制系统还包括与激光测距仪通信的控制器,该控制器被配 置成控制第一激光线发生器和第二激光线发生器的操作以发射激光线 并控制相机以拍摄投射到对象上的激光线的图像。控制器还被配置成 从相机接收图像,计算图像中激光线之间的像素距离,并基于像素距 离计算相机和对象之间的物理距离。
本发明的一些实施例提供了一种用于水下环境的自主机器人水 池清洁器。该水池清洁器包括测距仪,所述测距仪被配置成发射第一 和第二线,并检测所述第一和第二线在环境特征上的投影;相机,配 置成拍摄所述水池清洁器下方环境的地板表面的图像;以及与所述测 距仪和所述相机通信的控制器。控制器被配置成基于所述检测到的所 述第一和第二线的在所述特征上投影来计算所述测距仪和所述特征之 间的物理距离,基于拍摄的图像确定视觉测距数据,基于所述物理距 离和所述视觉测距数据绘制所述环境,并跟踪所述水池清洁器在所述 环境之内的位置。
本发明的一些实施例提供了一种在水下环境中利用双平面激光 测距仪确定距对象的距离的方法。该方法包括向所述对象上投射第一 线;向所述对象上投射与所述第一线平行的第二线;以及拍摄所述对 象上投射的第一线和投射的第二线的图像。该方法还包括将所述图像 分割成独立的图像片段;以及对于每个图像片段,提取所述图像片段 中的颜色平面以获得灰度级图像片段;检测所述灰度级图像片段中的 潜在的线边缘;利用所述潜在的线边缘提取线段;以及对所述线段分 组以获得所述灰度级图像片段中的第一投影线和第二投影线。该方法 还包括对于每个图像片段,计算所述灰度级图像片段中所述第一投影 线和所述第二投影线之间的像素距离;以及基于所述像素距离计算到 所述对象的距离。
附图说明
图1是根据本发明一个实施例的控制系统的方框图。
图2是根据本发明一个实施例的水池清洁器的正面透视图。
图3是图2的水池清洁器的后侧透视图。
图4是图2的水池清洁器的下侧透视图。
图5是根据本发明一个实施例的双平面激光测距仪的示意图。
图6A和6B分别是传统针孔相机模型和改进的针孔相机模型的 示意图。
图7是图5的激光测距仪的侧面示意图。
图8是根据本发明的一个实施例的利用图1的控制系统来确定距 离测量结果的过程。
图9是根据图8的过程的,将拍摄的图像分成图像片段的例示。
图10A和10B是用于图8的过程的x-y坐标系和m-b坐标系的 图形视图。
图11A-11D是根据图8的过程所处理的图像片段的例示。
图12A和12B是利用图8的过程所确定的距离测量结果的图形 视图。
图13是在多个图像系中确定水池清洁器位置的图形视图。
图14是根据本发明的方法的、用于测距数据的参考系的图形视 图。
图15是根据本发明的方法的、用于距离数据的参考系的图形视 图。
图16是根据本发明的方法的、角特征确定的图形视图。
具体实施方式
在详细解释本发明的任何实施例之前,要理解本发明在其应用方 面不限于以下描述中阐述或在以下附图中例示的部件构造和部件布置 的细节。本发明能够有其他实施例并能够通过各种方式实践或执行。 而且,要理解这里使用的措辞和术语是为了描述的目的,不应被视为 限制。这里使用“包括”,“包含”或“具有”及其变化意在涵盖其后 列出的项和其等价物以及附加项。除非另行指定或限制,词语“安装”、 “连接”、“支持”和“耦接”及其变化被宽泛地使用,且涵盖直接和 间接的安装、连接、支持和耦接。此外,“连接”和“耦接”不限于 物理或机械连接或耦接。
示出如下讨论以使本领域的技术人员能够制造和使用本发明的 实施例。对于本领域的技术人员而言,所示实施例的各种修改将是明 显的,且可以将本文的一般原理应用于其他实施例和应用而不脱离本 发明的实施例。于是,本发明的实施例并非旨在限于图示的实施例, 而是要符合与本文公开的原理和特征一致的最宽范围。以下详细描述 要结合附图阅读,其中不同图中相似的元件具有相似的附图标记。附 图未必成比例,其绘示了选择的实施例,且并非意在限制本发明实施 例的范围。技术人员将认识到,本文提供的范例有很多有用的替代且 落在本发明的实施例范围之内。
本发明的实施例提供了用于在封闭水下空间中操作的小型低成 本水下运载工具。更具体而言,本发明的实施例提供了一种用于在游 泳池和/或温泉环境中操作的自主机器人水池清洁器的低成本距离测 量和绘制(mapping)系统。系统的距离测量部分基于相机和平行激 光线装置,且该系统的绘制部分能够无需事先校准地利用同步定位和 绘制(simultaneous localization and mapping,SLAM)技术来绘制游 泳池环境,以绘制通过游泳池环境的清洁路线。这样允许水池清洁器 来优化清洁路线,例如,以便遍历和清洁整个游泳池环境。
图1示出了根据本发明的一个实施例的控制系统10,其用于自主 机器人水池清洁器(例如图2-4中所示的水池清洁器12)。控制系统 10能够包括控制器14,包括第一激光器18、第二激光器20和相机22 的第一传感器组件或激光测距仪16,第二传感器组件24和定向控制 机构26。控制系统10可以位于水池清洁器12上和/或之内,且能够通 过绘制游泳池或温泉环境并在整个环境中准确定位水池清洁器12来 优化水池清洁器12的操作。此外,控制系统10能够优化清洁路线并 识别环境之内碎屑的具体位置。通常,控制器14能够操作并接收来自 激光测距仪16和/或第二传感器组件24的输入,并能够基于这些输入 操作定向控制机构26以沿水下环境之内的期望路线来移动水池清洁 器12,如下文进一步所述。
图2-4示出了根据本发明的一个实施例的、能够被控制系统10 操作的自主机器人水池清洁器12。水池清洁器12能够包括底座 (chassis)28、撇渣器(skimmer)组件30、过滤器组件32、前刷组 件34、后刷组件36(如图3所示)、电子设备盒38、传感器盒40和 出口喷嘴组件42。电子设备盒38可以耦接到底座28并被支撑于其上。 前刷板44能够均经由紧固件46耦接到底座28,且前刷组件34的每 个都可以经由紧固件48耦接到相应的前刷板44。此外,后刷板50可 以经由紧固件46耦接到底座28,且后刷组件36可以经由紧固件48 耦接到后刷板50。提升器52可以耦接到前刷板44和后刷板50的每 个,且I形轨道54能够连接刷板44、50上的相对的提升器对52,如 图2和3所示。I形轨道54可以耦接到撇渣器组件30和过滤器组件 32以及出口喷嘴组件42并支撑它们。参考图1的控制系统10,在一 些实施例中,传感器盒40能够容纳激光测距仪16,电子设备盒38能 够容纳控制器14和/或第二传感器组件24,且前后刷组件34、36和出 口喷嘴组件42能够充当定向控制机构26。
在一些实施例中,水池清洁器12可以由刷组件34、36支撑于表 面(例如游泳池地板)上。水池清洁器12能够通过刷组件34、36和/ 或出口喷嘴组件42的操作而跨水池地板移动自己。更具体而言,每个 刷组件34、36能够包括附接到刷板58的刷子56。振动电动机60可以安装于每个刷板58上,以振动相应的刷组件34、36,且刷组件34, 36的振动能够促成水池清洁器12的向前和/或转弯运动以及刷子56 相对于水池地板的刷洗动作。例如,可以以基本相等的强度振动每个 刷组件34,36,以促进水池清洁器12的向前运动,且可以单独调节每个振动电动机60的振动强度,以促进水池清洁器12的转弯运动(例 如,可以减小或停止左前方振动电动机的强度,以及可以增大或维持 右前方振动电动机的强度,以促成左转弯,反之亦然)。此外,出口 喷嘴组件42能够迫使水从水池清洁器12的后部向外喷出,以便辅助 水池清洁器12的向前和/或转弯运动。如下文进一步所述,可以单独 调节离开出口喷嘴组件的水的力和/或量,以辅助水池清洁器12的向 前或转弯运动。
可以相对于底座28耦接刷组件34,36,以提供水池地板和底座 28之间的空隙(clearance)。这个空隙可以足够高的,以允许水池清 洁器12在水池地板上的碎屑上方行进,且是足够低的以实现通过如图 4中所示的底座28的进水口63充分抽吸这种碎屑并经由流体地连接 进水口63和过滤器组件32的入口腔室(intake plenum)62(且在一 些实施例中,还有连接的入口提升器(intake riser),未示出)进入 到过滤器组件32。可以通过出口喷嘴组件42的操作实现这种抽吸, 这样生成了从进水口63,通过入口腔室62、入口提升器、过滤器组件32、中心管(center duct)66和出口喷嘴组件42的流体运动路径。 更具体而言,出口喷嘴组件42能够提供吸力,以通过进水口63且向 过滤器组件32中抽空(vacuum)水和碎屑,并进一步通过过滤器组 件32汲取水并通过出口喷嘴组件42出水,以辅助水池清洁器12的推 进,如上所述。
出口喷嘴组件42均能够包括出口喷嘴68、喷嘴导管70和与喷嘴 导管70相通的电动机容器72。喷嘴导管70可以耦接到中心管66,如 图2和3所示。每个电动机容器72都能够包括由管道76、前盖78和 后盖80容纳的电动机74。电动机74的轴(未示出)能够延伸穿过前盖78,且进入喷嘴导管70中,且推进器(未示出)可以在喷嘴导管 70内部耦接到该轴的末端。每个电动机74的操作能够导致推进器旋 转且由此提供原动力,以通过上述流体运动路径来汲取水。此外,可 以单独调节电动机74的速度,以促进水池清洁器12的转弯运动(例如,通过提供从出口喷嘴组件42之一的水的更有力的排出)。
在一些实施例中,过滤器组件32能够包括外壳82、过滤器管道 84、转向器86、第一端盖(未示出)和第二端盖90。外壳82能够包 括与入口提升器和入口腔室62流体相通的第一抽吸口(未示出),以 从水池清洁器12下侧接收水和碎屑,以及第二抽吸口94,以接收撇渣器组件30附近的水和碎屑,如下文进一步所述。第一端盖可以耦接 到外壳82的第一端,以封闭外壳82的内部空间96。此外,第一端盖 可以耦接到前过滤器托架(未示出),其可以进一步耦接到一个或多 个的I形轨道54以支持过滤器组件32。过滤管道84可以是位于外壳82的内部空间96之内的圆柱形管道,且能够包括过滤器介质,该过 滤器介质将外壳82的内部空间96与过滤管道84的内部空间分开。过 滤器介质能够允许从外壳82的内部空间96到过滤管道84的内部空间 的水的通过。此外,第二端盖90可以耦接到外壳82和中心管66。第二端盖90能够封闭外壳82的内部空间96,且能够包括中心孔,以允 许过滤管道84的内部空间和中心管66之间的流体相通。结果,碎屑 可以保留在外壳82之内,而水能够通过过滤管道84,进入中心管66, 经由喷嘴导管70和出口喷嘴68离开水池清洁器12。
过滤器组件32的转向器86能够有选择地关闭第一吸入口,如图 2和3所示,或者第二吸入口94。更具体而言,可以旋转或定位转向 器86以有选择地关闭第二吸入口94,同时允许第一吸入口保持打开 (例如,在旋转到第一或“地板操作”位置时);或关闭第一吸入口, 同时允许第二吸入口94保持打开(例如,在旋转到第二或“撇渣操作” 位置时)。可以手动地或自动地完成转向器86的旋转。例如,在一个 实施例中,旋转件(未示出)可以位于过滤器组件32外部,例如在前 盖78上,并能够延伸穿过前盖78以与转向器86连接。在这种配置中, 用户能够手动地旋转旋转件以将转向器86调节到第一位置或第二位 置。在另一实施例中,可以将伺服电动机(未示出)耦接到转向器86。 控制器14,或水池清洁器12的独立控制器,可以连接到伺服电动机 并能够控制伺服电动机,以自动地将转向器86旋转到第一位置或第二 位置。
当转向器86被旋转到第一位置时,水池清洁器12能够在其沿水 池地板行进的时候抽空水池清洁器12下方(即沿着水池地板)的水和 碎屑,从而提供地板清洁操作。在第二位置,水池清洁器12能够在例 如水池清洁器12跨游泳池表面行进的时候抽空撇渣器组件30附近的 水和碎屑,从而提供撇渣操作。更具体而言,撇渣器组件30能够包括 可膨胀的气囊95(如图5中所示),且气囊95可以膨胀以允许水池 清洁器12漂浮到游泳池表面。在气囊膨胀以使得能够进行撇渣操作 时,可以将旋转器86旋转到第二位置,以允许第二吸入口94打开。 此外,如图2-3所示,可以将撇渣器组件30的形状设计为具有基本圆 形的前鼻部102和左右翼104,左右翼140延伸过第二吸入口94并然 后朝第二吸入口94向回弯曲。撇渣器组件30的这种结构配置能够方 便水和碎屑沿着翼104的外缘移动,由此在水池清洁器12向前运动期 间,导致碎屑和水向回弯曲进入第二吸入口94中。
向回参考水池清洁器12的电子设备盒38,在一些实施例中,电 子设备盒38能够包括为水池清洁器12供电并操作该水池清洁器12 所必要的电子部件。这样的电子设备能够包括,但不限于,被配置成 控制振动电动机60、每个出口喷嘴组件42的电动机74以及传感器组 件16、24的操作的一个或多个控制器(例如图1的控制器14)以及 一个或多个电源(例如电池)。电子部件可以通过电连接器(未示出) 连接到电动机60、74和传感器组件16、24的每个。此外,电子设备 盒38可以基本被密封以对电子部件进行防水。此外,在一些实施例中, 电源可以是能够通过例如独立的充电站充电。
在一些实施例中,第二传感器组件24可以被容纳于电子设备盒 38之内。例如,在一个实施例中,第二传感器组件24能够包括相机。 电子设备盒38的下侧能够包括相对于底座28中的通孔107定位的透 明窗口105,如图4中所示。第二传感器组件24的相机可以被布置为 面向下,以通过窗口和底座通孔拍摄水池地板(即地表面)的图像, 以便向控制器14提供视觉测距数据,如下文进一步所述。此外,在一 些实施例中,激光测距仪16可以被容纳于传感器盒40之内。透明盖 106可以耦接到传感器盒40以将激光测距仪16封闭在传感器盒40之 内。在一些实施例中,透明盖106和传感器盒40可以基本被密封,以 使激光测距仪16防水。在其他实施例中,激光测距仪16的部件可以 是基本防水的。如图2-3所示,传感器盒40可以耦接到撇渣器组件 30并由其支持。更具体而言,传感器盒40可以被定位于与撇渣器组 件30的鼻部102相邻,且相机22可以定位为面向前,从而提供水池 清洁器12前方特征或表面的视觉数据。
在一些实施例中,控制器14能够基于从传感器组件16、 24接收的信息单独地操作振动电动机60和/或出口喷嘴组件42的电动 机74。例如,如图1所示,控制器14能够包括处理器98和存储了程 序代码的存储介质100。该程序代码可以由处理器98执行以进行各种操作,包括,但不限于,操作传感器组件16、24,从传感器组件16、 24取回数据,如下文进一步所述地利用取回的数据执行一个或多个算 法或过程,基于执行的算法操作电动机60、74中的一个或多个和/或 存储环境地图和操作路线。例如,如下文结合图5-12进一步所述,控制器14能够基于由激光测距仪16取回的数据执行一个或多个距离测 量算法,以确定水池清洁器12和水池清洁器12前方的特征或对象(例 如池壁)之间的距离。此外,如下文相对于图13-16进一步所述,控 制器14能够基于由激光测距仪16和第二传感器组件24取回的数据执 行一个或多个定位和地图构建算法,以对水池清洁器12的周围环境 (即,游泳池)构建地图并跟踪水池清洁器在环境之内的位置。
参考本发明一些实施例的距离测量方法,如上所述且在图1中所 示,激光测距仪16能够包括第一激光器18、第二激光器20和相机22。 在一些实施例中,可以如图5中所示布置部件18-22。更具体而言, 第一激光器18和第二激光器20可以是垂直安装于彼此上并平行于相 机22(例如,彩色电荷耦合器件(CCD)相机)的视轴的激光线发生 器。换言之,可以安装激光器18、20,使得它们产生的激光线平行于 相机焦平面的水平轴。图5中所示布局的结果是由激光器18、20产生 的一对水平线110、114,其被配置成跨相机22所拍摄的帧来行进 (running)。在一个实施例中,激光器18、20可以是均以60°的扇 形角产生532纳米波长的激光的绿色激光束发生器。尽管在一些实施 例中可以使用红色激光,但绿色光可能更适合水下应用,因为水吸收 红色光比吸收绿色光多大约五十倍。
如上所述,通常,控制器14能够操作激光器18、20和相机22, 并能够基于相机22的输出确定相机22(从而,水池清洁器12前方) 和水池清洁器12前方的对象(例如游泳池或温泉环境的壁)之间的距 离。例如,在一些实施例中,控制器14能够基于改进的针孔相机模型进行距离计算。更具体而言,根据传统的针孔模型,如图6A中所示, 将由其光圈O位于O=0,0,0的相机看到的世界中的任一点P=xw, yw,zw投射到相机在Q=-Xf,-Yf,f处的焦平面上。由下式描述P和Q 之间的关系
其中xw,yw和zw是P的分量,其中P对应于世界坐标中的点;xf,yf和f是对应于P在相机焦平面上的投影的Q的对应分量。投影 点Q中的负号是相机的焦平面108位于光圈O后方的结果,如图6A 所示。
为了消除由负号导致的混淆,在一些实施例中可以使用针孔模型 的改进版本。更具体而言,通过将焦平面108移动到相机光圈O前方, 如图6B中所示,投射到焦平面上的对象(在Q处)的X和Y分量的 符号匹配对象的现实世界坐标(在P处)的那些符号。根据改进的针 孔模型,可以由下式描述对象在世界坐标系和相机坐标系之间的关系
其中上述P和Q的对应分量定义该关系。
基于如图5中所示的传感器组件16的物理布局以及改进的针孔 相机模型,图7中示出了激光测距仪16的侧视图。更具体而言,图7 示出了在对象112上(在点C或yw,1处)投射激光线110的第一激光 器18,在对象112上(在点D或yw,2处)投射激光线112的第二激光 器20,以及相机22的光圈O。如图7中所示,可以在相机光圈O和 对象112之间(三角形OCD)以及相机光圈O和对象在焦平面108 上的投影之间(三角形OAB)生成两个相似三角形。通过使两个三角 形相等,可以如下给出对象112的世界坐标和所拍摄图像上激光线位 置(分别在点A和B或yf,1和yf,2)之间的关系
其中是激光线发生器18,20之间的物理距离, 是图像中激光线之间的距离,zw是相机光圈O和对象 112之间的距离,f是相机22的焦距。由于可以从激光测距仪16 的物理设置获知或预定,f可以已知或确定为所使用的相机22的特征, 且可以如下所述通过图像处理算法找到所以可以将距对象112的 距离计算为
因此,为了确定对象112距激光测距仪16(具体而言,相机22) 有多远,即,距离zw,可以确定图像系108中两条激光线A、B之间 的距离并连同已知的焦距f和激光器之间的物理距离应用于以 上方程4。根据本发明的一些实施例,如图8所示,提供过程116以从图像提取激光线,然后基于该激光线在图像中的间距计算到 对象的距离(zw)。
在一些实施例中,可以由控制器14执行图8的过程116。例如, 在处理框118,控制器14能够接收图像。在处理框120,控制器14 然后能够初始处理图像以消除畸变,然后在处理框122,图像可以被 分割成若干图像片段。控制器14然后为每个图像片段执行循环。这种循环开始于处理框124,其中控制器能够判断已处理的片段的数量 (“计数”)是否小于图像片段的总数(即,控制器14能够判断是否已 经处理了所有图像片段)。如果未处理所有的图像片段,控制器14 能够取回特定的(未处理的)图像片段,并从图像提取颜色平面(在 处理框126),检测图像之内的边缘(在处理框128),并提取激光线 (在处理框130)。然后在处理框132,控制器14能够将提取的线分 组,并在处理框134计算线之间的像素差异。在这种计算之后,在处 理框136,控制器14能够计算物理对象距离。控制器14能够继续循 环经过处理框126-136,直到已处理的图像片段的计数不再小于图像 片段的总数(即,已经处理了所有图像片段),如在处理框124所确 定的。一旦做出这种确定,就完成了过程116。
更具体而言,进一步参考处理框120,可以从接收的图像消除镜 头畸变。通常,大部分相机都会受到镜头畸变和其他制造缺陷的困扰。 例如,相机畸变的模型可以包括相机中存在的两种不同类型的畸变: 径向畸变和切向畸变。径向畸变可以描述成
其中x和y是图像中的点距相机光圈的中心的对应水平和垂直距 离,是该点距相机光圈的中心的距离,且常数ki>0(i=1,2,3)是描述给定相机的径向畸变的唯一常数。
切向畸变可以描述成
其中常数pi>0(i=1,2)是描述切向畸变的相机特征常数。
可以通过确定两组畸变常数ki(i=1,2,3)和pi(i=1,2)来实现从 图像移除畸变。在一些实施例中,这可以是对相机22进行的一次性操 作。例如,可以使用相机校准方法(例如用于的Camera Calibration Toolbox(相机校准工具箱)或类似实施方式)来确定这 些常数。该校准方法能够检查位于相机22的工作空间(例如,在水下 环境中)附近的具有标准棋盘训练图案的一组图像。由于测试图案的 尺寸和布局是已知的,所以可以在方程5-8中使用该信息来求解相机 的畸变常数。在一些实施例中,连同发现畸变参数一起,相机校准方 法还可以确定相机22的焦距f和光圈的中心点O在图像中的位置。在 处理框120去除畸变的情况下,可以假设图像基本匹配理想针孔相机 模型的图像,且该过程能够继续进行到处理框122。
进一步参考处理框122,通常,通过在图像上(即经由激光线发 生器18,20)投射线,可以在沿着投影线的多个点处确定到对象的距 离,而不是在仅仅使用由激光指示器产生单个点时在单个点处确定到 对象的距离。确定到多个对象或单个对象上多个位置的距离的这种能 力能够辅助控制系统更好绘制周围环境的能力,如下文进一步所述。 为了确定在多个位置处的距离,可以将图像分解成多个片段,例如, 如图9所示。除了提供绘制多个距离的能力之外,分割图像的优点是 可以在更小图像上执行图像处理(例如处理框126-136),而不是在 整个大图像上执行图像处理。这样能够提供计算优势:与处理整个图 像所需的时间相比,缩短了处理时间。在一个实施例中,如图9所示, 可以将包括激光线110、114的图像138分割成7个图像片段140,其 中每个图像片段140均为50个像素宽,角度偏移为4度。
继处理框122之后,图像被分解为更小片段,然后可以处理每个 片段以提取图像中激光线(110,114)的位置。第一,可以将图像从 全彩色图像转换成黑白或灰度级图像(例如,通过在处理框126提取 颜色平面)。第二,在处理框128,可以应用阈值以提取图像的最明 亮部分,且可以使用边缘检测算法以提取可能为线条的边缘。第三, 在处理框130,可以例如利用霍夫变换(Hough transform)从图像提 取所有线段。更具体而言,霍夫变换可以将已经被边缘检测算法处理 过的图像作为输入。图像中的作为所提取边缘的成员的每个点(位于 (x,y)处)可以通过斜率-截距形式来表达,
y=mx+b, Eq.9
其中m是给定线的斜率,b是该线与垂直轴相交的点。可以将x-y 坐标系中的任何点表达为m-b坐标系中的线,如图10A和10B所示。 通过检查m-b坐标系中的任何两个点,如果它们相应的线相交,它们 则位于x-y坐标系中的同一线段上。例如,图10A示出了x-y坐标系 142,其中沿着线148的第一个点144在坐标(2,6)处,而第二个点 146在坐标(3,5)处。图10B示出了m-b坐标系150,其中第一条 线152表示点144(定义为6=m(2)+b),且第二条线154表示点 146(定义为5=m(3)+b)。通过确定第一条线152和第二条线154 在m-b坐标系150中相交,可以认为它们位于x-y坐标系142中的同 一线段(即线148)上。
图11A-11D中示出了每个处理框126、128、130之后的范例结果。 具体而言,图11A示出了原始图像片段138,图11B示出了被从全彩 色空间变换到灰度级彩色空间之后的图像片段138(在处理框126)。 图11C示出了已经应用阈值来提取最亮图像分量之后的图像片段138 (在处理框128),而图11D示出了线段通过霍夫变换线识别(Hough Transform LineIdentification)(在处理框130)被提取的图像片段 138。
一旦在处理框130中从图像片段提取了所有线段,就有机会用多 个线段表达每条激光线。结果,在处理框132,可以基于预定义的像 素分离参数(例如,用户定义的或预编程的参数)将线段中的每个分 组到一起。这个分组步骤能够分析所提取的线段中的每个,且如果特 定线段落入彼此某一p像素距离之内,可以假设这些线段代表同一激 光线。一旦在处理框132将对应于每条激光线的线段分组到一起,就 可以在图像片段的中点评估每条线段,并可以求每条线段的平均值以 估计帧中激光线的精确中点。在处理框134,可以基于这些平均值计 算两条激光线之间的像素差异,从而可以在处理框136例如利用以上 方程4计算距图像片段中心处对象的物理距离。
基于试验结果,以上控制系统10和过程116能够提供最大绝对 误差约为实际距离10%的水下距离测量结果,对于自主水池清洁器应 用中的有益使用而言这被认为是足够准确了。此外,与传统激光点不 同,使用激光线允许控制系统10获得除距传感器组件正前方的对象的 单一距离测量结果之外的额外数据。例如,在遇到不平坦且垂直于相 机观察轴的角或障碍物时,控制系统10可能能够从单个图像获得形状 数据。图12A和12B示出了在每个组件都面对角时,与传统LiDAR 传感器组件相比,从本发明的激光测距仪16试验性地获得的距离测量 结果(其中LiDAR数据由实线156代表,且激光测距仪16的数据由 点158代表)。如图12A和12B所示,由于相机视角160的原因,激 光测距仪16能够在单个图像中拍摄整个角。下文进一步描述用于确定 角(作为环境特征)的算法。作为上述片段处理的结果,可以获得关 于角的多个准确的距离测量结果158。此外,使用本发明的双平面激 光测距仪16与传统LiDAR系统相比能够提供低成本的距离测量系统 10,并提供与其他单激光器应用、SONAR应用和GPS应用相比的, 能够在光亮或黑暗、封闭、水下空间中准确测量距离的系统10。
如上所述,控制系统10能够使用来自激光测距仪16的输出以控 制水池清洁器12的运动。在一些实施例中,控制系统10可以被配置 成使用激光测距仪16作为障碍或特征发现装置,由此在检测到的障碍 或特征在水池清洁器12正前方一定距离时控制水池清洁器12的转弯 运动。在一些实施例中,控制系统10可以被配置成绘制放置水池清洁 器12的环境(即,游泳池,温泉等),并利用同步定位和绘制(SLAM) 技术,基于来自激光测距仪16和第二传感器组件24的输出了解水池 清洁器的周围(即,无需先前的与环境相关的校准或教导)。通过这 种方式,控制系统10能够确定和优化清洁路线并能够操作水池清洁器 12以遵循(follow)这些优化的清洁路线(例如,在特定时间段内遍 历整个游泳池地板)。此外,控制系统10能够跟踪清洁器的运动,以 便跟踪被清洁碎屑的路线,并确保已经在特定时间段之内遍历了整个 游泳池地板。在一些实施例中,如下所述,可以由控制系统10使用基 于特征的扩展卡尔曼滤波器(EKF)(Extended Kalman Filter)SLAM 技术。在其他实施例中,可以使用其他SLAM技术。
通常,为了使机器人运载工具能够自主在任何环境中执行任务, 它们必须能够确定其位置以及定位并且记住该环境中的障碍以及目标 对象的位置,或者换言之,它们必须能够SLAM。可以使用扩展的卡 尔曼滤波器(EKF)来估计SLAM之后的情况。以下段落提供了根据 本发明一些实施例的EKF SLAM方法的概要。
从概率的意义上,SLAM的目标是连同周围环境的地图估计水池 清洁器12当前姿态的后续发展,其被表示为
p(xt,m|z1:t,u1:t), Eq.10
其中xt是水池清洁器12在时间t的姿态,m是地图, z1:t是测量结果,u1:t为控制输入。EKF能够假设状态转换和测量模型 定义为
xt=g(ut,xt-1)+ηx,t,t=1,2..., Eq.11
zt=h(xt)+ηz,t, Eq.12
其中g(.)和h(.)是非线性噪声和加性噪声,ηx,t和ηz,t是协方差分 别为Rt和Qt的零平均值高斯过程。SLAM的EKF解落在称为基于特 征的方法的一类解中。在基于特征的SLAM中,假设围绕水池清洁器 12的环境可以由称为特征的一组不同的点表达。结果,完整的SLAM 状态由清洁器12的状态和地图的状态构成。
其中x和y是清洁器12在二维(2D)平面中的位置,θ是行进 方向。地图由N个特征来代表,并且每个特征在2D平面中的位置保 持在状态和中。
SLAM的EKF解能够使用经典的预测校正模型。更具体而言, EKF的预测步骤基于由以上方程11给出的系统的状态转换模型,且 可以定义为
xt-1=g(ut|,xt-1), Eq.14
其中xt-1是根据前一时间步骤的状态估计,xt-1是当前时间步骤的 完整SLAM状态的预测,Σt-1是前一时间步骤的协方差估计,是当 前时间步骤的协方差预测,且Gt是g(.)相对于在ut和xt-1评估的xt-1的雅可比行列式。校正步骤来自由以上方程12给出的测量模型,且可 以定义为
其中Ht是h(.)相对于在xt-1和zt评估的xt-1的雅可比行列式,zt是当前时间的测量结果。
一些实施例的当前EKF SLAM技术能够包括标准EKF中没有出 现的附加步骤,其与向SLAM状态增加新特征相关。例如,在遇到新 特征时,必须将其集成到完整SLAM状态(xt)以及SLAM协方差(Σt) 两者中。可以由下式定义SLAM状态的增强(augmentation):
其中是增加新特征之后的SLAM状态,且f(.)基于当前清洁器 状态和对特征的观测估计在全局系中新特征的位置。
相对于SLAM协方差的增强,对SLAM协方差的检查表明其采 取如下形式
其中Σt,V是清洁器估计的协方差,Σt,Vm是清洁器估计和地 图估计之间的协方差,且Σt,m是地图估计的协方差。根据Bailey等人 (“Simultaneous localization andmapping(slam):Part ii”。Robotics &Automation Magazine,IEEE,13(3),pp.108-117),可以将SLAM 协方差的增强形式计算为
其中是增强的SLAM协方差,Ft,X是f(.)相对于在xt和zt评估 的xt的雅可比行列式,Ft,Z是f(.)相对于在xt和zt计算的zt的雅可比行 列式。
参考本发明实施例的控制系统10,传感器组件16、24能够提供 表示上述状态转换模型输入ut和特征测量结果zt的数据。传统上,对 于地面运载工具应用,状态转换模型的输入由来自车轮编码器的测距 读数构成,而特征的位置是利用光探测和测距(LiDAR)来计算的。 不过,这些类型的传感器不能在水下环境中工作。在典型的水下环境 中,很多现有的传感器技术基于声学,其中从多普勒速度记录仪 (DVL)向运载工具提供测距数据,且利用SONAR传感器定位特征。 不过,如上所述,由于在相对小的封闭环境(例如游泳池和温泉)中可能产生大量多次回波,所以基于声学的传感器是存在问题的。此外, 当前可用的传感器存在传感器特有的问题。例如,如上所述,水池清 洁器12能够直接在水池地板上操作或非常接近水池地板工作。在这样 的操作环境中,DVL传感器的性能差,而且它们还尺寸大且价格高, 使得它们无法用于小型廉价水下载体中。此外,SONAR传感器的问 题是它们难以在实施基于特征的SLAM方法时用于特征提取。更具体 而言,SONAR只能报告位于SONAR传感器扫描锥前方一定距离处 的对象的存在,使其难以识别可用于在基于特征的SLAM中生成地图 的独特特征。结果,在可以发生适当数据关联之前必须从多个位置观 测特征。基于计算机视觉算法和上述传感器组件16、24,本发明的控 制系统10能够克服以上问题并能够确定状态转换模型的控制输入,以 及封闭水下环境中的有效界标测量结果(valid landmarkmeasurement),如下文进一步所述。
对于第二传感器组件24而言,可以通过跟踪相机获取的连续图 像之间的一组点,从面向下的相机计算视觉测距数据。根据帧之间点 的平移和旋转,可以确定清洁器取向的变化(因此提供状态转换模型 输入)。例如,参考图13,比较两幅图像以确定清洁器12的取向变 化(即,相对于全局参照系167所示的当前图像Ic和之前图像IP)。 选择要在帧间跟踪的点的一种方法是从图像随机选择点(例如图13 中的点162)。不过,选择的所得点可能难以唯一地识别,从而跟踪 点变得相当困难。为了缓解这个问题,根据一些实施例,可以使用具 有其内置功能GoodFeaturesToTrack的开源图像处理库OpenCV。 GoodFeaturesToTrack功能选择图像中的角作为能够容易识别和跟踪 的特征。在一个实施例中,可以基于Shi和Tomasi提出的方法计算角 (“Good features to track”,Computer Vision and PatternRecognition,1994。Proceedings CVPR'94,1994IEEE Computer Society Conference,pp.593-600),这种方法首先利用Sobel算子计 算点周围的Hessian矩阵,以计算二阶导数。然后比较Hessian矩阵 的两个本征值的最小值,如果其高于预设的最小阈值,选择该点作为 有效角。利用选择的一组可跟踪的点,可以通过从IP到IC跟踪点,计 算如图13所示的帧间位置的变化。
为了在帧之间跟踪点,可以使用多步算法。首先,例如,可以使 用内核大小(kernel size)为7的拉普拉斯算符滤波器过滤IP。可以 使用过滤的图像而不是原始图像进行跟踪,以便考虑两帧之间光照条 件的变化(例如,以防止由于阴影或光亮的变化导致的跟踪性能的劣 化)。
在过滤IP之后,可以对图像执行GoodFeaturesToTrack功能, 以计算在帧之间进行跟踪的点集。然后可以使用对IP使用的相同方法 过滤IC。然后可以利用交叉相关(crosscorrelation)技术,例如由 Nourani-vatani等人描述的技术(“Correlation BasedVisual Odometry for Ground Vehicles”。Journal of Field Robotics,28(5),pp.742-768), 在IC中找到从IP选择的每个点。例如,可以从IP选择包含点的窗口, 并可以在点窗口和IC之间进行交叉相关。交叉相关最大值的位置对应 于IC中的点的位置。可以利用小角度近似和2D齐次变换方程的线性 化版本来确定IP和IC中的点之间的关系:
其中xp,yp,xc和yc分别是该点在IP和IC中的x和y位置,δx, δy和δθ是清洁器在相机参照系中的变化和取向的分量。整理方程22 获得
ypδθ+δx=xc-xp, Eq.23
-xpδθ+δy=yc-yp, Eq.24
可以针对所有被跟踪的点将其组合为
其中i=1,2,……,M,M是被跟踪点的数目。可以通过利用SVD算法计算伪逆(pseudoinverse)来发现所得的取向变化。然后可 以利用事先从运行校准算法确定的校准常数将取向变化δx,δy和δθ 从像素单位变换到世界单位。
在建立状态转换模型中可以考虑两个参照系:运载工具参考系 169,在其中测距数据被收集;以及全局参考系167,清洁器12在其 中工作,两者都示于图14中(其中全局参考系167由yg和xg表示, 而运载工具参考系169由y′和x′表示)。视觉测距数据从相机参考系到全局参考系的转化(rotation),从几何的角度上来说,可以定义为:
Δx=Δy′cos(θ)+Δx′sin(θ), Eq.26
Δy=Δy′sin(θ)-Δx′cos(θ), Eq.27
其中Δx和Δy是清洁器在全局系中的平移,Δx′和Δy′是在运载 工具系中的平移。所得的状态转换矩阵被定义为
xt=xt-1+Δy′cos(θ)+Δx′sin(θ), Eq.28
yt=yt-1+Δy′sin(θ)-Δx'cos(θ), Eq.29
θt=θt,m, Eq.30
其中θt,m是来自指南针的测量结果。所得的控制输入矢量 是有噪声的测量结果。为了拟合EKF所需要的形式,可以 假设传感器噪声是协方差为Mt的零平均值高斯过程。所得的系统状 态转换模型可以被定义为
其具有协方差Rt=VtMtVt T,其中Vt为g(.)相对于在xt-1和ut评估 的ut的雅可比行列式。于是,利用以上方法,可以使用来自第二传感 器组件24的测距数据来确定状态转换模型输入。
对于激光测距仪16,可以确定形状信息,从而能够进行特征检测。 可以使用所确定的到特征的距离和相对朝向确定EKF SLAM的测量 模型(即,特征测量结果)。如图15所示,存在激光测距仪16在其 中工作的两个参考系:激光测距仪的局部参考系170和清洁器12在其 中操作的全局参考系172。在激光测距仪的局部参考系170中,可以 将到特征的距离和相对朝向定义为
φ=atan2(Mx,L,My,L), Eq.33
其中φ是到特征的相对朝向,r是距特征的距离,Mx,L和My,L是 特征在局部系170中的坐标。在全局系172中,r和φ可以定义为
φ=θ-atan2(My,G-y,Mx,G-x), Eq.35
其中MX,G和My,G是特征在全局系172中的位置。所得的测量模 型为
其具有协方差为Qt的零平均值高斯加性噪声,该高斯加性噪声 匹配EKF所需要的形式。
如上所述,EKF SLAM是基于特征的技术,结果,特征检测是 实施本技术的关键方面。基于一些实施例中使用的传感器组件16,可 以将环境中几乎任何东西用作特征。例如,在室内环境中,常见特征 可以包括墙壁和角,因为这些是容易识别的静态对象。如上所述,可 以从激光测距仪16的距离测量结果提取诸如角的特征。例如,可以首 先使用用于线识别的随机样本一致(random sample consensus, RANSAC)算法的稍微改进版本。对RANSAC线识别的改进涉及如 何产生随机样本集合。例如,在标准的RANSAC算法中,样本集合 由并非已经附着到对象模型的随机可能内部点(inlier)构成。这个可 以被改进以减少对于并不是环境中的真实墙壁的线的错误识别。更具 体而言,为了克服这种错误识别的问题,可以通过如下方式产生样本 集合:首先随机选择单个可能的内部点,然后使用位于所选点周围窗 口之内的所有可能内部点作为样本集合。在线识别步骤之后,可以找 到线之间的交点,并且如果那些线之间的最小角度大于预定义阈值, 可以将该交点表征为角。在图16中示出了这种所得角落识别的范例, 包括激光测距仪距离测量结果174、两条提取的线176、178和检测到 的角180。
与特征相关的EKF SLAM的另一分量称为数据关联,亦即,如 果观测到的特征已经被看到,将该特征与其自身相关联,或者如果观 测到的特征从未被看到,增加该特征作为新特征。在一些实施例中, 可以使用门控搜索(gated search)算法。更具体而言,对于每次观测, 基于清洁器状态的当前估计,可以将预测的位置与当前跟踪的特征的 每个进行比较,并且如果预测的位置落在当前跟踪特征的门控距离之 内,可以将观测与该特征相关联,且如果观测不与任何被跟踪特征相 关联,该观测可以被假定为新特征并可以被增加到当前状态估计。在 一些实施例中可以使用其他更复杂的方法。通过连续或周期性地更新清洁器的状态估计,且由于状态估计还包含当前描述地图的所有特征, 所以也可以更新那些估计,这些数据关联方法能够提供清洁器的真实 位置的更好估计并减小误差。
在一些实施例中,利用以上方法和技术,控制系统10能够连续 或周期性地测量水池清洁器12前方的对象距离,绘制周围环境,识别 环境之内的对象,定位水池清洁器在环境之内的位置,和/或在整个环 境内导航水池清洁器12。例如,基于绘图和定位,控制系统10能够 跟踪和控制水池清洁器12的运动以优化水池清洁器12在整个环境中 的清洁路线。这可以包括确定和存储清洁路线,以及控制水池清洁器 12以遵循清洁路线或跟踪水池清洁器12的运动路线,并周期性调节 水池清洁器12的运动以确保在特定时间段内遍历环境的所有区域。
本领域的技术人员将要认识到,尽管上文已经结合特定实施例和 范例描述了本发明,但本发明未必受此限制,众多其他实施例、范例、 用途,以及实施例、范例和用途的修改和偏离意在由本文所附权利要 求涵盖。所援引的每个专利和出版物的全部公开通过引用并入本文, 如同每个这样的专利或出版物是通过引用单独并入本文一样。在如下 权利要求中阐述了本发明的各种特征和优点。
Claims (20)
1.一种游泳池清洁器,所述游泳池清洁器包括:
底座,所述底座支撑电动机;
与所述底座相关联的进水口,所述进水口被配制成将水和碎屑吸入所述清洁器中;
相机,所述相机与所述底座相关联并且被配置成识别水下环境内的碎屑的具体位置;和
控制器,所述控制器与所述相机通信并被配置成基于水下环境内的碎屑的具体位置来优化清洁路线,并且基于优化的清洁路线控制游泳池清洁器的移动以导航游泳池清洁器通过水下环境,使得能够取回所述碎屑。
2.根据权利要求1所述的游泳池清洁器,其中,所述控制器还包括处理器和具有存储的程序代码的存储介质。
3.根据权利要求2所述的游泳池清洁器,其中,所述程序代码能够由所述处理器执行以从所述相机取回数据形式的输出。
4.根据权利要求3所述的游泳池清洁器,其中,从所述相机取回的数据包括视觉测距数据。
5.根据权利要求1所述的游泳池清洁器,其中,所述相机被定向成提供所述游泳池清洁器前方特征或表面的视觉数据。
6.根据权利要求1所述的游泳池清洁器,还包括传感器组件。
7.根据权利要求6所述的游泳池清洁器,其中,所述传感器组件被配置成对所述游泳池清洁器的周围环境构建地图并跟踪所述游泳池清洁器在所述环境内的位置。
8.根据权利要求1所述的游泳池清洁器,其中,所述控制器利用定位或地图构建算法来优化所述清洁路线。
9.根据权利要求1所述的游泳池清洁器,其中,所优化的清洁路线被优化以在特定时间段内遍历所述水下环境。
10.一种用于水下环境的自主机器人水池清洁器,所述水池清洁器包括:
底座,所述底座支撑电动机;
传感器组件,所述传感器组件被设计用于对水下环境构建地图;和
与所述传感器组件通信的控制器,所述控制器被配置为:
操作所述传感器组件,
接收来自所述传感器组件的输入,
识别水下环境内的碎屑的具体位置,
基于碎屑的具体位置为水下环境创建优化的清洁路线;和
基于优化的清洁路线导航所述水池清洁器通过水下环境,使得能够取回所述碎屑。
11.根据权利要求10所述的水池清洁器,其中,所述传感器组件包括激光器或相机中的至少一个。
12.根据权利要求11所述的水池清洁器,其中,所述相机被配置成捕获所述水池清洁器下方的水下环境的地板表面的图像。
13.根据权利要求10所述的池清洁器,其中,所述传感器组件与所述控制器或所述电动机中的至少一个通信。
14.一种游泳池清洁器,所述游泳池清洁器包括:
底座,所述底座支撑电动机;
与所述底座相关联的进水口,所述进水口被配制成将水和碎屑吸入所述清洁器中;
相机,与所述底座相关联并被配置成识别所述碎屑;
传感器组件,所述传感器组件被耦合到所述底座;和
与所述传感器组件和所述相机通信的控制器,所述控制器被配置为:
操作所述传感器组件或所述相机中的至少一个,
接收来自所述传感器组件或所述相机中的至少一个的输入,
识别水下环境内的碎屑的具体位置,
基于碎屑的具体位置为水下环境创建优化的清洁路线;和
基于优化的清洁路线导航所述水池清洁器通过水下环境,使得能够通过所述进水口取回所述碎屑。
15.根据权利要求14所述的游泳池清洁器,其中,所述游泳池清洁器检测到所述游泳池清洁器前方的物体的物理距离。
16.根据权利要求14所述的游泳池清洁器,其中,所述控制器对通过所述水下环境的至少一个清洁路线构建地图。
17.根据权利要求14所述的游泳池清洁器,其中,所述控制器基于来自所述传感器组件或所述相机的输入来执行一个或多个距离测量算法。
18.根据权利要求14所述的游泳池清洁器,其中,所述游泳池清洁器确定其在所述水下环境内的位置并且记住所述环境内的碎屑的位置。
19.根据权利要求14所述的游泳池清洁器,还包括发射平行激光线的激光线发生器。
20.根据权利要求19所述的游泳池清洁器,其中,所述相机捕获所述平行激光线的图像,并且所述控制器计算所述图像中的所述激光线之间的像素距离,并进一步计算所述相机与所述碎屑之间的物理距离。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201261664945P | 2012-06-27 | 2012-06-27 | |
US61/664,945 | 2012-06-27 | ||
CN201380041089.XA CN105308414B (zh) | 2012-06-27 | 2013-06-27 | 具有激光测距仪系统的水池清洁器和方法 |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201380041089.XA Division CN105308414B (zh) | 2012-06-27 | 2013-06-27 | 具有激光测距仪系统的水池清洁器和方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN108661362A true CN108661362A (zh) | 2018-10-16 |
Family
ID=49784027
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201380041089.XA Expired - Fee Related CN105308414B (zh) | 2012-06-27 | 2013-06-27 | 具有激光测距仪系统的水池清洁器和方法 |
CN201810604132.3A Pending CN108661362A (zh) | 2012-06-27 | 2013-06-27 | 具有激光测距仪系统的水池清洁器和方法 |
Family Applications Before (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201380041089.XA Expired - Fee Related CN105308414B (zh) | 2012-06-27 | 2013-06-27 | 具有激光测距仪系统的水池清洁器和方法 |
Country Status (8)
Country | Link |
---|---|
US (3) | US9086274B2 (zh) |
EP (1) | EP2867611A4 (zh) |
CN (2) | CN105308414B (zh) |
AU (2) | AU2013284446B2 (zh) |
BR (1) | BR112014032713A2 (zh) |
CA (1) | CA2877919A1 (zh) |
IN (1) | IN2015KN00237A (zh) |
WO (1) | WO2014004929A2 (zh) |
Families Citing this family (50)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9086274B2 (en) | 2012-06-27 | 2015-07-21 | Pentair Water Pool And Spa, Inc. | Pool cleaner with laser range finder system and method |
US9388595B2 (en) | 2012-07-10 | 2016-07-12 | Aqua Products, Inc. | Pool cleaning system and method to automatically clean surfaces of a pool using images from a camera |
US10248886B2 (en) * | 2013-10-30 | 2019-04-02 | Pgs Geophysical As | System and method for underwater distance measurement |
EP2821564B1 (en) * | 2014-01-07 | 2016-04-13 | Aquatron Robotic Technology Ltd. | Swimming pool cleaner |
KR101575597B1 (ko) * | 2014-07-30 | 2015-12-08 | 엘지전자 주식회사 | 로봇 청소 시스템 및 로봇 청소기의 제어방법 |
US10156438B2 (en) * | 2014-08-15 | 2018-12-18 | Fugro N.V. | Underwater laser based modeling device |
JP6348601B2 (ja) * | 2014-08-29 | 2018-06-27 | 株式会社日立国際電気 | 固体撮像装置及び撮像方法 |
US10609862B2 (en) | 2014-09-23 | 2020-04-07 | Positec Technology (China) Co., Ltd. | Self-moving robot |
US10254403B1 (en) * | 2014-11-24 | 2019-04-09 | AI Incorporated | Edge detection system |
US10933534B1 (en) * | 2015-11-13 | 2021-03-02 | AI Incorporated | Edge detection system |
US11685053B1 (en) | 2014-11-24 | 2023-06-27 | AI Incorporated | Edge detection system |
US9678210B2 (en) | 2014-12-19 | 2017-06-13 | Caterpillar Inc. | Error estimation in real-time visual odometry system |
CN104656093B (zh) * | 2015-02-01 | 2017-02-01 | 浙江大学 | 一种水下激光测距仪及测距方法 |
EP3262252B1 (en) | 2015-02-24 | 2022-05-18 | Hayward Industries, Inc. | Pool cleaner with optical out-of-water and debris detection |
US9954107B2 (en) * | 2015-05-05 | 2018-04-24 | International Business Machines Corporation | Strained FinFET source drain isolation |
EP3118601B1 (en) * | 2015-07-15 | 2018-04-18 | Peng Cheng | Torque sensor |
CN105371818A (zh) * | 2015-11-30 | 2016-03-02 | 湖北易瓦特科技股份有限公司 | 测距避障仪和无人机测距避障的方法 |
US10188169B2 (en) * | 2016-03-15 | 2019-01-29 | Nike, Inc. | Sensor for an article of footwear |
US10167650B2 (en) | 2016-08-10 | 2019-01-01 | Aquatron Robotic Technology Ltd. | Concurrent operation of multiple robotic pool cleaners |
WO2018102190A1 (en) | 2016-11-29 | 2018-06-07 | Blackmore Sensors and Analytics Inc. | Method and system for classification of an object in a point cloud data set |
KR102254468B1 (ko) | 2016-11-30 | 2021-05-20 | 블랙모어 센서스 앤드 애널리틱스, 엘엘씨 | 광 처프 거리 검출의 도플러 검출 및 도플러 보정을 위한 방법 및 장치 |
WO2018102188A1 (en) | 2016-11-30 | 2018-06-07 | Blackmore Sensors and Analytics Inc. | Method and system for automatic real-time adaptive scanning with optical ranging systems |
CN110140063B (zh) | 2016-11-30 | 2023-10-13 | 布莱克莫尔传感器和分析有限责任公司 | 利用光学测距系统进行自适应扫描的方法和系统 |
US10422880B2 (en) | 2017-02-03 | 2019-09-24 | Blackmore Sensors and Analytics Inc. | Method and system for doppler detection and doppler correction of optical phase-encoded range detection |
US10550594B2 (en) | 2017-04-20 | 2020-02-04 | International Business Machines Corporation | Automated cleaning device |
US10401495B2 (en) | 2017-07-10 | 2019-09-03 | Blackmore Sensors and Analytics Inc. | Method and system for time separated quadrature detection of doppler effects in optical range measurements |
WO2019014406A1 (en) | 2017-07-12 | 2019-01-17 | Zodiac Pool Systems Llc | SYSTEMS AND METHODS FOR MAPPING OR OTHERWISE DISCERNING POOL AND SPAS CHARACTERISTICS |
EP3673232B8 (en) * | 2017-08-22 | 2023-07-19 | Pentair Water Pool and Spa, Inc. | Pool cleaner control system |
EP3692229A1 (en) | 2017-10-04 | 2020-08-12 | Zodiac Pool Systems LLC | A method and system of cleaning a pool with use of an automated pool cleaner and a device for mapping the pool |
US11169268B1 (en) * | 2017-12-12 | 2021-11-09 | Philip Raymond Schaefer | System and method for measuring the position of a moving object |
US10293489B1 (en) * | 2017-12-15 | 2019-05-21 | Ankobot (Shanghai) Smart Technologies Co., Ltd. | Control method and system, and cleaning robot using the same |
EP3521532B1 (en) * | 2018-02-04 | 2021-01-06 | Maytronics Ltd. | Pool cleaning robot and a method for imaging a pool |
JP2021515241A (ja) | 2018-04-23 | 2021-06-17 | ブラックモア センサーズ アンド アナリティクス エルエルシー | コヒーレント距離ドップラー光学センサを用いた自律走行車の制御方法およびシステム |
US11519732B2 (en) | 2018-08-20 | 2022-12-06 | Zodiac Pool Systems Llc | Mapping and tracking methods and systems principally for use in connection with swimming pools and spas |
CN109186463B (zh) * | 2018-09-04 | 2021-12-07 | 浙江梧斯源通信科技股份有限公司 | 应用于可移动机器人的防跌落方法 |
CN109269421A (zh) * | 2018-09-14 | 2019-01-25 | 李刚 | 万能拍摄测量尺 |
US11822010B2 (en) | 2019-01-04 | 2023-11-21 | Blackmore Sensors & Analytics, Llc | LIDAR system |
FR3091525B1 (fr) * | 2019-01-04 | 2021-01-29 | Balyo | Équipement de manutention autoguidé comportant un moyen de détection |
CN109917788B (zh) * | 2019-03-13 | 2022-12-06 | 深圳乐动机器人股份有限公司 | 一种机器人沿墙行走的控制方法及装置 |
CN109975759B (zh) * | 2019-03-30 | 2023-03-17 | 广东工业大学 | 一种基于三色激光的水下无人机定位方法及装置 |
CN110209160A (zh) * | 2019-04-29 | 2019-09-06 | 北京云迹科技有限公司 | 基于激光的障碍物提取方法及装置 |
KR102224637B1 (ko) | 2019-07-05 | 2021-03-08 | 엘지전자 주식회사 | 이동 로봇 및 그 제어방법 |
KR102275300B1 (ko) | 2019-07-05 | 2021-07-08 | 엘지전자 주식회사 | 이동 로봇 및 그 제어방법 |
KR102361130B1 (ko) | 2019-07-11 | 2022-02-09 | 엘지전자 주식회사 | 이동 로봇 및 그 제어방법 |
KR102297496B1 (ko) * | 2019-07-11 | 2021-09-02 | 엘지전자 주식회사 | 인공지능을 이용한 이동 로봇 및 이동 로봇의 제어방법 |
KR102302575B1 (ko) | 2019-07-16 | 2021-09-14 | 엘지전자 주식회사 | 이동 로봇 및 그 제어방법 |
CN110954015B (zh) * | 2019-10-11 | 2021-07-20 | 中交第二航务工程局有限公司 | 基于激光调焦和图像识别的盾尾间隙测量方法 |
CN114734480A (zh) * | 2021-01-07 | 2022-07-12 | 中国科学院沈阳自动化研究所 | 一种工业机器人空间位姿精度测试系统 |
CN116076950A (zh) | 2022-06-13 | 2023-05-09 | 北京众清科技有限公司 | 一种水池清洗的方法及装置 |
CN115069710A (zh) * | 2022-06-27 | 2022-09-20 | 广东韶钢松山股份有限公司 | 一种激光测距装置以及桥式起重机 |
Family Cites Families (85)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US811432A (en) | 1905-03-13 | 1906-01-30 | Albert E Peake | Means for displaying pictures and the like. |
US3676884A (en) * | 1970-04-14 | 1972-07-18 | Stanley S Wulc | Random motion suction cleaner |
US3845291A (en) | 1974-02-08 | 1974-10-29 | Titan Tool And Die Co Inc | Water powered swimming pool light |
US3980891A (en) | 1975-05-16 | 1976-09-14 | Intec Corporation | Method and apparatus for a rotary scanner flaw detection system |
US4198164A (en) | 1976-10-07 | 1980-04-15 | Ensco, Inc. | Proximity sensor and method and apparatus for continuously measuring rail gauge |
US4277707A (en) | 1978-04-24 | 1981-07-07 | The Garrett Corporation | High speed magnetic coupling |
US4196648A (en) | 1978-08-07 | 1980-04-08 | Seneca Sawmill Company, Inc. | Automatic sawmill apparatus |
US4775235A (en) | 1984-06-08 | 1988-10-04 | Robotic Vision Systems, Inc. | Optical spot scanning system for use in three-dimensional object inspection |
US4705395A (en) | 1984-10-03 | 1987-11-10 | Diffracto Ltd. | Triangulation data integrity |
US4700427A (en) | 1985-10-17 | 1987-10-20 | Knepper Hans Reinhard | Method of automatically steering self-propelled floor-cleaning machines and floor-cleaning machine for practicing the method |
US4616298A (en) | 1985-12-26 | 1986-10-07 | Bolson Frank J | Water-powered light |
US4760269A (en) | 1986-05-20 | 1988-07-26 | The Mitre Corporation | Method and apparatus for measuring distance to an object |
US4878754A (en) | 1986-10-16 | 1989-11-07 | Tokyo Keiki Co. Ltd. | Method of and apparatus for measuring irregularities of road surface |
US4745290A (en) | 1987-03-19 | 1988-05-17 | David Frankel | Method and apparatus for use in making custom shoes |
US5024529A (en) * | 1988-01-29 | 1991-06-18 | Synthetic Vision Systems, Inc. | Method and system for high-speed, high-resolution, 3-D imaging of an object at a vision station |
US4920465A (en) | 1988-11-15 | 1990-04-24 | Alopex Industries, Inc. | Floating fountain device |
US5113080A (en) | 1990-07-10 | 1992-05-12 | New Jersey Institute Of Technology | Non-linear displacement sensor based on optical triangulation principle |
US5205174A (en) | 1991-05-24 | 1993-04-27 | Silverman Eugene B | Scavenger submersible visual and acoustical tank inspection system and method |
US5313261A (en) * | 1992-07-13 | 1994-05-17 | Applied Remote Technology Inc. | Method and apparatus for faithful gray scale representation of under water laser images |
US5475207A (en) | 1992-07-14 | 1995-12-12 | Spectra-Physics Scanning Systems, Inc. | Multiple plane scanning system for data reading applications |
JPH0642914A (ja) | 1992-07-24 | 1994-02-18 | Canon Inc | 変位測定装置 |
US5337434A (en) | 1993-04-12 | 1994-08-16 | Aqua Products, Inc. | Directional control means for robotic swimming pool cleaners |
US5414268A (en) | 1994-02-01 | 1995-05-09 | The Coe Manufacturing Company | Light scanner with interlaced camera fields and parallel light beams |
JP3293314B2 (ja) | 1994-04-14 | 2002-06-17 | ミノルタ株式会社 | 清掃ロボット |
IL109394A (en) | 1994-04-22 | 1997-03-18 | Maytronics Ltd | Swimming pool cleaning, navigational control system and method |
US5852984A (en) | 1996-01-31 | 1998-12-29 | Ishikawajimi-Harima Heavy Industries Co., Ltd. | Underwater vehicle and method of positioning same |
SE504923C2 (sv) | 1996-06-04 | 1997-05-26 | Mark & Marin Ab | Anordning för rengöring av vattencisterner |
US6758755B2 (en) | 1996-11-14 | 2004-07-06 | Arcade Planet, Inc. | Prize redemption system for games executed over a wide area network |
US5929984A (en) | 1996-12-10 | 1999-07-27 | Hamar Laser Instruments, Inc. | System and method for generating multiple parallel beams and planes |
EP0913707B1 (de) * | 1997-10-31 | 2003-06-11 | LAP GmbH Laser Applikationen | Verfahren zur berührungsfreien Messung des Abstands eines Objekts nach dem Prinzip der Laser-Triangulation |
US6152704A (en) | 1998-09-30 | 2000-11-28 | A-Med Systems, Inc. | Blood pump with turbine drive |
US6876392B1 (en) | 1998-12-22 | 2005-04-05 | Matsushita Electric Industrial Co., Ltd. | Rangefinder for obtaining information from a three-dimensional object |
JP2000230807A (ja) | 1999-02-10 | 2000-08-22 | Micro Research:Kk | 平行光を利用した距離測定方法とその装置 |
US6758226B2 (en) * | 1999-04-01 | 2004-07-06 | Aqua Products Inc. | Motion detection and control for automated pool cleaner |
US6956348B2 (en) | 2004-01-28 | 2005-10-18 | Irobot Corporation | Debris sensor for cleaning apparatus |
EP2363775A1 (en) | 2000-05-01 | 2011-09-07 | iRobot Corporation | Method and system for remote control of mobile robot |
EP1370737A1 (en) | 2001-02-28 | 2003-12-17 | Azoteq (PTY) Limited | Method of and apparatus for controlling the operation of a suction-type pool cleaner |
US20030057365A1 (en) | 2001-09-24 | 2003-03-27 | Bennett Ralph W. | Folded reflecting path optical spot scanning system |
GB2382708B (en) * | 2001-11-21 | 2006-03-15 | Roke Manor Research | Detection of foreign objects on surfaces |
KR100556612B1 (ko) * | 2002-06-29 | 2006-03-06 | 삼성전자주식회사 | 레이저를 이용한 위치 측정 장치 및 방법 |
US6805458B2 (en) | 2002-08-15 | 2004-10-19 | Gelcore Llc | Night light for plumbing fixtures |
AU2003256435A1 (en) | 2002-08-16 | 2004-03-03 | Evolution Robotics, Inc. | Systems and methods for the automated sensing of motion in a mobile robot using visual data |
US7054716B2 (en) * | 2002-09-06 | 2006-05-30 | Royal Appliance Mfg. Co. | Sentry robot system |
US8428778B2 (en) | 2002-09-13 | 2013-04-23 | Irobot Corporation | Navigational control system for a robotic device |
WO2004025947A2 (en) | 2002-09-13 | 2004-03-25 | Irobot Corporation | A navigational control system for a robotic device |
US7145478B2 (en) | 2002-12-17 | 2006-12-05 | Evolution Robotics, Inc. | Systems and methods for controlling a density of visual landmarks in a visual simultaneous localization and mapping system |
ES2314488T3 (es) * | 2003-11-04 | 2009-03-16 | Aqua Products Inc. | Control direccional para limpiadores de piscinas robotizados de cipillo dual. |
US7689321B2 (en) | 2004-02-13 | 2010-03-30 | Evolution Robotics, Inc. | Robust sensor fusion for mapping and localization in a simultaneous localization and mapping (SLAM) system |
US7706917B1 (en) | 2004-07-07 | 2010-04-27 | Irobot Corporation | Celestial navigation system for an autonomous robot |
US8972052B2 (en) | 2004-07-07 | 2015-03-03 | Irobot Corporation | Celestial navigation system for an autonomous vehicle |
JP4378261B2 (ja) * | 2004-10-27 | 2009-12-02 | キヤノン株式会社 | 画像処理方法、画像処理装置 |
JP4644540B2 (ja) * | 2005-06-28 | 2011-03-02 | 富士通株式会社 | 撮像装置 |
US7573402B2 (en) | 2005-08-25 | 2009-08-11 | Herbert William J | Dual laser beam guidance and parking device |
KR101323597B1 (ko) * | 2005-09-02 | 2013-11-01 | 니토 로보틱스 인코퍼레이티드 | 다기능 로봇 장치 |
US7539557B2 (en) | 2005-12-30 | 2009-05-26 | Irobot Corporation | Autonomous mobile robot |
US8095238B2 (en) | 2006-11-29 | 2012-01-10 | Irobot Corporation | Robot development platform |
US7791235B2 (en) | 2006-12-22 | 2010-09-07 | General Electric Company | Variable magnetic coupling of rotating machinery |
CN101139007B (zh) | 2007-07-31 | 2011-06-15 | 北京理工大学 | 水下清洁机器人 |
US8092675B2 (en) | 2007-10-08 | 2012-01-10 | Zodiac Group Australia Pty. Ltd. | Energy generation methods and systems for swimming pools and other vessels with recirculating fluid |
WO2009101735A1 (ja) | 2008-02-14 | 2009-08-20 | Yanmar Co., Ltd. | 水中清掃ロボットおよび補助洗浄作業機 |
US8341789B2 (en) | 2008-06-12 | 2013-01-01 | Maytronics Ltd. | Pool cleaning robot |
US7864342B2 (en) | 2008-10-08 | 2011-01-04 | The Richard M. Weiss Revocable Trust | Apparatus and method for measuring displacement of a curved surface using dual laser beams |
US8340852B2 (en) | 2009-04-29 | 2012-12-25 | Honeywell International Inc. | System and method for simultaneous localization and map building |
CN102576228A (zh) | 2009-08-31 | 2012-07-11 | Neato机器人技术公司 | 移动机器人环境的同时定位和地图绘制的方法和设备 |
US8506719B2 (en) | 2009-11-23 | 2013-08-13 | Searobotics Corporation | Robotic submersible cleaning system |
US8918209B2 (en) | 2010-05-20 | 2014-12-23 | Irobot Corporation | Mobile human interface robot |
KR101677634B1 (ko) | 2010-07-12 | 2016-11-18 | 엘지전자 주식회사 | 로봇 청소기 및 이의 제어 방법 |
US20120023676A1 (en) | 2010-07-31 | 2012-02-02 | Hansen Christian K | Orthopedic pillow having oblong central aperture |
KR101133091B1 (ko) | 2010-08-20 | 2012-04-04 | 재단법인 포항지능로봇연구소 | 청소로봇, 수중 청소장치 및 수중 청소방법 |
US9043129B2 (en) * | 2010-10-05 | 2015-05-26 | Deere & Company | Method for governing a speed of an autonomous vehicle |
IL217093A (en) * | 2011-12-19 | 2015-06-30 | P S I Pool Services Israel Ltd | Automatic Pool Cleaner and Energy Saving Pool Cleaner Method |
KR101984214B1 (ko) | 2012-02-09 | 2019-05-30 | 삼성전자주식회사 | 로봇 청소기의 청소 작업을 제어하기 위한 장치 및 방법 |
US9086274B2 (en) | 2012-06-27 | 2015-07-21 | Pentair Water Pool And Spa, Inc. | Pool cleaner with laser range finder system and method |
US9388595B2 (en) | 2012-07-10 | 2016-07-12 | Aqua Products, Inc. | Pool cleaning system and method to automatically clean surfaces of a pool using images from a camera |
US20140028861A1 (en) | 2012-07-26 | 2014-01-30 | David Holz | Object detection and tracking |
CN105404298B (zh) | 2012-09-21 | 2018-10-16 | 艾罗伯特公司 | 移动机器人上的接近度感测 |
US8972061B2 (en) | 2012-11-02 | 2015-03-03 | Irobot Corporation | Autonomous coverage robot |
US9020637B2 (en) | 2012-11-02 | 2015-04-28 | Irobot Corporation | Simultaneous localization and mapping for a mobile robot |
US20140263087A1 (en) | 2013-03-15 | 2014-09-18 | Hayward Industries, Inc. | Swimming Pool Cleaner With Docking System And/Or Other Related Systems And Methods |
US9037396B2 (en) | 2013-05-23 | 2015-05-19 | Irobot Corporation | Simultaneous localization and mapping for a mobile robot |
JP6309637B2 (ja) | 2014-01-10 | 2018-04-11 | アイロボット コーポレイション | 自律式移動ロボット |
US20160137886A1 (en) | 2014-11-13 | 2016-05-19 | GM Global Technology Operations LLC | Systems and methods for joining conductive surfaces using a releasable adhesive |
EP3262252B1 (en) | 2015-02-24 | 2022-05-18 | Hayward Industries, Inc. | Pool cleaner with optical out-of-water and debris detection |
US9840003B2 (en) | 2015-06-24 | 2017-12-12 | Brain Corporation | Apparatus and methods for safe navigation of robotic devices |
FR3041980B1 (fr) | 2015-10-01 | 2017-11-17 | Zodiac Pool Care Europe | Systeme de nettoyage de piscine a dispositif de prise d’images |
-
2013
- 2013-06-27 US US13/929,715 patent/US9086274B2/en active Active
- 2013-06-27 CN CN201380041089.XA patent/CN105308414B/zh not_active Expired - Fee Related
- 2013-06-27 CA CA2877919A patent/CA2877919A1/en not_active Abandoned
- 2013-06-27 BR BR112014032713A patent/BR112014032713A2/pt not_active IP Right Cessation
- 2013-06-27 IN IN237KON2015 patent/IN2015KN00237A/en unknown
- 2013-06-27 EP EP13809058.4A patent/EP2867611A4/en not_active Ceased
- 2013-06-27 AU AU2013284446A patent/AU2013284446B2/en not_active Ceased
- 2013-06-27 CN CN201810604132.3A patent/CN108661362A/zh active Pending
- 2013-06-27 WO PCT/US2013/048370 patent/WO2014004929A2/en active Application Filing
-
2015
- 2015-06-03 US US14/730,068 patent/US10024073B2/en active Active
-
2017
- 2017-10-11 AU AU2017245357A patent/AU2017245357A1/en not_active Abandoned
-
2018
- 2018-07-17 US US16/038,032 patent/US11047146B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
EP2867611A4 (en) | 2016-12-07 |
EP2867611A2 (en) | 2015-05-06 |
WO2014004929A3 (en) | 2015-06-25 |
US10024073B2 (en) | 2018-07-17 |
AU2013284446B2 (en) | 2017-07-13 |
WO2014004929A9 (en) | 2015-08-13 |
US20180320398A1 (en) | 2018-11-08 |
US20140009748A1 (en) | 2014-01-09 |
AU2017245357A1 (en) | 2017-11-02 |
BR112014032713A2 (pt) | 2017-06-27 |
US9086274B2 (en) | 2015-07-21 |
US20150267433A1 (en) | 2015-09-24 |
CN105308414A (zh) | 2016-02-03 |
AU2013284446A1 (en) | 2015-02-12 |
US11047146B2 (en) | 2021-06-29 |
IN2015KN00237A (zh) | 2015-06-12 |
WO2014004929A2 (en) | 2014-01-03 |
CN105308414B (zh) | 2018-07-06 |
CA2877919A1 (en) | 2014-01-03 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN105308414B (zh) | 具有激光测距仪系统的水池清洁器和方法 | |
Kümmerle et al. | Large scale graph-based SLAM using aerial images as prior information | |
Song et al. | A Kalman filter-integrated optical flow method for velocity sensing of mobile robots | |
Suresh et al. | Through-water stereo SLAM with refraction correction for AUV localization | |
CN108481327A (zh) | 一种增强视觉的定位装置、定位方法及机器人 | |
Theodorou et al. | Visual SLAM algorithms and their application for AR, mapping, localization and wayfinding | |
Wang et al. | Acoustic camera-based pose graph slam for dense 3-d mapping in underwater environments | |
CN108544494A (zh) | 一种基于惯性和视觉特征的定位装置、方法及机器人 | |
Carrera et al. | Lightweight SLAM and Navigation with a Multi-Camera Rig. | |
Tsukiyama | Global navigation system with RFID tags | |
CN117330052A (zh) | 基于红外视觉、毫米波雷达和imu融合的定位与建图方法及系统 | |
Li et al. | 2d lidar and camera fusion using motion cues for indoor layout estimation | |
Gouda et al. | Vision based slam for humanoid robots: A survey | |
Song et al. | A survey: Stereo based navigation for mobile binocular robots | |
Garcia | A proposal to estimate the motion of an underwater vehicle through visual mosaicking | |
Singh et al. | An Online Self-calibrating Refractive Camera Model with Application to Underwater Odometry | |
Kim et al. | Localization of mobile robots from full detection of ceiling outlines | |
Khattak | Multi-Modal Landmark Detection and Tracking for Odometry Estimation in Degraded Visual Environments | |
Fernandez | Method to measure, model, and predict depth and positioning errors of RGB-D Cameras in function of distance, velocity, and vibration | |
Singh et al. | Online Refractive Camera Model Calibration in Visual Inertial Odometry | |
Karthik | Vision system for autonomous navigation | |
Jiao | LiDar Perception Systems for Autonomous Robots: from Calibration to Localization, Mapping, and Recognition | |
Autera | Study and development of calibration algorithms of multi-camera systems for precision agriculture robotics | |
Contreras Ojeda | Robot pose calculation based on Visual Odometry using Optical flow and Depth map | |
Garcia Campos | A proposal to estimate the motion of an underwater vehicle through visual mosaicking |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
WD01 | Invention patent application deemed withdrawn after publication |
Application publication date: 20181016 |
|
WD01 | Invention patent application deemed withdrawn after publication |