CN108885436A - 自主监视机器人系统 - Google Patents
自主监视机器人系统 Download PDFInfo
- Publication number
- CN108885436A CN108885436A CN201780017209.0A CN201780017209A CN108885436A CN 108885436 A CN108885436 A CN 108885436A CN 201780017209 A CN201780017209 A CN 201780017209A CN 108885436 A CN108885436 A CN 108885436A
- Authority
- CN
- China
- Prior art keywords
- robot
- user
- camera
- enclosure space
- family
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000012544 monitoring process Methods 0.000 title description 125
- 230000002567 autonomic effect Effects 0.000 title description 7
- 230000002452 interceptive effect Effects 0.000 claims description 116
- 238000004891 communication Methods 0.000 claims description 55
- 230000033001 locomotion Effects 0.000 claims description 55
- 238000000034 method Methods 0.000 claims description 50
- 230000004044 response Effects 0.000 claims description 19
- 238000001514 detection method Methods 0.000 claims description 18
- 238000003860 storage Methods 0.000 claims description 13
- 238000007689 inspection Methods 0.000 claims description 4
- 230000006855 networking Effects 0.000 claims description 2
- 238000013507 mapping Methods 0.000 description 39
- 238000013519 translation Methods 0.000 description 23
- 230000008859 change Effects 0.000 description 15
- 230000006870 function Effects 0.000 description 14
- 230000003287 optical effect Effects 0.000 description 13
- 230000004888 barrier function Effects 0.000 description 11
- 238000003032 molecular docking Methods 0.000 description 11
- 230000008569 process Effects 0.000 description 11
- 238000005259 measurement Methods 0.000 description 10
- 230000007246 mechanism Effects 0.000 description 8
- 239000000809 air pollutant Substances 0.000 description 7
- 231100001243 air pollutant Toxicity 0.000 description 7
- 238000005516 engineering process Methods 0.000 description 7
- 238000004590 computer program Methods 0.000 description 6
- 238000010586 diagram Methods 0.000 description 6
- 238000003384 imaging method Methods 0.000 description 6
- 230000003993 interaction Effects 0.000 description 6
- BVPWJMCABCPUQY-UHFFFAOYSA-N 4-amino-5-chloro-2-methoxy-N-[1-(phenylmethyl)-4-piperidinyl]benzamide Chemical compound COC1=CC(N)=C(Cl)C=C1C(=O)NC1CCN(CC=2C=CC=CC=2)CC1 BVPWJMCABCPUQY-UHFFFAOYSA-N 0.000 description 5
- 230000000694 effects Effects 0.000 description 5
- 238000005286 illumination Methods 0.000 description 5
- 230000001965 increasing effect Effects 0.000 description 5
- GOLXNESZZPUPJE-UHFFFAOYSA-N spiromesifen Chemical compound CC1=CC(C)=CC(C)=C1C(C(O1)=O)=C(OC(=O)CC(C)(C)C)C11CCCC1 GOLXNESZZPUPJE-UHFFFAOYSA-N 0.000 description 5
- 230000000007 visual effect Effects 0.000 description 5
- 230000001133 acceleration Effects 0.000 description 4
- 238000004140 cleaning Methods 0.000 description 4
- 239000007789 gas Substances 0.000 description 4
- 238000010438 heat treatment Methods 0.000 description 4
- UGFAIRIUMAVXCW-UHFFFAOYSA-N Carbon monoxide Chemical compound [O+]#[C-] UGFAIRIUMAVXCW-UHFFFAOYSA-N 0.000 description 3
- 241000209094 Oryza Species 0.000 description 3
- 235000007164 Oryza sativa Nutrition 0.000 description 3
- 230000006399 behavior Effects 0.000 description 3
- 230000008901 benefit Effects 0.000 description 3
- 230000015572 biosynthetic process Effects 0.000 description 3
- 229910002091 carbon monoxide Inorganic materials 0.000 description 3
- 230000007423 decrease Effects 0.000 description 3
- 238000009826 distribution Methods 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 238000012986 modification Methods 0.000 description 3
- MWUXSHHQAYIFBG-UHFFFAOYSA-N nitrogen oxide Inorganic materials O=[N] MWUXSHHQAYIFBG-UHFFFAOYSA-N 0.000 description 3
- 238000013439 planning Methods 0.000 description 3
- 238000012545 processing Methods 0.000 description 3
- 235000009566 rice Nutrition 0.000 description 3
- 239000002904 solvent Substances 0.000 description 3
- 229920001621 AMOLED Polymers 0.000 description 2
- QGZKDVFQNNGYKY-UHFFFAOYSA-N Ammonia Chemical compound N QGZKDVFQNNGYKY-UHFFFAOYSA-N 0.000 description 2
- 230000009471 action Effects 0.000 description 2
- 230000004913 activation Effects 0.000 description 2
- 238000004378 air conditioning Methods 0.000 description 2
- 230000003321 amplification Effects 0.000 description 2
- 230000005540 biological transmission Effects 0.000 description 2
- 229910052799 carbon Inorganic materials 0.000 description 2
- 230000001413 cellular effect Effects 0.000 description 2
- 238000010276 construction Methods 0.000 description 2
- 230000001419 dependent effect Effects 0.000 description 2
- 238000004851 dishwashing Methods 0.000 description 2
- 238000000605 extraction Methods 0.000 description 2
- 239000004744 fabric Substances 0.000 description 2
- 239000003517 fume Substances 0.000 description 2
- 230000003137 locomotive effect Effects 0.000 description 2
- 238000004519 manufacturing process Methods 0.000 description 2
- 239000000203 mixture Substances 0.000 description 2
- 238000003199 nucleic acid amplification method Methods 0.000 description 2
- 230000002688 persistence Effects 0.000 description 2
- 230000003068 static effect Effects 0.000 description 2
- 238000010408 sweeping Methods 0.000 description 2
- 238000009423 ventilation Methods 0.000 description 2
- 238000005406 washing Methods 0.000 description 2
- 230000005355 Hall effect Effects 0.000 description 1
- CBENFWSGALASAD-UHFFFAOYSA-N Ozone Chemical compound [O-][O+]=O CBENFWSGALASAD-UHFFFAOYSA-N 0.000 description 1
- 238000012952 Resampling Methods 0.000 description 1
- 235000004443 Ricinus communis Nutrition 0.000 description 1
- 241000209140 Triticum Species 0.000 description 1
- 235000021307 Triticum Nutrition 0.000 description 1
- 238000009825 accumulation Methods 0.000 description 1
- 229910021529 ammonia Inorganic materials 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000009529 body temperature measurement Methods 0.000 description 1
- 239000000969 carrier Substances 0.000 description 1
- 235000013339 cereals Nutrition 0.000 description 1
- 150000001875 compounds Chemical group 0.000 description 1
- 238000001816 cooling Methods 0.000 description 1
- 238000006073 displacement reaction Methods 0.000 description 1
- 239000000428 dust Substances 0.000 description 1
- 230000005611 electricity Effects 0.000 description 1
- -1 for example Substances 0.000 description 1
- 238000009432 framing Methods 0.000 description 1
- 238000007654 immersion Methods 0.000 description 1
- 238000002347 injection Methods 0.000 description 1
- 239000007924 injection Substances 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 238000002955 isolation Methods 0.000 description 1
- 230000002045 lasting effect Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 230000004807 localization Effects 0.000 description 1
- 238000007726 management method Methods 0.000 description 1
- 230000005055 memory storage Effects 0.000 description 1
- 238000012806 monitoring device Methods 0.000 description 1
- 230000008450 motivation Effects 0.000 description 1
- 239000011022 opal Substances 0.000 description 1
- 239000013618 particulate matter Substances 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 239000013558 reference substance Substances 0.000 description 1
- 238000007789 sealing Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 239000000779 smoke Substances 0.000 description 1
- 239000007858 starting material Substances 0.000 description 1
- 239000000126 substance Substances 0.000 description 1
- XTQHKBHJIVJGKJ-UHFFFAOYSA-N sulfur monoxide Chemical compound S=O XTQHKBHJIVJGKJ-UHFFFAOYSA-N 0.000 description 1
- 238000004347 surface barrier Methods 0.000 description 1
- 239000003053 toxin Substances 0.000 description 1
- 231100000765 toxin Toxicity 0.000 description 1
- 238000012549 training Methods 0.000 description 1
- 238000012384 transportation and delivery Methods 0.000 description 1
- 238000010407 vacuum cleaning Methods 0.000 description 1
- 239000012855 volatile organic compound Substances 0.000 description 1
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 description 1
Classifications
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/0011—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots associated with a remote control arrangement
- G05D1/0038—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots associated with a remote control arrangement by providing the operator with simple or augmented images from one or more cameras located onboard the vehicle, e.g. tele-operation
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J19/00—Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
- B25J19/02—Sensing devices
- B25J19/021—Optical sensing devices
- B25J19/023—Optical sensing devices including video camera means
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/0088—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots characterized by the autonomous decision making process, e.g. artificial intelligence, predefined behaviours
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/50—Constructional details
- H04N23/51—Housings
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/57—Mechanical or electrical details of cameras or camera modules specially adapted for being embedded in other devices
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/62—Control of parameters via user interfaces
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/63—Control of cameras or camera modules by using electronic viewfinders
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/63—Control of cameras or camera modules by using electronic viewfinders
- H04N23/631—Graphical user interfaces [GUI] specially adapted for controlling image capture or setting capture parameters
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/66—Remote control of cameras or camera parts, e.g. by remote control devices
- H04N23/661—Transmitting camera control signals through networks, e.g. control via the Internet
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N7/00—Television systems
- H04N7/18—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
- H04N7/183—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a single remote source
- H04N7/185—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a single remote source from a mobile camera, e.g. for remote control
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/10—Terrestrial scenes
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Human Computer Interaction (AREA)
- General Physics & Mathematics (AREA)
- Automation & Control Theory (AREA)
- Aviation & Aerospace Engineering (AREA)
- Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- Robotics (AREA)
- Business, Economics & Management (AREA)
- Mechanical Engineering (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- Game Theory and Decision Science (AREA)
- Medical Informatics (AREA)
- Manipulator (AREA)
- Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
- Alarm Systems (AREA)
Abstract
自主移动机器人包括:底盘,在家中的地板表面上方支撑底盘并且配置成使底盘移过地板表面的驱动器,联接到底盘并且可垂直延伸的可变高度构件,由可变高度构件支撑的相机,以及控制器。控制器被配置为操作驱动器以将机器人导航到家庭内的位置并且在到达第一位置时调节可变高度构件的高度。控制器还被配置为,当可变高度构件处于调节高度时,操作相机以捕获第一位置处的家庭的数字图像。
Description
技术领域
本公开涉及自主机器人,并且更具体地,涉及自主监视机器人系统和相关方法。
背景技术
已经考虑到用于物联网家用电器的到因特网和远程客户端的无线连接。远程监视家庭内的状况对于居住者来说可能越来越受欢迎。例如,因特网可访问的固定恒温器可以提供温度测量。作为另一个例子,瞄准生活空间的固定监视摄像头从单个有利位置记录个人空间中的活动。
发明内容
在一个方面,自主移动机器人包括:底盘,将底盘支撑在家庭中的地板表面上方以及配置成使底盘移动经过地板表面的驱动器,联接到底盘并且可垂直延伸的可变高度构件,由可变高度构件支撑的相机,以及控制器。控制器被配置为操作驱动器以将机器人导航到家庭内的位置并且在到达第一位置时调节可变高度构件的高度。控制器还被配置为,当可变高度构件处于调节高度时,操作相机以捕获第一位置处的家庭的数字图像。
在另一方面,一种方法包括:接收表示由自主移动机器人上的相机捕获的并且呈现在远程计算设备的显示器上的家庭的数字图像的数据,确定家庭中的用户选择的位置至少高于家庭中的地板表面的一部分,并且使得机器人上的相机被朝向用户选择的位置重定向,同时捕获附加的数字图像并将其呈现在显示器上。
在又一方面,一种方法包括:将自主移动机器人导航到家庭内的位置,以及在到达第一位置时调整机器人的相机的高度。该方法还包括,当相机处于调节高度时,操作相机以在第一位置捕获家庭的数字图像。
实施方式可以包括下面和本文其他地方描述的一个或多个特征。在一些实施方式中,可变高度构件可从第一位置延伸到第二位置,在第一位置,可变高度构件的顶表面与底盘的顶表面齐平,在第二位置,可变高度构件的顶表面具有至少1.5米的高度。在一些实施方式中,可变高度构件可从10cm的高度延伸到1.5m的高度。在一些实施方式中,该方法包括将可变高度构件从第一位置延伸到第二位置,在第一位置,可变高度构件的顶表面与机器人的底盘的顶表面齐平,在第二位置,可变高度构件的顶表面具有至少1.5米的高度。该方法包括,例如,通过调节延伸可变高度构件来调节相机的高度。
在一些实施方式中,控制器被配置为在隐私模式下将可变高度构件移动到相机不能捕获家庭图像的位置。在一些实施方式中,该方法包括在隐私模式下将相机重新定位到相机不能捕获家庭图像的位置。
在一些实施方式中,控制器被配置为当机器人位于第一位置时将可变高度构件调节到至少两个高度,并且在可变高度构件位于所述至少两个高度的每个时操作相机以捕获家庭的数字图像。在一些实施方式中,该方法包括当机器人处于家庭内的特定位置时将相机重新定位到至少两个高度并且使得相机在所述至少两个高度中的每一个处捕获图像。
在一些情况下,机器人还包括无线收发器,其可由控制器操作并且被配置为与无线网络通信,使得数字图像可传输到远程计算设备,远程计算设备可操作以基于数字图像在显示器上呈现家庭的交互式表示。在一些情况下,机器人还包括传感器系统,用于检测与无线网络通信的联网设备的位置和状态,同时控制器操作驱动器以在家庭中导航机器人。无线收发器例如被配置为与无线网络通信,使得数字图像和表示联网设备的位置和状态的数据可传输到远程计算设备,以在显示器上呈现指示联网设备的位置和状态的指示符。在一些情况下,控制器被配置为操作驱动器以沿着通过位置的路径导航机器人,同时操作相机以捕获家庭的数字图像,并且无线收发器被配置为将数字图像发送到处理器以组合沿着路径捕获的数字图像,以形成可以在家庭的交互式表示中呈现的沿着路径的一系列视图。
在一些情况下,该方法还包括将捕获的数字图像无线地发送到远程计算设备,该远程计算设备可操作以基于数字图像在显示器上呈现家庭的交互式表示。在一些情况下,该方法还包括在家庭中导航机器人的同时检测与连接到机器人的无线网络通信的联网设备的位置和状态。该方法包括,例如,与无线网络通信,使得数字图像和表示联网设备的位置和状态的数据可传输到远程计算设备,以在显示器上呈现指示联网设备的位置和状态的指示符。在一些情况下,该方法包括沿着通过位置的路径导航机器人,同时操作相机以捕获家庭的数字图像,并且将数字图像发送到处理器以组合沿着路径捕获的数字图像以形成家庭的一系列视图。
在一些实施方式中,机器人还包括用于检测家庭内的物体的传感器系统。控制器例如被配置为操作驱动器以将机器人导航到家庭中的位置,同时基于检测到的物体定位机器人的姿势。在一些实施方式中,该方法包括检测家庭中的物体并将机器人导航到家庭中的位置,同时基于检测到的物体定位机器人的姿势。
在一些实施方式中,机器人还包括与无线网络通信的无线收发器。控制器被配置为操作驱动器以将机器人导航到家庭中的位置,同时基于由无线收发器接收到的信号定位机器人的姿势。在一些实施方式中,该方法包括接收无线信号并将机器人导航到家庭中的位置,同时基于无线信号定位机器人的姿势。
在一些实施方式中,控制器被配置为基于家庭中物体的位置将可变高度构件调节到一高度。在一些实施方式中,该方法包括基于家中物体的位置来调节相机的高度。
在一些实施方式中,机器人还包括与无线网络通信的无线收发器,以接收表示对第一位置的用户选择的数据,以及表示在第一位置处对设置可变高度构件的一个或多个高度的用户选择的数据。控制器被配置为例如操作驱动器以将机器人导航到第一位置,并且在将可变高度构件设置为所述一个或多个高度中的每一个的同时,在第一位置处操作相机以捕获数字图像。在一些实施方式中,该方法包括接收对第一位置的用户选择以及表示在第一位置处对相机的一个或多个高度的用户选择,将机器人导航到第一位置,以及在第一位置操作相机以在将相机设置在所述一个或多个高度中的每一个的同时捕获数字图像。在一些情况下,表示对一个或多个高度的用户选择的数据包括表示从可变高度构件的多个预定高度中选择高度的用户选择的数据。
在一些实施方式中,控制器被配置为在第一位置处旋转机器人,同时操作相机以捕获在第一位置处跨越高达360度的数字图像。在一些实施方式中,该方法包括在第一位置处旋转机器人,同时操作相机以捕获在第一位置处跨越高达360度的数字图像。例如,数字图像可以跨越高达360度,包括4到1000个图像。
在一些实施方式中,控制器被配置为在第一位置处旋转机器人到多个预定取向,同时操作相机以捕获在第一位置处跨越高达360度的数字图像。在一些实施方式中,该方法包括在第一位置处旋转机器人到多个预定取向,同时操作相机以捕获在第一位置处跨越高达360度的数字图像。数字图像包括例如在每个预定取向上捕获并以不同曝光水平捕获的多个图像。
在一些实施方式中,机器人还包括与无线网络通信的无线收发器,以接收表示对每个位置的用户选择和包括每个位置的路线的数据。在一些实施方式中,该方法还包括无线接收表示对每个位置的用户选择和包括每个位置的路线的数据。
在一些实施方式中,机器人还包括光学检测器。控制器被配置为,例如,操作驱动器以在一个位置旋转机器人以使用光学检测器检测家庭内的光并存储表示检测到的光的数据,并操作驱动器以在该位置旋转机器人以使用相机捕获数字图像,同时基于表示检测到的光的数据控制图像捕获。在一些实施方式中,该方法还包括在一个位置旋转机器人,同时检测家庭内的光,并且在该位置旋转机器人以使用相机捕获数字图像,同时基于表示检测到的光的数据控制图像捕获。
在一些实施方式中,机器人还包括无线收发器,其可由控制器操作并且被配置为与无线网络通信,使得数字图像可传输到远程计算设备,远程计算设备可操作以响应于表示远程计算设备上的用户输入的数据,而在用户显示器上呈现实况视频馈送。在一些实施方式中,该方法还包括将数字图像无线通信到远程计算设备,远程计算设备可操作以响应于表示远程计算设备上的用户输入的数据,而在用户显示器上呈现实况视频馈送。表示用户输入的数据还包括例如表示用户选择其中一个位置的数据。实况视频馈送包括例如在一个位置处的家庭的表示。
在一些实施方式中,该方法还包括确定另一个用户选择的位置在地板表面的部分上,并且使得机器人导航朝向所述另一个用户选择的位置,同时捕获并呈现附加数字图像。
在一些情况下,使相机朝向用户选择的位置重定向包括使得指示相机的操作的指示符呈现在与用户选择的位置相对应的数字图像的一部分附近。使机器人导航朝向另一个用户选择的位置包括,例如,使得指示机器人的移动的指示符呈现在数字图像的另一部分附近。
在一些实施方式中,使相机朝向用户选择的位置重定向包括使得指示相机的操作的指示符呈现在与用户选择的位置相对应的数字图像的一部分附近。在一些情况下,该方法还包括在捕获和呈现附加数字图像时使得指示符的位置被更新。
在一些实施方式中,确定用户选择的位置在家庭中的地板表面的至少一部分上方包括确定用户选择的位置在地板表面上方。在一些情况下,确定用户选择的位置地板表面上方包括确定由相机的位置和用户选择的位置定义的矢量不与地板表面相交。
在一些实施方式中,确定用户选择的位置在家庭中的地板表面的至少一部分上方包括确定机器人上的相机与用户选择的位置之间的距离高于预定阈值距离。
本文描述的前述和其他实施方式的优点可包括但不限于下文和本文其他地方描述的优点。封闭空间的交互式表示可以为用户提供物理地穿过封闭空间的虚拟模拟体验。可以从整个封闭空间中的许多不同视角捕获交互式表示的图像,从而为用户提供比通常可供用户使用的更多数量的封闭空间的有利位置。另外,图像可以以提供比组合之前由图像提供的视图更真实的视图的方式组合。交互式表示的视图可以为用户提供物理探索封闭空间的沉浸式体验。还可以选择捕获形成交互式表示的图像的有利位置以使用户熟悉,使得用户更容易识别和理解在用户终端上呈现的交互式表示的视图。
远离封闭空间的用户终端可以呈现交互式表示,使得用户不必在家庭内物理地存在以监视封闭空间内的状况。交互式表示还可以使用户能够远程地并连续地监视封闭空间内的状况。当用户终端向用户呈现交互式表示的不同视图时,关于封闭空间的状况的信息可以覆盖在交互式表示上以警告用户这些状况。在一些情况下,与封闭空间中的设备有关的信息可以覆盖在交互式表示上,使得用户终端可以向用户通知这些设备的一个或多个状态。可以将该信息提供给用户,以便用户可以相应地改变封闭空间内的状况,例如,通过操作这些设备。
在交互式表示呈现自主监视机器人的当前有利位置的情况下,用户可以以直观方式与呈现交互式表示的用户终端交互以控制自主监视机器人。具体地,用户终端可以基于用户与交互式表示的交互来预测用户希望向机器人发出的导航命令。
自主移动机器人可以在没有用户干预的情况下自主地捕获图像以形成本文描述的交互式表示。机器人包括用于捕获图像的相机,并且可以容易地操作以重定位和重取向相机以从各种角度和位置捕获图像。可以远程控制机器人,以便用户可以实时监视封闭空间并实时导航机器人通过封闭空间。可以连续捕获并发送由机器人捕获的图像,以便不断更新呈现给用户的交互式表示。还可以控制机器人以捕获可以组合的图像,以形成由用户终端存储和稍后访问的封闭空间的交互式表示。
在附图和下面的描述中阐述了本公开的一个或多个实施方式的细节。其他方面、特征和优点将从描述和附图以及权利要求书中变得显而易见。
附图说明
图1A和1B描绘了监视封闭空间的门的自主移动机器人。
图2描绘了封闭空间的布局图和机器人覆盖在该布局图上的路线。
图3A是封闭空间中的自主移动机器人的透视图。
图3B-3D是呈现图3A的封闭空间的视图的用户终端的平面图。
图4A和4B是自主移动机器人的后透视图和前视图。
图4C和4D是图4A的机器人的后视图,其中机器人的可变高度构件分别缩回和伸展。
图5是用于图4A的机器人的控制系统的框图。
图6是图4A的机器人的示意图。
图7是图4A的机器人在其中操作的网络的示意图。
图8是示出了包括图4A的机器人和其他连接的设备的封闭空间的示意图。
图9是监视封闭空间的过程的流程图。
图10A是呈现封闭空间的布局图的用户终端的平面图,其中巡逻路线覆盖在布局图上。
图10B是呈现封闭空间的交互式表示和通过封闭空间的巡逻路线的一部分的用户终端的平面图。
图10C是呈现图10B的交互式表示、图10B的巡逻路线的一部分、以及要添加到巡逻路线的航路点的用户终端的平面图。
图11是呈现图2的封闭空间的布局图、覆盖在布局图上的巡逻路线、以及覆盖在布局图上的限制区域的用户终端的平面图。
图12A是机器人在封闭空间中的航路点处以捕获水槽的图像的透视图。
图12B,12D和12F是描绘图12A的机器人伸展可变高度构件以捕获水槽的图像的一系列视图。
图12C,12E和12G是用户终端的一系列平面图,其呈现由机器人捕获的图像形成的视图,其中可变高度构件分别处于图12B,12D和12F所示的位置。
图13描绘了用户与用户终端交互以选择要在用户终端上呈现的封闭空间的交互式表示的视图。
图14A-14C是呈现由在封闭空间中的不同航路点处捕获的图像形成的交互式表示的视图的用户终端的平面图。
图15A-15C是呈现由在封闭空间中的单一航路点处捕获的图像形成的交互式表示的多个视图的用户终端的平面图。
图16A-16C是呈现封闭空间的交互式表示的视图的用户终端的平面图,其中覆盖了封闭空间中的状况的指示符。
图17A-17C是呈现封闭空间的交互式表示的视图的用户终端的平面图,其中覆盖了封闭空间中的设备的指示符。
各个附图中相同的附图标记和标号表示相同的元件。
具体实施方式
本公开涉及一种监视系统,其包括用于通过自主地移动通过封闭空间来远程监视封闭空间中的状况的自主移动机器人。封闭空间是由结构或建筑物限定的一组多个房间或空间,例如,家庭,住宅,单户住宅,多户住宅,复式单元,公寓或公寓单元,移动房屋,商业生活空间,办公室,工作室,制造工厂等。机器人的摄像机捕获封闭空间的图像,例如封闭空间的数字图像,并且在某些情况下,检测封闭空间中的状况。表示捕获的图像和/或检测到的状况的数据被发送到网络,例如因特网。用户终端可以通过网络上的门户访问数据。用户终端可操作以呈现由机器人从多个位置和方向捕获的图像形成的封闭空间的视图。视图包括来自多个有利位置的封闭空间的视图,以向用户提供封闭空间内机器人周围环境的视觉表示。门户使用户能够以模拟穿过多个房间和在多个房间内移动并模拟与移动相关的封闭空间的透视变化的方式查看封闭空间。这里描述的系统向用户提供了封闭空间的交互式表示,而无需用户手动驱动机器人通过封闭空间。
该系统基于表示机器人捕获的图像的数据生成封闭空间的交互式摄影重建。交互式摄影重建是封闭空间的交互式表示,其包括由机器人在整个封闭空间中的多个位置捕获的封闭空间的图像形成的多个视图。在一些示例中,捕获的图像还包括机器人在封闭空间中的一个或多个位置处在多个高度处捕获的图像。由机器人捕获的图像被组合,例如,拼接,排序等,以便在由用户终端呈现的视图中表示时以保持封闭空间的部分的连续性的方式形成交互式表示。
在一些示例中,以保持封闭空间的水平偏移部分的物理连续性的方式呈现交互式表示。例如,图像被拼接以形成封闭空间的完整全景视图,包括封闭空间的物理相邻部分。
在另外的示例中,交互式表示保持了封闭空间的垂直偏移部分的物理连续性。机器人使用可垂直移动的相机捕获垂直偏移部分的图像。如本文所述,相机安装到可垂直伸缩的构件上,使得在机器人穿过封闭空间期间可以调节相机的高度。
监视系统提供可实现远程监控的数据和整个封闭空间的位置监控。机器人通过自主穿过封闭空间同时捕获图像并测量封闭空间中的状况而在无需用户干预的情况下以自主方式操作。交互式表示可以覆盖有指示封闭空间的状况的指示符,从而当用户处于远程位置时保持用户获悉封闭空间中的状况。交互式表示使用户能够远程监控和监视封闭空间中的不同位置,而无需手动驱动机器人穿过封闭空间。
监控系统的监控过程示例
图1A描绘了监视系统的示例,该监视系统包括在封闭空间10(例如,家庭)中的自主移动机器人100。机器人100是自主监视机器人,其配置成在机器人100行进通过封闭空间10,例如,沿着图2所示的穿过封闭空间10的巡逻路径200时捕获封闭空间10的图像。机器人100包括底盘102,驱动器104,可变高度构件106和相机108。驱动器104将底盘102支撑在封闭空间10中的地板表面20上方。可变高度构件106联接到底盘102并且可从底盘102垂直延伸。相机108由可变高度构件106支撑,例如,支撑在可变高度构件106的上部110上。机器人100包括控制器112,控制器112操作驱动器104以将机器人100导航到封闭空间10内的地板表面20上的不同位置。
图2描绘了封闭空间10的布局图并且示出了穿过封闭空间10的巡逻路线200。在一些示例中,封闭空间10例如在物理上,空间上和/或功能上被细分为一个或多个限定的区域,例如图2中所示的区域A-H。在一些实施方式中,区域A-H对应于封闭空间10中的房间,例如区域A是电视(TV)房间,区域B是厨房,区域C是餐厅。在一些情况下,限定的区域A-C由墙壁划分,或者可以是开放的概念区域,其在没有墙壁划分区域的情况下混合在一起。
用于机器人100的路线200包括不同的航路点L1-L16(统称为“航路点L”),每个航路点在沿着封闭空间10的地板表面20的不同位置处。当机器人100沿着路线200移动时,操作相机108以捕获每个航路点L处的图像,以形成呈现给用户的交互式表示的对应视图。操作驱动器104以将机器人100操纵到封闭空间10内的每个航路点L。
除了将机器人100导航通过封闭空间10之外,控制器112还能够通过操作可与可变高度构件106一起操作的驱动系统来调节可变高度构件106的高度,例如,相对于底盘102和/或相对于地板表面20的高度。在到达封闭空间10内的一个航路点L(例如,图2中所示的航路点L1)时,将高度调节到所需高度,例如,自动选择的或由用户选择的。在一些情况下,在一些或每个航路点L处,操作相机108以在航路点处捕获图像,同时可变高度构件106处于关于航路点特定的调整高度。
在图1A的示例中,当机器人100到达航路点L1时,调节可变高度构件106的高度,使得由机器人100的相机108捕获的数字图像形成的视图116a包括封闭空间10中的前门118,同时相机108相对于地板表面20处于高度118a。相机108捕获数字图像,用于仅显示前门118的一部分的视图116b,同时相机相对于地板表面20处于高度118b。另一方面,当相机108处于高度118b时,视图116b示出了整个前门118。视图116a,116b呈现在用户终端120上,用户终端120可以形成监视系统的一部分。
在一些实施方式中,当机器人100到达航路点L1时,控制器112将可变高度构件106调整为定位在捕获图像的两个或更多个不同高度处。区域、航路点和/或高度可以是用户选择的,或者可以如本文所述是自动选择的。
交互式表示示例
如本文所述,捕获的图像以交互式表示的形式呈现给用户,例如,在用户终端上。在一些实施方式中,在实时监视模式中,交互式表示对应于由机器人100的相机108捕获的图像的实况视频馈送,如图3A所示。在实时监视模式期间,由相机108捕获的图像(例如,相机108的当前视图)在用户终端304上呈现给用户,如图3B所示。数字图像被捕获并以实时监视模式呈现,使得呈现给用户终端304的数字图像对应于相机108的当前视图。
类似于用户终端120,用户终端304是包括机器人100的监视系统的一部分,如本文例如参考图7和8所述。用户终端304例如是个人数据助理,个人计算机(PC),蜂窝终端,平板计算机或其他适当的用户终端。
用户终端304包括可由用户操作以与交互式表示交互并操纵用户终端304上所示的视图的一个或多个用户输入设备。用户输入设备包括任何合适的用户输入设备,包括例如触摸屏,触摸激活或触敏设备,操纵杆,键盘/小键盘,拨号盘,一个或多个方向键和/或指示设备(例如鼠标,轨迹球,触摸板等)。
用户终端304还包括一个或多个用户输出设备,以通过显示器可视地向用户呈现信息。该显示器例如是与诸如触摸屏的用户输入设备相关联的交互式显示器。该显示器例如是平板设备的显示屏。可选地或另外地,显示器是具有或不具有辅助照明(例如,照明面板)的有源矩阵有机发光二极管显示器(AMOLED)或液晶显示器(LCD)。在图3B-3D所示的示例中,用户终端304是具有触摸屏的平板设备,用户利用该触摸屏探索交互式表示。此外,在图1A和1B中所示的示例中,用户终端是具有触摸屏的智能手机设备。
在图3A所示的示例中,机器人100定位在封闭空间10中的房间300内,例如厨房,以捕获图像用于用户终端304上呈现的视图。机器人100的相机108指向房间300的一部分302。图3B,3C和3D中所示的用户终端304在其显示器306上呈现由机器人100的相机108捕获的图像形成的交互式表示308。
在一些实施方式中,用户与交互式表示308交互以选择封闭空间10内的位置,并且响应于用户选择,重定向相机108,使得相机108的视锥的中心被朝向这个位置重定向。在接收到数字图像上的点的用户选择时,监视系统预测用户是想要重定向相机108还是重新定位机器人100。用户选择的点对应于例如数字图像上的像素或一组相邻像素,其又对应于物理世界中的用户选择的位置,例如,封闭空间10中的位置。
监视系统确定用户选择的位置是在地板表面20上方还是在地板表面20上。如果用户选择是在地板表面20上,则监视系统使机器人100执行平移操作316,其中机器人100移动到用户选择的位置,如参考图3A和3B所述。如果用户选择的位置是在地板表面20上方,则监视系统使机器人100执行重取向操作318,其中相机108朝向用户选择的位置重定向,如参考图3A,3C和3D所述。
参考图3B,在一些示例中,用户操作用户终端304的用户界面以选择封闭空间10中的位置310a(如图3A所示)。视图319a由当相机108具有有利位置时捕获的图像形成,其中机器人100处于初始位置312(图3A中所示)。在一些示例中,用户与用户界面交互以选择交互式表示308的视图319a上对应于用户选择的位置310a的点311a。基于用户选择的位置310a,监视系统确定所选位置是地板表面20的一部分,因此用户意图使机器人100自主地导航到所选位置。监视系统因此使机器人100朝向用户选择的位置310a导航。
如图3A所示,机器人100被朝向该位置导航,同时相机108捕获图像。机器人100执行平移操作316以使机器人100响应于用户选择的位置310a而从其初始位置312平移到位置310a。
在平移操作316期间,由机器人100捕获的图像形成在显示器306上呈现给用户的视图。在一些示例中,在用户终端304上呈现的视图由实时捕获的图像形成。当机器人100从初始位置312移动到位置310a时,随着相机108捕获图像,更新显示器306上显示的交互式表示308的视图。
在一些实施方式中,指示符340呈现在显示器306上,以指示用户选择的点311a将使机器人100朝向封闭空间10中的用户选择的位置310a移动,而不是使机器人100重取向相机108。指示符340例如指示平移操作316,在该平移操作中机器人100执行驱动操作以朝向位置310a移动。指示符340是目的地图标,诸如目标环,目的地标志或在线地图绘制应用中通常理解的指示目的地的其他图标。
在一些实施方式中,当机器人100朝向用户选择的位置移动时,即使机器人100移动跨越地板表面20时,指示机器人100的平移操作316的指示符340仍保持固定到交互式表示308中描绘的用户选择的位置310a,因此,相机108从新的有利位置捕获图像。指示符340呈现在显示器306上以接近对应于用户选择的位置310a的视图319b的部分。当机器人100朝向用户选择的位置310a移动时,指示符340保持固定到点311a,因此也保持固定到显示器306上表示的用户选择的位置310a。指示符340的位置沿着用户终端304的显示器306移动,使得指示符340保持固定到显示器306上表示的用户选择的位置310a。在一些情况下,随着机器人100朝向用户选择的位置310a移动,当用户选择的位置310a在相机108的视点中不再可见时,指示符340从显示器306移除。例如,用户选择的位置310a位于由相机108捕获的图像的外周边或框架之外,从而防止用户选择的位置310a呈现在由用户终端304呈现的视图内。
也参考图3C,在一些示例中,用户操作用户终端304的用户界面以选择封闭空间10中的位置310b(由点311b表示)。用户使用用户界面来选择视图319a上的点311b,其对应于封闭空间10内的用户选择的位置310b。基于用户选择的位置310b,监视系统确定用户想要使相机指向用户选择的位置310b。在一些情况下,该用户选择的位置310b在地板表面上方,例如在地板表面上方的物体上,墙壁表面上等,而不是在机器人100可行进经过的位置处。
如果确定位置310b在封闭空间10中的地板表面20的至少一部分上方,则机器人100的相机108被重定向朝向位置310b。如图3C所示,位置310b不在视图319a的中心321处,视图319a的中心321对应于相机108的视锥的中心。机器人100的驱动器104执行重取向操作318(如图3A所示)以使机器人100重取向自身(或重取向相机108),使得相机108指向位置310b。
图3D描绘了交互式表示308的视图319b,其中相机108指向位置311b。相机108的视锥的中心例如指向位置310b,使得视图319b的中心321与位置311b重合。相机108例如被重取向,使得视图319b水平和垂直居中。监视系统使得机器人100上的相机108被重定向朝向用户选择的位置310b,同时捕获附加的数字图像以形成交互式表示308的附加视图。在这方面,视图319a(如图3B和3C所示)是从拍摄封闭空间10的部分302(图3A中标记)的图像形成的,而视图319b(图3D中所示)是从拍摄封闭空间10的部分322(在图3A中标记)的图像形成的。
虽然相机108被描述为旋转使得用户选择的位置310b与视图319b的中心重合,但是在一些情况下,相机108被重定向,使得视图319b的中心垂直轴线与用户选择的位置310b重合。例如,机器人100在适当位置旋转以将视锥的中心朝向用户选择的位置重定向,使得视图319b的中心水平轴线与用户选择的位置310b重合。在一些情况下,为了重定向相机108,调节可变高度构件106的高度,并因此调节相机108的高度。
在一些实施方式中,在用户终端304上呈现指示符342以指示用户对点311b的选择将使机器人100的相机108被重定向朝向封闭空间10中的用户选择位置310b。在一些示例中,指示符342指示重取向操作318,其中机器人100重新定位相机108以查看位置。可选地或另外地,指示符342指示相机的操作,例如,相机的重取向操作,相机的查看操作等。指示符342例如是指示诸如眼睛或相机等视线的图标。
当相机108被重定向时,指示器342保持固定到显示器306上的点311b。指示符342呈现为接近对应于用户选择的位置310b的视图319b的部分。在一些实施方式中,指示符342的位置在捕获附加数字图像时被更新,并且在用户终端304上呈现的视图被更新,使得指示符342保持固定到在显示器306上表示的用户选择位置310b。用户终端304在两个图3C和3D中示出了固定到点311b的指示符342,尽管图3C示出了由表示封闭空间10的部分302的图像形成的视图319a,图3D示出了由表示封闭空间10的部分302的图像形成的视图319b。指示符342的位置向用户显示为与用户选择的位置310b一起在显示器306上移动。例如,当相机108从其用于捕获图3C中的视图319a的图像的取向重取向到用于捕获图3D中的视图319b的图像的取向时,在交互式表示308中以及视图319a,319b二者中,指示符342保持固定到用户选择的位置310b。当相机108从其用于捕获310b的图像的取向重取向到用于捕获视图319b的图像的取向时,指示符342不再呈现在显示器306上,从而指示相机重取向操作完成。
除了向机器人100发出命令以执行平移和重取向操作之外,在一些实现中,用户与交互式表示308交互以向机器人100发出命令以执行缩放操作。监视系统确定用户选择的位置在地板表面20上方并且与在用户终端304上呈现的视图的中心轴线或中心一致。因为相机108的视锥的中心已经指向用户选择的位置,所以重取向操作基本上不会改变相机108的位置,例如,不会改变超过呈现在用户终端304上的视图区域的10%。另外,因为用户选择的位置在地板表面上方,所以可能无法进行平移操作。在一些情况下,监视系统确定用户选择对应于用户对机器人100执行缩放操作的意图并且生成相应的命令以使得相机108向与用户选择的点对应的用户选择位置放大。增加相机108的缩放设置,使得在相机108的视锥的中心指向用户选择的位置的情况下捕获封闭空间10的放大图像。
在一些实施方式中,为了确定用户选择的位置是在地板表面20上方还是在地板表面20上,监视系统计算由相机108的位置和用户选择的位置定义的矢量。然后,监视系统确定矢量是否与由地板表面20限定的平面相交。如果矢量不与平面相交,则相机108被重定向朝向用户选择的位置,如参考图3A和3B所述。如果矢量与平面相交,则机器人100朝向地板表面20上的用户选择的位置移动,如参考图3A,3C和3D所述。
替代地或另外地,监视系统确定相机108与用户选择的位置之间的距离是高于还是低于距相机108的阈值距离,并基于该确定向机器人100发出命令。在一些示例中,如果用户选择的位置在地板表面20上并且低于阈值距离,则机器人100执行平移操作,其中机器人100朝向用户选择的位置移动。在另外的示例中,如果用户选择的位置在地板表面20上但是高于阈值距离,则机器人100执行重取向操作,其中相机108被重定向朝向用户选择的位置。阈值距离在例如3和10米之间(例如,3到5米,5到7米,7到9米,5到10米等)。
在一些实施方式中,监视系统确定用户选择对应于以下期望:(i)将机器人100移动到用户选择的位置,(ii)将相机108朝向用户选择的位置重取向,或(iii)将机器人100朝向用户选择的位置移动并将相机108朝向用户选择的位置重取向。当有利于减小用户选择的位置与机器人100之间的距离以向用户提供用户选择的位置的更近的视图时,机器人100朝向用户选择的位置移动并且将相机108朝向用户选择的位置重取向。
在这方面,如果用户选择的位置在地板表面20上并且低于第一阈值距离,则机器人100执行平移操作以移动到用户选择的位置。如果用户选择的位置在地板表面20上方,高于第一阈值距离,并且低于第二阈值距离,则机器人100执行重取向操作以将相机108朝向用户选择的位置重定向。如果用户选择的位置在地板表面20上方并且高于第二阈值距离,则机器人100执行平移操作以朝向用户选择的位置移动以提供用户选择的位置的更近的视图。另外,机器人100执行相机108朝向用户选择的位置的重取向操作。在一些示例中,一旦机器人100处于低于第二阈值距离的距物体的距离处,监视系统使机器人100停止。重取向和平移操作同时和/或顺序执行。第一阈值距离在例如5和15米之间(例如,5到10米,10到15米等)。在一些示例中,第二阈值距离比第一阈值距离大2至5米(例如,2至3米,3至4米,4至5米等)。
在一些实施方式中,即使用户选择的位置在地板表面20上,监视系统也生成重取向命令而不是平移命令。在一些示例中,当由于缩放操作而使相机108放大大于阈值缩放值时,用户选择使得机器人100重取向相机108而不是朝向用户选择的位置移动,而不管用户选择的位置相对于机器人100的位置如何。用户选择导致该重取向操作以禁止呈现给用户的视图过快地移位,这对于用户来说可能难以辨别。通过执行重取向操作而不是平移操作,机器人100避免执行可能导致物体快速进入和离开相机108的视锥的平移操作。阈值缩放值例如是2x至3x。
在一些实施方式中,如果监视系统不能确定地板表面20上到用户选择的点的路径,则机器人100执行重取向操作以将相机108的视图居中在用户选择的点上。基于机器人100用于导航的机器人地图(例如,占据地图),监视系统确定机器人100从其初始位置312到对应于用户选择的点的用户选择的位置无可能的路径。
在一些示例中,当机器人100处于初始位置312时,监视系统计算用户选择的位置和相机108之间的矢量,并且确定矢量在机器人100前方的位置处不与地板表面20相交。监视系统确定矢量与由地板表面20限定的平面相交,但是还确定用户选择的位置与机器人的初始位置312之间的路径是不可到达的。用户选择的位置例如是穿过墙壁或窗户,但是监视系统基于机器人地图确定机器人的初始位置312和用户选择的位置之间的路径被不可穿过空间阻挡。监视系统因此产生用于机器人100执行重取向的命令而不是平移操作的命令。
或者,如果监视系统规划到用户选择的位置的路径并且确定规划路径的距离与从初始位置312到用户选择的位置的直线路径的距离之间的差大于阈值,则监视系统将用户选择解释为重取向命令。地板表面20上的障碍物可以增加规划路径行进的距离,使得机器人100可以避开障碍物。阈值差例如是3至5米。例如,如果路径穿过墙到另一个房间,但使其通过两个房间之间的门口的路径规划距离与机器人到用户选择的位置的直线距离只有1米的偏差,即小于阈值差,则机器人100将被驱动到用户选择的位置312。
在一些实施方式中,当机器人100响应于用户选择执行平移、重取向和/或缩放操作时,用户终端304可由用户操作以在机器人100正在执行操作时中断操作。用户终端304例如包括可由用户操作以停止平移操作、重取向操作和/或缩放操作的停止按钮。如果用户界面是用户终端304的触摸屏,则当机器人100启动操作时出现停止按钮图标,并且用户操作触摸屏以调用停止命令来中断操作。可替代地或另外地,从初始用户选择进行的后续用户选择用作响应于初始用户选择而执行的操作的中断。
系统示例
图4A-4D描绘了配置用于在封闭空间10内操作的机器人100的示例。图5描绘了机器人100的控制系统503的示意图,并且图6描绘了机器人100的控制系统503的另一示意图。如这里所述和图5所示,机器人100包括控制器112,驱动器104和关于图1A和1B描述的相机108。驱动系统500包括驱动器104。在一些实施方式中,驱动系统500还包括用于可变高度构件106的另一驱动器501,例如,以调节可变高度构件106的高度。在一些实施方式中,机器人100的传感器系统502包括相机108。在一些实施方式中,机器人100包括存储器512,无线通信系统506,测绘系统508和电力系统510。
机器人100的驱动器104包括用于主动且可控制地使机器人100通过封闭空间10的任何合适的机构或系统。驱动器104包括一个或多个机车元件,例如一个或多个轮子,一个或多个滚子,一个或多个轨道,以及一个或多个车载电动马达,其可由控制器112操作以移动一个或多个机车元件。在图4A-4D和图6所示的示例中,驱动器104包括两个驱动轮404a,404b。控制器112可与连接到驱动轮404a,404b的一个或多个致动器602a,602b(例如马达)一起操作。致动器602a,602b被选择性地致动以驱动驱动轮404a,404b,跨越地板表面20导航机器人100,并且在地板表面20上将机器人100重取向。
当从正面观察时,如图4B所示,驱动轮404a,404b朝向彼此倾斜。另外,底盘102具有基本上梯形的轮廓,使得机器人100的质量更靠近地板表面20,以便随着机器人100沿着地板表面20通过而增加稳定性。在一些实施方式中,机器人100具有小于0.5平方米的占地面积,例如,小于0.3平方米,小于0.1平方米,小于0.05平方米等。较小的占地面积可使机器人100能够在它不被操作时容易存储并且更容易在封闭空间10内的物体之间通过。如果封闭空间10是具有许多障碍物并且具有相对小的可穿过区域的杂乱的封闭空间,则较小的占地面积可以使机器人100能够在障碍物之间和周围进行操纵而不接触障碍物。
在一些实施方式中,驱动器104还包括后稳定轮406,例如脚轮,其从底盘102向外延伸。如果稳定轮406相对于底盘102可移动,则驱动器104包括可操作地连接到稳定轮406的致动器602c。控制器112操作致动器602c以使稳定轮406从底盘102延伸。稳定轮406例如在机器人100正在执行通过操作时延伸,并且在机器人100静止(例如,既不沿着地板表面20平移也不围绕地板表面20旋转)时缩回。当可变高度构件106以及因此相机108伸展时,稳定轮406可以防止机器人100翻倒。特别是,当相机108和可变高度构件106完全伸展时,例如,处于完全伸展位置(如图4D所示),机器人100的质心向上移动。后稳定轮406可以减轻由于在机器人100的通过操作期间可变高度构件106的伸展和缩回而动态改变机器人100的质心的位置而导致的不稳定性。
可变高度构件106对应于可伸展且可缩回的桅杆,其配置为从底盘102的顶表面400下方延伸。可变高度构件106可在完全缩回位置(如图4C所示)和完全伸展位置(如图4D所示)之间移动。在一些情况下,当机器人100处于隐私模式时,禁止机器人100捕获封闭空间10的图像。机器人100处于隐私模式,例如,当可变高度构件106处于完全缩回位置时。当可变高度构件106处于完全缩回位置(图4C)时,相机108的顶表面402与底盘102的顶表面400齐平。在一些情况下,当可变高度构件106处于完全缩回位置(图4C)时,相机108的顶表面402低于底盘102的顶表面400。在一些情况下,当可变高度构件106处于完全缩回位置时,相机108的镜头定位在底盘102内并指向在底盘102的内侧部分处,从而防止捕获封闭空间10的图像。可选地或另外地,在隐私模式期间相机108未被供电以禁止图像捕获。
可变高度构件106由驱动器501驱动,驱动器501包括可操作地连接到可变高度构件106的致动器602d。控制器112操作致动器602d以将可变高度构件106缩回到底盘102中或者将可变高度构件106从底盘102伸展。在一些示例中,可变高度构件106可从完全缩回位置(图4C)延伸到完全伸展的位置,在完全伸展的位置中可变高度构件106的顶表面的高度或相机108的高度相对于地板表面20至少为1.5米,例如,至少为1.5至2.5米。在一些实施方式中,可变高度构件106可相对于地板表面20从10cm的高度延伸至2.5米的高度,例如,10cm至1.5米的高度,10cm至1米的高度,10cm至2米的高度等。
相机108例如是具有广角镜头的高清晰度相机,该广角镜头具有光学缩放能力和/或数字缩放能力。在一些实施方式中,相机108是具有鱼眼镜头的高清晰度广角相机。在一些实施方式中,相机108具有虚拟俯仰或水平转动特征,其使得能够在相机108不必物理俯仰或水平转动的情况下改变相机108的有利位置。
在一些实施方式中,驱动系统500包括其他可控机构,以调节相机108相对于机器人100的底盘102的姿势。该机构包括可由机器人100操作的致动器,以调节例如俯仰取向,水平转动位置或相机108的取向。重取向机构可操作以使可变高度构件106和/或相机108相对于底盘102旋转,以调节相机108相对于底盘102的取向。机器人100不是操作驱动器104以相对于封闭空间10重取向机器人100,而是操作重取向机构以使可变高度构件106和相机108相对于底盘102旋转。水平转动相机108的机构可操作地使相机108相对于底盘102在垂直于机器人100的前向驱动方向的横向方向上平移到特定的水平转动位置。当操作水平转动机构时,相机108沿着例如可变高度构件106的轨道水平平移。俯仰相机108的机构可操作以相对于机器人100的前向驱动方向增加或减小相机108的图像捕获轴线的角度到特定俯仰位置。相机108例如被销接到可变高度构件106,使得当操作俯仰机构时,相机108相对于可变高度构件106向上或向下枢转。
机器人100的电气系统从电力系统510接收电力。电力系统510包括电池630和电池充电器632。在一些实施方式中,电池充电器632配置为将电池630电连接到图8中所示的对接站810。对接站810包括充电器,当机器人100对接在对接站810处,例如,物理地和/或电连接到对接站810时,充电器可操作以对机器人100的电池630充电。
控制器112还可与传感器系统502一起操作。传感器系统502包括可由控制器112使用以关于封闭空间10导航的传感器(例如,导航传感器606)。导航传感器606产生用于估计机器人100在封闭空间10内的位置的信号,用于检测封闭空间10内的物体和障碍物的信号,以及用于生成机器人地图(例如封闭空间10的占据地图)的信号。这些导航传感器606包括例如航位推算传感器,障碍物检测和避免(ODOA)传感器,以及同时定位和测绘(SLAM)传感器。在一些情况下,导航传感器606包括用于视觉识别在计算机器人地图上的机器人姿势时使用的特征和界标的相机108。
在一些实施方式中,导航传感器606包括一个或多个接近传感器606a,其产生由控制器112使用的信号以确定障碍物何时靠近机器人100。接近传感器606a包括例如激光扫描仪或飞行时间传感器,体积点云传感器,点线传感器,诸如由PIXART制造的飞行时间线传感器,光检测和测距传感器,声学传感器,红外(IR)传感器和/或超声波传感器。在一些情况下,接近传感器606a包括结构光传感器,其使用一个或多个预定投射光图案来测量机器人100附近的物体的三维(3D)形状。在一些情况下,接近传感器606a是全向传感器,例如旋转IR发射器和接收由旋转IR发射器传输的发射的反射的检测器。
在一些实施方式中,导航传感器606包括一个或多个接触传感器606b,其产生由控制器112使用的信号以确定机器人100何时物理接触封闭空间10中的物体。接触传感器606b包括例如碰撞传感器,电容传感器,电感传感器,霍尔效应传感器,开关或产生对物理位移响应的信号的其他传感器。在一些实施方式中,机器人100包括可移动地安装到底盘102的缓冲器,并且接触传感器606b安装在缓冲器上,以使缓冲器的移动使得接触传感器606b产生指示机器人100和封闭空间10中的物体之间的接触的信号。
在一些实施方式中,导航传感器606包括一个或多个运动传感器606c,其产生指示机器人100的运动的信号,例如,机器人100的行进的距离,旋转量,速度和/或加速度。运动传感器606c包括例如车轮里程表,用于测量致动器602a,602b的旋转量的编码器,加速度计,陀螺仪和/或惯性测量单元(IMU),以在机器人100穿过地板表面20时测量机器人100的加速度。在一些情况下,运动传感器606c包括光学鼠标传感器,该光学鼠标传感器在机器人关于封闭空间10导航时照亮机器人100下方的地板并且记录和比较地板的连续低分辨率图像。
在一些示例中,导航传感器606包括一个或多个悬崖传感器606d。悬崖传感器例如是检测机器人100下方的障碍物(例如地板下降,悬崖,楼梯等)的光学传感器。控制器112响应于来自悬崖传感器的信号,导航机器人100远离这些检测到的障碍。
导航传感器606包括一个或多个成像传感器606e,以捕获封闭空间10的图像。一个或多个成像传感器606e包括例如相机108。在一些情况下,一个或多个成像传感器606e包括附加图像捕获设备,例如除相机108之外的相机,用于导航通过封闭空间10。在一些示例中,附加图像捕获设备是底盘102的顶表面下方的可见光相机。在某些情况下,可见光相机沿向上方向倾斜。相机与机器人100关于其导航的地板表面20成例如在25度和90度之间,例如在30和70度之间,在35和60度之间,在45和55度之间的角度。相机瞄准墙壁和天花板上的位置,其在封闭空间10内具有通常是静态的高元素集中,例如窗框,相框,门框和具有可见的、可检测的特征(如线,角和边缘等)的其他物体。
在一些实施方式中,传感器系统502还包括其他传感器,以检测封闭空间10内的状况或机器人100的状况。传感器系统502包括例如声学传感器608,例如麦克风。声学传感器608检测封闭空间10中的声学信号,例如,用于确定封闭空间10是否被居民占据。
在一些情况下,传感器系统502包括温度传感器610,湿度传感器612,压力传感器614和/或空气质量传感器616。温度传感器610测量封闭空间10的温度,例如,在封闭空间10内的机器人100的当前位置处。湿度传感器612测量封闭空间10的水分含量,例如,在封闭空间10内的机器人100的当前位置处。压力传感器614例如是气压计。压力传感器614测量封闭空间10的大气压力,例如,在封闭空间10内的机器人100的当前位置处。空气质量传感器616测量封闭空间10的空气质量,例如,在封闭空间10内的机器人100的当前位置处。
在一些情况下,传感器系统502包括光传感器618,用以检测封闭空间10中的环境光。光传感器618例如检测房间中的光水平或检测通过封闭空间10中的窗口或开口进入封闭空间10的光。
在一些实施方式中,传感器系统502还生成指示机器人100的操作的信号。在一些情况下,传感器系统502包括与驱动器104集成的失速传感器单元。失速传感器单元产生指示机器人100的失速状态的信号,在失速状态中机器人100不能操作驱动器104以沿着封闭空间10内的地板表面移动。
可选地或另外地,失速传感器单元包括光学传感器,该光学传感器在电力被传递到致动器602a,602b时产生指示驱动器104的轮是否正在移动的信号。一旦检测到车轮404a,404b没有移动,控制器112确定机器人100处于失速状态。失速传感器单元例如是这里描述的光学鼠标传感器。在一些情况下,加速度计对应于失速传感器单元并且产生指示机器人100的加速度的信号,以使控制器112检测失速状态。
在一些实施方式中,传感器系统502包括指示机器人100的状况或指示机器人100的部件的传感器。这些传感器包括,例如,电池充电状态传感器,用于检测机器人100的电源上的电荷量或电荷容量;诸如车轮胎面传感器的部件寿命传感器,用于检测部件的可维修性或部件的剩余寿命量等。
在一些实施方式中,传感器系统502包括接收信号强度指示器(RSSI)传感器,以测量无线信号的功率。RSSI传感器例如可与无线通信系统506的无线收发器一起操作,以检测在无线收发器处接收的无线信号的功率。在一些情况下,RSSI传感器是无线通信系统506的无线收发器的一部分。
在一些实施方式中,传感器系统502的一个或多个传感器(例如,温度传感器610,湿度传感器612,压力传感器614和/或空气质量传感器616)安装到可变高度构件106。一个或多个传感器可相对于底盘102垂直移动,使得一个或多个传感器能够测量相对于封闭空间10在不同高度处的封闭空间10的状况。
机器人100可以使用测绘系统508自主地导航,测绘系统508处理由传感器系统502的一个或多个传感器捕获的读数。测绘系统508可由控制器112操作以使用来自传感器系统502的信号来生成封闭空间10的地图。当机器人100基于来自传感器系统502的信号关于封闭空间10移动时,测绘系统508估计机器人100的位置和/或取向。测绘系统508构造封闭空间10的地板表面的二维(2D)地图,确定地图上的机器人姿势并确定机器人100可以穿过的封闭空间10的部分的位置(例如,未被占用、可穿过的地板)。
使用来自导航传感器606的信号,测绘系统508指示由于地板表面20上或地板表面20上方的障碍物而机器人100不能穿过的部分地板表面20。由测绘系统508构建的地图例如是机器人100在其穿过封闭空间10期间检测到的墙壁和障碍物的地图。在某些实施方式中,地图使用笛卡尔坐标系或极坐标系。在某些情况下,地图是拓扑地图,代表地图或概率地图。
该地图是占用地图或占用网格,其指示封闭空间10的可穿过部分和被占据部分。使用来自传感器系统502的信号,测绘系统508在机器人地图上区分地板表面20的不可穿过部分与地板表面20的可穿过部分。在一些示例中,测绘系统508在机器人地图上指示物体在地板表面20上的位置对应于地板表面20的不可穿过部分。接近传感器606a和/或接触传感器606b例如检测地板表面20上的靠近机器人100或接触机器人100的物体。在一些示例中,测绘系统508在机器人地图上指示地板表面20的穿过部分对应于地板表面20的可穿过部分。
在一些实施方式中,使用SLAM技术,测绘系统508确定机器人100在封闭空间10的2D图中的姿势。例如,基于传感器系统502的运动传感器606c确定机器人100的姿势。使用来自运动传感器606c的信号,测绘系统508确定机器人100相对于封闭空间10的位置,例如,以将机器人100在封闭空间10中定位。
传感器系统502包括一个或多个定位传感器,其为测绘系统508生成信号,以确定机器人相对于在环境中检测到的特征的位置和取向。在一些情况下,定位传感器包括机器人100上的传感器,其能够响应于检测到占据不可穿过的地板空间的环境中的墙壁和物体而产生信号。这些传感器单独或与SLAM传感器组合,确定机器人100在由机器人100构建的机器人地图上的姿势。定位传感器包括例如导航传感器606,例如接近传感器606a,接触传感器606b,运动传感器606c,悬崖传感器606d和成像传感器606e。
定位传感器生成从中提取独特签名,图案或特征的信号。当测绘系统508确定已经检测到这些特征时,测绘系统508使用机器人100相对于这些检测到的特征的位置和取向来确定机器人100在封闭空间10的地图上的姿势。
在一些实施方式中,测绘系统508实施其他合适的技术和系统以定位机器人100,例如机器视觉,光信标或射频(RF)RSSI技术。在一些示例中,测绘系统508使用RF信号来执行SLAM技术。定位传感器包括例如无线通信系统506,例如无线通信系统506的RSSI传感器。测绘系统508基于RSSI传感器接收的信号来定位机器人100。控制器112操作驱动系统500以导航机器人100通过封闭空间10,同时测绘系统508基于RSSI传感器接收的信号定位机器人100的姿势。用于SLAM的特征是从通过封闭空间10的信号强度的变化提取的。
在一些实施方式中,测绘系统508使用视觉同时定位和测绘(VSLAM)和/或特征识别或类识别技术来构建其地图并在地图上确定机器人100的当前姿势。一个或多个定位传感器包括成像传感器606e,例如相机108或其他图像捕获设备,并且测绘系统508执行VSLAM技术以从捕获的图像提取特征。使用由成像传感器606e捕获的图像,当机器人100关于封闭空间10导航时,例如,导航通过区域A-H,测绘系统508确定机器人100在机器人100建立的机器人地图上的姿势。在一些情况下,测绘系统508通过参考与捕获的图像中识别的封闭空间10内的物体相对应的特征来确定机器人100的当前姿势,从而将机器人100在封闭空间10内定位。
在一些实施方式中,所提取的特征指示机器人100所在的房间。返回参考图1,提取的特征形成每个区域A-H的唯一标识符。机器人100使用所提取的特征来确定机器人100所在其中的区域。例如,检测与房间标识符相关联的特定特征,从而使得能够确定机器人100所在其中的区域。在一些实施方式中,机器人100通过物体识别来识别预先标识的房间。例如,机器人100使用其相机108来捕获与每个区域相关联的物体(例如炉子,洗碗机和冰箱)的图像。如本文所述,识别的物体和区域可以与交互式表示中呈现的标签相关联。在一些情况下,覆盖在交互式表示上的标识符由提取的特征形成,以在机器人100已进入与提取的特征相关联的新区域或者已标识出与提取的特征相关联的特定物体时通知用户。
在一些实施方式中,机器人100定位由传感器系统502的任何传感器捕获的读数的位置,包括由导航传感器606a-606e,声学传感器608,温度传感器610,湿度传感器612,压力传感器614,空气质量传感器616和/或光传感器618中的任何一个捕获的读数。读数位于机器人地图上。当测绘系统508定位机器人100的姿势时,测绘系统508基于其自身的姿势来定位使用其传感器系统502收集的任何读数。在一些示例中,机器人100定位由相机108捕获的图像的位置。机器人地图例如用于组合图像,使得由图像形成的交互式表示保持封闭空间10的物理连续性。
虽然机器人地图和测绘系统508的操作被描述为由机器人100执行,但是在一些实施方式中,机器人100收集用于构建机器人地图的数据,并且监视系统的其他设备和系统构建并存储机器人地图。该地图是持久的并且存储在监视系统的远程计算系统中,例如图7中的远程计算系统702,用于机器人100的访问。在每个后续任务中,机器人100根据封闭空间10内的变化状况更新持久性地图,例如已经在封闭空间10内移动的家具或物体。机器人100使用测绘系统508构建逐步改进的地图,并使用无线通信系统506将表示机器人地图的数据发送到远程计算系统。在一些情况下,机器人100使用无线通信系统506发送整组地图数据,地图数据的简化表示或地图数据的抽象。
对于机器人100的存储器512,控制器112访问存储器512,存储器512存储由传感器系统502收集的信息并存储可由控制器112执行的例程,以使机器人100在封闭空间10内执行操作。例程包括导航例程,例如,用于关于封闭空间10导航机器人100。例程还包括例如巡逻例程,其中机器人100沿着路线200并且通过一个或多个航路点L进行导航。控制器112响应于来自例如传感器系统502的信号或通过无线通信系统506从远程或本地用户终端发送到控制器112的无线命令信号来启动机器人100的操作。
在一些实施方式中,机器人100包括服务操作系统624,其可操作以执行封闭空间10中的服务操作。执行的服务操作取决于机器人100的类型。机器人100包括用于地板清洗,地板拖地,地板清扫,电信等的系统。
在一些实施方式中,服务操作系统624包括地板清洁系统,当机器人100通过封闭空间10时,该地板清洁系统清洁封闭空间10的地板表面。清洁系统包括例如可旋转的辊子或刷子,其将碎屑从地板表面搅动到安装在机器人100上的碎屑箱(未示出)中。清洁系统包括鼓风机,该鼓风机在启动时将空气以及由此将在地板表面上的碎屑朝向碎屑箱移动。当机器人100在清洁任务期间关于其环境导航时,机器人100激活其清洁系统以摄取碎屑,从而清洁地板表面。
在一些情况下,服务操作系统624包括碎屑箱水平传感器626,例如传感器系统502的传感器,其检测摄入到机器人100的可移除碎屑箱628中的碎屑量。服务操作系统624还包括碎屑传感器631,以检测机器人100何时摄取碎屑和/或检测碎屑摄取的速率。
在一些实施方式中,机器人100包括用户输入系统633,其包括例如可手动操作的按钮,触摸屏显示器等。用户可操作用户输入系统633以使控制器112启动机器人100的一个或多个操作。机器人100还包括用户输出系统634,以向用户提供指示。用户输出系统634包括例如显示器,音频换能器,指示灯或其他适当的系统,以向用户提供机器人100的状态的视觉或听觉指示。
无线通信系统506允许机器人100与图7所示的监视系统700中的其他节点(例如,计算设备)通信。监视系统例如是这里参照图7描述的监视系统700,包括机器人100。在一些情况下,监视系统包括远程计算系统和设备以及本地计算系统和设备。监视系统包括例如本地用户终端和远程用户终端。在一些情况下,监视系统包括封闭空间10内的连接设备。在这方面,监视系统包括远离机器人100并且远离用户终端304的控制器,机器人100的控制器112,用户终端304的控制器或其组合。
如图6所示,无线通信系统506包括用于接收无线信号的无线接收器620和用于发送无线信号的无线发送器622,无线信号例如窄带信号,宽带RF信号,Wi-Fi信号等。在一些示例中,无线通信系统506通过蜂窝数据接口,蓝牙接口,无线局域网接口(例如,802.11),另一RF通信接口和/或光/红外通信接口使得能够数据通信。在一些情况下,无线通信系统506包括无线收发器,其包括无线接收器和无线发射器二者。无线收发器例如可由控制器112操作,并且被配置为与包括其他计算设备的无线网络通信。无线收发器将数据(包括由相机108捕获的图像)通过无线网络发送到可操作以呈现交互式表示的远程用户终端。
监视系统700包括节点网络,例如监视系统700中的彼此通信的计算设备和系统。每个节点配备有通信系统,以能够实现与监视系统700中的其他节点的通信。每个节点配备有例如类似于机器人100的无线通信系统506的无线通信系统,以能够实现与系统700中的其他节点的无线通信。
在图7中描绘的监视系统700中以及在监视系统700的其他实施方式中,节点彼此进行无线通信。节点通过通信链路彼此通信。通信链路包括例如利用各种通信方案和协议的无线链路,例如蓝牙类,Wi-Fi,蓝牙低功耗,802.15.4,全球微波接入互操作性(WiMAX),红外线信道或卫星频段和其他适当的方案和协议。
无线通信系统506促进机器人100与位于封闭空间10物理外部的远程节点(例如,远程计算系统702和远程用户终端704)之间的通信。远程用户终端704例如是这里描述的用户终端之一。无线通信系统506还能够实现机器人100与位于封闭空间10内的本地节点(例如,一个或多个其他连接的设备706和本地用户终端712)之间能够通信。在一些情况下,机器人100直接与连接的设备706通信。本地用户终端712位于封闭空间10内。本地用户终端712例如是这里描述的用户终端之一。
简要参考图8,其描绘了封闭空间10的布局图,示出了可以在封闭空间10中的各种设备,连接的设备706包括例如一个或多个环境感测设备800a-800c和/或一个或多个整体自动化控制器设备802a-802c。连接的设备的示例包括连接的恒温器,声音报警设备,加湿器或空气质量感测设备,用于门和车库门的连接的智能设备(例如,门锁,机动化车库门开启器,门铃/门钟和门禁对讲机,以及猫眼观察器),连接的智能传感器(例如,烟雾探测器,一氧化碳探测器,漏水/湿度探测器,组合烟雾和一氧化碳传感器,门/窗传感器和运动传感器),连接的智能照明/电源设备(例如,ipv6灯泡,墙内插座/开关或调光器,电源板和智能插头/适配器模块)和其他连接的智能设备(如喷水系统,百叶窗或窗帘,主要家用或厨房电器,如冰箱,洗碗机等,台面电器,如搅拌机,慢炖锅等,以及天花板或其他类型的风扇)。
环境感测设备800a-800c包括可操作以基于封闭空间10中的状况或现象生成数据的任何合适的传感器。环境感测装置的示例包括温度传感器,接触传感器,声学传感器,麦克风,运动传感器,无源IR运动传感器,压力传感器,可见光传感器,气体成分传感器,空气质量传感器,环境光传感器或用于检测封闭空间10中的状况和现象的其他传感器。
自动化控制器设备802a-802c是可操作以控制与封闭空间10相关联的设备或系统的操作的任何合适的设备。在一些实施方式中,自动化控制器设备802a是恒温器,用以操作(例如,激活,停用,致动或停止)加热,通风和空调(HVAC)系统804。自动化控制器设备802b是可操作以打开和关闭窗帘的装置,例如自动遮阳帘。自动化控制器设备802c是自动闩锁或锁定设备,以将前门118锁定在封闭空间10上。虽然示出了三个自动化控制器设备802a-802c,但是根据实施方式,封闭空间10包括更少或更多的自动化控制器设备。
在一些情况下,环境感测设备800a-800c和自动化控制器设备802a-802c是保持在封闭空间10内的一个位置的固定设备,例如,在整个执行过程中固定到封闭空间10的壁上以监视并且控制封闭空间10内的操作。与机器人100相比,在一些情况下,环境感测设备800a-800c和自动化控制器设备802a-802c被用户拾取和运输,并且被重新定位在封闭空间10内。在一些情况下,环境感测设备800a-800c和自动化控制器设备802a-802c被永久安装在封闭空间10内的给定位置中。
在一些实施方式中,连接的设备706包括自主移动设备,例如,自主地穿过封闭空间10的地板表面20的一个或多个自主移动机器人。自主移动设备包括例如真空清洁机器人,地板清洗机器人,家庭监控机器人,拖地机器人,伴随机器人,扫地机器人,其组合以及其他合适的机器人。
在一些情况下,连接的设备706包括对接站810。对接站810包括无线收发器,以与监视系统700中的其他设备通信。对接站810通过蓝牙,近场感应,IR信号或射频直接与机器人100进行无线通信。在一些情况下,对接站810用作在机器人100和专用网络714之间传输信息的中介。对接站810连接(有线或无线)到专用网络714,以启用或促进数据从机器人100到专用网络714和/或从专用网络714到机器人100的传输。对接站810对应于自动控制器设备,当机器人100对接在对接站810时,自动控制器设备自动地将数据从机器人100发送到专用网络714和其他地方。
使用无线通信系统506,机器人100的控制器112将数据发送到远程计算系统702。在一些示例中,数据包括由传感器系统502的传感器生成的信号。数据包括由相机108捕获的图像。构造的地图的任何部分都可以发送到并存储在机器人100的存储器512之外的位置,例如,本地集线器716,远程计算系统702,通过封闭空间10内的网关816到远程用户终端,互联网上的服务器或互联网上其可用的虚拟化实例。
在一些实施方式中,如果传感器系统502包括RSSI传感器,则传感器系统502基于来自连接的设备706之一的测量的RSSI来检测位置。如果传感器系统502包括无线通信系统506的无线收发器,则传感器系统502使用无线收发器还检测所连接设备的状态。在一些示例中,状态对应于所连接设备的功率水平。如果连接的设备是环境感测设备或包括用于测量封闭空间10的状况的传感器,则在一些情况下,状态对应于传感器测量。如果连接的设备是自动化控制器设备,则在一些情况下,状态对应于所连接的设备的操作状态,例如,设备是否被激活或停用,设备的操作模式。
在一些实施方式中,机器人100发现封闭空间10中的连接设备706并在使用测绘系统508形成的机器人地图上定位它们。当机器人100穿过封闭空间10时,控制器112基于封闭空间10内的连接设备706的位置来定位机器人100。
在一些情况下,机器人100自动感测连接的设备706相对于机器人地图上的机器人姿势的位置,并将它们的位置投影到机器人地图中。当机器人100穿过封闭空间10时,控制器112使用RF签名,视觉识别,接收的信号强度和其他方法来识别封闭空间10中的连接设备并自动将它们放置在封闭空间10的机器人地图上。机器人地图上的连接设备706的位置例如使用单点测量或通过多点测量和基于取向和/或信号强度和/或来自设备的数字编码信息的位置的三角测量来确定。在一些示例中,连接的设备706主动发射无线信号以帮助机器人100将其自身在封闭空间10内定位。传感器系统502检测无线信号,并且控制器112基于无线信号的属性(例如,无线信号的强度)来定位机器人100。
在一些示例中,通过从机器人100生成的信号来确定所连接设备的位置,机器人100在一个或多个位置处生成信号,所连接的设备在所述一个或多个位置处可以检测到该信号。或者,机器人100和连接的设备都产生可由另一个检测的信号。基于响应信号的特性确定连接设备706的位置,该响应信号的特性基于机器人100产生信号的位置而变化。例如,该属性是响应信号的强度。
在一些示例中,机器人100将机器人地图发送到远程计算系统702。如果机器人100包括用于检测封闭空间10和/或机器人100的状况的任何传感器,则机器人100将指示封闭空间10和/或机器人100的状况的信息发送到远程计算系统702。如本文所述,数据可以被定位到封闭空间10内的位置,并且定义数据的定位的定位信息被发送到远程计算系统702。
远程用户终端704从远程计算系统702检索数据,例如,检索表示由机器人100捕获的图像的数据。监视系统700被配置为使得远程用户终端704能够实时检索表示捕获的图像的数据,从而能够从远程用户终端704实时监视封闭空间10。在一些情况下,远程用户终端704直接从机器人100检索数据。
远程计算系统702包括远离机器人100的环境的计算资源,例如远离封闭空间10的计算资源。在一些情况下,远程计算系统702包括与机器人100、用户终端704和连接的设备706中的每一个建立无线链路的一个或多个服务器。在一些情况下,远程计算系统702对应于公共网络710中的一个或多个节点,例如,广域网(WAN),因特网等。远程计算系统702包括例如网络可访问的计算平台的一部分,其被实施为通过如本文所述的通信网络维护和访问的处理器的计算基础设施,存储设备,软件,数据访问等。
在一些实施方式中,机器人100、连接的设备706和/或本地用户终端712是专用网络714(例如宽带局域网(LAN))中的节点。如图8所示,专用网络714由路由器812和宽带无线接入点(WAP)814启用。专用网络714又连接到公共网络710,从而能够实现封闭空间10中的设备(例如,机器人100,连接的设备706和/或用户终端712)与远程设备(例如,远程用户终端704和远程计算系统702)之间的通信。专用网络714由公共网络710(例如,因特网)通过网关816(例如,宽带调制解调器)和外部连接818(例如,到因特网服务提供商(ISP))连接到远程计算系统702。路由器812,WAP 814和/或网关816可以集成在单个设备中。
专用网络714可以采用各种替代网络配置。在一些情况下,机器人100、连接的设备706和/或用户终端712通过连接到专用网络714的集线器716连接在专用网络714中。集线器716是被配置为提供本文描述的功能的任何合适的设备。在一些示例中,集线器716包括处理器,存储器,人机接口,无线通信模块和相关联的天线。在一些情况下,集线器716包括连接硬件,例如以太网连接器,用于有线连接到路由器,路由器连接到专用网络714。集线器716连接到专用网络714,例如,通过到路由器812的有线连接和/或通过使用集线器716的无线收发器824到路由器812的无线连接。例如,集线器716对应于连接的设备,例如连接的设备706之一。在一些示例中,集线器716包括集成环境传感器和/或集成自动化控制器设备。
在一些实施方式中,机器人100直接与集线器716进行无线通信,例如,使用窄带或宽带RF通信。如果机器人100没有配备无线发射器以与WAP 814通信,则机器人100例如与集线器716通信,集线器716又将来自机器人100的数据中继到专用网络714和/或远程计算系统702。在一些实施方式中,系统700包括网络桥接设备,其接收并转换来自机器人100的RF信号并将它们中继到路由器812以被传递到远程计算系统702或专用网络714中的另一设备。
在一些实施方式中,监视系统700包括采用网状拓扑的低功率网格数据网络,其中RF通信信号通过机器人100和集线器716之间的网格节点中继。在一些情况下,连接的设备706用作网格节点。在一些情况下,机器人100用作网格节点以在集线器716和其他节点(例如,连接的设备706)之间中继信号。替代地或另外地,监视系统700的每个节点用作网格节点。
示例过程
图9描绘了使用本文描述的监视系统700监视封闭空间10的过程900。在过程900期间,机器人100在机器人100的传感器系统502收集数据的同时自主地或由用户引导穿过封闭空间10。机器人100例如沿着路线200穿过封闭空间10。所收集的数据用于构建地图并且还用作用于生成要由用户在用户终端(例如,远程用户终端704和/或本地用户终端712)上查看的交互式表示的输入数据。
可以使用监视系统700的一个或多个节点以分散方式执行过程900,过程900的操作以及本文描述的其他过程和操作。例如,在监视系统700内连接的远程计算系统702,机器人100,用户终端704,712以及其他设备可以彼此协同地执行一个或多个操作。在一些实施方式中,描述为由一个节点执行的操作至少部分地由两个或所有节点执行。例如,通过由监视系统700传输数据,命令可以在一个节点处产生并且使得在另一节点处执行动作。在一些情况下,存储数据的命令中用户终端704,712中的一个处产生,并且数据存储在第二节点(例如,机器人100和/或远程计算系统702)处。
在一些示例中,为了执行关于过程900描述的操作,用户终端从监视系统700中的其他节点(例如,机器人100或远程计算系统702)访问数据。例如,通过在用户终端上启动应用程序来访问封闭空间10的图像。由机器人100捕获的图像被组合以形成由机器人穿过的交互式表示的可导航视图。
在设置操作902期间,构造封闭空间10的地图。使用关于机器人100的测绘系统508描述的过程来构造地图。在一些示例中,在自主设置操作902a期间,机器人100执行自主穿过操作,其中机器人100自主地穿过封闭空间10的地板表面20,同时使用测绘系统508构建地图,例如,收集关于封闭空间10中的可穿过和不可穿过的空间的位置信息。在一些情况下,机器人100在通过期间以将底盘102保持在与封闭空间10中的物体相距预定距离的方式操作驱动器104,例如,距物体在1cm至30cm范围内。在自主设置操作902a期间,机器人100通过穿过未收集的测绘数据的封闭空间10的部分来探索封闭空间10。通过探索封闭空间10,机器人100收集附加数据以扩展其在设置操作902期间构建的地图所覆盖的区域。为了测绘封闭空间10而收集的数据的其他示例以及为测绘封闭空间10而执行的处理的其他示例关于测绘系统508进行描述。
除了自动设置操作902a之外或作为其替代,实施设置操作902的引导设置操作902b。在引导设置操作902b期间,机器人100接收用户引导以穿过封闭空间10的地板表面20同时构建地图。当机器人100使用传感器系统502构建地图时,人类用户通过手动驱动或远程操作机器人100来引导机器人100的移动。机器人100在引导设置模式下操作,其中传感器系统502连续地生成用于构建地图的数据。在一些情况下,用户在机器人100使用传感器系统502构建地图时物理地移动机器人100遍及封闭空间10。在一些情况下,用户使用用户终端远程控制机器人100的移动。替代地或另外地,用户物理地移动通过封闭空间10,同时机器人100使用传感器系统502的传感器跟踪用户的移动,例如,使用接近传感器606a来检测用户的位置,使用声学传感器608来在用户移动通过封闭空间10等时检测用户产生的脚步声或其他噪声。
在一些实施方式中,设置操作902包括引导设置操作902b和自主设置操作902a的组合。在组合的引导和自主设置操作的一些示例中,机器人100最初自主地穿过封闭空间10以构建地图。由自动穿过期间收集的数据形成的布局图(例如,图2中所示的布局图)的表示被呈现给用户。用户检查用户终端上的布局图以确定机器人100是否未能穿过封闭空间10的任何部分。在引导设置操作902b期间,在一些情况下,用户引导机器人100通过机器人100在自主设置操作902a期间没有穿过的封闭空间10的部分。
在设置操作902之后,在航路点选择操作904期间,生成参照图2描述的航路点L。在由机器人100使用测绘系统508构建的地图上标记航路点L。如本文所述,航路点L对应于封闭空间10内的、机器人100在巡逻操作906期间收集数据(例如,捕获图像和/或使用传感器系统502的其他传感器数据)的位置。同样如本文所述,在航路点选择操作904期间定义的航路点L确定机器人100在巡逻操作906期间穿过的封闭空间10内的位置。
在航路点选择操作904期间选择用于每个航路点L的机器人100的操作设置。机器人100的操作设置对应于例如一个或多个选定的高度,在该高度处操作相机108以捕获封闭空间10的图像。
在一些实施方式中,不是或者除了在航路点选择操作904期间选择可变高度构件106和/或相机108的高度设置之外,还在航路点选择操作904期间为航路点选择机器人100的另一操作设置。在一些情况下,操作设置对应于相机108的设置,例如,俯仰取向,水平转动位置,相机108的取向,相机108的光圈设置,相机108的快门速度,相机108的曝光指数或ISO胶片速度,相机108的帧速率以及相机108的其他适当的操作设置。在一些示例中,如果封闭空间10中的特定区域通常不具有恒定的自然或人工照明源,则相机设置包括光圈设置,快门速度和相机108的曝光指数以改善在区域中的航路点处捕获的图像的质量。为了增加由相机108捕获的图像的照明,特定区域的光圈设置更大,快门速度更快,并且在航路点处的曝光指数更高。
在一些实施方式中,操作设置对应于相机108在航路点处的旋转量,以限制在航路点处捕获的图像的角度范围。相机108的旋转量对应于例如相机108在航路点处相对于底盘102旋转的量。相机108的旋转量确定在航路点处捕获的图像的角度范围。如本文所述,机器人100能够在适当位置旋转以捕获具有高达360度的角度范围的图像。例如,由机器人100捕获的图像形成为围绕航路点的封闭空间10的区域的全景图。
在一些实施方式中,为了形成全景视图,操作相机108以在航路点处在机器人100的多个预定取向上捕获图像。预定的取向例如间隔开30度至90度,例如,30度至45度,45度至60度,60度至90度等。相机108在机器人100的每个预定的取向处捕获多个图像,其中特定预定取向的每个图像使用不同的曝光设置捕获。使用高动态范围(HDR)技术组合以特定预定取向捕获的多个图像以产生HDR图像。使用这种技术产生的图像可以被认为对于图像的观看者更加真实。然后,组合由在不同取向捕获的图像形成的HDR图像,以形成封闭空间10的区域的全景视图。在一些示例中,确定并混合不同取向的HDR图像的曝光水平,方式为使得全景视图能够具有在不同拼接图像之间一致的整体曝光。
在一些示例中,存在于示出封闭空间10的相邻部分的两个图像中的封闭空间10的区别特征用于将两个图像拼接在一起以形成全景视图。例如,这两个图像对应于在航路点处在机器人100的顺序取向处捕获的图像。区别特征用作两个图像中存在的参考点,用于将两个图像拼接在一起。然而,如果示出封闭空间10的相邻部分的两个图像不包括这种区别特征,则在一些示例中,使用顺序取向的图像之间的预定关系将图像拼接在一起。例如,这样的图像示出了封闭空间10的区域的重叠视图,其具有相对较少的区别特征,例如裸露的墙壁。例如,预定关系对应于图像拼接在一起时图像之间的重叠量。重叠量对应于例如多个重叠像素,重叠长度,重叠方向等。如果在图像中识别出区别特征,则基于区别特征确定图像之间的关系。
或者,不是基于预定关系拼接在一起,而是不使用不具有共同的区别特征的顺序取向的图像来形成全景视图。如果航路点与封闭空间10内的墙壁的一部分相邻,例如在墙壁的5至100厘米内,则用于航路点的相机设置定义不会引起相机108捕获墙壁该部分的图像的相机108的旋转量。捕获的图像的角度范围被限制为180度,使得在图像捕获期间相机108不指向墙壁。或者,相机108捕获墙壁的一部分的图像,但是图像不用于形成全景视图。相反,仅使用具有区别特征的房间部分的图像来形成全景视图。
在一些实施方式中,在航路点选择操作904期间,生成关于图2描述的路线200。在一些情况下,选择航路点的顺序以定义通过航路点L的路线200。在巡逻操作906期间通过航路点L的机器人100跟随路线200,使得机器人100以所选择的顺序移动通过航路点L。
在一些实施方式中,名称被自动分配给每个航路点L。航路点的名称包括例如航路点所在其中的房间的标签(例如,“厨房”)或航路点附近的参考物(例如,“炉子”)。监视系统700基于在设置操作902期间由机器人100捕获的图像中的物体的视觉识别来自动生成航路点的名称。例如,名称与典型的家用物体和设备相关联。名称包括,“冰箱”,“炉子”,“洗衣机”,“烘干机”,“前门”,“后门”,“窗口”,“书架”等。在某些情况下,名称与封闭空间10内的房间的功能用途相关。这些名称例如是“厨房”,“书房”,“餐厅”,“浴室”等。在某些情况下,名称与封闭空间10内的连接的设备相关。监视系统700自动识别通常与这些房间相关联的物体,并相应地将名称分配给航路点L。分配给航路点L的名称使用户能够基于用户希望监视的物体或房间容易地选择视图。
航路点选择操作904包括自动航路点选择操作904a和/或引导航路点选择操作904b。在自动航路点选择操作904a中,航路点L例如由机器人100或由监视系统700的其他计算系统自动生成。基于在设置操作902期间收集的数据生成航路点L。机器人100将机器人地图提供给远程计算系统702,并且远程地生成航路点L并将其传送回机器人100。
在一些情况下,选择航路点L使得所选航路点L满足一个或多个标准。可以根据一个或多个标准分布航路点,使得机器人100在航路点L处捕获的图像均匀地覆盖封闭空间10。在一些情况下,标准包括彼此相邻的航路点L之间的期望间隔。航路点L之间的期望间隔例如是0.5至5米,例如,0.5至1米,1米至3米,2米至4米,3米至5米等。在某些情况下,标准包括封闭空间10中的位置和物体(例如墙壁或其他障碍物)之间的期望间隔。期望的间隔例如是0.1至1米,例如,0.1至0.3米,0.3至0.6米,0.6至1米等。在一些情况下,标准包括每平方米的封闭空间10(例如,机器人100已测绘的封闭空间10的部分的每平方米)横跨封闭空间10放置的航路点L的期望数量。每平方米的航路点L的期望数量是例如每平方米0.1至3个航路点,例如每平方米0.1至1个航路点,每平方米1至3个航路点等。
在一些情况下,标准包括在封闭空间10内,例如在封闭空间10的区域A-H内的航路点L的期望分布。在一些情况下,区域A-H对应于由封闭空间10的物体(例如封闭空间10中的墙壁,家具,障碍物和其他物体)限定的房间。如果自主生成,则基于地图中的可穿过区域和不可穿过区域的分布生成区域A-H。区域A-H例如基于地图中的数据来选择,该数据表示划分封闭空间10的障碍物和/或墙壁。在一些情况下,区域A-H基于区分一个区域与其他区域的物体和/或特征的识别来选择,例如,区域中的连接的设备,区域中的唯一物体,或区域中的其他区别物体或特征。例如,生成航路点L,使得区域A-H中的每一个包括至少一个航路点。另外,产生位置使得每个区域A-H包括至少一个位置L。在一些情况下,较大的区域或非矩形区域(例如,区域G)包括两个或更多个位置,例如航路点L2-L4。
在一些实施方式中,标准包括由航路点L定义的路线200的期望特性和航路点L的排序。在一些情况下,期望特性是路线200的期望长度。例如,路线200的长度具有航路点L的潜在排序组合中可能的最小长度。在一些情况下,路线200的期望特性对应于航路点L的排序,使得在相同区域中的航路点L彼此相邻,例如,使得机器人100在巡逻操作期间连续地移动通过相同区域中的航路点。
在一些实施方式中,在自动航路点生成操作904a期间自动选择机器人100的操作设置。在一些示例中,在设置操作902期间使用传感器系统502收集的数据用作自动选择所选高度的输入。例如,系统700识别在设置操作902期间由相机108捕获的图像中的家用物体。系统700自动识别要由用户监视的家用物体,例如家庭中可能具有对用户监视有益的一个或多个操作状态的物体。在一些情况下,家用物体对应于连接的设备706之一。在其他情况下,家用物体对应于具有多个状态的物体,例如,活动和非活动状态,打开和关闭状态等。该物体例如是炉子,烤箱,冰箱,器具,门,照明元件,连接的设备等。基于使用传感器系统502收集的数据,自动选择所选择的航路点L处的所选高度,使得相机108能够捕获家用物体的图像。在一些情况下,为每个所选择的航路点L自动选择多个选择的高度,例如,使得在每个航路点L处相机108捕获不同高度处的物体的图像。
在引导航路点选择操作904b期间,用户定义航路点L中的一个或多个。监视系统700(例如,机器人100,远程计算系统702或监视系统700的其他节点)接收用户选择的航路点并存储航路点。在一些情况下,用户从显示在用户终端上的封闭空间10的布局图的表示中选择航路点。在一些情况下,用户通过将机器人100引导到封闭空间10内的物理位置并且操作用于监视系统700的节点的用户输入设备来存储机器人100的当前位置来选择航路点。在一些情况下,用户选择用于航路点的机器人100的操作设置,例如,选择在航路点处的相机108和/或可变高度构件106的高度设置。
在一些实施方式中,航路点选择操作904包括自动航路点选择操作904a和引导航路点选择操作904b的组合。例如,用户例如通过编辑位置的坐标来查看自动选择的位置并修改自动选择的位置。在一些情况下,用户修改用户先前选择的位置,例如,添加新位置或移除位置。在一些情况下,用户操作用户终端以修改所生成的区域,例如通过添加分区或移除自动生成的分区。然后,系统700基于用户对区域的修改来修改自动选择的位置。替代地或另外地,用户以使机器人100穿过封闭空间10内的特定区域或者防止机器人100穿过封闭空间10内的特定区域的方式修改路线200。
在一些示例中,参考图10A,用户终端1002的显示器1004呈现布局图视图,其中示出了封闭空间10的布局图1001的交互式表示1000被呈现给用户。虽然图10A中所示的示例将用户终端1002描绘为包括作为用户输出设备的显示器1004和作为用户输入设备的触摸屏1006,但如本文所述的其他输入和输出设备是合适的。
布局图1001是封闭空间10的俯视图表示,特别是封闭空间10的可穿过和不可穿过的部分的俯视图表示。布局图1001包括例如开放的可穿过的地板空间和定义可穿过的地板空间的边界的墙壁。在一些实施方式中,基于使用测绘系统508构建的机器人地图来形成布局图1001。在一些示例中,指示符显示在布局图1001上以指示封闭空间10中的设备的位置,例如,关于图8所描述和所示的设备。在一些示例中,示出指示符以指示机器人100的位置。
在航路点选择操作904期间生成图10A中所示的路线200和航路点L。系统700使用户能够使用用户终端1002调整路线200和路点L的特征,例如航路点的数量,一个或多个航路点L的坐标,与一个或多个航路点L相关联的设置,航路点L中的一个的名称,路线200的段等。
当用户操作用户终端1002以调整航路点的数量时,用户将额外的航路点添加到定义存储在系统700中的路线200的航路点L或者从存储在系统700中的路线200移除现有航路点L。因此,当添加或移除航路点时,调整路线200。用户例如在封闭空间10的区域中添加航路点,其中用户希望捕获更多图像或者希望捕获360度图像。用户例如在封闭空间10的特定区域中移除航路点,其中用户希望防止图像捕获或者用户希望减少捕获的图像的量。
在某些情况下,用户通过调整定义航路点的一组坐标来修改航路点,而不是或另外添加或删除航路点。当调整航路点的坐标时,调整路线200以通过修改的航路点。
当用户操作用户终端1002以调整与航路点相关联的设置时,用户修改当机器人100到达航路点处时选择的机器人100的操作设置。在一些情况下,操作设置对应于相机108和可变高度构件106的高度设置,例如,在航路点处的选择高度。
当用户操作用户终端1002以调整路线200的段时,用户选择路线200的段,例如,在两个相邻航路点之间,并调整路线200的该段的轨迹。在一些示例中,用户调整路线200的轨迹,使得机器人100避开地板表面20的特定可穿过部分。
在一些情况下,用户操作用户终端1002以选择航路点的名称。在某些情况下,用户接受或编辑自动生成的该名称。
图10A-10C描绘了其中用户操作用户终端1002以将航路点添加到路线200的具体示例。用户操作用户终端1002以查看与路线200的段1010相关联的图像。段1010包括位于区域B中的航路点L13,L14和L10。用户操作触摸屏1006以选择路线200的区域B和/或段1010。
如图10B所示,响应于用户选择,用户终端1002呈现由机器人100捕获的图像形成的交互式表示1000。具体地,用户终端1002呈现交互式表示1000的视图1008,视图1008由在设置操作902期间在区域B中捕获的图像形成。指示符1012a,1012b,1012c覆盖在交互式表示1000上,以分别在呈现给用户的视图1008上指示航路点L13,L14和L10的位置。
在关于图10B和10C描述的示例中,用户与用户终端1002交互以将附加航路点添加到路线200。用户操作用户终端1002以启动航路点选择模式,其中用户可以操作用户终端1002以沿着路线200选择附加航路点应该添加的位置。例如,用户操作用户终端1002以调用“添加位置”用户输入按钮1013以启动航路点选择模式。
如图10C所示,在航路点选择模式中,用户选择将新航路点LX添加到路线200的位置。指示符1012d覆盖在视图1008上以指示新航路点LX的位置。该位置例如沿着段1010从已经存储的航路点L13,L14和L10偏移。在一些示例中,航路点LX的位置通过从航路点L13和航路点L14的坐标外推其坐标来确定。选择新航路点LX及其相关设置后,确定新路线以容纳新航路点LX。
在一些情况下,如果新航路点LX的位置沿着段1010,如图10C所示,则路线200不会由于添加新航路点LX而改变。在一些情况下,新航路点LX的位置不沿着段1010或沿着路线200,并且相应地修改路线200以使机器人100能够移动通过现有航路点L13,L14,L10和新添加的航路点LX中的每一个。
在一些实施方式中,在航路点选择模式中,用户为航路点LX选择相机108和/或可变高度构件106的高度设置。在一些示例中,用户操作用户终端1002以调用“选择高度”输入按钮1014以提供与航路点LX相关联的用户选择的高度。在一些情况下,用户为新航路点LX选择多个高度设置,使得相机108在巡逻操作906期间在新航路点LX处的多个高度中的每一个处捕获图像。
在一些示例中,用户操作用户终端1002以调用“默认高度”输入按钮1016使得默认高度设置与航路点LX相关联。默认高度设置例如是相机108的高度设置,使得在用户熟悉的有利位置捕获图像。
在一些实施方式中,为了添加新航路点而不是选择用户终端上的位置,用户将机器人100引导到封闭空间10内用户希望添加新航点的位置。当机器人100位于该位置时,用户操作监视系统700,例如,操作机器人100上的相应用户输入设备或操作用户终端1002的触摸屏1006,以使监视系统700存储机器人100的当前位置作为新的航路点。在一些情况下,当机器人100处于新航路点时,用户选择机器人100的操作设置,例如,相机108的高度设置,以与新航路点相关联。因此,监视系统700存储新航路点以及所选择的高度设置和/或所选择的操作设置。
虽然关于图10C描述了将航路点添加到路线200的一些示例过程,但在如本文所述的其他示例中,用户操作用户终端1002以移除航路点或修改航路点的坐标。路线200的其他特征也可以被修改,例如分配给航路点的名称。
在一些实施方式中,机器人100基于封闭空间10的用户选择的限制区域来调整其操作。例如,机器人100在巡逻操作906期间进入限制区域时执行预定行为。基于用户对例如一个或多个区域,一个或多个航路点或路线200的一部分的选择来定义限制区域。
在限制区域的一些示例中,限制区域对应于封闭空间10的一部分,机器人100在该部分内禁止捕获图像或其他传感器读数。例如,机器人100在限制区域中以隐私模式操作。在一些情况下,在巡逻操作906期间,机器人100移动通过限制区域但不捕获图像或其他传感器读数。在一些情况下,机器人100仅捕获来自导航传感器606的读数,使得机器人100可以导航通过限制区域,但机器人100不捕获将侵扰用户的任何读数,例如图像。
在限制区域的其他示例中,限制区域对应于封闭空间10的一部分,在该部分内相机108在特定设置下操作。在一些情况下,当机器人100穿过限制区域的路线的一部分时,机器人100操作相机108,使得相机108不能捕获封闭空间10的图像。机器人100例如通过将可变高度构件106和相机108缩回到机器人100的底盘102中来操作相机108,从而禁止机器人100的相机108的操作。在这方面,在隐私模式中,相机108被定位成使得不能捕获封闭空间10的图像。
在限制区域的附加示例中,限制区域对应于例如禁止机器人100的移动的区域。在巡逻操作906期间,机器人100的路线200不穿过限制区域。在一些情况下,机器人100在进入限制区域时以较慢或较快的速度移动。
在图11中描绘的示例中,用户终端1002呈现封闭空间10的布局图1001,并且用户操作用户终端1002以选择封闭空间10的一部分以定义为限制区域。在某些情况下,如图11的示例所示,限制区域1100由用户选择路线200的一部分来定义,该路线200包括航路点L1-L7之间的路径。或者,限制区域1100由用户选择航路点L1-L7来定义。在一些情况下,限制区域1100由用户选择区域D-H来定义。
在航路点选择操作904之后,例如,在定义航路点L之后,执行巡逻操作906以使机器人100沿着路线(例如,路线200)通过封闭空间10。在巡逻操作906期间,机器人100移动到一个或多个航路点,例如在航路点选择操作904期间定义的一个或多个航路点L。机器人100例如移动通过路线200或路线200的一部分。在一些情况下,在每个航路点处,机器人100根据在航路点选择操作904期间选择的相应操作设置来操作其系统。如果操作设置对应于在航路点选择操作904期间选择的高度设置,则机器人100基于高度设置来设置相机108的高度。
机器人100在沿着路线200行进并通过航路点L时捕获包括图像的传感器读数。如本文所述,当位于航路点时,机器人100捕获传感器读数和图像。在一些实施方式中,机器人100捕获传感器读数,同时机器人100沿着路线200从一个航路点行进到另一个航路点。在一些情况下,机器人100在每个航路点L处停止并且旋转以捕获具有关于航路点L的角度范围的图像。当机器人100在航路点之间行进时,机器人100继续捕获图像但是不停止旋转以捕获图像。或者,机器人100不捕获航路点之间的图像,而是仅捕获航路点L处的图像。在一些情况下,在航路点之间,机器人100捕获其他传感器读数。
巡逻操作可以包括自主穿过操作。在一些示例中,在巡逻操作906期间,机器人100执行通过封闭空间10的自主穿过操作。机器人100使用机器人地图自主地导航到封闭空间10内的航路点L。在每个航路点L处,机器人100根据在航路点选择操作904期间选择的高度自主地设置相机108的高度。机器人100在到达航路点时将高度设定为与航路点相关联的选择的高度。然后,机器人100使用传感器系统502捕获传感器读数。例如,机器人100在航路点处捕获图像。如果多个高度设置与特定航路点相关联,则相机108定位在每个高度处以在航路点处捕获图像。返回参考图11,如果选择了禁区1100,则机器人100自主地移动通过航路点L8-L15以执行自主穿过操作。在一些情况下,在完成自主穿过操作之后,机器人100返回到对接站810(如图8所示)以进行充电和存储,其中可变高度构件106完全缩回并且相机108封闭在底盘102内。在这种状态下,相机108为封闭空间10中的占用者提供隐私。
巡逻操作906包括在设置操作902期间执行的初始穿过操作之后的穿过操作,以更新地图。在一些示例中,在由机器人100执行的每个后续穿过操作期间,机器人100使用来自导航传感器606的信号更新地图以提高机器人100的姿势的可靠性。机器人100使用传感器系统502自动重新采样和收集读数。随着机器人地图的测绘数据的置信度在随后的穿过中变化,机器人地图被更新。通过在后续的封闭空间10的穿过中更新持久性地图,机器人100补偿由于封闭空间10的状况的变化引起的定位的任何变化,例如,光照条件的变化,物体的放置的变化等。在一些示例中,机器人100探索在初始设置运行中训练的区域之外的封闭空间10。在这方面,机器人100在随后的穿过的部分或所有穿过期间生成关于封闭空间10的信息。
在一些情况下,巡逻操作906包括自主巡逻操作906a。在自主巡逻操作906a期间,监视系统700自动启动机器人100通过封闭空间10的自主穿过操作。机器人100在自主巡逻操作906a期间进行通过封闭空间10的自主穿过操作。例如,机器人100根据时间表执行该自主穿过操作。机器人100在一天,一周,一个月等中一次或多次启动自主巡逻操作906a。该时间表包括例如自主巡逻操作906a的开始时间,持续时间和/或结束时间。
在一些实施方式中,自动选择时间表。监视系统700在一段时间(例如,一周或一个月)内跟踪封闭空间10的占用,并基于累积的跟踪数据生成机器人100的巡逻时间表。监视系统700例如自动生成巡逻时间表,使得机器人100在预测到封闭空间10未被占用时执行自主穿过操作。监视系统700使用传感器系统502的传感器和/或封闭空间10内的连接设备的传感器来跟踪封闭空间10的占用。
或者,监视系统700不是基于时间表启动自主穿过操作,而是基于监视系统700的连接的设备的传感器而确定封闭空间10当前未被占用,并启动自主穿过操作。例如,监视系统700确定在封闭空间10内未检测到人体运动。响应于检测到封闭空间10内未被占用,监视系统700启动自主穿过操作。
在一些实施方式中,用户操作监视系统700以选择机器人100的时间表,例如,作为航路点选择操作904的一部分。例如,用户操作用户终端以在航路点选择操作904期间设置自主穿过操作的时间表,并且将时间表存储在监视系统700中。监视系统700根据用户选择的时间表启动自主穿过操作。
在一些实施方式中,用户选择监视系统700的占用设置以定义检测到未被占用和启动巡逻操作906之间的时间量。例如,在第一次检测到封闭空间10内的未被占用之后经过了用户选择的时间量之后,监视系统700自主地启动机器人100的自主穿过。
在引导巡逻操作906b期间,机器人100通过监视系统700接收用户命令以导航机器人100通过封闭空间10。在一些示例中,机器人100响应于用户命令启动通过封闭空间10的穿过操作。在一些情况下,用户命令对应于用于启动通过每个航路点L1-L16的自主穿过操作的用户命令。在其他示例中,机器人100执行通过航路点的子集(例如,如关于图10A所描述的航路点L8-L16)的自主穿过操作。在某些情况下,用户命令包括选择其中一个航路点。响应于用户命令,机器人100执行自主穿过操作以移动到所选择的航路点。
或者,在引导巡逻操作906b期间,用户命令对应于引导机器人100的移动的一系列命令。在这方面,用户手动移动机器人100和/或远程引导机器人100移动通过封闭空间10。例如,用户操作用户终端以将移动命令发送到机器人100。机器人100根据移动命令在地板表面20上移动。在一些情况下,用户发出操作命令以使机器人100收集数据,例如以围绕特定航路点捕获高达360度的图像。在某些情况下,图像包括4到1000个图像,这些图像围绕航路点的角度范围跨越达到360度。
图12A描绘了在巡逻操作906的示例期间的机器人100。在该示例中,在巡逻操作906期间,机器人100移动通过封闭空间10以到达航路点L15。如本文所述,在一些情况下,机器人100在自主巡逻操作906a期间或在引导巡逻操作906b期间执行自主穿过操作以移动到航路点L15。在其他情况下,用户在引导巡逻操作906b期间将机器人100引导至航路点L15。用户例如通过向机器人100发出一系列移动命令来引导机器人100以将机器人100移动到航路点L15。
在到达航路点L15时,机器人100根据操作设置进行操作。图12B,12D和12F描绘了当机器人100操作其相机108和可变高度构件106以设置相机108的高度以使相机108能够捕获目标物体(例如,水槽1200)的图像时机器人100的一系列图像。在达到图12F中所示的高度时,相机108被定位成捕获水槽1200的图像。在一些情况下,如果机器人100正在执行自主穿过操作,则机器人100到达航路点L15并且自主地将相机108的高度设置到适当的高度以捕获水槽1200的图像。例如,在航路点选择操作904期间基于在设置操作902期间收集的数据确定高度。在一些情况下,如果机器人100在用户引导巡逻操作906b期间基于用户命令操作,则机器人100根据用户命令设置相机108的高度。用户发出一系列命令以增加或减小相机108的高度。
在监视操作908期间,用户在巡逻操作906期间监视由机器人100收集的数据。为了使用户能够监视所收集的数据,机器人100将数据发送到监视系统700,并且通过用户终端向用户呈现封闭空间10的交互式表示。例如,机器人100将表示图像的数据和由传感器系统502通过监视系统700收集的任何其他数据发送到例如远程计算系统702和/或用户终端。在监视操作908期间,用户终端在实时监视操作中实时地呈现数据。或者,用户终端呈现较早存储的数据以供用户查看,例如,在查看操作中。
在监视操作908期间在用户终端1002上呈现给用户的交互式表示可以包括由在多个航路点处捕获的图像形成的视图,在单个航路点处捕获的多个图像,或者在多个航路点捕获的图像和在单个航路点捕获的多个图像的组合。在一些示例中,在不同航路点处捕获的图像每个都形成交互式表示的不同部分,例如,交互式表示的不同视图。在特定航路点处捕获的图像包括例如多个图像,这些图像被组合以创建在该航路点处的交互式表示的链接部分。例如,图像包括重叠部分,其使得在航路点处的图像能够被组合并形成为连续视图,例如以形成全景视图。
在一些实施方式中,监视操作908包括实时监视操作,其中机器人100例如将数据发送到监视系统700以供用户实时监视数据。在实时监视操作期间,监视操作908与巡逻操作906同时发生,使得当机器人穿过封闭空间10收集数据时,用户可以监视机器人100收集的数据。当机器人100围绕封闭空间10导航并捕获封闭空间10的图像时,用户终端呈现对应于当前由机器人100捕获的图像的封闭空间10的视图。在这方面,用户终端向用户呈现封闭空间10的实况视频馈送。在一些情况下,响应于用户终端上的用户输入而启动实时监视操作。机器人100接收表示用户输入的信号并且启动将收集的数据发送到用户终端,使得用户可以实时监视数据。
在监视操作908的一些示例中,机器人100收集和发送使用户能够监视封闭空间10中的特定物体的数据。例如,如图12C,12E和12G所示,用户终端1002呈现包括水槽1200的视图1204a,1204b,1204c,以使用户能够监视水槽1200。在实时监视操作中,用户终端实时呈现视图1204a,1204b,1204c以使用户能够在用户终端1002上实时监视水槽1200,例如,当机器人100正在执行巡逻操作906以捕获水槽1200的图像。
在实时监视操作的一些示例中,用户终端1002呈现封闭空间10的交互式表示。用户操作用户终端1002以实时调整在用户终端1002上呈现的视图。当用户实时监视数据时,用户操作用户终端以向机器人100提供导航命令,如关于用户引导巡逻操作906b所描述的。在实时监视操作的一些示例中,如关于图3A-3D所描述的那样,用户与交互式表示交互以启动机器人100的操作,例如,平移操作,旋转操作或缩放操作。
作为这里描述的实时监视操作的替代或补充,监视操作908包括查看操作,其中机器人100发送要存储在监视系统700中的数据,以使用户在以后的时间能够监视存储的数据。用户终端1002例如访问在巡逻操作906期间由机器人100捕获的先前存储的图像。用户操作用户终端1002以监视由机器人100在较早时间捕获的图像形成的视图。例如,在机器人100捕获图像之后至少5到10秒呈现视图。例如,表示图像的数据首先被存储,然后由用户终端访问以向用户呈现交互式表示。
在查看操作的一些示例中,历史查看模式中的用户终端呈现捕获的图像的历史。如图图13所示,用户1300操作用户终端1002,其呈现在巡逻操作906期间由机器人100收集的数据。用户1300例如操作用户终端1002以查看在一段时间内收集的数据的历史。用户终端1002呈现选择菜单1302,其包括在通过封闭空间10的穿过操作期间由机器人100捕获的图像形成的封闭空间10的用户可选择视图列表。列表的每个项目包括例如与机器人100捕获图像的时间相关联的时间戳。在一些情况下,列表中的每个项目与封闭空间10内的区域或房间的名称相关联。
在一些实施方式中,系统700自动比较感兴趣区域的图像并检测在第一较早时间捕获的图像与在第二较晚时间捕获的图像之间的差异。例如,系统700使用户终端1002发出指示差异的警报。用户终端1002呈现封闭空间10的视图,以及指示覆盖在封闭空间10的视图上的差异的指示符,例如通过突出显示差异或呈现注意差异的指示符。在一些情况下,感兴趣的区域是封闭空间10中的表面,例如厨房柜台。系统700比较在不同时间捕获的厨房柜台的图像,例如,在用户离开封闭空间10之前和之后。系统700确定用户在离开封闭空间10之前忘记了厨房柜台上的物品,例如钱包。然后,系统700将信号发送到用户携带的计算设备,例如远程用户终端704,以使得发出自动警报以通知用户被遗忘的物品。自动警报包括例如由厨房柜台的图像与被遗忘物品形成的视图。
在一些实施方式中,用户1300操作用户终端1002以呈现在多个不同时间捕获的感兴趣区域的图像的表示。用户终端1002例如在显示器1004上呈现多个视图,从而呈现由在不同时间捕获的感兴趣区域的图像形成的视图的并排比较。用户终端1002例如呈现由在较早时间捕获的图像形成的视图,并且同时呈现在稍后时间捕获的图像形成的另一视图。并排比较可用于突出在不同时间捕获的图像中的差异。
在查看操作的附加示例中,用户操作用户终端以在行走模式中呈现封闭空间10的视图。在行走模式中,视图以基于机器人100捕获的视图的图像所在的地板表面20上的相对位置的顺序呈现。用户终端访问存储的图像并以保留捕获图像的相对位置的方式呈现图像,从而向用户提供虚拟地行走穿过封闭空间10的效果。
在行走模式的一些实施方式中,在多个航路点处捕获图像,并且在用户终端上呈现的图像的顺序基于航路点的邻接关系。在查看操作期间,呈现特定航路点处的视图的用户终端可由用户操作以在任何相邻航路点处呈现视图。在一些示例中,由机器人100在三个顺序航路点(例如,航路点L10,L14,L13)处捕获的图像形成为将在用户终端上呈现的封闭空间10的一系列视图。在查看操作期间,如果在用户终端上呈现与航路点L10相关联的视图,以使得用户终端呈现与航路点L13相关联的视图,则用户操作用户终端以在航路点L14处呈现图像,并且然后进一步操作用户终端以在航路点L13处呈现图像。因此,根据沿路线200的航路点L10,L14和L13的相对位置顺序地呈现视图。
如在行走模式的一些示例中,如图14A-14C所示,用户终端1002呈现封闭空间10的交互式表示1000的视图1401a,1401b,1401c。视图1401a,1401b,1401c分别由在封闭空间10的区域B,A和C中捕获的图像形成。
在图14A中,用户终端1002呈现对应于机器人100在特定航路点(例如,图10A中所示的航路点L13)捕获的图像的视图1401a。用户终端1002还呈现覆盖在视图1401a上的方向标签1402a,当用户调用该方向标签1402a时,使得用户终端1002呈现交互式表示1000的新视图。交互式表示1000被移动,方式为向用户提供使用交互式表示1000虚拟地导航通过封闭空间10的效果。
方向标签1402a是多个方向标签1402a,1402b,1402c中的一个。响应于与方向标签1402a,1402b,1402c之一相关联的用户界面元素的用户调用,在用户终端1002上呈现的视图被改变为与对应于视图1401a的航路点相邻的航路点处的视图。在一些情况下,如果视图1401a的航路点是图10A中所示的航路点L13,则相邻航路点是航路点L9,L14和L15。当用户调用与方向标签1402a,1402b,1402c之一相对应的用户界面元素时,用户终端1002将视图移动到分别由在相应的相邻航路点L9,L14和L15处捕获的图像形成的新视图。用户调用例如靠近方向标签1402a,1402b,1402c的位置的用户终端1002的触摸屏,以调用对应于方向标签1402a,1402b,1402c之一的用户界面元素。如果用户调用对应于方向标签1402b的用户界面元素,则移动交互式表示1000,使得图14B中所示的视图1401b呈现在用户终端1002上。
在另外的示例中,如果视图1401b的航路点是航路点L9,则相邻航路点是航路点L13,L8,L11。如果用户调用与图14B中所示的方向标签1408a相对应的用户界面元素,则在用户终端1002上呈现图14C所示的视图1401c。例如,视图1401c对应于航路点L8。如果用户调用对应于方向标签1408b的用户界面元素,则用户使用户终端1002返回到图14A所示的视图1401a。
在一些实施方式中,用户终端1002在对应的方向标签1402a,1402b,1402c附近呈现航路点名称1406a,1406b,1406c,以指示相邻航路点L9,L14,L15的名称,如本文所述。在图14A的示例中,航路点L9,L14,L15的名称是“电视房”,“厨房水槽”和“厨房炉子”。
在行走模式的一些实施方式中,当用户操作用户终端以将交互式表示1000从初始航路点处的初始视图移动到相邻航路点处的新视图时,新视图对应于与原始视图的图像设置相同的取向和高度设置处捕获的图像。例如,视图1401a,1401b,1401c由相机108捕获的图像形成,其中相机108相对于机器人100的底盘102在相同的取向和高度处。
在查看操作的附加示例中,用户以航路点视图模式操作用户终端1002,其中用户终端1002监视由在单个航路点处捕获的图像形成的视图。具体地,用户终端呈现由机器人100使用在航路点处的多个不同相机设置捕获的图像形成的视图。
在航路点视图模式的一些示例中,针对图14A中所示的视图1401a捕获的图像对应于机器人100的相机108相对于机器人100的底盘102在特定取向和/或特定高度处捕获的图像。如果机器人100被操作以在航路点L13处捕获附加图像,其中相机108处于不同的取向和/或不同的高度,则用户终端1002可操作以呈现与该附加图像相对应的附加视图。对于视图1401b,1401c中的每一个,用户终端1002可操作以呈现相机108在不同取向和/或不同高度处捕获的图像形成的附加视图。
虽然图12C,12E和12G被描述为在实时监视操作期间呈现的视图,但是在一些实施方式中,每个视图对应于在查看操作期间呈现的视图。在这方面,用户终端访问由机器人100收集的先前存储的数据以呈现视图1204a,1204b,1204c。视图1204a,1204b,1204c对应于相机108在特定航路点处在多个高度处捕获的图像。如本文所述,捕获视图1204a,1204b,1204c的图像所处的航路点对应于例如航路点L14,例如,对应于名称“厨房水槽”。视图1204a,1204b,1204c中的每一个对应于在航路点L14处在不同高度处捕获的图像。在航路点视图模式中,呈现视图1204a,1204b,1204c之一的用户终端可由用户操作以呈现其他视图。
在航路点视图模式的其他示例中,图15A-15C示出了多个视图1500a,1500b,1500c,其对应于相机108在特定航路点(例如,航路点L16)处以多个取向捕获的图像。视图1500a,1500b,1500c中的每一个对应于在航路点L16处以不同取向捕获的图像。视图1500a,1500b,1500c由在航路点L16处捕获的拼接图像形成。例如,拼接图像跨越的角度范围大于单个图像可能的角度范围。
在一些实施方式中,用户终端1002呈现与用户界面元素相关联的方向标签1502,用户界面元素可以由用户调用以改变在用户终端1002上呈现的视图。用户通过调用与方向标签1502相对应的用户界面元素来操作用户终端1002,以将视图1500a,1500b,1500c移动到由在相邻航路点L15处捕获的图像形成的视图。在某些情况下,航路点L15的视图是航路点L15的多个视图之一。在一些情况下,用户终端1002呈现覆盖在交互式表示1000的每个视图1500a,1500b,1500c上的方向标签1502。在这方面,用户可以操作用户终端1002以将交互式表示1000从在航路点L16处的任何视图1500a,1500b或1500c移位到航路点L15的新视图。在一些情况下,当交互式表示1000被移动到相邻航路点L15处的新视图时,新视图由使用与用于捕获航路点L14处的初始视图(例如,视图1500a,1500b或1500c)的图像的相机设置类似的相机设置捕获的图像形成。
虽然图15A-15C描绘了表示围绕航路点L14的小于360度的图像的视图1500a,1500b,1500c,但在一些情况下,视图1500a,1500b,1500c是围绕航路点L16的在180度视图和360度视图之间形成的一系列链接视图。或者,一系列链接视图形成在航路点L16处的360度视图或封闭空间10的全景视图。链接视图由机器人100捕获的至少2个图像形成。
虽然用户可以操作用户终端以将交互式表示移动以呈现在特定航路点处在不同方向和高度处捕获的视图,如关于图12C,12E,12G和15A-15C所描述的,但在一些实施方式中,用户操作用户终端以用其他方式移动交互式表示。在与交互式表示交互的一些示例中,用户操作用户终端1002以移动交互式表示以呈现放大视图或缩小视图。在用户终端1002上呈现的放大视图和缩小视图例如由在由相机108捕获图像之后应用的数字缩放效果形成。在一些情况下,用户操作用户终端1002以呈现由相机108捕获的视图,该视图具有除了取向和高度之外的方式变化的操作设置。例如,放大视图和缩小视图分别对应于相机在相机108的缩放设置下捕获的图像,该缩放设置分别比用于捕获用户终端1002上显示的初始视图的图像的相机108的缩放设置更放大或缩小。在与交互式表示交互的其他示例中,用户操作用户终端1002移动交互式表示,以呈现由在相机108的不同水平转动位置或俯仰取向捕获的图像形成的视图。
具有关于封闭空间10的状况的知识和信息使得用户能够做出明智的家庭管理决策,例如,通过改进的能量管理来增加物理舒适度和财务节省。为了通知用户这些状况,用户终端呈现叠加在交互式表示上的指示符。在一些情况下,指示符指示由封闭空间10内的传感器(例如机器人100的传感器和/或其他连接的设备706的传感器)捕获的传感器读数。在一些情况下,指示符指示捕获的传感器数据,其涉及封闭空间10中的结构,设备或其他物体。
因为传感器数据被定位到封闭空间10内的位置,例如,使用测绘系统508,所以在一些情况下,用户终端基于定位信息将指示符叠加在交互式表示的一部分上。用户终端例如在封闭空间10内的位置处的交互式表示上叠加传感器读数,在该位置处机器人100收集该传感器读数。用户终端呈现这些传感器读数以提供感测的状况如何在整个封闭空间10中变化的视觉表示。
系统700可以监视封闭空间10中的各种状况。在一些情况下,系统700用于远程监视封闭空间10中的不可见状况,例如温度,毒素,湿度和类似的空气质量测量值,并且在交互式表示1000上对应于测量状况的封闭空间10内的位置处覆盖指示符。
图16A-16C描绘了机器人100收集传感器数据以用于生成叠加在呈现给用户的交互式表示1000上的用户指示符的示例。图16A描绘了覆盖在用户终端1002上呈现的交互式表示1000的视图1601a上的传感器读数的示例。在一些示例中,指示符1602叠加在交互式表示1000中的炉子1604的位置上。指示符1602表示由机器人100捕获的温度读数的值。如果监视操作是实时监视操作,则在一些情况下,温度读数对应于炉子1604的当前温度。
如果监视操作是查看操作,则温度读数对应于先前捕获的炉子1604的温度读数,例如存储在监测系统700中。在一些情况下,为了收集用于指示符1602的传感器数据,在巡逻操作906期间,机器人100首先穿过封闭空间10到达炉子1604前面的位置,然后到达机器人100捕获用于视图1601a的图像的位置。
图16B描绘了覆盖在用户终端1002上呈现的交互式表示1000的视图1601b上的空气质量指示符1608的示例。空气质量指示符1608例如是警报指示器,其指示在厨房橱柜1610附近存在空气污染物,例如溶剂烟雾。机器人100例如在巡逻操作906期间使用传感器系统502的空气质量传感器616检测溶剂烟雾。基于空气质量指示符1608,用户可以执行动作以解决空气质量指示符1608的根本原因,例如,通过密封容纳溶剂的容器。
在一些实施方式中,空气质量指示符1608指示空气污染物的类型,例如,颗粒物质,硫氧化物,氮氧化物,挥发性有机化合物,一氧化碳,氨,地面臭氧,花粉,灰尘或其他颗粒物质。空气质量指示符1608指示例如机器人100在巡逻操作906期间通过封闭空间10检测到的空气污染物的存在。空气质量指示符1608指示,例如,空气污染物的量对于封闭空间10中的人是不安全的。
图16C描绘了视图1601c的示例,其上叠加有温度指示符1612和湿度指示符1614。温度指示符1612指示封闭空间10的位置处的温度,该温度不在捕获视图1601c的图像的位置附近。温度指示符1612的位置例如在封闭空间10的另一个区域内,距离视图1601c的位置远于1,2或3米等。湿度指示符1614指示封闭空间10的天花板1618附近的水分含量。基于温度指示符1612和湿度指示符1614,用户可以操作HVAC系统804,通风设备,空调设备,加湿设备或其他设备以将封闭空间10的温度和水分含量调节到期望的温度和水分含量。
在一些实施方式中,基于一状况的传感器读数生成封闭空间10的该状况的2D或3D地图。例如,如果该状况是空气质量,则系统700生成通过封闭空间10的空气质量的2D或3D地图。用户终端1002可操作以将地图呈现给用户。如果地图指示封闭空间10的特定区域(例如,特定区)具有相对较低的空气质量,则用户可以执行校正动作以改善特定区域中的空气质量。
在一些实施方式中,指示符叠加在交互式表示上以指示封闭空间10中的状况的梯度,趋势或其他变化。来自机器人100的传感器读数例如在一定距离上捕获。指示符是从这些传感器读数生成的,并且呈现在用户终端上,叠加在交互式表示上,以指示方向性或变化。例如,如果该状况是温度,则指示符包括覆盖在交互式表示上的从蓝色(表示较冷温度)到蓝色(表示较温暖的温度)的范围的颜色,以指示封闭空间10的较冷部分和较温暖部分。基于所呈现的指示符,用户可以调节冷却和加热设备的操作,以在整个封闭空间10中产生更均匀的温度分布。在一些实施方式中,该状况是空气流动,指示符包括箭头以指示封闭空间10内的空气流动的方向性。基于该指示符,用户可以确定封闭空间10内的漏气位置。为了改善封闭空间10的隔离性,用户可以密封漏气。在一些情况下,该状况是空气污染物的浓度,并且指示符包括箭头,该箭头指示封闭空间10内的空气污染物的较高浓度的方向。基于该指示符,用户可以搜索空气污染物的来源。
在一些实施方式中,机器人100在操作相机108以捕获封闭空间10内的图像的每个位置和高度处生成传感器读数。或者,当相机108未捕获图像时,机器人100在相机108的多个位置和高度处生成传感器读数。在呈现给用户的视图内存在机器人100的航路点L之间的位置处存在指示符。
在一些实施方式中,与封闭空间10中的设备相关联的信息覆盖或定位邻近呈现给用户的交互式表示中的设备。图17A-17C描绘了用户终端1002基于机器人100捕获的图像和从封闭空间10内的其他连接的设备706收集的信息来在视图上覆盖信息的示例。连接的设备706例如收集传感器数据并将数据无线传输到系统700。如关于测绘系统508所描述的,机器人100在巡逻操作906期间检测每个连接的设备706的位置,并且在机器人地图中估计连接的设备706的位置。在一些情况下,基于在由机器人100捕获的图像上执行的物体识别,在用户终端1002上呈现给用户的视图内识别连接的设备706。
如参考图17A-17C所述,指示符(例如,指示所连接的设备的图标)覆盖在交互式表示上以指示所连接的设备的位置并指示与所连接的设备有关的信息。图17A描绘了其中用户终端1002呈现表示从连接的门锁1703接收的信息的信息框1702的示例。信息框1702叠加在包括连接的门锁1703的视图1701a上。连接的门锁1703例如是这里描述的自动化控制器设备之一。信息框1702包括例如门锁1703的当前状态1704(例如,解锁,锁定)和门锁1703的状态改变的历史1705。门锁1703的状态的历史1705中的每个列表包括例如与状态改变相关联的时间戳。在一些情况下,信息框1702还包括最后改变门锁1703的状态的人的识别。信息框1706还包括门锁1703的其他状态信息1730,例如门锁1703的电池寿命和门锁1703的本地时间。
图17B描绘了用户终端1002呈现表示从运动检测器1707接收的信息的信息框1706的示例。信息框1706叠加在包括运动检测器1707的视图1701b上。运动检测器1707例如是这里描述的环境检测设备之一。信息框1706呈现由运动检测器1707检测到的运动事件的历史1708。检测运动事件的历史1708中的每个列表包括例如与检测相关联的时间戳。信息框1706还包括运动检测器1707的其他状态信息1732,例如运动检测器1707的电池寿命和运动检测器1707的本地时间。
图17C描绘了用户终端1002呈现表示从连接的照明控制系统1712接收的信息的信息框1710和表示从连接的恒温器1716接收的信息的信息框1714的示例。信息框1710和信息框1714叠加在视图1701c上,视图1701c包括照明控制系统1712和恒温器1716的可手动操作的用户控制设备1718a-1718c。
连接的照明控制系统1712例如是这里描述的自动化控制器设备之一。在图17C中描绘的示例中,连接的照明控制系统1712包括可手动操作的用户控制设备1718a-1718c。用于连接的照明控制系统1712的信息框1710包括在视图1701b中可见的每个用户控制设备1718a-1718c的当前状态。特别地,信息框1710指示与给定用户控制设备相关联的照明元件是启用或停用。
连接的恒温器1716例如是环境感测设备和自动化控制器设备二者。连接的恒温器1716包括用于测量封闭空间10中的当前温度的温度传感器和用于操作封闭空间10的HVAC系统以控制封闭空间10中的当前温度的控制系统。在图17C中描绘的示例中,信息框1714包括由连接的恒温器1716的温度传感器测量的当前温度1720和使用连接的恒温器1716的控制系统可选择的操作设置1722。操作设置1722包括例如操作模式,例如,“离开”模式,其中HVAC系统被操作以节省能量,或者“家庭”模式,其中HVAC系统被操作以提高封闭空间10中的人的舒适度水平。在一些情况下,操作设置1722包括HVAC系统的加热操作的状态,例如,启用或停用。
尽管参考图16A-17C描述的示例示出向用户提供指示封闭空间10中的状况的信息框,但在一些实施方式中,覆盖在用户终端1002上呈现的视图上的指示符包括由指示符指示的特定状况所特有的定制图像。例如,参考图17A,显示锁定挂锁的指示符覆盖在视图1701a上,以指示连接的门锁1703处于锁定状态。如果连接的门锁1703处于解锁状态,则覆盖显示未锁定的挂锁的指示符。
尽管参考图16A-17C描述的示例示出了封闭空间10中的监视状况并向用户提供了状况的指示,但在一些实施方式中,系统700监视封闭空间10中的状况并基于监视来控制机器人100。系统700例如监视连接设备的状态,并且机器人100在检测到连接的设备的特定状态时执行特定操作。在一些示例中,机器人100在连接的设备附近移动,然后捕获图像。然后,捕获的图像实时地发送到用户终端1002,以实现实时呈现所连接的设备的视图。实时呈现交互式表示的视图,以便可以快速通知用户所连接的设备的状态,并且如果适当的话,相应地改变所连接的设备的状态。
在一些实施方式中,特定状态和特定操作都由用户选择。关于图17A-17C描述这些状态和操作的示例。在一些示例中,返回参考图17A,用户操作用户终端1002以选择机器人100的设置,该设置使得机器人100在连接的门锁1703处于解锁状态时提供所连接的门锁1703的实时视图。在一些情况下,该设置使得机器人100在连接的门锁1703处于解锁状态达预定的持续时间(例如,5到30分钟)时执行这样的操作。当连接的门锁1703处于解锁状态时,机器人100自主地移动到连接的门锁1703附近的封闭空间10内的区域。用户终端1002呈现图17A所示的交互式表示,以向用户指示连接的门锁1703处于解锁状态。在一些示例中,用户与交互式表示交互以将连接的门锁1703的状态从解锁状态改变为锁定状态。或者,用户手动地与连接的门锁1703交互以将连接的门锁1703置于锁定状态。
在一些示例中,返回参考图17B,用户操作用户终端1002以选择设置,以使机器人100响应于运动检测器1707的运动检测而执行操作。具体地,每当运动检测器1707检测到运动时,机器人100执行操作以自主地移动到运动检测器1707附近的封闭空间10内的区域。在一些情况下,仅当用户不在封闭空间10内时,机器人100响应于运动检测器1707的运动检测来执行操作。用户终端1002实时呈现图17B所示的交互式表示,以通知用户运动检测器1707已检测到运动。因此,用户终端1002上的视图可以实时地向用户通知由运动检测器1707检测到的运动的来源。或者,当运动检测器1707检测到运动时,机器人100不是移动到运动检测器1707附近的区域,而是执行通过封闭空间10至每个航路点的巡逻操作。
在一些示例中,返回参考图17C,用户操作用户终端1002以选择设置,以使机器人100响应于连接的恒温器1716检测到温度的特定值而执行操作。温度值例如在预定温度范围之外。预定范围例如在15到30摄氏度,例如,18到24摄氏度,20到22摄氏度,59华氏度到86华氏度,65华氏度到75华氏度,68华氏度到75华氏度。在某些情况下,预定范围是用户选择的范围。当由连接的恒温器1716测量的温度在预定范围之外时,机器人100自主地移动到连接的恒温器1716附近的封闭空间10内的区域。用户终端1002实时呈现图17C所示的交互式表示,以通知用户连接的恒温器1716已经检测到预定范围之外的温度。用户终端1002上的视图可以实时地向用户通知由运动检测器1707检测到的运动的来源。
虽然图17A-17C描绘了通过用户终端1002呈现给用户的封闭空间10的视图中所示的连接的设备,但在一些实施方式中,以其他方式存在与所连接设备有关的信息。连接的设备的位置例如在布局图视图中指示,例如,类似于图10A中所示的布局图视图的布局图视图。机器人在巡检操作906期间检测连接的设备的位置,并且发送表示包括连接的设备的位置的机器人地图的数据,以使用户终端1002能够呈现布局图1001并且呈现指示连接的设备的位置的指示符。例如,机器人100在巡逻操作906期间移动通过封闭空间并且检测封闭空间10内的连接的设备,包括连接的门锁1703,运动检测器1707,连接的照明控制系统1712和连接的恒温器1716。这些设备放置在由机器人100构建的机器人地图内。当用户访问布局图时,布局图1001呈现在用户终端1002上,其中指示符覆盖在布局图1001上,以向用户提供连接的设备的物理位置环境。布局图为用户提供连接的设备的物理环境,以便用户可以基于布局图中的连接的设备的位置来区分相同类型的连接的设备。封闭空间10包括例如两个相同类型的连接的设备,例如,两个连接的照明控制系统,并且用户能够基于它们在布局图内的位置来区分两个连接的设备。
通过监视系统700发送与连接的设备相关联的数据,以使用户终端1002能够被操作以监视或控制连接的设备的操作。布局图中的指示符例如可以通过用户终端1002的用户输入设备的用户操作来选择,以便用户选择特定的连接设备并监视和/或控制所选择的连接的设备的操作。在这方面,即使可以通过用户终端1002可访问的其他门户来监视和控制连接的设备,与机器人100和监视系统700相关联的门户使用户能够监视或控制多个连接的设备的操作而无需在不同的门户之间切换。为了通过访问多个门户的不同应用来控制和监视连接的设备,用户可以使用可以通过每个门户接收和发送数据的单个应用来控制用户终端1002,而不是操作用户终端1002。或者,监视系统700可以以这样的方式配置:连接的设备通过监视系统700生成和发送数据,使得用户终端1002仅访问单个门户以控制多个连接的设备的操作。用户可以在一个应用程序中监视和控制机器人100的操作,并且还在同一应用程序中监视和控制连接设备的操作。
由选择的连接设备收集的传感器数据通过监视系统700发送,然后当用户从布局图中选择特定连接的设备时,用户终端1002通过用户终端1002将数据呈现给用户。可替代地或附加地,通过监视系统700发送指示用户可选择的用于控制连接设备的操作的命令的数据,然后当用户从布局图选择特定连接的设备时,用户终端1002通过用户终端1002将数据呈现给用户。然后,用户操作用户终端1002以选择要由所选择的连接的设备执行的操作。用户终端1002向监视系统700发送表示执行该操作的命令的数据。特别地,传输数据以使所选择的连接的设备执行用户选择的操作。
在一些情况下,连接的设备生成传感器数据或命令数据,并通过监视系统700直接发送数据。在某些情况下,连接的设备生成数据并将数据发送到用户可访问以监视和控制连接的设备的外部门户。监视系统700从外部门户访问数据,以使用户终端1002能够通过这里描述的交互式表示向用户呈现数据。在某些情况下,如果通过交互式表示选择命令,则表示该命令的数据被直接发送到连接的设备以控制连接的设备的操作。或者,命令数据从监视系统700发送到外部门户,以控制连接的设备的操作。
在一些示例中,如果连接的设备是关于图17A描述的连接的门锁1703,则从布局图中选择表示连接的门锁1703的指示符使得用户终端呈现表示门锁1703的当前状态的数据。如果用户操作用户终端1002以选择和发送命令,则该命令使得例如连接的门锁1703从解锁状态切换到锁定状态,反之亦然。
在一些示例中,连接的设备是关于图17C描述的连接的照明控制系统1712。从布局图中选择表示连接的照明控制系统1712的指示符使得用户终端1002呈现表示所连接的照明控制系统1712的当前状态的数据,例如,连接的照明控制系统1712的每个可手动操作的用户控制设备1718a-1718c的当前状态。在从布局图中选择连接的照明控制系统1712时,用户能够操作用户终端以选择和发送命令以引起例如一个或多个可手动操作的用户控制设备1718a-1718c的状态从开启状态切换到关闭状态,反之亦然。
其他替代示例
已经描述了自主移动机器人,监视系统,监视过程以及其他相关方法、系统和设备的许多实施方式。其他替代实施方式在本公开的范围内。
在一些实施方式中,这里描述的用户终端的示例包括触摸屏,并且用户执行与用户终端的特定交互以改变在用户终端上呈现的封闭空间的视图。例如,用户在触摸屏上执行滑动操作以修改在用户终端上呈现的视图。在一些情况下,通过使机器人100旋转从而改变由机器人100捕获的图像来修改视图。在一些示例中,向左或向右滑动导致在用户终端上呈现的视图的旋转。旋转的大小与滑动的长度成比例。在一些示例中,向上或向下滑动导致在用户终端上呈现的视图的向上或向下平移。平移的大小与滑动的长度成比例。
虽然机器人100被描述为在设置操作902期间捕获图像,但是在一些实施方式中,机器人100在其在设置操作902期间穿过封闭空间10期间生成其他传感器数据。例如,机器人100使用传感器系统502在设置操作902期间生成与封闭空间10的状况有关的传感器数据。基于传感器数据,机器人100在巡逻操作906期间确定用于相机设置的操作参数。在一些示例中,机器人100使用光传感器618在一天的特定时间测量封闭空间10内的环境光。基于在设置操作902期间由光传感器618生成的传感器数据,确定在一天的时间下封闭空间中的照明状况。反过来,基于照明状况,生成时间表。例如,在航路点选择操作904期间生成的时间表是基于照明状况生成的。
在巡逻操作906的一些示例中,机器人100沿着路线200移动到航路点L中的一个,并且在到达航路点时,启动图像捕获。旋转相机108以捕获具有角度范围的图像,如在航路点选择操作904期间确定的那样。或者,机器人100到达航路点,并且相机108旋转一旋转量以捕获具有角度范围的图像。在该初始旋转期间,相机108不一定捕获图像,而是检测航路点周围的照明状况,例如,使用传感器系统502的光传感器618或相机108的光度计。基于关于航路点的照明状况,相机108再次旋转。在该后续旋转期间,操作相机108以捕获具有期望角度范围的图像。当操作相机108以捕获图像时,机器人100控制相机108的其他设置以基于在第一旋转期间检测到的照明状况来控制捕获的图像的曝光。例如,基于检测到的照明状况,在随后的旋转期间控制光圈设置,快门速度设置和曝光指数。这样的过程使得能够根据每个航路点处的封闭空间10中的变化的光状况来调整所捕获的图像。相机108的初始旋转允许基于在操作相机108以捕获图像之前立即检测到的照明状况来控制相机设置。
虽然图10A-10C中的示例描述了单个路线200,但是在一些实施方式中,在航路点选择操作904期间,选择多组位置以定义通过封闭空间10的多个路线。在一些示例中,在航路点选择操作904期间,用户为机器人100的不同操作模式创建不同的路线。例如,用户可以为封闭空间10被占用时创建一个路线,并且在封闭空间10未被占用时创建另一个路线。在巡逻操作906期间,机器人100沿着其中一个路线穿过封闭空间10。
虽然已经描述了用户终端可操作以呈现交互式表示的单个视图,但是在一些实施方式中,用户终端一次呈现交互式表示的多个视图。在一些示例中,在缩略图视图模式中,用户终端呈现缩略图视图,该缩略图视图包括由机器人100在单个航路点捕获的图像形成的多个视图中的每一个。如图10C所示,为了调用缩略图视图模式,用户调用与“缩略图视图”输入按钮1018相关联的用户界面元素。缩略图视图例如对应于由相机108在不同取向设置在航路点捕获的多个图像形成的全景缩略图视图。可选地或另外地,缩略图视图由相机108处于不同的高度设置在航路点处捕获的多个图像形成。在缩略图视图模式的一些示例中,用户终端呈现对于封闭空间10的每个航路点L的缩略图视图。
虽然已经描述了来自固定设备的信息覆盖在图16A-16C和17A-17C中的交互式表示上,但在一些实施方式中,用户终端1002呈现与在封闭空间10中移动的物体相关联的信息。在一些示例中,用户终端1002呈现移动通过封闭空间10的物体的预测路径。例如,当物体移动通过封闭空间10时,机器人100捕获物体的顺序图像。基于图像,物体的路径被预测并覆盖在呈现给用户的交互式表示上。在一些实施方式中,预测路径还基于从连接的设备706之一收集的信息。连接的设备706包括例如运动传感器,以估计物体相对于连接的设备706、相对于机器人100或相对于封闭空间10中的另一物体的姿势。
虽然已经描述了交互式表示由从单个机器人收集的数据形成,但是在一些实施方式中,交互式表示由从多个机器人(例如机器人100)收集的数据形成。封闭空间10包括例如多个自主监视机器人,其穿过封闭空间10以捕获封闭空间10的图像。系统700组合数据并基于由每个机器人捕获的图像提供交互式表示。在一些实施方式中,交互式表示由从多个机器人收集的数据和由一个或多个连接的设备706生成的数据形成。
虽然已经描述了用户终端可操作以改变交互式表示的视图,但是在一些情况下,用户操作用户终端以将指示符、消息或其他数字项目叠加到交互式表示上。如果稍后在用户终端上呈现交互式表示,则数字项目仍然叠加在交互式表示上,例如,固定到封装空间10中最初叠加数字项目的位置处。用户可以放置数字项目以向可以访问交互式表示的另一用户提供信息。数字项目包括例如远程用户终端处的远程用户和/或封闭空间10内的其他用户的消息。在一些实施方式中,数字项目包括封闭空间10中的限制区域(例如,限制区域1100)的指示符。
这里描述的机器人可以至少部分地使用一个或多个计算机程序产品来控制,例如,有形地体现在一个或多个信息载体中的一个或多个计算机程序,例如一个或多个非暂时性机器可读介质,用于执行或控制一个或多个数据处理设备(例如,可编程处理器,计算机,多个计算机和/或可编程逻辑组件)的操作。
与控制本文描述的机器人相关联的操作可以由执行一个或多个计算机程序的一个或多个可编程处理器执行,以执行本文描述的功能。计算机程序可以用任何形式的编程语言编写,包括编译或解释语言,并且可以以任何形式部署,包括作为独立程序或作为模块,组件,子程序或在计算环境中适合使用的其他单元。可以使用专用逻辑电路(例如,FPGA(现场可编程门阵列)和/或ASIC(专用集成电路))来实现对这里描述的全部或部分机器人的控制。
这里描述的控制器可以包括一个或多个处理器。适用于执行计算机程序的处理器例如包括通用和专用微处理器以及任何种类的数字计算机的任何一个或多个处理器。通常,处理器将从只读存储区域或随机存取存储区域或两者接收指令和数据。计算机的元件包括用于执行指令的一个或多个处理器和用于存储指令和数据的一个或多个存储区域设备。通常,计算机还将包括或可操作地耦合以从一个或多个机器可读存储介质接收数据或将数据传输到一个或多个机器可读存储介质,例如用于存储数据的大规模PCB,例如磁盘,磁光盘或光盘。适用于实现计算机程序指令和数据的机器可读存储介质包括所有形式的非易失性存储区域,包括例如半导体存储区域设备,例如EPROM,EEPROM和闪存存储区域设备;磁盘,例如内部硬盘或可移动盘;磁光盘;和CD-ROM和DVD-ROM盘。
除了本文描述的那些之外,可以以其他方式修改本文在别处描述的实施方式。因此,其他实施方式在随后的权利要求的范围内。
Claims (28)
1.一种自主移动机器人,包括:
底盘;
驱动器,将底盘支撑在家庭中的地板表面上方并且配置成使底盘移动经过地板表面;
可变高度构件,联接到底盘并且能够垂直延伸;
相机,由可变高度构件支撑;以及
控制器,被配置为
操作驱动器以将机器人导航到家庭内的位置,
在到达第一位置时调节可变高度构件的高度,并且
当可变高度构件处于调节高度时,操作相机以在第一位置处捕获家庭的数字图像。
2.根据权利要求1所述的机器人,其中,所述可变高度构件能够从第一位置延伸到第二位置,在所述第一位置,可变高度构件的顶表面与底盘的顶表面齐平,在所述第二位置,可变高度构件的顶表面具有至少1.5米的高度。
3.根据权利要求1或2所述的机器人,其中,所述可变高度构件能够从10cm的高度延伸到1.5m的高度。
4.根据权利要求1-3中任一项所述的机器人,其中,所述控制器被配置为在隐私模式下将可变高度构件移动到相机不能捕获家庭图像的位置。
5.根据权利要求1-4中任一项所述的机器人,其中,所述控制器配置为
当机器人位于所述第一位置时,将可变高度构件调节到至少两个高度,并且
在所述可变高度构件处于所述至少两个高度中的每一个时,操作相机以捕获家庭的数字图像。
6.根据权利要求1-5中任一项所述的机器人,还包括无线收发器,其能够由控制器操作并且被配置为与无线网络通信,使得数字图像能够传输到远程计算设备,所述远程计算设备能够操作以基于数字图像在显示器上呈现家庭的交互式表示。
7.根据权利要求6所述的机器人,还包括传感器系统,用于检测与无线网络通信的联网设备的位置和状态,同时控制器操作驱动器以在家庭中导航机器人,
其中,所述无线收发器被配置为与无线网络通信,使得数字图像和表示联网设备的位置和状态的数据可传输到远程计算设备,以在显示器上呈现指示联网设备的位置和状态的指示符。
8.根据权利要求6或7所述的机器人,其中,所述无线收发器被配置为将数字图像发送到远程计算设备,以组合在第一位置处捕获的数字图像以形成家庭的交互式表示的一部分,所述家庭的交互式表示的一部分表示在第一位置处的家庭的视图。
9.根据权利要求6-8中任一项所述的机器人,其中:
控制器被配置为操作驱动器以沿着通过所述位置的路径导航机器人,同时操作相机以捕获家庭的数字图像,以及
所述无线收发器被配置为将数字图像发送到处理器以组合沿着路径捕获的数字图像,以形成沿着能够在家庭的交互式表示中呈现的路径的家庭的一系列视图。
10.根据权利要求1-9中任一项所述的机器人,还包括用于检测家庭内的物体的传感器系统,其中,所述控制器被配置为操作驱动器以将机器人导航到家庭内的位置,同时基于检测到的物体定位机器人的姿势。
11.根据权利要求1-10中任一项所述的机器人,还包括与无线网络通信的无线收发器,其中,所述控制器被配置为操作驱动器以将机器人导航到家庭内的位置,同时基于由无线收发器接收的信号定位机器人的姿势。
12.根据权利要求1-11中任一项所述的机器人,其中,所述控制器被配置为基于家庭中物体的位置将可变高度构件调节到一高度。
13.根据权利要求1-12中任一项所述的机器人,还包括与无线网络通信的无线收发器,以接收表示用户选择第一位置的数据,以及表示用户选择将可变高度构件设置在第一位置处的一个或多个高度的数据,
其中,所述控制器被配置为
操作驱动器以将机器人导航到所述第一位置,以及
在将可变高度构件设置到所述一个或多个高度中的每一个时,在所述第一位置处操作相机以捕获数字图像。
14.根据权利要求13所述的机器人,其中,表示用户选择所述一个或多个高度的数据包括表示用户选择选自可变高度构件的多个预定高度中的高度的数据。
15.根据权利要求1-14中任一项所述的机器人,其中,所述控制器被配置为在第一位置旋转机器人,同时操作相机以在所述第一位置处捕获跨越高达360度的数字图像,跨越高达360度的所述数字图像包括4到1000个图像。
16.根据权利要求1-15中任一项所述的机器人,其中:
所述控制器被配置为在第一位置处旋转机器人到多个预定取向,同时操作相机以在第一位置处捕获跨越高达360度的数字图像,以及
所述数字图像包括在每个预定取向上捕获并以不同曝光水平捕获的多个图像。
17.根据权利要求1-16中任一项所述的机器人,还包括与无线网络通信的无线收发器,以接收表示用户选择每个位置和包括每个位置的路线的数据。
18.根据权利要求1-17中任一项所述的机器人,还包括光学检测器,其中,所述控制器被配置为操作驱动器以在一位置处旋转机器人,以使用光学检测器检测家庭内的光并存储表示检测到的光的数据,并操作驱动器以在该位置旋转机器人以使用相机捕获数字图像,同时基于表示检测到的光的数据控制图像捕获。
19.根据权利要求1-18中任一项所述的机器人,还包括无线收发器,其能够由控制器操作并且被配置为与无线网络通信,使得数字图像能够传输到远程计算设备,远程计算设备能够操作以响应于表示远程计算设备上的用户输入的数据,而在用户显示器上呈现实况视频馈送。
20.根据权利要求19所述的机器人,其中,表示用户输入的数据还包括表示用户选择一个位置的的数据,实况视频馈送包括在所述一个位置处的家庭的表示。
21.一种方法,包括:
接收表示由自主移动机器人上的相机捕获并在远程计算设备的显示器上呈现的家庭的数字图像的数据;
确定家庭中用户选择的位置在家庭中的地板表面的至少一部分上方;以及
使得机器人上的相机被朝向用户选择的位置重定向,同时捕获附加的数字图像并将其呈现在显示器上。
22.根据权利要求21所述的方法,还包括:
确定另一个用户选择的位置在地板表面的一部分上;以及
使得机器人朝向另一个用户选择的位置导航,同时捕获并呈现附加的数字图像。
23.根据权利要求22所述的方法,其中:
使得相机朝向用户选择的位置重定向包括使得指示相机的操作的指示符呈现在与用户选择的位置相对应的数字图像的一部分附近;以及
使得机器人朝向另一个用户选择的位置导航包括使得指示机器人的移动的指示符呈现在数字图像的另一部分附近。
24.根据权利要求21或22所述的方法,其中:
使得相机朝向用户选择的位置重定向包括使得指示相机的操作的指示符呈现在与用户选择的位置相对应的数字图像的一部分附近。
25.根据权利要求24所述的方法,还包括在捕获和呈现附加数字图像时使得指示符的位置被更新。
26.根据权利要求21-25中任一项所述的方法,其中,确定用户选择的位置在家庭中的地板表面的至少一部分上方包括确定用户选择的位置在地板表面上方。
27.根据权利要求26所述的方法,其中,确定用户选择的位置在地板表面上方包括确定由相机的位置和用户选择的位置定义的矢量不与地板表面相交。
28.根据权利要求21-27中任一项所述的方法,其中,确定用户选择的位置在家庭中的地板表面的至少一部分上方包括确定机器人上的相机与用户选择的位置之间的距离高于预定阈值距离。
Applications Claiming Priority (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201662279560P | 2016-01-15 | 2016-01-15 | |
US62/279,560 | 2016-01-15 | ||
US201662375842P | 2016-08-16 | 2016-08-16 | |
US62/375,842 | 2016-08-16 | ||
PCT/US2017/013195 WO2017123761A1 (en) | 2016-01-15 | 2017-01-12 | Autonomous monitoring robot systems |
Publications (2)
Publication Number | Publication Date |
---|---|
CN108885436A true CN108885436A (zh) | 2018-11-23 |
CN108885436B CN108885436B (zh) | 2021-12-14 |
Family
ID=59311519
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201780017209.0A Active CN108885436B (zh) | 2016-01-15 | 2017-01-12 | 自主监视机器人系统 |
Country Status (4)
Country | Link |
---|---|
US (3) | US10471611B2 (zh) |
EP (1) | EP3403146A4 (zh) |
CN (1) | CN108885436B (zh) |
WO (1) | WO2017123761A1 (zh) |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110346429A (zh) * | 2019-07-15 | 2019-10-18 | 北京海益同展信息科技有限公司 | 巡检设备和巡检方法 |
US20200001475A1 (en) * | 2016-01-15 | 2020-01-02 | Irobot Corporation | Autonomous monitoring robot systems |
CN111551184A (zh) * | 2020-03-27 | 2020-08-18 | 上海大学 | 一种移动机器人slam的地图优化方法及系统 |
CN111866472A (zh) * | 2020-08-04 | 2020-10-30 | 江苏省华海消防工程安装有限公司 | 一种消防监控管理系统及消防监控控制方法 |
CN112060054A (zh) * | 2020-09-28 | 2020-12-11 | 上海城建信息科技有限公司 | 隧道轨行式安全巡检机器人及其系统 |
US20210241902A1 (en) * | 2002-07-25 | 2021-08-05 | Teladoc Health, Inc. | Medical tele-robotic system with a master remote station with an arbitrator |
Families Citing this family (55)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10782686B2 (en) * | 2016-01-28 | 2020-09-22 | Savioke, Inc. | Systems and methods for operating robots including the handling of delivery operations that cannot be completed |
US10052764B2 (en) * | 2016-06-16 | 2018-08-21 | Toyota Motor Engineering & Manufacutring North America, Inc. | Automated and adjustable platform surface |
US10643089B2 (en) | 2016-10-13 | 2020-05-05 | Ricoh Company, Ltd. | Information processing system to obtain and manage images of a property |
US10732127B2 (en) * | 2016-10-26 | 2020-08-04 | Pixart Imaging Inc. | Dirtiness level determining system and surface cleaning machine |
US10275815B2 (en) * | 2017-02-14 | 2019-04-30 | Thomas Danaher Harvey | Methods for sample presentation using autonomous vehicles |
KR20180096078A (ko) * | 2017-02-20 | 2018-08-29 | 엘지전자 주식회사 | 모듈형 가정용 로봇 |
KR102235271B1 (ko) * | 2017-02-27 | 2021-04-01 | 엘지전자 주식회사 | 이동 로봇 및 그 제어방법 |
WO2018184675A1 (en) * | 2017-04-05 | 2018-10-11 | Telefonaktiebolaget Lm Ericsson (Publ) | Illuminating an environment for localisation |
US11119476B2 (en) | 2017-07-26 | 2021-09-14 | Clearpath Robotics Inc. | Systems and methods for monitoring a self driving vehicle |
US10918252B2 (en) | 2017-07-27 | 2021-02-16 | Neato Robotics, Inc. | Dirt detection layer and laser backscatter dirt detection |
DE102017120050A1 (de) * | 2017-08-31 | 2019-02-28 | Krones Ag | Verfahren zum Planen von Verpackungsanlagen |
CN111093447B (zh) | 2017-09-26 | 2022-09-02 | 伊莱克斯公司 | 机器人清洁设备的移动控制 |
WO2019081030A1 (en) * | 2017-10-26 | 2019-05-02 | Aktiebolaget Electrolux | USE OF INCREASED REALITY FOR EXCHANGING SPATIAL INFORMATION WITH A ROBOTIC CLEANING DEVICE |
KR102370493B1 (ko) * | 2017-10-30 | 2022-03-04 | 현대자동차주식회사 | 로봇을 이용한 공유 모빌리티 시스템 및 제어방법 |
CN109830998A (zh) * | 2017-11-23 | 2019-05-31 | 富泰华工业(深圳)有限公司 | 回充装置 |
US10638906B2 (en) * | 2017-12-15 | 2020-05-05 | Neato Robotics, Inc. | Conversion of cleaning robot camera images to floorplan for user interaction |
CN109976324B (zh) * | 2017-12-27 | 2022-06-28 | 深圳市优必选科技有限公司 | 控制机器人充电的方法、机器人及计算机可读存储介质 |
US11413755B2 (en) * | 2017-12-31 | 2022-08-16 | Sarcos Corp. | Covert identification tags viewable by robots and robotic devices |
US10878294B2 (en) * | 2018-01-05 | 2020-12-29 | Irobot Corporation | Mobile cleaning robot artificial intelligence for situational awareness |
US11144051B2 (en) | 2018-02-28 | 2021-10-12 | Clearpath Robotics Inc. | Systems and methods for remote viewing of self-driving vehicles |
KR102454440B1 (ko) | 2018-03-14 | 2022-10-14 | 삼성전자주식회사 | 전자 장치 및 그 동작 방법 |
EP3547059B1 (de) * | 2018-03-29 | 2023-11-22 | Alberto De la Rúa Lope | Verfahren zur steuerung unbemannter fahrzeuge |
AU2018203338B2 (en) * | 2018-05-14 | 2020-06-25 | Deutsche Post Ag | Autonomous robot vehicle |
KR20190141303A (ko) * | 2018-06-14 | 2019-12-24 | 엘지전자 주식회사 | 이동 로봇의 동작 방법 |
JP7052583B2 (ja) * | 2018-06-15 | 2022-04-12 | 株式会社デンソーウェーブ | 監視システム |
KR102667645B1 (ko) * | 2018-09-21 | 2024-05-22 | 삼성전자 주식회사 | 복수의 전자 장치들을 연동하여 알림을 제공하는 방법 및 장치 |
US11747825B2 (en) * | 2018-10-12 | 2023-09-05 | Boston Dynamics, Inc. | Autonomous map traversal with waypoint matching |
KR102018832B1 (ko) * | 2018-11-29 | 2019-11-04 | 주식회사 트위니 | 자율주행 카트 |
CN110166472B (zh) * | 2019-05-29 | 2021-06-22 | 国网信息通信产业集团有限公司 | 一种巡检数据传输方法、巡检机器人及巡检系统 |
WO2020241938A1 (ko) * | 2019-05-31 | 2020-12-03 | (주)바램시스템 | 이동형 스마트 홈 모니터링 로봇의 모니터링 장치 |
US11416002B1 (en) * | 2019-06-11 | 2022-08-16 | Ambarella International Lp | Robotic vacuum with mobile security function |
WO2020262712A1 (ko) * | 2019-06-24 | 2020-12-30 | 엘지전자 주식회사 | 영상 디스플레이 방법 및 이를 구현하는 이동 로봇 |
EP3763272B1 (de) * | 2019-07-11 | 2023-05-24 | Vorwerk & Co. Interholding GmbH | Basisstation zum anschliessen eines reinigungsgeräts und verfahren zum betreiben eines reinigungssystems |
EP4010659A1 (en) | 2019-08-06 | 2022-06-15 | Boston Dynamics, Inc. | Intermediate waypoint generator |
WO2021025715A1 (en) * | 2019-08-07 | 2021-02-11 | Boston Dynamics, Inc. | Navigating a mobile robot |
US11249482B2 (en) | 2019-08-09 | 2022-02-15 | Irobot Corporation | Mapping for autonomous mobile robots |
US11958183B2 (en) | 2019-09-19 | 2024-04-16 | The Research Foundation For The State University Of New York | Negotiation-based human-robot collaboration via augmented reality |
US11327483B2 (en) | 2019-09-30 | 2022-05-10 | Irobot Corporation | Image capture devices for autonomous mobile robots and related systems and methods |
US11467585B2 (en) * | 2019-11-08 | 2022-10-11 | Irobot Corporation | Control of autonomous mobile robots |
US11520938B2 (en) * | 2019-12-02 | 2022-12-06 | Lenovo (Singapore) Pte. Ltd. | Root level controls to enable privacy mode for device cameras |
US20210197377A1 (en) * | 2019-12-26 | 2021-07-01 | X Development Llc | Robot plan online adjustment |
CN113561171B (zh) * | 2020-01-05 | 2023-03-24 | 牧今科技 | 具有动态运动调整机制的机器人系统及其操作方法 |
KR20210096523A (ko) * | 2020-01-28 | 2021-08-05 | 엘지전자 주식회사 | 로봇의 위치 인식 |
US11571813B2 (en) | 2020-02-28 | 2023-02-07 | Irobot Corporation | Systems and methods for managing a semantic map in a mobile robot |
KR20210127558A (ko) * | 2020-04-14 | 2021-10-22 | 한국전자통신연구원 | 멀티 에이전트 기반 유무인 협업 시스템 및 방법 |
US20210329447A1 (en) * | 2020-04-20 | 2021-10-21 | Guarded Horizons Inc. | System and method for operating a device |
US11927961B2 (en) | 2020-04-20 | 2024-03-12 | Boston Dynamics, Inc. | Constrained robot autonomy language |
US11712802B2 (en) | 2020-04-20 | 2023-08-01 | Boston Dynamics, Inc. | Construction constrained motion primitives from robot maps |
US11412133B1 (en) * | 2020-06-26 | 2022-08-09 | Amazon Technologies, Inc. | Autonomously motile device with computer vision |
CN112261305A (zh) * | 2020-09-24 | 2021-01-22 | 许继电源有限公司 | 一种巡检机器人智能辅助系统及其控制方法 |
CN112261258A (zh) * | 2020-10-20 | 2021-01-22 | 深圳信息职业技术学院 | 一种图像识别数据采集设备 |
US11577380B2 (en) | 2021-01-12 | 2023-02-14 | Irobot Corporation | Systems and methods for privacy management in an autonomous mobile robot |
US11793379B2 (en) | 2021-03-26 | 2023-10-24 | Irobot Corporation | Floor and air cleaning systems and related methods |
US11940800B2 (en) | 2021-04-23 | 2024-03-26 | Irobot Corporation | Navigational control of autonomous cleaning robots |
US20230106617A1 (en) * | 2021-09-29 | 2023-04-06 | Johnson Controls Tyco IP Holdings LLP | Systems and methods for randomized autonomous robot security applications |
Citations (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20040019406A1 (en) * | 2002-07-25 | 2004-01-29 | Yulun Wang | Medical tele-robotic system |
US20110218674A1 (en) * | 2010-03-04 | 2011-09-08 | David Stuart | Remote presence system including a cart that supports a robot face and an overhead camera |
US20130231779A1 (en) * | 2012-03-01 | 2013-09-05 | Irobot Corporation | Mobile Inspection Robot |
US20130326839A1 (en) * | 2012-06-08 | 2013-12-12 | Lg Electronics Inc. | Robot cleaner, controlling method of the same, and robot cleaning system |
CN103459099A (zh) * | 2011-01-28 | 2013-12-18 | 英塔茨科技公司 | 与一个可移动的远程机器人相互交流 |
CN103926912A (zh) * | 2014-05-07 | 2014-07-16 | 桂林赛普电子科技有限公司 | 一种基于家庭服务机器人的智能家庭监控系统 |
US20140247116A1 (en) * | 2011-11-11 | 2014-09-04 | Bar Code Specialties, Inc. (Dba Bcs Solutions) | Robotic inventory systems |
CN104142643A (zh) * | 2014-07-15 | 2014-11-12 | 深圳奇沃智联科技有限公司 | 应用影像监控机器人之监控系统 |
CN104144326A (zh) * | 2014-07-15 | 2014-11-12 | 深圳奇沃智联科技有限公司 | 具影像辨识及自动巡逻路径设定的机器人监视系统 |
CN104470685A (zh) * | 2013-01-18 | 2015-03-25 | 艾罗伯特公司 | 提供用于家庭环境控制的环境绘图的移动机器人 |
CN104647340A (zh) * | 2015-02-09 | 2015-05-27 | 广州映博智能科技有限公司 | 一种多功能移动机器人 |
CN104772760A (zh) * | 2014-01-15 | 2015-07-15 | 精工爱普生株式会社 | 机器人、机器人系统、机器人控制装置以及机器人控制方法 |
Family Cites Families (260)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6337552B1 (en) | 1999-01-20 | 2002-01-08 | Sony Corporation | Robot apparatus |
JPS60246966A (ja) * | 1984-05-22 | 1985-12-06 | トヨタ自動車株式会社 | 自動車の盗難検知装置 |
US4815757A (en) * | 1986-04-24 | 1989-03-28 | Hamilton Mark L | Rapid development surveillance vehicle and method |
US4777416A (en) | 1986-05-16 | 1988-10-11 | Denning Mobile Robotics, Inc. | Recharge docking system for mobile robot |
US4857912A (en) | 1988-07-27 | 1989-08-15 | The United States Of America As Represented By The Secretary Of The Navy | Intelligent security assessment system |
US5473368A (en) * | 1988-11-29 | 1995-12-05 | Hart; Frank J. | Interactive surveillance device |
US5084828A (en) | 1989-09-29 | 1992-01-28 | Healthtech Services Corp. | Interactive medication delivery system |
JP2921936B2 (ja) | 1990-07-13 | 1999-07-19 | 株式会社東芝 | 画像監視装置 |
US5448696A (en) | 1990-11-30 | 1995-09-05 | Hitachi, Ltd. | Map information system capable of displaying layout information |
US5201814A (en) | 1992-01-23 | 1993-04-13 | Conoco Inc. | Breakaway coupling device |
US6072489A (en) * | 1993-05-10 | 2000-06-06 | Apple Computer, Inc. | Method and apparatus for providing translucent images on a computer display |
US5475378A (en) * | 1993-06-22 | 1995-12-12 | Canada Post Corporation | Electronic access control mail box system |
US5905653A (en) * | 1994-07-14 | 1999-05-18 | Omnicell Technologies, Inc. | Methods and devices for dispensing pharmaceutical and medical supply items |
US5634237A (en) * | 1995-03-29 | 1997-06-03 | Paranjpe; Ajit P. | Self-guided, self-propelled, convertible cleaning apparatus |
US5835022A (en) * | 1995-08-02 | 1998-11-10 | Nissan Motor Co., Ltd. | Keyless entry system |
JP3369368B2 (ja) | 1995-10-11 | 2003-01-20 | 富士通株式会社 | 画像処理装置 |
US5793900A (en) | 1995-12-29 | 1998-08-11 | Stanford University | Generating categorical depth maps using passive defocus sensing |
US6208379B1 (en) | 1996-02-20 | 2001-03-27 | Canon Kabushiki Kaisha | Camera display control and monitoring system |
US5732401A (en) | 1996-03-29 | 1998-03-24 | Intellitecs International Ltd. | Activity based cost tracking systems |
US6529234B2 (en) | 1996-10-15 | 2003-03-04 | Canon Kabushiki Kaisha | Camera control system, camera server, camera client, control method, and storage medium |
US5780787A (en) * | 1996-10-31 | 1998-07-14 | Otis Elevator Company | Monitoring of manual elevator door systems |
US5808663A (en) | 1997-01-21 | 1998-09-15 | Dell Computer Corporation | Multimedia carousel for video conferencing and multimedia presentation applications |
US6914622B1 (en) | 1997-05-07 | 2005-07-05 | Telbotics Inc. | Teleconferencing robot with swiveling video monitor |
US20120159597A1 (en) | 1997-07-01 | 2012-06-21 | Thomas C Douglass | Methods for remote monitoring and control of security devices over a computer network |
US6198537B1 (en) * | 1997-07-11 | 2001-03-06 | Philip Morris Incorporated | Optical inspection system for the manufacture of banded cigarette paper |
JPH11104984A (ja) * | 1997-10-06 | 1999-04-20 | Fujitsu Ltd | 実環境情報表示装置及び実環境情報表示処理を実行するプログラムを記録したコンピュータ読み取り可能な記録媒体 |
EP1049964B1 (fr) | 1997-11-27 | 2002-03-13 | Solar & Robotics | Ameliorations a des robots mobiles et a leur systeme de commande |
US6532404B2 (en) | 1997-11-27 | 2003-03-11 | Colens Andre | Mobile robots and their control system |
US20020097322A1 (en) | 2000-11-29 | 2002-07-25 | Monroe David A. | Multiple video display configurations and remote control of multiple video signals transmitted to a monitoring station over a network |
US7612999B2 (en) | 1998-09-18 | 2009-11-03 | Flo Healthcare Solutions, Llc | Mobile clinical workstation |
US6513046B1 (en) | 1999-12-15 | 2003-01-28 | Tangis Corporation | Storing and recalling information to augment human memories |
EP1092514A4 (en) | 1999-01-07 | 2007-05-23 | Sony Corp | MACHINE, ITS CONTROL METHOD AND RECORDING MEDIUM |
US20030167403A1 (en) | 1999-03-02 | 2003-09-04 | Mccurley Kevin Snow | Secure user-level tunnels on the internet |
US6454708B1 (en) | 1999-04-15 | 2002-09-24 | Nexan Limited | Portable remote patient telemonitoring system using a memory card or smart card |
US6445978B1 (en) | 1999-05-10 | 2002-09-03 | Sony Corporation | Robot device and method for controlling the same |
JP4512963B2 (ja) | 1999-05-10 | 2010-07-28 | ソニー株式会社 | ロボット装置及びその制御方法 |
US6292713B1 (en) | 1999-05-20 | 2001-09-18 | Compaq Computer Corporation | Robotic telepresence system |
ATE268196T1 (de) | 1999-06-17 | 2004-06-15 | Solar & Robotics S A | Automatische vorrichtung zum sammeln von gegenständen |
AU6171200A (en) * | 1999-08-10 | 2001-03-05 | Peter Mcduffie White | Communications system |
JP2001191276A (ja) | 1999-10-29 | 2001-07-17 | Sony Corp | ロボットシステム、ロボット装置及びその外装 |
US6548982B1 (en) | 1999-11-19 | 2003-04-15 | Regents Of The University Of Minnesota | Miniature robotic vehicles and methods of controlling same |
US20010026248A1 (en) * | 1999-11-30 | 2001-10-04 | Andrew Goren | Method and apparatus for providing visual display security |
KR20010101883A (ko) | 1999-11-30 | 2001-11-15 | 이데이 노부유끼 | 로봇 장치와 그 제어 방법, 및 로봇 장치의 성격 판별 방법 |
JP2001188555A (ja) | 1999-12-28 | 2001-07-10 | Sony Corp | 情報処理装置および方法、並びに記録媒体 |
JP2001191283A (ja) | 1999-12-31 | 2001-07-17 | Sony Corp | ロボット装置及びその制御方法 |
US8412377B2 (en) | 2000-01-24 | 2013-04-02 | Irobot Corporation | Obstacle following sensor scheme for a mobile robot |
US7155308B2 (en) | 2000-01-24 | 2006-12-26 | Irobot Corporation | Robot obstacle detection system |
US6594844B2 (en) | 2000-01-24 | 2003-07-22 | Irobot Corporation | Robot obstacle detection system |
US6509926B1 (en) | 2000-02-17 | 2003-01-21 | Sensormatic Electronics Corporation | Surveillance apparatus for camera surveillance system |
US6845297B2 (en) * | 2000-05-01 | 2005-01-18 | Irobot Corporation | Method and system for remote control of mobile robot |
JP5306566B2 (ja) * | 2000-05-01 | 2013-10-02 | アイロボット コーポレーション | 移動ロボットを遠隔操作するための方法およびシステム |
US6539284B2 (en) | 2000-07-25 | 2003-03-25 | Axonn Robotics, Llc | Socially interactive autonomous robot |
AU2001283502A1 (en) | 2000-07-26 | 2002-02-05 | Livewave, Inc. | Methods and systems for networked camera control |
JP2002046088A (ja) | 2000-08-03 | 2002-02-12 | Matsushita Electric Ind Co Ltd | ロボット装置 |
EP1315087A4 (en) | 2000-08-28 | 2006-07-26 | Sony Corp | COMMUNICATION DEVICE AND METHOD, NETWORK SYSTEM, AND ROBOTIC DEVICE |
JP2002085305A (ja) | 2000-09-12 | 2002-03-26 | Toshiba Tec Corp | ロボットクリーナ及びロボットクリーナシステム |
JP2002262282A (ja) * | 2000-10-05 | 2002-09-13 | Hitachi Denshi Technosystem Kk | 画像監視方法及び画像監視装置 |
EP1327504B1 (en) | 2000-10-13 | 2018-05-02 | Sony Corporation | Robot device and behavior control method for robot device |
SE0004465D0 (sv) | 2000-12-04 | 2000-12-04 | Abb Ab | Robot system |
US6658325B2 (en) | 2001-01-16 | 2003-12-02 | Stephen Eliot Zweig | Mobile robotic with web server and digital radio links |
US7571511B2 (en) | 2002-01-03 | 2009-08-11 | Irobot Corporation | Autonomous floor-cleaning robot |
US6690134B1 (en) | 2001-01-24 | 2004-02-10 | Irobot Corporation | Method and system for robot localization and confinement |
US6883201B2 (en) | 2002-01-03 | 2005-04-26 | Irobot Corporation | Autonomous floor-cleaning robot |
US20020128746A1 (en) | 2001-02-27 | 2002-09-12 | International Business Machines Corporation | Apparatus, system and method for a remotely monitored and operated avatar |
US7206753B2 (en) | 2001-05-04 | 2007-04-17 | Axxon Robotics, Llc | Methods for facilitating a retail environment |
US7242306B2 (en) | 2001-05-08 | 2007-07-10 | Hill-Rom Services, Inc. | Article locating and tracking apparatus and method |
WO2002096184A1 (fr) | 2001-05-28 | 2002-12-05 | Solar & Robotics Sa | Amelioration a une tondeuse robotique |
CA2416621C (en) | 2001-06-12 | 2006-09-12 | Irobot Corporation | Method and system for multi-mode coverage for an autonomous robot |
US7663333B2 (en) | 2001-06-12 | 2010-02-16 | Irobot Corporation | Method and system for multi-mode coverage for an autonomous robot |
US7216173B2 (en) | 2001-06-12 | 2007-05-08 | Varian Medical Systems Technologies, Inc. | Virtual private network software system |
US20030037250A1 (en) | 2001-06-29 | 2003-02-20 | Doodlebug Online, Inc. | System and method for securely accessing data on content servers using dual encrypted paths from a central authorization host |
JP3900870B2 (ja) | 2001-08-07 | 2007-04-04 | オムロン株式会社 | 情報収集装置、情報収集方法、および情報収集システム |
JP4396273B2 (ja) | 2001-10-22 | 2010-01-13 | ソニー株式会社 | ロボット装置及びその制御方法 |
GB0126499D0 (en) | 2001-11-03 | 2002-01-02 | Dyson Ltd | An autonomous machine |
US20050101841A9 (en) | 2001-12-04 | 2005-05-12 | Kimberly-Clark Worldwide, Inc. | Healthcare networks with biosensors |
US7315821B2 (en) | 2002-01-31 | 2008-01-01 | Sanyo Electric Co., Ltd. | System and method for health care information processing based on acoustic features |
US6784916B2 (en) | 2002-02-11 | 2004-08-31 | Telbotics Inc. | Video conferencing apparatus |
US6732015B2 (en) | 2002-03-14 | 2004-05-04 | Kabushiki Kaisha Toshiba | Robot system |
US6652164B2 (en) | 2002-03-28 | 2003-11-25 | Pelco | Retractable camera mounting mechanism |
JP3910871B2 (ja) | 2002-03-28 | 2007-04-25 | 株式会社東芝 | ロボット及びロボットの視野制御方法 |
JP2003296855A (ja) | 2002-03-29 | 2003-10-17 | Toshiba Corp | 監視装置 |
AUPS159302A0 (en) * | 2002-04-09 | 2002-05-16 | Haski, Robert R. | Water skimmer |
JP3733924B2 (ja) | 2002-04-30 | 2006-01-11 | オムロン株式会社 | 撮像装置、撮像システム、撮像装置の制御方法 |
WO2003096054A2 (en) | 2002-05-10 | 2003-11-20 | Honda Giken Kogyo Kabushiki Kaisha | Real-time target tracking of an unpredictable target amid unknown obstacles |
JP2003340759A (ja) | 2002-05-20 | 2003-12-02 | Sony Corp | ロボット装置およびロボット制御方法、記録媒体、並びにプログラム |
JP4448024B2 (ja) * | 2002-05-31 | 2010-04-07 | 富士通株式会社 | 遠隔操作ロボットおよびロボット自己位置同定方法 |
DE10224816A1 (de) | 2002-06-05 | 2003-12-24 | Philips Intellectual Property | Eine mobile Einheit und ein Verfahren zur Steuerung einer mobilen Einheit |
US7593030B2 (en) | 2002-07-25 | 2009-09-22 | Intouch Technologies, Inc. | Tele-robotic videoconferencing in a corporate environment |
US20040162637A1 (en) | 2002-07-25 | 2004-08-19 | Yulun Wang | Medical tele-robotic system with a master remote station with an arbitrator |
GB0218188D0 (en) | 2002-08-06 | 2002-09-11 | Hewlett Packard Co | Methods and arrangements applicable to exhibition spaces |
JP3996015B2 (ja) | 2002-08-09 | 2007-10-24 | 本田技研工業株式会社 | 姿勢認識装置及び自律ロボット |
JP4072033B2 (ja) | 2002-09-24 | 2008-04-02 | 本田技研工業株式会社 | 受付案内ロボット装置 |
EP2557469A1 (en) | 2002-10-01 | 2013-02-13 | Fujitsu Limited | Robot |
CN1647124A (zh) * | 2002-10-04 | 2005-07-27 | 富士通株式会社 | 机器人系统和自主移动机器人 |
US7200427B2 (en) | 2002-11-26 | 2007-04-03 | Ge Medical Systems Information Technologies, Inc. | Computer-equipped mobility device for connecting to a network |
JP3885019B2 (ja) | 2002-11-29 | 2007-02-21 | 株式会社東芝 | セキュリティシステム及び移動ロボット |
US7177737B2 (en) * | 2002-12-17 | 2007-02-13 | Evolution Robotics, Inc. | Systems and methods for correction of drift via global localization with a visual landmark |
US20050009469A1 (en) | 2002-12-20 | 2005-01-13 | Sakari Kotola | Client software download in bluetooth device bonding |
KR100506533B1 (ko) | 2003-01-11 | 2005-08-05 | 삼성전자주식회사 | 이동로봇 및 그에 따른 자율주행 시스템 및 방법 |
US7388981B2 (en) | 2003-02-27 | 2008-06-17 | Hewlett-Packard Development Company, L.P. | Telepresence system with automatic preservation of user head size |
US7262573B2 (en) | 2003-03-06 | 2007-08-28 | Intouch Technologies, Inc. | Medical tele-robotic system with a head worn device |
US7593546B2 (en) | 2003-03-11 | 2009-09-22 | Hewlett-Packard Development Company, L.P. | Telepresence system with simultaneous automatic preservation of user height, perspective, and vertical gaze |
JP2004299025A (ja) | 2003-04-01 | 2004-10-28 | Honda Motor Co Ltd | 移動ロボット制御装置、移動ロボット制御方法及び移動ロボット制御プログラム |
FI115414B (fi) * | 2003-07-03 | 2005-04-29 | Sandvik Tamrock Oy | Järjestely kaivosajoneuvon sijainnin valvontaan kaivoksessa |
GB2404466B (en) | 2003-07-31 | 2007-07-18 | Hewlett Packard Development Co | Method and apparatus for providing information about a real-world space |
JPWO2005015466A1 (ja) | 2003-08-07 | 2006-10-05 | 松下電器産業株式会社 | 生活支援システム及びその制御用プログラム |
US7624438B2 (en) | 2003-08-20 | 2009-11-24 | Eric White | System and method for providing a secure connection between networked computers |
US20070061041A1 (en) | 2003-09-02 | 2007-03-15 | Zweig Stephen E | Mobile robot with wireless location sensing apparatus |
JP2005088801A (ja) * | 2003-09-18 | 2005-04-07 | Denso Corp | 情報処理システム |
JP2005088179A (ja) | 2003-09-22 | 2005-04-07 | Honda Motor Co Ltd | 自律移動ロボットシステム |
US7484391B1 (en) * | 2003-09-24 | 2009-02-03 | Moore Gregory B | Door lock system for trailers and cargo containers |
JP2005103679A (ja) | 2003-09-29 | 2005-04-21 | Toshiba Corp | ロボット装置 |
US7813836B2 (en) | 2003-12-09 | 2010-10-12 | Intouch Technologies, Inc. | Protocol for a remotely controlled videoconferencing robot |
JP2005193331A (ja) | 2004-01-06 | 2005-07-21 | Sony Corp | ロボット装置及びその情動表出方法 |
JP4244812B2 (ja) | 2004-01-16 | 2009-03-25 | ソニー株式会社 | 行動制御システム及びロボット装置の行動制御方法 |
US7332890B2 (en) | 2004-01-21 | 2008-02-19 | Irobot Corporation | Autonomous robot auto-docking and energy management systems and methods |
JP2005211359A (ja) | 2004-01-30 | 2005-08-11 | Funai Electric Co Ltd | 自律走行ロボットクリーナーシステム |
JP4257230B2 (ja) | 2004-02-26 | 2009-04-22 | 株式会社東芝 | 移動ロボット |
ATE524783T1 (de) | 2004-03-27 | 2011-09-15 | Harvey Koselka | Autonomer persönlicher dienstroboter |
DE112005000738T5 (de) * | 2004-03-29 | 2007-04-26 | Evolution Robotics, Inc., Pasadena | Verfahren und Vorrichtung zur Positionsbestimmung unter Verwendung von reflektierten Lichtquellen |
JP2005288646A (ja) | 2004-04-01 | 2005-10-20 | Toshiba Corp | ロボット |
US7940932B2 (en) | 2004-04-08 | 2011-05-10 | Texas Instruments Incorporated | Methods, apparatus, and systems for securing SIM (subscriber identity module) personalization and other data on a first processor and secure communication of the SIM data to a second processor |
JP2005324297A (ja) | 2004-05-17 | 2005-11-24 | Matsushita Electric Ind Co Ltd | ロボット |
US7526792B2 (en) | 2004-06-09 | 2009-04-28 | Intel Corporation | Integration of policy compliance enforcement and device authentication |
US8065408B2 (en) | 2004-06-30 | 2011-11-22 | Nokia, Inc. | Method and system for dynamic device address management |
US7706917B1 (en) | 2004-07-07 | 2010-04-27 | Irobot Corporation | Celestial navigation system for an autonomous robot |
US7702420B2 (en) | 2004-07-07 | 2010-04-20 | Panasonic Corporation | Method for making mobile unit accompany objective person |
JP3992026B2 (ja) | 2004-07-09 | 2007-10-17 | 船井電機株式会社 | 自走ロボット |
US8077963B2 (en) | 2004-07-13 | 2011-12-13 | Yulun Wang | Mobile robot with a head-based movement mapping scheme |
WO2006012524A2 (en) | 2004-07-23 | 2006-02-02 | Vicon Industries Inc. | Surveillance camera system |
US20060052676A1 (en) | 2004-09-07 | 2006-03-09 | Yulun Wang | Tele-presence system that allows for remote monitoring/observation and review of a patient and their medical records |
US7500795B2 (en) * | 2004-09-09 | 2009-03-10 | Paul Sandhu | Apparatuses, systems and methods for enhancing telemedicine, video-conferencing, and video-based sales |
US7164118B2 (en) | 2004-10-29 | 2007-01-16 | Deere & Company | Method and system for obstacle detection |
JP2006155329A (ja) * | 2004-11-30 | 2006-06-15 | Toshiba Corp | 機器の制御方法及び装置 |
KR100636270B1 (ko) * | 2005-02-04 | 2006-10-19 | 삼성전자주식회사 | 홈 네트워크 시스템 및 그 제어방법 |
DE602006014364D1 (de) | 2005-02-18 | 2010-07-01 | Irobot Corp | Autonomer oberflächenreinigungsroboter für nass- und trockenreinigung |
US7389156B2 (en) | 2005-02-18 | 2008-06-17 | Irobot Corporation | Autonomous surface cleaning robot for wet and dry cleaning |
JP4266211B2 (ja) | 2005-03-23 | 2009-05-20 | 株式会社東芝 | ロボット装置、ロボット装置の移動方法、および、プログラム |
KR100696134B1 (ko) * | 2005-04-25 | 2007-03-22 | 엘지전자 주식회사 | 이동로봇의 위치 산출 시스템과 그를 이용한 충전대 복귀시스템 및 그 방법 |
US7436143B2 (en) | 2005-04-25 | 2008-10-14 | M-Bots, Inc. | Miniature surveillance robot |
US20060259193A1 (en) | 2005-05-12 | 2006-11-16 | Yulun Wang | Telerobotic system with a dual application screen presentation |
JP4455417B2 (ja) | 2005-06-13 | 2010-04-21 | 株式会社東芝 | 移動ロボット、プログラム及びロボット制御方法 |
US20140122116A1 (en) | 2005-07-06 | 2014-05-01 | Alan H. Smythe | System and method for providing audio data to assist in electronic medical records management |
US20070008918A1 (en) | 2005-07-08 | 2007-01-11 | Meshnetworks, Inc. | Application layer presentation of routing and link quality data adapted for use in controlling movement of moveable devices |
US20070060105A1 (en) | 2005-08-31 | 2007-03-15 | Puneet Batta | System and method for optimizing a wireless connection between wireless devices |
US7643051B2 (en) | 2005-09-09 | 2010-01-05 | Roy Benjamin Sandberg | Mobile video teleconferencing system and control method |
US9198728B2 (en) | 2005-09-30 | 2015-12-01 | Intouch Technologies, Inc. | Multi-camera mobile teleconferencing platform |
WO2007041295A2 (en) * | 2005-09-30 | 2007-04-12 | Irobot Corporation | Companion robot for personal interaction |
CA2837477C (en) * | 2005-10-14 | 2016-06-21 | Aethon, Inc. | Robotic ordering and delivery apparatuses, systems and methods |
US7769492B2 (en) | 2006-02-22 | 2010-08-03 | Intouch Technologies, Inc. | Graphical interface for a remote presence system |
US8326469B2 (en) * | 2006-07-14 | 2012-12-04 | Irobot Corporation | Autonomous behaviors for a remote vehicle |
US8843244B2 (en) * | 2006-10-06 | 2014-09-23 | Irobot Corporation | Autonomous behaviors for a remove vehicle |
US8996172B2 (en) * | 2006-09-01 | 2015-03-31 | Neato Robotics, Inc. | Distance sensor system and method |
WO2008127310A2 (en) * | 2006-11-13 | 2008-10-23 | Raytheon Sarcos Llc | Unmanned ground robotic vehicle having an alternatively extendible and retractable sensing appendage |
US8396250B2 (en) * | 2006-11-20 | 2013-03-12 | Adelaide Research & Innovation Pty Ltd | Network surveillance system |
US7866195B2 (en) * | 2007-05-25 | 2011-01-11 | Levine Jonathan E | Door lock indicator |
JP5151594B2 (ja) * | 2008-03-24 | 2013-02-27 | サクサ株式会社 | 物体検知装置 |
WO2009120301A2 (en) | 2008-03-25 | 2009-10-01 | Square Products Corporation | System and method for simultaneous media presentation |
KR20090120618A (ko) * | 2008-05-20 | 2009-11-25 | 주식회사 티이씨앤코 | 도어락의 배터리 용량 표시 기능을 갖는 홈 네트워크시스템 |
US8095239B2 (en) | 2008-09-29 | 2012-01-10 | North End Technologies, Inc | Method and apparatus for controlling the motion of a robotic device |
US20100079413A1 (en) * | 2008-09-29 | 2010-04-01 | Denso Corporation | Control device |
US20100118112A1 (en) | 2008-11-13 | 2010-05-13 | Polycom, Inc. | Group table top videoconferencing device |
JP2010182239A (ja) * | 2009-02-09 | 2010-08-19 | Denso Corp | プラグイン自動車管理システム |
JP5108837B2 (ja) * | 2009-07-13 | 2012-12-26 | クラリオン株式会社 | 車両用死角映像表示システムと車両用死角映像表示方法 |
US8378988B1 (en) * | 2010-01-19 | 2013-02-19 | Diebold, Incorporated | System controlled by data bearing records for permitting access |
US9400503B2 (en) * | 2010-05-20 | 2016-07-26 | Irobot Corporation | Mobile human interface robot |
US9321400B2 (en) * | 2010-06-15 | 2016-04-26 | Aisin Seiki Kabushiki Kaisha | Drive assist device |
US9507485B2 (en) * | 2010-09-27 | 2016-11-29 | Beijing Lenovo Software Ltd. | Electronic device, displaying method and file saving method |
EP2436827B1 (en) * | 2010-09-30 | 2015-06-10 | Electrolux Home Products Corporation N.V. | Home appliance having a control field and method for selecting and setting a program and program options |
KR20120043865A (ko) * | 2010-10-27 | 2012-05-07 | 주식회사 케이티 | 이동통신 단말의 위치정보를 활용한 로봇 인터랙션 서비스 제공 시스템, 방법 및 장치 |
KR20120044768A (ko) * | 2010-10-28 | 2012-05-08 | 엘지전자 주식회사 | 로봇 청소기 및 이의 제어 방법 |
CA2720886A1 (en) | 2010-11-12 | 2012-05-12 | Crosswing Inc. | Customizable virtual presence system |
US9094786B2 (en) * | 2011-02-24 | 2015-07-28 | At&T Intellectual Property I, L.P. | Devices, systems, and methods for presence determination |
US9283681B2 (en) * | 2011-03-31 | 2016-03-15 | Tobor Technology, Llc | Robotic vehicle systems for inspecting remote locations |
EP2710514A4 (en) * | 2011-05-18 | 2015-04-01 | Nextgenid Inc | REGISTRATION TERMINAL HAVING MULTIPLE BIOMETRIC APPARATUSES INCLUDING BIOMETRIC INSCRIPTION AND VERIFICATION SYSTEMS, FACIAL RECOGNITION AND COMPARISON OF FINGERPRINTS |
US20120323690A1 (en) * | 2011-06-15 | 2012-12-20 | Joseph Michael | Systems and methods for monitoring, managing, and facilitating location- and/or other criteria-dependent targeted communications and/or transactions |
US9582000B2 (en) | 2011-09-07 | 2017-02-28 | Lg Electronics Inc. | Robot cleaner, and system and method for remotely controlling the same |
US20130117867A1 (en) | 2011-11-06 | 2013-05-09 | Hei Tao Fung | Theft Prevention for Networked Robot |
US9269263B2 (en) * | 2012-02-24 | 2016-02-23 | Magna Electronics Inc. | Vehicle top clearance alert system |
KR101970962B1 (ko) * | 2012-03-19 | 2019-04-22 | 삼성전자주식회사 | 아기 감시 방법 및 장치 |
US8787902B2 (en) * | 2012-10-31 | 2014-07-22 | Irevo, Inc. | Method for mobile-key service |
US10015060B2 (en) * | 2013-03-08 | 2018-07-03 | Panasonic Intellectual Property Corporation Of America | Information sharing method that provides a graphical user interface image for sharing information relating to an application within a home among a plurality of users |
US9349238B2 (en) * | 2013-03-13 | 2016-05-24 | Pantry Retail, Inc. | Vending kit and method |
JP6364702B2 (ja) * | 2013-03-29 | 2018-08-01 | アイシン精機株式会社 | 画像表示制御装置、画像表示システム、および表示ユニット |
KR102061511B1 (ko) * | 2013-04-26 | 2020-01-02 | 삼성전자주식회사 | 청소 로봇, 홈 모니터링 장치 및 그 제어 방법 |
KR102231092B1 (ko) * | 2013-09-05 | 2021-03-24 | 삼성전자주식회사 | 제어 장치 |
US9452685B2 (en) * | 2013-09-30 | 2016-09-27 | Elwha Llc | Dwelling related information center associated with communication and control system and method for wireless electric vehicle electrical energy transfer |
US20150095115A1 (en) * | 2013-09-30 | 2015-04-02 | Elwha Llc | User interface to employment related information center associated with communication and control system and method for wireless electric vehicle electrical energy transfer |
US9900177B2 (en) * | 2013-12-11 | 2018-02-20 | Echostar Technologies International Corporation | Maintaining up-to-date home automation models |
EP3082005B1 (en) * | 2013-12-13 | 2019-06-12 | Toshiba Lifestyle Products & Services Corporation | Autonomously traveling electric cleaning device |
US10924603B1 (en) * | 2014-03-01 | 2021-02-16 | sigmund lindsay clements | Phone map used to find and operate multiuser devices |
US10708550B2 (en) * | 2014-04-08 | 2020-07-07 | Udisense Inc. | Monitoring camera and mount |
WO2015159407A1 (ja) * | 2014-04-17 | 2015-10-22 | 三菱電機株式会社 | 車載表示装置 |
KR101926052B1 (ko) * | 2014-05-12 | 2018-12-06 | 삼성에스디에스 주식회사 | 출입 관리 시스템 및 방법 |
JP5970026B2 (ja) * | 2014-07-04 | 2016-08-17 | フリュー株式会社 | 写真シール作成装置 |
KR101606162B1 (ko) * | 2014-11-10 | 2016-04-05 | 한국철도기술연구원 | 궤도차량 출입문 승하차 인식장치 및 방법 |
KR20160063131A (ko) * | 2014-11-26 | 2016-06-03 | 삼성전자주식회사 | 영상표시장치, 영상표시방법 및 컴퓨터 판독가능 기록매체 |
US9530058B2 (en) * | 2014-12-11 | 2016-12-27 | Toyota Motor Engineering & Manufacturing North America, Inc. | Visual-assist robots |
WO2016103938A1 (ja) * | 2014-12-22 | 2016-06-30 | 富士フイルム株式会社 | 投写型表示装置、電子機器、運転者視認画像共有方法、及び運転者視認画像共有プログラム |
RU2696613C2 (ru) * | 2015-02-27 | 2019-08-05 | Панасоник Интеллекчуал Проперти Корпорэйшн оф Америка | Способ генерации сигнала, модуль генерации сигнала и программа |
US10921896B2 (en) * | 2015-03-16 | 2021-02-16 | Facebook Technologies, Llc | Device interaction in augmented reality |
US9396599B1 (en) * | 2015-05-29 | 2016-07-19 | Google Inc. | Systems and methods for anticipatory locking and unlocking of a smart-sensor door lock |
KR102373719B1 (ko) * | 2015-06-29 | 2022-03-14 | 삼성전자 주식회사 | 복수의 구역들 중 일 구역의 기기를 제어하는 방법 및 이를 위한 장치 |
US10880470B2 (en) * | 2015-08-27 | 2020-12-29 | Accel Robotics Corporation | Robotic camera system |
US10603794B2 (en) * | 2015-08-27 | 2020-03-31 | Accel Robotics Corporation | Robotic camera system |
US9805533B2 (en) * | 2015-11-23 | 2017-10-31 | Suprema Inc. | Method and system for managing door access using beacon signal |
KR102409903B1 (ko) * | 2015-12-09 | 2022-06-16 | 삼성전자주식회사 | 사용자 정보를 제공하는 전자 장치 및 방법 |
KR20170078415A (ko) * | 2015-12-29 | 2017-07-07 | 삼성전자주식회사 | 도어락 제어 장치 및 방법 |
CN108885436B (zh) * | 2016-01-15 | 2021-12-14 | 美国iRobot公司 | 自主监视机器人系统 |
KR102441328B1 (ko) * | 2016-01-28 | 2022-09-08 | 삼성전자주식회사 | 이동 로봇이 전송한 화면을 표시하는 방법 및 그 전자장치 |
US10414052B2 (en) * | 2016-02-09 | 2019-09-17 | Cobalt Robotics Inc. | Building-integrated mobile robot |
US9852631B2 (en) * | 2016-03-04 | 2017-12-26 | Conduent Business Services, Llc | Mobile on-street parking occupancy detection |
CN108432242A (zh) * | 2016-05-10 | 2018-08-21 | Jvc 建伍株式会社 | 车辆用显示装置、车辆用显示方法以及程序 |
EP3468172A1 (en) * | 2016-06-02 | 2019-04-10 | Sony Corporation | Display control device, display control method, display device, and moving body device |
WO2017218234A1 (en) * | 2016-06-15 | 2017-12-21 | Irobot Corporation | Systems and methods to control an autonomous mobile robot |
TWI585283B (zh) * | 2016-06-24 | 2017-06-01 | Blue door lock system with emergency notification function and its operation method | |
US20180035606A1 (en) * | 2016-08-05 | 2018-02-08 | Romello Burdoucci | Smart Interactive and Autonomous Robotic Property Maintenance Apparatus, System, and Method |
US10272828B2 (en) * | 2016-08-16 | 2019-04-30 | Irobot Corporation | Light indicator system for an autonomous mobile robot |
JP6877115B2 (ja) * | 2016-09-27 | 2021-05-26 | 株式会社東海理化電機製作所 | 車両用視認装置 |
JP2018081945A (ja) * | 2016-11-14 | 2018-05-24 | ソニーセミコンダクタソリューションズ株式会社 | 固体撮像素子および製造方法、並びに電子機器 |
US20180225422A1 (en) * | 2017-02-03 | 2018-08-09 | Alexis Burt FELDMAN | Medication dispensing apparatus and method |
US11465878B2 (en) * | 2017-03-31 | 2022-10-11 | Otis Elevator Company | Visual status indicator for door and lock state |
WO2018179591A1 (ja) * | 2017-03-31 | 2018-10-04 | シャープ株式会社 | 情報提供装置、端末装置、表示システム、プログラム及び情報提供方法 |
JP6977535B2 (ja) * | 2017-05-01 | 2021-12-08 | 株式会社デンソー | カメラ装置 |
US10664502B2 (en) * | 2017-05-05 | 2020-05-26 | Irobot Corporation | Methods, systems, and devices for mapping wireless communication signals for mobile robot guidance |
KR20190016294A (ko) * | 2017-08-08 | 2019-02-18 | 삼성전자주식회사 | 운전과 관련된 정보를 처리하기 위한 전자 장치 및 방법 |
JP2019034692A (ja) * | 2017-08-21 | 2019-03-07 | 株式会社東海理化電機製作所 | 車両用視認装置 |
US10455029B2 (en) * | 2017-12-29 | 2019-10-22 | Dish Network L.L.C. | Internet of things (IOT) device discovery platform |
KR102501245B1 (ko) * | 2018-02-14 | 2023-02-17 | 삼성전자주식회사 | 키를 제공하기 위한 전자 장치 및 방법 |
KR102048750B1 (ko) * | 2018-03-06 | 2019-11-26 | 라인플러스 주식회사 | 보안 메시지 제공 방법 및 시스템 |
CN108632530B (zh) * | 2018-05-08 | 2021-02-23 | 创新先进技术有限公司 | 一种车辆定损的数据处理方法、装置、设备及客户端、电子设备 |
CN108691458B (zh) * | 2018-05-09 | 2020-01-24 | 珠海格力电器股份有限公司 | 一种门锁、门锁控制方法及装置 |
US10711488B2 (en) * | 2018-06-05 | 2020-07-14 | Isac Tabib | Electric door lock controller and monitoring system and method of use |
CN109345662A (zh) * | 2018-08-22 | 2019-02-15 | 华东师范大学 | 一种多功能解锁方式的智能锁及解锁方法 |
CN114494768A (zh) * | 2018-10-29 | 2022-05-13 | 赫克斯冈技术中心 | 对设施进行监视的监视系统和方法、计算机程序产品 |
US11580800B2 (en) * | 2018-11-08 | 2023-02-14 | Verizon Patent And Licensing Inc. | Computer vision based vehicle inspection report automation |
JP7159802B2 (ja) * | 2018-11-15 | 2022-10-25 | トヨタ自動車株式会社 | 車両用電子ミラーシステム |
KR102622169B1 (ko) * | 2018-12-06 | 2024-01-08 | 팅크웨어(주) | 주행 영상을 이용하여 차간 거리를 측정하는 차간 거리 측정 방법, 차간 거리 측정 장치, 전자 기기, 컴퓨터 프로그램 및 컴퓨터 판독 가능한 기록 매체 |
CN111292351A (zh) * | 2018-12-07 | 2020-06-16 | 星克跃尔株式会社 | 车辆检测方法及执行其的电子设备 |
KR20200070101A (ko) * | 2018-12-07 | 2020-06-17 | 팅크웨어(주) | 차선 표시 방법 및 이를 수행하는 전자 기기 |
US11518384B2 (en) * | 2018-12-07 | 2022-12-06 | Thinkware Corporation | Method for displaying lane information and apparatus for executing the method |
US20220155005A1 (en) * | 2019-02-25 | 2022-05-19 | Lg Electronics Inc. | Method for controlling and managing front door refrigerator using application installed in recording medium |
US11918131B2 (en) * | 2019-02-25 | 2024-03-05 | Lg Electronics Inc. | Refrigerator |
US11557156B1 (en) * | 2019-06-06 | 2023-01-17 | Massachusetts Mutual Life Insurance Company | Augmented reality system for remote product inspection |
US20200398824A1 (en) * | 2019-06-24 | 2020-12-24 | Honda Motor Co., Ltd. | Parking assist system |
CN110347259A (zh) * | 2019-07-09 | 2019-10-18 | 北京猫眼视觉科技有限公司 | 一种将iot设备数据在ar应用设备中呈现的方法和系统 |
US11089205B2 (en) * | 2019-08-16 | 2021-08-10 | Toyota Motor Engineering & Manufacturing North America, Inc. | Window position monitoring system |
US11433544B2 (en) * | 2019-08-18 | 2022-09-06 | Cobalt Robotics Inc. | Latency control in human operated mobile robot |
US11327503B2 (en) * | 2019-08-18 | 2022-05-10 | Cobalt Robotics Inc. | Surveillance prevention by mobile robot |
CN110636261B (zh) * | 2019-09-16 | 2021-06-08 | 浙江德塔森特数据技术有限公司 | 一种监控数据上传方法及系统 |
US11936979B2 (en) * | 2019-09-24 | 2024-03-19 | Sony Semiconductor Solutions Corporation | Imaging device |
US11808055B2 (en) * | 2019-11-18 | 2023-11-07 | Sargent Manufacturing Company | Door lock with indicator |
JP6998361B2 (ja) * | 2019-12-13 | 2022-01-18 | 本田技研工業株式会社 | 駐車支援システム |
US11263787B2 (en) * | 2020-03-05 | 2022-03-01 | Rivian Ip Holdings, Llc | Augmented reality detection for locating autonomous vehicles |
JP7347330B2 (ja) * | 2020-05-27 | 2023-09-20 | トヨタ自動車株式会社 | 車両周辺監視装置 |
JP7488727B2 (ja) * | 2020-08-27 | 2024-05-22 | 本田技研工業株式会社 | 移動体 |
US20220141426A1 (en) * | 2020-11-03 | 2022-05-05 | Thinkware Corporation | Electronic device and method for processing data received from in-vehicle electronic device |
KR20220142590A (ko) * | 2021-04-14 | 2022-10-24 | 팅크웨어(주) | 차량 외관의 검출을 위한 전자 장치, 방법, 및 컴퓨터 판독가능 저장 매체 |
KR20230040399A (ko) * | 2021-09-15 | 2023-03-23 | 삼성디스플레이 주식회사 | 증강 현실 콘텐츠 제공 장치 및 이를 이용한 증강 현실 콘텐츠 제공 방법 |
CN114758100A (zh) * | 2022-04-07 | 2022-07-15 | Oppo广东移动通信有限公司 | 显示方法、装置、电子设备和计算机可读存储介质 |
-
2017
- 2017-01-12 CN CN201780017209.0A patent/CN108885436B/zh active Active
- 2017-01-12 US US15/404,455 patent/US10471611B2/en active Active
- 2017-01-12 WO PCT/US2017/013195 patent/WO2017123761A1/en active Application Filing
- 2017-01-12 EP EP17738933.5A patent/EP3403146A4/en active Pending
-
2019
- 2019-09-09 US US16/564,355 patent/US11662722B2/en active Active
-
2023
- 2023-04-26 US US18/307,368 patent/US20230333551A1/en active Pending
Patent Citations (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6925357B2 (en) * | 2002-07-25 | 2005-08-02 | Intouch Health, Inc. | Medical tele-robotic system |
US20040019406A1 (en) * | 2002-07-25 | 2004-01-29 | Yulun Wang | Medical tele-robotic system |
CN101866396B (zh) * | 2002-07-25 | 2013-10-23 | 英塔茨科技公司 | 医学远程机器人系统 |
US20110218674A1 (en) * | 2010-03-04 | 2011-09-08 | David Stuart | Remote presence system including a cart that supports a robot face and an overhead camera |
CN103459099A (zh) * | 2011-01-28 | 2013-12-18 | 英塔茨科技公司 | 与一个可移动的远程机器人相互交流 |
US20140247116A1 (en) * | 2011-11-11 | 2014-09-04 | Bar Code Specialties, Inc. (Dba Bcs Solutions) | Robotic inventory systems |
US20130231779A1 (en) * | 2012-03-01 | 2013-09-05 | Irobot Corporation | Mobile Inspection Robot |
US20130326839A1 (en) * | 2012-06-08 | 2013-12-12 | Lg Electronics Inc. | Robot cleaner, controlling method of the same, and robot cleaning system |
CN104470685A (zh) * | 2013-01-18 | 2015-03-25 | 艾罗伯特公司 | 提供用于家庭环境控制的环境绘图的移动机器人 |
CN104772760A (zh) * | 2014-01-15 | 2015-07-15 | 精工爱普生株式会社 | 机器人、机器人系统、机器人控制装置以及机器人控制方法 |
CN103926912A (zh) * | 2014-05-07 | 2014-07-16 | 桂林赛普电子科技有限公司 | 一种基于家庭服务机器人的智能家庭监控系统 |
CN104142643A (zh) * | 2014-07-15 | 2014-11-12 | 深圳奇沃智联科技有限公司 | 应用影像监控机器人之监控系统 |
CN104144326A (zh) * | 2014-07-15 | 2014-11-12 | 深圳奇沃智联科技有限公司 | 具影像辨识及自动巡逻路径设定的机器人监视系统 |
CN104647340A (zh) * | 2015-02-09 | 2015-05-27 | 广州映博智能科技有限公司 | 一种多功能移动机器人 |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20210241902A1 (en) * | 2002-07-25 | 2021-08-05 | Teladoc Health, Inc. | Medical tele-robotic system with a master remote station with an arbitrator |
US20200001475A1 (en) * | 2016-01-15 | 2020-01-02 | Irobot Corporation | Autonomous monitoring robot systems |
US11662722B2 (en) * | 2016-01-15 | 2023-05-30 | Irobot Corporation | Autonomous monitoring robot systems |
CN110346429A (zh) * | 2019-07-15 | 2019-10-18 | 北京海益同展信息科技有限公司 | 巡检设备和巡检方法 |
CN111551184A (zh) * | 2020-03-27 | 2020-08-18 | 上海大学 | 一种移动机器人slam的地图优化方法及系统 |
CN111866472A (zh) * | 2020-08-04 | 2020-10-30 | 江苏省华海消防工程安装有限公司 | 一种消防监控管理系统及消防监控控制方法 |
CN112060054A (zh) * | 2020-09-28 | 2020-12-11 | 上海城建信息科技有限公司 | 隧道轨行式安全巡检机器人及其系统 |
Also Published As
Publication number | Publication date |
---|---|
US20170203446A1 (en) | 2017-07-20 |
EP3403146A4 (en) | 2019-08-21 |
US20200001475A1 (en) | 2020-01-02 |
US20230333551A1 (en) | 2023-10-19 |
WO2017123761A1 (en) | 2017-07-20 |
US11662722B2 (en) | 2023-05-30 |
CN108885436B (zh) | 2021-12-14 |
US10471611B2 (en) | 2019-11-12 |
EP3403146A1 (en) | 2018-11-21 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108885436A (zh) | 自主监视机器人系统 | |
EP3785093B1 (en) | Robot contextualization of map regions | |
CN109998429B (zh) | 用于情境感知的移动清洁机器人人工智能 | |
EP3508938B1 (en) | Mobile cleaning robot teaming and persistent mapping | |
JP7362814B2 (ja) | デバイスのステータスのマップを作成し、デバイスのステータスを制御し、表示するための方法、システム、およびデバイス | |
US11914400B2 (en) | Dynamic drone navigation | |
US10310507B2 (en) | Systems and methods for configurable operation of a robot based on area classification | |
US11676344B2 (en) | Presenting building information using building models | |
US11637716B1 (en) | Connected automation controls using robotic devices | |
US10964140B2 (en) | Monitoring system for monitoring unattended services | |
US11493939B1 (en) | Premise mapping with security camera drone | |
US20220005236A1 (en) | Multi-level premise mapping with security camera drone |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |