CN105074600B - 周围环境识别装置、使用其的自主移动系统以及周围环境识别方法 - Google Patents
周围环境识别装置、使用其的自主移动系统以及周围环境识别方法 Download PDFInfo
- Publication number
- CN105074600B CN105074600B CN201380073566.0A CN201380073566A CN105074600B CN 105074600 B CN105074600 B CN 105074600B CN 201380073566 A CN201380073566 A CN 201380073566A CN 105074600 B CN105074600 B CN 105074600B
- Authority
- CN
- China
- Prior art keywords
- mentioned
- data
- ground
- surrounding environment
- concave regions
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 50
- 238000012937 correction Methods 0.000 claims description 62
- 238000005259 measurement Methods 0.000 claims description 61
- 238000010586 diagram Methods 0.000 claims description 32
- 230000008569 process Effects 0.000 claims description 25
- 238000010408 sweeping Methods 0.000 abstract description 111
- 230000004888 barrier function Effects 0.000 abstract description 57
- 238000012545 processing Methods 0.000 abstract description 15
- 238000004140 cleaning Methods 0.000 description 23
- 239000003795 chemical substances by application Substances 0.000 description 14
- 230000008859 change Effects 0.000 description 13
- 238000001514 detection method Methods 0.000 description 11
- 239000012530 fluid Substances 0.000 description 11
- 238000009434 installation Methods 0.000 description 9
- 238000012544 monitoring process Methods 0.000 description 9
- 230000009471 action Effects 0.000 description 8
- 239000007788 liquid Substances 0.000 description 8
- 230000003287 optical effect Effects 0.000 description 8
- 238000003384 imaging method Methods 0.000 description 7
- 230000015654 memory Effects 0.000 description 7
- 239000000203 mixture Substances 0.000 description 7
- 239000002699 waste material Substances 0.000 description 7
- 238000004364 calculation method Methods 0.000 description 6
- 230000002776 aggregation Effects 0.000 description 5
- 238000004220 aggregation Methods 0.000 description 5
- 239000000284 extract Substances 0.000 description 5
- 230000006870 function Effects 0.000 description 5
- 239000000428 dust Substances 0.000 description 4
- 230000000694 effects Effects 0.000 description 4
- 238000003860 storage Methods 0.000 description 4
- 238000012360 testing method Methods 0.000 description 4
- 238000006243 chemical reaction Methods 0.000 description 3
- 238000010926 purge Methods 0.000 description 3
- 239000007921 spray Substances 0.000 description 3
- 230000000007 visual effect Effects 0.000 description 3
- 230000002159 abnormal effect Effects 0.000 description 2
- 230000005540 biological transmission Effects 0.000 description 2
- 230000015572 biosynthetic process Effects 0.000 description 2
- 238000004891 communication Methods 0.000 description 2
- 238000006073 displacement reaction Methods 0.000 description 2
- 238000009826 distribution Methods 0.000 description 2
- 230000009977 dual effect Effects 0.000 description 2
- 238000011084 recovery Methods 0.000 description 2
- 239000004576 sand Substances 0.000 description 2
- 238000003786 synthesis reaction Methods 0.000 description 2
- NCGICGYLBXGBGN-UHFFFAOYSA-N 3-morpholin-4-yl-1-oxa-3-azonia-2-azanidacyclopent-3-en-5-imine;hydrochloride Chemical compound Cl.[N-]1OC(=N)C=[N+]1N1CCOCC1 NCGICGYLBXGBGN-UHFFFAOYSA-N 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 230000033228 biological regulation Effects 0.000 description 1
- 238000007664 blowing Methods 0.000 description 1
- 230000009194 climbing Effects 0.000 description 1
- 230000001276 controlling effect Effects 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 238000000151 deposition Methods 0.000 description 1
- 230000004069 differentiation Effects 0.000 description 1
- 235000013399 edible fruits Nutrition 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 238000009432 framing Methods 0.000 description 1
- 238000009499 grossing Methods 0.000 description 1
- 238000005286 illumination Methods 0.000 description 1
- 238000007689 inspection Methods 0.000 description 1
- 230000001788 irregular Effects 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 238000000465 moulding Methods 0.000 description 1
- 239000002245 particle Substances 0.000 description 1
- 238000002310 reflectometry Methods 0.000 description 1
- 230000001105 regulatory effect Effects 0.000 description 1
- 230000002000 scavenging effect Effects 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 238000005406 washing Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0231—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
- G05D1/0246—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
- G05D1/0248—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means in combination with a laser
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01B—MEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
- G01B11/00—Measuring arrangements characterised by the use of optical techniques
- G01B11/14—Measuring arrangements characterised by the use of optical techniques for measuring distance or clearance between spaced objects or spaced apertures
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01B—MEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
- G01B11/00—Measuring arrangements characterised by the use of optical techniques
- G01B11/24—Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/0088—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots characterized by the autonomous decision making process, e.g. artificial intelligence, predefined behaviours
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0231—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
- G05D1/0238—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using obstacle or wall sensors
- G05D1/024—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using obstacle or wall sensors in combination with a laser
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0268—Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means
- G05D1/0274—Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means using mapping information stored in a memory device
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09B—EDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
- G09B29/00—Maps; Plans; Charts; Diagrams, e.g. route diagram
- G09B29/10—Map spot or coordinate position indicators; Map reading aids
- G09B29/106—Map spot or coordinate position indicators; Map reading aids using electronic means
-
- A—HUMAN NECESSITIES
- A47—FURNITURE; DOMESTIC ARTICLES OR APPLIANCES; COFFEE MILLS; SPICE MILLS; SUCTION CLEANERS IN GENERAL
- A47L—DOMESTIC WASHING OR CLEANING; SUCTION CLEANERS IN GENERAL
- A47L2201/00—Robotic cleaning machines, i.e. with automatic control of the travelling movement or the cleaning operation
- A47L2201/04—Automatic control of the travelling movement; Automatic obstacle detection
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0268—Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means
- G05D1/0272—Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means comprising means for registering the travel distance, e.g. revolutions of wheels
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y10—TECHNICAL SUBJECTS COVERED BY FORMER USPC
- Y10S—TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y10S901/00—Robots
- Y10S901/01—Mobile robot
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Radar, Positioning & Navigation (AREA)
- Automation & Control Theory (AREA)
- Aviation & Aerospace Engineering (AREA)
- Remote Sensing (AREA)
- Optics & Photonics (AREA)
- Electromagnetism (AREA)
- Theoretical Computer Science (AREA)
- Business, Economics & Management (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Mathematical Physics (AREA)
- Educational Technology (AREA)
- Educational Administration (AREA)
- Evolutionary Computation (AREA)
- Medical Informatics (AREA)
- Game Theory and Decision Science (AREA)
- Artificial Intelligence (AREA)
- Health & Medical Sciences (AREA)
- Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
- Manipulator (AREA)
- Image Analysis (AREA)
- Electric Vacuum Cleaner (AREA)
- Image Processing (AREA)
- Studio Devices (AREA)
Abstract
作为自主移动系统的清扫机器人(1),将由朝向斜前下方配置的距离图像传感器(20)测量而得到的3维坐标数据进行坐标变换,生成地面基准的3维坐标数据。对该数据根据距离地面(F)的高度辨别台阶或障碍物等并进行标签附加,作成从清扫机器人主体的正上方观看的俯视图图像数据。仅在扫描俯视图图像数据、标签按特定的顺序排列的情况下,实施将未确定区域置换为台阶的处理。由此,能校正由于死角而产生的台阶的边缘的位置偏差,准确地掌握台阶位置。
Description
技术领域
本发明涉及用于根据对作为对象的周围环境的距离进行了测量的数据来正确地识别该测量范围所包括的地面和障碍物或台阶等区域的周围环境识别装置、使用该周围环境识别装置的自主移动系统以及周围环境识别方法。
背景技术
在机器人或无人搬运车等自主移动系统中,需要在移动时检测位于前方的障碍物或台阶、防止碰撞或滚落。为了检测这样的障碍物或台阶,正在开发使用传感器的周围环境识别装置。
在用于这种用途的传感器中,存在激光测距仪(LRF)或距离图像传感器。
激光测距仪是一边对测量对象物投射激光一边进行角度扫描、通过检测其反射光来测量到对象物的距离的结构。虽得到比较高的测量精度,但角度扫描通常是一个方向,因此通过1次测量仅得到1维的距离分布信息。为了得到2维的距离分布,需要设法并排配置多个激光测距仪来测量、或者一边机械地移动一边测量多次等。
在距离图像传感器中,根据距离的测量方法存在图案光照射方式、TOF(Time OfFlight:飞行时间)方式、立体方式等几种方式,其特征均是针对摄像元件的视野范围内的测量对象物输出用像素的浓淡表现距离信息的距离图像,可通过测量一次得到2维的距离信息。因而,适于用作迅速地取得到存在于周围的物体的距离、识别它们是否是障碍物或台阶的周围环境识别装置的传感器。
在专利文献1(特开2006-260105号公报)所示的自主移动系统中,使用以将行进方向的前方下方作为视野范围的方式安装的距离图像传感器,来检测存在于前方的行走面上的凸状的障碍物和凹状的台阶的有无。而且,在对距离图像进行了坐标变换后,用2个不同的阈值实现2值化,由此辨别这些障碍物和台阶的形状是斜坡状还是阶梯状。
现有技术文献
专利文献
专利文献1:特开2006-260105号公报
专利文献2:特开2010-287029号公报
发明内容
发明要解决的问题
但是,在专利文献1所示的自主移动系统中,在由于距离图像传感器的配置而在台阶的一部分存在死角的情况下,存在无法正确地检测该台阶的边界的课题。因此,当使自主移动系统快速盘转或者快速前进等时,来不及进行回避台阶的动作,因此存在自主移动系统在台阶处滚落的危险。另外,随着自主移动系统朝向台阶移动,检测为台阶的位置会发生变化,因此无法进行将台阶位置作为目标的行走控制或地图上的自己位置识别,使得使用自主移动系统的作业效率有可能降低。
本发明是鉴于上述现有问题而完成的,提供通过可靠且准确地检测存在于周围环境的台阶来提高安全性、进而提高作业效率的周围环境识别装置、使用该周围环境识别装置的自主移动系统以及周围环境识别方法。
用于解决问题的方案
为了解决上述问题,本发明的周围环境识别装置的特征在于,具备:
距离传感器;
凹部辨别部,其基于从上述距离传感器得到的距离数据,至少辨别比地面低的凹状区域;
俯视图数据作成部,其将上述距离数据以上述地面为基准进行坐标变换后作成俯视图数据;以及
校正处理部,其在上述俯视图数据内校正由于上述距离传感器的死角而产生的凹状区域与该凹状区域以外的区域的边界的位置偏差。
在1个实施方式中,
上述校正处理部在上述俯视图数据中基于由上述凹部辨别部辨别的数据是否按特定的顺序排列来确定可否校正上述边界位置的偏差。
在1个实施方式中,
上述校正处理部基于上述距离传感器的安装角度、上述凹状区域的深度信息、以及上述凹状区域的距离数据来计算上述距离传感器的死角的大小,确定对凹状区域的校正量。
本发明的自主移动系统的特征在于,
具备上述周围环境识别装置,其一边识别行进方向前方的可移动区域一边移动。
本发明的周围环境识别方法的特征在于,
通过朝向斜前下方配置的距离传感器测量地面并生成地面基准的3维坐标数据,
基于该3维坐标数据辨别地面区域和比上述地面低的凹状区域,进行3维坐标数据的标签附加,作成俯视图数据,
扫描上述俯视图数据,当上述标签按特定的顺序排列时,校正由于距离传感器的死角而产生的凹状区域与该凹状区域以外的区域的边界的位置偏差。
发明效果
如上所述,本发明的周围环境识别装置,即使在存在死角的情况下,也能通过可靠且准确地检测出台阶,来提高周围环境的识别精度。
另外,本发明的自主移动系统能通过可靠地检测出台阶来防止在台阶处滚落。
另外,本发明的周围环境识别方法,即使在存在死角的情况下,也能通过可靠且准确地检测出台阶,来提高周围环境的识别精度。
附图说明
图1表示作为使用了本发明的周围环境识别装置的自主移动系统的1个实施方式的清扫机器人,(a)是外观图,(b)是截面图。
图2是表示上述清扫机器人的内部结构的框图。
图3是表示上述清扫机器人的距离图像传感器和激光测距仪的安装位置和坐标系的图,(a)是立体图,(b)是截面图。
图4是上述清扫机器人的运算处理的流程图。
图5是表示上述清扫机器人的距离图像和俯视图的生成的图,(a)是示意截面图,(b)和(c)是表示距离图像的图,(d)是俯视图。
图6是表示上述清扫机器人的由到台阶的距离造成的观察方法的不同和测量误差的产生的图,(a1)、(a2)、(a3)是示意截面图,(b1)、(b2)、(b3)是表示距离图像的图,(c1)、(c2)、(c3)是俯视图。
图7是表示上述清扫机器人的台阶边缘的校正方法的图,(a)、(b)、(c)、(d)是俯视图。
图8是表示上述清扫机器人的路线图信息的图,(a)是表示由路线图信息存储器存储的路线图信息的图,(b)是表示在(a)中边缘被改写的路线图信息的图。
图9是作为使用了本发明的周围环境识别装置的自主移动系统的1个实施方式的监视机器人的外观图。
图10是作为使用了本发明的周围环境识别装置的自主移动系统的1个实施方式的自动搬运机器人的外观图。
图11表示作为使用了本发明的周围环境识别装置的自主移动系统的1个实施方式的清扫机器人,(a)是外观图,(b)是表示激光测距仪及其坐标系的图。
图12是表示上述清扫机器人所搭载的激光测距仪的测量对象和测量数据的图,(a)是表示在将激光测距仪101的测量面作为截面的状态下的测量对象的图,(b)是表示激光测距仪101的测量数据的图,(c)是表示激光测距仪102的测量数据的图。
图13是表示上述清扫机器人的内部结构的框图。
图14是表示上述清扫机器人的俯视图的生成和校正的图,(a)是校正前的俯视图,(b)是校正后的俯视图。
图15是说明上述清扫机器人的俯视图的校正量的计算的图。
图16是表示上述清扫机器人的台阶区域的提取的图,(a)、(b)是没有校正的情况下的图,(a)是说明俯视图数据的改写更新的综合的图,(b)是表示通过改写更新得到的台阶区域的图,(c)、(d)是有校正的情况下的图,(c)是说明俯视图数据的改写更新的综合的图,(d)是表示通过改写更新得到的台阶区域的图。
具体实施方式
以下,关于图示的实施方式详细地说明本发明。
(第1实施方式)
基于图1至图8说明本发明优选的第1实施方式。首先,在图1(a)、(b)中表示作为包括本发明的周围环境识别装置的自主移动系统的1个实施方式的清扫机器人1的外观图和截面图。
在图1(a)、(b)中,1是清扫机器人(自主移动系统),2是配置在清扫机器人1底部的左右的2个驱动轮,3是旋转自如地安装于清扫机器人1底部的从动轮,4是对清扫机器人1供给工作电源的电池。另外,5是存储清洗液的清洗液罐,6是与清洗液罐5连结的清洗液喷出部,两者由圆筒形的管道连接,构成清洗液喷出单元。而且,7是积存被吸入到清扫机器人1内部的废液(包括尘埃或灰尘等)的废液罐,8是设于清扫机器人1底部的吸入废液的吸引口,它们也同样地由管道连接,构成废液回收单元。9是设于吸引口8的附近的清扫刷,被刷电机10驱动。11是覆盖这些机构整体的箱体,12是用于防止清洗液的飞散或异物的卷入的保护构件。除此以外,具备:用于进行各种模式的设定或自动行走/手动行走的切换、行走/停止的切换等的操作面板13;非常时用于停止的紧急停止开关即非常停止开关14;确定手动行走时的行走方向的行走控制手柄15;以及当手动行走时操作者用于支撑清扫机器人主体的把手16等。
此外,清扫机器人1的方式不限于使用如上所述的清洗液进行清洗的类型,也可以是如具备风扇、集尘室、吸入口等的所谓的家庭用吸尘器那样的方式的清扫机器人。
在此,在图1(a)、(b)所示的清扫机器人1中,纸面右方向是基本的行进(行走)方向。“基本的”的原因是,根据情况或者用户的操作(也包括远程操作)存在向纸面左方向的行走(后退)、或者向纸面跟前或进深方向移动的可能性。此外,以后将基本的行进(行走)方向仅记载为行进方向。
在清扫机器人1中配置有距离图像传感器20。距离图像传感器20安装于能从设于箱体11的开口部21掌握外部的状态的位置。
距离图像传感器20是红外图案光投射方式的距离图像传感器,在其内部具有包括红外光的投射元件的投射光学系统和包括红外光的摄像元件的摄像光学系统。将规定的具有规则的或者不规则的图案(浓淡花纹)的红外光向外部投影照射,用摄像元件拍摄来自外部物体的反射光,由此能测量到存在于摄像光学系统的视野范围内的物体的距离。将距离测量结果作为距离图像(深度图像)来输出,在距离图像中,到视野范围所包括的物体的距离表现为图像上的像素的灰度值(浓淡)。此外,除了如上所述的红外图案光投射方式以外,如果是能输出距离图像的传感器,则也可以是TOF(Time Of Flight)方式或立体测量方式等其它方式。
另外,在清扫机器人1中搭载有激光测距仪22,其以能从设于箱体11前部的透明的窗21进行外部的测量的方式安装。
而且,在清扫机器人1的内部搭载有控制清扫机器人1整体动作的运算装置30。运算装置30与上述的刷电机10、开关14,15之类、距离图像传感器20等各部件电连接。
在图2中表示清扫机器人1的框图。运算装置30包括距离图像运算模块31、行走控制模块32、清扫控制模块33、路线图信息存储器34以及自己位置运算模块35。而且,在距离图像运算模块31内部存在3维坐标运算部36、坐标变换部37、作为凹部辨别部的一例的障碍物/台阶辨别部38、俯视图作成部39、作为校正处理部的数据校正部40。
距离图像运算模块31接收来自距离图像传感器20的距离图像,进行坐标变换等处理,提取障碍物/台阶信息并将其向自己位置运算模块35发送。
行走控制模块32基于陀螺仪传感器或安装于驱动轮2的旋转编码器43的信息掌握清扫机器人1的移动距离和目前的方向。向自己位置运算模块35发送与该移动距离和方向有关的信息(以下称为“测距信息”)。
自己位置运算模块35综合从距离图像运算模块31输出的障碍物/台阶信息以及从激光测距仪22得到的障碍物信息。而且,对照这些障碍物/台阶信息、与预先由路线图信息存储器34存储的周围环境的形状有关的路线图信息、以及从行走控制模块32发送的测距信息,计算清扫机器人1本身目前存在于路线图内的哪一位置。
以上所述的距离图像传感器20、距离图像运算模块31、激光测距仪22、路线图信息存储器34以及自己位置运算模块35具有作为本发明的“周围环境识别装置”80的作用。而且,存在于距离图像运算模块31内部的障碍物/台阶辨别部38、俯视图作成部39、数据校正部40分别与本发明的“凹部辨别部”、“俯视图数据作成部”、“校正处理部”对应。此外,后面说明距离图像运算模块31和自己位置运算模块35的动作的详细内容。
行走控制模块32从自己位置运算模块35接受与路线图上的自己位置和到周围的障碍物或台阶的距离有关的信息,以回避障碍物或台阶的方式确定行走路径,实际控制驱动轮2的驱动轮电机44。另外,当接收来自操作面板13、确定手动行走时的行走方向的行走控制手柄15和作为非常时用于停止的非常停止开关的紧急停止开关14等控制开关的信号时,与其相应地进行非常停止或行走方向的变更等必需的动作。与这些控制有关的信息被显示在操作面板13中,被实时地更新。
清扫控制模块33接受来自行走控制模块32的命令,进行清扫刷9、废液回收单元7、8以及清洗液喷出单元5、6的动作开始/停止切换等与清扫有关的部分的控制。
在图3(a)中表示距离图像传感器20和激光测距仪22的安装位置的详细内容。这些距离图像传感器20和激光测距仪22配设在清扫机器人1从作为清扫对象的地面F(行走路面)垂直地离开规定距离的位置。具体地,在清扫机器人1的上部的行进方向的前侧比水平靠下方安装距离图像传感器20。在该第1实施方式中,距离图像传感器20如图3(b)所示,在距离地面F的高度HS=980[mm]的位置按相对于铅直轴的角度θS=20[deg]向行进方向前方的斜下方安装。另外,激光测距仪22在距离地面F的高度HL=350[mm]的位置与地面F平行地、即以成为水平的方式安装。实际上安装位置由于组装误差等发生一些变动。此外,距离图像传感器20或激光测距仪22的配置或个数不限于上述内容,也可以排列多个来配置。
激光测距仪22的扫描范围即可测量范围如图3(a)、(b)所示是距离地面F的高度为HL的半圆状的区域。但是,为了在图3(a)中易于观察,将半圆状的区域的半径方向的长度缩小显示。实际上,激光投射光未被遮挡且只要到达就能测量相当远的距离(5~10m)。但是,距离地面F的高度比HL低的高度的障碍物或者比地面F低的台阶处于激光的扫描范围外,因此无法检测。另一方面,距离图像传感器的可测量范围依存于传感器的视角。在该第1实施方式中使用的距离图像传感器20的情况下,水平方向的视角是70deg,垂直方向的视角是55deg程度。在地面F上投影的视野范围是图3(a)的梯形ASBSCSDS的范围,虽然能检测出的范围本身比激光测距仪22窄,但2维地取得高度信息,因此能无遗漏地检测存在于范围内的障碍物或台阶。因而,通过并用这2者,能平衡良好地检测从附近到远方的广范围的障碍物和台阶。
距离图像传感器20用距离图像传感器基准的坐标系输出作为测量结果的距离图像。在图3(a)中表示坐标系的定义。将距离图像传感器20的光学中心设为原点OS,当朝向行进方向时将左右方向设为XS轴(以左方向为正),将上下方向设为YS轴(以上方向为正),将前后方向、即传感器的光轴方向设为ZS轴(以进深方向为正)。而激光测距仪22的安装位置和角度不同,因此传感器基准的坐标系也相互不同。在用这些坐标系表示的距离和从清扫机器人1主体沿着地面F测量到的距离之间存在偏差,因此为了求出到对象物的正确的距离,需要按地面基准的坐标系进行坐标变换,将距离图像传感器20和激光测距仪22这2个数据进行综合。
因此,除了距离图像传感器20基准的XSYSZS坐标系以外,定义作为清扫机器人1主体的坐标系的XRYRZR坐标系。将从清扫机器人1主体前端向地面F垂下的垂线的脚设为原点OR,将清扫机器人1的行进方向设为ZR轴,将地面F的法线方向设为YR轴,将与ZR轴和YR轴垂直的方向设为XR轴(以朝向行进方向的左方向为正)。
此外,在该第1实施方式中,行进方向即ZR轴与作为距离图像传感器20的光轴方向的ZS轴朝向行进方向在左右方向上大致一致。其意味着,即距离图像传感器20不是相对于地面F在左右方向上倾斜安装,地面F和距离图像传感器20的倾斜度仅为进深方向的倾斜度θS。严格地说,虽然发生由安装误差造成的角度偏差,但考虑即使这样左右方向的倾斜度角与进深方向的倾斜度角θS相比也是充分地小。
该第1实施方式的清扫机器人1的特征在于,在运算装置30内的距离图像运算模块31中,对距离图像实施地面F基准的坐标变换,根据该信息进行辨别障碍物或台阶的处理,校正此时由于死角而产生的台阶的测量位置的误差。以下说明这些运算的详细内容。在图4中,表示用距离图像运算模块31和自己位置运算模块35进行的处理流程。
距离图像运算模块31内的3维坐标运算部36首先取得从距离图像传感器20输出的距离图像(图4的步骤S101,以下相同)。如图5(a)所示,在地面F的一部分存在凹状区域即台阶C的情况下,得到的距离图像如图5(b)所示。该距离图像用像素的浓淡表示根据距离图像传感器20的光学中心OS测量到的距离D,距离越小(近)显示为越白,距离越大(远)显示为越黑。
3维坐标运算部36根据该距离图像数据算出距离图像传感器基准(XSYSZS坐标系)的3维坐标数据(XS,YS,ZS)(S102)。坐标数据中的、ZS是距离图像所包含的距离D其本身,如果知道距离图像传感器20的光学系统的焦点距离f、像素间距p、光轴与摄像元件中心的像素偏差量c等,则利用三角测量的原理根据ZS能计算XS和YS。在该第1实施方式中,事先对距离图像传感器20进行校准,预先求出这些参数。由此,如果得到距离图像,则关于该图像所包含的全部像素能得到距离图像传感器基准的坐标数据(XS,YS,ZS)、即3维点群(PointCloud)数据。
坐标变换部37针对距离图像传感器20基准的3维点群数据使用地面信息进行坐标变换,转换为用清扫机器人主体基准的XRYRZR坐标系表示的3维点群数据(S111)。转换为清扫机器人主体基准的坐标系的原因是为了易于辨别距离地面F的高度,另外为了之后综合从激光测距仪22得到的障碍物数据。
地面信息基于距离图像传感器20的安装位置被预先设定在距离图像运算模块31内部。例如,如图3(b)所示,在距离图像传感器20以安装角度θS安装于距离地面F的高度HS处的情况下,通过绕XR轴的角度-θS的旋转和绕YR轴的-HS的平行移动来实现坐标变换。
但是,由于地平面的倾斜度或起伏、清扫机器人1本身的振动、距离图像传感器20的测量误差或经时变化等原因,地面F与距离图像传感器20的位置关系有时在时间上、空间上发生变动。在这种情况下,在如上所述的固定的坐标变换中产生误差,因此需要进行从距离图像传感器20基准的3维点群数据提取构成地面F的点,每次求出地面F距离此处的高度或角度的处理、即进行地面F的检测处理。按取得距离图像的每一帧、或者每间隔一定帧或每间隔一定时间进行这种处理,求出该时点最佳的地面F的参数,将其换算为上述旋转角度和并进移动量。进行这种地面F的检测处理,求出最佳的旋转角度和并进移动量后进行坐标变换,由此能转换为清扫机器人主体基准的3维点群数据。
在这样得到的清扫机器人主体基准的3维点群数据(XR,YR,ZR)中,YR表示其原样距离地面F的高度,因此当用灰度等级表示YR的值的大小时,得到如图5(c)那样的距离图像。可知该距离图像由于地面F是一定的高度因此成为大致一样的灰度等级,比地面F低的台阶的部分用比地面F暗的等级表示。
在用坐标变换部37进行的上述处理之后,作为凹部辨别部的一例的障碍物/台阶辨别部38针对构成3维点群数据的各点(XR,YR,ZR),根据比地平面高还是低来辨别障碍物和台阶(S121)。具体地,YR表示其原样距离地面F的高度,因此如图3(a)、(b)所示,设置表示比地面F高的第1基准面的阈值t,如果YR比t大,则辨别为比地面高的凸状区域K即“障碍物”,如果比表示比地面F低的第2基准面的阈值-t小,则辨别为比地面低的凹状区域C即“台阶”,如果位于t和-t之间,则辨别为地面区域即“地面”。考虑地平面的凹凸的大小、距离图像传感器20的测量误差等预先确定阈值t。在该第1实施方式中,设为t=10mm。此外,表示第1基准面和第2基准面的阈值的绝对值也可以不同。
此外,作为辨别“台阶”、“障碍物”以及“地面”的方法,除了使用如上所述的相对于距离地面F的高度YR的阈值的方法以外,还考虑使用如下所述的坡度的方法。
针对3维点群数据(XR,YR,ZR),首先在应用了用于去除突发噪声的平滑化过滤器后,计算在XR轴方向和ZR轴方向上相邻的2点之间的坡度。
在坡度的绝对值
((ΔYR/ΔXR)2+(ΔYR/ΔZR)2)1/2
是规定的坡度界限值以上、且进深方向的坡度
ΔYR/ΔZR
为正的情况下,看作是清扫机器人1无法跨越的上坡,将其前方、即离清扫机器人1远的一侧的点辨别为“障碍物”。另外,如果坡度的绝对值是规定的坡度界限值以上、且进深方向的坡度为负,则看作是无法跨越的下坡,将其前方、即离清扫机器人1远的一侧的点辨别为“台阶”。上述坡度界限值能根据清扫机器人1的驱动轮电机44的驱动转矩、驱动轮2以及地面F的材质等算出清扫机器人主体的攀登能力,基于此进行确定。
另外,还考虑使用与上述高度有关的阈值和坡度界限值两者进行辨别的方法等。
上述辨别结果作为标签信息被分别附加到3维点群数据。在坐标值是异常值等情况下,辨别为不是“台阶”、“障碍物”、“地面”中的任一个的区域附加“未确定”的标签信息。此外,标签不限于上述4种,也可以根据距离地面F的高度进一步细分化来涂色,或者根据是否是清扫机器人主体可通行的大小来附加“不能进入”等新的标签。通过该处理,关于距离图像传感器20的视野范围内的各像素,除了该3维坐标以外还得到附加有“台阶”、“障碍物”、“地面”、“未确定”的其它标签的3维点群数据。
俯视图作成部39将通过上述处理得到的附加了标签的3维点群数据按每一“台阶”、“障碍物”、“地面”等标签涂色进行涂色后作成在XR-ZR平面上反映的图像数据(图4的流程S122)。将该图像在图5(d)中表示。其相当于以正好从清扫机器人1的正上方俯视地面F方向的状态进行了转换的图,因此以下称为“俯视图”。可看出通过距离图像传感器20测量在图5(a)中位于清扫机器人1主体的前方的台阶即凹状区域C,并将其在图5(d)中显示。但是,在图5(a)中存在于台阶的底面的P、Q、R点中的、从清扫机器人1的距离图像传感器20观看时P-Q之间虽然可见,但Q-R之间成为死角,因此无法测量距离。因此,在图5(d)中与P-Q之间相当的部分由“台阶”标签色被正确地显示,但由于不存在与Q-R之间相当的部分的测量数据,因此被显示为“未确定”标签色。
此外,在“未确定”标签的区域中,存在原来就不存在测量数据的区域、即“漏测量”和由于取得距离图像时的噪声等而不能测量或者成为测量异常值的区域、即“测量异常”这2种。但是,在例如某点由于测量异常而被测量为从该点的真正的坐标值较大地偏离的点的情况下,与真正的坐标值相当的点成为漏测量。因此,根据俯视图无法辨别某“未确定”标签的区域是由于“漏测量”和“测量异常”中的哪一个原因产生的。
在该第1实施方式中,为了易于说明,作为实际能显示的图像而作成俯视图,但未必一定设为这种构成。如果无需在画面中显示并确认,则可以不是俯视图图像而是与其等价的数值数据,即能通过在运算装置内部生成“俯视图数据”来代替俯视图图像。在这种情况下,如果对该“俯视图数据”的各要素进行标签的附加,进而进行与以下说明的内容相同的处理,则能得到与该第1实施方式同等的效果。
在此,在图6(a1)、(a2)、(a3)中表示清扫机器人逐渐地靠近图5(a)所示的台阶C时的样子。首先,图6(a1)是表示清扫机器人从台阶C离开一段距离的状态的位置关系的图,图6(b1)是表示如果此时以距离图像摄像机20为视点则可看见怎样的图像,图6(c1)是与图5(d)同样地将附加有台阶/障碍物信息的3维点群数据在XR-ZR平面上涂色后反映而得到的俯视图。下面,图6(a2)是表示清扫机器人1稍微靠近台阶C的状态的位置关系的图,图6(b2)、(c2)是与该状态下的图6(b1)、(c1)相同的图。并且,图6(a3)是表示清扫机器人1进一步靠近台阶C的状态的位置关系的图,图6(b3)、(c3)是与该状态下的图6(b1)、(c1)相同的图。
在这些图6(a1)、(a2)、(a3)、(c1)、(c2)、(c3)中,为了易于理解,除了清扫机器人主体基准的坐标系XRYRZR(与清扫机器人主体一起移动)以外,还表示以地面F的某位置OM为原点的固定的坐标系XMYMZM。在该固定坐标系中,从原点OM到台阶C的离清扫机器人1近的一侧的边缘的距离是L。
随着清扫机器人1主体从图6(a1)到(a2)、进而到(a3)而靠近台阶C,距离图像传感器20和台阶C的位置关系发生变化,因此从距离图像传感器20观看的台阶C的死角也发生变化。该现象从表示图6(b1)、(b2)、(b3)的变化的情况的图像也可明确。其结果是,俯视图如图6(c1)、(c2)、(c3)所示发生变化。在该俯视图上,从地面固定坐标系XMYMZM的原点OM到台阶区域C的前端边缘的距离在图6(c1)中为L1,在图6(c2)中为L2,在图6(c3)中为L3,可知随着清扫机器人1靠近台阶C而变化。这意味着距离图像传感器20所识别的台阶C的边缘位置随着清扫机器人1的移动而变化。
根据以上考虑,可知虽然到真正的台阶C的边缘位置的距离(从原点OM起测量)是L,但由于死角的影响测量到的边缘位置成为比L大(远)的值,随着靠近台阶C,该值逐渐接近L。即,随着清扫机器人1靠近台阶C,与最初测量时相比,边缘位置逐渐地靠近。
作为自主移动系统的例子的自主移动机器人(例如清扫机器人等)为了在无人状态下安全地行走,需要准确地掌握周围的台阶的位置。通常即使检测出的台阶的边缘的位置在移动中发生了变动,通过行走控制模块每次修正移动速度和移动方向也能回避滚落。但是,在进行快速盘转或快速前进等情况下,考虑台阶从到目前处于距离图像传感器的视野范围外的区域突然出现在视野范围中,在这种情况下有可能来不及进行回避动作。在自主移动机器人中,除了如距离图像传感器那样的周围环境检测装置以外,还在箱体的下部分别地设置地面检测传感器等来谋求双重三重的滚落防止对策,尽管如此,如果频繁地发生由如上所述的死角造成的位置测量误差,则也无法排除地面检测传感器过度地反应等而使状态变得不稳定的可能性。
特别是如该第1实施方式那样的清扫机器人1,有时靠近离台阶C的边缘最近的位置进行清扫,因此要求精度极其良好地进行台阶C的位置检测。因而,即使只是发生极小的台阶C的边缘的位置测量误差,也会发生清扫机器人1主体在台阶C处滚落的危险。
该第1实施方式的清扫机器人1的特征在于,为了防止如上所述的不良状况,通过配置在俯视图作成部39的后段的作为校正处理部的数据校正部40进行台阶C的位置的校正(图4的流程S131)。将由数据校正部40进行的校正的步骤在图7(a)、(b)、(c)、(d)中示出。
与图5(d)同样地,将附加有台阶/障碍物信息的3维点群数据在XR-ZR平面上涂色后图示而得到的“俯视图”如图7(a)所示,存在被赋予了由死角造成的“未确定”标签的区域U。此时,数据校正部40向ZR的正的方向(从离清扫机器人1近的一侧向远的一侧、虚线箭头的方向)扫描距离数据,搜索按“地面(或者障碍物)”-“未确定”-“台阶”的顺序排列标签的部分。如果发现了这种部分,则将附加有“未确定”的标签的点置换为“台阶”的标签。由此得到如图7(b)那样的俯视图。可知排除了由死角造成的影响,地面F与台阶C的边界、即台阶C的边缘被校正为正确的位置。
此外,在台阶C按相对于清扫机器人1主体倾斜的配置存在的如图7(c)那样的情况下,通过进行同样的处理也得到如图7(d)那样的已校正的俯视图。在这种情况下,也是台阶C的边缘被校正为大致正确的位置。
此外,如前面所述的,在“未确定”标签区域中,除了由于死角而产生的以外,还存在由于测量噪声等而产生的。因此,考虑例如仅通过将俯视图内的“未确定”标签区域一律置换为“台阶”标签区域,会发生将不是台阶的区域误辨别为台阶的现象。对此,该第1实施方式的清扫机器人1仅在标签按上述规定的顺序排列的情况下进行校正,因此即使在存在由于噪声等而不能测量的未确定区域的情况下,也能将它们和由于死角而产生的未确定区域明确地区别,能可靠地进行死角部分的校正。
通过作为校正处理部的数据校正部40如下所示进行针对该死角部的校正量。参照图6(a2)具体地进行说明。如图6(a2)所示,当将作为距离传感器的图像距离传感器20的包括扫描时的偏转角的安装角度(相对于铅垂面的倾斜角)设为θS、将作为凹状区域的台阶C的深度信息设为h、将从原点OM到台阶C的外观距离数据设为L2、将从原点OM到台阶C的边缘的真正的距离设为L时,成为
L2-L=h·tanθS
,因此校正量成为h·tanθS,从到台阶C的外观距离数据L2减去校正量h·tanθS,从原点OM到台阶C的边缘的真正的距离L作为
L=L2-h·tanθS
被算出。
在此,能如下所示计算h和tanθS。
在图6(a2)中,将台阶的跟前侧边缘的地面侧端点设为E,将直线OSE与地面的交点设为Q。E和Q是从距离图像传感器可见(不存在死角)的点,因此能取得该距离图像传感器基准(XSYSZS坐标系)的3维坐标。将该E、Q以及距离图像传感器的原点OS的3维坐标变换为机器人主体基准(XRYRZR坐标系)而得到的3维坐标值分别设为(XE,YE,ZE)、(XQ,YQ,ZQ)、(XOS,YOS,ZOS)。此时,h和tanθS作为
h=YE-YQ
tanθS=(ZE-ZOS)/(YE-YOS)
求出。由此,能计算校正量h·tanθS。
h即台阶的深度相对于某特定的台阶C是不变的,但tanθS随着清扫机器人移动而变化。因此,校正量h·tanθS需要每次计算。
而且,数据校正部40能参照上述校正量h·tanθS并在上述“未确定”标签区域的长度是比妥当的长度长或者短的情况下,判断为不是由于死角而产生的“未确定”标签区域而不进行校正。由此,在存在由于噪声等而成为不能测量的“未确定”标签区域的情况下,也能准确地检测死角的大小,精度良好地进行校正。
此外,作为在移动体中根据3维信息生成俯视图从而进行由于死角而产生的台阶位置的偏差的校正的方法,已知专利文献2(特开2010-287029号公报)。
在专利文献2中,基于使用安装于移动体的立体摄像机取得的3维信息作成从移动体的上方观看的俯视图。从立体摄像机观看时,在前方的凹陷(台阶)的一部分存在死角的情况下,在俯视图上产生不存在由于死角而产生的测量点的区域,因此将不存在该测量点的区域判定为危险区域(参照该文献的图14和图15)。
但是,在专利文献2中,将不存在相当于该第1实施方式中的未确定区域的测量点的区域一律判定为危险区域,因此在例如地面的一部分由于噪声等而暂时成为未确定区域的情况下,也有可能将该区域误判定为危险区域而无法向该区域移动。
而在该第1实施方式中,通过之前所述的步骤,仅在按特定的顺序排列对3维点群数据赋予的标签的情况下进行校正,因此能明确的区别由噪声等造成的未确定区域和由于死角而产生的未确定区域,能可靠地进行台阶的边缘位置的校正。另外,基于距离数据所包含的台阶的深度和距离传感器的安装角度的信息,计算台阶的死角部分的校正量并按该量进行校正,因此与专利文献2的方法相比能精度更好地进行台阶位置的校正。
另外,在专利文献2中,仅通过将不存在测量点的区域判定为危险区域而不校正关于台阶的边缘位置的信息,而在该第1实施方式中,还针对台阶的边缘位置进行校正,由此能得到正确的台阶的边缘位置。由此,能将校正后的边缘信息用作自己位置识别的线索,因此路线图上的自己位置识别的精度提高,能提高基于自主移动系统的路线图信息的行走的可靠性。
数据校正部40从该校正后的俯视图提取离清扫机器人1主体近的台阶和障碍物的信息,将其作为台阶/障碍物信息向自己位置运算模块35发送(图4的流程S132)。
台阶/障碍物数据的形式以之后行走控制模块32易于处理的方式能转换为任意的形式。数据的坐标系能在清扫机器人基准的XRYRZR正交坐标系的原样下发送,也能转换为极坐标(R-θ坐标系)。除了将检测出的全部障碍物/台阶实现数据化的方法以外,还考虑进行数据的间拔/插值、噪声去除处理、或者仅提取离清扫机器人1主体最近的障碍物/台阶数据的方法。
如前面所述的,自己位置运算模块35由激光测距仪22取得障碍物信息(S141)。之后,将从距离图像运算模块31输出的障碍物/台阶信息和从激光测距仪22得到的障碍物信息进行综合(S142)。例如,在由激光测距仪22测量到的障碍物A的前面存在由距离图像传感器20测量到的其它障碍物B的情况下,能以距离近的障碍物B的数据优先的方式综合数据。
之后,自己位置运算模块35从行走控制模块32取得测距信息(S143)。
而且,自己位置运算模块35取出由路线图信息存储器34存储的与周围环境的形状有关的路线图信息(S144)。将由路线图信息存储器34存储的路线图信息的一例在图8(a)中表示。如图8(a)所示,针对清扫机器人1进行清扫的区域整体,区分地面F、障碍物、台阶以及进入禁止区域进行登录。清扫机器人1以仅清扫在该路线图信息中设定的地面F的部分的方式被行走控制模块32控制。
自己位置运算模块35对照通过上述处理得到的障碍物/台阶信息、路线图信息以及测距信息,计算清扫机器人1本身存在于目前路线图内的哪一位置(S145)。当自己位置运算模块35进行自己位置的运算时,如图8(b)所示,基于激光测距仪22检测出的障碍物信息的边缘(粗实线)和基于距离图像传感器20检测出的障碍物/台阶信息的边缘(粗虚线)在路线图上被改写显示。以尽量缩小在路线图上预先登录的障碍物或台阶的边缘与实际检测出的边缘的不一致,且尽量缩小与测距信息的差异的方式用规定的算法进行自己位置的推定。作为这种自己位置推定的算法,已知粒子过滤器、扩展卡尔曼滤波器等方法。
当进行该自己位置推定处理时,如果存在由距离图像传感器20的死角造成的台阶边缘测量误差,则在自己位置推定值中产生误差,无法沿着路线图信息精度良好地行走。而该第1实施方式的清扫机器人1通过进行上述台阶边缘的校正能得到正确的台阶位置,因此能准确地进行自己位置推定,能进行基于路线图信息的高效的行走控制。
自己位置运算模块35将作为计算结果而得到的目前路线图内的自己位置信息向行走控制模块32发送(S146)。在行走控制模块32中登录有预先确定的若干行走图案,选择其中之一。在行走图案中存在例如“以在区域内转1圈的方式沿着墙壁行走”、“以涂抹被墙壁包围的内侧的区域的方式行走”、“按规定的距离或者时间一边随机地改变方向一边行走”等。行走控制模块32对照自己位置信息和被设定的行走图案,确定要移动的方向和移动速度,进行清扫机器人的行走控制。
如以上所述的,该第1实施方式的清扫机器人1在存在死角的情况下也可靠且准确地检测出台阶C,由此能提高周围环境的识别精度,能防止在台阶C处滚落。
另外,在测量距离图像时存在由于噪声等而不能测量从而产生的未确定区域,在其与由于死角而产生的未确定区域混合存在的情况下,也能准确地检测、校正死角的大小。而且,进行以台阶位置为目标的行走控制或地图上的自己位置识别,由此能提高一边自主移动一边进行清扫作业时的作业效率。
(第2实施方式)
下面,使用图9说明将本发明的周围环境识别装置应用于作为自主移动系统的一例的监视用机器人的第2实施方式。对与第1实施方式同样的部分附上相同的附图标记,省略说明。
作为自主移动机器人的监视机器人101与第1实施方式同样地,搭载使用了红外图案光照射方式的距离图像传感器(虽未图示但具有与第1实施方式的距离图像传感器20完全相同的构成、功能。)的周围环境识别装置(虽未图示但具有与第1实施方式的周围环境识别装置80完全相同的构成、功能。)。省略清扫刷、清洗液罐、废液罐等与清扫有关的功能,代替地设有用于将状态向周围通知的显示灯102、用于与外部的终端通过无线进行数据通信的天线103、全方位摄像机104、照明灯105、扬声器106。全方位摄像机104常时间拍摄监视机器人的周围360度的情况,经由天线103以无线向存在于远处的管理用终端(未图示)发送。管理用终端的管理者确认接收到的全方位摄像机104的图像数据,进行是否存在异常的检查。在管理者不在的情况下,还能设定为在监视机器人101主体内部通过解析全方位摄像机104的图像数据来自动地进行异常监视的模式。
监视机器人101在夜间等人不在的时间带内,一边长时间在办公大楼内的预先设定的监视区域内移动一边进行监视。此时,一边参照预先由监视机器人101主体存储的路线图信息一边在监视区域内的通道上移动。与第1实施方式同样地,基于用距离图像传感器测量到的信息进行自己位置识别和台阶/障碍物的回避。
在发现了任何异常的情况下,迅速行走向现场并点亮照明灯105来拍摄现场的图像,将其以无线向管理者发送。在存在可疑的人的情况下,能从扬声器106产生警告声,或者播放催促退出的讯息。
如上所述,在该第2实施方式中,在办公大楼内应用监视机器人101,由此能不依靠人手地安全地进行监视。使用本发明的周围环境识别装置,由此在监视区域内的通道附近存在台阶等的情况下,虽然有死角也能正确地识别该台阶的边缘,能防止滚落。另外,在基于路线图信息一边识别自己位置一边在监视区域内行走的情况下,作为自己位置识别的目标使用校正后的台阶的边缘信息,由此能提高识别精度,能提高在监视区域内移动的效率。
(第3实施方式)
接下来,使用图10说明将本发明的周围环境识别装置搭载于工厂用自动搬运机器人的第3实施方式。针对与第1和第2实施方式同样的部分附上相同的附图标记,省略说明。
作为自主移动系统的一例的自动搬运机器人201与第1和第2实施方式同样地搭载有使用了红外图案光照射方式的距离图像传感器的周围环境识别装置(具有与第1和第2实施方式的周围环境识别装置完全相同的构成、功能。)。省略清扫刷、清洗液罐、废液罐等与清扫有关的功能,代替地具有用于一边搭载货物一边移动的货物装载部202。在货物装载部202的底面安装有传送带203,成为能自动地进行货物的载入和卸下的结构。另外,与第2实施方式同样地,设有用于向周围通知状态的显示灯102和用于通过无线与外部的终端进行数据通信的天线103。
自动搬运机器人201长时间在设置于工厂内的集货终点站处待机,当货物到达时,使用底面的传送带203将货物保存于装载部202。同时从集货终点站的终端以无线向自动搬运机器人201主体发送关于货物的内容和收件方的信息。
在全部货物的载入完成后,自动搬运机器人201开始移动,一边参照预先由机器人主体存储的路线图信息一边在工厂内的通道上移动。与第1实施方式同样地,基于用距离图像传感器测量到的信息进行自己位置识别和台阶/障碍物的回避。当到达作为配送目的地的配货点时,向配货点的终端以无线发送关于货物的内容和发件方的信息。之后,使用底面的传送带23进行货物的卸下。
当卸下完成时,开始向下一个货物的配送目的地的移动。这样当全部货物向目的地的卸下完成时,一边参照路线图信息一边回到原来的集货终点站。
在工厂内应用多台这种自动搬运机器人201,由此能不依靠人手地安全地在工厂内搬运大量货物。使用本发明的周围环境识别装置,由此在工厂内的通道附近存在台阶等的情况下,尽管有死角也能正确地识别该台阶的边缘,能防止滚落。另外,在基于路线图信息一边识别自己位置一边在工厂内行走的情况下,作为自己位置识别的目标使用校正后的台阶的边缘信息,由此能提高识别精度,能提高在工厂内移动的效率。
此外,在上述第1~第3实施方式中,作为在周围环境识别装置中使用的距离传感器使用了红外图案光投射方式的距离图像传感器20,但也能使用立体方式或TOF方式等其它方式的距离图像传感器。在立体方式的距离图像传感器的情况下,针对从被立体配置的左右摄像机得到的左右图像利用对应点搜索等方法计算视差。能根据视差的值利用三角测量的原理求出到对象物的距离。
(第4实施方式)
接下来,使用图11到图16说明代替红外图案光照射方式的距离图像传感器而将激光测距仪(LRF)作为距离传感器使用的第4实施方式。针对与第1实施方式同样的部分附上相同的附图标记,省略说明。
将作为该第4实施方式的自主移动系统的清扫机器人300的外观在图11(a)中表示。该清扫机器人300代替第1实施方式的距离图像传感器20而搭载有作为2台距离传感器的激光测距仪(LRF)301和302。为了与水平方向上安装的LRF、即“水平LRF”22进行区别,以下将它们称为“台阶用LRF”。水平LRF和台阶用LRF可以是相同的机型,也可以是不同的机型。
上述台阶用LRF301和302在左右方向(清扫机器人基准坐标系中的XR轴方向)上相互隔开数十mm到100mm程度的距离,相对于地面(机器人基准的XRYRZR坐标系中的XRZR平面)朝向斜下方被安装,通过扫描测量用红外激光而形成的面、即测量面在从安装位置起数十cm~数m的距离处与地面交叉。水平LRF22的测量面与地面是平行的,因此无法测量比地面低的台阶或地面附近的障碍物,但台阶用LRF如上所述朝向斜下被安装,因此能检测比地面低的台阶或地面附近的障碍物。
上述台阶用LRF301和302能分别在测量面内对从-90deg到+90deg的范围的半圆状的区域投射红外激光,进行物体的测量。在此,将测量范围的中央即0deg方向定义为LRF的前方。另外,如图11(b)所示,作为LRF301基准的坐标系,定义如下XS1YS1ZS1坐标系,其将红外激光的出射位置即测量的原点设为OS1,在前方取ZS1轴,在与测量面垂直的方向上取YS1轴,在与ZS1轴和YS1轴垂直的方向上取XS1轴。同样地,作为LRF302基准的坐标系定义XS2YS2ZS2坐标系。
上述台阶用LRF301的ZS1轴和302的ZS2轴相对于机器人的行进方向即ZR方向以YR轴为中心在向相互相反的方向旋转θY[deg]的方向上安装。因此,台阶用LRF301和302的测量面与地面相交的线成为相对于ZR轴分别倾斜了θY[deg]、-θY[deg]的直线。此外,在该第4实施方式中是θY=45deg,但不限于此。在图11(a)中,分别用A1B1、A2B2表示这些直线。2个直线在机器人主体的前方约1m的距离的点C12处交叉。这些直线A1B1、A2B2表示地面上的台阶用LRF301和302的能测量区域。LRF的投射光的扫描方向是1维,因此如距离图像传感器那样无法一次测量2维状的区域,但如上所述组合朝向斜下配置的2个LRF,由此能覆盖清扫机器人前方的比较广的范围作为测量范围。
从上述清扫机器人300主体到台阶用LRF301、302的能测量区域A1B1、A2B2的距离能通过调节台阶用LRF301、302的安装位置和角度来进行某程度的调节。当能测量区域离清扫机器人300主体过远时,有可能发生与能测量区域相比更近地存在的台阶或障碍物的测量遗漏。相反地,当离清扫机器人主体过近时,即使在移动中检测出台阶或障碍物,也会来不及进行回避动作,有可能发生碰撞或滚落。考虑这些情况,优选在能进行回避动作的范围内按尽可能近的距离设定能测量区域。
在图11(a)中,在清扫机器人300的前方的地面上存在台阶。在这种情况下,使用图12(a)说明通过台阶用LRF301的测量而得到的数据如何变化。图12(a)是由台阶用LRF301的测量面、即XS1ZS1平面截断后的图。在仅是不存在台阶的地面的情况下,来自LRF301的投射光被照射到将A1B1连接的线上,测量该部分的距离,但在存在台阶的情况下,测量从A1到S1(地面)、从Q1到P1(台阶的底面)、从P1到T1(台阶的侧面)、从T1到B1(地面)的范围的距离。台阶的底面中的从R1到Q1的范围从台阶用LRF301观看时成为死角,因此未被测量。
上述台阶用LRF301将到测量面(XS1YS1ZS1坐标系的XS1ZS1平面)内的测量对象物的距离信息以极坐标形式、即作为包括测量面内的角度θ和距离θ的测量原点OS1的距离r的一组数据向清扫机器人300的运算装置330(参照图13)输出。
将该第4实施方式的清扫机器人300的框图在图13中表示。清扫机器人300内的运算装置330代替第1实施方式的清扫机器人1的距离图像运算模块31而具备LRF数据运算模块310。除此以外的构成与第1实施方式相同。此外,380表示周围环境识别装置。
存在于上述LRF数据运算模块310内的数据取得部311将从台阶用LRF301取得的极坐标数据转换为正交坐标后作成在XS1ZS1平面上反映的数据。将其在图12(b)中表示。测量与从图12(a)的A1到S1(地面)、从Q1到P1(台阶的底面)、从P1到T1(台阶的侧面)、从T1到B1(地面)对应的点,而不测量从LRF301观看时成为死角的台阶的底面R1到Q1,因此可知不存在数据。同样地,将从台阶用LRF302接收到的测量数据转换为正交坐标,作成在XS2YS2ZS2坐标系(在图11(b)中将OS1,XS1,YS1,ZS1置换为OS2,XS2,YS2,ZS2的坐标系)中的XS2ZS22平面上反映的数据。将其在图12(c)中表示。
下面,存在于LRF数据运算模块310内的坐标变换部312针对由数据取得部311作成的台阶用LRF301的数据实施坐标变换处理。使用预先存储的针对机器人300主体的台阶用LRF301的安装位置和角度的参数,将测量数据从LRF301基准的坐标系(XS1YS1ZS1坐标系)下的坐标值转换为机器人300主体基准的坐标系(XRYRZR坐标系)下的坐标值。同样地,关于台阶用LRF302的数据,也实施从LRF302基准的坐标系(XS2YS2ZS2坐标系)下的坐标值转换为机器人主体基准的坐标系(XRYRZR坐标系)下的坐标值的坐标变换处理。由此,能根据台阶用LRF301和302的数据得到清扫机器人主体基准的3维点群数据。
之后,向作为凹部判定部的数据综合/判定部313发送这些数据。通过前段的坐标变换处理,台阶用LRF301和302的2个数据被表示为同一机器人300主体基准的3维点群数据,因此能将其综合为1个数据。而且,数据综合/判定部313与第1实施方式同样地根据机器人主体坐标系中的YR即距离地面的高度的值对构成3维点群数据的各点附加“台阶”、“障碍物”、“地面”、“未确定”等标签信息。
向作为俯视图数据作成部的俯视图作成部314发送附加有标签信息的3维点群数据。俯视图作成部将3维点群数据反映到机器人主体基准坐标系的XRZR平面,由此作成从机器人主体的上方俯视的俯视图图像。将该俯视图图像在图14(a)中表示。在该图中,将与综合前的图12(b)和(c)中的A1,B1,P1等对应的点分别如A1’,B1’,P1’那样附上单引号来表示。
向作为校正处理部的数据校正部315发送俯视图图像,在此进行台阶位置的校正。数据校正部在俯视图图像中搜索从存在测量数据点的A1’到B1’和从A2’到B2’的范围。在测量数据点的标签信息是“台阶”的情况下,将该台阶的位置按以下说明的校正量L校正为离清扫机器人主体近的一侧。此时,标签采用“台阶”的原样。该校正处理相当于,置换为在假定为在该台阶的位置存在非台阶的地面的情况下的地面的位置。
使用图15说明台阶校正量的算出。关于台阶P1’Q1’上的点U1’,当将在假定为在该位置存在非台阶的地面的情况下的地面的位置设为V1’时,校正量L相当于U1’V1’。
关于L,当使用台阶的深度(相当于3维点群数据的YR坐标值)YE和图15所示的θE时,用
L=YE/tanθE
表示。θE利用LRF301的安装角度θP、和在LRF301的测量面内OS1U1’与ZS1轴所成的角度θ由
sinθE=cosθP·cosθ
表示,因此成为
L=YE/tan(sin-1(cosθP·cosθ))。
根据上式,当针对台阶上的任意的点赋予YE、θP和关于该点的θ时,能计算该点处的台阶位置校正量L。
数据校正部315针对俯视图图像所包含的3维点群数据中的、具有需要校正的“台阶”标签的所有点计算上述校正量L,新生成进行了该距离L的校正的俯视图图像。将在数据校正部315中进行了校正后的俯视图图像在图14(b)中表示。在图14(a)中,可知表示台阶的P1’Q1’和P1’T1’的线段在比表示地面的线A1’B1’更远的距离处显示,但在图14(b)中,台阶位置S1’T1’与地面A1’B1’存在于同一直线上。
在没有进行校正的情况下,俯视图上的到台阶边缘位置的距离由于死角的影响成为比到真正的台阶边缘位置的距离(图14(a)所示的ORS1’)更远的值(该图的ORQ1’),随着清扫机器人主体靠近台阶,该值逐渐接近真正的值。即,随着清扫机器人靠近台阶,台阶边缘的位置与最初测量时相比逐渐地靠近。
如清扫机器人那样的自主移动机器人为了在无人状态下安全地行走需要准确地掌握周围的台阶的位置。通常即使检测出的台阶的边缘的位置在移动中发生了变动,也能通过行走控制模块每次修正移动速度和移动方向来回避滚落。但是,在进行快速盘转或快速前进等情况下,考虑台阶从到目前处于距离图像传感器的视野范围外的区域突然出现在视野范围中,在这种情况下有可能来不及进行回避动作。在自主移动机器人中,除了如台阶用LRF那样的周围环境检测装置以外,还在箱体的下部分别地设置地面检测传感器等来谋求双重三重的滚落防止对策,尽管如此如果频繁地发生由如上所述的死角造成的位置测量误差,则也无法排除地面检测传感器过度地反映等而使状态变得不稳定的可能性。
而该第4实施方式的清扫机器人,通过数据校正部315实施如上所述的台阶位置的校正,因此台阶的边缘总是成为正确的位置(图14(b)所示的ORS1’)。
此外,即使不进行如上所述的台阶位置校正量L的计算和基于其的校正,仅通过机械的置换处理也能得到同等的效果。例如,在存在赋予了如图14(a)所示的“台阶”标签的P1’Q1’和P1’T1’的线段的情况下,考虑将其机械地置换为S1’T1’的线段的处理。但是,在这种情况下,例如,在作为地面的一端的S1’成为存在表面的反射率或噪声等的问题的测量,其被测量为从S1’离开的位置S1”(未图示)的情况下,线段不是被校正为S1’T1’而是被校正为S1”T1’,因此台阶的边缘从真正的位置偏离。对此,在上述台阶位置校正量L的计算中,L只是仅根据作为台阶的深度的YE和台阶用LRF301、302的安装角θP以及测量角度θ计算的,因此,即使在地面的一端S1’的位置处存在误差,也不会对校正后的台阶数据带来影响。即,每次计算台阶校正量L并按适当的量进行校正,由此即使在地面的一端S1’的测量值中存在一些测量误差也能求出适当的台阶的边缘。
LRF301、302与距离图像传感器不同,仅能进行1维扫描,因此能测量的区域成为地面上的直线状的区域,在清扫机器人300静止的状态下,无法检测在该直线上不存在的台阶。但是,清扫机器人300主体一边行走一边连续地进行测量,由此表示能测量区域的直线在地面上移动,因此作为结果能在测量区域中包括地面上的整个范围。
该第4实施方式的清扫机器人300根据测距信息和水平LRF22取得的障碍物/台阶信息,使用与第1实施方式相同的自己位置识别方法来计算清扫机器人300本身存在于目前路线图内的哪一位置。将包括从台阶用LRF301、302得到的台阶信息的俯视图数据在该路线图上重叠显示,与清扫机器人300的移动相应地将俯视图数据改写在该时点的目前位置并进行更新。此时,在数据校正部315中,如果台阶端的测量点Q1’被正确地校正为边缘的位置S1’,则通过改写更新形成的“地面”标签的点与“台阶”标签的点的边界的点的集合正确地表示台阶的边缘。
在图16的(a)~(d)中表示进行台阶位置校正的情况和不进行台阶位置校正的情况的检测结果的比较。在不进行台阶位置校正的情况下,俯视图上的表示台阶端的点比真正的台阶端偏向里侧(远离清扫机器人主体的一侧),并且随着清扫机器人300移动,LRF的死角发生变化,由此,偏差量发生变化。在图16(a)中表示该情况。将这些数据在路线图上重叠而得到的台阶区域的信息成为如图16(b)那样的形状,离清扫机器人主体近的边缘的位置从实际的台阶边缘的位置处偏离。而在进行台阶位置校正的情况下,如图16(c)所示在正确的位置得到俯视图上的表示台阶端的点,因此通过使该数据在路线图上重叠而得到如图16(d)所示的正确的台阶区域的信息。根据以上内容,可知进行台阶位置校正,使其结果在路线图上重叠,由此能正确地检测存在台阶的区域及其边缘。
将如以上所示被提取的台阶信息与同样被提取的比地面高的障碍物的信息进行综合,作为台阶/障碍物信息向自己位置运算模块35发送。台阶/障碍物数据的形式以之后行走控制模块32易于处理的方式能转换为任意的形式。数据的坐标系既能按清扫机器人基准的XRYRZR正交坐标系的原样发送,也能将其转换为极坐标(R-θ坐标系)。除了将检测出的全部障碍物/台阶实现数据化的方法以外,还考虑进行数据的间拔/插值、噪声去除处理、或者仅提取离清扫机器人300主体最近的障碍物/台阶数据的方法。
关于自己位置识别或清扫等、清扫机器人300的其它部分的结构或动作,与在第1实施方式中说明的相同,省略说明。
此外,在之前的第1实施方式中所述的专利文献2中,关于为了校正台阶信息而作成俯视图数据这一点虽然与本发明类似,但在3维信息的取得中使用立体摄像机,因此没有设想如该第4实施方式那样根据台阶用LRF301、302的1维测量数据进行台阶信息的校正。另外,在专利文献2中,仅将不存在测量点的区域判定为危险区域,关于台阶的边缘位置的信息未被校正,而在该第4实施方式中,在作为距离传感器使用台阶用LRF301、302的情况下,也能正确地校正由于死角而产生的台阶的边缘位置的偏差。而且,通过针对台阶的边缘位置进行校正能取得正确的台阶的边缘位置,由此能将校正后的边缘信息作为自己位置识别的线索使用。因而,路线图上的自己位置识别的精度提高,能提高基于自主移动系统的路线图信息的行走的可靠性。
如上所示,在该第4实施方式中,在作为自主移动系统的清扫机器人300的距离传感器使用台阶用LRF301、302的情况下,也能通过正确地校正由于死角而产生的台阶的边缘位置的偏差,精度良好地提取台阶的边缘,来防止在台阶处滚落,提高自主移动的精度。
另外,通过将该第4实施方式与第2实施方式或者第3实施方式进行组合,由此能实现搭载有台阶用LRF的监视机器人或搭载有台阶用LRF的自动搬运机器人。
(其它实施方式)
本发明的周围环境识别装置除了作为独立的装置在工业用、民用的其它用途中使用以外,还能组装于通用的便携信息终端等的一部分,或者将运算电路的一部分或者全部实现集成电路(IC)化后应用。
在第4实施方式中,每次测量进行台阶边缘位置的校正处理,但也可以在将多次测量的结果综合后进行台阶边缘位置的校正处理。当综合多次测量结果时,如图16(a)和(b)所示,得到2维的台阶信息,因此能通过与第1实施方式类似的处理进行由于死角而产生的台阶边缘位置的校正。
在第1实施方式中,使用1台距离图像传感器20,在第4实施方式中使用2台的台阶用LRF301、302,但也可以分别采用其它台数。另外,在将第1实施方式和第4实施方式组合后搭载多个距离图像传感器或LRF、一边并用它们一边得到距离信息的情况下,也能应用本发明。
在上述第1~第4实施方式中,作为凹部辨别部的一例的障碍物/台阶辨别部38,如图3(a)、(b)所示,将比地面高的凸状区域K辨别为“障碍物”,将比地面F低的凹状区域C辨别为“台阶”,将地面区域F辨别为“地面”,但本发明的凹部辨别部只要是至少能辨别出比地面低的凹状区域即可。
在上述第1~第4实施方式中,说明了作为自主移动系统的一个方式的清扫机器人、监视机器人以及自动搬运机器人,但除此以外,也能应用于例如汽车行驶、看护用机器人、灾害救助用机器人、农活用机器人、娱乐用机器人等其它自主移动系统。
如果总结本发明和实施方式,则为如下所示。
本发明的周围环境识别装置80、380的特征在于,具备:
距离传感器20、301、302;
凹部辨别部(障碍物/台阶辨别部38、数据综合/判定部313),其基于从上述距离传感器20、301、302得到的距离数据,至少辨别比地面F低的凹状区域C;
俯视图数据作成部39、314,其将上述距离数据以上述地面F为基准进行坐标变换后作成俯视图数据;以及
校正处理部40、315,其在上述俯视图数据内校正由于上述距离传感器20的死角而产生的凹状区域与该凹状区域以外的区域的边界的位置偏差。
在上述构成中,凹部辨别部(障碍物/台阶辨别部38、数据综合/判定部313)基于从上述距离传感器20、301、302得到的距离数据至少辨别凹状区域C,上述俯视图数据作成部39将上述距离数据以上述地面F为基准进行坐标变换后作成俯视图数据,校正处理部40、315校正由于上述距离传感器20、301、302的死角而产生的凹状区域、与该凹状区域以外的区域的边界的位置偏差。例如,在显示上述凹状区域C的俯视图数据内,将由于上述距离传感器20、301、302的死角而产生的不存在距离数据的区域U作为凹状区域C进行校正。
因而,根据本发明的周围环境识别装置80、380,在有死角的情况下也能可靠且准确地检测出台阶,从而提高周围环境的识别精度。
在1个实施方式中,
上述校正处理部40、315在上述俯视图数据中基于由上述凹部辨别部(障碍物/台阶辨别部38、数据综合/判定部313)辨别的数据是否按特定的顺序排列,来确定可否校正上述边界位置的偏差。
根据上述实施方式,由于基于由上述凹部辨别部(障碍物/台阶辨别部38、数据综合/判定部313)辨别的数据是否按特定的顺序排列来确定可否校正上述边界的位置偏差,确定可否校正缺少上述数据的区域,因此即使在由于噪声等不能测量从而产生的未确定区域和由于死角而产生的未确定区域混合存在的情况下,也能准确地检测死角的大小。
上述特定的顺序可以设为例如按与距离传感器20、301、302近的顺序,按凸状区域或者地面区域、未确定区域U、凹状区域C排列的顺序。
在1个实施方式中,
上述校正处理部40基于上述距离传感器20的安装角度θS、上述凹状区域C的深度信息h、以及上述凹状区域C的距离数据L-2,计算上述距离传感器20的死角的大小,确定对凹状区域C的校正量h·tanθS。
根据上述实施方式,能简单、准确地确定对凹状区域C的校正量。
本发明的自主移动系统1、101、201、300的特征在于,
具备上述周围环境识别装置80、380,一边识别行进方向前方的可移动区域一边移动。
本发明的自主移动系统1、101、201、300能利用上述周围环境识别装置80、380准确且可靠地检测出凹状区域即台阶C的边缘,因此能防止在台阶C处跌落。
1个实施方式的自主移动系统1、101、201、300,
保存有可更新的地图数据,基于来自上述周围环境识别装置80、380的数据,一边进行上述地图数据上的自己位置的推定一边移动。
根据上述实施方式,能将由上述周围环境识别装置校正后的凹状区域C的边缘作为目标,准确地进行地图数据上的自己位置的推定,能提高移动的效率。
本发明的周围环境识别方法的特征在于,
利用向前方斜下配置的距离传感器20、301、302测量地面F来生成地面基准的3维坐标数据,
基于该3维坐标数据,辨别地面区域和比上述地面F低的凹状区域C,进行3维坐标数据的标签附加,作成俯视图数据,
扫描上述俯视图数据,当上述标签按特定的顺序排列时,校正由于距离传感器20的死角而产生的凹状区域与该凹状区域以外的区域的边界的位置偏差。
根据本发明的周围环境识别方法,在存在死角的情况下也能可靠且准确地检测出凹状区域C,因此能提高周围环境的识别精度。
除此以外,能在不违背本发明的宗旨的范围内施加各种变更。
工业上的可利用性
本发明涉及用于检测作为测量对象的图像数据所包括的障碍物或台阶等的周围环境识别装置和使用该周围环境识别装置的自主移动系统,除了将周围环境识别装置本身作为独立的装置用于清扫、监视、自动搬送等的工业用、民用的其它用途以外,还能将其组装为其它装置的一部分来使用,或者将装置的一部分或者全部实现集成电路(IC)化来使用。
附图标记说明
1、101、300 清扫机器人(自主移动系统)
2 驱动轮
3 从动轮
4 电池
5 清洗液罐
6 清洗液喷出部
7 废液罐
8 废液吸引口
9 清扫刷
10 电机
11 箱体
12 保护构件
13 操作面板
20 距离图像传感器
21 窗
22 激光测距仪(LRF)
30、330 运算装置
31 距离图像运算模块
32 行走控制模块
33 清扫控制模块
34 路线图信息存储器
35 自己位置运算模块
36 3维坐标运算部
37 坐标变换部
38 障碍物/台阶辨别部(凹部辨别部)
39 俯视图作成部
301、302 台阶用激光测距仪(LRF)
310 LRF数据运算模块
Claims (5)
1.一种周围环境识别装置,其特征在于,具备:
距离传感器(20、301、302);
凹部辨别部(38、313),其基于从上述距离传感器(20、301、302)得到的距离数据,至少辨别比地面(F)低的凹状区域(C);
俯视图数据作成部(39、314),其将上述距离数据以上述地面(F)为基准进行坐标变换后作成俯视图数据;以及
校正处理部(40、315),其校正上述俯视图数据内的由于上述距离传感器(20、301、302)的死角而产生的凹状区域与该凹状区域以外的区域的边界的位置偏差,
上述校正处理部(40、315)基于上述距离传感器(20、301、302)的安装角度θS、上述凹状区域(C)的深度信息h、以及上述凹状区域(C)的距离数据L2,计算上述距离传感器(20、301、302)的死角的大小,确定校正量,
上述安装角度θS是上述距离传感器(20、301、302)相对于铅垂面的倾斜角。
2.根据权利要求1所述的周围环境识别装置,其特征在于,
上述校正处理部(40、315)基于上述俯视图数据中的由上述凹部辨别部(38、313)辨别的数据是否按特定的顺序排列,来确定可否校正上述边界位置的偏差。
3.根据权利要求1所述的周围环境识别装置,其特征在于,
上述校正量是对上述凹状区域(C)的校正量h·tanθS。
4.一种自主移动系统,其特征在于,
具备权利要求1至3中的任一项所述的周围环境识别装置(80、380),其一边识别行进方向前方的可移动区域一边移动。
5.一种周围环境识别方法,其特征在于,
利用朝向斜前下方配置的距离传感器(20、301、302)测量地面(F)并生成地面基准的3维坐标数据,
基于该3维坐标数据,辨别地面区域和比上述地面(F)低的凹状区域(C),进行3维坐标数据的标签附加,作成俯视图数据,
扫描上述俯视图数据,当上述标签按特定的顺序排列时,校正由于距离传感器(20、301、302)的死角而产生的凹状区域与该凹状区域以外的区域的边界的位置偏差,
基于上述距离传感器(20、301、302)的安装角度θS、上述凹状区域(C)的深度信息h、以及上述凹状区域(C)的距离数据L2,计算上述距离传感器(20、301、302)的死角的大小,确定校正量,
上述安装角度θS是上述距离传感器(20、301、302)相对于铅垂面的倾斜角。
Applications Claiming Priority (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013-037823 | 2013-02-27 | ||
JP2013037823 | 2013-02-27 | ||
JP2013110883A JP6132659B2 (ja) | 2013-02-27 | 2013-05-27 | 周囲環境認識装置、それを用いた自律移動システムおよび周囲環境認識方法 |
JP2013-110883 | 2013-05-27 | ||
PCT/JP2013/082022 WO2014132509A1 (ja) | 2013-02-27 | 2013-11-28 | 周囲環境認識装置、それを用いた自律移動システムおよび周囲環境認識方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN105074600A CN105074600A (zh) | 2015-11-18 |
CN105074600B true CN105074600B (zh) | 2017-09-19 |
Family
ID=51427797
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201380073566.0A Active CN105074600B (zh) | 2013-02-27 | 2013-11-28 | 周围环境识别装置、使用其的自主移动系统以及周围环境识别方法 |
Country Status (4)
Country | Link |
---|---|
US (1) | US9411338B2 (zh) |
JP (1) | JP6132659B2 (zh) |
CN (1) | CN105074600B (zh) |
WO (1) | WO2014132509A1 (zh) |
Families Citing this family (159)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11835343B1 (en) | 2004-08-06 | 2023-12-05 | AI Incorporated | Method for constructing a map while performing work |
US10809071B2 (en) * | 2017-10-17 | 2020-10-20 | AI Incorporated | Method for constructing a map while performing work |
US8169596B2 (en) * | 2009-08-17 | 2012-05-01 | Seegrid Corporation | System and method using a multi-plane curtain |
KR102061511B1 (ko) * | 2013-04-26 | 2020-01-02 | 삼성전자주식회사 | 청소 로봇, 홈 모니터링 장치 및 그 제어 방법 |
WO2015008874A1 (ko) * | 2013-07-15 | 2015-01-22 | 엘지전자 주식회사 | 로봇 청소기 및 그 로봇 청소기의 3d 센서 자가 교정 방법 |
KR20150058679A (ko) * | 2013-11-20 | 2015-05-29 | 한국전자통신연구원 | 단지내 도로에서 자율주행차량의 위치 및 해딩 정보 제공 장치 및 방법 |
JP6246690B2 (ja) * | 2014-09-26 | 2017-12-13 | Idec株式会社 | 移動体、計測装置及び計測方法 |
KR20160048492A (ko) * | 2014-10-24 | 2016-05-04 | 엘지전자 주식회사 | 로봇 청소기 및 이의 제어 방법 |
WO2016085717A1 (en) * | 2014-11-26 | 2016-06-02 | Irobot Corporation | Systems and methods for performing simultaneous localization and mapping using machine vision systems |
JP6729997B2 (ja) * | 2014-12-25 | 2020-07-29 | 東芝ライフスタイル株式会社 | 電気掃除機 |
CN104571511B (zh) * | 2014-12-30 | 2018-04-27 | 青岛歌尔声学科技有限公司 | 一种3d场景中重现物体的系统和方法 |
JP6476945B2 (ja) * | 2015-02-09 | 2019-03-06 | サクサ株式会社 | 画像処理装置 |
KR102314637B1 (ko) * | 2015-03-23 | 2021-10-18 | 엘지전자 주식회사 | 로봇 청소기 및 이를 구비하는 로봇 청소 시스템 |
EP3198350B1 (en) | 2015-03-31 | 2021-11-10 | SZ DJI Technology Co., Ltd. | System and method for mobile platform operation |
WO2016157428A1 (ja) * | 2015-03-31 | 2016-10-06 | パイオニア株式会社 | 計測装置、計測方法、及び、プログラム |
DE102015105211A1 (de) * | 2015-04-07 | 2016-10-13 | Vorwerk & Co. Interholding Gmbh | Verfahren zur Bearbeitung eines Bodens |
WO2016187760A1 (en) | 2015-05-23 | 2016-12-01 | SZ DJI Technology Co., Ltd. | Sensor fusion using inertial and image sensors |
JP6505506B2 (ja) * | 2015-05-29 | 2019-04-24 | シャープ株式会社 | 光センサおよび電子機器 |
US10012733B2 (en) * | 2015-06-07 | 2018-07-03 | Geoffrey Louis Barrows | Localization method and apparatus |
WO2016208274A1 (ja) * | 2015-06-23 | 2016-12-29 | 日本電気株式会社 | 検出システム、検出方法、及び、プログラム |
US9919425B2 (en) * | 2015-07-01 | 2018-03-20 | Irobot Corporation | Robot navigational sensor system |
JP2017015601A (ja) * | 2015-07-02 | 2017-01-19 | シャープ株式会社 | 路面検知装置、移動体、路面検知方法、および路面検知プログラム |
US9886035B1 (en) | 2015-08-17 | 2018-02-06 | X Development Llc | Ground plane detection to verify depth sensor status for robot navigation |
US9746852B1 (en) * | 2015-08-17 | 2017-08-29 | X Development Llc | Using laser sensors to augment stereo sensor readings for robotic devices |
US20170090456A1 (en) * | 2015-09-25 | 2017-03-30 | Multimedia Image Solution Limited | Autonomous cleaning robot |
WO2017058732A1 (en) * | 2015-09-28 | 2017-04-06 | Nextnav, Llc | Altitude-based indoor or outdoor detection |
JP7007078B2 (ja) * | 2015-10-08 | 2022-01-24 | 東芝ライフスタイル株式会社 | 電気掃除機 |
JP6705636B2 (ja) * | 2015-10-14 | 2020-06-03 | 東芝ライフスタイル株式会社 | 電気掃除機 |
US10444758B2 (en) * | 2015-12-01 | 2019-10-15 | Ricoh Company, Ltd. | Autonomous traveling device |
US9946259B2 (en) * | 2015-12-18 | 2018-04-17 | Raytheon Company | Negative obstacle detector |
JP7058067B2 (ja) * | 2016-02-16 | 2022-04-21 | 東芝ライフスタイル株式会社 | 自律走行体 |
JP6685755B2 (ja) * | 2016-02-16 | 2020-04-22 | 東芝ライフスタイル株式会社 | 自律走行体 |
CN105824313A (zh) * | 2016-03-15 | 2016-08-03 | 深圳市华讯方舟科技有限公司 | 障碍物躲避方法及装置 |
US10789730B2 (en) | 2016-03-18 | 2020-09-29 | Teknologian Tutkimuskeskus Vtt Oy | Method and apparatus for monitoring a position |
CN105796002B (zh) * | 2016-03-31 | 2018-09-18 | 北京小米移动软件有限公司 | 清洁机器人室内清洁处理方法、清洁机器人及移动终端 |
US20170329347A1 (en) * | 2016-05-11 | 2017-11-16 | Brain Corporation | Systems and methods for training a robot to autonomously travel a route |
US10241514B2 (en) | 2016-05-11 | 2019-03-26 | Brain Corporation | Systems and methods for initializing a robot to autonomously travel a trained route |
US10245730B2 (en) * | 2016-05-24 | 2019-04-02 | Asustek Computer Inc. | Autonomous mobile robot and control method thereof |
KR101795270B1 (ko) * | 2016-06-09 | 2017-11-07 | 현대자동차주식회사 | 장애물의 지면경계 정보를 이용한 물체 측면 검출 방법 및 장치 |
US9987752B2 (en) | 2016-06-10 | 2018-06-05 | Brain Corporation | Systems and methods for automatic detection of spills |
US10282849B2 (en) | 2016-06-17 | 2019-05-07 | Brain Corporation | Systems and methods for predictive/reconstructive visual object tracker |
JP6822788B2 (ja) * | 2016-06-24 | 2021-01-27 | 大成建設株式会社 | 清掃ロボット |
US10016896B2 (en) | 2016-06-30 | 2018-07-10 | Brain Corporation | Systems and methods for robotic behavior around moving bodies |
JP6786922B2 (ja) * | 2016-07-12 | 2020-11-18 | 株式会社リコー | 情報処理装置、情報処理方法及び情報処理プログラム |
US10265856B2 (en) * | 2016-07-21 | 2019-04-23 | X Development Llc | Reorienting a distance sensor using an adjustable leveler |
CN106203419B (zh) * | 2016-07-25 | 2019-05-07 | 上海肇观电子科技有限公司 | 一种确定包络面的方法和装置 |
CN106156751B (zh) * | 2016-07-25 | 2019-05-07 | 上海肇观电子科技有限公司 | 一种向目标对象播放音频信息的方法及装置 |
CN107334609B (zh) * | 2016-07-25 | 2019-08-27 | 上海肇观电子科技有限公司 | 一种向目标对象播放音频信息的系统和方法 |
KR101997531B1 (ko) * | 2016-08-01 | 2019-07-08 | 한국기계연구원 | 개인 이동기구의 장애물 회피 시스템 및 이를 이용한 장애물 회피 방법 |
US10845817B1 (en) * | 2016-08-11 | 2020-11-24 | Ali Ebrahimi Afrouzi | System and method for confining robotic devices |
CN107765697B (zh) * | 2016-08-23 | 2023-11-03 | 苏州宝时得电动工具有限公司 | 自移动设备以及自移动设备控制方法 |
US10690757B1 (en) * | 2016-08-25 | 2020-06-23 | AI Incorporated | Method and apparatus for improving range finding system readings |
CN106269624B (zh) * | 2016-09-21 | 2019-03-08 | 苏州瑞得恩光能科技有限公司 | 太阳能面板清扫机器人 |
US10274325B2 (en) | 2016-11-01 | 2019-04-30 | Brain Corporation | Systems and methods for robotic mapping |
JP6831210B2 (ja) | 2016-11-02 | 2021-02-17 | 東芝ライフスタイル株式会社 | 電気掃除機 |
JP6831213B2 (ja) * | 2016-11-09 | 2021-02-17 | 東芝ライフスタイル株式会社 | 電気掃除機 |
US10723018B2 (en) | 2016-11-28 | 2020-07-28 | Brain Corporation | Systems and methods for remote operating and/or monitoring of a robot |
WO2018101631A2 (ko) * | 2016-11-30 | 2018-06-07 | (주)유진로봇 | 청소 로봇, 청소 로봇에 구비되는 청소 기능 제어 장치, 및 청소 로봇에 구비되는 다채널 라이더 기반 장애물 검출 장치 |
US10962647B2 (en) | 2016-11-30 | 2021-03-30 | Yujin Robot Co., Ltd. | Lidar apparatus based on time of flight and moving object |
EP3549726B1 (en) * | 2016-11-30 | 2023-01-11 | Yujin Robot Co., Ltd. | Robotic vacuum cleaner, cleaning function control apparatus equipped in robotic vacuum cleaner, and multi-channel lidar-based obstacle detection apparatus equipped in robotic vacuum cleaner |
CN106527449B (zh) * | 2016-12-23 | 2024-06-21 | 上海诺亚木木机器人科技有限公司 | 避障系统 |
JP6740552B2 (ja) * | 2016-12-28 | 2020-08-19 | 株式会社三井E&Sマシナリー | 障害物検知システムおよび障害物検知方法 |
DE112017006839T5 (de) * | 2017-01-16 | 2019-09-26 | Fujitsu Limited | Informationsverarbeitungsvorrichtung, Datenbankerzeugungsvorrichtung, Verfahren, Programm und Speichermedium |
JP6809913B2 (ja) * | 2017-01-26 | 2021-01-06 | パナソニック株式会社 | ロボット、ロボットの制御方法、および地図の生成方法 |
US10852730B2 (en) | 2017-02-08 | 2020-12-01 | Brain Corporation | Systems and methods for robotic mobile platforms |
JP6257868B1 (ja) * | 2017-02-20 | 2018-01-10 | 三菱電機株式会社 | センサデータ統合装置、センサデータ統合方法及びセンサデータ統合プログラム |
JP6603253B2 (ja) * | 2017-03-02 | 2019-11-06 | 本田技研工業株式会社 | 移動体制御システム、および移動体制御方法 |
JP6811656B2 (ja) | 2017-03-14 | 2021-01-13 | 本田技研工業株式会社 | レーザ式測距装置のノイズデータの特定方法 |
JP6927630B2 (ja) * | 2017-03-21 | 2021-09-01 | 株式会社Ihiエアロスペース | 凹型障害物検出装置と方法 |
JP6836940B2 (ja) | 2017-03-22 | 2021-03-03 | 本田技研工業株式会社 | レーザ式測距装置のノイズデータの特定方法 |
JP2018163614A (ja) | 2017-03-27 | 2018-10-18 | カシオ計算機株式会社 | 自律移動装置、自律移動方法およびプログラム |
JP6788537B2 (ja) * | 2017-03-28 | 2020-11-25 | 本田技研工業株式会社 | レーザ式測距装置を使用した物体エッジの検出方法 |
JP6874489B2 (ja) * | 2017-04-13 | 2021-05-19 | 三菱電機株式会社 | 自走式布団掃除機 |
JP6907678B2 (ja) * | 2017-04-25 | 2021-07-21 | トヨタ自動車株式会社 | 移動ロボット |
US10742494B2 (en) * | 2017-04-27 | 2020-08-11 | Veoneer Us, Inc. | System and method for configuring at least one sensor system of a vehicle |
KR20220025250A (ko) * | 2017-06-02 | 2022-03-03 | 에이비 엘렉트로룩스 | 로봇 청소 장치 전방의 표면의 레벨차를 검출하는 방법 |
CN107167141B (zh) * | 2017-06-15 | 2020-08-14 | 同济大学 | 基于双一线激光雷达的机器人自主导航系统 |
CN107030733B (zh) * | 2017-06-19 | 2023-08-04 | 合肥虹慧达科技有限公司 | 一种轮式机器人 |
JP7089954B2 (ja) * | 2017-06-30 | 2022-06-23 | 酒井重工業株式会社 | 建設車両の障害物検知装置 |
CN109215044B (zh) * | 2017-06-30 | 2020-12-15 | 京东方科技集团股份有限公司 | 图像处理方法和系统、存储介质和移动系统 |
CN107703951B (zh) * | 2017-07-27 | 2019-02-01 | 上海拓攻机器人有限公司 | 一种基于双目视觉的无人机避障方法及系统 |
KR102448287B1 (ko) * | 2017-08-08 | 2022-09-28 | 삼성전자주식회사 | 전자 장치 및 그 동작 방법 |
DE102017214185A1 (de) * | 2017-08-15 | 2019-02-21 | Zf Friedrichshafen Ag | Steuerung eines Transportfahrzeugs |
CN109425352A (zh) * | 2017-08-25 | 2019-03-05 | 科沃斯机器人股份有限公司 | 自移动机器人路径规划方法 |
US11579298B2 (en) | 2017-09-20 | 2023-02-14 | Yujin Robot Co., Ltd. | Hybrid sensor and compact Lidar sensor |
CN107544534A (zh) * | 2017-10-16 | 2018-01-05 | 中国矿业大学 | 一种基于bds、ins的植保无人机自动精细作业及避障方法 |
US11274929B1 (en) * | 2017-10-17 | 2022-03-15 | AI Incorporated | Method for constructing a map while performing work |
CN107553497B (zh) | 2017-10-20 | 2023-12-22 | 苏州瑞得恩光能科技有限公司 | 太阳能面板清扫机器人的边缘定位装置及其定位方法 |
US11474254B2 (en) | 2017-11-07 | 2022-10-18 | Piaggio Fast Forward Inc. | Multi-axes scanning system from single-axis scanner |
US11393114B1 (en) * | 2017-11-08 | 2022-07-19 | AI Incorporated | Method and system for collaborative construction of a map |
JP7156305B2 (ja) * | 2017-11-20 | 2022-10-19 | ソニーグループ株式会社 | 制御装置、および制御方法、プログラム、並びに移動体 |
US10878294B2 (en) * | 2018-01-05 | 2020-12-29 | Irobot Corporation | Mobile cleaning robot artificial intelligence for situational awareness |
US10684623B2 (en) * | 2018-01-10 | 2020-06-16 | Simbe Robotics, Inc. | Method for detecting and responding to spills and hazards |
CN108089200A (zh) * | 2018-01-12 | 2018-05-29 | 深圳慎始科技有限公司 | 一种具有线形固态雷达的清扫机器人 |
CN108189004A (zh) * | 2018-02-11 | 2018-06-22 | 浙江科聪智能科技有限公司 | 一种防爆巡检机器人 |
CN110162030B (zh) * | 2018-02-12 | 2022-11-25 | 北京欣奕华科技有限公司 | 一种移动机器人及其障碍物检测方法 |
SG11202009078TA (en) * | 2018-03-16 | 2020-10-29 | Mitsui E&S Machinery Co Ltd | Obstacle sensing system and obstacle sensing method |
US11860640B2 (en) * | 2018-03-29 | 2024-01-02 | Sony Corporation | Signal processing device and signal processing method, program, and mobile body |
CN112074873A (zh) * | 2018-05-10 | 2020-12-11 | 索尼公司 | 信息处理装置、信息处理方法、程序和地板建模系统 |
US11457788B2 (en) * | 2018-05-11 | 2022-10-04 | Samsung Electronics Co., Ltd. | Method and apparatus for executing cleaning operation |
US11110896B2 (en) * | 2018-05-16 | 2021-09-07 | Tesla, Inc. | Pulsed laser cleaning of debris accumulated on glass articles in vehicles and photovoltaic assemblies |
US11874399B2 (en) | 2018-05-16 | 2024-01-16 | Yujin Robot Co., Ltd. | 3D scanning LIDAR sensor |
CN110531748A (zh) * | 2018-05-24 | 2019-12-03 | 宝时得科技(中国)有限公司 | 自动行走设备及其控制方法 |
US20190384314A1 (en) * | 2018-06-15 | 2019-12-19 | Mobile Industrial Robots A/S | Detecting objects near an autonomous device |
CN108673510A (zh) * | 2018-06-20 | 2018-10-19 | 北京云迹科技有限公司 | 机器人安全行进系统及方法 |
US10872221B2 (en) | 2018-06-21 | 2020-12-22 | Amazon Technologies, Inc | Non-contact biometric identification system |
CN111766877B (zh) * | 2018-06-27 | 2021-08-31 | 北京航空航天大学 | 一种机器人 |
EP3623894B1 (en) | 2018-09-13 | 2022-11-23 | Mobile Industrial Robots A/S | Agv having dynamic safety zone |
US11141863B2 (en) * | 2018-10-11 | 2021-10-12 | Pixart Imaging Inc. | Cleaning robot capable of detecting 2D depth information and operating method thereof |
WO2020085240A1 (ja) * | 2018-10-22 | 2020-04-30 | 株式会社ナイルワークス | 運転経路生成システム、運転経路生成方法、運転経路生成プログラム、座標測量システム、およびドローン |
CN111090277B (zh) * | 2018-10-22 | 2021-11-26 | 科沃斯机器人股份有限公司 | 行进控制的方法、设备及存储介质 |
JP7163729B2 (ja) * | 2018-11-08 | 2022-11-01 | トヨタ自動車株式会社 | 車両制御装置 |
CN114999308B (zh) * | 2018-11-19 | 2024-10-18 | 深圳市海柔创新科技有限公司 | 地图生成方法、装置、计算机可读存储介质和计算机设备 |
CN111202470B (zh) * | 2018-11-21 | 2024-09-20 | 北京石头世纪科技股份有限公司 | 智能清洁设备、重定位方法及装置、存储介质、电子设备 |
CN109814564A (zh) * | 2019-01-29 | 2019-05-28 | 炬星科技(深圳)有限公司 | 目标对象的检测、避障方法、电子设备及存储介质 |
CN109940612A (zh) * | 2019-03-04 | 2019-06-28 | 东北师范大学 | 基于一字线激光的智能避障机器人及其避障方法 |
US11660758B2 (en) | 2019-03-12 | 2023-05-30 | Bear Robotics, Inc. | Robots for serving food and/or drinks |
US20200302147A1 (en) * | 2019-03-20 | 2020-09-24 | Amazon Technologies, Inc. | Biometric input device |
JP7162218B2 (ja) * | 2019-03-25 | 2022-10-28 | 国立大学法人 東京大学 | 俯瞰映像提示システム |
JP6918044B2 (ja) * | 2019-03-28 | 2021-08-11 | Kddi株式会社 | ロボット制御装置及びロボット制御方法 |
JP7142597B2 (ja) * | 2019-04-01 | 2022-09-27 | ヤンマーパワーテクノロジー株式会社 | 走行領域形状登録システム |
JP7195543B2 (ja) * | 2019-04-26 | 2022-12-26 | 国立大学法人京都大学 | 収穫機 |
JP7340350B2 (ja) * | 2019-05-07 | 2023-09-07 | 東芝テック株式会社 | 情報処理装置及び情報処理方法 |
JP7257257B2 (ja) * | 2019-05-30 | 2023-04-13 | アルパイン株式会社 | 路面検出システム、パーソナルモビリティ及び障害物検出方法 |
JP7301474B2 (ja) * | 2019-07-16 | 2023-07-03 | アルパイン株式会社 | 3次元データ分析装置および3次元データ分析方法 |
US11597104B2 (en) | 2019-07-31 | 2023-03-07 | X Development Llc | Mobile robot sensor configuration |
CN110794422B (zh) * | 2019-10-08 | 2022-03-29 | 歌尔光学科技有限公司 | 一种含有tof成像模组的机器人数据采集系统及方法 |
CN110765970B (zh) * | 2019-10-31 | 2022-08-09 | 北京地平线机器人技术研发有限公司 | 最近障碍物的确定方法和装置、存储介质、电子设备 |
JP7407282B2 (ja) * | 2019-10-31 | 2023-12-28 | シーメンス・ヘルスケア・ダイアグノスティックス・インコーポレイテッド | 管アセンブリタイプを識別する装置および方法 |
CN112773261B (zh) * | 2019-11-04 | 2022-06-21 | 美智纵横科技有限责任公司 | 规避障碍物的方法、装置及扫地机器人 |
CN110989581B (zh) * | 2019-11-26 | 2023-04-07 | 广东博智林机器人有限公司 | 搬运系统的控制方法、装置、计算机设备和存储介质 |
CN110919653B (zh) * | 2019-11-29 | 2021-09-17 | 深圳市优必选科技股份有限公司 | 机器人的爬楼控制方法、装置、存储介质和机器人 |
CN112987716A (zh) * | 2019-12-17 | 2021-06-18 | 科沃斯机器人股份有限公司 | 作业控制方法、装置、系统及机器人 |
CN113138593A (zh) * | 2020-01-02 | 2021-07-20 | 苏州宝时得电动工具有限公司 | 自主机器人的地图创建方法、装置、设备及存储介质 |
JP7243650B2 (ja) * | 2020-02-12 | 2023-03-22 | トヨタ自動車株式会社 | 移動量検出システム及び移動量検出方法 |
CN111305019B (zh) * | 2020-02-14 | 2021-11-16 | 北京小马慧行科技有限公司 | 检测道路质量的方法、装置、存储介质与处理器 |
JP7393255B2 (ja) * | 2020-03-05 | 2023-12-06 | 東芝テック株式会社 | 情報処理装置及び情報処理方法 |
CN111538329B (zh) * | 2020-04-09 | 2023-02-28 | 北京石头创新科技有限公司 | 一种图像查看方法、终端及清洁机 |
CN111538034B (zh) * | 2020-04-22 | 2021-05-28 | 追创科技(苏州)有限公司 | 障碍物识别方法、装置及存储介质 |
JP7417944B2 (ja) * | 2020-07-21 | 2024-01-19 | パナソニックIpマネジメント株式会社 | 自律走行型掃除機、自律走行型掃除機の制御方法、及び、プログラム |
JP7558718B2 (ja) | 2020-08-25 | 2024-10-01 | 日本信号株式会社 | 床掃除機 |
CN112099504B (zh) * | 2020-09-16 | 2024-06-18 | 深圳优地科技有限公司 | 机器人移动方法、装置、设备及存储介质 |
EP3995925B1 (en) * | 2020-11-06 | 2023-08-30 | Kabushiki Kaisha Toshiba | Autonomous mobile robot, transporter, autonomous mobile robot control method, and transporter control method |
CN112462772A (zh) * | 2020-11-26 | 2021-03-09 | 深圳优地科技有限公司 | 机器人行进方法、装置、设备及存储介质 |
CN112859836B (zh) * | 2020-12-30 | 2024-09-10 | 广东美的白色家电技术创新中心有限公司 | 一种自主移动设备、校正方法及计算机存储介质 |
CN112741562A (zh) * | 2020-12-30 | 2021-05-04 | 苏州三六零机器人科技有限公司 | 扫地机控制方法、装置、设备及计算机可读存储介质 |
CN112826393B (zh) * | 2020-12-30 | 2022-04-01 | 北京奇虎科技有限公司 | 扫地机器人运行管理方法、扫地机器人、设备及存储介质 |
CN113077503B (zh) * | 2021-03-24 | 2023-02-07 | 浙江合众新能源汽车有限公司 | 盲区视频数据生成方法、系统、设备和计算机可读介质 |
CN113325428A (zh) * | 2021-04-29 | 2021-08-31 | 中国科学院沈阳自动化研究所 | 一种基于激光雷达的距离与航向测量方法 |
US11622495B2 (en) * | 2021-06-01 | 2023-04-11 | Gint Co., Ltd. | Method of automatically combining farm vehicle and work machine and farm vehicle |
US20220390952A1 (en) * | 2021-06-04 | 2022-12-08 | Boston Dynamics, Inc. | Detecting negative obstacles |
CN113608524B (zh) * | 2021-06-16 | 2024-04-16 | 深圳甲壳虫智能有限公司 | 自动行走装置及其控制方法、控制装置及存储介质 |
CN113749562B (zh) * | 2021-08-13 | 2022-08-16 | 珠海格力电器股份有限公司 | 扫地机器人及其控制方法、装置、设备和存储介质 |
CN115808130B (zh) * | 2021-10-14 | 2023-12-12 | 宁德时代新能源科技股份有限公司 | 一种电芯卷绕校准方法及设备 |
US20230128651A1 (en) * | 2021-10-22 | 2023-04-27 | Mobile Industrial Robots A/S | Determining scanner error |
US20230177839A1 (en) * | 2021-12-02 | 2023-06-08 | Nvidia Corporation | Deep learning based operational domain verification using camera-based inputs for autonomous systems and applications |
WO2023145529A1 (ja) * | 2022-01-31 | 2023-08-03 | ソニーグループ株式会社 | 情報処理装置、情報処理方法および情報処理プログラム |
CN114747982B (zh) * | 2022-04-18 | 2023-03-24 | 麦岩智能科技(北京)有限公司 | 一种k型的清洁机器人摄像头排布方法 |
CN114951003B (zh) * | 2022-05-06 | 2023-12-26 | 苏州嘉诺智能制造有限公司 | 基于距离检测的分拣方法及装置 |
Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS57141574A (en) * | 1981-02-25 | 1982-09-01 | Fujitsu Ten Ltd | Warning device for travelling obstacle |
JPS60200314A (ja) * | 1984-03-26 | 1985-10-09 | Hitachi Ltd | 移動ロボット誘導方法 |
JPH07229727A (ja) * | 1994-02-22 | 1995-08-29 | Nikon Corp | 路面検出装置 |
CN1378746A (zh) * | 1999-10-12 | 2002-11-06 | 松下电器产业株式会社 | 监视系统、摄像机调整方法以及车辆监视系统 |
JP2004139264A (ja) * | 2002-10-16 | 2004-05-13 | Toshiba Tec Corp | 自律走行ロボット |
JP2006260105A (ja) * | 2005-03-16 | 2006-09-28 | Matsushita Electric Works Ltd | 移動装置 |
CN200972604Y (zh) * | 2006-11-14 | 2007-11-07 | 喻礼琼 | 一种用于移动平台的台阶检测装置 |
JP2010127849A (ja) * | 2008-11-28 | 2010-06-10 | Sogo Keibi Hosho Co Ltd | 移動体検知装置および移動体検知方法 |
JP2010287029A (ja) * | 2009-06-11 | 2010-12-24 | Konica Minolta Opto Inc | 周辺表示装置 |
KR20100134958A (ko) * | 2009-06-16 | 2010-12-24 | 웅진코웨이주식회사 | 이동체 및 이동체의 주행 제어 방법 |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003116758A (ja) * | 2001-10-16 | 2003-04-22 | Mitsubishi Electric Corp | 自走式掃除機 |
JP4462196B2 (ja) * | 2006-01-18 | 2010-05-12 | パナソニック電工株式会社 | 移動車両 |
DK2835973T3 (da) * | 2013-08-06 | 2015-11-30 | Sick Ag | 3D-kamera og fremgangsmåde til registrering af tredimensionale billededata |
US9182605B2 (en) * | 2014-01-29 | 2015-11-10 | Emine Goulanian | Front-projection autostereoscopic 3D display system |
-
2013
- 2013-05-27 JP JP2013110883A patent/JP6132659B2/ja active Active
- 2013-11-28 CN CN201380073566.0A patent/CN105074600B/zh active Active
- 2013-11-28 WO PCT/JP2013/082022 patent/WO2014132509A1/ja active Application Filing
- 2013-11-28 US US14/655,438 patent/US9411338B2/en not_active Expired - Fee Related
Patent Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS57141574A (en) * | 1981-02-25 | 1982-09-01 | Fujitsu Ten Ltd | Warning device for travelling obstacle |
JPS60200314A (ja) * | 1984-03-26 | 1985-10-09 | Hitachi Ltd | 移動ロボット誘導方法 |
JPH07229727A (ja) * | 1994-02-22 | 1995-08-29 | Nikon Corp | 路面検出装置 |
CN1378746A (zh) * | 1999-10-12 | 2002-11-06 | 松下电器产业株式会社 | 监视系统、摄像机调整方法以及车辆监视系统 |
JP2004139264A (ja) * | 2002-10-16 | 2004-05-13 | Toshiba Tec Corp | 自律走行ロボット |
JP2006260105A (ja) * | 2005-03-16 | 2006-09-28 | Matsushita Electric Works Ltd | 移動装置 |
CN200972604Y (zh) * | 2006-11-14 | 2007-11-07 | 喻礼琼 | 一种用于移动平台的台阶检测装置 |
JP2010127849A (ja) * | 2008-11-28 | 2010-06-10 | Sogo Keibi Hosho Co Ltd | 移動体検知装置および移動体検知方法 |
JP2010287029A (ja) * | 2009-06-11 | 2010-12-24 | Konica Minolta Opto Inc | 周辺表示装置 |
KR20100134958A (ko) * | 2009-06-16 | 2010-12-24 | 웅진코웨이주식회사 | 이동체 및 이동체의 주행 제어 방법 |
Also Published As
Publication number | Publication date |
---|---|
US9411338B2 (en) | 2016-08-09 |
WO2014132509A1 (ja) | 2014-09-04 |
JP2014194729A (ja) | 2014-10-09 |
CN105074600A (zh) | 2015-11-18 |
JP6132659B2 (ja) | 2017-05-24 |
US20150362921A1 (en) | 2015-12-17 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN105074600B (zh) | 周围环境识别装置、使用其的自主移动系统以及周围环境识别方法 | |
US11865708B2 (en) | Domestic robotic system | |
US12038756B2 (en) | Intelligent cleaning robot | |
US11740086B2 (en) | Method for ascertaining the suitability of a position for a deployment for surveying | |
US9329598B2 (en) | Simultaneous localization and mapping for a mobile robot | |
EP3104194B1 (en) | Robot positioning system | |
JP6030405B2 (ja) | 平面検出装置およびそれを備えた自律移動装置 | |
CN106037591B (zh) | 限制移动机器人的运动 | |
CN216454808U (zh) | 用于接收移动清洁机器人并为其充电的坞站 | |
US20160291160A1 (en) | Mobile three-dimensional measuring instrument | |
WO2014064990A1 (ja) | 平面検出装置、平面検出装置を備えた自律移動装置、路面段差検出方法、路面段差検出装置、および路面段差検出装置を備えた車両 | |
CN108700880A (zh) | 自主移动机器人的基站的识别与定位 | |
EP3629869B1 (en) | Method of detecting a difference in level of a surface in front of a robotic cleaning device | |
CN108661362A (zh) | 具有激光测距仪系统的水池清洁器和方法 | |
CN115932882A (zh) | 通过自主机器人载具提供环境的3d探测的系统 | |
JP2023083305A (ja) | 掃除地図表示装置 | |
WO2016089430A1 (en) | Using two-dimensional camera images to speed registration of three-dimensional scans | |
WO2016089431A1 (en) | Using depth-camera images to speed registration of three-dimensional scans | |
Rosinski et al. | Terrain map building for a walking robot equipped with an active 2D range sensor | |
Ollis et al. | Structural method for obstacle detection and terrain classification | |
CN116795117A (zh) | 机器人自动回充方法、装置、存储介质及机器人系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |