CN111381589A - 一种机器人路径规划方法 - Google Patents

一种机器人路径规划方法 Download PDF

Info

Publication number
CN111381589A
CN111381589A CN201811653271.1A CN201811653271A CN111381589A CN 111381589 A CN111381589 A CN 111381589A CN 201811653271 A CN201811653271 A CN 201811653271A CN 111381589 A CN111381589 A CN 111381589A
Authority
CN
China
Prior art keywords
robot
frame data
path planning
planning method
frame
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201811653271.1A
Other languages
English (en)
Inventor
刘贺
徐方
张锋
王洪阳
周思尧
赵旭
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shenyang Siasun Robot and Automation Co Ltd
Original Assignee
Shenyang Siasun Robot and Automation Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shenyang Siasun Robot and Automation Co Ltd filed Critical Shenyang Siasun Robot and Automation Co Ltd
Priority to CN201811653271.1A priority Critical patent/CN111381589A/zh
Publication of CN111381589A publication Critical patent/CN111381589A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0238Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using obstacle or wall sensors
    • G05D1/024Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using obstacle or wall sensors in combination with a laser
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0242Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using non-visible light signals, e.g. IR or UV signals
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0255Control of position or course in two dimensions specially adapted to land vehicles using acoustic signals, e.g. ultra-sonic singals
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0257Control of position or course in two dimensions specially adapted to land vehicles using a radar

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • General Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Electromagnetism (AREA)
  • Optics & Photonics (AREA)
  • Acoustics & Sound (AREA)
  • Manipulator (AREA)

Abstract

本发明实施例提出一种机器人路径规划方法。该方法包括机器人上的距离传感器以预设时间间隔连续扫描周围环境,获得多帧数据;基于所述多帧数据的前预设数量的帧数据,根据分析算法进行分析,推断出下一帧或者预设时长后周围环境中物体的位置;基于机器人自身状况和所述推断的物体的位置,机器人规划回避所述物体的路径。该方法通过预估物体的动态趋势,并基于所预估的结果进行路径规划,从而很好地解决动态环境中路径规划不准确的问题。

Description

一种机器人路径规划方法
技术领域
本发明涉及机器人的技术领域,具体涉及一种机器人路径规划方法。
背景技术
目前,机器人路径规划方法中普遍地认为环境是静态的,但是在实际使用过程中,环境却是复杂的动态环境。现有的机器人路径规划方法中普遍采用实时监测、扫描的方式来解决动态环境的问题。这种做法对扫描频率有较高要求,如果由于系统内部阻塞导致扫描间隔变大,很可能导致机器人短暂性失去路径规划功能。其次,机器人在躲避横向过来障碍物时,有时会向障碍物前进的方向躲避或者作出紧急性的动作等等;对于类人型机器人来说就是要模仿人类,一般人做出这些动作都是不正常的,对于机器人虽然有情可原,但是还是有提高的空间。
需要一种模仿人眼判断动态物体的路径基于此来规划机器人路径的方法。
机器人采用激光传感器来代替人眼,虽然不能像人眼那样判断物体的颜色、空间形状等,但是可以准确的测出距离,如果通过合理的算法也可以达到相同的效果。
因此,针对现有的机器人路径规划方法中无法很好地解决动态环境的问题,有必要提供一种能够模仿人眼判断动态物体的路径并基于此来进行路径规划的方法。
发明内容
针对现有的机器人路径规划方法中无法很好地解决动态环境的问题,本发明实施例提供了一种机器人路径规划方法。该机器人路径规划方法中采用激光传感器代替人眼,由激光传感器准确地推断出动态物体的距离,再结合合理的推理算法,来模仿人眼判断动态物体的路径,并基于此来规划机器人路径,使得路径规划更加合理和优化。
该机器人路径规划方法的具体方案如下:一种机器人路径规划方法,包括步骤S1:机器人上的距离传感器以预设时间间隔连续扫描周围环境,获得多帧数据;步骤S2:基于所述多帧数据的前预设数量的帧数据,根据分析算法进行分析,推断出下一帧或者预设时长后周围环境中物体的位置;步骤S3:基于机器人自身状况和所述推断的物体的位置,机器人规划回避所述物体的路径。
优选地,所述分析算法包括:将间隔时间内物体的运动认定为匀速运动,根据采集帧数据的数量和采集的时间间隔推导出的不同函数来推测物体未来的位置。
优选地,采集帧数据的数量为3,3帧数据的坐标分别为x1,x2和x3,采集的时间间隔为t秒,所推测物体未来的位置为x4,不同函数的表达式为:
Figure BDA0001930314840000021
x4=3x3-3x2+x1
优选地,所述步骤S3具体包括:若在第一帧数据中检测到机器人前进方向的右前方有物体,并在所述第一帧数据后的连续预设帧数据中都检测到所述物体的位置,则推断所述物体的前进方向及未来预设时间内所述物体的位置,机器人继续向右前方规划前进路径。
优选地,所述连续预设帧数据包括第二帧,或者第二帧和第三帧。
优选地,未来预设时间包括未来的0.5秒时长或者未来的1秒时长。
优选地,所述步骤S1中预设时间间隔小于等于0.5秒。
优选地,所述步骤S2中的前预设数量帧数据包括至少前3帧数据。
优选地,所述步骤S2中的预设时长后周围环境中物体的位置包括0.5秒后周围环境中物体的位置。
从以上技术方案可以看出,本发明实施例具有以下优点:
本发明实施例提出一种机器人路径规划方法,该路径规划方法采用激光传感器代替人眼,由激光传感器准确地推断出动态物体的距离,再结合合理的推理算法,来模仿人眼判断动态物体的路径,并基于此来规划机器人路径,使得路径规划更加合理和优化。
附图说明
图1为本发明实施例中提供的一种机器人路径规划方法的流程示意图;
图2为本发明实施例中所采用的激光传感器的示意图;
图3为本发明实施例中所提出的一种推断物体前进方向的示意图;
图4为现有技术中一般路径规划的示意图。
具体实施方式
为了使本技术领域的人员更好地理解本发明方案,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分的实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都应当属于本发明保护的范围。
本发明的说明书和权利要求书及上述附图中的术语“第一”、“第二”、“第三”“第四”等(如果存在)是用于区别类似的对象,而不必用于描述特定的顺序或先后次序。应该理解这样使用的数据在适当情况下可以互换,以便这里描述的实施例能够以除了在这里图示或描述的内容以外的顺序实施。此外,术语“包括”和“具有”以及他们的任何变形,意图在于覆盖不排他的包含,例如,包含了一系列步骤或单元的过程、方法、系统、产品或设备不必限于清楚地列出的那些步骤或单元,而是可包括没有清楚地列出的或对于这些过程、方法、产品或设备固有的其它步骤或单元。
如图1所述,本发明实施例提供的一种机器人路径规划方法的流程示意图。该方法包括三个步骤,每个步骤具体的内容如下所述。
步骤S1:机器人上的距离传感器以预设时间间隔连续扫描周围环境,获得多帧数据。距离传感器用来采集机器人周围环境中物体与机器人之间的距离信息。距离传感器代替人眼,虽然不能像人眼一样获得物体的颜色、空间形状等信息,但是,距离传感器可以精确地测出距离,再结合合理的推理算法,可以达到人眼判断物体的位置等相关信息。距离传感器具体包括激光传感器、红外传感器、超声波传感器或雷达传感器等。在本发明实施例中,距离传感器采用激光传感器,具体采用型号为SICK产的TIM551激光传感器。当然,激光传感器也可以采用其他型号。只要激光传感器能够扫描空间中与激光传感器相同平面内的情况,并且可以实现实时扫描即可。
步骤S1中预设时间间隔小于等于0.5秒,具体如0.1S、0.15S、0.3S、0.4S或0.5S。预设时间间隔不能无限增加,因为扫描间隔的预设时间越长,则所采集帧数据的时间间隔差也越大,则不确定性也越大,从而使得作为分析基础的帧数据的不准确性也越大。
步骤S2:基于所述多帧数据的前预设数量的帧数据,根据分析算法进行分析,推断出下一帧或者预设时长后周围环境中物体的位置。步骤S2中的前预设数量帧数据包括至少前3帧数据,如当前帧之前的3帧或者大于3帧的帧数据。预设时长后周围环境中物体的位置为不大于1秒后周围环境中物体的位置,具体如0.5秒后周围环境中物体的位置。
在本发明实施例中,将间隔时间内物体的运动认定为匀速运动,根据采集帧数据的数量和采集的时间间隔推导出的不同函数来推测物体未来的位置。当采集帧数据的数量为3时,3帧数据的坐标分别为x1,x2和x3,采集的时间间隔为t秒,所推测物体未来的位置为x4,不同函数的表达式如公式1和公式2所示:
Figure BDA0001930314840000041
x4=3x3-3x2+x1 (公式2)
如图3所示,本发明实施例所提出的一种推断物体前进方向的示意图。图3中根据物体1或物体2在第1帧、第2帧和第3帧的坐标位置,推断出物体1或物体2在第4帧或者未来预设时长后的位置(即图3中的推断位置)。通过位置的推断,进而推断出物体1或物体2的前进路线。
同理,如果坐标轴为世界坐标轴,同时包括纵坐标y,则推测物体未来的位置y4的表达式如公式3所示:
y4=3y3-3y2+y1 (公式3)
其中,y1,y2和y3分别为3帧数据的纵坐标,所推测物体未来的纵坐标位置为y4
步骤S3:基于机器人自身状况和所述推断的物体的位置,机器人规划回避所述物体的路径。
在现有技术中,若不采用本发明实施例所提供的路径规划方法。当机器人在第1帧检测到机器人前进方向的右前方存在物体,则判断为向左前方规划路径避开物体。具体路径规划中规避路径的示意图,如图4所示。现有技术的这种路径规划方法没有考虑到物体的动态变化的可能性,有可能物体是动态向左前方运动的,那么机器人向左前方规避就失败了。现有技术的这种路径规划方法只要当机器人前方存在物体,机器人就得规划规避路径,从而使得机器人路线变化次数较多,前进效率低下。
在该实施例中,步骤S3具体包括:
若在第一帧数据中检测到机器人前进方向的右前方有物体,并在所述第一帧数据后的连续预设帧数据中都检测到所述物体的位置,则推断所述物体的前进方向及未来预设时间内所述物体的位置,机器人继续向右前方规划前进路径。
其中,连续预设帧数据包括第二帧,或者第二帧和第三帧。其中,未来预设时间包括未来的0.5秒时长或者未来的1秒时长。
步骤S3中是以右前方有物体作为实施例进行详细讲解的,当左前方或者正前方有物体时,判断及推导过程与上类似,此处不再赘述。
本发明实施例中所采用的路径规划方法,结合物体动态变化的趋势,再根据此趋势进行最优路径的规划,使得机器人不仅能够有效地躲避动态障碍物,也能够减少一些无需转变路径的次数,从而提高机器人前进的效率。
本发明实施例提出一种机器人路径规划方法,该路径规划方法采用激光传感器代替人眼,由激光传感器准确地推断出动态物体的距离,再结合合理的推理算法,来模仿人眼判断动态物体的路径,并基于此来规划机器人路径,使得路径规划更加合理和优化。
在本说明书的描述中,参考术语“一个实施例”、“一些实施例”、“示例”、“具体示例”、或“一些示例”等的描述意指结合该实施例或示例描述的具体特征、结构、材料或者特点包含于本发明的至少一个实施例或示例中。在本说明书中,对上述术语的示意性表述不必须针对的是相同的实施例或示例。而且,描述的具体特征、结构、材料或者特点可以在任一个或多个实施例或示例中以合适的方式结合。此外,在不相互矛盾的情况下,本领域的技术人员可以将本说明书中描述的不同实施例或示例以及不同实施例或示例的特征进行结合和组合。
尽管上面已经示出和描述了本发明的实施例,可以理解的是,上述实施例是示例性的,不能理解为对本发明的限制,本领域的普通技术人员在本发明的范围内可以对上述实施例进行变化、修改、替换和变型。

Claims (9)

1.一种机器人路径规划方法,其特征在于,所述方法包括:
步骤S1:机器人上的距离传感器以预设时间间隔连续扫描周围环境,获得多帧数据;
步骤S2:基于所述多帧数据的前预设数量的帧数据,根据分析算法进行分析,推断出下一帧或者预设时长后周围环境中物体的位置;
步骤S3:基于机器人自身状况和所述推断的物体的位置,机器人规划回避所述物体的路径。
2.根据权利要求1所述的一种机器人路径规划方法,其特征在于,所述分析算法包括:将间隔时间内物体的运动认定为匀速运动,根据采集帧数据的数量和采集的时间间隔推导出的不同函数来推测物体未来的位置。
3.根据权利要求2所述的一种机器人路径规划方法,其特征在于,采集帧数据的数量为3,3帧数据的坐标分别为x1,x2和x3,采集的时间间隔为t秒,所推测物体未来的位置为x4,不同函数的表达式为:
Figure FDA0001930314830000011
x4=3x3-3x2+x1
4.根据权利要求1所述的一种机器人路径规划方法,其特征在于,所述步骤S3具体包括:
若在第一帧数据中检测到机器人前进方向的右前方有物体,并在所述第一帧数据后的连续预设帧数据中都检测到所述物体的位置,则推断所述物体的前进方向及未来预设时间内所述物体的位置,机器人继续向右前方规划前进路径。
5.根据权利要求4所述的一种机器人路径规划方法,其特征在于,所述连续预设帧数据包括第二帧,或者第二帧和第三帧。
6.根据权利要求4所述的一种机器人路径规划方法,其特征在于,未来预设时间包括未来的0.5秒时长或者未来的1秒时长。
7.根据权利要求1所述的一种机器人路径规划方法,其特征在于,所述步骤S1中预设时间间隔小于等于0.5秒。
8.根据权利要求1所述的一种机器人路径规划方法,其特征在于,所述步骤S2中的前预设数量帧数据包括至少前3帧数据。
9.根据权利要求1所述的一种机器人路径规划方法,其特征在于,所述步骤S2中的预设时长后周围环境中物体的位置包括0.5秒后周围环境中物体的位置。
CN201811653271.1A 2018-12-29 2018-12-29 一种机器人路径规划方法 Pending CN111381589A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201811653271.1A CN111381589A (zh) 2018-12-29 2018-12-29 一种机器人路径规划方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201811653271.1A CN111381589A (zh) 2018-12-29 2018-12-29 一种机器人路径规划方法

Publications (1)

Publication Number Publication Date
CN111381589A true CN111381589A (zh) 2020-07-07

Family

ID=71216730

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201811653271.1A Pending CN111381589A (zh) 2018-12-29 2018-12-29 一种机器人路径规划方法

Country Status (1)

Country Link
CN (1) CN111381589A (zh)

Citations (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009178782A (ja) * 2008-01-29 2009-08-13 Toyota Motor Corp 移動体、環境地図生成装置、及び環境地図生成方法
CN102752855A (zh) * 2012-08-01 2012-10-24 重庆大学 基于路径规则和预测的室内人员定位系统及方法
CN103558856A (zh) * 2013-11-21 2014-02-05 东南大学 动态环境下服务动机器人导航方法
CN104063692A (zh) * 2014-06-30 2014-09-24 武汉烽火众智数字技术有限责任公司 一种行人定位检测方法及系统
CN105116418A (zh) * 2015-09-08 2015-12-02 北京铁路局北京科学技术研究所 障碍物的检测方法和装置
CN107330943A (zh) * 2017-06-26 2017-11-07 乐视致新电子科技(天津)有限公司 一种定位标识匹配方法、装置及电子设备
CN107526068A (zh) * 2016-06-22 2017-12-29 松下知识产权经营株式会社 雷达装置以及跟踪对象确定方法
CN107578427A (zh) * 2017-07-31 2018-01-12 深圳市易成自动驾驶技术有限公司 动态障碍物的检测方法、装置及计算机可读存储介质
CN107885209A (zh) * 2017-11-13 2018-04-06 浙江工业大学 一种基于动态窗口与虚拟目标点的避障方法
CN108256574A (zh) * 2018-01-16 2018-07-06 广东省智能制造研究所 机器人定位方法及装置
CN108334099A (zh) * 2018-01-26 2018-07-27 上海深视信息科技有限公司 一种高效的无人机人体跟踪方法
CN108345823A (zh) * 2017-01-23 2018-07-31 郑州宇通客车股份有限公司 一种基于卡尔曼滤波的障碍物跟踪方法和装置
CN108762264A (zh) * 2018-05-22 2018-11-06 重庆邮电大学 基于人工势场与滚动窗口的机器人的动态避障方法

Patent Citations (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009178782A (ja) * 2008-01-29 2009-08-13 Toyota Motor Corp 移動体、環境地図生成装置、及び環境地図生成方法
CN102752855A (zh) * 2012-08-01 2012-10-24 重庆大学 基于路径规则和预测的室内人员定位系统及方法
CN103558856A (zh) * 2013-11-21 2014-02-05 东南大学 动态环境下服务动机器人导航方法
CN104063692A (zh) * 2014-06-30 2014-09-24 武汉烽火众智数字技术有限责任公司 一种行人定位检测方法及系统
CN105116418A (zh) * 2015-09-08 2015-12-02 北京铁路局北京科学技术研究所 障碍物的检测方法和装置
CN107526068A (zh) * 2016-06-22 2017-12-29 松下知识产权经营株式会社 雷达装置以及跟踪对象确定方法
CN108345823A (zh) * 2017-01-23 2018-07-31 郑州宇通客车股份有限公司 一种基于卡尔曼滤波的障碍物跟踪方法和装置
CN107330943A (zh) * 2017-06-26 2017-11-07 乐视致新电子科技(天津)有限公司 一种定位标识匹配方法、装置及电子设备
CN107578427A (zh) * 2017-07-31 2018-01-12 深圳市易成自动驾驶技术有限公司 动态障碍物的检测方法、装置及计算机可读存储介质
CN107885209A (zh) * 2017-11-13 2018-04-06 浙江工业大学 一种基于动态窗口与虚拟目标点的避障方法
CN108256574A (zh) * 2018-01-16 2018-07-06 广东省智能制造研究所 机器人定位方法及装置
CN108334099A (zh) * 2018-01-26 2018-07-27 上海深视信息科技有限公司 一种高效的无人机人体跟踪方法
CN108762264A (zh) * 2018-05-22 2018-11-06 重庆邮电大学 基于人工势场与滚动窗口的机器人的动态避障方法

Similar Documents

Publication Publication Date Title
US20210109537A1 (en) Autonomous exploration framework for indoor mobile robotics using reduced approximated generalized voronoi graph
EP3733038B1 (en) Cleaning method and cleaning robot
WO2017041730A1 (zh) 一种移动机器人避障导航的方法和系统
Hanheide et al. Analysis of human-robot spatial behaviour applying a qualitative trajectory calculus
Glas et al. Laser tracking of human body motion using adaptive shape modeling
CN110442125A (zh) 一种移动机器人的动态路径规划方法
CN112631296B (zh) 基于深度强化学习的机器人导航方法及系统、设备、介质
CN112075879A (zh) 一种信息处理方法、装置及存储介质
CN110940341B (zh) 路径规划方法、机器人及计算机可读存储介质
Ivanov et al. Effective informational entropy reduction in multi-robot systems based on real-time TVS
CN113475977B (zh) 机器人路径规划方法、装置及机器人
CN113110423B (zh) 步态轨迹规划方法、装置、计算机可读存储介质及机器人
Mojtahedzadeh Robot obstacle avoidance using the Kinect
WO2024037299A1 (zh) 定位方法、装置、机器人和存储介质
CN113721608A (zh) 机器人局部路径规划方法、系统和可读存储介质
Bruckschen et al. Human motion prediction based on object interactions
CN116540726A (zh) 一种巡逻机器人智能避障方法、系统及介质
CN111381589A (zh) 一种机器人路径规划方法
CN111390909B (zh) 工业机器人的避障方法和系统
CN106393144A (zh) 一种多机器人操作模式下视觉跟踪的方法及系统
CN110146070A (zh) 一种适用于宠物引诱的激光导航方法
CN115790600A (zh) 一种基于数字孪生的机器人大范围长期巡检任务覆盖策略的算法
CN110955263A (zh) 移动机器人的主动感知与自主趋近方法及移动机器人系统
Day et al. A Study in Zucker: Insights on Interactions Between Humans and Small Service Robots
Day et al. A Study in Zucker: Insights on Human-Robot Interactions

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
WD01 Invention patent application deemed withdrawn after publication
WD01 Invention patent application deemed withdrawn after publication

Application publication date: 20200707