CN109270931A - 控制机器人巡逻的方法及装置 - Google Patents
控制机器人巡逻的方法及装置 Download PDFInfo
- Publication number
- CN109270931A CN109270931A CN201810927388.8A CN201810927388A CN109270931A CN 109270931 A CN109270931 A CN 109270931A CN 201810927388 A CN201810927388 A CN 201810927388A CN 109270931 A CN109270931 A CN 109270931A
- Authority
- CN
- China
- Prior art keywords
- patrol
- robot
- planning
- time
- subregion
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
- 238000000034 method Methods 0.000 title claims abstract description 45
- 238000003860 storage Methods 0.000 claims description 8
- 230000005540 biological transmission Effects 0.000 claims description 7
- 238000005516 engineering process Methods 0.000 description 26
- 238000013528 artificial neural network Methods 0.000 description 8
- 238000013473 artificial intelligence Methods 0.000 description 7
- 238000013527 convolutional neural network Methods 0.000 description 6
- 230000006870 function Effects 0.000 description 5
- 238000012549 training Methods 0.000 description 5
- 230000004913 activation Effects 0.000 description 4
- 238000010295 mobile communication Methods 0.000 description 4
- 230000010354 integration Effects 0.000 description 3
- 230000008569 process Effects 0.000 description 3
- 238000011160 research Methods 0.000 description 3
- 230000003044 adaptive effect Effects 0.000 description 2
- 230000003993 interaction Effects 0.000 description 2
- 210000002569 neuron Anatomy 0.000 description 2
- 230000000306 recurrent effect Effects 0.000 description 2
- 230000011218 segmentation Effects 0.000 description 2
- 230000016776 visual perception Effects 0.000 description 2
- SPBWHPXCWJLQRU-FITJORAGSA-N 4-amino-8-[(2r,3r,4s,5r)-3,4-dihydroxy-5-(hydroxymethyl)oxolan-2-yl]-5-oxopyrido[2,3-d]pyrimidine-6-carboxamide Chemical compound C12=NC=NC(N)=C2C(=O)C(C(=O)N)=CN1[C@@H]1O[C@H](CO)[C@@H](O)[C@H]1O SPBWHPXCWJLQRU-FITJORAGSA-N 0.000 description 1
- 238000009825 accumulation Methods 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 230000019771 cognition Effects 0.000 description 1
- 230000001149 cognitive effect Effects 0.000 description 1
- 230000003920 cognitive function Effects 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 238000004590 computer program Methods 0.000 description 1
- 238000007405 data analysis Methods 0.000 description 1
- 238000007418 data mining Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 230000008451 emotion Effects 0.000 description 1
- 230000004438 eyesight Effects 0.000 description 1
- 230000004807 localization Effects 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 238000003058 natural language processing Methods 0.000 description 1
- 210000005036 nerve Anatomy 0.000 description 1
- 230000008447 perception Effects 0.000 description 1
- 238000002360 preparation method Methods 0.000 description 1
- 230000000750 progressive effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0231—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
- G05D1/0242—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using non-visible light signals, e.g. IR or UV signals
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0212—Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
- G05D1/0214—Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory in accordance with safety or protection criteria, e.g. avoiding hazardous areas
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0212—Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
- G05D1/0221—Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory involving a learning process
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0212—Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
- G05D1/0223—Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory involving speed control of the vehicle
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0231—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
- G05D1/0246—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0255—Control of position or course in two dimensions specially adapted to land vehicles using acoustic signals, e.g. ultra-sonic singals
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0276—Control of position or course in two dimensions specially adapted to land vehicles using signals provided by a source external to the vehicle
- G05D1/0278—Control of position or course in two dimensions specially adapted to land vehicles using signals provided by a source external to the vehicle using satellite positioning signals, e.g. GPS
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0276—Control of position or course in two dimensions specially adapted to land vehicles using signals provided by a source external to the vehicle
- G05D1/028—Control of position or course in two dimensions specially adapted to land vehicles using signals provided by a source external to the vehicle using a RF signal
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0276—Control of position or course in two dimensions specially adapted to land vehicles using signals provided by a source external to the vehicle
- G05D1/0285—Control of position or course in two dimensions specially adapted to land vehicles using signals provided by a source external to the vehicle using signals transmitted via a public communication network, e.g. GSM network
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Aviation & Aerospace Engineering (AREA)
- General Physics & Mathematics (AREA)
- Automation & Control Theory (AREA)
- Electromagnetism (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Multimedia (AREA)
- Acoustics & Sound (AREA)
- Manipulator (AREA)
Abstract
本发明提供了一种控制机器人巡逻的方法及装置,其中,该方法包括:接收机器人反馈的所述机器人当前所处位置的位置信息;基于所述位置信息,使用巡逻规划生成算法生成所述机器人的巡逻规划,所述巡逻规划包括巡逻路线和/或巡逻时间,在所述巡逻路线完成和/或所述巡逻时间完成时重新生成所述机器人的巡逻规划;向所述机器人发送所述巡逻规划,以使得所述机器人按照所述巡逻规划执行巡逻。使用本发明,可以提高机器人巡逻的安全性。
Description
技术领域
本发明涉及人工智能,具体涉及一种控制机器人巡逻的方法及装置。
背景技术
随着机器人的应用需求不断增加,人工智能相关技术不断进步,硬件性能的增长,服务机器人近年来开始从实验室走向工厂,并从单一功能向多功能的个人机器人发展。提到机器人,一个最近经常提及的词是人工智能。人工智能是用计算机来实现类似于人的智能行为的一门学科。机器人本身即是人工智能的一个终极应用目标之一。
传统的人工智能作为一门学科,起源于20世纪50年代的达特茅斯会议,后来经过几次大起大落,在基础理论和方法上积累了丰富的成果。从早期的符号计算系统,到专家系统,再到90年代发展起来的机器学习,大数据分析,都可以算是人工智能的范畴。在图像、语音、搜索、数据挖掘、社会计算等领域,又派生出了一些相关的应用研究。其中与机器人联系较为紧密的包括计算机视觉,语音和自然语言处理,还有智能体(Agent)等。
根据以往机器人领域的研究进展和对应用的初步分析可以认为如下的感知、认知技术,将是实现应用的关键。
1、三维导航定位技术。不管什么机器人,只要可移动,即需要在家庭或其他环境中进行导航定位。其中SLAM(Simultaneous Localization and Ming)技术可同时进行定位和建图,在学术研究方面已经有不少技术积累。但对于实际系统,由于实时性低成本(比如无法采用比较昂贵的雷达设备)的要求和家庭环境的动态变化(物品的摆放),因而对导航定位技术提出了更高要求,仍需进一步研发。
2、视觉感知技术。其中包含人脸识别、手势识别、物体识别和情绪识别等相关技术。视觉感知技术,是机器人和人交互的一个非常重要的技术。
3、语言交互技术。其中包含语音识别、语音生成、自然语言理解和智能对话系统等。
4、文字识别技术。生活中有不少文字信息,如书报和物体的标签信息,这也要求机器人能够通过摄像头来进行文字识别。与传统的扫描后识别文字相比,其可通过摄像头来进行文字的识别。
5、认知技术。机器人需要逐步实现规划、推理、记忆、学习和预测等认知功能,从而变得更加智能。
从目前的研究现状看,服务机器人面对的关键技术均有了长足进步,但还有相当多的问题要解决。
其中,一种机器人的应用场景是让机器人在特定区域内进行巡逻。现有的一种机器人巡逻的方式是预先设定好机器人的巡逻路线,机器人按照该预先设置好的巡逻路线进行巡逻。
该方法虽然能够让机器人实现巡逻的功能,但是由于路线是预先设定好的,很容易被不法分子钻空子,安全性得不到保障。
发明内容
本发明实施例提供了一种控制机器人巡逻的方法及装置,可以提高巡逻的安全性。
本发明实施例的目的是通过以下技术方案实现的:
一种控制机器人巡逻的方法,包括:
接收机器人反馈的所述机器人当前所处位置的位置信息;
基于所述位置信息,使用巡逻规划生成算法生成所述机器人的巡逻规划,所述巡逻规划包括巡逻路线和/或巡逻时间,在所述巡逻路线完成和/或所述巡逻时间完成时重新生成所述机器人的巡逻规划;
向所述机器人发送所述巡逻规划,以使得所述机器人按照所述巡逻规划执行巡逻。
可选的,所述方法还包括:
获取存储的历史巡逻路线和/或历史巡逻时间;
所述基于所述位置信息,使用巡逻规划生成算法生成所述机器人的巡逻规划具体包括:
基于所述历史巡逻路线和/或历史巡逻时间,以及所述位置信息,使用巡逻规划生成算法生成所述机器人的巡逻规划。
可选的,所述方法还包括:
接收用户输入的指示信息,所述指示信息用于指示所述用户希望所述机器人进行巡逻的巡逻重点;
所述基于所述位置信息,使用巡逻规划生成算法生成所述机器人的巡逻规划包括:
基于所述位置信息以及所述指示信息,使用巡逻规划生成算法生成所述机器人的巡逻规划。
可选的,所述机器人的巡逻区域包括重点巡逻子区域和非重点巡逻子区域;所述巡逻规划的巡逻路线在所述重点巡逻子区域中的巡逻密度高于所述非重点巡逻子区域的巡逻密度,所述巡逻密度包括巡逻频次和/或巡逻时间。
可选的,所述方法还包括:
接收所述用户输入的视频回传指示;
向所述机器人发送所述视频回传指示;
接收并显示所述机器人回传的实时巡逻视频。
一种控制机器人巡逻的装置,包括:
接收单元,用于接收机器人反馈的所述机器人当前所处位置的位置信息;
规划生成单元,用于基于所述位置信息,使用巡逻规划生成算法生成所述机器人的巡逻规划,所述巡逻规划包括巡逻路线和/或巡逻时间,在所述巡逻路线完成和/或所述巡逻时间完成时重新生成所述机器人的巡逻规划;
发送单元,用于向所述机器人发送所述巡逻规划,以使得所述机器人按照所述巡逻规划执行巡逻。
可选的,还包括:
历史信息获取单元,用于获取存储的历史巡逻路线和/或历史巡逻时间;
所述规划生成单元具体用于:基于所述历史巡逻路线和/或历史巡逻时间,以及所述位置信息,使用巡逻规划生成算法生成所述机器人的巡逻规划。
可选的,所述接收单元,还用于接收用户输入的指示信息,所述指示信息用于指示所述用户希望所述机器人进行巡逻的巡逻重点;
所述规划生成单元具体用于:基于所述位置信息以及所述指示信息,使用巡逻规划生成算法生成所述机器人的巡逻规划。
可选的,所述机器人的巡逻区域包括重点巡逻子区域和非重点巡逻子区域;所述巡逻规划的巡逻路线在所述重点巡逻子区域中的巡逻密度高于所述非重点巡逻子区域的巡逻密度,所述巡逻密度包括巡逻频次和/或巡逻时间。
可选的,所述接收单元,还用于接收所述用户输入的视频回传指示;
所述发送单元,还用于向所述机器人发送所述视频回传指示;
所述接收单元,还用于接收所述机器人回传的实时巡逻视频;
所述装置还包括:
显示单元,用于显示所述机器人回传的实时巡逻视频。
从上可知,使用本实施例提供的控制机器人巡逻的方法,可以根据机器人当前所处的位置自适应地生成巡逻规划,并按照巡逻规划进行巡逻,由于巡逻规划是实时生成的,因此没有规律可循,可以减少被不法分子钻空子的可能,从而提高了安全性;进一步地,在一种实施方式中,对重要巡逻子区域和非重要巡逻子区域进行了区分,从而使得重要巡逻子区域的巡逻频次和巡逻时间都相对更多一些,能够进一步保证重要巡逻子区域的安全。
附图说明
为了更清楚地说明本发明实施例的技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。
图1为本发明一个实施例提供的控制机器人巡逻的方法的流程图;
图2为本发明一个实施例提供的控制机器人巡逻的装置的结构图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
先介绍本发明实施例提供的控制机器人巡逻的方法,图1描述了本发明一个实施例提供的控制机器人巡逻的方法的流程,该方法可以由手机执行。如图1所示,该方法可以包括:
101、接收机器人反馈的所述机器人当前所处位置的位置信息。
其中,接收的位置信息可以是通过移动通信网络发送的,例如可以是4G移动通信网络,5G移动通信网络,或6G移动移动通信网络等等;接收的位置信息还可以是通过无线保真(WiFi)网络发送的;接收的位置信息还可以是其他短距离通信网络发送的,例如式ZigBee,蓝牙等。
其中,根据所述机器人当前所处的位置的不同,所述机器人获取当前所处的位置的位置信息的方式会有不同。
例如,在当前所处的位置为室外区域时,可以使用卫星定位系统获取所述机器人当前所处的位置,所述的卫星定位系统可以是全球定位系统(GPS:Global PositioningSystem),北斗卫星定位系统,GLONASS卫星定位系统,和/或伽利略卫星导航系统。
例如,在当前所处的位置为室内区域时,由于卫星定位系统不能定位,因此可以使用室内定位技术,例如可以使用WiFi室内定位技术,UWB室内定位技术,蓝牙室内定位技术,红外线室内定位技术,RFID室内定位技术,和超声波室内定位技术等等。
可以理解的是,即便当前所处的位置为室外区域,也可以使用上述室内定位技术进行定位。
102、基于所述位置信息,使用巡逻规划生成算法生成所述机器人的巡逻规划,所述巡逻规划包括巡逻路线和/或巡逻时间,在所述巡逻路线完成和/或所述巡逻时间完成时重新生成所述机器人的巡逻规划。
其中,所述的巡逻规划生成算法可以是预先训练好的,该算法具体可以是一种数学模型,例如可以是卷积神经网络(CNN:Convolutional Neural Network,)模型,或循环神经网络(RNN:Recurrent Neural Networks)模型,或者也可以是深度神经网络(DNN:DeepNeural Networks)模型。
其中,所述巡逻规划包括的巡逻路线可以是整个巡逻区域的巡逻路线,也可以是一个巡逻子区域的巡逻路线,所述巡逻子区域可以是预先设置好的,也可以是临时生成的,所述巡逻时间是指完成所述巡逻路线的时间。巡逻路线的长度和巡逻时间决定了机器人巡逻时的巡逻速度。所述的巡逻子区域的面积可以是相等的,也可以是不相等的,例如可以根据巡逻子区域的周边环境或子区域内的地形地势等进行自适应的划分。
所述巡逻区域包括重点巡逻子区域和非重点巡逻子区域;所述巡逻规划的巡逻路线在所述重点巡逻子区域中的巡逻密度高于所述非重点巡逻子区域的巡逻密度,所述巡逻密度包括巡逻频次和/或巡逻时间;也就是说,重点巡逻子区域的巡逻频次要高于非重点巡逻子区域的巡逻频次,和/或重点巡逻子区域的巡逻时间要长于非重点巡逻子区域的巡逻时间。
其中,所述整个巡逻区域中包括的一些巡逻子区域属于重点巡逻子区域,在一种实施方式中,如果各个巡逻子区域的面积是相等的,在所述巡逻规划对应的是重点巡逻子区域时,巡逻时间要长于非重点巡逻子区域对应的巡逻时间;在各个巡逻子区域的面积不相等时,重点巡逻子区域的面积可以小于非重点巡逻子区域的面积,此时重点巡逻子区域对应的巡逻时间可以与非重点巡逻自弃与对应的时间相等,当然也可以不同。
其中,在所述巡逻规划生成算法生成的所述巡逻规划包括的所述巡逻路线覆盖整个巡逻区域时,所述巡逻规划生成算法生成的所述巡逻规划包括的巡逻时间内所述机器人能够巡逻所述整个巡逻区域。所述机器人就可以根据巡逻时间和巡逻路线的长度确定巡逻的速度。可以理解的是,在一些实施方式中,所述巡逻规划可以是分段的,所述巡逻规划可以包括每一段的巡逻速度/巡逻时间。
在一种实施方式中,基于所述位置信息使用巡逻规划生成算法生成所述机器人的巡逻规划前,所述方法还可以包括:
获取存储的历史巡逻路线和/或历史巡逻时间;
相应地,所述基于所述位置信息使用巡逻规划生成算法生成所述机器人的巡逻规划具体可以包括:
基于所述历史巡逻路线和/或历史巡逻时间,以及所述位置信息,使用巡逻规划生成算法生成所述机器人的巡逻规划。
在获取了历史巡逻路线时,如果历史巡逻路线是巡逻子区域对应的巡逻路线,巡逻规划生成算法就可以知道已经巡逻了哪些子区域,从而生成的巡逻规划可以更倾向于巡逻尚未进行巡逻的子区域,需要说明的是,巡逻规划生成算法仅仅是会增加生成的巡逻规划是对应未进行巡逻的子区域的可能,但是并不表示新生成的巡逻规划仅仅是对应未进行巡逻的子区域;或者,巡逻规划生成算法可以知道历史的巡逻路线,从而使得生成巡逻路线较大可能的不会与历史巡逻路线相同,需要说明的是,巡逻规划生成算法仅仅是会增加生成的巡逻路线与历史巡逻路线不相同的可能,但是并不是表示新生成的巡逻路线一定会与历史巡逻路线不相同。
在获取了历史巡逻时间时,就可以知道已经巡逻了多长时间,算法可以预先设置好了多长时间必须进行至少一次的整个巡逻区域的巡逻,因此根据历史巡逻时间就可以知道巡逻完未完成巡逻的子区域所能够使用的时间,从而自适应地确定新生成的巡逻规划对应的巡逻时间。
在一种实施方式中,所述方法还可以包括:
接收用户输入的指示信息,所述指示信息用于指示所述用户希望所述机器人进行巡逻的巡逻重点;所述巡逻重点可以是重点巡逻区域,也可以是重点的巡逻对象(例如式巡逻区域中比较重要的资产)。
此时,所述基于所述位置信息,使用巡逻规划生成算法生成所述机器人的巡逻规划可以包括:基于所述位置信息以及所述指示信息,使用巡逻规划生成算法生成所述机器人的巡逻规划。
103、向所述机器人发送所述巡逻规划,以使得所述机器人按照所述巡逻规划执行巡逻。
从上可知,使用本实施例提供的控制机器人巡逻的方法,可以根据机器人当前所处的位置自适应地生成巡逻规划,并按照巡逻规划进行巡逻,由于巡逻规划是实时生成的,因此没有规律可循,可以减少被不法分子钻空子的可能,从而提高了安全性;进一步地,在一种实施方式中,对重要巡逻子区域和非重要巡逻子区域进行了区分,从而使得重要巡逻子区域的巡逻频次和巡逻时间都相对更多一些,能够进一步保证重要巡逻子区域的安全。
进一步地,在本发明的另一个实施例中,所述方法还可以包括:
接收所述用户输入的视频回传指示;
向所述机器人发送所述视频回传指示;所述机器人在接收到所述视频回传指示后,将摄像头采集到的图像回传给手机;
接收并显示所述机器人回传的实时巡逻视频。
在本发明的一种实施方式中,所述的巡逻规划生成算法部署在神经网络中,神经网络可以由多个神经元组成。在所述神经网络中,所述的巡逻规划生成算法可以表示成如下所述的计算式:
vi=f(vi-1+w)=f(Api-1+Bti-1+Cw+Dz)
其中,vi表示生成的当前巡逻规划,vi也可以表示成pi+ti,pi表示当前巡逻规划对应的巡逻路线,ti表示当前巡逻规划对应的巡逻时间,w表示位置信息,z表示用户输入的指示信息;vi-1表示历史巡逻规划,vi-1可以表示成pi-1+ti-1,pi-1表示历史巡逻路线,ti-1表示历史巡逻时间,f()表示的是神经元对应的激活函数,A、B、C和D是激活函数对应的模块参数。在一种实施方式中,激活函数f()具体可以是sigmoid函数,即f()可以表示成如下的形式:
其中,激活函数f()的模块参数是预先训练好的,在一种实施方式中模块参数A、B和C具体可以通过如下训练函数训练获得:
其中,M是训练函数的参数,N是训练集合中巡逻规划的数量,pn是训练集合中巡逻规划中的巡逻路线,tn是训练集合中巡逻规划中的巡逻时间。
其中,在生成了当前巡逻规划后,可以将所述当前巡逻规划与所述历史巡逻规划进行递归整合生成新的历史巡逻规划,以便于生成下一个巡逻规划。在一个实施方式中,可以采用如下计算式进行递归整合:
vi=avi+bvi-1
其中,该计算式左侧的vi表示的是递归整合后需要存储的历史巡逻规划,计算式右侧的vi表示的是所述当前巡逻规划,vi-1表示的是递归整合前已经存储的历史巡逻规划;a和b表示的是加权因子,且a+b=1;其中,由于越久之前的巡逻规划距离当前的时间越长,对应的巡逻子区域未被巡逻的时间也越长,因此需要将b设置为大于a。
图2描述了本发明一个实施例提供的一种控制机器人巡逻的装置的结构,其中,该装置可以用于执行前述实施例提供的控制机器人巡逻的方法。如图2所示,该装置可以包括:
接收单元201,用于接收机器人反馈的所述机器人当前所处位置的位置信息;
其中,根据所述机器人当前所处的位置的不同,所述机器人获取当前所处的位置的位置信息的方式会有不同。
例如,在当前所处的位置为室外区域时,可以使用卫星定位系统获取所述机器人当前所处的位置,所述的卫星定位系统可以是全球定位系统(GPS:Global PositioningSystem),北斗卫星定位系统,GLONASS卫星定位系统,和/或伽利略卫星导航系统。
例如,在当前所处的位置为室内区域时,由于卫星定位系统不能定位,因此可以使用室内定位技术,例如可以使用WiFi室内定位技术,UWB室内定位技术,蓝牙室内定位技术,红外线室内定位技术,RFID室内定位技术,和超声波室内定位技术等等。
可以理解的是,即便当前所处的位置为室外区域,也可以使用上述室内定位技术进行定位。
规划生成单元202,用于基于所述位置信息,使用巡逻规划生成算法生成所述机器人的巡逻规划,所述巡逻规划包括巡逻路线和/或巡逻时间,在所述巡逻路线完成和/或所述巡逻时间完成时重新生成所述机器人的巡逻规划;
其中,所述的巡逻规划生成算法可以是预先训练好的,该算法具体可以是一种数学模型,例如可以是卷积神经网络(CNN:Convolutional Neural Network,)模型,或循环神经网络(RNN:Recurrent Neural Networks)模型,或者也可以是深度神经网络(DNN:DeepNeural Networks)模型。
其中,所述巡逻规划包括的巡逻路线可以是整个巡逻区域的巡逻路线,也可以是一个巡逻子区域的巡逻路线,所述巡逻子区域可以是预先设置好的,也可以是临时生成的,所述巡逻时间是指完成所述巡逻路线的时间。巡逻路线的长度和巡逻时间决定了机器人巡逻时的巡逻速度。所述的巡逻子区域的面积可以是相等的,也可以是不相等的,例如可以根据巡逻子区域的周边环境或子区域内的地形地势等进行自适应的划分。
所述巡逻区域包括重点巡逻子区域和非重点巡逻子区域;所述巡逻规划的巡逻路线在所述重点巡逻子区域中的巡逻密度高于所述非重点巡逻子区域的巡逻密度,所述巡逻密度包括巡逻频次和/或巡逻时间;也就是说,重点巡逻子区域的巡逻频次要高于非重点巡逻子区域的巡逻频次,和/或重点巡逻子区域的巡逻时间要长于非重点巡逻子区域的巡逻时间。
其中,所述整个巡逻区域中包括的一些巡逻子区域属于重点巡逻子区域,在一种实施方式中,如果各个巡逻子区域的面积是相等的,在所述巡逻规划对应的是重点巡逻子区域时,巡逻时间要长于非重点巡逻子区域对应的巡逻时间;在各个巡逻子区域的面积不相等时,重点巡逻子区域的面积可以小于非重点巡逻子区域的面积,此时重点巡逻子区域对应的巡逻时间可以与非重点巡逻自弃与对应的时间相等,当然也可以不同。
其中,在所述巡逻规划生成算法生成的所述巡逻规划包括的所述巡逻路线覆盖整个巡逻区域时,所述巡逻规划生成算法生成的所述巡逻规划包括的巡逻时间内所述机器人能够巡逻所述整个巡逻区域。所述机器人就可以根据巡逻时间和巡逻路线的长度确定巡逻的速度。可以理解的是,在一些实施方式中,所述巡逻规划可以是分段的,所述巡逻规划可以包括每一段的巡逻速度/巡逻时间。
发送单元203,用于向所述机器人发送所述巡逻规划,以使得所述机器人按照所述巡逻规划执行巡逻。
从上可知,使用本实施例提供的控制机器人巡逻的装置,可以根据机器人当前所处的位置自适应地生成巡逻规划,并按照巡逻规划进行巡逻,由于巡逻规划是实时生成的,因此没有规律可循,可以减少被不法分子钻空子的可能,从而提高了安全性;进一步地,在一种实施方式中,对重要巡逻子区域和非重要巡逻子区域进行了区分,从而使得重要巡逻子区域的巡逻频次和巡逻时间都相对更多一些,能够进一步保证重要巡逻子区域的安全。
在另一个实施例中,所述控制机器人巡逻的装置还可以包括:历史信息获取单元,用于获取存储的历史巡逻路线和/或历史巡逻时间;所述规划生成单元具体可以用于:基于所述历史巡逻路线和/或历史巡逻时间,以及所述位置信息,使用巡逻规划生成算法生成所述机器人的巡逻规划。
在获取了历史巡逻路线时,如果历史巡逻路线是巡逻子区域对应的巡逻路线,巡逻规划生成算法就可以知道已经巡逻了哪些子区域,从而生成的巡逻规划可以更倾向于巡逻尚未进行巡逻的子区域,需要说明的是,巡逻规划生成算法仅仅是会增加生成的巡逻规划是对应未进行巡逻的子区域的可能,但是并不表示新生成的巡逻规划仅仅是对应未进行巡逻的子区域;或者,巡逻规划生成算法可以知道历史的巡逻路线,从而使得生成巡逻路线较大可能的不会与历史巡逻路线相同,需要说明的是,巡逻规划生成算法仅仅是会增加生成的巡逻路线与历史巡逻路线不相同的可能,但是并不是表示新生成的巡逻路线一定会与历史巡逻路线不相同。
在获取了历史巡逻时间时,就可以知道已经巡逻了多长时间,算法可以预先设置好了多长时间必须进行至少一次的整个巡逻区域的巡逻,因此根据历史巡逻时间就可以知道巡逻完未完成巡逻的子区域所能够使用的时间,从而自适应地确定新生成的巡逻规划对应的巡逻时间。
在另一个实施例中,所述接收单元,还用于接收用户输入的指示信息,所述指示信息用于指示所述用户希望所述机器人进行巡逻的巡逻重点;所述规划生成单元具体可以用于:基于所述位置信息以及所述指示信息,使用巡逻规划生成算法生成所述机器人的巡逻规划。
在另一个实施例中,所述接收单元,还用于接收所述用户输入的视频回传指示;所述发送单元,还用于向所述机器人发送所述视频回传指示;所述接收单元,还用于接收所述机器人回传的实时巡逻视频;所述装置还包括:显示单元,用于显示所述机器人回传的实时巡逻视频。
上述装置内的各单元模块之间的信息交互、执行过程等内容,由于与本发明方法实施例基于同一构思,具体内容可参见本发明方法实施例中的叙述,此处不再赘述。
本领域普通技术人员可以理解实现上述实施例方法中的全部或部分流程,是可以通过计算机程序来指令相关的硬件来完成,上述的程序可存储于一计算机可读取存储介质中,该程序在执行时,可包括如上述各方法的实施例的流程。其中,上述的存储介质可为磁碟、光盘、只读存储记忆体(ROM:Read-Only Memory)或随机存储记忆体(RAM:RandomAccess Memory)等。
本文中应用了具体个例对本发明的原理及实施方式进行了阐述,以上实施例的说明只是用于帮助理解本发明的方法及其思想;同时,对于本领域的一般技术人员,依据本发明的思想,在具体实施方式及应用范围上均会有改变之处,综上所述,本说明书内容不应理解为对本发明的限制。
Claims (10)
1.一种控制机器人巡逻的方法,其特征在于,包括:
接收机器人反馈的所述机器人当前所处位置的位置信息;
基于所述位置信息,使用巡逻规划生成算法生成所述机器人的巡逻规划,所述巡逻规划包括巡逻路线和/或巡逻时间,在所述巡逻路线完成和/或所述巡逻时间完成时重新生成所述机器人的巡逻规划;
向所述机器人发送所述巡逻规划,以使得所述机器人按照所述巡逻规划执行巡逻。
2.如权利要求1所述的方法,其特征在于,所述方法还包括:
获取存储的历史巡逻路线和/或历史巡逻时间;
所述基于所述位置信息,使用巡逻规划生成算法生成所述机器人的巡逻规划具体包括:
基于所述历史巡逻路线和/或历史巡逻时间,以及所述位置信息,使用巡逻规划生成算法生成所述机器人的巡逻规划。
3.如权利要求1所述的方法,其特征在于,所述方法还包括:
接收用户输入的指示信息,所述指示信息用于指示所述用户希望所述机器人进行巡逻的巡逻重点;
所述基于所述位置信息,使用巡逻规划生成算法生成所述机器人的巡逻规划包括:
基于所述位置信息以及所述指示信息,使用巡逻规划生成算法生成所述机器人的巡逻规划。
4.如权利要求3所述的方法,其特征在于,所述机器人的巡逻区域包括重点巡逻子区域和非重点巡逻子区域;所述巡逻规划的巡逻路线在所述重点巡逻子区域中的巡逻密度高于所述非重点巡逻子区域的巡逻密度,所述巡逻密度包括巡逻频次和/或巡逻时间。
5.如权利要求1-4任一所述的方法,其特征在于,所述方法还包括:
接收所述用户输入的视频回传指示;
向所述机器人发送所述视频回传指示;
接收并显示所述机器人回传的实时巡逻视频。
6.一种控制机器人巡逻的装置,其特征在于,包括:
接收单元,用于接收机器人反馈的所述机器人当前所处位置的位置信息;
规划生成单元,用于基于所述位置信息,使用巡逻规划生成算法生成所述机器人的巡逻规划,所述巡逻规划包括巡逻路线和/或巡逻时间,在所述巡逻路线完成和/或所述巡逻时间完成时重新生成所述机器人的巡逻规划;
发送单元,用于向所述机器人发送所述巡逻规划,以使得所述机器人按照所述巡逻规划执行巡逻。
7.如权利要求6所述的控制机器人巡逻的装置,其特征在于,还包括:
历史信息获取单元,用于获取存储的历史巡逻路线和/或历史巡逻时间;
所述规划生成单元具体用于:基于所述历史巡逻路线和/或历史巡逻时间,以及所述位置信息,使用巡逻规划生成算法生成所述机器人的巡逻规划。
8.如权利要求6所述的控制机器人巡逻的装置,其特征在于,
所述接收单元,还用于接收用户输入的指示信息,所述指示信息用于指示所述用户希望所述机器人进行巡逻的巡逻重点;
所述规划生成单元具体用于:基于所述位置信息以及所述指示信息,使用巡逻规划生成算法生成所述机器人的巡逻规划。
9.如权利要求8所述的控制机器人巡逻的装置,其特征在于,所述机器人的巡逻区域包括重点巡逻子区域和非重点巡逻子区域;所述巡逻规划的巡逻路线在所述重点巡逻子区域中的巡逻密度高于所述非重点巡逻子区域的巡逻密度,所述巡逻密度包括巡逻频次和/或巡逻时间。
10.如权利要求6-9任一所述的控制机器人巡逻的装置,其特征在于,所述接收单元,还用于接收所述用户输入的视频回传指示;
所述发送单元,还用于向所述机器人发送所述视频回传指示;
所述接收单元,还用于接收所述机器人回传的实时巡逻视频;
所述装置还包括:
显示单元,用于显示所述机器人回传的实时巡逻视频。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810927388.8A CN109270931A (zh) | 2018-08-15 | 2018-08-15 | 控制机器人巡逻的方法及装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810927388.8A CN109270931A (zh) | 2018-08-15 | 2018-08-15 | 控制机器人巡逻的方法及装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN109270931A true CN109270931A (zh) | 2019-01-25 |
Family
ID=65153503
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201810927388.8A Withdrawn CN109270931A (zh) | 2018-08-15 | 2018-08-15 | 控制机器人巡逻的方法及装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN109270931A (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112781585A (zh) * | 2020-12-24 | 2021-05-11 | 国家电投集团郑州燃气发电有限公司 | 一种通过5g网络连接智能巡检机器人及平台的方法 |
CN116647643A (zh) * | 2023-06-01 | 2023-08-25 | 西藏康发电子工程有限公司 | 一种智能安防监控系统 |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101984382A (zh) * | 2010-10-15 | 2011-03-09 | 重庆市电力公司超高压局 | 利用机器人进行变电站设备智能巡检的方法 |
CN102096413A (zh) * | 2010-12-23 | 2011-06-15 | 中国民航大学 | 保安巡逻机器人系统及其控制方法 |
CN103576683A (zh) * | 2012-08-03 | 2014-02-12 | 中国科学院深圳先进技术研究院 | 多巡逻机器人的调度方法和系统 |
CN105022400A (zh) * | 2015-07-22 | 2015-11-04 | 上海思依暄机器人科技有限公司 | 受控机器人、遥控设备、机器人系统及其控制方法 |
CN106444780A (zh) * | 2016-11-10 | 2017-02-22 | 速感科技(北京)有限公司 | 一种基于视觉定位算法的机器人的自主导航方法及系统 |
CN107154664A (zh) * | 2017-07-13 | 2017-09-12 | 湖南万为智能机器人技术有限公司 | 多机器人自动充电调度方法 |
US20170268895A1 (en) * | 2016-03-21 | 2017-09-21 | Ford Global Technologies, Llc | Systems, Methods, and Devices For Communicating Drive History Path Attributes |
CN107622646A (zh) * | 2017-11-12 | 2018-01-23 | 彭耀芬 | 一种智能安防机器人系统 |
-
2018
- 2018-08-15 CN CN201810927388.8A patent/CN109270931A/zh not_active Withdrawn
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101984382A (zh) * | 2010-10-15 | 2011-03-09 | 重庆市电力公司超高压局 | 利用机器人进行变电站设备智能巡检的方法 |
CN102096413A (zh) * | 2010-12-23 | 2011-06-15 | 中国民航大学 | 保安巡逻机器人系统及其控制方法 |
CN103576683A (zh) * | 2012-08-03 | 2014-02-12 | 中国科学院深圳先进技术研究院 | 多巡逻机器人的调度方法和系统 |
CN105022400A (zh) * | 2015-07-22 | 2015-11-04 | 上海思依暄机器人科技有限公司 | 受控机器人、遥控设备、机器人系统及其控制方法 |
US20170268895A1 (en) * | 2016-03-21 | 2017-09-21 | Ford Global Technologies, Llc | Systems, Methods, and Devices For Communicating Drive History Path Attributes |
CN106444780A (zh) * | 2016-11-10 | 2017-02-22 | 速感科技(北京)有限公司 | 一种基于视觉定位算法的机器人的自主导航方法及系统 |
CN107154664A (zh) * | 2017-07-13 | 2017-09-12 | 湖南万为智能机器人技术有限公司 | 多机器人自动充电调度方法 |
CN107622646A (zh) * | 2017-11-12 | 2018-01-23 | 彭耀芬 | 一种智能安防机器人系统 |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112781585A (zh) * | 2020-12-24 | 2021-05-11 | 国家电投集团郑州燃气发电有限公司 | 一种通过5g网络连接智能巡检机器人及平台的方法 |
CN116647643A (zh) * | 2023-06-01 | 2023-08-25 | 西藏康发电子工程有限公司 | 一种智能安防监控系统 |
CN116647643B (zh) * | 2023-06-01 | 2024-03-26 | 西藏康发电子工程有限公司 | 一种智能安防监控系统 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11561544B2 (en) | Indoor monocular navigation method based on cross-sensor transfer learning and system thereof | |
US11755882B2 (en) | Method, apparatus and system for recommending location of robot charging station | |
CN112799386B (zh) | 基于人工势场与强化学习的机器人路径规划方法 | |
CN109085833A (zh) | 一种巡逻机器人及存储介质 | |
CN107967513B (zh) | 多机器人强化学习协同搜索方法及系统 | |
CN109088452A (zh) | 机器人充电方法及机器人 | |
US20200001463A1 (en) | System and method for cooking robot | |
CN109270931A (zh) | 控制机器人巡逻的方法及装置 | |
KR20210033809A (ko) | 인공 신경망을 이용하여 로봇을 제어하는 제어 서버 및 방법와, 이를 구현하는 로봇 | |
CN108981712A (zh) | 机器人巡逻方法及机器人 | |
CN109118580A (zh) | 目标货物堆监控方法及相关装置 | |
CN109003329A (zh) | 一种目标货物堆监控设备及存储介质 | |
CN109141454A (zh) | 一种充电机器人及存储介质 | |
CN109191633A (zh) | 员工识别方法及机器人 | |
CN109015639A (zh) | 一种控制机器人巡逻的装置及存储介质 | |
CN109101928A (zh) | 儿童看护方法及机器人 | |
US11341596B2 (en) | Robot and method for correcting position of same | |
CN108958024A (zh) | 机器人巡逻方法及机器人 | |
CN108877115A (zh) | 疏散指引方法及机器人 | |
CN109048899A (zh) | 一种巡逻机器人及存储介质 | |
CN109062212A (zh) | 一种用于巡逻的机器人及存储介质 | |
Ustun et al. | Controlling synthetic characters in simulations: a case for cognitive architectures and sigma | |
Wang et al. | Deep reinforcement learning based multi-uuv cooperative control for target capturing | |
US20190371149A1 (en) | Apparatus and method for user monitoring | |
CN109066857A (zh) | 对巡逻机器人进行充电的方法及充电机器人 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
TA01 | Transfer of patent application right |
Effective date of registration: 20210611 Address after: 210000 No.10 Fenghuang street, Jiangpu street, Pukou District, Nanjing City, Jiangsu Province - qc0077 Applicant after: Nanjing yunanfeng technology transfer Co.,Ltd. Address before: 518000 room 406, group building, xufeihua Dayuan, Cuizhu street, North Cuizhu Road, Luohu District, Shenzhen City, Guangdong Province Applicant before: SHENZHEN FENGJUN INFORMATION TECHNOLOGY Co.,Ltd. |
|
TA01 | Transfer of patent application right | ||
WW01 | Invention patent application withdrawn after publication |
Application publication date: 20190125 |
|
WW01 | Invention patent application withdrawn after publication |