CN110032982A - 机器人引路方法、装置、机器人和存储介质 - Google Patents
机器人引路方法、装置、机器人和存储介质 Download PDFInfo
- Publication number
- CN110032982A CN110032982A CN201910321681.4A CN201910321681A CN110032982A CN 110032982 A CN110032982 A CN 110032982A CN 201910321681 A CN201910321681 A CN 201910321681A CN 110032982 A CN110032982 A CN 110032982A
- Authority
- CN
- China
- Prior art keywords
- face
- target
- robot
- target face
- user
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J11/00—Manipulators not otherwise provided for
- B25J11/0005—Manipulators having means for high-level communication with users, e.g. speech generator, face recognition means
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J19/00—Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
- B25J19/02—Sensing devices
- B25J19/04—Viewing devices
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1602—Programme controls characterised by the control system, structure, architecture
- B25J9/161—Hardware, e.g. neural networks, fuzzy logic, interfaces, processor
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1656—Programme controls characterised by programming, planning systems for manipulators
- B25J9/1664—Programme controls characterised by programming, planning systems for manipulators characterised by motion, path, trajectory planning
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1679—Programme controls characterised by the tasks executed
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1694—Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
- B25J9/1697—Vision controlled systems
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/161—Detection; Localisation; Normalisation
Landscapes
- Engineering & Computer Science (AREA)
- Mechanical Engineering (AREA)
- Robotics (AREA)
- Automation & Control Theory (AREA)
- General Health & Medical Sciences (AREA)
- Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- Human Computer Interaction (AREA)
- Multimedia (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Theoretical Computer Science (AREA)
- Artificial Intelligence (AREA)
- General Physics & Mathematics (AREA)
- Evolutionary Computation (AREA)
- Fuzzy Systems (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Manipulator (AREA)
Abstract
本申请涉及一种机器人引路方法、装置、机器人和存储介质。所述方法包括:获取所述机器人检测到的人脸;从所述检测到的人脸中确定出满足设定条件的人脸,作为目标人脸;控制所述机器人跟踪拍摄所述目标人脸,直到将目标用户引领至设定位置;所述目标用户为所述目标人脸对应的用户。采用本方法能够使到达相应场地的用户可以得到有序引路,引路过程不受外部噪音等环境因素的干扰,可以通过跟踪拍摄目标人脸实现目标用户的持续跟踪,具有较高的稳定性,使引路效果得到提升。
Description
技术领域
本申请涉及信息处理技术领域,特别是涉及一种机器人引路方法、装置、机器人和存储介质。
背景技术
将机器人引入餐厅等公共场所为进入上述公共场所的用户执行引路等迎宾作业,在一定程度上提高了用户在上述公共场所活动的便利性,使相关用户需求可以得到更为及时地响应。在餐厅等场地进行引路的机器人通常包括有关导航设备(如AGV导航或者SLAM导航)和麦克风阵列这些组成部分,通过麦克风阵列对目标人员进行定位,依靠导航设备进行跟踪,以将目标人员引领至目的地。在引路区域声音比较嘈杂时(例如餐厅的用餐高峰期),上述传统方案的引路精度可能会受到较大影响,容易使引路效果差。
发明内容
基于此,有必要针对上述技术问题,提供一种能够提高引路效果的机器人引路方法、装置、机器人和存储介质。
一种机器人引路方法,所述方法包括:
获取机器人检测到的人脸;
从检测到的人脸中确定出满足设定条件的人脸,作为目标人脸;
控制所述机器人跟踪拍摄目标人脸,直到将目标用户引领至设定位置;目标用户为目标人脸对应的用户。
在其中一个实施例中,上述方法还包括:
在将目标用户引领至设定位置的过程中,若机器人拍摄到目标人脸,则机器人按照设定路线行走;设定路线为当前位置至设定位置之间的路线;
若机器人拍摄不到目标人脸,则机器人停止行走;
若机器人在停止行走后的设定时段内,再次检测到目标人脸,则机器人按照设定路线继续行走。
作为一个实施例,在停止行走后,上述方法还包括:
若机器人在停止行走后的设定时段内,未拍摄到目标人脸,则机器人返回初始位置。
在其中一个实施例中,从检测到的人脸中确定出满足设定条件的人脸,作为目标人脸之后,上述方法还包括:
检测机器人是否存有目标人脸对应的人脸图像;
若否,则临时注册目标人脸对应的人脸图像;目标人脸对应的人脸图像在临时注册后用于在引领目标用户的过程中检测目标人脸。
作为一个实施例,上述方法还包括:
若机器人存有目标人脸对应的人脸图像,则根据目标人脸对应的人脸图像引领目标用户,并永久注册目标人脸对应的人脸图像;目标人脸对应的人脸图像在永久注册后用于表征目标用户为特定用户。
在其中一个实施例中,从检测到的人脸中确定出满足设定条件的人脸,作为目标人脸包括:
获取各个人脸的人脸面积;
将人脸按照人脸面积从大到小排序;
选择排序前K个人脸作为目标人脸集;
在目标人脸集中选择目标人脸。
在其中一个实施例中,从检测到的人脸中确定出满足设定条件的人脸,作为目标人脸包括:
获取各个人脸与所述机器人之间的距离;
将人脸按照距离从小到大排序;
选择排序前K个人脸作为目标人脸集;
在目标人脸集中选择目标人脸。
作为一个实施例,在选择前K个人脸作为目标人脸集之后,上述方法还包括:
检测目标人脸集中是否存在满足唤醒条件的人脸;
若是,则唤醒机器人的伺服系统,通过伺服系统在目标人脸集中选择目标人脸,以及控制机器人跟踪拍摄目标人脸,直到将目标用户引领至设定位置。
作为一个实施例,上述检测目标人脸集中是否存在满足唤醒条件的人脸包括:
若目标人脸集中存在人脸面积大于或等于面积阈值的人脸,则判定目标人脸集中存在满足唤醒条件的人脸;
若目标人脸集中不存在人脸面积大于或等于面积阈值的人脸,则判定目标人脸集中不存在满足唤醒条件的人脸。
一种机器人引路装置,所述装置包括:
获取模块,用于获取机器人检测到的人脸;
确定模块,用于从检测到的人脸中确定出满足设定条件的人脸,作为目标人脸;
控制模块,用于控制机器人跟踪拍摄目标人脸,直到将目标用户引领至设定位置;目标用户为目标人脸对应的用户。
一种机器人,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,所述处理器执行所述计算机程序时实现以下步骤:
获取机器人检测到的人脸;
从检测到的人脸中确定出满足设定条件的人脸,作为目标人脸;
控制所述机器人跟踪拍摄目标人脸,直到将目标用户引领至设定位置;目标用户为目标人脸对应的用户。
一种计算机可读存储介质,其上存储有计算机程序,所述计算机程序被处理器执行时实现以下步骤:
获取机器人检测到的人脸;
从检测到的人脸中确定出满足设定条件的人脸,作为目标人脸;
控制所述机器人跟踪拍摄目标人脸,直到将目标用户引领至设定位置;目标用户为目标人脸对应的用户。
上述机器人引路方法、装置、机器人和存储介质,通过获取机器人检测到的人脸,从检测到的人脸中确定出满足设定条件的人脸,作为目标人脸,控制机器人跟踪拍摄目标人脸,直到将目标用户引领至设定位置,使到达相应场地的用户可以得到有序引路,引路过程不受外部噪音等环境因素的干扰,通过跟踪拍摄目标人脸实现目标用户的持续跟踪,具有较高的稳定性,使引路效果得到提升。
附图说明
图1为一个实施例中机器人结构图;
图2为一个实施例中机器人引路方法的流程示意图;
图3为一个实施例中机器人的工作流程图;
图4为另一个实施例中机器人的工作流程图;
图5为一个实施例中机器人各部分之间的交互示意图;
图6为一个实施例中机器人引路装置的结构框图;
图7为一个实施例中机器人的内部结构图。
具体实施方式
为了使本申请的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本申请进行进一步详细说明。应当理解,此处描述的具体实施例仅仅用以解释本申请,并不用于限定本申请。
在本文中提及“实施例”意味着,结合实施例描述的特定特征、结构或特性可以包含在本申请的至少一个实施例中。在说明书中的各个位置出现该短语并不一定均是指相同的实施例,也不是与其它实施例互斥的独立的或备选的实施例。本领域技术人员显式地和隐式地理解的是,本文所描述的实施例可以与其它实施例相结合。
本申请提供的机器人引路方法,可以应用于餐厅等场地迎宾处设置的机器人,上述机器人可以将前往相应场地的用户引领至设定位置,以保证上述场地中所开展活动的有序性。机器人可以获取机器人检测到的人脸,从检测到的人脸中确定出满足设定条件的人脸,作为目标人脸,控制机器人跟踪拍摄目标人脸,直到将目标用户引领至设定位置。参考图1所示,机器人可以包括人脸检测用户端、人脸服务器和机器人总控三个部分,三者之间交互的信息涉及人脸检测、人脸注册和人脸识别等内容,三者协同作业以为进入相应场地的用户进行引路。例如,人脸检测用户端可以将检测到的结果,如人脸的位置和人脸框的大小等,分别上传到机器人总控和人脸服务器以进行后续处理;机器人总控可以向人脸识别服务器和人脸检测用户端发送控制命令,如检测、注册和识别等命令,并且从这两者获取相应的处理数据。
在一个实施例中,如图2所示,提供了一种机器人引路方法,以该方法应用于机器人为例进行说明,包括以下步骤:
S210,获取机器人检测到的人脸。
机器人可以通过其上设置的摄像装置拍摄出现在其拍摄区域的各个人脸,以进行人脸检测,获得相应人脸图像。机器人的拍摄区域依据机器人上摄像装置的设置特征以及摄像装置的拍摄范围确定;若摄像装置设置在机器人的某侧,则拍摄区域为机器人设置拍摄装置的一侧的拍摄范围对应的区域;若机器人的各侧均设有摄像装置,则拍摄区域为机器人各侧拍摄范围对应的区域。
S230,从检测到的人脸中确定出满足设定条件的人脸,作为目标人脸。
机器人可以对各个人脸的人脸图像进行图像处理,以识别各个人脸图像的特征,从检测到的人脸中选择目标人脸,确定需要引路的目标用户(即目标人脸对应的用户)。上述设定条件可以包括清晰度高或者人脸面积大等条件。具体地,机器人可以选择清晰度最高的人脸作为目标人脸,或者选择距机器人最近的人脸作为目标人脸,或者选择人脸面积最大的人脸作为目标人脸等等。
S250,控制所述机器人跟踪拍摄目标人脸,直到将目标用户引领至设定位置;目标用户为目标人脸对应的用户。
机器人确定目标人脸后,可以通过显示和/或语言播报的形式输出目标人脸对应的引路确认信息,使目标用户获知机器人即将为其引路。目标用户在获知引路确认信息后,可以通过点击机器人的确认按钮或者依据向机器人的语音提示在拍摄区域发出点头等特定动作等形式向机器人输入引路确认指令,使机器人可以检测到目标用户输入的引路确认指令,开始进行引路。
机器人在检测到目标用户输入的引路确认指令后,可以生成当前位置至设定位置之间的行走路线,按照上述行走路线将目标用户引领至设定位置。上述设定位置可以为餐厅的某餐桌等相应场地中供用户使用的位置。机器人可以预先设定设定位置;也依据目标用户输入的相关选择指令确定目标用户对应的设定位置;比如,机器人在检测到目标用户输入的引路确认指令后,可以显示相应场地中当前的空闲位置供用户选择,目标用户可以在所显示的空闲位置中通过点击等形式选择一个位置,机器人在检测到目标用户的选择指令后,将目标用户所选择的位置确定为设定位置。
上述机器人引路方法,通过获取机器人检测到的人脸,从检测到的人脸中确定出满足设定条件的人脸,作为目标人脸,控制机器人跟踪拍摄目标人脸,直到将目标用户引领至设定位置,使到达相应场地的用户可以得到有序引路,引路过程不受外部噪音等环境因素的干扰,可以通过跟踪拍摄目标人脸实现目标用户的持续跟踪,具有较高的稳定性,使引路效果得到提升。
在一个实施例中,上述方法还包括:
在将目标用户引领至设定位置的过程中,若机器人拍摄到目标人脸,则机器人按照设定路线行走;设定路线为当前位置至设定位置之间的路线;
若机器人拍摄不到目标人脸,则机器人停止行走;
若机器人在停止行走后的设定时段内,再次检测到目标人脸,则机器人按照设定路线继续行走。
上述设定时段可以依据引路精度设置,比如设置为1分钟等时段。
机器人在引领目标用户的过程中,可以启用其配置的摄像装置实时对目标用户的人脸进行检测,以确认目标用户是否跟随行走。若机器人拍摄到目标人脸,表明目标用户此时在跟随机器人行走,机器人可以按照设定路线行走,以顺利将目标用户引领至设定位置。若机器人检测不到目标人脸,表明可能出现目标用户没有跟上或者目标用户跟丢等状况,则此时机器人需要停止行走,以进一步进行人脸检测,以待目标人脸重新出现在拍摄区域。若机器人在停止行走后的设定时段内在拍摄区域再次检测到目标人脸,表明目标用户已及时跟上机器人的引路进度,此时可以按照设定路线继续行走,以继续为目标用户进行引路。
作为一个实施例,在机器人停止行走后,上述方法还包括:
若机器人在停止行走后的设定时段内,未拍摄到目标人脸,则机器人返回初始位置。
若停止行走后的设定时段内在拍摄区域无法检测到目标人脸,表明目标用户没有跟上相应的引路进程,此时机器人可以返回其初始位置(如相应场地的迎宾处),继续执行后续引路作业。
在一个实施例中,从检测到的人脸中确定出满足设定条件的人脸,作为目标人脸之后,上述方法还包括:
检测机器人是否存有目标人脸对应的人脸图像;
若否,则临时注册目标人脸对应的人脸图像;目标人脸对应的人脸图像在临时注册后用于在引领所述目标用户的过程中检测目标人脸。
机器人可以存储特定用户的人脸图像,上述特定用户可以包括会员或者老用户等区别于一般用户的用户。若机器人没有存储目标人脸对应的人脸图像,临时注册目标人脸图像(目标人脸对应的人脸图像),以在引领目标用户的过程中,依据临时注册的目标人脸图像对目标人脸进行实时检测,确认目标用户的追踪状态,保证引路质量。
具体地,机器人在引领目标用户的过程中,可以实时拍摄人脸,获得所拍摄人脸的人脸图像,若上述人脸图像中存在与临时注册的目标人脸图像一致的图像,则表明当前拍摄到目标人脸,若上述人脸图像中不存在与临时注册的目标人脸图像一致的图像,则表明当前没有拍摄到目标人脸。
作为一个实施例,上述方法还包括:
若机器人存有目标人脸对应的人脸图像,则根据目标人脸对应的人脸图像引领目标用户,并永久注册目标人脸对应的人脸图像;目标人脸对应的人脸图像在永久注册后用于表征目标用户为特定用户。
若机器人存有目标人脸图像对应的人脸图像,此时可以临时注册目标人脸图像,以在引领目标用户的过程中,依据临时注册的目标人脸图像对目标人脸进行实时检测,还可以永久注册目标人脸图像,以表明相应的目标用户为特定用户,提高后续进行该目标用户对应的人脸检测等工作的效率。
在一个示例中,参考图3所示,机器人所在的场地为餐厅,设定位置为相应桌位。机器人的工作流程图可以参考图3所示,机器人可以依据在拍摄区域检测到的人脸图像进行伺服系统唤醒;确定目标人脸,进行人脸查询;若机器人的系统库没存目标人脸对应的人脸图像,则临时注册目标人脸图像;若机器人的系统库存有目标人脸对应的人脸图像,则临时注册目标人脸图像,并永久注册目标人脸图像;根据临时注册的目标人脸图像进行图像跟踪,以跟踪目标用户;若目标用户离开后再次进入视野(拍摄区域),进行人脸识别,检测到目标人脸,实现目标用户对应的图像跟踪;若目标用户没有离开视野,则将目标用户引领至相应桌位。
在一个实施例中,从检测到的人脸中确定出满足设定条件的人脸,作为目标人脸包括:
获取各个人脸的人脸面积;
将人脸按照人脸面积从大到小排序;
选择排序前K个人脸作为目标人脸集;
在目标人脸集中选择目标人脸。
上述人脸图像个数K可以依据机器人的配置特征,以及相应引路精度设置,比如可以设置为4或者5等值。在确定目标人脸集后,目标人脸集中的K个人脸分别对应的人脸面积均大于或者等于其他各个人脸(目标人脸集之外的人脸图像)的人脸面积。上述在目标人脸集中选择目标人脸可以包括:在目标人脸集中选择人脸面积最大的人脸作为目标人脸;或者在目标人脸集中选择排在第M位的人脸作为目标人脸,0<M<K。
在一个实施例中,从检测到的人脸中确定出满足设定条件的人脸,作为目标人脸包括:
获取各个人脸与所述机器人之间的距离;
将人脸按照所述距离从小到大排序;
选择排序前K个人脸作为目标人脸集;
在目标人脸集中选择所述目标人脸。
某人脸与机器人之间的距离指该人脸至机器人的指定点之间的距离。机器人的指定点可以为机器人的摄像头视场中心。在确定目标人脸集后,目标人脸集中的K个人脸分别距指定点之间的距离均小于或者等于其他各个人脸(目标人脸集之外的人脸图像)距指定点之间的距离。上述在目标人脸集中选择目标人脸可以包括:在目标人脸集中选择人脸面积最大的人脸作为目标人脸;或者在目标人脸集中选择排在第M位的人脸作为目标人脸,0<M<K。
作为一个实施例,在选择前K个人脸作为目标人脸集之后,上述方法还包括:
检测目标人脸集中是否存在满足唤醒条件的人脸;
若是,则唤醒机器人的伺服系统,通过伺服系统在目标人脸集中选择目标人脸,以及控制机器人跟踪拍摄目标人脸,直到将目标用户引领至设定位置。
上述唤醒条件可以包括相应人脸为有效人脸等条件。若目标人脸集中存在满足唤醒条件的人脸,表明目标人脸集中包括有效人脸,此时可以唤醒机器人,执行在目标人脸集中选择目标人脸的过程,以确定目标用户,对目标用户进行引路。
作为一个实施例,上述方法还包括:
若目标人脸集中不存在满足唤醒条件的人脸,则返回执行获取机器人检测到的人脸的过程。
若目标人脸集中不存在满足唤醒条件的人脸,表明目标人脸集中不包括有效人脸,此时返回执行获取机器人检测到的人脸的过程的过程,重新进行人脸检测,以获得有效人脸,保证所确定的目标人脸集的有效性,从而保证所选择的目标人脸的有效性。
作为一个实施例,上述检测目标人脸集中是否存在满足唤醒条件的人脸包括:
若目标人脸集中存在人脸面积大于或等于面积阈值的人脸,则判定目标人脸集中存在满足唤醒条件的人脸;
若目标人脸集中不存在人脸面积大于或等于面积阈值的人脸,则判定目标人脸集中不存在满足唤醒条件的人脸。
上述面积阈值可以依据机器人所在场地面临的用户特征进行设置,比如设置为200平方厘米等值。
本实施例可以对目标人脸集中是否存在满足唤醒条件的人脸进行准确检测。
在一个示例中,参考图4所示,机器人可以在拍摄区域进行人脸检测,检测当前出现在拍摄区域的各个人脸;分别确定各个人脸图像的位置;通过如下两种方式锁定目标(确定目标人脸集):方式1包括:人脸面积计算1、人脸面积排序、选择面积最大的K个人脸(图4所示面积最大人脸),方式2包括:中心距离(人脸图像对应的人脸距机器人的指定点之间的距离)计算、距离排序、选择距离最小的K个人脸(图4所示距离最小人脸);进行第二次人脸面积计算(图4所示人脸面积计算2),以检测目标人脸集中是否存在满足唤醒条件的人脸;在确定目标人脸集中存在满足唤醒条件的人脸之后,可以进行机器人的伺服系统唤醒,以使机器人为引领作业做准备。
具体地,机器人可采用几何特征方法、特征脸方法、图匹配法和人工神经网络等方法来进行人脸的位置和大小的检测。例如:假设检测出的人脸坐标为(x11,y11,x12,y12),其中(x11,y11)代表人脸框左上角的横纵坐标,(x12,y12)代表人脸框右下角的横纵坐标。每一个人脸面积则表示为(x12-x11)*(y12-y11)。如果同一幅照片中检测出多张人脸,那么相应坐标依次表示为(x11,y11,x12,y12)、(x21,y21,x22,y22)、……、(xn1,yn1,xn2,yn2);n为所检测到的人脸个数。如图4所示,机器人可以采用两种方式对目标进行锁定,确定目标人脸集:第一,机器人根据检测出的人脸坐标位置,计算人脸框面积大小,并按照从大到小的顺序挑选出面积最大的K个人脸作为目标人脸集;第二,机器人计算出人脸框中心位置与摄像头视场中心的距离,并按照从小到大的顺序挑选出距离最小的K个人脸作为目标人脸集。人脸框水平中心的位置为:xn=(xn1+xn2)/2,垂直中心位置为:yn=(yn1+yn2)/2。假设视场中心位置为(x0,y0),那么人脸框中心位置与摄像头视场中心的距离可表示为|xn-x0|、|yn-y0|、|xn-x0|+|yn-y0||或||(xn,yn)-(x0,y0)||;其中符号“||”表示求绝对值,||(xn,yn)-(x0,y0)||表示求点(xn,yn)至点(x0,y0)之间的距离。
可选地,机器人中人脸检测用户端、人脸服务器和机器人总控三个部分之间的交互示意图可以参考图5所示。图5中,人脸检测用户端、人脸服务器和机器人总控三者之间交换的信息涉及人脸检测、人脸注册和人脸识别等。人脸检测用户端可以将检测到的结果,如人脸的位置和人脸框的大小等,同时上传到机器人总控和人脸服务器以进行后续处理。机器人总控可以向人脸识别服务器和人脸检测客户端发送控制命令,例如检测、注册和识别等,并且从这两者获取相应的处理数据。
应该理解的是,虽然图2-4的流程图中的各个步骤按照箭头的指示依次显示,但是这些步骤并不是必然按照箭头指示的顺序依次执行。除非本文中有明确的说明,这些步骤的执行并没有严格的顺序限制,这些步骤可以以其它的顺序执行。而且,图2-4中的至少一部分步骤可以包括多个子步骤或者多个阶段,这些子步骤或者阶段并不必然是在同一时刻执行完成,而是可以在不同的时刻执行,这些子步骤或者阶段的执行顺序也不必然是依次进行,而是可以与其它步骤或者其它步骤的子步骤或者阶段的至少一部分轮流或者交替地执行。
在一个实施例中,如图6所示,提供了一种机器人引路装置,包括:获取模块210、确定模块230和控制模块250,其中:
获取模块210,用于获取机器人检测到的人脸;
确定模块230,用于从检测到的人脸中确定出满足设定条件的人脸,作为目标人脸;
控制模块250,用于控制机器人跟踪拍摄目标人脸,直到将目标用户引领至设定位置;目标用户为目标人脸对应的用户。
在一个实施例中,上述控制模块进一步用于:
在将目标用户引领至设定位置的过程中,若机器人拍摄到目标人脸,则机器人按照设定路线行走;设定路线为当前位置至设定位置之间的路线;
若机器人拍摄不到目标人脸,则机器人停止行走;
若机器人在停止行走后的设定时段内,再次检测到目标人脸,则机器人按照设定路线继续行走。
作为一个实施例,上述控制模块进一步用于:
若机器人在停止行走后的设定时段内,未拍摄到目标人脸,则机器人返回初始位置。
在一个实施例中,上述机器人引路装置还包括:
第一检测模块,用于检测机器人是否存有目标人脸对应的人脸图像;
第一注册模块,用于若否,则临时注册目标人脸对应的人脸图像;目标人脸对应的人脸图像在临时注册后用于在引领目标用户的过程中检测目标人脸。
作为一个实施例,上述机器人引路装置还包括:
第二注册模块,用于若机器人存有目标人脸对应的人脸图像,则根据目标人脸对应的人脸图像引领目标用户,并永久注册目标人脸对应的人脸图像;目标人脸对应的人脸图像在永久注册后用于表征目标用户为特定用户。
在一个实施例中,上述确定模块进一步用于:
获取各个人脸的人脸面积;
将人脸按照人脸面积从大到小排序;
选择排序前K个人脸作为目标人脸集;
在目标人脸集中选择目标人脸。
在一个实施例中,上述确定模块进一步用于:
获取各个人脸与所述机器人之间的距离;
将人脸按照所述距离从小到大排序;
选择排序前K个人脸作为目标人脸集;
在目标人脸集中选择所述目标人脸。
作为一个实施例,上述机器人引路装置还包括:
第二检测模块,用于检测目标人脸集中是否存在满足唤醒条件的人脸;
执行模块,用于若目标人脸集中存在满足唤醒条件的人脸,则唤醒机器人的伺服系统,通过伺服系统在目标人脸集中选择目标人脸,以及控制机器人跟踪拍摄目标人脸,直到将目标用户引领至设定位置。
作为一个实施例,上述机器人引路装置还包括:
返回模块,用于若目标人脸集中不存在满足唤醒条件的人脸,则返回执行获取机器人检测到的人脸的过程。
作为一个实施例,上述第二检测模块进一步用于:
若目标人脸集中存在人脸面积大于或等于面积阈值的人脸,则判定目标人脸集中存在满足唤醒条件的人脸;
若目标人脸集中不存在人脸面积大于或等于面积阈值的人脸,则判定目标人脸集中不存在满足唤醒条件的人脸。
关于机器人引路装置的具体限定可以参见上文中对于机器人引路方法的限定,在此不再赘述。上述机器人引路装置中的各个模块可全部或部分通过软件、硬件及其组合来实现。上述各模块可以硬件形式内嵌于或独立于机器人中的处理器中,也可以以软件形式存储于机器人中的存储器中,以便于处理器调用执行以上各个模块对应的操作。
在一个实施例中,提供了一种机器人,该机器人可以是终端,其内部结构图可以如图7所示。该机器人包括通过系统总线连接的处理器、存储器、网络接口、显示屏和输入装置。其中,该机器人的处理器用于提供计算和控制能力。该机器人的存储器包括非易失性存储介质、内存储器。该非易失性存储介质存储有操作系统和计算机程序。该内存储器为非易失性存储介质中的操作系统和计算机程序的运行提供环境。该机器人的网络接口用于与外部的终端通过网络连接通信。该计算机程序被处理器执行时以实现一种机器人引路方法。该机器人的显示屏可以是液晶显示屏或者电子墨水显示屏,该机器人的输入装置可以是显示屏上覆盖的触摸层,也可以是机器人外壳上设置的按键、轨迹球或触控板,还可以是外接的键盘、触控板或鼠标等。
本领域技术人员可以理解,图7中示出的结构,仅仅是与本申请方案相关的部分结构的框图,并不构成对本申请方案所应用于其上的机器人的限定,具体的机器人可以包括比图中所示更多或更少的部件,或者组合某些部件,或者具有不同的部件布置。
在一个实施例中,提供了一种机器人,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,处理器执行计算机程序时实现以下步骤:
获取机器人检测到的人脸;
从检测到的人脸中确定出满足设定条件的人脸,作为目标人脸;
控制所述机器人跟踪拍摄目标人脸,直到将目标用户引领至设定位置;目标用户为目标人脸对应的用户。
在一个实施例中,处理器执行计算机程序时还实现以下步骤:
在将目标用户引领至设定位置的过程中,若机器人拍摄到目标人脸,则机器人按照设定路线行走;设定路线为当前位置至设定位置之间的路线;若机器人拍摄不到目标人脸,则机器人停止行走;若机器人在停止行走后的设定时段内,再次检测到目标人脸,则机器人按照设定路线继续行走。
在一个实施例中,处理器执行计算机程序时还实现以下步骤:
若机器人在停止行走后的设定时段内,未拍摄到目标人脸,则机器人返回初始位置。
在一个实施例中,处理器执行计算机程序时还实现以下步骤:
检测机器人是否存有目标人脸对应的人脸图像;若否,则临时注册目标人脸对应的人脸图像;目标人脸对应的人脸图像在临时注册后用于在引领目标用户的过程中检测目标人脸。
在一个实施例中,处理器执行计算机程序时还实现以下步骤:
若机器人存有目标人脸对应的人脸图像,则根据目标人脸对应的人脸图像引领目标用户,并永久注册目标人脸对应的人脸图像;目标人脸对应的人脸图像在永久注册后用于表征目标用户为特定用户。
在一个实施例中,处理器执行计算机程序时还实现以下步骤:
获取各个人脸的人脸面积;将人脸按照人脸面积从大到小排序;选择排序前K个人脸作为目标人脸集;在目标人脸集中选择所述目标人脸。
在一个实施例中,处理器执行计算机程序时还实现以下步骤:
获取各个人脸与机器人之间的距离;将人脸按照距离从小到大排序;选择排序前K个人脸作为目标人脸集;在目标人脸集中选择所述目标人脸。
在一个实施例中,处理器执行计算机程序时还实现以下步骤:
检测目标人脸集中是否存在满足唤醒条件的人脸;若是,则唤醒机器人的伺服系统,通过伺服系统在目标人脸集中选择目标人脸,以及控制机器人跟踪拍摄目标人脸,直到将目标用户引领至设定位置。
在一个实施例中,处理器执行计算机程序时还实现以下步骤:
若目标人脸集中存在人脸面积大于或等于面积阈值的人脸,则判定目标人脸集中存在满足唤醒条件的人脸;若目标人脸集中不存在人脸面积大于或等于面积阈值的人脸,则判定目标人脸集中不存在满足唤醒条件的人脸。
在一个实施例中,提供了一种计算机可读存储介质,其上存储有计算机程序,计算机程序被处理器执行时实现以下步骤:
获取机器人检测到的人脸;
从检测到的人脸中确定出满足设定条件的人脸,作为目标人脸;
控制所述机器人跟踪拍摄目标人脸,直到将目标用户引领至设定位置;目标用户为目标人脸对应的用户。
在一个实施例中,计算机程序被处理器执行时还实现以下步骤:
在将目标用户引领至设定位置的过程中,若机器人拍摄到目标人脸,则机器人按照设定路线行走;设定路线为当前位置至设定位置之间的路线;若机器人拍摄不到目标人脸,则机器人停止行走;若机器人在停止行走后的设定时段内,再次检测到目标人脸,则机器人按照设定路线继续行走。
在一个实施例中,计算机程序被处理器执行时还实现以下步骤:
若机器人在停止行走后的设定时段内,未拍摄到目标人脸,则机器人返回初始位置。
在一个实施例中,计算机程序被处理器执行时还实现以下步骤:
检测机器人是否存有目标人脸对应的人脸图像;若否,则临时注册目标人脸对应的人脸图像;目标人脸对应的人脸图像在临时注册后用于在引领目标用户的过程中检测目标人脸。
在一个实施例中,计算机程序被处理器执行时还实现以下步骤:
若机器人存有目标人脸对应的人脸图像,则根据目标人脸对应的人脸图像引领目标用户,并永久注册目标人脸对应的人脸图像;目标人脸对应的人脸图像在永久注册后用于表征目标用户为特定用户。
在一个实施例中,计算机程序被处理器执行时还实现以下步骤:
获取各个人脸的人脸面积;将人脸按照人脸面积从大到小排序;选择排序前K个人脸作为目标人脸集;在目标人脸集中选择所述目标人脸。
在一个实施例中,计算机程序被处理器执行时还实现以下步骤:
获取各个人脸与机器人之间的距离;将人脸按照距离从小到大排序;选择排序前K个人脸作为目标人脸集;在目标人脸集中选择所述目标人脸。
在一个实施例中,计算机程序被处理器执行时还实现以下步骤:
检测目标人脸集中是否存在满足唤醒条件的人脸;若是,则唤醒机器人的伺服系统,通过伺服系统在目标人脸集中选择目标人脸,以及控制机器人跟踪拍摄目标人脸,直到将目标用户引领至设定位置。
在一个实施例中,计算机程序被处理器执行时还实现以下步骤:
若目标人脸集中存在人脸面积大于或等于面积阈值的人脸,则判定目标人脸集中存在满足唤醒条件的人脸;若目标人脸集中不存在人脸面积大于或等于面积阈值的人脸,则判定目标人脸集中不存在满足唤醒条件的人脸。
本领域普通技术人员可以理解实现上述实施例方法中的全部或部分流程,是可以通过计算机程序来指令相关的硬件来完成,所述的计算机程序可存储于一非易失性计算机可读取存储介质中,该计算机程序在执行时,可包括如上述各方法的实施例的流程。其中,本申请所提供的各实施例中所使用的对存储器、存储、数据库或其它介质的任何引用,均可包括非易失性和/或易失性存储器。非易失性存储器可包括只读存储器(ROM)、可编程ROM(PROM)、电可编程ROM(EPROM)、电可擦除可编程ROM(EEPROM)或闪存。易失性存储器可包括随机存取存储器(RAM)或者外部高速缓冲存储器。作为说明而非局限,RAM以多种形式可得,诸如静态RAM(SRAM)、动态RAM(DRAM)、同步DRAM(SDRAM)、双数据率SDRAM(DDRSDRAM)、增强型SDRAM(ESDRAM)、同步链路(Synchlink)DRAM(SLDRAM)、存储器总线(Rambus)直接RAM(RDRAM)、直接存储器总线动态RAM(DRDRAM)、以及存储器总线动态RAM(RDRAM)等。
以上实施例的各技术特征可以进行任意的组合,为使描述简洁,未对上述实施例中的各个技术特征所有可能的组合都进行描述,然而,只要这些技术特征的组合不存在矛盾,都应当认为是本说明书记载的范围。
需要说明的是,本申请实施例所涉及的术语“第一\第二\第三”仅仅是区别类似的对象,不代表针对对象的特定排序,可以理解地,“第一\第二\第三”在允许的情况下可以互换特定的顺序或先后次序。应该理解“第一\第二\第三”区分的对象在适当情况下可以互换,以使这里描述的本申请的实施例能够以除了在这里图示或描述的那些以外的顺序实施。
本申请实施例的术语“包括”和“具有”以及它们任何变形,意图在于覆盖不排他的包含。例如包含了一系列步骤或模块的过程、方法、装置、产品或设备没有限定于已列出的步骤或模块,而是可选地还包括没有列出的步骤或模块,或可选地还包括对于这些过程、方法、产品或设备固有的其它步骤或模块。
在本文中提及的“多个”是指两个或两个以上。“和/或”,描述关联对象的关联关系,表示可以存在三种关系,例如,A和/或B,可以表示:单独存在A,同时存在A和B,单独存在B这三种情况。字符“/”一般表示前后关联对象是一种“或”的关系。
以上所述实施例仅表达了本申请的几种实施方式,其描述较为具体和详细,但并不能因此而理解为对发明专利范围的限制。应当指出的是,对于本领域的普通技术人员来说,在不脱离本申请构思的前提下,还可以做出若干变形和改进,这些都属于本申请的保护范围。因此,本申请专利的保护范围应以所附权利要求为准。
Claims (12)
1.一种机器人引路方法,其特征在于,所述方法包括:
获取所述机器人检测到的人脸;
从所述检测到的人脸中确定出满足设定条件的人脸,作为目标人脸;
控制所述机器人跟踪拍摄所述目标人脸,直到将目标用户引领至设定位置;所述目标用户为所述目标人脸对应的用户。
2.根据权利要求1所述的方法,其特征在于,所述方法还包括:
在将目标用户引领至设定位置的过程中,若所述机器人拍摄到所述目标人脸,则所述机器人按照设定路线行走;所述设定路线为当前位置至所述设定位置之间的路线;
若所述机器人拍摄不到所述目标人脸,则所述机器人停止行走;
若所述机器人在停止行走后的设定时段内,再次检测到所述目标人脸,则所述机器人按照所述设定路线继续行走。
3.根据权利要求2所述的方法,其特征在于,在所述机器人停止行走后,所述方法还包括:
若所述机器人在停止行走后的设定时段内,未拍摄到所述目标人脸,则所述机器人返回初始位置。
4.根据权利要求1所述的方法,其特征在于,所述从所述检测到的人脸中确定出满足设定条件的人脸,作为目标人脸之后,所述方法还包括:
检测所述机器人是否存有所述目标人脸对应的人脸图像;
若否,则临时注册所述目标人脸对应的人脸图像;所述目标人脸对应的人脸图像在临时注册后用于在引领所述目标用户的过程中检测目标人脸。
5.根据权利要求4所述的方法,其特征在于,所述方法还包括:
若所述机器人存有所述目标人脸对应的人脸图像,则根据所述目标人脸对应的人脸图像引领所述目标用户,并永久注册所述目标人脸对应的人脸图像;所述目标人脸对应的人脸图像在永久注册后用于表征所述目标用户为特定用户。
6.根据权利要求1至5任一项所述的方法,其特征在于,所述从所述检测到的人脸中确定出满足设定条件的人脸,作为目标人脸包括:
获取各个所述人脸的人脸面积;
将所述人脸按照人脸面积从大到小排序;
选择排序前K个人脸作为目标人脸集;
在所述目标人脸集中选择所述目标人脸。
7.根据权利要求1至5任一项所述的方法,其特征在于,所述从所述检测到的人脸中确定出满足设定条件的人脸,作为目标人脸包括:
获取各个所述人脸与所述机器人之间的距离;
将所述人脸按照所述距离从小到大排序;
选择排序前K个人脸作为目标人脸集;
在所述目标人脸集中选择所述目标人脸。
8.根据权利要求6或7所述的方法,其特征在于,所述选择前K个人脸作为目标人脸集之后,所述方法还包括:
检测所述目标人脸集中是否存在满足唤醒条件的人脸;
若是,则唤醒所述机器人的伺服系统,通过所述伺服系统在所述目标人脸集中选择所述目标人脸,以及控制所述机器人跟踪拍摄所述目标人脸,直到将目标用户引领至设定位置。
9.根据权利要求8所述的方法,其特征在于,所述检测所述目标人脸集中是否存在满足唤醒条件的人脸包括:
若所述目标人脸集中存在人脸面积大于或等于面积阈值的人脸,则判定所述目标人脸集中存在满足唤醒条件的人脸;
若所述目标人脸集中不存在人脸面积大于或等于面积阈值的人脸,则判定所述目标人脸集中不存在满足唤醒条件的人脸。
10.一种机器人引路装置,其特征在于,所述装置包括:
获取模块,用于获取所述机器人检测到的人脸;
确定模块,用于从所述检测到的人脸中确定出满足设定条件的人脸,作为目标人脸;
控制模块,用于控制所述机器人跟踪拍摄所述目标人脸,直到将目标用户引领至设定位置;所述目标用户为所述目标人脸对应的用户。
11.一种机器人,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,其特征在于,所述处理器执行所述计算机程序时实现权利要求1至9中任一项所述方法的步骤。
12.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现权利要求1至9中任一项所述的方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910321681.4A CN110032982B (zh) | 2019-04-22 | 2019-04-22 | 机器人引路方法、装置、机器人和存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910321681.4A CN110032982B (zh) | 2019-04-22 | 2019-04-22 | 机器人引路方法、装置、机器人和存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110032982A true CN110032982A (zh) | 2019-07-19 |
CN110032982B CN110032982B (zh) | 2021-05-25 |
Family
ID=67239534
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910321681.4A Active CN110032982B (zh) | 2019-04-22 | 2019-04-22 | 机器人引路方法、装置、机器人和存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110032982B (zh) |
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110353373A (zh) * | 2019-07-31 | 2019-10-22 | 正如(广东)机器人科技有限公司 | 遮阳伞机器人、方法及计算机存储介质 |
CN111639515A (zh) * | 2020-01-16 | 2020-09-08 | 上海黑眸智能科技有限责任公司 | 目标丢失再跟踪方法、装置、系统、电子终端及存储介质 |
CN111694353A (zh) * | 2020-05-14 | 2020-09-22 | 特斯联科技集团有限公司 | 一种导引控制方法、装置、存储介质及服务机器人 |
CN112008735A (zh) * | 2020-08-24 | 2020-12-01 | 北京云迹科技有限公司 | 基于巡游机器人的救助方法、装置及系统 |
CN112304313A (zh) * | 2020-09-29 | 2021-02-02 | 深圳优地科技有限公司 | 醉酒目标引导方法、装置、系统与计算机可读存储介质 |
CN112486165A (zh) * | 2020-10-22 | 2021-03-12 | 深圳优地科技有限公司 | 机器人领路方法、装置、设备及计算机可读存储介质 |
CN114012740A (zh) * | 2021-12-10 | 2022-02-08 | 北京云迹科技有限公司 | 一种基于机器人的目标地点引领方法、装置和机器人 |
CN114193477A (zh) * | 2021-12-24 | 2022-03-18 | 上海擎朗智能科技有限公司 | 一种位置引领方法、装置、机器人及存储介质 |
CN114237249A (zh) * | 2021-12-17 | 2022-03-25 | 北京云迹科技股份有限公司 | 用于机器人引领过程中的控制方法、装置和引领机器人 |
Citations (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20040197014A1 (en) * | 2003-04-01 | 2004-10-07 | Honda Motor Co., Ltd. | Face identification system |
CN102411368A (zh) * | 2011-07-22 | 2012-04-11 | 北京大学 | 机器人的主动视觉人脸跟踪方法和跟踪系统 |
CN102880938A (zh) * | 2012-09-17 | 2013-01-16 | 北京理工大学 | 一种基于物联网技术的智能餐厅管理系统 |
CN104732210A (zh) * | 2015-03-17 | 2015-06-24 | 深圳超多维光电子有限公司 | 目标人脸跟踪方法及电子设备 |
CN106339219A (zh) * | 2016-08-19 | 2017-01-18 | 北京光年无限科技有限公司 | 一种机器人服务的唤醒方法及装置 |
CN107598934A (zh) * | 2017-09-01 | 2018-01-19 | 旗瀚科技有限公司 | 一种智能机器人前台应用系统及方法 |
CN108098767A (zh) * | 2016-11-25 | 2018-06-01 | 北京智能管家科技有限公司 | 一种机器人唤醒方法及装置 |
CN108638092A (zh) * | 2018-08-13 | 2018-10-12 | 天津塔米智能科技有限公司 | 一种机场服务机器人及其服务方法 |
CN108734083A (zh) * | 2018-03-21 | 2018-11-02 | 北京猎户星空科技有限公司 | 智能设备的控制方法、装置、设备和存储介质 |
CN108737362A (zh) * | 2018-03-21 | 2018-11-02 | 北京猎户星空科技有限公司 | 注册方法、装置、设备和存储介质 |
CN108734082A (zh) * | 2018-03-21 | 2018-11-02 | 北京猎户星空科技有限公司 | 对应关系的建立方法、装置、设备和存储介质 |
CN108748172A (zh) * | 2018-05-29 | 2018-11-06 | 塔米智能科技(北京)有限公司 | 一种机器人迎宾方法、装置、设备和介质 |
CN108803866A (zh) * | 2018-03-27 | 2018-11-13 | 北京七鑫易维信息技术有限公司 | 输出信息的方法、装置和系统 |
CN109062224A (zh) * | 2018-09-06 | 2018-12-21 | 深圳市三宝创新智能有限公司 | 机器人送餐控制方法、装置、送餐机器人及自动送餐系统 |
CN109093631A (zh) * | 2018-09-10 | 2018-12-28 | 中国科学技术大学 | 一种服务机器人唤醒方法及装置 |
JP2019003360A (ja) * | 2017-06-14 | 2019-01-10 | 大日本印刷株式会社 | 案内ロボット、席管理装置及びプログラム |
-
2019
- 2019-04-22 CN CN201910321681.4A patent/CN110032982B/zh active Active
Patent Citations (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20040197014A1 (en) * | 2003-04-01 | 2004-10-07 | Honda Motor Co., Ltd. | Face identification system |
CN102411368A (zh) * | 2011-07-22 | 2012-04-11 | 北京大学 | 机器人的主动视觉人脸跟踪方法和跟踪系统 |
CN102880938A (zh) * | 2012-09-17 | 2013-01-16 | 北京理工大学 | 一种基于物联网技术的智能餐厅管理系统 |
CN104732210A (zh) * | 2015-03-17 | 2015-06-24 | 深圳超多维光电子有限公司 | 目标人脸跟踪方法及电子设备 |
CN106339219A (zh) * | 2016-08-19 | 2017-01-18 | 北京光年无限科技有限公司 | 一种机器人服务的唤醒方法及装置 |
CN108098767A (zh) * | 2016-11-25 | 2018-06-01 | 北京智能管家科技有限公司 | 一种机器人唤醒方法及装置 |
JP2019003360A (ja) * | 2017-06-14 | 2019-01-10 | 大日本印刷株式会社 | 案内ロボット、席管理装置及びプログラム |
CN107598934A (zh) * | 2017-09-01 | 2018-01-19 | 旗瀚科技有限公司 | 一种智能机器人前台应用系统及方法 |
CN108734083A (zh) * | 2018-03-21 | 2018-11-02 | 北京猎户星空科技有限公司 | 智能设备的控制方法、装置、设备和存储介质 |
CN108737362A (zh) * | 2018-03-21 | 2018-11-02 | 北京猎户星空科技有限公司 | 注册方法、装置、设备和存储介质 |
CN108734082A (zh) * | 2018-03-21 | 2018-11-02 | 北京猎户星空科技有限公司 | 对应关系的建立方法、装置、设备和存储介质 |
CN108803866A (zh) * | 2018-03-27 | 2018-11-13 | 北京七鑫易维信息技术有限公司 | 输出信息的方法、装置和系统 |
CN108748172A (zh) * | 2018-05-29 | 2018-11-06 | 塔米智能科技(北京)有限公司 | 一种机器人迎宾方法、装置、设备和介质 |
CN108638092A (zh) * | 2018-08-13 | 2018-10-12 | 天津塔米智能科技有限公司 | 一种机场服务机器人及其服务方法 |
CN109062224A (zh) * | 2018-09-06 | 2018-12-21 | 深圳市三宝创新智能有限公司 | 机器人送餐控制方法、装置、送餐机器人及自动送餐系统 |
CN109093631A (zh) * | 2018-09-10 | 2018-12-28 | 中国科学技术大学 | 一种服务机器人唤醒方法及装置 |
Non-Patent Citations (1)
Title |
---|
张镇: "面向迎宾机器人组件化系统的建模与控制研究", 《中国博士学位论文全文数据库 信息科技辑》 * |
Cited By (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110353373A (zh) * | 2019-07-31 | 2019-10-22 | 正如(广东)机器人科技有限公司 | 遮阳伞机器人、方法及计算机存储介质 |
CN111639515A (zh) * | 2020-01-16 | 2020-09-08 | 上海黑眸智能科技有限责任公司 | 目标丢失再跟踪方法、装置、系统、电子终端及存储介质 |
CN111694353A (zh) * | 2020-05-14 | 2020-09-22 | 特斯联科技集团有限公司 | 一种导引控制方法、装置、存储介质及服务机器人 |
CN112008735A (zh) * | 2020-08-24 | 2020-12-01 | 北京云迹科技有限公司 | 基于巡游机器人的救助方法、装置及系统 |
CN112304313A (zh) * | 2020-09-29 | 2021-02-02 | 深圳优地科技有限公司 | 醉酒目标引导方法、装置、系统与计算机可读存储介质 |
CN112486165A (zh) * | 2020-10-22 | 2021-03-12 | 深圳优地科技有限公司 | 机器人领路方法、装置、设备及计算机可读存储介质 |
CN114012740A (zh) * | 2021-12-10 | 2022-02-08 | 北京云迹科技有限公司 | 一种基于机器人的目标地点引领方法、装置和机器人 |
CN114012740B (zh) * | 2021-12-10 | 2023-08-29 | 北京云迹科技股份有限公司 | 一种基于机器人的目标地点引领方法、装置和机器人 |
CN114237249A (zh) * | 2021-12-17 | 2022-03-25 | 北京云迹科技股份有限公司 | 用于机器人引领过程中的控制方法、装置和引领机器人 |
CN114193477A (zh) * | 2021-12-24 | 2022-03-18 | 上海擎朗智能科技有限公司 | 一种位置引领方法、装置、机器人及存储介质 |
Also Published As
Publication number | Publication date |
---|---|
CN110032982B (zh) | 2021-05-25 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110032982A (zh) | 机器人引路方法、装置、机器人和存储介质 | |
CN110998594B (zh) | 检测动作的方法和系统 | |
US9317762B2 (en) | Face recognition using depth based tracking | |
CN107341442B (zh) | 运动控制方法、装置、计算机设备和服务机器人 | |
CN108446585A (zh) | 目标跟踪方法、装置、计算机设备和存储介质 | |
US9412180B2 (en) | Information processing apparatus, information processing method, and program | |
CN109919977B (zh) | 一种基于时间特征的视频运动人物跟踪与身份识别方法 | |
CN109344742B (zh) | 特征点定位方法、装置、存储介质和计算机设备 | |
CN109978756A (zh) | 目标检测方法、系统、装置、存储介质和计算机设备 | |
WO2021139484A1 (zh) | 目标跟踪方法、装置、电子设备及存储介质 | |
US7940957B2 (en) | Object tracker for visually tracking object motion | |
CN104537389B (zh) | 人脸识别方法和装置 | |
CN110472554A (zh) | 基于姿态分割和关键点特征的乒乓球动作识别方法及系统 | |
CN110379050A (zh) | 一种闸机控制方法、装置及系统 | |
US20120114176A1 (en) | Image processing apparatus and image processing method | |
CN108986164A (zh) | 基于图像的位置检测方法、装置、设备及存储介质 | |
JP2018538631A (ja) | シーン内のオブジェクトのアクションを検出する方法及びシステム | |
CN109087261B (zh) | 基于非受限采集场景的人脸矫正方法 | |
US20140348380A1 (en) | Method and appratus for tracking objects | |
CN109858358A (zh) | 楼宇间人员轨迹跟踪方法及其系统、计算机可读存储介质 | |
Huang et al. | Multitarget visual tracking based effective surveillance with cooperation of multiple active cameras | |
CN110490902A (zh) | 应用于智慧城市的目标跟踪方法、装置、计算机设备 | |
CN108919943A (zh) | 一种基于深度传感器的实时手部追踪方法 | |
CN109448025A (zh) | 视频中短道速滑运动员的自动跟踪与轨迹建模方法 | |
CN111832561B (zh) | 基于计算机视觉的字符序列识别方法、装置、设备和介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |