CN114407024B - 一种位置引领方法、装置、机器人及存储介质 - Google Patents
一种位置引领方法、装置、机器人及存储介质 Download PDFInfo
- Publication number
- CN114407024B CN114407024B CN202210251021.5A CN202210251021A CN114407024B CN 114407024 B CN114407024 B CN 114407024B CN 202210251021 A CN202210251021 A CN 202210251021A CN 114407024 B CN114407024 B CN 114407024B
- Authority
- CN
- China
- Prior art keywords
- target
- leading
- determining
- robot
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 64
- 230000008569 process Effects 0.000 claims abstract description 18
- 230000008859 change Effects 0.000 claims description 20
- 238000004590 computer program Methods 0.000 claims description 16
- 230000009286 beneficial effect Effects 0.000 abstract description 3
- 238000004891 communication Methods 0.000 description 8
- 230000006870 function Effects 0.000 description 6
- 238000012545 processing Methods 0.000 description 6
- 238000010586 diagram Methods 0.000 description 4
- 230000002452 interceptive effect Effects 0.000 description 4
- 230000002159 abnormal effect Effects 0.000 description 3
- 238000004422 calculation algorithm Methods 0.000 description 3
- 238000006073 displacement reaction Methods 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 208000012661 Dyskinesia Diseases 0.000 description 2
- 210000000746 body region Anatomy 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 2
- 239000003086 colorant Substances 0.000 description 2
- 238000011161 development Methods 0.000 description 2
- 230000001815 facial effect Effects 0.000 description 2
- 230000003993 interaction Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000004458 analytical method Methods 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 238000013473 artificial intelligence Methods 0.000 description 1
- 230000001413 cellular effect Effects 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 239000011521 glass Substances 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 239000013307 optical fiber Substances 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000001953 sensory effect Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 230000001960 triggered effect Effects 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1602—Programme controls characterised by the control system, structure, architecture
- B25J9/161—Hardware, e.g. neural networks, fuzzy logic, interfaces, processor
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J11/00—Manipulators not otherwise provided for
- B25J11/008—Manipulators for service tasks
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1656—Programme controls characterised by programming, planning systems for manipulators
- B25J9/1664—Programme controls characterised by programming, planning systems for manipulators characterised by motion, path, trajectory planning
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1694—Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
- B25J9/1697—Vision controlled systems
Landscapes
- Engineering & Computer Science (AREA)
- Robotics (AREA)
- Mechanical Engineering (AREA)
- Automation & Control Theory (AREA)
- Physics & Mathematics (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- Fuzzy Systems (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Manipulator (AREA)
Abstract
本发明公开了一种位置引领方法、装置、机器人及存储介质。该方法包括:在所述机器人进入引领状态时,确定目标引领对象;在所述机器人的引领过程中,确定图像采集范围,并采集所述图像采集范围中的场景图像;根据所述场景图像判断所述目标引领对象的当前状态,并根据所述当前状态确定位置引领方式。通过运行本发明实施例所提供的技术方案,可以解决机器人在位置引领时通常在获得目的地位置后直接前往该位置,无法判断引领对象的实际跟随情况的问题,实现了提高位置引领的准确性和效率的有益效果。
Description
技术领域
本发明涉及机器人技术,尤其涉及一种位置引领方法、装置、机器人及存储介质。
背景技术
随着智能机器人的普及,智能机器人在服务等行业的应用越来越广泛,不仅降低了人工成本同时还提高了工作效率,例如通过智能机器人进行位置引领等。
现有技术中,机器人在位置引领时通常在获得目的地位置后直接前往该位置,无法判断引领对象的实际跟随情况。
发明内容
本发明提供一种位置引领方法、装置、机器人及存储介质,以实现提高位置引领的准确性和效率。
根据本发明的一方面,提供了一种位置引领方法,应用于机器人,其特征在于,包括:
在所述机器人进入引领状态时,确定目标引领对象;
在所述机器人的引领过程中,确定图像采集范围,并采集所述图像采集范围中的场景图像;
根据所述场景图像判断所述目标引领对象的当前状态,并根据所述当前状态确定位置引领方式。
根据本发明的另一方面,提供了一种位置引领装置,配置于机器人,其特征在于,包括:
目标引领对象确定模块,用于在所述机器人进入引领状态时,确定目标引领对象;
场景图像采集模块,用于在所述机器人的引领过程中,确定图像采集范围,并采集所述图像采集范围中的场景图像;
位置引领方式确定模块,用于根据所述场景图像判断所述目标引领对象的当前状态,并根据所述当前状态确定位置引领方式。
根据本发明的另一方面,提供了一种机器人,所述机器人包括:
至少一个处理器;以及
与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有可被所述至少一个处理器执行的计算机程序,所述计算机程序被所述至少一个处理器执行,以使所述至少一个处理器能够执行本发明任一实施例所述的位置引领方法。
根据本发明的另一方面,提供了一种计算机可读存储介质,所述计算机可读存储介质存储有计算机指令,所述计算机指令用于使处理器执行时实现本发明任一实施例所述的位置引领方法。
本发明实施例的技术方案,通过在所述机器人进入引领状态时,确定目标引领对象;在所述机器人的引领过程中,确定图像采集范围,并采集所述图像采集范围中的场景图像;根据所述场景图像判断所述目标引领对象的当前状态,并根据所述当前状态确定位置引领方式。解决了机器人在位置引领时通常在获得目的地位置后直接前往该位置,无法判断引领对象的实际跟随情况的问题,取得了提高位置引领的准确性和效率的有益效果。
应当理解,本部分所描述的内容并非旨在标识本发明的实施例的关键或重要特征,也不用于限制本发明的范围。本发明的其它特征将通过以下的说明书而变得容易理解。
附图说明
图1为本发明实施例一提供的一种位置引领方法的流程图;
图2为本发明实施例二提供的一种位置引领方法的流程图;
图3为本发明实施例三提供的一种位置引领装置的结构示意图;
图4为用来实施本发明的实施例的机器人的结构示意图。
具体实施方式
为了使本技术领域的人员更好地理解本发明方案,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分的实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都应当属于本发明保护的范围。
需要说明的是,本发明的说明书和权利要求书及上述附图中的术语“第一”、“第二”、“目标”等是用于区别类似的对象,而不必用于描述特定的顺序或先后次序。应该理解这样使用的数据在适当情况下可以互换,以便这里描述的本发明的实施例能够以除了在这里图示或描述的那些以外的顺序实施。此外,术语“包括”和“具有”以及他们的任何变形,意图在于覆盖不排他的包含,例如,包含了一系列步骤或单元的过程、方法、系统、产品或设备不必限于清楚地列出的那些步骤或单元,而是可包括没有清楚地列出的或对于这些过程、方法、产品或设备固有的其它步骤或单元。
实施例一
图1为本发明实施例一提供的一种位置引领方法的流程图,本实施例可适用于机器人进行位置引领时确定引领方式的情况,该方法可以由本发明实施例所提供的位置引领装置来执行,该装置可以由软件和/或硬件的方式实现。参见图1,本实施例提供的位置引领方法,包括:
S110、在所述机器人进入引领状态时,确定目标引领对象。
其中,引领状态为将引领对象引领至目标位置的状态。确定是否进入引领状态的方式可以为若当机器人被触发引领功能时,则确定该机器人进入引领状态;触发引领功能的方式可以为机器人监听到交互对象存在引领需求的语音输入,或检测到交互对象对机器人的交互界面的引领功能的选择操作等,本实施例对此不进行限制。
目标引领对象为机器人在该次引领过程中需要引领的对象,可以为触发引领功能的交互对象,也可以为通过对象与该次引领过程的关联操作确定的关联对象,本实施例对此不进行限制。
确定目标引领对象的方式可以包括在进入引领状态前,如监测到语音指令输入时,获取周围对象的对象信息,例如身高信息、人脸信息等,对象信息可以由机器人根据声源方向旋转相应角度,通过图像采集设备拍摄得到;在进入引领状态时,从机器人的图像采集范围内采集图像,并将图像中与对象信息相似程度满足预设条件的对象确定为目标引领对象。
本实施例中,可选的,确定目标引领对象,包括:
获取第一预设范围内各第一候选引领对象的对象信息,并根据所述对象信息对所述候选引领对象建立候选广色域图像模型;
将各所述候选广色域图像模型与预设广色域图像模型对比,判断所述候选广色域图像模型中是否存在与所述预设广色域图像模型相似程度大于预设阈值的目标广色域图像模型;
若存在,则将所述目标广色域图像模型对应的第一候选引领对象,确定为所述目标引领对象。
可选地,当存在多个与所述预设广色域图像模型相似程度大于预设阈值的候选广色域图像模型时,可以将其中与所述预设广色域图像模型相似程度最高的确定为目标广色域图像模型。
其中,第一预设范围可以为机器人装备的图像采集设备可采集的范围,其中图像采集设备可以为摄像头,本实施例对此不进行限制。通过在机器人的预设位置上设置一个或多个图像采集设备,将单个图像采集设备对应的采集范围或多个图像采集设备对应的采集范围集合,例如为沿机机器人周向360°的拍摄范围,作为第一预设范围。
第一候选引领对象可以为第一预设范围内的全部对象,对象信息可以包括对象的穿着颜色、发色、身高、身材宽度、脸部轮廓等,本实施例对此不进行限制,对象信息可以根据对采集到的图像进行识别和划分得到。根据对象信息对各第一候选引领对象建立对应的广色域图像模型,作为候选广色域图像模型。其中,广色域图像模型为根据颜色区分的模型,建立广色域图像模型可以为根据对象的衣着和发色和身高、身材宽度等信息将对象建立成不同色块组成的带有高度和宽度的广色域二维图像模型。例如,可以根据采集到的图像,对图像进行识别,确定图像中存在人物的区域。示例性的,可以根据脸部/头部特征识别算法识别到人脸/头部,根据人脸/头部确定人脸/头部所在区域范围为人物区域,得到对象信息。然后,对应于人物区域构建广色域图像模型。例如,将人物区域划分为头部区域、上半身区域、下半身区域,根据穿着颜色、发色、身高、身材宽度、脸部特征等分别构建三个广色域子区域,每个区域可以包括多个色块,确定每个色块的填充颜色,进而可以根据三个子区域以及三个子区域相对位置关系得到广色域图像模型。
预设广色域图像模型可以为预先存储的广色域图像模型,可以为对象与机器人产生对话、点击屏幕等交互时获取该对象的对象信息以建立对应的广色域图像模型,并将该广色域图像模型存储为预设广色域图像模型。
将各候选广色域图像模型与预设广色域图像模型对比,将候选广色域图像模型中与预设广色域图像模型相似程度大于预设阈值的广色域图像模型作为目标广色域图像模型。将目标广色域图像模型对应的对象确定为需要引领的对象,即作为目标引领对象。
通过对象信息建立候选广色域图像模型,并将候选广色域图像模型与预设广色域图像模型进行对比确定目标广色域图像模型,以确定目标引领对象,将对象识别为具有宽度和高度信息的色块组合,从而依据颜色特征和人体特征进行对比,丰富了对比依据,提高目标引领对象确定的准确性。
S120、在所述机器人的引领过程中,确定图像采集范围,并采集所述图像采集范围中的场景图像。
机器人的引领过程为机器人移动至目标位置的过程中,目标位置为引领的目的地,例如在餐厅场景下,目标位置可以为目标餐桌,在酒店场景下,目标位置可以是目标房间。图像采集范围为采集的图像对应的范围,可以为机器人装备的图像采集设备可采集的范围,也可以为目标引领对象可能存在的范围,例如为机器人的后方等,本实施例对此不进行限制。
采集图像采集范围中的场景图像,场景图像为根据图像采集范围采集到的当前场景的图像,采集方式可以为每间隔预设时间段进行一次采集,本实施例对此不进行限制。
S130、根据所述场景图像判断所述目标引领对象的当前状态,并根据所述当前状态确定位置引领方式。
其中,目标引领对象的当前状态可以为目标引领对象丢失、目标引领对象移动缓慢、目标引领对象正常移动等,本实施例对此不进行限制。根据场景图像判断目标引领对象的当前状态可以为根据不同场景图像间目标引领对象的状态的差异进行判断,示例性的,当上一场景图像中存在目标引领对象,当前场景图像中不存在目标引领对象,可判断判断目标引领对象的当前状态为丢失。
根据当前状态确定位置引领方式,可以为若目标引领对象丢失则停止引领过程并寻找目标引领对象,若目标引领对象移动缓慢则降低机器人的移动速度等。
本实施例中,可选的,根据所述场景图像判断所述目标引领对象的当前状态,包括:
获取所述场景图像中各第二候选引领对象的对象信息,并根据所述对象信息确定所述第二候选引领对象中是否存在所述目标引领对象;
若不存在,则至少扩大一次所述场景图像的采集范围;
判断扩大采集范围后场景图像中是否存在所述目标引领对象;
若不存在且满足预设判断停止条件,则确定所述目标引领对象的当前状态为丢失状态。
获取场景图像中各第二候选引领对象的对象信息,其中,第二候选引领对象可以为场景图像中的全部对象,并根据对象信息确定第二候选引领对象中是否存在目标引领对象。若存在,则继续引领该目标引领对象。
若不存在,则至少扩大一次场景图像的采集范围;扩大方式可以为扩大采集范围在同一周向角度上的覆盖面积,例如调整摄像头的仰俯角度采集多次增大覆盖面积,也可以为扩大采集范围的周向采集角度,本实施例对此不进行限制。例如原本采用机器人后方的图像采集设备确定采集范围,当前采用机器人360°范围的图像采集设备确定采集范围。
判断扩大采集范围后场景图像中是否存在目标引领对象;若不存在且满足预设判断停止条件,例如判断总时间超出预设时间、扩大的采集范围超过预设范围等,则确定目标引领对象的当前状态为丢失状态。通过扩大场景图像的采集范围提高目标引领对象识别的准确性,避免目标引领对象的小幅变化造成丢失误判,避免一旦无法识别目标引领对象就停止引领的现象发生,提高位置引领的有效性。
本实施例中,可选的,根据所述场景图像判断所述目标引领对象的当前状态,并根据所述当前状态确定位置引领方式,包括:
根据所述场景图像判断所述目标引领对象是否跟随所述机器人;
若否,则确定所述当前状态为跟随停止状态;
确定所述位置引领方式为调整所述机器人的移动速度,并在确认所述目标引领对象跟随所述机器人后,恢复所述移动速度。
根据场景图像判断目标引领对象是否跟随机器人,可以判断目标引领对象是否与机器人的距离逐渐增加。判断方式可以为判断相邻场景图像中目标引领对象占场景图像比例是否逐渐变小等。
若判断结果为目标引领对象未跟随机器人,则确定后续的位置引领方式为调整机器人的移动速度,例如降低预设移动速度或停止移动,并可播放用于提示目标引领对象及时跟随的语音。在确认目标引领对象跟随机器人后,恢复之前的移动速度。从而避免由于机器人移动速度较快等原因导致目标引领对象无法及时跟随的问题,提高位置引领的有效性,改善用户体验。
本实施例中,可选的,所述方法还包括:
若所述目标引领对象的当前状态为丢失状态,则获取上一时刻的历史场景图像;
根据所述历史场景图像确定所述目标引领对象的历史位置;
根据所述历史位置采集第三预设范围内各第四候选引领对象的对象信息,并根据所述对象信息确定所述第四候选引领对象中是否存在所述目标引领对象;
若在预设时间间隔内未确定存在所述目标引领对象,则扩大所述第三预设范围。
其中,丢失状态即机器人无法识别到目标引领对象,示例性的,由于目标引领对象被遮挡等原因,机器人在当前时刻的场景图像中无法识别目标引领对象,则表明目标引领对象当前状态为丢失状态。
若目标引领对象的当前状态为丢失状态,则获取上一时刻的历史场景图像;其中,上一时刻为当前时刻之前的时刻,上一时刻的历史场景图像可以为当前帧场景图像的上一帧图像,本实施例对此不进行限制。
从历史场景图像中识别目标引领对象,并获取目标引领对象在历史场景图像中的位置,作为目标引领对象的历史位置,即目标引领对象丢失的位置。根据历史位置采集第三预设范围内各第四候选引领对象的对象信息,其中,第四候选引领对象为第三预设范围内的全部对象;第三预设范围为与历史位置相关的预设范围,示例性的,第三预设范围为以历史位置为圆心,半径为五米的圆形范围。在确定第三预设范围后,机器人可以旋转、移动等以获取第三预设范围内的图像。
获取第四候选引领对象的对象信息,并根据对象信息确定第四候选引领对象中是否存在目标引领对象,若在预设时间间隔内,例如五秒内,未识别到目标引领对象,则扩大第三预设范围,以在扩大后的范围中继续识别目标引领对象。扩大方式可以为扩大第三预设范围在同一角度上的覆盖面积,也可以为扩大第三预设范围的采集角度,本实施例对此不进行限制。例如原本采用机器人后方的图像采集设备确定第三预设范围,当前采用机器人360°范围的图像采集设备确定第三预设范围。
通过在目标引领对象的当前状态为丢失状态时,及时识别目标引领对象,避免目标引领对象丢失过久难以寻找目标引领对象导致引领失败;并且在预设时间间隔内未确定存在目标引领对象时,扩大第三预设范围,避免目标引领对象移动范围较大,使得在较小的第三预设范围中无法识别。提高识别目标引领对象的成功率,从而提高位置引领的有效性。
本实施例所提供的技术方案,在机器人开始领位时,确定目标引领对象;在领位过程中,确定出目标引领对象可能出现的范围,并拍摄该范围的场景图像,提高后续目标引领对象确定的成功率。根据场景图像确定目标引领对象的当前状态,根据不同的当前状态确定之后不同的位置引领方式,提高位置引领的有效性,改善用户体验。
实施例二
图2为本发明实施例二提供的一种位置引领方法的流程图,本技术方案是针对确定图像采集范围的过程进行补充说明的。与上述方案相比,本方案具体优化为,确定图像采集范围,包括:
采集候选图像,并从所述候选图像中确定目标相邻图像组;
根据目标相邻图像组中所述目标引领对象的位置变化信息,模拟所述目标引领对象的预测虚拟位置,并将所述预测虚拟位置的关联范围确定为所述图像采集范围。具体的,位置引领方法的流程图如图2所示:
S210、在所述机器人进入引领状态时,确定目标引领对象。
S220、在所述机器人的引领过程中,采集候选图像,并从所述候选图像中确定目标相邻图像组。
其中,候选图像为按照预设采集方式采集的全部图像。目标相邻图像组为候选图像中的两张目标相邻图像构成的图像组合,其中目标相邻图像确定根据相邻间隔确定的图像,例如为相邻帧图像、相邻秒图像等。
本实施例中,可选的,采集候选图像,并从所述候选图像中确定目标相邻图像组,包括:
在预设时间间隔内采集预设帧数的所述候选图像,并根据所述候选图像的相邻帧图像组中所述目标引领对象的位置变化信息,确定所述目标引领对象的移动状态;
每预设间隔采集预设数量的候选图像,例如每秒采集10帧候选图像。首先根据候选图像的相邻帧图像组确定目标引领对象的位置变化信息,根据位置变化信息确定目标引领对象的移动状态。其中,移动状态可以包括正常移动状态或非正常移动状态,正常移动状态可以为行走,非正常移动状态可以为停止、跑步等。示例性的,人正常步行的速度为1.1m/s至1.5m/s,跑步速度在3m/s左右,根据候选图像的相邻帧图像组中目标引领对象位置变化信息和采集时间差确定位置变化的速度,从而确定移动状态。
根据移动状态从候选图像中确定当前的目标相邻图像组。正常移动状态对应的目标相邻图像组的采集时间间隔可以大于非正常移动状态对应的目标相邻图像组的采集时间间隔。
示例性的若为正常移动状态,则可确定目标相邻图像组为相邻时刻图像组,以1秒采集10帧图像为例,将间隔10帧的图像作为目标相邻图像组,例如将t=2s的采集的第一帧图像与t=1s采集的第十一帧图像确定为目标相邻图像组。根据目标相邻图像组可模拟t=3s时目标引领对象的预测虚拟位置。中间帧图像可只采集不处理,可供后续分析使用。
若为非正常移动状态,则可确定目标相邻图像组为相邻帧图像组,以1秒采集10帧图像为例,将相邻帧的图像作为目标相邻图像组,例如将t=1s的采集的第一帧图像与t=1.1s采集的第二帧图像确定为目标相邻图像组。根据目标相邻图像组可模拟t=1.2s时第三帧图像中目标引领对象的预测虚拟位置。
根据移动状态从候选图像中确定相应的目标相邻图像组,可在目标引领对象处于正常移动状态时减少节约算力和计算时间;在目标引领对象处于非正常移动状态时,避免由于目标引领对象移动过快或过慢,由于场景图像采集间隔过短导致目标引领对象丢失;提高后续预测虚拟位置确定的准确性和针对性,从而提高位置引领的准确性和有效性。
S230、根据目标相邻图像组中所述目标引领对象的位置变化信息,模拟所述目标引领对象的预测虚拟位置,并将所述预测虚拟位置的关联范围确定为所述图像采集范围,并采集所述图像采集范围中的场景图像。
其中,位置变化信息为目标引领对象在目标相邻图像组中的位移变化信息,例如为距离角度变化信息,可以通过相机测距等算法计算得到。根据该位置变化信息模拟下一场景图像中目标引领对象的可能在的位置。示例性的,目标相邻图像组中目标引领对象由位置A移动至位置B,则获取AB之间的位移变化信息,在位置B的基础上根据位移变化信息模拟预测虚拟位置C。
预测虚拟位置的关联范围为与预测虚拟位置相关的预设范围,示例性的,第三预设范围为以预测虚拟位置为圆心,半径为五米的圆形范围。并将预测虚拟位置的关联范围确定为图像采集范围,并采集图像采集范围中的场景图像。
S240、根据所述场景图像判断所述目标引领对象的当前状态,并根据所述当前状态确定位置引领方式。
本实施例中,可选的,根据所述场景图像判断所述目标引领对象的当前状态,并根据所述当前状态确定位置引领方式,包括:
判断当前所述场景图像中所述目标引领对象与所述机器人的距离与上一所述场景图像中所述目标引领对象与所述机器人的距离相差是否超过设定阈值;
若是,则确定所述当前状态为变速移动状态;
确定所述位置引领方式为调整所述机器人的移动速度。
上一场景图像为在当前场景图像的图像采集时间之前采集的图像,可以为上一帧场景图像或上一秒场景图像等。判断上一场景图像和当前场景图像中目标引领对象与机器人的距离是否相差超过设定阈值,若是,则确定当前状态为变速移动状态。其中,变速移动可以为缓慢移动或快速移动。
示例性的,上一场景图像中目标引领对象与机器人的距离为2m,当前场景图像中目标引领对象与机器人的距离为5m,则相差3m,超过该状态下的设定阈值2m,则确定当前状态为变速移动状态,即目标引领对象移动缓慢。上一场景图像中目标引领对象与机器人的距离为2m,当前场景图像中目标引领对象与机器人的距离为0m,则相差2m,超过该状态下的设定阈值1.5m,则确定当前状态为变速移动状态,即目标引领对象移动迅速。
确定位置引领方式为调整机器人的移动速度,可以根据变速移动状态的具体类型确定移动速度的调整方式,例如当变速移动状态为缓慢移动状态时,增加机器人的移动速度;当变速移动状态为快速移动时,降低机器人的移动速度;并可播放相应的语音提示以提示目标引领对象跟随。避免目标引领对象移动较慢时无法及时跟随机器人,或目标引领对象移动速度较快时缩短位置引领时间,提高位置引领效率。提高位置引领的针对性,改善用户体验。
本实施例中,可选的,根据所述场景图像判断所述目标引领对象的当前状态,并根据所述当前状态确定位置引领方式,包括:
判断当前所述场景图像中所述目标引领对象的数量是否大于一;
若是,则确定所述当前状态为引领对象重复状态;
确定所述位置引领方式为调整所述机器人的移动速度。
判断当前场景图像中识别到的目标引领对象的数量是否大于一,若是,则确定当前状态为引领对象重复状态。
确定位置引领方式为调整机器人的移动速度,调整方式可以为降低机器人的移动速度或使得机器人停止移动,并可播放语音提示以提示目标引领对象跟随,本实施例对此不进行限制。
若同时识别到多个相似的目标引领对象,调整机器人的移动速度,便于后续进一步确定唯一的目标引领对象,避免引领错误的目标引领对象,提高位置引领的准确性。
本实施例中,可选的,在调整所述机器人的移动速度之后,还包括:
确定第二预设范围内由远向近移动的第三候选引领对象;
采集所述第三候选引领对象的人脸信息,并根据所述人脸信息判断所述第三候选引领对象中是否存在所述目标引领对象;
若存在,则引领所述目标引领对象。
第二预设范围可以为机器人装备的图像采集设备可采集的范围,本实施例对此不进行限制。第三候选引领对象为第二预设范围内由远向近向机器人移动的对象。
可以当第三候选引领对象移动至距离机器人为预设的人脸识别最佳距离时,采集第三候选引领对象的人脸信息,并判断人脸信息是否与预先获取的人脸信息的相似程度大于预设阈值。若是,则确定该第三候选引领对象为目标引领对象,并继续引领目标引领对象。其中预先获取的人脸信息可以在对象与机器人产生对话、点击屏幕等交互时获取并存储,本实施例对此不进行限制。
通过确定第二预设范围内由远向近移动的对象为第三候选引领对象,表明第三候选引领对象对机器人可能存在跟随操作,提高第三候选引领对象为目标引领对象的可能性,提高目标引领对象确定的准确性。根据人脸信息判断从可能第三候选引领对象中是否存在目标引领对象,避免采用其它方式识别时存在识别重复或无法识别的状况,进一步提高目标引领对象确定的准确性,提高位置引领的有效性。
人脸识别判断目标客人,并重新锁定客人,确认客人跟随后继续领位。提高客人确定的准确性,从而提高位置引领的有效性
本发明实施例通过目标相邻图像组中目标引领对象的位置变化信息,模拟目标引领对象的预测虚拟位置,并将预测虚拟位置的关联范围确定为图像采集范围,便于提高在图像采集范围中采集的场景图像与目标引领对象的相关性,提高后续目标引领对象识别的准确性,实现机器人对目标引领对象的实时追踪。
实施例三
图3为本发明实施例三提供的一种位置引领装置的结构示意图。该装置可以由硬件和/或软件的方式来实现,配置于机器人,可执行本发明任意实施例所提供的一种位置引领方法,具备执行方法相应的功能模块和有益效果。如图3所示,该装置包括:
第一对象确定模块310,用于在所述机器人进入引领状态时,确定目标引领对象;
场景图像采集模块320,用于在所述机器人的引领过程中,确定图像采集范围,并采集所述图像采集范围中的场景图像;
位置引领方式确定模块330,用于根据所述场景图像判断所述目标引领对象的当前状态,并根据所述当前状态确定位置引领方式。
在上述各技术方案的基础上,可选的,所述第一对象确定模块,包括:
图像模型建立单元,用于获取第一预设范围内各第一候选引领对象的对象信息,并根据所述对象信息对所述候选引领对象建立候选广色域图像模型;
图像模型存在确定单元,用于将各所述候选广色域图像模型与预设广色域图像模型对比,判断所述候选广色域图像模型中是否存在与所述预设广色域图像模型相似程度大于预设阈值的目标广色域图像模型;
目标引领对象确定单元,用于若所述图像模型存在确定单元确定为存在,则将所述目标广色域图像模型对应的第一候选引领对象,确定为所述目标引领对象。
在上述各技术方案的基础上,可选的,所述场景图像采集模块,包括:
目标相邻图像组确定单元,用于采集候选图像,并从所述候选图像中确定目标相邻图像组;
图像采集范围确定单元,用于根据目标相邻图像组中所述目标引领对象的位置变化信息,模拟所述目标引领对象的预测虚拟位置,并将所述预测虚拟位置的关联范围确定为所述图像采集范围。
在上述各技术方案的基础上,可选的,所述目标相邻图像组确定单元,包括:
移动状态确定子单元,用于在预设时间间隔内采集预设帧数的所述候选图像,并根据所述候选图像的相邻帧图像组中所述目标引领对象的位置变化信息,确定所述目标引领对象的移动状态;
目标相邻图像组确定子单元,用于根据所述移动状态从所述候选图像中确定所述目标相邻图像组。
在上述各技术方案的基础上,可选的,所述位置引领方式确定模块,包括:
第一对象存在确定单元,用于获取所述场景图像中各第二候选引领对象的对象信息,并根据所述对象信息确定所述第二候选引领对象中是否存在所述目标引领对象;
采集范围扩大单元,用于若所述目标引领对象存在确定单元确定为不存在,则至少扩大一次所述场景图像的采集范围;
第二对象存在确定单元,用于判断扩大采集范围后场景图像中是否存在所述目标引领对象;
第一状态确定单元,用于若不存在且满足预设判断停止条件,则确定所述目标引领对象的当前状态为丢失状态。
在上述各技术方案的基础上,可选的,所述位置引领方式确定模块,包括:
距离判断单元,用于判断当前所述场景图像中所述目标引领对象与所述机器人的距离与上一所述场景图像中所述目标引领对象与所述机器人的距离相差是否超过设定阈值;
第二状态确定单元,用于若所述距离判断单元判断为是,则确定所述当前状态为变速移动状态;
第一速度调整单元,用于确定所述位置引领方式为调整所述机器人的移动速度。
在上述各技术方案的基础上,可选的,所述位置引领方式确定模块,包括:
对象数量判断单元,用于判断当前所述场景图像中所述目标引领对象的数量是否大于一;
第三状态确定单元,用于若所述对象数量判断单元判断为是,则确定所述当前状态为引领对象重复状态;
第二速度调整单元,用于确定所述位置引领方式为调整所述机器人的移动速度。
在上述各技术方案的基础上,可选的,所述方法还包括:
第二对象确定模块,用于第一速度调整单元或第二速度调整单元之后,确定第二预设范围内由远向近移动的第三候选引领对象;
对象存在判断模块,用于采集所述第三候选引领对象的人脸信息,并根据所述人脸信息判断所述第三候选引领对象中是否存在所述目标引领对象;
对象引领模块,用于若所述对象存在判断模块判断为存在,则引领所述目标引领对象。
在上述各技术方案的基础上,可选的,所述位置引领方式确定模块,包括:
对象跟随判断单元,用于根据所述场景图像判断所述目标引领对象是否跟随所述机器人;
第四状态确定单元,用于若所述对象跟随判断单元判断为否,则确定所述当前状态为跟随停止状态;
位置引领方式确定单元,用于确定所述位置引领方式为调整所述机器人的移动速度,并在确认所述目标引领对象跟随所述机器人后,恢复所述移动速度。
在上述各技术方案的基础上,可选的,所述装置还包括:
历史场景图像获取模块,用于若所述目标引领对象的当前状态为丢失状态,则获取上一时刻的历史场景图像;
历史位置确定模块,用于根据所述历史场景图像确定所述目标引领对象的历史位置;
对象存在确定模块,用于根据所述历史位置采集第三预设范围内各第四候选引领对象的对象信息,并根据所述对象信息确定所述第四候选引领对象中是否存在所述目标引领对象;
范围扩大模块,用于若在预设时间间隔内未确定存在所述目标引领对象,则扩大所述第三预设范围。
实施例四
图4示出了可以用来实施本发明的实施例的机器人10的结构示意图。机器人旨在表示各种形式的数字计算机,诸如,膝上型计算机、台式计算机、工作台、个人数字助理、服务器、刀片式服务器、大型计算机、和其它适合的计算机。机器人还可以表示各种形式的移动装置,诸如,个人数字处理、蜂窝电话、智能电话、可穿戴设备(如头盔、眼镜、手表等)和其它类似的计算装置。本文所示的部件、它们的连接和关系、以及它们的功能仅仅作为示例,并且不意在限制本文中描述的和/或者要求的本发明的实现。
如图4所示,机器人10包括至少一个处理器11,以及与至少一个处理器11通信连接的存储器,如只读存储器(ROM)12、随机访问存储器(RAM)13等,其中,存储器存储有可被至少一个处理器执行的计算机程序,处理器11可以根据存储在只读存储器(ROM)12中的计算机程序或者从存储单元18加载到随机访问存储器(RAM)13中的计算机程序,来执行各种适当的动作和处理。在RAM 13中,还可存储机器人10操作所需的各种程序和数据。处理器11、ROM 12以及RAM 13通过总线14彼此相连。输入/输出(I/O)接口15也连接至总线14。
机器人10中的多个部件连接至I/O接口15,包括:输入单元16,例如键盘、鼠标等;输出单元17,例如各种类型的显示器、扬声器等;存储单元18,例如磁盘、光盘等;以及通信单元19,例如网卡、调制解调器、无线通信收发机等。通信单元19允许机器人10通过诸如因特网的计算机网络和/或各种电信网络与其他设备交换信息/数据。
处理器11可以是各种具有处理和计算能力的通用和/或专用处理组件。处理器11的一些示例包括但不限于中央处理单元(CPU)、图形处理单元(GPU)、各种专用的人工智能(AI)计算芯片、各种运行机器学习模型算法的处理器、数字信号处理器(DSP)、以及任何适当的处理器、控制器、微控制器等。处理器11执行上文所描述的各个方法和处理,例如位置引领方法。
在一些实施例中,位置引领方法可被实现为计算机程序,其被有形地包含于计算机可读存储介质,例如存储单元18。在一些实施例中,计算机程序的部分或者全部可以经由ROM 12和/或通信单元19而被载入和/或安装到机器人10上。当计算机程序加载到RAM 13并由处理器11执行时,可以执行上文描述的位置引领方法的一个或多个步骤。备选地,在其他实施例中,处理器11可以通过其他任何适当的方式(例如,借助于固件)而被配置为执行位置引领方法。
本文中以上描述的系统和技术的各种实施方式可以在数字电子电路系统、集成电路系统、场可编程门阵列(FPGA)、专用集成电路(ASIC)、专用标准产品(ASSP)、芯片上系统的系统(SOC)、负载可编程逻辑设备(CPLD)、计算机硬件、固件、软件、和/或它们的组合中实现。这些各种实施方式可以包括:实施在一个或者多个计算机程序中,该一个或者多个计算机程序可在包括至少一个可编程处理器的可编程系统上执行和/或解释,该可编程处理器可以是专用或者通用可编程处理器,可以从存储系统、至少一个输入装置、和至少一个输出装置接收数据和指令,并且将数据和指令传输至该存储系统、该至少一个输入装置、和该至少一个输出装置。
用于实施本发明的方法的计算机程序可以采用一个或多个编程语言的任何组合来编写。这些计算机程序可以提供给通用计算机、专用计算机或其他可编程数据处理装置的处理器,使得计算机程序当由处理器执行时使流程图和/或框图中所规定的功能/操作被实施。计算机程序可以完全在机器上执行、部分地在机器上执行,作为独立软件包部分地在机器上执行且部分地在远程机器上执行或完全在远程机器或服务器上执行。
在本发明的上下文中,计算机可读存储介质可以是有形的介质,其可以包含或存储以供指令执行系统、装置或设备使用或与指令执行系统、装置或设备结合地使用的计算机程序。计算机可读存储介质可以包括但不限于电子的、磁性的、光学的、电磁的、红外的、或半导体系统、装置或设备,或者上述内容的任何合适组合。备选地,计算机可读存储介质可以是机器可读信号介质。机器可读存储介质的更具体示例会包括基于一个或多个线的电气连接、便携式计算机盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦除可编程只读存储器(EPROM或快闪存储器)、光纤、便捷式紧凑盘只读存储器(CD-ROM)、光学储存设备、磁储存设备、或上述内容的任何合适组合。
为了提供与用户的交互,可以在机器人上实施此处描述的系统和技术,该机器人具有:用于向用户显示信息的显示装置(例如,CRT(阴极射线管)或者LCD(液晶显示器)监视器);以及键盘和指向装置(例如,鼠标或者轨迹球),用户可以通过该键盘和该指向装置来将输入提供给机器人。其它种类的装置还可以用于提供与用户的交互;例如,提供给用户的反馈可以是任何形式的传感反馈(例如,视觉反馈、听觉反馈、或者触觉反馈);并且可以用任何形式(包括声输入、语音输入或者、触觉输入)来接收来自用户的输入。
可以将此处描述的系统和技术实施在包括后台部件的计算系统(例如,作为数据服务器)、或者包括中间件部件的计算系统(例如,应用服务器)、或者包括前端部件的计算系统(例如,具有图形用户界面或者网络浏览器的用户计算机,用户可以通过该图形用户界面或者该网络浏览器来与此处描述的系统和技术的实施方式交互)、或者包括这种后台部件、中间件部件、或者前端部件的任何组合的计算系统中。可以通过任何形式或者介质的数字数据通信(例如,通信网络)来将系统的部件相互连接。通信网络的示例包括:局域网(LAN)、广域网(WAN)、区块链网络和互联网。
计算系统可以包括客户端和服务器。客户端和服务器一般远离彼此并且通常通过通信网络进行交互。通过在相应的计算机上运行并且彼此具有客户端-服务器关系的计算机程序来产生客户端和服务器的关系。服务器可以是云服务器,又称为云计算服务器或云主机,是云计算服务体系中的一项主机产品,以解决了传统物理主机与VPS服务中,存在的管理难度大,业务扩展性弱的缺陷。
应该理解,可以使用上面所示的各种形式的流程,重新排序、增加或删除步骤。例如,本发明中记载的各步骤可以并行地执行也可以顺序地执行也可以不同的次序执行,只要能够实现本发明的技术方案所期望的结果,本文在此不进行限制。
上述具体实施方式,并不构成对本发明保护范围的限制。本领域技术人员应该明白的是,根据设计要求和其他因素,可以进行各种修改、组合、子组合和替代。任何在本发明的精神和原则之内所作的修改、等同替换和改进等,均应包含在本发明保护范围之内。
Claims (12)
1.一种位置引领方法,应用于机器人,其特征在于,包括:
在所述机器人进入引领状态时,确定目标引领对象;
在所述机器人的引领过程中,确定图像采集范围,并采集所述图像采集范围中的场景图像;
根据所述场景图像判断所述目标引领对象的当前状态,并根据所述当前状态确定位置引领方式;
所述确定图像采集范围,包括:
采集候选图像,并从所述候选图像中确定目标相邻图像组;
根据目标相邻图像组中所述目标引领对象的位置变化信息,模拟所述目标引领对象的预测虚拟位置,并将所述预测虚拟位置的关联范围确定为所述图像采集范围。
2.根据权利要求1所述的方法,其特征在于,确定目标引领对象,包括:
获取第一预设范围内各第一候选引领对象的对象信息,并根据所述对象信息对所述第一候选引领对象建立候选广色域图像模型;
将各所述候选广色域图像模型与预设广色域图像模型对比,判断所述候选广色域图像模型中是否存在与所述预设广色域图像模型相似程度大于预设阈值的目标广色域图像模型;
若存在,则将所述目标广色域图像模型对应的第一候选引领对象,确定为所述目标引领对象。
3.根据权利要求1所述的方法,其特征在于,采集候选图像,并从所述候选图像中确定目标相邻图像组,包括:
在预设时间间隔内采集预设帧数的所述候选图像,并根据所述候选图像的相邻帧图像组中所述目标引领对象的位置变化信息,确定所述目标引领对象的移动状态;
根据所述移动状态从所述候选图像中确定所述目标相邻图像组。
4.根据权利要求1所述的方法,其特征在于,根据所述场景图像判断所述目标引领对象的当前状态,包括:
获取所述场景图像中各第二候选引领对象的对象信息,并根据所述对象信息确定所述第二候选引领对象中是否存在所述目标引领对象;
若不存在,则至少扩大一次所述场景图像的采集范围;
判断扩大采集范围后场景图像中是否存在所述目标引领对象;
若不存在且满足预设判断停止条件,则确定所述目标引领对象的当前状态为丢失状态。
5.根据权利要求1所述的方法,其特征在于,根据所述场景图像判断所述目标引领对象的当前状态,并根据所述当前状态确定位置引领方式,包括:
判断当前所述场景图像中所述目标引领对象与所述机器人的距离与上一所述场景图像中所述目标引领对象与所述机器人的距离相差是否超过设定阈值;
若是,则确定所述当前状态为变速移动状态;
确定所述位置引领方式为调整所述机器人的移动速度。
6.根据权利要求1所述的方法,其特征在于,根据所述场景图像判断所述目标引领对象的当前状态,并根据所述当前状态确定位置引领方式,包括:
判断当前所述场景图像中所述目标引领对象的数量是否大于一;
若是,则确定所述当前状态为引领对象重复状态;
确定所述位置引领方式为调整所述机器人的移动速度。
7.根据权利要求5或6所述的方法,其特征在于,在调整所述机器人的移动速度之后,还包括:
确定第二预设范围内由远向近移动的第三候选引领对象;
采集所述第三候选引领对象的人脸信息,并根据所述人脸信息判断所述第三候选引领对象中是否存在所述目标引领对象;
若存在,则引领所述目标引领对象。
8.根据权利要求1所述的方法,其特征在于,根据所述场景图像判断所述目标引领对象的当前状态,并根据所述当前状态确定位置引领方式,包括:
根据所述场景图像判断所述目标引领对象是否跟随所述机器人;
若否,则确定所述当前状态为跟随停止状态;
确定所述位置引领方式为调整所述机器人的移动速度,并在确认所述目标引领对象跟随所述机器人后,恢复所述移动速度。
9.根据权利要求1所述的方法,其特征在于,还包括:
若所述目标引领对象的当前状态为丢失状态,则获取上一时刻的历史场景图像;
根据所述历史场景图像确定所述目标引领对象的历史位置;
根据所述历史位置采集第三预设范围内各第四候选引领对象的对象信息,并根据所述对象信息确定所述第四候选引领对象中是否存在所述目标引领对象;
若在预设时间间隔内未确定存在所述目标引领对象,则扩大所述第三预设范围。
10.一种位置引领装置,配置于机器人,其特征在于,包括:
第一对象确定模块,用于在所述机器人进入引领状态时,确定目标引领对象;
场景图像采集模块,用于在所述机器人的引领过程中,确定图像采集范围,并采集所述图像采集范围中的场景图像;
位置引领方式确定模块,用于根据所述场景图像判断所述目标引领对象的当前状态,并根据所述当前状态确定位置引领方式;
所述场景图像采集模块,包括:
目标相邻图像组确定单元,用于采集候选图像,并从所述候选图像中确定目标相邻图像组;
图像采集范围确定单元,用于根据目标相邻图像组中所述目标引领对象的位置变化信息,模拟所述目标引领对象的预测虚拟位置,并将所述预测虚拟位置的关联范围确定为所述图像采集范围。
11.一种机器人,其特征在于,所述机器人包括:
至少一个处理器;以及
与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有可被所述至少一个处理器执行的计算机程序,所述计算机程序被所述至少一个处理器执行,以使所述至少一个处理器能够执行权利要求1-9中任一项所述的位置引领方法。
12.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质存储有计算机指令,所述计算机指令用于使处理器执行时实现权利要求1-9中任一项所述的位置引领方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210251021.5A CN114407024B (zh) | 2022-03-15 | 2022-03-15 | 一种位置引领方法、装置、机器人及存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210251021.5A CN114407024B (zh) | 2022-03-15 | 2022-03-15 | 一种位置引领方法、装置、机器人及存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN114407024A CN114407024A (zh) | 2022-04-29 |
CN114407024B true CN114407024B (zh) | 2024-04-26 |
Family
ID=81262823
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210251021.5A Active CN114407024B (zh) | 2022-03-15 | 2022-03-15 | 一种位置引领方法、装置、机器人及存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114407024B (zh) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115150939A (zh) * | 2022-06-28 | 2022-10-04 | 上海擎朗智能科技有限公司 | 一种设备的位置信息确定方法、装置、设备及存储介质 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2019179468A1 (zh) * | 2018-03-21 | 2019-09-26 | 北京猎户星空科技有限公司 | 智能设备的控制方法、装置、设备和存储介质 |
CN110405767A (zh) * | 2019-08-01 | 2019-11-05 | 深圳前海微众银行股份有限公司 | 智能化展厅的引领方法、装置、设备及存储介质 |
CN112203095A (zh) * | 2020-12-04 | 2021-01-08 | 腾讯科技(深圳)有限公司 | 视频运动估计方法、装置、设备及计算机可读存储介质 |
KR20210158584A (ko) * | 2020-06-24 | 2021-12-31 | (주)가시 | 안면인식 및 유사한 옷 색상의 다수 객체 추적기술을 통한 스마트 휴먼검색 통합 솔루션 |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6697502B2 (en) * | 2000-12-14 | 2004-02-24 | Eastman Kodak Company | Image processing method for detecting human figures in a digital image |
CN107644454B (zh) * | 2017-08-25 | 2020-02-18 | 北京奇禹科技有限公司 | 一种图像处理方法及装置 |
-
2022
- 2022-03-15 CN CN202210251021.5A patent/CN114407024B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2019179468A1 (zh) * | 2018-03-21 | 2019-09-26 | 北京猎户星空科技有限公司 | 智能设备的控制方法、装置、设备和存储介质 |
CN110405767A (zh) * | 2019-08-01 | 2019-11-05 | 深圳前海微众银行股份有限公司 | 智能化展厅的引领方法、装置、设备及存储介质 |
KR20210158584A (ko) * | 2020-06-24 | 2021-12-31 | (주)가시 | 안면인식 및 유사한 옷 색상의 다수 객체 추적기술을 통한 스마트 휴먼검색 통합 솔루션 |
CN112203095A (zh) * | 2020-12-04 | 2021-01-08 | 腾讯科技(深圳)有限公司 | 视频运动估计方法、装置、设备及计算机可读存储介质 |
Also Published As
Publication number | Publication date |
---|---|
CN114407024A (zh) | 2022-04-29 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US20220383535A1 (en) | Object Tracking Method and Device, Electronic Device, and Computer-Readable Storage Medium | |
CN109087335B (zh) | 一种人脸跟踪方法、装置和存储介质 | |
US11748896B2 (en) | Object tracking method and apparatus, storage medium, and electronic device | |
CN113378770B (zh) | 手势识别方法、装置、设备、存储介质 | |
CN112597837A (zh) | 图像检测方法、装置、设备、存储介质和计算机程序产品 | |
CN113901911B (zh) | 图像识别、模型训练方法、装置、电子设备及存储介质 | |
CN109086725B (zh) | 手部跟踪方法及机器可读存储介质 | |
CN110659600A (zh) | 物体检测方法、装置及设备 | |
CN111798487A (zh) | 目标跟踪方法、装置和计算机可读存储介质 | |
CN114407024B (zh) | 一种位置引领方法、装置、机器人及存储介质 | |
CN112183431A (zh) | 实时行人数量统计方法、装置、相机和服务器 | |
CN115439543A (zh) | 孔洞位置的确定方法和元宇宙中三维模型的生成方法 | |
CN111986229A (zh) | 视频目标检测方法、装置及计算机系统 | |
WO2021248857A1 (zh) | 一种障碍物属性判别方法、系统及智能机器人 | |
CN117274370A (zh) | 三维位姿确定方法、装置、电子设备和介质 | |
CN116402844A (zh) | 一种行人跟踪方法及装置 | |
CN114627556B (zh) | 动作检测方法、动作检测装置、电子设备以及存储介质 | |
CN110493618A (zh) | 基于usb3.0接口的安卓电视智能控制方法及系统 | |
JP2007510994A (ja) | ビデオ画像内でのオブジェクトトラッキング | |
CN115311723A (zh) | 活体检测方法、装置及计算机可读存储介质 | |
CN113587917A (zh) | 室内定位方法、装置、设备、存储介质及计算机程序产品 | |
Yeasin et al. | A multiobject tracking framework for interactive multimedia applications | |
CN113345472B (zh) | 语音端点检测方法、装置、电子设备及存储介质 | |
CN112578909B (zh) | 设备交互的方法及装置 | |
CN116301361B (zh) | 基于智能眼镜的目标选择方法、装置和电子设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |