CN108647633B - 识别跟踪方法、识别跟踪装置和机器人 - Google Patents
识别跟踪方法、识别跟踪装置和机器人 Download PDFInfo
- Publication number
- CN108647633B CN108647633B CN201810435193.1A CN201810435193A CN108647633B CN 108647633 B CN108647633 B CN 108647633B CN 201810435193 A CN201810435193 A CN 201810435193A CN 108647633 B CN108647633 B CN 108647633B
- Authority
- CN
- China
- Prior art keywords
- image
- target
- robot
- target feature
- center point
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 68
- 230000008569 process Effects 0.000 claims abstract description 22
- 239000013598 vector Substances 0.000 claims description 64
- 238000006073 displacement reaction Methods 0.000 claims description 56
- 230000009471 action Effects 0.000 claims description 28
- 238000004590 computer program Methods 0.000 claims description 3
- 230000004886 head movement Effects 0.000 abstract description 8
- 210000003128 head Anatomy 0.000 description 156
- 238000010586 diagram Methods 0.000 description 26
- 230000006870 function Effects 0.000 description 10
- 238000000354 decomposition reaction Methods 0.000 description 8
- 210000000887 face Anatomy 0.000 description 8
- 230000003993 interaction Effects 0.000 description 8
- 238000004422 calculation algorithm Methods 0.000 description 7
- 238000005516 engineering process Methods 0.000 description 7
- 238000013461 design Methods 0.000 description 5
- 238000004458 analytical method Methods 0.000 description 4
- 238000004891 communication Methods 0.000 description 4
- 238000004364 calculation method Methods 0.000 description 3
- 230000008451 emotion Effects 0.000 description 3
- 230000001960 triggered effect Effects 0.000 description 3
- 230000002159 abnormal effect Effects 0.000 description 2
- 230000003321 amplification Effects 0.000 description 2
- 238000013473 artificial intelligence Methods 0.000 description 2
- 230000000295 complement effect Effects 0.000 description 2
- 238000003066 decision tree Methods 0.000 description 2
- 238000005538 encapsulation Methods 0.000 description 2
- 230000010365 information processing Effects 0.000 description 2
- 229910044991 metal oxide Inorganic materials 0.000 description 2
- 150000004706 metal oxides Chemical class 0.000 description 2
- 238000003199 nucleic acid amplification method Methods 0.000 description 2
- 239000004065 semiconductor Substances 0.000 description 2
- 238000013519 translation Methods 0.000 description 2
- 208000013875 Heart injury Diseases 0.000 description 1
- 241001465754 Metazoa Species 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 230000009194 climbing Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000002474 experimental method Methods 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 238000011326 mechanical measurement Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/10—Terrestrial scenes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/246—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/20—Scenes; Scene-specific elements in augmented reality scenes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/161—Detection; Localisation; Normalisation
- G06V40/166—Detection; Localisation; Normalisation using acquisition arrangements
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Human Computer Interaction (AREA)
- Image Analysis (AREA)
- Manipulator (AREA)
Abstract
本发明公开了一种识别跟踪方法,包括:通过机器人头部的摄像模块获取图像;识别所述图像是否含有目标特征;在识别到所述图像中含有所述目标特征,且所述目标特征的中心点不在所述图像的目标区域的情况下,通过控制所述机器人头部转动以将所述目标特征的中心点移动到所述图像的目标区域。本发明还公开了一种识别跟踪装置和机器人,解决了现有机器人在与用户进行交互的过程中,机器人头部动作少或头部动作僵硬,交互性差的问题。
Description
技术领域
本发明涉及计算机领域,尤其涉及识别跟踪方法、识别跟踪装置和机器人。
背景技术
机器人是集机械、电子、控制、计算机、传感器、人工智能等多学科先进技术于一体的现代制造业重要的自动化装备。随着计算机技术和人工智能技术的飞速发展,使机器人在功能和技术层次上有了很大的提高。
机器人,特别是家用机器人,往往需要与用户进行交互,比如接收用户发出的指令执行某些操作、或者与用户进行语音交互、或者帮助用户拍照等等。现有技术中,家用机器人产品大多数采用固定的头部,无法转动;少数的机器人头部处安装有舵机,其设计目的是为了在机器人舞蹈等过程中配合肢体动作。机器人在与用户进行交互的过程中,机器人头部动作少或头部动作僵硬,交互性差。
在与用户交互的过程中如何转动机器人头部来解决交互性差的技术问题,是人们研究和关注的热点。
发明内容
本发明实施例所要解决的技术问题在于,提供一种识别跟踪方法、一种识别跟踪装置和一种机器人,解决现有技术机器人在与用户进行交互的过程中,机器人头部动作少或头部动作僵硬,交互性差的技术问题。
为了解决上述技术问题,本发明实施例第一方面公开了一种识别跟踪方法,包括:
通过机器人头部的摄像模块获取图像;
识别所述图像是否含有目标特征;
在识别到所述图像中含有所述目标特征,且所述目标特征的中心点不在所述图像的目标区域的情况下,通过控制所述机器人头部转动以将所述目标特征的中心点移动到所述图像的目标区域。
本发明实施例第二方面公开了一种识别跟踪装置,包括:
获取模块,用于通过机器人头部的摄像模块获取图像;
识别模块,用于识别所述图像是否含有目标特征;
控制模块,用于在识别到所述图像中含有所述目标特征,且所述目标特征的中心点不在所述图像的目标区域的情况下,通过控制所述机器人头部转动以将所述目标特征的中心点移动到所述图像的目标区域。
本发明实施例第三方面公开了一种机器人,包括处理器、机器人头部和存储器;所述机器人头部设有摄像模块;
所述摄像模块用于获取图像;
所述存储器用于存储应用程序代码,所述处理器被配置用于调用所述程序代码,识别所述图像是否含有目标特征;在识别到所述图像中含有所述目标特征,且所述目标特征的中心点不在所述图像的目标区域的情况下,通过控制所述机器人头部转动以将所述目标特征的中心点移动到所述图像的目标区域。
本发明实施例第四方面公开了一种计算机可读存储介质,所述计算机存储介质存储有计算机程序,所述计算机程序包括程序指令,所述程序指令当被处理器执行时使所述处理器执行如上述第一方面的方法。
实施本发明实施例,通过机器人头部的摄像模块获取图像;识别该图像是否含有目标特征;在识别到该图像中含有目标特征,且目标特征的中心点不在图像的目标区域的情况下,通过控制机器人头部转动以将目标特征的中心点移动到图像的目标区域,该目标特征可以是人脸,实现了机器人头部可以实时注视跟随用户的脸,解决了现有技术机器人在与用户进行交互的过程中,机器人头部动作少或头部动作僵硬,交互性差的技术问题;
而且可以通过多个声音采集模块采集目标声源信息,根据该目标声源信息定位目标对象相对机器人头部的方位信息,然后根据该方位信息协助控制所述机器人头部转动后,再通过机器人头部的摄像模块获取图像,加快了定位速度和精度,提高了机器人头部转动效率,可以更快地将目标特征的中心点移动到图像的目标区域。
另外,本发明实施例通过舵机控制该机器人头部的转动以将所述目标特征的中心点移动到所述图像的目标区域的同时,该舵机可以根据第一控制指令控制所述机器人头部并行执行第一动作,实现了舵机可以针对同一组动作支持并行执行,可以提高了机器人头部与机器人其他部位共同作业的协调性,进一步解决机器人头部转动僵硬的问题。
附图说明
为了说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍。
图1是本发明实施例提供的识别跟踪方法的场景示意图;
图2是本发明实施例提供的识别跟踪方法的流程示意图;
图3是本发明实施例提供的有限状态机的原理示意图;
图4是本发明实施例提供的识别跟踪决策树的原理示意图;
图5是本发明实施例提供的机器人头部按照Z字形扫描的场景示意图;
图6是本发明实施例提供的控制机器人头部转动的流程示意图;
图7是本发明实施例提供的获取的图像的示意图;
图8是本发明实施例提供的位移向量的示意图;
图9是本发明实施例提供的位移向量分解的示意图;
图10是本发明实施例提供的舵机控制转动的示意图;
图11是本发明实施例提供的舵机控制转动后图像的示意图;
图12是本发明提供的识别跟踪方法的另一实施例的场景示意图;
图13是本发明实施例提供的识别跟踪方法的系统框架图;
图14是本发明实施例提供的舵机控制的系统框架图;
图15是本发明实施例提供的舵机控制的API的示意图;
图16是本发明提供的识别跟踪方法的具体实现原理示意图;
图17是本发明实施例提供的识别跟踪装置的结构示意图;
图18是本发明实施例提供的控制模块的结构示意图;
图19是本发明提供的识别跟踪装置的另一实施例的结构示意图;
图20是本发明实施例提供的机器人的结构示意图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行描述。
还应当进一步理解,在本发明说明书和所附权利要求书中使用的术语“和/或”是指相关联列出的项中的一个或多个的任何组合以及所有可能组合,并且包括这些组合。
具体实现中,本发明实施例中描述的终端或设备包括但不限于诸如台式计算机、膝上型计算机、平板计算机、智能终端等。
为了更好的理解本发明实施例提供的一种识别跟踪方法、识别跟踪装置和机器人,下面先对本发明实施例的识别跟踪方法的场景进行描述。如图1示出的本发明实施例提供的识别跟踪方法的场景示意图,机器人可以包括躯干部分和头部,其中机器人头部中可以设有摄像模块,该摄像模块可以相当于该机器人的眼睛,通过该摄像模块可以获取图像。通过本发明实施例提供的识别跟踪方法,用户在跟机器人交互的过程中,例如语音交互、游戏互动、或拍照互动等,机器人头部的眼睛可以实时注视用户的脸,使用户感觉机器人更加具有生命力,大大提高交互性。
需要说明的是,本发明各个实施例中的机器人外形或结构不限定于图1所示的机器人外形或结构,图1中的机器人外形或结构仅仅是其中的一种实施方式。
下面结合图2示出的本发明实施例提供的识别跟踪方法的流程示意图,具体说明本发明实施例中的机器人如何进行识别跟踪,可以包括以下步骤:
步骤S200:通过机器人头部的摄像模块获取图像;
具体地,本发明实施例的机器人可以在运行状态下默认开启本发明的识别跟踪功能,也可以根据用户的开启或关闭指令来开启或关闭本发明的识别跟踪功能。当机器人开启本发明的识别跟踪功能后,机器人即触发机器人头部的摄像模块进入预览模式,以获取图像。
在其中一个实施方式中,本发明实施例中的图像并非通过显示屏显示出来的图像,而是摄像模块(比如电子摄像头)上的电荷耦合器件(Charge Couple Device,CCD)中的画幅,即相当于摄像模块的底片,或者摄像模块上的互补金属氧化物半导体(Complementary Metal Oxide Semiconductor,CMOS)的感光成像中的画幅。
步骤S202:识别所述图像是否含有目标特征;
具体地,本发明实施例中的目标特征可以为人脸,也可以为其他动物的物理特征或某些可移动或固定的物体的特征等等。下面,本发明实施例都以人脸为例进行说明,机器人可以通过特征识别算法(如人脸识别算法)在上述图像中识别是否存在人脸特征。
步骤S204:在识别到所述图像中含有所述目标特征,且所述目标特征的中心点不在所述图像的目标区域的情况下,通过控制所述机器人头部转动以将所述目标特征的中心点移动到所述图像的目标区域。
具体地,本发明实施例的机器人可以设置具有三个状态的有限状态机来控制机器人头部的转动。如图3示出的本发明实施例提供的有限状态机的原理示意图,三个状态分别为:a、没有识别到目标特征;b、识别到目标特征不在目标区域;c、识别到目标特征在目标区域。其中,
没有识别到目标特征是指针对获取的图像还没识别到目标特征;
识别到目标特征不在目标区域是指从获取的图像中识别到了目标特征,该目标特征的中心点不在该图像的目标区域;
识别到目标特征在目标区域是指从获取的图像中识别到了目标特征,且该目标特征的中心点在该图像的目标区域。
下面结合图4示出的本发明实施例提供的识别跟踪决策树的原理示意图,来说明如何根据三个状态的有限状态机来控制机器人头部的转动:
上述步骤S202中,在识别到所述图像不含有目标特征的情况下,控制所述机器人头部按照第一模式进行扫描转动,并继续识别在扫描转动的过程中获取的图像是否含有目标特征。该第一模式可以为机器人头部以预设速度,以预设角度范围,以及按照预设扫描线路(比如Z字形扫描,或E字形扫描)来扫描转动,扫描的水平角度范围可以为负50度至正50度之间,垂直角度范围可以为负10度至正10度之间,如图5示出的本发明实施例提供的机器人头部按照Z字形扫描的场景示意图,其中扫描的水平角度为负50度至正50度,垂直角度为负10度至正10度,在形成的扫描区域按照预设速度进行Z字形的扫描;该第一模式可以理解为机器人头部寻找目标特征的扫描转动模式,或者根据寻找人脸算法来驱动机器人头部扫描转动的模式。
可选的一个实施方式中,当机器人头部按照预设扫描线路连续扫描转动完成了N次后,仍然没有扫描识别到目标特征,那么可以触发语音提示,提示用户没有识别到目标特征。该N可以为3,等等。
在识别到该图像含有目标特征的情况下,包括从机器人头部的摄像模块一开始启动获取的图像即识别到该图像含有目标特征,或者机器人头部按照第一模式进行扫描转动的过程中,从获取的图像中识别到含有目标特征,进一步判断该目标特征的中心点是否在图像的目标区域,比如该目标特征的中心点是否在图像的中心点,若该目标特征的中心点在图像的目标区域,则不用触发控制机器人头部转动或者停止机器人头部转动;若该目标特征的中心点不在图像的目标区域,则通过控制所述机器人头部转动以将所述目标特征的中心点移动到所述图像的目标区域。
本发明实施例通过设置三个状态的有限状态机来控制机器人头部的转动可以更加高效地完成对目标特征的识别以及跟踪,以解决了现有技术机器人在与用户进行交互的过程中,机器人头部动作少或头部动作僵硬,交互性差的技术问题。
下面结合图6示出的本发明实施例提供的控制机器人头部转动的流程示意图,举例说明本发明实施例如何控制机器人头部转动,可以包括以下步骤:
步骤S600:计算所述目标特征的中心点在所述图像中的坐标;
具体地,如图7示出的本发明实施例提供的获取的图像的示意图,以该目标特征为人脸为例进行说明,在识别到该图像含有人脸(且该人脸不在图像的中心点)后,建立该图像的坐标系,通过人脸识别算法生成人脸区域(即目标特征对应的区域),包括得到该人脸区域的宽度和高度,人脸区域基于X轴的位移向量和基于Y轴的位移向量等信息,然后基于坐标系计算得到人脸区域的中心点在图像中的坐标。
步骤S602:计算从所述目标区域的中心坐标到所述目标特征的中心点在所述图像中的坐标的位移向量;
具体地,图像的目标区域为图像的中心点为例,可以通过摄像模块的分辨率信息(比如CCD画幅的分辨率,如图7中分辨率为640*480),以及基于建立的坐标系获知图像的中心点坐标,然后可以计算从人脸区域的中心点坐标到图像的中心点坐标的位移向量。
步骤S604:根据所述位移向量控制所述机器人头部按照第二模式转动以将所述目标特征的中心点移动到所述图像的目标区域。
具体地,机器人可以根据该位移向量计算得到以什么速度和什么角度来机械控制机器人头部转动以将人脸的中心点移动到图像的中心点;该第二模式可以理解为机器人头部在找到人脸后进行对准人脸的微调转动模块。
在其中一个实施方式中,机器人头部内或者机器人头部与躯干部分的连接处设置有舵机,本发明实施例可以通过舵机来控制该机器人头部的转动。具体地,机器人预先设有位移向量与舵机转动角度的比例关系,该比例关系包括多个不同位移向量所对应的不同舵机转动角度的关系。该比例关系为根据舵机与转动关节的机械参数,以及通过用户的使用距离设计实验,设置的机械放大比例。该比例关系也可以理解为CCD画幅中像素的距离转化成舵机转动角度的比例关系。那么机器人根据预设的该位移向量与舵机转动角度的比例关系,可以分析出步骤S602计算得到的位移向量对应的舵机转动角度,然后根据分析出的该舵机转动角度控制舵机转动以将目标特征的中心点移动到图像的目标区域。
下面通过图8至图11来举例说明:
图8示出了本发明实施例提供的位移向量的示意图,目标特征以人脸为例,人脸中心点位于CCD画幅的中心点(CCD中心点)左上角方向,通过上述步骤S600至步骤S602计算出CCD中心点到人脸中心点的位移向量后,对该位移向量进行分解;
如图9示出的本发明实施例提供的位移向量分解的示意图,本发明实施例的舵机以可以控制机器人头部水平方向转动和垂直方向转动两个方向为例(例如包括两个舵机,一个控制机器人头部水平方向转动,另一个机器人头部垂直方向转动),那么可以将位移向量分解到X轴和Y轴,得到X轴分解向量和Y轴分解向量,然后根据CCD画幅的分辨率分别计算出X分解向量的像素差值(delt_x像素)和Y分解向量的像素差值(delt_y像素)。该delt_x像素即为该X分解向量的长度对应有多少个CCD画幅的像素,该delt_y像素即为该Y分解向量的长度对应有多少个CCD画幅的像素;根据舵机与转动关节的机械参数以及实际的机械测量和调整,设置的机械放大比例,X轴方向的每个像素差值(即X轴每个CCD画幅的像素)可以代表或对应一个X轴舵机转动角度,Y轴方向的每个像素差值(即Y轴每个CCD画幅的像素)可以代表或对应一个Y轴舵机转动角度,例如X轴方向的每100个像素差值对应X轴舵机转动5度,Y轴方向的每个100像素差值对应X轴舵机转动10度,那么得到舵机实际控制机器人头部水平方向(即X轴方向)转动的角度为5*delt_x/100度,舵机实际控制机器人头部垂直方向(即Y轴方向)转动的角度为10*delt_y/100度;
然后通过如10示出的本发明实施例提供的舵机控制转动的示意图,舵机控制机器人头部向X轴负方向转动5*delt_x/100度,以及控制机器人头部向Y轴正方向转动10*delt_x/100度;最终如图11示出的本发明实施例提供的舵机控制转动后图像的示意图,完成了将目标特征的中心点移动到图像的目标区域。
在其中一个实施方式中,上述根据位移向量与舵机转动角度的比例关系,分析得到所述位移向量对应的舵机转动角度中,可以通过一个统一的默认的目标特征到机器人头部的距离来设置位移向量与舵机转动角度的比例关系;也可以对应不同的目标特征到机器人头部的距离(比如多个不同的距离段),对应设置多组位移向量与舵机转动角度的比例关系,那么根据位移向量与舵机转动角度的比例关系,分析得到所述位移向量对应的舵机转动角度可以具体包括:首先识别所述目标特征在所述图像中的景深信息;其中,不同的景深信息对应有不同的位移向量与舵机转动角度的比例关系;根据识别的所述景深信息对应的位移向量与舵机转动角度的比例关系,分析得到所述位移向量对应的舵机转动角度。
具体地,上述景深信息即可以为目标特征到机器人头部的距离,然后分析该距离落入哪个距离段,获取落入的距离段对应的一组位移向量与舵机转动角度的比例关系,通过该组位移向量与舵机转动角度的比例关系,分析得到所述位移向量对应的舵机转动角度。从而可以更加精准地控制舵机的转动,以使目标特征的中心点快速精准地移动到图像的目标区域,提高了机器人头部识别和跟踪目标特征的效率。
下面结合图12示出的本发明提供的识别跟踪方法的另一实施例的场景示意图,通过机器人头部的摄像模块获取图像时,可以包括:通过多个声音采集模块采集目标声源信息;根据所述目标声源信息定位目标对象相对机器人头部的方位信息;所述目标声源信息为所述目标对象发出的声源信息;所述目标特征为所述目标对象上的特征;根据所述方位信息控制所述机器人头部转动后,通过机器人头部的摄像模块获取图像。
具体地,机器人安装有多个声音采集模块,机器人在开启本发明的识别跟踪功能后,或者被唤醒后,可以触发该多个声音采集模块采集目标声源信息,然后利用声源定位技术,根据该目标声源信息定位目标对象相对机器人头部的方位信息,然后先根据所述方位信息控制所述机器人头部转动,以大致让机器人头部面对目标对象(比如人脸),再触发机器人头部的摄像模块执行图像的采集,以获取图像。从而利用了声源定位具备360度全方位探听的优势,可以直接定位用户的大概方位,无需摄像模块一开始进行无用功的图像采集,大大提高了定位速度,可以快速定位识别到目标对象的目标特征。
在其中一个实施方式中,本发明实施例可以在识别图像的过程中,在识别出含有至少两个目标特征的情况下,才触发该多个声音采集模块采集目标声源信息,然后利用声源定位技术,根据该目标声源信息定位目标对象相对机器人头部的方位信息,然后根据该方位信息从所述至少两个目标特征中确定出一个目标特征;在确认出的目标特征的中心点不在所述图像的目标区域的情况下,所述通过控制所述机器人头部转动以将所述确认出的目标特征的中心点移动到所述图像的目标区域。例如,若识别出该图像中含有两个人脸,那么机器人可以通过声音采集和分析声源,分析确定出谁在说话后,再根据方位信息定位到该说话人的人脸,并控制机器人头部转动以将该人脸的中心点移动到图像的目标区域。
在其中一个实施方式中,本发明实施例可以在识别图像的过程中,在识别出含有至少两个目标特征的情况下,通过控制所述机器人头部转动以将所述目标特征的中心点移动到所述图像的目标区域,还可以包括:
从所述至少两个目标特征中确定出与存储的默认特征相匹配的一个目标特征;在确认出的目标特征的中心点不在所述图像的目标区域的情况下,所述通过控制所述机器人头部转动以将所述确认出的目标特征的中心点移动到所述图像的目标区域。具体地,目标特征以人脸为例,机器人先预先存储常用人的人脸特征信息,作为默认的人脸特征,那么当识别出该图像中含有至少两个人脸时,可以进行人脸匹配,以从该两个人脸中确定出于存储的默认人脸特征相匹配的一个人脸,并控制机器人头部转动以将该人脸的中心点移动到图像的目标区域。或者当匹配出多个人脸时,可以随机选取一个人脸,或者可以触发该多个声音采集模块采集目标声源信息,然后利用声源定位技术,根据该目标声源信息定位目标对象相对机器人头部的方位信息,然后根据该方位信息从匹配出的多个人脸中确定出一个人脸,控制机器人头部转动以将该人脸的中心点移动到图像的目标区域。
下面再结合本发明实施例的系统框架图来说明本发明的识别跟踪方法的实现原理。如图13示出的本发明实施例提供的识别跟踪方法的系统框架图,该系统框架图以业务流程为主进行说明:
首先,需要进行业务封装,提供跟踪轮数控制,跟踪开启关闭和跟踪状态的通知。该业务封装可以参考图14示出的本发明实施例提供的舵机控制的系统框架图,包括接入层、实现层和抽象层的实现,接入层包括舵机代理(舵机Proxy),舵机编号特性封装;实现层包括舵机控制器(舵机Controller),内置动作封装;抽象层包括舵机指令即状态同步接口封装。该提供跟踪轮数控制包括设置控制算法,控制舵机转动的快慢,以模仿人的头部转动,以及避免转动时发生抖动现象。
然后,识别跟踪开启后,摄像模块进入预览,获取图像,然后根据人脸识别算法进行人脸识别,并执行人脸动态跟踪逻辑,最终控制舵机完成跟踪。
其中舵机控制的应用程序编程接口(Application Programming Interface,API)设计可以包括如下接口,如图15示出的本发明实施例提供的舵机控制的API的示意图,其中:
setMotorAbsoluteDegree(int motorAbsoluteDegree),用于设置舵机转动角度,比如上述实施例中人脸识别算法得到的5*delt_x,和10*delt_y。
setMotorDelayMilli(int motorDelayMilli),用于设置舵机执行延迟时间(单位:毫秒),可以默认设置为0,立即执行。
setMotorId(int motorId),用于设置舵机编号,例如机器人头部水平方向舵机编号为1,垂直方向舵机编号为2。
setMotorRunMilli(int motorRunMilli),用于设置舵机运行时间(单位:毫秒),根据测试设置为经验值3000毫秒,以使动作运行时间相对精确可控。
例如,下面结合图16示出的本发明提供的识别跟踪方法的具体实现原理示意图来举例说明本发明的识别跟踪方法的实现原理:在识别到图像中含有人脸后,机器人的处理器可以根据人脸位置生成舵机序列,该舵机序列即用于指示舵机执行转动指令的序列,然后根据该舵机序列进行动作解析和翻译,比如解析和翻译出舵机编号为1的舵机需要控制机器人头部在水平方向转动5*delt_x/100度,转动时间为3000毫秒;舵机编号为2的舵机需要控制机器人头部在垂直方向转动10*delt_y/100度,转动时间为3000毫秒,等等。然后将动作解析和翻译后的信息发送给舵机控制器,该舵机控制器来进行解释和控制舵机编号为1的舵机和舵机编号为2的舵机来具体执行。
在其中的一个实施方式中,本发明实施例在软件设计过程中,机器人(包括机器人中的舵机控制系统)需满足接口收敛,能够满足舵机业务操作多样性的需求。比如机器人还可以执行其他业务,比如爬楼梯、抓拿物件、跳舞等等,每个业务都需要设计接口,因此本发明实施例中的舵机控制的API的设计满足接口收敛,以兼容各个版本不用业务之间的接口,提高各个接口之间的移植性。
另外,机器人可以进行动作串行执行,比如抓拿物件后爬楼梯,那么机器人有可能会出现摔倒等异常情况,那么本发明实施例中的舵机控制系统可以满足强制重置任务具体覆盖的能力,机器人可以在出现异常情况时,强制重置为初始状态,包括机器人头部转动也恢复到初始状态。
另外,本发明实施例在通过控制所述机器人头部转动以将所述目标特征的中心点移动到所述图像的目标区域,可以包括:通过舵机控制所述机器人头部的转动以将所述目标特征的中心点移动到所述图像的目标区域的同时,所述舵机根据第一控制指令控制所述机器人头部并行执行第一动作。也就是说,机器人还可以进行同一组动作的并行执行,比如机器人在跳舞的过程中与用户交互,那么机器人在执行跳舞动作(相当于第一动作)的同时,并行地控制机器人头部对人脸进行识别并跟踪,本发明实施例设置了机器人头部与躯干部分的动作协调一致,以使同一组动作在并行执行时不僵硬。
另外,本发明实施例的识别跟踪方法,还可以包括:在所述通过控制所述机器人头部转动以将所述目标特征的中心点移动到所述图像的目标区域的过程中,若接收到中断指令,则根据所述中断指令停止所述机器人头部转动;或者若接收到中断重置指令,则根据所述中断重置指令停止所述机器人头部转动并控制所述机器人头部重置为初始状态。也就是说,机器人在执行的动作可以被立即中断,舵机可以根据具体指定的中断重置指令来控制机器人头部重置为初始状态。
实施本发明实施例,通过机器人头部的摄像模块获取图像;识别该图像是否含有目标特征;在识别到该图像中含有目标特征,且目标特征的中心点不在图像的目标区域的情况下,通过控制机器人头部转动以将目标特征的中心点移动到图像的目标区域,该目标特征可以是人脸,实现了机器人头部可以实时注视跟随用户的脸,解决了现有技术机器人在与用户进行交互的过程中,机器人头部动作少或头部动作僵硬,交互性差的技术问题;
而且可以通过多个声音采集模块采集目标声源信息,根据该目标声源信息定位目标对象相对机器人头部的方位信息,然后根据该方位信息协助控制所述机器人头部转动后,再通过机器人头部的摄像模块获取图像,加快了定位速度和精度,提高了机器人头部转动效率,可以更快地将目标特征的中心点移动到图像的目标区域。
另外,本发明实施例通过舵机控制该机器人头部的转动以将所述目标特征的中心点移动到所述图像的目标区域的同时,该舵机可以根据第一控制指令控制所述机器人头部并行执行第一动作,实现了舵机可以针对同一组动作支持并行执行,可以提高了机器人头部与机器人其他部位共同作业的协调性,进一步解决机器人头部转动僵硬的问题。
进一步,通过本发明实施例的识别跟踪方法,机器人传统的功能可以得到更丰富的扩展。以拍照类应用为例,开启了该识别跟踪功能的机器人,可以实现对用户在移动状态下的跟随拍摄,拍摄全景照片和全景视频,利用人脸识别自动调整人像在画面中的比例等功能。并且还拓展了机器人智能化的应用场景。例如,在聊天过程中,通过对用户人脸的识别可以获得用户的情感信息,例如开心、伤心等多样化的情感,有利于语音聊天的智能化生成。同时,利用注视跟随和头部舵机的控制,可以让机器人表现出一定的情感,如沮丧时低头,感兴趣时突然抬头注视用户等。
为了便于更好地实施本发明实施例的上述方案,本发明还对应提供了一种识别跟踪装置,下面结合附图来进行详细说明:
如图17示出的本发明实施例提供的识别跟踪装置的结构示意图,识别跟踪装置17可以包括:获取模块170、识别模块172和控制模块174,其中,
获取模块170用于通过机器人头部的摄像模块获取图像;
识别模块172用于识别所述图像是否含有目标特征;
控制模块174用于在识别到所述图像中含有所述目标特征,且所述目标特征的中心点不在所述图像的目标区域的情况下,通过控制所述机器人头部转动以将所述目标特征的中心点移动到所述图像的目标区域。
在其中一个实施方式中,控制模块174还可以用于在识别模块172识别到所述图像不含有目标特征的情况下,控制所述机器人头部按照第一模式进行扫描转动;并该识别模块172识别在扫描转动的过程中获取的图像是否含有目标特征。
在其中一个实施方式中,如图18示出的本发明实施例提供的控制模块的结构示意图,控制模块174可以包括:坐标计算单元1740、向量计算单元1742和转动控制单元1744,其中,
坐标计算单元1740用于计算所述目标特征的中心点在所述图像中的坐标;
向量计算单元1742用于计算从所述目标区域的中心坐标到所述目标特征的中心点在所述图像中的坐标的位移向量;
转动控制单元1744用于根据所述位移向量控制所述机器人头部按照第二模式转动以将所述目标特征的中心点移动到所述图像的目标区域。
在其中一个实施方式中,转动控制单元1744可以具体用于根据位移向量与舵机转动角度的比例关系,分析得到所述位移向量对应的舵机转动角度;所述舵机用于控制所述机器人头部的转动;
根据分析出的所述舵机转动角度控制舵机转动以将所述目标特征的中心点移动到所述图像的目标区域。
在其中一个实施方式中,转动控制单元1744在根据位移向量与舵机转动角度的比例关系,分析得到所述位移向量对应的舵机转动角度,可以具体包括:
识别所述目标特征在所述图像中的景深信息;其中,不同的景深信息对应有不同的位移向量与舵机转动角度的比例关系;
根据识别的所述景深信息对应的位移向量与舵机转动角度的比例关系,分析得到所述位移向量对应的舵机转动角度。
在其中一个实施方式中,控制模块174还可以用于在识别模块172识别到所述图像中含有的所述目标特征中心点在所述图像的目标区域的情况下,停止所述机器人头部转动。
在其中一个实施方式中,如图19示出的本发明提供的识别跟踪装置的另一实施例的结构示意图,识别跟踪装置17包括获取模块170、识别模块172和控制模块174以外,还可以包括:采集单元176和定位单元178,其中,
采集单元176用于通过多个声音采集模块采集目标声源信息;
定位单元178用于根据所述目标声源信息定位目标对象相对机器人头部的方位信息;所述目标声源信息为所述目标对象发出的声源信息;所述目标特征为所述目标对象上的特征;
控制模块174还用于在根据所述方位信息控制所述机器人头部转动后,触发获取模块170通过机器人头部的摄像模块获取图像。
在其中一个实施方式中,当识别模块172识别出所述图像含有至少两个目标特征的情况下,控制模块174还可以用于,从所述至少两个目标特征中确定出与存储的默认特征相匹配的一个目标特征;
在确认出的目标特征的中心点不在所述图像的目标区域的情况下,所述通过控制所述机器人头部转动以将所述确认出的目标特征的中心点移动到所述图像的目标区域。
在其中一个实施方式中,当识别模块172识别出所述图像含有至少两个目标特征的情况下,控制模块174还可以用于,触发采集单元176通过多个声音采集模块采集目标声源信息;
根据所述目标声源信息定位目标对象相对机器人头部的方位信息;所述目标声源信息为所述目标对象发出的声源信息;
根据所述方位信息从所述至少两个目标特征中确定出一个目标特征;
在确认出的目标特征的中心点不在所述图像的目标区域的情况下,所述通过控制所述机器人头部转动以将所述确认出的目标特征的中心点移动到所述图像的目标区域。
在其中一个实施方式中,控制模块174还可以用于通过舵机控制所述机器人头部的转动以将所述目标特征的中心点移动到所述图像的目标区域的同时,所述舵机根据第一控制指令控制所述机器人头部并行执行第一动作。
在其中一个实施方式中,控制模块174还可以用于在通过控制所述机器人头部转动以将所述目标特征的中心点移动到所述图像的目标区域的过程中,若接收到中断指令,则根据所述中断指令停止所述机器人头部转动;或者若接收到中断重置指令,则根据所述中断重置指令停止所述机器人头部转动并控制所述机器人头部重置为初始状态。
需要说明的是,本发明实施例中的识别跟踪装置17可以为上述图1实施例中的机器人,该识别跟踪装置17中各模块的功能可对应参考上述各方法实施例中图2至图16实施例的具体实现方式,这里不再赘述。
为了便于更好地实施本发明实施例的上述方案,本发明还对应提供了一种机器人,下面结合附图来进行详细说明:
如图20示出的本发明实施例提供的机器人的结构示意图,机器人20可以包括处理器201、机器人头部202、摄像模块203、存储器204和通信单元205,处理器201、机器人头部202、摄像模块203、存储器204和通信单元205可以通过总线206相互连接。存储器204可以是高速RAM存储器,也可以是非易失性的存储器(non-volatile memory),例如至少一个磁盘存储器,存储器704包括本发明实施例中的闪存flash。存储器204可选的还可以是至少一个位于远离前述处理器201的存储系统。存储器204用于存储应用程序代码,可以包括操作系统、网络通信模块、用户接口模块以及识别跟踪程序,通信单元205用于与外部单元进行信息交互;
摄像模块203用于获取图像;
处理器201被配置用于调用该程序代码,执行以下步骤:
识别所述图像是否含有目标特征;在识别到所述图像中含有所述目标特征,且所述目标特征的中心点不在所述图像的目标区域的情况下,通过控制机器人头部202转动以将所述目标特征的中心点移动到所述图像的目标区域。
在其中一个实施方式中,处理器201识别所述图像是否含有目标特征之后,还可以执行:
在识别到所述图像不含有目标特征的情况下,控制机器人头部202按照第一模式进行扫描转动,并识别在扫描转动的过程中获取的图像是否含有目标特征。
在其中一个实施方式中,处理器201通过控制所述机器人头部转动将所述目标特征的中心点移动到所述图像的目标区域,可以包括:
计算所述目标特征的中心点在所述图像中的坐标;
计算从所述目标区域的中心坐标到所述目标特征的中心点在所述图像中的坐标的位移向量;
根据所述位移向量控制所述机器人头部按照第二模式转动以将所述目标特征的中心点移动到所述图像的目标区域。
在其中一个实施方式中,机器人还可以包括舵机206,舵机206分别与处理器201和机器人头部202连接,用于控制机器人头部202的转动;
处理器201根据所述位移向量控制所述机器人头部按照第二模式转动以将所述目标特征的中心点移动到所述图像的目标区域,可以包括:
根据位移向量与舵机转动角度的比例关系,分析得到所述位移向量对应的舵机转动角度;根据分析出的所述舵机转动角度控制舵机206转动以将所述目标特征的中心点移动到所述图像的目标区域。
可理解的是,舵机206可以包括控制芯片,用于接收处理器201的控制指令,并根据该控制指令控制舵机206的工作。
在其中一个实施方式中,处理器201根据位移向量与舵机转动角度的比例关系,分析得到所述位移向量对应的舵机转动角度,可以包括:
识别所述目标特征在所述图像中的景深信息;其中,不同的景深信息对应有不同的位移向量与舵机转动角度的比例关系;
根据识别的所述景深信息对应的位移向量与舵机转动角度的比例关系,分析得到所述位移向量对应的舵机转动角度。
在其中一个实施方式中,处理器201识别所述图像是否含有目标特征之后,还可以包括:
在识别到所述图像中含有的所述目标特征中心点在所述图像的目标区域的情况下,停止机器人头部202转动。
在其中一个实施方式中,机器人还可以包括多个声音采集模块207,用于在摄像模块203获取图像之前采集目标声源信息;
处理器201根据所述目标声源信息定位目标对象相对机器人头部的方位信息;所述目标声源信息为所述目标对象发出的声源信息;所述目标特征为所述目标对象上的特征;
根据所述方位信息控制机器人头部202转动后,再触发摄像模块203获取图像。
在其中一个实施方式中,处理器201当识别出所述图像含有至少两个目标特征的情况下,通过控制机器人头部202转动以将所述目标特征的中心点移动到所述图像的目标区域,可以包括:
从所述至少两个目标特征中确定出与存储的默认特征相匹配的一个目标特征;
在确认出的目标特征的中心点不在所述图像的目标区域的情况下,所述通过控制机器人头部202转动以将所述确认出的目标特征的中心点移动到所述图像的目标区域。
在其中一个实施方式中,处理器201当识别出所述图像含有至少两个目标特征的情况下,触发多个声音采集模块207采集目标声源信息;
然后根据所述目标声源信息定位目标对象相对机器人头部的方位信息;所述目标声源信息为所述目标对象发出的声源信息;
根据所述方位信息从所述至少两个目标特征中确定出一个目标特征;
在确认出的目标特征的中心点不在所述图像的目标区域的情况下,所述通过控制机器人头部202转动以将所述确认出的目标特征的中心点移动到所述图像的目标区域。
在其中一个实施方式中,处理器201通过控制所述机器人头部转动以将所述目标特征的中心点移动到所述图像的目标区域,可以包括:
通过舵机206控制机器人头部202的转动以将所述目标特征的中心点移动到所述图像的目标区域的同时,舵机206根据第一控制指令控制所述机器人头部并行执行第一动作。
在其中一个实施方式中,处理器201还可以执行:
在通过控制机器人头部202转动以将所述目标特征的中心点移动到所述图像的目标区域的过程中,若接收到中断指令,则根据所述中断指令停止机器人头部202转动;或者若接收到中断重置指令,则根据所述中断重置指令停止机器人头部202转动并控制机器人头部202重置为初始状态。
需要说明的是,本发明实施例中的机器人20中各硬件模块的执行动作对应参考上述各方法实施例中图2至图16实施例的具体实现方式,这里不再赘述。
实施本发明实施例,通过机器人头部的摄像模块获取图像;识别该图像是否含有目标特征;在识别到该图像中含有目标特征,且目标特征的中心点不在图像的目标区域的情况下,通过控制机器人头部转动以将目标特征的中心点移动到图像的目标区域,该目标特征可以是人脸,实现了机器人头部可以实时注视跟随用户的脸,解决了现有技术机器人在与用户进行交互的过程中,机器人头部动作少或头部动作僵硬,交互性差的技术问题;
而且可以通过多个声音采集模块采集目标声源信息,根据该目标声源信息定位目标对象相对机器人头部的方位信息,然后根据该方位信息协助控制所述机器人头部转动后,再通过机器人头部的摄像模块获取图像,加快了定位速度和精度,提高了机器人头部转动效率,可以更快地将目标特征的中心点移动到图像的目标区域。
另外,本发明实施例通过舵机控制该机器人头部的转动以将所述目标特征的中心点移动到所述图像的目标区域的同时,该舵机可以根据第一控制指令控制所述机器人头部并行执行第一动作,实现了舵机可以针对同一组动作支持并行执行,可以提高了机器人头部与机器人其他部位共同作业的协调性,进一步解决机器人头部转动僵硬的问题。
需要说明的是,本发明涉及到的人脸或其他生物特征的识别技术,在本发明以上实施例运用到具体产品或技术中时,相关数据收集、使用和处理过程应该遵守国家法律法规要求,开启所述机器人的识别跟踪功能以收集人脸信息或其他生物特征信息前应该告知信息处理规则并征求目标对象的单独同意或具备合法性基础,并严格遵照法律法规要求和个人信息处理规则处理人脸信息或其他生物特征信息,采取技术措施保障相关数据安全。
本领域普通技术人员可以理解实现上述实施例方法中的全部或部分流程,是可以通过计算机程序来指令相关的硬件来完成,所述的程序可存储于一计算机可读取存储介质中,该程序在执行时,可包括如上述各方法的实施例的流程。其中,所述的存储介质可为磁碟、光盘、只读存储记忆体(Read-Only Memory,ROM)或随机存储记忆体(Random AccessMemory,RAM)等。
以上所揭露的仅为本发明较佳实施例而已,当然不能以此来限定本发明之权利范围,因此依本发明权利要求所作的等同变化,仍属本发明所涵盖的范围。
Claims (10)
1.一种识别跟踪方法,其特征在于,包括:
通过机器人头部的摄像模块获取图像,所述图像为所述摄像模块的感光元件中的画幅;
识别所述图像是否含有目标特征,并通过有限状态机控制所述机器人头部的转动,所述有限状态机的状态包括:识别到所述图像不含有目标特征,识别到所述图像中含有所述目标特征且所述目标特征的中心点不在所述图像的目标区域,以及识别到所述图像中含有的所述目标特征中心点在所述图像的目标区域;
在识别到所述图像不含有目标特征的情况下,控制所述机器人头部按照第一模式进行扫描转动,并识别在扫描转动的过程中获取的图像是否含有目标特征;
在识别到所述图像中含有所述目标特征,且所述目标特征的中心点不在所述图像的目标区域的情况下,通过控制所述机器人头部按照第二模式转动以将所述目标特征的中心点移动到所述图像的目标区域,包括:
计算所述目标特征的中心点在所述图像中的坐标;
计算从所述目标区域的中心坐标到所述目标特征的中心点在所述图像中的坐标的位移向量;
识别所述目标特征在所述图像中的景深信息,不同的景深信息对应有不同的位移向量与舵机转动角度的比例关系;
根据识别的所述景深信息对应的位移向量与舵机转动角度的比例关系,分析得到所述位移向量对应的舵机转动角度;
根据分析出的所述舵机转动角度、预设的舵机执行延迟时间和舵机运行时间控制舵机转动以将所述目标特征的中心点移动到所述图像的目标区域,所述舵机用于控制所述机器人头部的转动;
在识别到所述图像中含有的所述目标特征中心点在所述图像的目标区域的情况下,停止所述机器人头部转动。
2.如权利要求1所述的方法,其特征在于,所述通过机器人头部的摄像模块获取图像,包括:
通过多个声音采集模块采集目标声源信息;
根据所述目标声源信息定位目标对象相对机器人头部的方位信息;所述目标声源信息为所述目标对象发出的声源信息;所述目标特征为所述目标对象上的特征;
根据所述方位信息控制所述机器人头部转动后,通过机器人头部的摄像模块获取图像。
3.如权利要求1所述的方法,其特征在于,当识别出所述图像含有至少两个目标特征的情况下,所述通过控制所述机器人头部转动以将所述目标特征的中心点移动到所述图像的目标区域,包括:
从所述至少两个目标特征中确定出与存储的默认特征相匹配的一个目标特征;
在确认出的目标特征的中心点不在所述图像的目标区域的情况下,所述通过控制所述机器人头部转动以将所述确认出的目标特征的中心点移动到所述图像的目标区域。
4.如权利要求1所述的方法,其特征在于,当识别出所述图像含有至少两个目标特征的情况下,触发多个声音采集模块采集目标声源信息;
所述通过控制所述机器人头部转动以将所述目标特征的中心点移动到所述图像的目标区域,包括:
根据所述目标声源信息定位目标对象相对机器人头部的方位信息;所述目标声源信息为所述目标对象发出的声源信息;
根据所述方位信息从所述至少两个目标特征中确定出一个目标特征;
在确认出的目标特征的中心点不在所述图像的目标区域的情况下,所述通过控制所述机器人头部转动以将所述确认出的目标特征的中心点移动到所述图像的目标区域。
5.如权利要求1所述的方法,其特征在于,所述通过控制所述机器人头部转动以将所述目标特征的中心点移动到所述图像的目标区域,包括:
通过舵机控制所述机器人头部的转动以将所述目标特征的中心点移动到所述图像的目标区域的同时,所述舵机根据第一控制指令控制所述机器人头部并行执行第一动作。
6.如权利要求1所述的方法,其特征在于,还包括:
在所述通过控制所述机器人头部转动以将所述目标特征的中心点移动到所述图像的目标区域的过程中,若接收到中断指令,则根据所述中断指令停止所述机器人头部转动;或者若接收到中断重置指令,则根据所述中断重置指令停止所述机器人头部转动并控制所述机器人头部重置为初始状态。
7.一种识别跟踪装置,其特征在于,包括用于执行如权利要求1-6任一项所述的方法的单元。
8.一种机器人,其特征在于,包括处理器、机器人头部和存储器;所述机器人头部设有摄像模块,所述机器人还包括舵机,所述舵机用于控制所述机器人头部的转动;
所述摄像模块用于获取图像,所述图像为所述摄像模块的感光元件中的画幅;
所述存储器用于存储应用程序代码,所述处理器被配置用于调用所述程序代码,识别所述图像是否含有目标特征,并通过有限状态机控制所述机器人头部的转动,所述有限状态机的状态包括:识别到所述图像不含有目标特征,识别到所述图像中含有所述目标特征且所述目标特征的中心点不在所述图像的目标区域,以及识别到所述图像中含有的所述目标特征中心点在所述图像的目标区域;
在识别到所述图像不含有目标特征的情况下,控制所述机器人头部按照第一模式进行扫描转动,并识别在扫描转动的过程中获取的图像是否含有目标特征;
在识别到所述图像中含有所述目标特征,且所述目标特征的中心点不在所述图像的目标区域的情况下,通过控制所述机器人头部按照第二模式转动以将所述目标特征的中心点移动到所述图像的目标区域,包括:
计算所述目标特征的中心点在所述图像中的坐标;
计算从所述目标区域的中心坐标到所述目标特征的中心点在所述图像中的坐标的位移向量;
识别所述目标特征在所述图像中的景深信息,不同的景深信息对应有不同的位移向量与舵机转动角度的比例关系;
根据识别的所述景深信息对应的位移向量与舵机转动角度的比例关系,分析得到所述位移向量对应的舵机转动角度;
根据分析出的所述舵机转动角度、预设的舵机执行延迟时间和舵机运行时间控制舵机转动以将所述目标特征的中心点移动到所述图像的目标区域;
在识别到所述图像中含有的所述目标特征中心点在所述图像的目标区域的情况下,停止所述机器人头部转动。
9.如权利要求8所述的机器人,其特征在于,还包括多个声音采集模块;
所述多个声音采集模块用于采集目标声源信息;
所述摄像模块获取图像之前,所述处理器还执行:根据所述目标声源信息定位目标对象相对机器人头部的方位信息;所述目标声源信息为所述目标对象发出的声源信息;所述目标特征为所述目标对象上的特征;根据所述方位信息控制所述机器人头部转动后,触发所述摄像模块获取图像。
10.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质存储有计算机程序,所述计算机程序包括程序指令,所述程序指令当被处理器执行时使所述处理器执行如所述权利要求1-6任一项所述的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810435193.1A CN108647633B (zh) | 2018-05-08 | 2018-05-08 | 识别跟踪方法、识别跟踪装置和机器人 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810435193.1A CN108647633B (zh) | 2018-05-08 | 2018-05-08 | 识别跟踪方法、识别跟踪装置和机器人 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN108647633A CN108647633A (zh) | 2018-10-12 |
CN108647633B true CN108647633B (zh) | 2023-12-22 |
Family
ID=63749593
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201810435193.1A Active CN108647633B (zh) | 2018-05-08 | 2018-05-08 | 识别跟踪方法、识别跟踪装置和机器人 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN108647633B (zh) |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110246190A (zh) * | 2019-06-10 | 2019-09-17 | 南京奥拓电子科技有限公司 | 一种多技术实现的机器人交互方法 |
CN110561399B (zh) * | 2019-09-16 | 2022-02-18 | 腾讯科技(深圳)有限公司 | 用于运动障碍病症分析的辅助拍摄设备、控制方法和装置 |
CN110658916A (zh) * | 2019-09-18 | 2020-01-07 | 中国人民解放军海军航空大学 | 目标跟踪方法和系统 |
CN111546338A (zh) * | 2020-05-08 | 2020-08-18 | 华为技术有限公司 | 一种机器人的控制方法、装置、机器人以及存储介质 |
CN118250568A (zh) * | 2024-05-24 | 2024-06-25 | 帕西尼感知科技(张家港)有限公司 | 一种图像传感器拍摄位置调整方法、装置及系统 |
Citations (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102411368A (zh) * | 2011-07-22 | 2012-04-11 | 北京大学 | 机器人的主动视觉人脸跟踪方法和跟踪系统 |
CN103370672A (zh) * | 2011-01-05 | 2013-10-23 | 高通股份有限公司 | 用于跟踪用户方位的方法和装置 |
CN105116994A (zh) * | 2015-07-07 | 2015-12-02 | 百度在线网络技术(北京)有限公司 | 基于人工智能的智能机器人追踪方法和追踪装置 |
CN105759650A (zh) * | 2016-03-18 | 2016-07-13 | 北京光年无限科技有限公司 | 一种用于智能机器人系统实时跟踪人脸的方法 |
CN105975930A (zh) * | 2016-05-04 | 2016-09-28 | 南靖万利达科技有限公司 | 一种机器人语音定位过程的摄像头角度校准方法 |
CN205644294U (zh) * | 2016-03-18 | 2016-10-12 | 北京光年无限科技有限公司 | 一种能够对人脸进行实时跟踪的智能机器人系统 |
CN106228112A (zh) * | 2016-07-08 | 2016-12-14 | 深圳市优必选科技有限公司 | 人脸检测跟踪方法及机器人头部转动控制方法和机器人 |
CN106292732A (zh) * | 2015-06-10 | 2017-01-04 | 上海元趣信息技术有限公司 | 基于声源定位和人脸检测的智能机器人转动方法 |
CN106346475A (zh) * | 2016-11-01 | 2017-01-25 | 上海木爷机器人技术有限公司 | 机器人和机器人控制方法 |
CN106407882A (zh) * | 2016-07-26 | 2017-02-15 | 河源市勇艺达科技股份有限公司 | 机器人通过人脸检测实现头部转动的方法及装置 |
CN106530328A (zh) * | 2016-11-04 | 2017-03-22 | 深圳维周机器人科技有限公司 | 一种基于视频图像对运动目标检测和平滑跟随的方法 |
CN206200967U (zh) * | 2016-09-09 | 2017-05-31 | 南京玛锶腾智能科技有限公司 | 机器人目标定位追随系统 |
CN206224246U (zh) * | 2016-10-19 | 2017-06-06 | 九阳股份有限公司 | 一种实现目标定位与跟踪的机器人 |
CN107139179A (zh) * | 2017-05-26 | 2017-09-08 | 西安电子科技大学 | 一种智能服务机器人及工作方法 |
CN107172359A (zh) * | 2017-07-03 | 2017-09-15 | 天津智汇时代科技有限公司 | 摄像头人脸跟踪系统及人脸跟踪方法 |
CN107199572A (zh) * | 2017-06-16 | 2017-09-26 | 山东大学 | 一种基于智能声源定位与语音控制的机器人系统及方法 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9820658B2 (en) * | 2006-06-30 | 2017-11-21 | Bao Q. Tran | Systems and methods for providing interoperability among healthcare devices |
-
2018
- 2018-05-08 CN CN201810435193.1A patent/CN108647633B/zh active Active
Patent Citations (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103370672A (zh) * | 2011-01-05 | 2013-10-23 | 高通股份有限公司 | 用于跟踪用户方位的方法和装置 |
CN102411368A (zh) * | 2011-07-22 | 2012-04-11 | 北京大学 | 机器人的主动视觉人脸跟踪方法和跟踪系统 |
CN106292732A (zh) * | 2015-06-10 | 2017-01-04 | 上海元趣信息技术有限公司 | 基于声源定位和人脸检测的智能机器人转动方法 |
CN105116994A (zh) * | 2015-07-07 | 2015-12-02 | 百度在线网络技术(北京)有限公司 | 基于人工智能的智能机器人追踪方法和追踪装置 |
CN105759650A (zh) * | 2016-03-18 | 2016-07-13 | 北京光年无限科技有限公司 | 一种用于智能机器人系统实时跟踪人脸的方法 |
CN205644294U (zh) * | 2016-03-18 | 2016-10-12 | 北京光年无限科技有限公司 | 一种能够对人脸进行实时跟踪的智能机器人系统 |
CN105975930A (zh) * | 2016-05-04 | 2016-09-28 | 南靖万利达科技有限公司 | 一种机器人语音定位过程的摄像头角度校准方法 |
CN106228112A (zh) * | 2016-07-08 | 2016-12-14 | 深圳市优必选科技有限公司 | 人脸检测跟踪方法及机器人头部转动控制方法和机器人 |
CN106407882A (zh) * | 2016-07-26 | 2017-02-15 | 河源市勇艺达科技股份有限公司 | 机器人通过人脸检测实现头部转动的方法及装置 |
CN206200967U (zh) * | 2016-09-09 | 2017-05-31 | 南京玛锶腾智能科技有限公司 | 机器人目标定位追随系统 |
CN206224246U (zh) * | 2016-10-19 | 2017-06-06 | 九阳股份有限公司 | 一种实现目标定位与跟踪的机器人 |
CN106346475A (zh) * | 2016-11-01 | 2017-01-25 | 上海木爷机器人技术有限公司 | 机器人和机器人控制方法 |
CN106530328A (zh) * | 2016-11-04 | 2017-03-22 | 深圳维周机器人科技有限公司 | 一种基于视频图像对运动目标检测和平滑跟随的方法 |
CN107139179A (zh) * | 2017-05-26 | 2017-09-08 | 西安电子科技大学 | 一种智能服务机器人及工作方法 |
CN107199572A (zh) * | 2017-06-16 | 2017-09-26 | 山东大学 | 一种基于智能声源定位与语音控制的机器人系统及方法 |
CN107172359A (zh) * | 2017-07-03 | 2017-09-15 | 天津智汇时代科技有限公司 | 摄像头人脸跟踪系统及人脸跟踪方法 |
Non-Patent Citations (3)
Title |
---|
基于视觉引导的移动机器人目标跟踪系统研究;李霄;《中国优秀硕士学位论文全文数据库 信息科技辑》(第2012年05期);I138-128 * |
曹青媚 ; 王雪莲 ; 马占飞 ; .机器人视觉定位跟踪系统的设计与实现.现代电子技术.2016,第39卷(第14期),80-83. * |
陈凯枫 ; 肖南峰 ; .家庭服务机器人的人脸检测、跟踪与识别研究.微计算机信息.2006,第22卷(第5-2期),228-230、175. * |
Also Published As
Publication number | Publication date |
---|---|
CN108647633A (zh) | 2018-10-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108647633B (zh) | 识别跟踪方法、识别跟踪装置和机器人 | |
US10534957B2 (en) | Eyeball movement analysis method and device, and storage medium | |
KR102465532B1 (ko) | 객체 인식 방법 및 장치 | |
US10710244B2 (en) | Robot control using gestures | |
CN107770452B (zh) | 一种拍照方法及终端和相关介质产品 | |
CN108200334B (zh) | 图像拍摄方法、装置、存储介质及电子设备 | |
WO2021027537A1 (zh) | 一种拍摄证件照的方法、装置、设备及存储介质 | |
CN108198199B (zh) | 运动物体跟踪方法、运动物体跟踪装置和电子设备 | |
CN109040474B (zh) | 照片显示方法、装置、终端及存储介质 | |
CN109079809B (zh) | 一种机器人屏幕解锁方法、装置、智能设备及存储介质 | |
US10650234B2 (en) | Eyeball movement capturing method and device, and storage medium | |
CN107395957B (zh) | 拍照方法、装置、存储介质及电子设备 | |
JP5662670B2 (ja) | 画像処理装置、画像処理方法、及びプログラム | |
CN103079034A (zh) | 一种感知拍摄方法及系统 | |
CN106155315A (zh) | 一种拍摄中增强现实效果的添加方法、装置及移动终端 | |
US11307668B2 (en) | Gesture recognition method and apparatus, electronic device, and storage medium | |
CN110213492B (zh) | 设备成像方法、装置、存储介质及电子设备 | |
CN110290299B (zh) | 成像方法、装置、存储介质及电子设备 | |
CN106775258A (zh) | 利用手势控制实现虚拟现实交互的方法和装置 | |
CN110266953B (zh) | 图像处理方法、装置、服务器及存储介质 | |
CN109981967B (zh) | 用于智能机器人的拍摄方法、装置、终端设备及介质 | |
CN107357424B (zh) | 一种手势操作的识别方法、设备及计算机可读存储介质 | |
Imaizumi et al. | Network-based face recognition on mobile devices | |
CN109547678B (zh) | 一种处理方法、装置、设备及可读存储介质 | |
CN106791407A (zh) | 一种自拍控制方法和系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |