CN110855891A - 基于人体姿态调整摄像角度的方法、装置和机器人 - Google Patents
基于人体姿态调整摄像角度的方法、装置和机器人 Download PDFInfo
- Publication number
- CN110855891A CN110855891A CN201911171892.0A CN201911171892A CN110855891A CN 110855891 A CN110855891 A CN 110855891A CN 201911171892 A CN201911171892 A CN 201911171892A CN 110855891 A CN110855891 A CN 110855891A
- Authority
- CN
- China
- Prior art keywords
- adjusting
- camera
- key point
- target object
- point set
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D3/00—Control of position or direction
- G05D3/12—Control of position or direction using feedback
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
- G06V40/23—Recognition of whole body movements, e.g. for sport training
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10028—Range image; Depth image; 3D point clouds
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30196—Human being; Person
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/07—Target detection
Abstract
本申请涉及一种基于人体姿态调整摄像角度的方法、装置和机器人。所述方法包括:利用机器人的摄像设备采集包含目标对象的深度图像,对深度图像进行关键点检测,获得目标对象的关键点集合,根据关键点集合,调整摄像设备的摄像角度。以增加图像采集的灵活性、准确度,提升人机交互体验。
Description
技术领域
本申请涉及图像处理技术领域,特别是涉及一种基于人体姿态调整摄像角度的方法、装置和机器人。
背景技术
近年来,人体姿态识别技术日趋成熟,在各领域已取得广泛的应用,例如:体感游戏、运动矫正、安保监控等。但是,上述应用场景普遍存在一个问题:摄像设备总是固定在某个位置,这导致摄像设备拍摄的空间区域也是固定不变的。若摄像设备拍摄的对象不在理想的位置,则需要手动调整摄像设备的摆放位置,或要求拍摄的对象在限定的空间区域里移动至最佳位置。
因此,现有技术中存在着摄像设备总是固定在某个位置,这导致摄像设备拍摄的空间区域也是固定不变的,若摄像设备拍摄的对象不在理想的位置,则会导致识别结果不准确的问题。
发明内容
基于此,有必要针对上述技术问题,提供一种能够准确进行人体姿态识别的基于人体姿态调整摄像角度的方法、装置和机器人。
一种基于人体姿态调整摄像角度的方法,所述方法包括:
利用机器人的摄像设备采集包含目标对象的深度图像;
对所述深度图像进行关键点检测,获得所述目标对象的关键点集合;
根据所述关键点集合,调整所述摄像设备的摄像角度。
在其中一个实施例中,所述根据所述关键点集合,调整所述摄像设备的摄像角度,包括:
判断所述关键点集合中的关键点的数量是否满足预设数量;
若所述关键点集合中的关键点的数量满足所述预设数量,则不调整所述摄像设备的摄像角度。
在其中一个实施例中,所述方法还包括:
若所述关键点集合中的关键点的数量不满足所述预设数量,则根据预设关键点模型和所述关键点集合,确定缺失的关键点;
根据所述缺失的关键点,调整所述摄像设备的摄像角度,并返回执行所述利用机器人的摄像设备采集包含目标对象的深度图像的步骤。
在其中一个实施例中,所述不调整所述摄像设备的摄像角度的步骤之前,还包括:
判断所述关键点集合中的人体中心点是否处于所述摄像设备的视野中心区域;
若所述人体中心点处于所述视野中心区域,则执行所述不调整所述摄像设备的摄像角度的步骤。
在其中一个实施例中,所述方法还包括:
若所述人体中心点不处于所述视野中心区域,则获取所述人体中心点和所述视野中心区域之间的第一距离;
根据所述第一距离,调整所述摄像设备的摄像角度,并返回执行所述利用机器人的摄像设备采集包含目标对象的深度图像的步骤。
在其中一个实施例中,所述不调整所述摄像设备的摄像角度的步骤之前,还包括:
根据所述关键点集合,确定所述目标对象和所述机器人之间的第二距离;
判断所述第二距离是否处于预设范围内;
若所述第二距离处于所述预设范围内,则执行所述不调整所述摄像设备的摄像角度的步骤。
在其中一个实施例中,所述方法还包括:
若所述第二距离不处于所述预设范围内,则调整所述摄像设备的摄像角度,使得所述第二距离处于所述预设范围内,并返回执行所述利用机器人的摄像设备采集包含目标对象的深度图像的步骤。
一种基于人体姿态调整摄像角度的装置,所述装置包括:
采集模块,用于利用机器人的摄像设备采集包含目标对象的深度图像;
检测模块,用于对所述深度图像进行关键点检测,获得所述目标对象的关键点集合;
调整模块,用于根据所述关键点集合,调整所述摄像设备的摄像角度。
一种计算机可读存储介质,其上存储有计算机程序,所述计算机程序被处理器执行时实现以下步骤:
利用机器人的摄像设备采集包含目标对象的深度图像;
对所述深度图像进行关键点检测,获得所述目标对象的关键点集合;
根据所述关键点集合,调整所述摄像设备的摄像角度。
上述基于人体姿态调整摄像角度的方法、装置、机器人和存储介质,利用机器人的摄像设备采集包含目标对象的深度图像,对深度图像进行关键点检测,获得目标对象的关键点集合,根据关键点集合,调整摄像设备的摄像角度。其中,通过摄像设备采集包含目标对象的深度图像,因为深度图像中含有深度值,对深度图像进行关键点检测,则可以获得目标对象的关键点集合,该目标对象的关键点集合包含人体骨骼三维坐标信息,根据关键点集合,从而调整摄像设备的摄像角度。
附图说明
图1为一个实施例中基于人体姿态调整摄像角度的方法的流程示意图;
图2为一个实施例中人体关键点的示意图;
图3为一个实施例中基于人体姿态调整摄像角度的方法的流程示意图;
图4为一个实施例中缺失关键点的人体关键点的示意图;
图5为一个实施例中人体关键点和视野中心区域的示意图;
图6为一个实施例中基于人体姿态调整摄像角度的装置的结构框图;
图7为一个实施例中机器人的结构框图。
具体实施方式
为了使本申请的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本申请进行进一步详细说明。应当理解,此处描述的具体实施例仅仅用以解释本申请,并不用于限定本申请。
在一个实施例中,如图1所示,提供了一种基于人体姿态调整摄像角度的方法,以该方法应用于图1中的基于人体姿态调整摄像角度的装置为例进行说明,包括以下步骤:
步骤S101,利用机器人的摄像设备采集包含目标对象的深度图像。
其中,摄像设备用于捕捉目标对象的各种动作,将目标对象的动作形成图片或视频影像。摄像设备中除了能够执行录像或拍照操作之外,摄像设备还可以运行各种应用程序,通过这些应用程序,摄像设备能够对图片或视频影像进行处理,得到深度图像。或者,摄像设备包含深度摄像头,通过深度摄像头可以直接得到深度图像。
其中,目标对象是摄像设备进行拍摄的对象,目标对象可以是一个人,也可以是其他的能够产生动作的动物或物体。
可选的,摄像设备可以实时的对新产生的深度图像执行目标检测。通过对新产生的深度图像执行目标检测,可以判断出深度图像中是否存在目标对象,从而确定是否需要进一步的对深度图像执行其他的处理。当通过目标检测发现深度图像中不存在目标对象时,则重复执行步骤S101获取深度图像,直到发现深度图像中存在目标对象,执行其他的处理。
步骤S102,对所述深度图像进行关键点检测,获得所述目标对象的关键点集合。
其中,通过对深度图像执行关键点检测,可以进一步的获得深度图像中目标对象的关键点集合。
其中,关键点检测属于现有技术,此处不再加以赘述。
参见图2,以人体为例,为了能够描述目标对象,可以用多个人体关键点来对目标对象进行表示,通过人体关键点来描述人体,能够确定人体的基本动作形状。关键点集合可以是包含了人体不同部位的关键点,例如,关键点集合中可以包括头部关键点P1、脖子关键点P2、左肩部关键点P3、肩部脊椎点P4、右肩部关键点P5、左肘部关键点P6、右肘部关键点P7、左腕部关键点P8、右腕部关键点P9、左手部关键点P10、右手部关键点P11、人体中心点P12、底部脊椎点P13、左臀部关键点P14、右臀部关键点P15、左膝部关键点P16、右膝部关键点P17、左脚部关键点P18和右脚部关键点P19。
其中,对深度图像上目标对象的关键点检测可以采用诸如CPM(ConvolutionalPose Machine,卷积姿态检测器),PAF(Part AffinityFields,局部亲和立场检测方法)等方式来进行。在此对于关键点的检测方法不作限定。
步骤S103,根据所述关键点集合,调整所述摄像设备的摄像角度。
通过对步骤S102中得到的关键点进行分析,从而确定是否调整摄像设备的摄像角度。
上述基于人体姿态调整摄像角度的方法,利用机器人的摄像设备采集包含目标对象的深度图像,对深度图像进行关键点检测,获得目标对象的关键点集合,根据关键点集合,调整摄像设备的摄像角度。其中,通过摄像设备采集包含目标对象的深度图像,因为深度图像中含有深度值,对深度图像进行关键点检测,则可以获得目标对象的关键点集合,该目标对象的关键点集合包含人体骨骼三维坐标信息,根据关键点集合,从而调整摄像设备的摄像角度。
在一个实施例中,如图3所示,提供了一种基于人体姿态调整摄像角度的方法,以该方法应用于图3中的基于人体姿态调整摄像角度的装置为例进行说明,包括以下步骤:
步骤S301,利用机器人的摄像设备采集包含目标对象的深度图像。
在本发明实施例中,步骤S301描述的内容和图1所示实施例中的步骤S101描述的内容一致,此处不再加以赘述。
步骤S302,对所述深度图像进行关键点检测,获得所述目标对象的关键点集合。
在本发明实施例中,步骤S302描述的内容和图1所示实施例中的步骤S102描述的内容一致,此处不再加以赘述。
步骤S303,判断所述关键点集合中的关键点的数量是否满足预设数量。
在本发明实施例中,通过将关键点集合中的关键点的数量和预设数量进行比较的方法,确定关键点集合中的关键点的数量是否满足预设数量。若关键点集合中的关键点的数量大于等于预设阈值,则关键点集合中的关键点的数量满足预设数量。若关键点集合中的关键点的数量小于预设阈值,则关键点集合中的关键点的数量不满足预设数量。
其中,根据对人体骨骼的分析,将人体骨骼分为19个关键点,则根据需求可以预先设置数量。例如,预设数量为16,则判断关键点集合中的关键点的数量是否满足预设数量可以表示为判断关键点集合中的关键点的数量是否大于等于16。优选的,预设数量为19。判断关键点集合中的关键点的数量是否满足预设数量,即判断关键点集合中的关键点的数量是否为19个。
步骤S304,若所述关键点集合中的关键点的数量满足所述预设数量,则不调整所述摄像设备的摄像角度。
步骤S305,若所述关键点集合中的关键点的数量不满足所述预设数量,则根据预设关键点模型和所述关键点集合,确定缺失的关键点。
其中,预设关键点模型中包含19个关键点,若关键点集合中的关键点的数量不为19,则将得到的关键点集合和预设关键点模型进行比较,从而可以确定缺失的关键点,如图4所示,确定缺失的关键点为头部关键点P1和脖子关键点P2。
步骤S306,根据所述缺失的关键点,调整所述摄像设备的摄像角度,并返回执行所述利用机器人的摄像设备采集包含目标对象的深度图像的步骤。
其中,若缺失的关键点为头部关键点P1和脖子关键点P2,可以将摄像设备的摄像角度向上(头部方向)调整,并返回执行S301。
优选的,因为每个关键点都有各自的三维坐标信息,缺失的关键点为头部关键点P1和脖子关键点P2,对预设关键点模型中的头部关键点P1和脖子关键点P2的三维坐标信息进行分析,确定需要向上移动的位移。
上述基于人体姿态调整摄像角度的方法,通过摄像设备采集包含目标对象的深度图像,因为深度图像中含有深度值,对深度图像进行关键点检测,则可以获得目标对象的关键点集合,该目标对象的关键点集合包含人体骨骼三维坐标信息,根据关键点集合中的每个关键点的三维坐标信息,确定目标对象是否处于合理的位置,如果位置不合理,则可以根据每个关键点的三维坐标信息,结合机器人的运动能力,通过移动机器人的底盘和转动头部调整采集角度,以增加图像采集的灵活性、准确度,提升人机交互体验。
在一个实施例中,在上述实施例中的步骤S304不调整所述摄像设备的摄像角度之前,还包括:
判断所述关键点集合中的人体中心点是否处于所述摄像设备的视野中心区域;若所述人体中心点处于所述视野中心区域,则执行所述不调整所述摄像设备的摄像角度的步骤。若所述人体中心点不处于所述视野中心区域,则获取所述人体中心点和所述视野中心区域之间的第一距离;根据所述第一距离,调整所述摄像设备的摄像角度,并返回执行所述利用机器人的摄像设备采集包含目标对象的深度图像的步骤。
在本发明实施例中,如图2所示,人体中心点P12位于人体中心的位置。视野中心区域为预设的一个区域,如图5所示,摄像设备的视野中心区域通常为摄像设备拍摄的图像的中心区域。若人体中心点处于视野中心区域,则不调整摄像设备的摄像角度。若人体中心点不处于视野中心区域,则获取人体中心点和视野中心区域之间的第一距离,若人体中心点位于人体中心点的右边,则机器人根据第一距离往左移动,并返回执行利用机器人的摄像设备采集包含目标对象的深度图像的步骤。
其中,人体中心点和视野中心区域之间的第一距离可以为人体中心点和视野中心区域的中心点的距离,也可以是人体中心点和视野中心区域中的任意一个点的距离。
在本发明实施例中,需要进行两个判断,第一个判断条件为判断所述关键点集合中的人体中心点是否处于所述摄像设备的视野中心区域;第二个判断条件为判断所述关键点集合中的关键点的数量是否满足预设数量。其中,第一个判断条件和第二个判断条件都满足的情况下(即关键点集合中的人体中心点处于所述摄像设备的视野中心区域,且关键点集合中的关键点的数量满足预设数量),则不需要调整所述摄像设备的摄像角度;若任意一个条件不满足,则需要调整所述摄像设备的摄像角度。其中,第一个判断条件和第二个判断条件可以同时判断也可以先后判断,先后判断时,可以先判断第一个判断条件,也可以先判断第二个判断条件。
在另一个实施例中,在上述实施例中的步骤S304不调整所述摄像设备的摄像角度之前,还包括:
根据所述关键点集合,确定所述目标对象和所述机器人之间的第二距离;判断所述第二距离是否处于预设范围内;若所述第二距离处于所述预设范围内,则执行所述不调整所述摄像设备的摄像角度的步骤。若所述第二距离不处于所述预设范围内,则调整所述摄像设备的摄像角度,使得所述第二距离处于所述预设范围内,并返回执行所述利用机器人的摄像设备采集包含目标对象的深度图像的步骤。
其中,摄像设备(优选为深度摄像头)的最佳检测距离在2~3m,根据每个关键点的三维坐标的Z坐标的值,可以确定目标对象和机器人之间的第二距离,若第二距离在2~3m内,则不调整摄像设备的摄像角度。若第二距离不处于预设范围内,例如,若第二距离为4m,则将摄像设备向靠近目标对象的方向移动,使得第二距离处于2~3m内;若第二距离为1m,则将摄像设备向远离目标对象的方向移动,使得第二距离处于2~3m内。
可选的,在本发明实施例中,需要进行两个判断,第一个判断条件为判断所述第二距离是否处于预设范围内;第二个判断条件为判断所述关键点集合中的关键点的数量是否满足预设数量。其中,第一个判断条件和第二个判断条件都满足的情况下(即第二距离处于预设范围内,且关键点集合中的关键点的数量满足预设数量),则不需要调整所述摄像设备的摄像角度;若任意一个条件不满足,则需要调整所述摄像设备的摄像角度。其中,第一个判断条件和第二个判断条件可以同时判断也可以先后判断,先后判断时,可以先判断第一个判断条件,也可以先判断第二个判断条件。
可选的,在本发明实施例中,需要进行三个判断,第一个判断条件为判断所述关键点集合中的人体中心点是否处于所述摄像设备的视野中心区域;第二个判断条件为判断所述第二距离是否处于预设范围内;第三个判断条件为判断所述关键点集合中的关键点的数量是否满足预设数量。其中,第一个判断条件、第二个判断条件和第三个判断条件都满足的情况下(即关键点集合中的人体中心点处于摄像设备的视野中心区域,且第二距离处于预设范围内,且关键点集合中的关键点的数量满足预设数量),则不需要调整所述摄像设备的摄像角度;若任意一个条件不满足,则需要调整所述摄像设备的摄像角度。其中,第一个判断条件、第二个判断条件和第二个判断条件可以同时判断也可以先后判断,先后判断时,可以先判断第一个判断条件,也可以先判断第二个判断条件,也可以先判断第三个判断条件。
上述基于人体姿态调整摄像角度的方法,通过摄像设备采集包含目标对象的深度图像,因为深度图像中含有深度值,对深度图像进行关键点检测,则可以获得目标对象的关键点集合,该目标对象的关键点集合包含人体骨骼三维坐标信息,根据关键点集合中的每个关键点的三维坐标信息,确定目标对象是否处于合理的位置,如果位置不合理,则可以根据每个关键点的三维坐标信息,结合机器人的运动能力,通过移动机器人的底盘和转动头部调整采集距离,以增加图像采集的灵活性、准确度,提升人机交互体验。
应该理解的是,虽然图1和图3的流程图中的各个步骤按照箭头的指示依次显示,但是这些步骤并不是必然按照箭头指示的顺序依次执行。除非本文中有明确的说明,这些步骤的执行并没有严格的顺序限制,这些步骤可以以其它的顺序执行。而且,图1和图3中的至少一部分步骤可以包括多个子步骤或者多个阶段,这些子步骤或者阶段并不必然是在同一时刻执行完成,而是可以在不同的时刻执行,这些子步骤或者阶段的执行顺序也不必然是依次进行,而是可以与其它步骤或者其它步骤的子步骤或者阶段的至少一部分轮流或者交替地执行。
在一个实施例中,如图6所示,提供了一种基于人体姿态调整摄像角度的装置,包括:采集模块601、检测模块602和调整模块603,其中:
采集模块601,用于利用机器人的摄像设备采集包含目标对象的深度图像;
检测模块602,用于对所述深度图像进行关键点检测,获得所述目标对象的关键点集合;
调整模块603,用于根据所述关键点集合,调整所述摄像设备的摄像角度。
在一个实施例中,所述调整模块603用于:
判断所述关键点集合中的关键点的数量是否满足预设数量;
若所述关键点集合中的关键点的数量满足所述预设数量,则不调整所述摄像设备的摄像角度。
在一个实施例中,所述调整模块603用于:
若所述关键点集合中的关键点的数量不满足所述预设数量,则根据预设关键点模型和所述关键点集合,确定缺失的关键点;
根据所述缺失的关键点,调整所述摄像设备的摄像角度,并返回执行所述利用机器人的摄像设备采集包含目标对象的深度图像的步骤。
在一个实施例中,所述调整模块603用于:
判断所述关键点集合中的人体中心点是否处于所述摄像设备的视野中心区域;
若所述人体中心点处于所述视野中心区域,则执行所述不调整所述摄像设备的摄像角度的步骤。
在一个实施例中,所述调整模块603用于:
若所述人体中心点不处于所述视野中心区域,则获取所述人体中心点和所述视野中心区域之间的第一距离;
根据所述第一距离,调整所述摄像设备的摄像角度,并返回执行所述利用机器人的摄像设备采集包含目标对象的深度图像的步骤。
在一个实施例中,所述调整模块603用于:
根据所述关键点集合,确定所述目标对象和所述机器人之间的第二距离;
判断所述第二距离是否处于预设范围内;
若所述第二距离处于所述预设范围内,则执行所述不调整所述摄像设备的摄像角度的步骤。
在一个实施例中,所述调整模块603用于:
若所述第二距离不处于所述预设范围内,则调整所述摄像设备的摄像角度,使得所述第二距离处于所述预设范围内,并返回执行所述利用机器人的摄像设备采集包含目标对象的深度图像的步骤。
关于基于人体姿态调整摄像角度的装置的具体限定可以参见上文中对于基于人体姿态调整摄像角度的方法的限定,在此不再赘述。上述基于人体姿态调整摄像角度的装置中的各个模块可全部或部分通过软件、硬件及其组合来实现。上述各模块可以硬件形式内嵌于或独立于计算机设备中的处理器中,也可以以软件形式存储于计算机设备中的存储器中,以便于处理器调用执行以上各个模块对应的操作。
在一个实施例中,如图7所示,提供了一种机器人,所述机器人包括摄像设备701和处理器702;
所述摄像设备701,用于采集包含目标对象的深度图像;
所述处理器702,用于所述深度图像进行关键点检测,获得所述目标对象的关键点集合;以及根据所述关键点集合,调整所述摄像设备的摄像角度。
在一个实施例中,所述处理器702用于:
判断所述关键点集合中的关键点的数量是否满足预设数量;
若所述关键点集合中的关键点的数量满足所述预设数量,则不调整所述摄像设备的摄像角度。
在一个实施例中,所述处理器702用于:
若所述关键点集合中的关键点的数量不满足所述预设数量,则根据预设关键点模型和所述关键点集合,确定缺失的关键点;
根据所述缺失的关键点,调整所述摄像设备的摄像角度,并返回执行所述利用机器人的摄像设备采集包含目标对象的深度图像的步骤。
在一个实施例中,所述处理器702用于:
判断所述关键点集合中的人体中心点是否处于所述摄像设备的视野中心区域;
若所述人体中心点处于所述视野中心区域,则执行所述不调整所述摄像设备的摄像角度的步骤。
在一个实施例中,所述处理器702用于:
若所述人体中心点不处于所述视野中心区域,则获取所述人体中心点和所述视野中心区域之间的第一距离;
根据所述第一距离,调整所述摄像设备的摄像角度,并返回执行所述利用机器人的摄像设备采集包含目标对象的深度图像的步骤。
在一个实施例中,所述处理器702用于:
根据所述关键点集合,确定所述目标对象和所述机器人之间的第二距离;
判断所述第二距离是否处于预设范围内;
若所述第二距离处于所述预设范围内,则执行所述不调整所述摄像设备的摄像角度的步骤。
在一个实施例中,所述处理器702用于:
若所述第二距离不处于所述预设范围内,则调整所述摄像设备的摄像角度,使得所述第二距离处于所述预设范围内,并返回执行所述利用机器人的摄像设备采集包含目标对象的深度图像的步骤。
关于机器人的具体限定可以参见上文中对于基于人体姿态调整摄像角度的方法的限定,在此不再赘述。
在一个实施例中,提供了一种计算机可读存储介质,其上存储有计算机程序,计算机程序被处理器执行时实现以下步骤:
利用机器人的摄像设备采集包含目标对象的深度图像;
对所述深度图像进行关键点检测,获得所述目标对象的关键点集合;
根据所述关键点集合,调整所述摄像设备的摄像角度。
在一个实施例中,计算机程序被处理器执行时还实现以下步骤:
判断所述关键点集合中的关键点的数量是否满足预设数量;
若所述关键点集合中的关键点的数量满足所述预设数量,则不调整所述摄像设备的摄像角度。
在一个实施例中,计算机程序被处理器执行时还实现以下步骤:
若所述关键点集合中的关键点的数量不满足所述预设数量,则根据预设关键点模型和所述关键点集合,确定缺失的关键点;
根据所述缺失的关键点,调整所述摄像设备的摄像角度,并返回执行所述利用机器人的摄像设备采集包含目标对象的深度图像的步骤。
在一个实施例中,计算机程序被处理器执行时还实现以下步骤:
判断所述关键点集合中的人体中心点是否处于所述摄像设备的视野中心区域;
若所述人体中心点处于所述视野中心区域,则执行所述不调整所述摄像设备的摄像角度的步骤。
在一个实施例中,计算机程序被处理器执行时还实现以下步骤:
若所述人体中心点不处于所述视野中心区域,则获取所述人体中心点和所述视野中心区域之间的第一距离;
根据所述第一距离,调整所述摄像设备的摄像角度,并返回执行所述利用机器人的摄像设备采集包含目标对象的深度图像的步骤。
在一个实施例中,计算机程序被处理器执行时还实现以下步骤:
根据所述关键点集合,确定所述目标对象和所述机器人之间的第二距离;
判断所述第二距离是否处于预设范围内;
若所述第二距离处于所述预设范围内,则执行所述不调整所述摄像设备的摄像角度的步骤。
在一个实施例中,计算机程序被处理器执行时还实现以下步骤:
若所述第二距离不处于所述预设范围内,则调整所述摄像设备的摄像角度,使得所述第二距离处于所述预设范围内,并返回执行所述利用机器人的摄像设备采集包含目标对象的深度图像的步骤。
本领域普通技术人员可以理解实现上述实施例方法中的全部或部分流程,是可以通过计算机程序来指令相关的硬件来完成,所述的计算机程序可存储于一非易失性计算机可读取存储介质中,该计算机程序在执行时,可包括如上述各方法的实施例的流程。其中,本申请所提供的各实施例中所使用的对存储器、存储、数据库或其它介质的任何引用,均可包括非易失性和/或易失性存储器。非易失性存储器可包括只读存储器(ROM)、可编程ROM(PROM)、电可编程ROM(EPROM)、电可擦除可编程ROM(EEPROM)或闪存。易失性存储器可包括随机存取存储器(RAM)或者外部高速缓冲存储器。作为说明而非局限,RAM以多种形式可得,诸如静态RAM(SRAM)、动态RAM(DRAM)、同步DRAM(SDRAM)、双数据率SDRAM(DDRSDRAM)、增强型SDRAM(ESDRAM)、同步链路(Synchlink)DRAM(SLDRAM)、存储器总线(Rambus)直接RAM(RDRAM)、直接存储器总线动态RAM(DRDRAM)、以及存储器总线动态RAM(RDRAM)等。
以上实施例的各技术特征可以进行任意的组合,为使描述简洁,未对上述实施例中的各个技术特征所有可能的组合都进行描述,然而,只要这些技术特征的组合不存在矛盾,都应当认为是本说明书记载的范围。
以上所述实施例仅表达了本申请的几种实施方式,其描述较为具体和详细,但并不能因此而理解为对发明专利范围的限制。应当指出的是,对于本领域的普通技术人员来说,在不脱离本申请构思的前提下,还可以做出若干变形和改进,这些都属于本申请的保护范围。因此,本申请专利的保护范围应以所附权利要求为准。
Claims (10)
1.一种基于人体姿态调整摄像角度的方法,其特征在于,所述方法包括:
利用机器人的摄像设备采集包含目标对象的深度图像;
对所述深度图像进行关键点检测,获得所述目标对象的关键点集合;
根据所述关键点集合,调整所述摄像设备的摄像角度。
2.根据权利要求1所述的方法,其特征在于,所述根据所述关键点集合,调整所述摄像设备的摄像角度,包括:
判断所述关键点集合中的关键点的数量是否满足预设数量;
若所述关键点集合中的关键点的数量满足所述预设数量,则不调整所述摄像设备的摄像角度。
3.根据权利要求2所述的方法,其特征在于,所述方法还包括:
若所述关键点集合中的关键点的数量不满足所述预设数量,则根据预设关键点模型和所述关键点集合,确定缺失的关键点;
根据所述缺失的关键点,调整所述摄像设备的摄像角度,并返回执行所述利用机器人的摄像设备采集包含目标对象的深度图像的步骤。
4.根据权利要求2所述的方法,其特征在于,所述不调整所述摄像设备的摄像角度的步骤之前,还包括:
判断所述关键点集合中的人体中心点是否处于所述摄像设备的视野中心区域;
若所述人体中心点处于所述视野中心区域,则执行所述不调整所述摄像设备的摄像角度的步骤。
5.根据权利要求4所述的方法,其特征在于,所述方法还包括:
若所述人体中心点不处于所述视野中心区域,则获取所述人体中心点和所述视野中心区域之间的第一距离;
根据所述第一距离,调整所述摄像设备的摄像角度,并返回执行所述利用机器人的摄像设备采集包含目标对象的深度图像的步骤。
6.根据权利要求2或4任意一项所述的方法,其特征在于,所述不调整所述摄像设备的摄像角度的步骤之前,还包括:
根据所述关键点集合,确定所述目标对象和所述机器人之间的第二距离;
判断所述第二距离是否处于预设范围内;
若所述第二距离处于所述预设范围内,则执行所述不调整所述摄像设备的摄像角度的步骤。
7.根据权利要求6所述的方法,其特征在于,所述方法还包括:
若所述第二距离不处于所述预设范围内,则调整所述摄像设备的摄像角度,使得所述第二距离处于所述预设范围内,并返回执行所述利用机器人的摄像设备采集包含目标对象的深度图像的步骤。
8.一种基于人体姿态调整摄像角度的装置,其特征在于,所述装置包括:
采集模块,用于利用机器人的摄像设备采集包含目标对象的深度图像;
检测模块,用于对所述深度图像进行关键点检测,获得所述目标对象的关键点集合;
调整模块,用于根据所述关键点集合,调整所述摄像设备的摄像角度。
9.一种机器人,其特征在于,所述机器人包括摄像设备和处理器;
所述摄像设备,用于采集包含目标对象的深度图像;
所述处理器,用于所述深度图像进行关键点检测,获得所述目标对象的关键点集合;以及根据所述关键点集合,调整所述摄像设备的摄像角度。
10.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现权利要求1至7中任一项所述的方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911171892.0A CN110855891A (zh) | 2019-11-26 | 2019-11-26 | 基于人体姿态调整摄像角度的方法、装置和机器人 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911171892.0A CN110855891A (zh) | 2019-11-26 | 2019-11-26 | 基于人体姿态调整摄像角度的方法、装置和机器人 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN110855891A true CN110855891A (zh) | 2020-02-28 |
Family
ID=69604559
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201911171892.0A Pending CN110855891A (zh) | 2019-11-26 | 2019-11-26 | 基于人体姿态调整摄像角度的方法、装置和机器人 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110855891A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112672062A (zh) * | 2020-08-21 | 2021-04-16 | 海信视像科技股份有限公司 | 一种显示设备及人像定位方法 |
Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104853104A (zh) * | 2015-06-01 | 2015-08-19 | 深圳市微队信息技术有限公司 | 一种自动跟踪拍摄运动目标的方法以及系统 |
CN105227832A (zh) * | 2015-09-09 | 2016-01-06 | 厦门美图之家科技有限公司 | 一种基于关键点检测的自拍方法、自拍系统及拍摄终端 |
CN106303224A (zh) * | 2016-07-29 | 2017-01-04 | 维沃移动通信有限公司 | 一种对焦方法及移动终端 |
CN107610108A (zh) * | 2017-09-04 | 2018-01-19 | 腾讯科技(深圳)有限公司 | 图像处理方法和装置 |
CN108475075A (zh) * | 2017-05-25 | 2018-08-31 | 深圳市大疆创新科技有限公司 | 一种控制方法、装置及云台 |
CN108615016A (zh) * | 2018-04-28 | 2018-10-02 | 北京华捷艾米科技有限公司 | 人脸关键点检测方法和人脸关键点检测装置 |
CN108833795A (zh) * | 2018-08-29 | 2018-11-16 | 北京七鑫易维信息技术有限公司 | 一种图像获取设备的对焦方法及装置 |
CN109788191A (zh) * | 2018-12-21 | 2019-05-21 | 中国科学院自动化研究所南京人工智能芯片创新研究院 | 拍照方法、装置、计算机设备和存储介质 |
CN110300264A (zh) * | 2019-06-28 | 2019-10-01 | Oppo广东移动通信有限公司 | 图像处理方法、装置、移动终端以及存储介质 |
-
2019
- 2019-11-26 CN CN201911171892.0A patent/CN110855891A/zh active Pending
Patent Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104853104A (zh) * | 2015-06-01 | 2015-08-19 | 深圳市微队信息技术有限公司 | 一种自动跟踪拍摄运动目标的方法以及系统 |
CN105227832A (zh) * | 2015-09-09 | 2016-01-06 | 厦门美图之家科技有限公司 | 一种基于关键点检测的自拍方法、自拍系统及拍摄终端 |
CN106303224A (zh) * | 2016-07-29 | 2017-01-04 | 维沃移动通信有限公司 | 一种对焦方法及移动终端 |
CN108475075A (zh) * | 2017-05-25 | 2018-08-31 | 深圳市大疆创新科技有限公司 | 一种控制方法、装置及云台 |
CN107610108A (zh) * | 2017-09-04 | 2018-01-19 | 腾讯科技(深圳)有限公司 | 图像处理方法和装置 |
CN108615016A (zh) * | 2018-04-28 | 2018-10-02 | 北京华捷艾米科技有限公司 | 人脸关键点检测方法和人脸关键点检测装置 |
CN108833795A (zh) * | 2018-08-29 | 2018-11-16 | 北京七鑫易维信息技术有限公司 | 一种图像获取设备的对焦方法及装置 |
CN109788191A (zh) * | 2018-12-21 | 2019-05-21 | 中国科学院自动化研究所南京人工智能芯片创新研究院 | 拍照方法、装置、计算机设备和存储介质 |
CN110300264A (zh) * | 2019-06-28 | 2019-10-01 | Oppo广东移动通信有限公司 | 图像处理方法、装置、移动终端以及存储介质 |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112672062A (zh) * | 2020-08-21 | 2021-04-16 | 海信视像科技股份有限公司 | 一种显示设备及人像定位方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108446585B (zh) | 目标跟踪方法、装置、计算机设备和存储介质 | |
CN108399367B (zh) | 手部动作识别方法、装置、计算机设备及可读存储介质 | |
JP6573354B2 (ja) | 画像処理装置、画像処理方法、及びプログラム | |
CN108986164B (zh) | 基于图像的位置检测方法、装置、设备及存储介质 | |
CN109816730B (zh) | 工件抓取方法、装置、计算机设备和存储介质 | |
JP4792824B2 (ja) | 動作分析装置 | |
CN110674712A (zh) | 交互行为识别方法、装置、计算机设备和存储介质 | |
CN109934847B (zh) | 弱纹理三维物体姿态估计的方法和装置 | |
CN107438173A (zh) | 视频处理装置、视频处理方法和存储介质 | |
JP2009510541A (ja) | オブジェクト追跡方法及びオブジェクト追跡装置 | |
CN110926330B (zh) | 图像处理装置和图像处理方法 | |
JP6624877B2 (ja) | 情報処理装置、情報処理方法及びプログラム | |
CN112863234B (zh) | 一种车位显示方法、装置、电子设备及存储介质 | |
CN110674680B (zh) | 活体识别的方法、装置、存储介质 | |
CN112465855B (zh) | 客流统计方法、装置、存储介质及设备 | |
CN108369739B (zh) | 物体检测装置和物体检测方法 | |
CN107895344B (zh) | 视频拼接装置及方法 | |
US20180191951A1 (en) | Imaging apparatus and imaging condition setting method and program | |
CN110688950B (zh) | 基于深度信息的人脸活体检测方法、装置 | |
JP2008288684A (ja) | 人物検出装置及びプログラム | |
CN110855891A (zh) | 基于人体姿态调整摄像角度的方法、装置和机器人 | |
JP6977337B2 (ja) | 部位認識方法、装置、プログラム、及び撮像制御システム | |
JP2002008043A (ja) | 動作解析装置及び動作解析方法 | |
CN111586299B (zh) | 一种图像处理方法和相关设备 | |
JP7078771B1 (ja) | 情報処理装置、情報処理方法及びプログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20200228 |