CN109200576A - 机器人投影的体感游戏方法、装置、设备和存储介质 - Google Patents
机器人投影的体感游戏方法、装置、设备和存储介质 Download PDFInfo
- Publication number
- CN109200576A CN109200576A CN201811032484.2A CN201811032484A CN109200576A CN 109200576 A CN109200576 A CN 109200576A CN 201811032484 A CN201811032484 A CN 201811032484A CN 109200576 A CN109200576 A CN 109200576A
- Authority
- CN
- China
- Prior art keywords
- user
- joint points
- human joint
- image
- view field
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/20—Input arrangements for video game devices
- A63F13/21—Input arrangements for video game devices characterised by their sensors, purposes or types
- A63F13/213—Input arrangements for video game devices characterised by their sensors, purposes or types comprising photodetecting means, e.g. cameras, photodiodes or infrared cells
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/40—Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment
- A63F13/42—Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
- G06V40/23—Recognition of whole body movements, e.g. for sport training
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F2300/00—Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
- A63F2300/10—Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals
- A63F2300/1087—Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals comprising photodetecting means, e.g. a camera
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Human Computer Interaction (AREA)
- Health & Medical Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Health & Medical Sciences (AREA)
- Psychiatry (AREA)
- Social Psychology (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Manipulator (AREA)
Abstract
本发明适用于人工智能技术领域,提供了一种机器人投影的体感游戏方法,所述方法包括以下步骤:响应用户的投影选择操作,显示投影区域;识别用户的人体影像,并将所述用户的人体影像显示于所述投影区域中;获取用户的姿态特征图像;根据所述用户的姿态特征图像,获取人体关节点;根据所述人体关节点,计算人体关节点的距离与角度的变化值,以完成投影区域中人体影像的运动方向。一方面,由机器人自动搜寻合适的投影区域位置,相比需要语音对机器人控制投影位置的方法更加灵活,有利于增强人机交互性;另一方面,根据人体关节点的距离与角度的变化值,确定投影区域中人体影像的运动方向,速度更快,结果更精确,能让用户更好地进行体感游戏的体验。
Description
技术领域
本发明属于人工智能技术领域,特别是涉及一种机器人投影的体感游戏方法、装置、机器人设备和存储介质。
背景技术
体感游戏是一种通过肢体动作变化来进行的新型电子游戏,可以让用户身历其境地与游戏做互动。体感游戏异于手机上的电子游戏,主要采用一种多源信息融合交互式的三维操作方式,其体感技术是虚拟现实技术的一个重要分支。随着电竞的兴起,体感游戏在体感机器人领域中越发得以重视。
目前的机器人应用于体感游戏的方法,主要是通过3D摄像机对人体图像的采集,利用高斯平滑去除噪点,对用户的动作进行识别,实现用户与游戏的交互。然而,在3D摄像机图像采集中常用的SIFT算法存在匹配成功点数目较少、分布欠均匀、速度慢等缺点;而高斯平滑去噪点是基于图像边缘,平滑会降低边缘信息的对比度,从而减少图像中的信号信息,使得在人体检测中会提高错误率。
发明内容
本发明实施例提供一种机器人投影的体感游戏方法,旨在解决上述技术问题。
本发明实施例是这样实现的,一种机器人投影的体感游戏方法,所述方法包括:
响应用户的投影选择操作,显示投影区域;
接收用户的游戏开始指令,识别用户的人体影像,并将所述用户的人体影像显示于所述投影区域中;
获取用户的姿态特征图像;
根据所述用户的姿态特征图像,获取人体关节点;
根据所述人体关节点,计算人体关节点的距离与角度的变化值;
根据所述人体关节点的距离与角度的变化值,确定用户的运动方向,以完成投影区域中人体影像的运动方向。
本发明实施例还提供一种机器人投影的体感游戏装置,所述装置包括:
响应单元,用于响应用户的投影选择操作,显示投影区域;
识别单元,用于接收用户的游戏开始指令,识别用户的人体影像,并将所述用户的人体影像显示于所述投影区域中;
图像获取单元,用于获取用户的姿态特征图像;
关节点获取单元,用于根据所述用户的姿态特征图像,获取人体关节点;
计算单元,用于根据所述人体关节点,计算人体关节点的距离与角度的变化值;以及
动作完成单元,用于根据所述人体关节点的距离与角度的变化值,确定用户的运动方向,以完成投影区域中人体影像的运动方向。
本发明实施例还提供一种机器人设备,所述机器人设备包括:
投影器,用于根据用户的投影选择操作,显示投影区域;
识别器,与所述投影器通讯,用于实时对用户的人体影像进行识别,并将所述用户的人体影像显示于所述投影区域中;
图像采集器,用于实时对用户的姿态特征图像进行采集;
主控制器,与所述投影器、识别器、图像采集器通讯,用于获取用户的姿态特征图像,根据所述用户的姿态特征图像,获取人体关节点;根据所述人体关节点,计算人体关节点的距离与角度的变化值;根据所述人体关节点的距离与角度的变化值,确定用户的运动方向,以完成投影区域中人体影像的运动方向。
本发明实施例还提供一种计算机可读存储介质,其上存储有计算机程序/指令,其特征在于,所述计算机程序/指令被所述处理器执行时实现如上述机器人投影的体感游戏方法的步骤。
本发明实施例中,通过响应用户的投影选择操作,显示投影区域;接收用户的游戏开始指令,识别用户的人体影像,并将所述用户的人体影像显示于所述投影区域中;获取用户的姿态特征图像;根据所述用户的姿态特征图像,获取人体关节点;根据所述人体关节点,计算人体关节点的距离与角度的变化值;根据所述人体关节点的距离与角度的变化值,确定用户的运动方向,以完成投影区域中人体影像的运动方向;一方面,由机器人自动搜寻合适的投影区域位置,相比需要语音对机器人控制投影位置的方法更加灵活,并且该方法利于增强人机交互性,令机器人更加智能化;另一方面,根据人体关节点的距离与角度的变化值,确定投影区域中人体影像的运动方向,速度更快,结果更精确,能让用户更好地进行体感游戏的体验。
附图说明
图1是本发明实施例一提供的一种机器人投影的体感游戏方法的实现流程图;
图2是本发明实施例提供的人体关节点示意图;
图3是本发明实施例二提供的一种机器人投影的体感游戏方法的实现流程图;
图4是本发明实施例三提供的一种机器人投影的体感游戏方法的实现流程示意图;
图5是本发明实施例四提供的一种机器人投影的体感游戏方法的实现流程示意图;
图6是本发明实施例五提供的一种机器人投影的体感游戏方法的实现流程示意图;
图7是本发明实施例六提供的一种机器人投影的体感游戏方法的实现流程示意图;
图8是本发明实施例七提供的一种机器人投影的体感游戏装置的结构示意图;
图9是本发明实施例八提供的一种机器人设备的结构示意图。
具体实施方式
为了使本发明的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本发明进行进一步详细说明。应当理解,此处所描述的具体实施例仅仅用以解释本发明,并不用于限定本发明。
在本发明实施例中使用的术语是仅仅出于描述特定实施例的目的,而非旨在限制本发明。在本发明实施例和所附权利要求书中所使用的单数形式的“一种”和“该”也旨在包括多数形式,除非上下文清楚地表示其他含义。还应当理解,本文中使用的术语“和/或”是指并包含一个或多个相关联的列出项目的任何或所有可能组合。
应当理解,尽管在本发明实施例中可能采用术语第一、第二等来描述各种信息,但这些信息不应限于这些术语。这些术语仅用来将同一类型的信息彼此区分开。
为了进一步阐述本发明为实现预定发明目的所采取的技术手段及功效,根据如下实施例,对本发明实施例提供的机器人投影的体感游戏方法进行详细说明。
本发明实施例提供的机器人投影的体感游戏方法,通过自动显示投影区域,并且根据人体关节点的距离与角度的变化值,确定用户的运动方向,以完成投影区域中人体影像的运动方向;一方面,由机器人自动搜寻合适的投影区域位置,相比需要语音对机器人控制投影位置的方法更加灵活,并且该方法利于增强人机交互性,令机器人更加智能化;另一方面,根据人体关节点的距离与角度的变化值,确定投影区域中人体影像的运动方向,速度更快,结果更精确,能让用户更好地进行体感游戏的体验。
实施例一
图1示出了本发明实施例一提供的一种机器人投影的体感游戏方法的实现流程图,详述如下:
在步骤S101中,响应用户的投影选择操作,显示投影区域。
在本发明实施例中,投影方式包括外部投影显示或者机器人自身显示屏上显示;而投影方式的选择操作包括语音操作、手动输入、手势动作指示等,具体根据用户需求而定,在此不做限定。
在步骤S102中,接收用户的游戏开始指令,识别用户的人体影像,并将所述用户的人体影像显示于所述投影区域中。
在本发明实施例中,用户的游戏开始指令可以通过语音操作、手动输入以及手势动作指示;其中,手势动作指示可以是用户左手关节或右手关节向左或向右移动时,代表游戏开始指令,具体可根据实际情况自由设定,具体在此不做限定。
在本发明实施例中,识别用户的人体影像,并将所述用户的人体影像显示于所述投影区域中,具体包括:通过红外线扫描用户的全身,并将用户的人体图像扫描成虚拟人体载入游戏当中,其中,在内部投影时,机器人屏幕左下角显示的虚拟人体代表用户的虚拟人影;在外部投影时,投影区域上显示的虚拟人体代表用户的虚拟人影。
在步骤S103中,获取用户的姿态特征图像。
在本发明实施例中,用户的姿态特征图像可以通过拍摄设备获取;其中,拍摄设备可以是相机设备、扫描设备、摄像设备等,要求像素必须足够大,需要达到所获取的用户的姿态特征图像中人体头部、四肢轮廓等能清晰可见的程度。
在本发明实施例中,获取用户的姿态特征图像之前还需识别是否有人体存在,结合周围环境中的人的特点与环境中其他物体的特点的区别,将人体和其他物体图,如动物、家具、家电等区分开来,进一步,可以通过对体温信息或者其他信息的检测,判断被检测的目标是否为活的生物体,进而确定被检测的目标是否为活人,以确定是否有人体存在。
在步骤S104中,根据所述用户的姿态特征图像,获取人体关节点。
在本发明实施例中,如图2所示的人体关节点示意图,包含20个人体关节点,分别为头部1、肩膀中心2、右肩3、右肘4、右腕5、右手6、左肩7、左肘8、左腕9、左手10、脊椎中心11、臀部中心12、右臀部13、右膝盖14、右脚踝15、右脚16、左臀部17、右膝盖18、左脚踝19以及左脚20;根据所述用户的姿态特征图像,获取人体关节点,具体包括:对用户的姿态特征图像进行人体和背景分离,得到人体图像区域后,然后根据人体图像的大量特征点将人体简化为上述的20个关键关节点。
在步骤S105中,根据所述人体关节点,计算人体关节点的距离与角度的变化值。
在本发明实施例中,根据所述人体关节点,计算人体关节点的距离与角度的变化值,包括:人体关节点如上述的右膝盖关节点在运动后,与原先所处的空间位置不同,采用常规标准三维坐标作为统一计算规则,按该标准三维坐标,获得该右膝盖关节点变化前后分别在该标准三维坐标中所处的坐标位置Pi(xi,yi,zi),P2(xj,yj,zj),通过常规距离计算公式与角度计算公式即可得到该人体关节点的距离与角度变化值。
在步骤S106中,根据所述人体关节点的距离与角度的变化值,确定用户的运动方向,以完成投影区域中人体影像的运动方向。
本发明实施例提供的机器人投影的体感游戏方法,通过自动显示投影区域,并且根据人体关节点的距离与角度的变化值,确定用户的运动方向,以完成投影区域中人体影像的运动方向;一方面,由机器人自动搜寻合适的投影区域位置,相比需要语音对机器人控制投影位置的方法更加灵活,同时,在一定程度上可以避免了用户还没有做好游戏准备就开始游戏的情况,并且该方法利于增强人机交互性,令机器人更加智能化;另一方面,根据人体关节点的距离与角度的变化值,确定投影区域中人体影像的运动方向,速度更快,结果更精确,能让用户更好地进行体感游戏的体验。
实施例二
图3示出了本发明实施例二提供的一种机器人投影的体感游戏方法,其与实施例一相似,不同之处在于,所述步骤S101,包括以下步骤:
在步骤S301中,响应用户的投影请求,向用户输出投影方式选择页面。
在本发明实施例中,投影方式包括外部投影显示或者机器人自身显示屏上显示;而投影方式的选择操作包括语音操作、手动输入、手势动作指示等,具体根据用户需求而定,在此不做限定。
在步骤S302中,判断用户是否选择外部投影;若是,则进入步骤S303;若否,则进入步骤S304。
在步骤S303中,当接收到用户通过所述投影方式选择页面选择的外部投影时,接收用户录入的投影尺寸数据,并显示符合所述尺寸数据的投影区域;。
在本发明实施例中,投影方式选择页面可以是包含外部投影以及内部投影两个选择键或者文本输入框,以供用户手动输入选择,也可以是通过与用户对话的模式,向用户语音输出选项,具体在此不做限定;当接收到用户通过所述投影方式选择页面选择的外部投影时,接收用户录入的投影尺寸数据,并显示符合所述尺寸数据的投影区域,具体包括:当接收到用户通过语音、或者识别到用户手动输入的文字或者手势动作选择的外部投影时,向用户语音询问需要投影区域的尺寸大小,或者输出尺寸选择键供用户手动选择或手动输入,通过在周围区域自动匹配选择符合用户录入的尺寸数据的区域以供投影,如墙面、屏风、玻璃等平面上,当自动匹配的区域不符合用户要求时,当无法匹配到较佳投影区域时,向用户语音告知是否重新更换投影尺寸数据,直至找到最佳投影区域位置,所谓最佳投影区域为尺寸要求符合用户要求、且不影响投影效果与用户视觉效果的平面区域。
在步骤S304中,当接收到用户通过所述投影方式选择页面选择的内部投影时,则当前页面显示为投影区域。
在本发明实施例中,内部投影即为上述的机器人自身显示屏上显示的投影,类似于电脑屏幕或电视屏幕等,具体大小由显示屏大小决定;具体操作方式与上述外部投影的选择方式类似,都可通过语音操作、手动输入以及手势动作指示实现选择,在此不再一一赘述。
本发明实施例提供的机器人投影的体感游戏方法,根据用户对投影尺寸大小选择,自动搜寻合适的投影区域,相比需要语音对机器人控制投影位置的方法更加灵活,并且该方法利于增强人机交互性,令机器人更加智能化。
实施例三
图4示出了本发明实施例三提供的一种机器人投影的体感游戏方法,其与实施例一相似,不同之处在于,在步骤S102之前,包括以下步骤:
在步骤S401中,向用户输出游戏类型的选择页面。
在本发明实施例中,游戏类型的选择页面涉及若干种不同的游戏类型,向用户提供语音操作、手动输入以及手势动作指示等对游戏进行选择的方式。
在步骤S402中,响应用户的游戏类型选择操作,将所述用户选择的游戏界面显示于所述投影区域中。
在本发明实施例中,将所述用户选择的游戏界面显示于所述投影区域中,与普通电玩、电脑游戏、手机游戏等一样,通过接收用户的游戏选择,向用户显示对应的游戏界面。
本发明实施例提供的机器人投影的体感游戏方法,根据用户的语音操作、手动输入以及手势动作指示等对游戏进行选择,相比需要语音对机器人控制投影位置的方法更加灵活,并且该方法利于增强人机交互性,令机器人更加智能化。
实施例四
图5示出了本发明实施例四提供的机器人投影的体感游戏方法的实现流程,其与实施例一相似,不同之处在于,所述步骤S105,包括:
在步骤S501中,根据人体关节点,判断所述关节点的位置是否在预设时间段内发生变化;当人体关节点的位置在预设时间段内未发生改变时,则返回所述步骤S103;当人体关节点的位置在预设时间段内发生改变时,则进入步骤S502。
在本发明实施例中,根据人体关节点,判断所述关节点的位置是否在预设时间段内发生变化,具体包括:在预设时间段如0.5秒内,将相邻时间点获取到的两张姿态特征图像上的人体关节点进行比较,可以设置有存储人体关节点与姿态特征图像之间的对应关系,该对应关系包括某些人体关节点与其中一个姿态特征图像对应。同时,该对应关系由对不同人体关节点样本以及姿态特征图像样本进行训练而成,根据该对应关系以快速确定预设时间段内获取的两张姿态特征图像上的人体关节点是否一致。
在本发明实施例中,当人体关节点在预设时间段内未发生改变时,则返回所述获取用户的姿态特征图像的步骤,具体包括:根据上述对应关系,在预设时间段内所获取的两张用户的姿态特征图像上的人体关节点一致时,则重新对用户的姿态特征图像进行获取,继续重复上述步骤。
在步骤S502中,当人体关节点的位置在预设时间段内发生改变时,则确定预设时间段内的上一帧姿态特征图像的人体关节点与当前姿态特征图像的人体关节点在预设人体三维坐标系中的坐标位置。
在本发明实施例中,预设人体三维坐标系可以是普通的标准三维坐标系,只要能对人体关节点的位置变化做区分即可,在此不做任何限定,另外,该标准三维坐标系一旦设定后,所有的人体关节点变化的坐标位置均以此三维坐标系为基准。
在步骤S503中,根据上一帧姿态特征图像的人体关节点与当前姿态特征图像的人体关节点在预设人体三维坐标系中的坐标位置,计算人体关节点的距离与角度的变化值。
在本发明实施例中,根据上一帧姿态特征图像的人体关节点与当前姿态特征图像的人体关节点在预设人体三维坐标系中的坐标位置,计算人体关节点的距离与角度的变化值,包括:上一帧姿态特征图像的人体关节点与当前姿态特征图像的人体关节点所处的空间位置不同,根据上述事先已设定的常规标准三维坐标作为统一计算规则,按该标准三维坐标,获得该右膝盖关节点变化前后分别在该标准三维坐标中所处的坐标位置Pi(xi,yi,zi),P2(xj,yj,zj),通过常规距离计算公式与角度计算公式即可得到该人体关节点的距离与角度变化值。
本发明实施例提供的一种机器人投影的体感游戏方法,根据上一帧姿态特征图像的人体关节点与当前姿态特征图像的人体关节点在预设人体三维坐标系中的坐标位置,计算人体关节点的距离与角度的变化值,速度更快,结果更精确,能让用户更好地进行体感游戏的体验。
实施例五
图6示出了本发明实施例五提供的一种机器人投影的体感游戏方法,其与实施例一相似,不同之处在于,所述步骤S106,包括以下步骤:
在步骤S601中,接收预设时间段内的上一帧姿态特征图像的人体关节点与当前姿态特征图像的人体关节点的运动距离与角度的变化值。
在步骤S602中,判断所述人体关节点在预设坐标系中的X轴以及Y轴方向的运动距离是否大于0,若是,则进入步骤S603;若否,则进入步骤S604。
在步骤S603中,确定所述人体关节点往左运动,以及往上运动。
在步骤S604中,判断所述人体关节点是否在预设坐标系中的X轴的运动距离大于0,在Y轴方向的运动距离小于0,若是,则进入步骤S605;若否,则进入步骤S606。
在步骤S605中,确定所述人体关节点往左运动,以及往下运动。
在步骤S606中,判断所述人体关节点是否在预设坐标系中的X轴的运动距离小于0,在Y轴方向的运动距离大于0,若是,则进入步骤S607;若否,则进入步骤S608。
在步骤S607中,确定所述人体关节点往右运动,以及往上运动。
在步骤S608中,确定所述人体关节点往右运动,以及往下运动。
在步骤S609中,根据所述人体关节点的运动方向以及角度变化值,完成投影区域中人体影像的运动方向。
本发明实施例提供的一种机器人投影的体感游戏方法,根据上一帧姿态特征图像的人体关节点与当前姿态特征图像的人体关节点的运动距离与角度的变化值,完成投影区域中人体影像的运动方向,大大简化了计算量,速度更快,结果更精确,能让用户更好地进行体感游戏的体验。
实施例六
图7示出了本发明实施例六提供的一种机器人投影的体感游戏方法,其与实施例一相似,不同之处在于,所述方法还包括以下步骤:
在步骤S701中,当检测到用户离开投影区域时,判断预设时间段内用户是否回到投影区域,若是,则进入步骤S702;若否,则进入步骤S703。
在本发明实施例中,预设时间段可以由用户根据实际需求自由设置,如5分钟、10分钟、30分钟等,具体在此不做限制。
在步骤S702中,向用户输出是否结束当前游戏的选择页面。
在步骤S703中,自动结束游戏。
在步骤S704中,判断用户是否结束当前游戏;若是,则进入步骤S705;若否,则进入步骤S706。
在步骤S705中,向用户输出是否重新开始游戏的选择页面。
在步骤S706中,继续当前游戏。
在步骤S707中,判断用户是否重新开始游戏;若是,则进入步骤S708;若否,则进入步骤S703。
在步骤S708中,向用户输出是否更换新游戏的选择页面。
在步骤S709中,判断用户是否更换新游戏,若是,则返回到步骤S401;若否,则进入步骤S710。
在步骤S710中,重新显示当前游戏的开始页面。
本发明实施例提供的一种机器人投影的体感游戏方法,当在预设时间段内未检测到用户,游戏自动退出;当检测到用户在预设时间段内回来时,重新向用户提出是否结束游戏或者重新选择游戏类型等智能化操作,利于增强人机交互性,让用户更好地进行体感游戏的体验。
实施例七
图8示出了本发明实施例七提供的一种机器人投影的体感游戏装置800的结构,为了便于说明,仅示出了与本发明实施例相关的部分。
机器人投影的体感游戏装置800,包括:响应单元801、识别单元802、图像获取单元803、关节点获取单元804、计算单元805以及动作完成单元806。
响应单元801,用于响应用户的投影选择操作,显示投影区域。
在本发明实施例中,响应单元801用于响应用户的投影选择操作,显示投影区域;其中,投影方式的选择操作包括语音操作、手动输入、手势动作指示等,具体根据用户需求而定,在此不做限定。
识别单元802,用于接收用户的游戏开始指令,识别用户的人体影像,并将所述用户的人体影像显示于所述投影区域中。
在本发明实施例中,识别单元802用于接收用户的游戏开始指令,识别用户的人体影像,并将所述用户的人体影像显示于所述投影区域中;其中,用户的游戏开始指令可以通过语音操作、手动输入以及手势动作指示;其中,手势动作指示可以是用户左手关节或右手关节向左或向右移动时,代表游戏开始指令,具体可根据实际情况自由设定,具体在此不做限定。
图像获取单元803,用于获取用户的姿态特征图像。
在本发明实施例中,图像获取单元803用于获取用户的姿态特征图像;其中,用户的姿态特征图像可以通过拍摄设备获取;其中,拍摄设备可以是相机设备、扫描设备、摄像设备等,要求像素必须足够大,需要达到所获取的用户的姿态特征图像中人体头部、四肢轮廓等能清晰可见的程度。
关节点获取单元804,用于根据所述用户的姿态特征图像,获取人体关节点。
在本发明实施例中,关节点获取单元804用于根据所述用户的姿态特征图像,获取人体关节点;其中,人体关节点如图2所示,包括头部1、肩膀中心2、右肩3、右肘4、右腕5、右手6、左肩7、左肘8、左腕9、左手10、脊椎中心11、臀部中心12、右臀部13、右膝盖14、右脚踝15、右脚16、左臀部17、右膝盖18、左脚踝19以及左脚20;根据所述用户的姿态特征图像,获取人体关节点,具体包括:对用户的姿态特征图像进行人体和背景分离,得到人体图像区域后,然后根据人体图像的大量特征点将人体简化为上述的20个关键关节点。
计算单元805,用于根据所述人体关节点,计算人体关节点的距离与角度的变化值。
在本发明实施例中,计算单元805用于根据所述人体关节点,计算人体关节点的距离与角度的变化值;其中,根据所述人体关节点,计算人体关节点的距离与角度的变化值,包括:人体关节点如上述的右膝盖关节点在运动后,与原先所处的空间位置不同,采用常规标准三维坐标作为统一计算规则,按该标准三维坐标,获得该右膝盖关节点变化前后分别在该标准三维坐标中所处的坐标位置Pi(xi,yi,zi),P2(xj,yj,zj),通过常规距离计算公式与角度计算公式即可得到该人体关节点的距离与角度变化值。
动作完成单元806,用于根据所述人体关节点的距离与角度的变化值,确定用户的运动方向,以完成投影区域中人体影像的运动方向。
本发明实施例提供的机器人投影的体感游戏装置,通过自动显示投影区域,并且根据人体关节点的距离与角度的变化值,确定用户的运动方向,以完成投影区域中人体影像的运动方向;一方面,由机器人自动搜寻合适的投影区域位置,相比需要语音对机器人控制投影位置的装置更加灵活,同时,在一定程度上可以避免了用户还没有做好游戏准备就开始游戏的情况,并且该装置利于增强人机交互性,令机器人更加智能化;另一方面,根据人体关节点的距离与角度的变化值,确定投影区域中人体影像的运动方向,速度更快,结果更精确,能让用户更好地进行体感游戏的体验。
实施例八
图9示出了发明实施例八提供的一种机器人设备900的结构示意图,为了便于说明,仅示出了与本发明实施例相关的部分。
该机器人设备900外部形状与普通机器人类似,包括投影器901、识别器902、图像采集器903以及主控制器904;其中,投影器901,用于根据用户的投影选择操作,显示投影区域;识别器902,与所述投影器901通讯,用于实时对用户的人体影像进行识别,并将所述用户的人体影像显示于所述投影区域中;图像采集器903,用于实时对用户的姿态特征图像进行采集;主控制器904,与所述投影器901、识别器902、图像采集器903通讯,用于获取用户的姿态特征图像,根据所述用户的姿态特征图像,获取人体关节点;根据所述人体关节点,计算人体关节点的距离与角度的变化值;根据所述人体关节点的距离与角度的变化值,确定用户的运动方向,以完成投影区域中人体影像的运动方向。
本发明实施例提供的机器人设备,通过投影器与识别器实时对用户的人体影像进行识别,并将用户的人体影像显示于所述投影区域中;以及图像采集器实时对用户的姿态特征图像进行采集,并通过处理器获取人体关节点,根据所述人体关节点,计算人体关节点的距离与角度的变化值;根据所述人体关节点的距离与角度的变化值,确定用户的运动方向,以完成投影区域中人体影像的运动方向;该机器人设备能够自动搜寻合适的投影区域位置,相比需要语音对机器人控制投影位置的方法更加灵活,利于增强人机交互性,令机器人更加智能化,同时,根据人体关节点的距离与角度的变化值,确定投影区域中人体影像的运动方向,速度更快,结果更精确,能让用户更好地进行体感游戏的体验。
本发明的实施例还提供了一种计算机可读存储介质,其上存储有计算机程序/指令,该计算机程序/指令被上述处理器执行时实现上述各个方法实施例提供的机器人投影的体感游戏方法的步骤。
示例性的,计算机程序可以被分割成一个或多个模块,一个或者多个模块被存储在存储器中,并由处理器执行,以完成本发明。一个或多个模块可以是能够完成特定功能的一系列计算机程序指令段,该指令段用于描述计算机程序在计算机装置中的执行过程。例如,所述计算机程序可以被分割成上述各个方法实施例提供的机器人投影的体感游戏方法的步骤。
本领域技术人员可以理解,上述机器人设备的描述仅仅是示例,并不构成对机器人设备的限定,可以包括比上述描述更多或更少的部件,或者组合某些部件,或者不同的部件,例如可以包括输入输出设备、网络接入设备、总线等。
所称处理器可以是中央处理单元(Central Processing Unit,CPU),还可以是其他通用处理器、数字信号处理器(Digital Signal Processor,DSP)、专用集成电路(Application Specific Integrated Circuit,ASIC)、现成可编程门阵列(Field-Programmable Gate Array,FPGA)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件等。通用处理器可以是微处理器或者该处理器也可以是任何常规的处理器等,所述处理器是所述机器人设备的控制中心,利用各种接口和线路连接整个用户终端的各个部分。
所述存储器可用于存储所述计算机程序和/或模块,所述处理器通过运行或执行存储在所述存储器内的计算机程序和/或模块,以及调用存储在存储器内的数据,实现所述机器人设备的各种功能。所述存储器可主要包括存储程序区和存储数据区,其中,存储程序区可存储操作系统、至少一个功能所需的应用程序(比如声音播放功能、图像播放功能等)等;存储数据区可存储根据手机的使用所创建的数据(比如音频数据、电话本等)等。此外,存储器可以包括高速随机存取存储器,还可以包括非易失性存储器,例如硬盘、内存、插接式硬盘,智能存储卡(Smart Media Card,SMC),安全数字(Secure Digital,SD)卡,闪存卡(Flash Card)、至少一个磁盘存储器件、闪存器件、或其他易失性固态存储器件。
所述机器人设备集成的模块/单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本发明实现上述实施例方法中的全部或部分流程,也可以通过计算机程序来指令相关的硬件来完成,所述的计算机程序可存储于一计算机可读存储介质中,该计算机程序在被处理器执行时,可实现上述各个方法实施例的步骤。其中,所述计算机程序包括计算机程序代码,所述计算机程序代码可以为源代码形式、对象代码形式、可执行文件或某些中间形式等。所述计算机可读介质可以包括:能够携带所述计算机程序代码的任何实体或装置、记录介质、U盘、移动硬盘、磁碟、光盘、计算机存储器、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,Random Access Memory)、电载波信号、电信信号以及软件分发介质等。
以上所述仅为本发明的较佳实施例而已,并不用以限制本发明,凡在本发明的精神和原则之内所作的任何修改、等同替换和改进等,均应包含在本发明的保护范围之内。
Claims (10)
1.一种机器人投影的体感游戏方法,其特征在于,所述方法包括:
响应用户的投影选择操作,显示投影区域;
接收用户的游戏开始指令,识别用户的人体影像,并将所述用户的人体影像显示于所述投影区域中;
获取用户的姿态特征图像;
根据所述用户的姿态特征图像,获取人体关节点;
根据所述人体关节点,计算人体关节点的距离与角度的变化值;
根据所述人体关节点的距离与角度的变化值,确定用户的运动方向,以完成投影区域中人体影像的运动方向。
2.根据权利要求1所述的机器人投影的体感游戏方法,其特征在于,所述响应用户的投影选择操作,显示投影区域,具体包括:
响应用户的投影请求,向用户输出投影方式选择页面;
当接收到用户通过所述投影方式选择页面选择的外部投影时,接收用户录入的投影尺寸数据,并显示符合所述尺寸数据的投影区域;
当接收到用户通过所述投影方式选择页面选择的内部投影时,则当前页面显示为投影区域。
3.根据权利要求1所述的机器人投影的体感游戏方法,其特征在于,接收用户的游戏开始指令,识别用户的人体影像,并将所述用户的人体影像显示于所述投影区域中之前,还包括:
向用户输出游戏类型的选择页面;
响应用户的游戏类型选择操作,将所述用户选择的游戏界面显示于所述投影区域中。
4.根据权利要求1所述的机器人投影的体感游戏方法,其特征在于,所述根据所述人体关节点,计算人体关节点的距离与角度的变化值,具体包括:
根据人体关节点,判断所述关节点的位置是否在预设时间段内发生变化;
当人体关节点的位置在预设时间段内未发生改变时,则返回所述获取用户的姿态特征图像的步骤;
当人体关节点的位置在预设时间段内发生改变时,则确定预设时间段内的上一帧姿态特征图像的人体关节点与当前姿态特征图像的人体关节点在预设人体三维坐标系中的坐标位置;
根据上一帧姿态特征图像的人体关节点与当前姿态特征图像的人体关节点在预设人体三维坐标系中的坐标位置,计算人体关节点的距离与角度的变化值。
5.根据权利要求1所述的机器人投影的体感游戏方法,其特征在于,所述根据所述人体关节点的距离与角度的变化值,确定人体关节点的运动方向,以完成投影区域中人体影像的运动方向,具体包括:
接收预设时间段内的上一帧姿态特征图像的人体关节点与当前姿态特征图像的人体关节点的运动距离与角度的变化值;
判断所述人体关节点在预设坐标系中的X轴方向的运动距离是否大于0,若是,则确定所述人体关节点往左运动;若否,则确定所述人体关节点往右移动;
判断所述人体关节点在预设坐标系中的Y轴方向的运动距离是否大于0,若是,则确定所述人体关节点往上移动;若否,则确定所述人体关节点往下移动;
根据所述人体关节点的运动方向以及角度变化值,完成投影区域中人体影像的运动方向。
6.根据权利要求1所述的机器人投影的体感游戏方法,其特征在于,所述方法还包括:
当检测到用户离开投影区域时,判断预设时间段内用户是否回到投影区域,若是,则向用户输出是否结束当前游戏的选择页面;若否,则自动结束游戏;
当接收到用户结束当前游戏的指令时,则向用户输出是否重新开始游戏的选择页面;
当接收到用户重新开始游戏的指令时,向用户输出是否更换新游戏的选择页面;
当接收到用户不更换新游戏的指令时,则重新显示当前游戏的开始页面;
当接收到用户更换新游戏的指令时,则返回到向用户输出游戏类型的选择页面的步骤。
7.根据权利要求1所述的机器人投影的体感游戏方法,其特征在于,游戏类型与投影方式的选择操作包括语音操作、手动输入以及手势动作指示。
8.一种机器人投影的体感游戏装置,其特征在于,所述装置包括:
响应单元,用于响应用户的投影选择操作,显示投影区域;
识别单元,用于接收用户的游戏开始指令,识别用户的人体影像,并将所述用户的人体影像显示于所述投影区域中;
图像获取单元,用于获取用户的姿态特征图像;
关节点获取单元,用于根据所述用户的姿态特征图像,获取人体关节点;
计算单元,用于根据所述人体关节点,计算人体关节点的距离与角度的变化值;以及
动作完成单元,用于根据所述人体关节点的距离与角度的变化值,确定用户的运动方向,以完成投影区域中人体影像的运动方向。
9.一种机器人设备,其特征在于,所述机器人设备包括:
投影器,用于根据用户的投影选择操作,显示投影区域;
识别器,与所述投影器通讯,用于实时对用户的人体影像进行识别,并将所述用户的人体影像显示于所述投影区域中;
图像采集器,用于实时对用户的姿态特征图像进行采集;
主控制器,与所述投影器、识别器、图像采集器通讯,用于获取用户的姿态特征图像,根据所述用户的姿态特征图像,获取人体关节点;根据所述人体关节点,计算人体关节点的距离与角度的变化值;根据所述人体关节点的距离与角度的变化值,确定用户的运动方向,以完成投影区域中人体影像的运动方向。
10.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质上存储有计算机程序,所述计算机程序被处理器执行时,使得所述处理器执行权利要求1至7中任一项权利要求所述机器人投影的体感游戏方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811032484.2A CN109200576A (zh) | 2018-09-05 | 2018-09-05 | 机器人投影的体感游戏方法、装置、设备和存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811032484.2A CN109200576A (zh) | 2018-09-05 | 2018-09-05 | 机器人投影的体感游戏方法、装置、设备和存储介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN109200576A true CN109200576A (zh) | 2019-01-15 |
Family
ID=64987569
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201811032484.2A Pending CN109200576A (zh) | 2018-09-05 | 2018-09-05 | 机器人投影的体感游戏方法、装置、设备和存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN109200576A (zh) |
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109760067A (zh) * | 2019-01-22 | 2019-05-17 | 中国科学院大学 | 会打纸牌的智能机器人系统以及设备 |
CN111228792A (zh) * | 2020-01-14 | 2020-06-05 | 深圳十米网络科技有限公司 | 体感游戏动作识别方法、装置、计算机设备及存储介质 |
CN111539352A (zh) * | 2020-04-27 | 2020-08-14 | 支付宝(杭州)信息技术有限公司 | 一种判断人体关节运动方向的方法及系统 |
CN111710314A (zh) * | 2020-06-23 | 2020-09-25 | 深圳创维-Rgb电子有限公司 | 一种显示画面的调整方法、智能终端及可读存储介质 |
CN111899677A (zh) * | 2020-07-31 | 2020-11-06 | 杭州云端文化创意有限公司 | 一种基于区域型广告传媒的智能互动服务方法及其系统 |
CN112891937A (zh) * | 2021-03-05 | 2021-06-04 | 华人运通(上海)云计算科技有限公司 | 车端游戏方法、装置、系统、设备及存储介质 |
CN113318424A (zh) * | 2020-12-23 | 2021-08-31 | 广州富港万嘉智能科技有限公司 | 一种新型游戏装置与控制方法 |
CN113318425A (zh) * | 2020-12-23 | 2021-08-31 | 广州富港万嘉智能科技有限公司 | 一种新型游戏装置与控制方法 |
CN113318426A (zh) * | 2020-12-23 | 2021-08-31 | 广州富港万嘉智能科技有限公司 | 一种新型游戏系统 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20160125243A1 (en) * | 2014-10-30 | 2016-05-05 | Panasonic Intellectual Property Management Co., Ltd. | Human body part detection system and human body part detection method |
CN105677032A (zh) * | 2016-01-04 | 2016-06-15 | 广州华欣电子科技有限公司 | 基于深度传感设备的控制方法及装置 |
CN107656611A (zh) * | 2017-08-09 | 2018-02-02 | 广东欧珀移动通信有限公司 | 体感游戏实现方法及装置、终端设备 |
CN107688791A (zh) * | 2017-09-04 | 2018-02-13 | 北京京东金融科技控股有限公司 | 显示内容控制方法及装置、系统、存储介质和电子设备 |
CN108453742A (zh) * | 2018-04-24 | 2018-08-28 | 南京理工大学 | 基于Kinect的机器人人机交互系统及方法 |
-
2018
- 2018-09-05 CN CN201811032484.2A patent/CN109200576A/zh active Pending
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20160125243A1 (en) * | 2014-10-30 | 2016-05-05 | Panasonic Intellectual Property Management Co., Ltd. | Human body part detection system and human body part detection method |
CN105677032A (zh) * | 2016-01-04 | 2016-06-15 | 广州华欣电子科技有限公司 | 基于深度传感设备的控制方法及装置 |
CN107656611A (zh) * | 2017-08-09 | 2018-02-02 | 广东欧珀移动通信有限公司 | 体感游戏实现方法及装置、终端设备 |
CN107688791A (zh) * | 2017-09-04 | 2018-02-13 | 北京京东金融科技控股有限公司 | 显示内容控制方法及装置、系统、存储介质和电子设备 |
CN108453742A (zh) * | 2018-04-24 | 2018-08-28 | 南京理工大学 | 基于Kinect的机器人人机交互系统及方法 |
Cited By (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109760067A (zh) * | 2019-01-22 | 2019-05-17 | 中国科学院大学 | 会打纸牌的智能机器人系统以及设备 |
CN111228792A (zh) * | 2020-01-14 | 2020-06-05 | 深圳十米网络科技有限公司 | 体感游戏动作识别方法、装置、计算机设备及存储介质 |
CN111539352A (zh) * | 2020-04-27 | 2020-08-14 | 支付宝(杭州)信息技术有限公司 | 一种判断人体关节运动方向的方法及系统 |
WO2021258598A1 (zh) * | 2020-06-23 | 2021-12-30 | 深圳创维-Rgb电子有限公司 | 一种显示画面的调整方法、智能终端及可读存储介质 |
CN111710314A (zh) * | 2020-06-23 | 2020-09-25 | 深圳创维-Rgb电子有限公司 | 一种显示画面的调整方法、智能终端及可读存储介质 |
CN111710314B (zh) * | 2020-06-23 | 2022-08-26 | 深圳创维-Rgb电子有限公司 | 一种显示画面的调整方法、智能终端及可读存储介质 |
CN111899677A (zh) * | 2020-07-31 | 2020-11-06 | 杭州云端文化创意有限公司 | 一种基于区域型广告传媒的智能互动服务方法及其系统 |
CN113318424A (zh) * | 2020-12-23 | 2021-08-31 | 广州富港万嘉智能科技有限公司 | 一种新型游戏装置与控制方法 |
CN113318425A (zh) * | 2020-12-23 | 2021-08-31 | 广州富港万嘉智能科技有限公司 | 一种新型游戏装置与控制方法 |
CN113318426A (zh) * | 2020-12-23 | 2021-08-31 | 广州富港万嘉智能科技有限公司 | 一种新型游戏系统 |
CN113318426B (zh) * | 2020-12-23 | 2023-05-26 | 广州富港生活智能科技有限公司 | 一种新型游戏系统 |
CN113318424B (zh) * | 2020-12-23 | 2023-07-21 | 广州富港生活智能科技有限公司 | 一种新型游戏装置与控制方法 |
CN112891937A (zh) * | 2021-03-05 | 2021-06-04 | 华人运通(上海)云计算科技有限公司 | 车端游戏方法、装置、系统、设备及存储介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109200576A (zh) | 机器人投影的体感游戏方法、装置、设备和存储介质 | |
CN107748869B (zh) | 3d人脸身份认证方法与装置 | |
CN107633165B (zh) | 3d人脸身份认证方法与装置 | |
CN105378742B (zh) | 所管理的生物计量身份 | |
CN105550637B (zh) | 轮廓点定位方法及装置 | |
CN102222431B (zh) | 用于翻译手语的计算机实现的方法 | |
KR101738569B1 (ko) | 제스쳐 인식 방법 및 시스템 | |
CN105096377B (zh) | 一种图像处理方法和装置 | |
CN102135882B (zh) | 用于在多用户应用程序中将语音与用户相关联的系统和方法 | |
US9071808B2 (en) | Storage medium having stored information processing program therein, information processing apparatus, information processing method, and information processing system | |
CN108200334B (zh) | 图像拍摄方法、装置、存储介质及电子设备 | |
CN109951628A (zh) | 模型构建方法、拍照方法、装置、存储介质及终端 | |
CN102622774B (zh) | 起居室电影创建 | |
CN105528082A (zh) | 三维空间及手势识别追踪交互方法、装置和系统 | |
CN108681402A (zh) | 识别交互方法、装置、存储介质及终端设备 | |
WO2020042970A1 (zh) | 一种三维建模的方法及其装置 | |
CN108830892B (zh) | 人脸图像处理方法、装置、电子设备及计算机可读存储介质 | |
JP2018180655A (ja) | 画像処理装置、画像生成方法及びプログラム | |
CN110390705A (zh) | 一种生成虚拟形象的方法及装置 | |
CN106201173A (zh) | 一种基于投影的用户交互图标的交互控制方法及系统 | |
CN108646920A (zh) | 识别交互方法、装置、存储介质及终端设备 | |
CN109274883A (zh) | 姿态矫正方法、装置、终端及存储介质 | |
CN109407824B (zh) | 人体模型的同步运动方法与装置 | |
CN110636315B (zh) | 一种多人虚拟直播方法、装置、电子设备及存储介质 | |
CN110858409A (zh) | 动画生成方法和装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20190115 |
|
RJ01 | Rejection of invention patent application after publication |