CN101110102A - 基于玩家拳头的游戏场景和角色控制方法 - Google Patents

基于玩家拳头的游戏场景和角色控制方法 Download PDF

Info

Publication number
CN101110102A
CN101110102A CNA2006101032575A CN200610103257A CN101110102A CN 101110102 A CN101110102 A CN 101110102A CN A2006101032575 A CNA2006101032575 A CN A2006101032575A CN 200610103257 A CN200610103257 A CN 200610103257A CN 101110102 A CN101110102 A CN 101110102A
Authority
CN
China
Prior art keywords
fist
player
game
image
game scene
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CNA2006101032575A
Other languages
English (en)
Inventor
王阳生
鲁鹏
曾祥永
陈宇峰
王书昌
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Institute of Automation of Chinese Academy of Science
Original Assignee
Institute of Automation of Chinese Academy of Science
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Institute of Automation of Chinese Academy of Science filed Critical Institute of Automation of Chinese Academy of Science
Priority to CNA2006101032575A priority Critical patent/CN101110102A/zh
Publication of CN101110102A publication Critical patent/CN101110102A/zh
Pending legal-status Critical Current

Links

Images

Landscapes

  • Image Processing (AREA)

Abstract

本发明公开一种基于玩家拳头的游戏场景和角色控制方法,包括:对从图像输入设备获得的图像进行简单有效的预处理;通过统计学习方法进行拳头的检测、跟踪,通过对跟踪的结果进行分析,得到拳头的空间参数信息,并将这些信息映射成对应的游戏控制指令,实现游戏场景和角色的实时控制功能。用玩家的拳头的姿态来取代传统的键盘鼠标,仅通过摄像头拍摄玩家姿态及其运动状态,计算机分析和识别,并将结果转化为游戏的控制指令,代替或辅助传统的游戏交互方式。本发明视频检测方法实时、鲁棒、易于实现和操作。本发明能使游戏用户期望能以更自然、更智能的新方式进行交互操作,如采用自身姿体动作等,由此可使游戏更具交互性和沉浸感。

Description

基于玩家拳头的游戏场景和角色控制方法
技术领域
本发明涉及图像分析与识别技术领域,特别是基于玩家拳头的游戏场景和角色控制方法。
背景技术
近年来,随着计算机技术的革新,以计算机游戏为代表的数字娱乐产业飞速发展。作为一类特殊的应用软件,计算机游戏通过向游戏用户提供一系列的菜单选项和操作指令,实现用户与游戏之间的交互操作。用于游戏的传统人机交互方式有:鼠标键盘、游戏杆及专用游戏设备等,以手动和有线连接为主。伴随计算机游戏种类与内容的不断扩展丰富,其操作复杂性剧增,仍然仅采用传统交互方式,越来越难于控制。
鼠标和键盘是最常用的设备,它们将用户手的敲击、移动转化成电信号并最终成为一种供系统响应的事件。专用游戏设备是鼠标和键盘在功能上的扩展,但其原理大致相同。前者相比于后者的优越性体现在操作性上,如可玩性和方便性。
传统的交互方式基本上是以事件来驱动的,这是一种低层次的交互,因为它并不能理解游戏的内容,所以用户要实现一种有语义的控制往往需要一系列的低层次操作。
发明内容
为了解决传统交互方式,越来越难于控制的问题,本发明的目的是要用玩家的拳头的姿态来取代传统的键盘鼠标,为此,本发明提供一种基于玩家拳头的游戏场景和角色控制方法。
为了实现上述目的,本发明提出的技术方案是一种基于玩家拳头的游戏场景和角色控制方法,设定玩家拳头游戏场景和玩家拳头角色控制命令与目标参数之间的对应关系;对特定游戏场景和角色控制命令与目标参数之间的对应关系进行明确定义,以便实现后续的命令映射。其方法步骤如下:
通过统计的方法待检测拳头目标样本进行学习,得到待检测玩家拳头目标的模式;
通过图像输入设备进行指明该图像是否为特定游戏场景的图像采集;实时捕获图像并进行光线校正,去噪等预处理;
对前述采集的图像进行预处理;
在前述处理后的图像上,利用学习到的目标模式进行拳头检测与跟踪,同时提取拳头的空间参数信息,将提取到的参数映射成游戏控制命令。
根据本发明的实施例,所述的统计学习方法的步骤包括:
(1)获取拳头样本;
(2)统计学习拳头样本模式。
根据本发明的实施例,所述的图像预处理步骤包括:采用像素的均值和方差来进行光线矫正。
根据本发明的实施例,所述检测与跟踪的步骤包括:
(1)通过学习到的拳头模式,在经过预处理的图像上搜索拳头目标;
(2)通过对检测到的目标进行特征分析,提取具有旋转缩放不变性的特征,并通过上一时刻的结果进行跟踪校验及预测。
根据本发明的实施例,所述的参数提取步骤包括:通过对跟踪的结果进行分析,得到拳头的所在位置、大小、运动方向和速度,以及双拳之间的相对位置关系。
根据本发明的实施例,所述游戏控制命令映射步骤包括:将提取的参数映射到预先定义好的命令集,得到游戏的控制信息。
本发明的有益效果:采用玩家拳头的游戏场景控制,就是用玩家的拳头的姿态来取代传统的键盘鼠标,仅通过摄像头拍摄玩家姿态及其运动状态,在计算机中进行分析和识别,并将结果转化为游戏的控制指令,实现对游戏中场景和人物的直接控制,以代替或辅助传统的游戏交互方式。由于游戏对实时性要求高,因此视频检测方法必需实时、鲁棒。为便于用户使用,这种控制方法还必需易于实现和操作。本发明能使游戏用户期望能以更自然、更智能的新方式进行交互操作,如采用自身姿体动作等,由此可使游戏更具交互性和沉浸感。随着计算机视觉技术的发展,应用视觉进行自然的人机交互已经成为可能,由于摄像头已经成为计算机常用的配置,这种技术的应用也就具有广阔的前景。
附图说明
图1为本发明的基于玩家拳头的游戏场景和角色控制方法流程图。
图2为采用本发明方法的游戏控制示意图。
图3为本发明实施例Haar特征结构。
图4为本发明实施例拳头上一个显著的Haar特征。
具体实施方式
下面将结合附图对本发明加以详细说明,应指出的是,所描述的实施例仅旨在便于对本发明的理解,而对其不起任何限定作用。
根据本发明的图1所示,为本发明的基于玩家拳头的游戏场景和角色控制方法流程图,图2基于玩家拳头的游戏场景和角色控制方法的游戏控制示意图,图1中所示具体实施步骤如下:
(1)获取帧图像:通过高速图像捕获模块从图象输入设备获取实时图像;
(2)基于统计的目标检测:考虑到算法的简便性与鲁棒性的要求,设计了基于统计学习的检测方法,另外通过对亮度的分析补偿,从而尽可能的消除光照变化的影响;
(3)目标跟踪:通过对检测到的目标进行特征分析,提取出具有旋转缩放不变性的特征,并通过上一时刻的结果进行跟踪校验及预测;
(4)参数提取与转换:通过对拳头的跟踪,提取拳头的空间参数信息,并利用预先定义好的命令集进行映射转换,得到游戏的控制信息;
本发明实现方法:需要的硬件为计算机及图像采集设备。
所述的角色即游戏中主要对象,如玩家控制的人物,车辆等;游戏场景即随着游戏角色的行为而做出相应变化的对象,如背景,非玩家控制人物等;拳头角色即玩家用拳头来控制其行为的角色;拳头角色的控制命令即控制角色行为的指令,这个行为的性质、方向、程度等特征由目标参数来描述。
首先要设置一个控制命令集合,并且每个命令对应于一个或几个目标参数。因为控制命令的不同,这个目标参数可能是离散的状态量,也可是连续的数值。
设置好上述映射关系后,由图像采集设备采集包括玩家拳头的图像到计算机,然后进行图像预处理,再用检测与跟踪拳头,描述提取目标参数,最好将这些目标参数映射到控制命令上用于控制拳头角色及游戏场景。
所述的统计学习方法的步骤包括:(1)获取拳头样本;(2)统计学习拳头模式。其描述方法的是用统计学习方法学习拳头模式。
拳头样本库的制作。拳头样本库包含正样本库和负样本库。用图像采集设备采集多个人分别在不同的光线,不同的背景下的多个姿态的拳头图片若干,然后手工剪裁出只包含一个拳头(不区分左右手拳头)的区域,放缩到同一个尺寸下,再用进行预处理。这样就获得了可直接用于统计学习的拳头正样本库。负样本库的单个样本不包含拳头或包括拳头但不只一个。正样本库是事先制作好的,是固定的,而负样本是的统计学习过程中生成的,是变化的。
用于学习拳头模式的统计学习方法是Adaboost算法。
Adaboost意为Adaptive Boost,是AT&T实验室提出的一种自提升Boosting算法。它通过调用弱学习器不断学习训练样本中的难学习的样本,从而达到较高的泛化精度。
基于Adaboost的拳头检测算法是一种统计学习算法,它通过对Haar特征的统计来判别是不是拳头。如图3为本发明实施例Haar特征结构所示:Haar特征是Haar小波变化而来。它们通过相邻区域的灰度差,也就是亮度关系,描述目标。拳头可以通过若干这样的Haar特征来描述。其物理意义是十分明确的,如图4为本发明实施例拳头上一个显著的Haar特征所示:中间区域的应该比两侧区域暗,只要能找到足够多这样的特征,就能将拳头和非拳头分开。
AdaBoost算法的主要过程是:首先给样本集合,然后对该样本集合进行循环操作,每次循环首先得到一个弱分类(即weak learning),然后计算该假设的错误率,根据该错误率改变每个例子的权重进入下一个循环,若干个弱分类组成强分器。其具体过程如下:
Adaboost算法流程:
给定样本(x1,y1),...,(xn,yn),对m个负样本,yi=0;对l个正样本yi=1,n=m+l。
分别对负样本正样本初始化权 w 1 , i = 1 2 m , 1 2 n .
t=1,…,T
1.归一化权。
w t , i ← w t , i Σ j = 1 n w t , j
2.对于每一特征j,训练出一个弱分类器hj,计算出与之对应的错误率。
ζt=∑wi|hj(x)-yj|
3.选择错误率ζt最小的hj
4.更新权,
w t + 1 , i = w t , i β t 1 - e i
其中, β t = ζ t 1 - ζ t , 若分类正确,ei=1,否则ei=0。
最终T个弱分类器组成一个强分类器。
Figure A20061010325700075
其中, α t = log 1 β t .
所述的图像预处理步骤包括:采用像素的均值和方差来进行光线矫正。具体描述拳头图像的预处理方法:
对一幅拳头图像,求取整幅图像灰度值的均值和方差。然后对于图像中每一个像素,将其灰度值减去均值然后除以方差得到的值作为新的灰度值,这样处理后的图像就是进行光线矫正好的图像。
所述检测与跟踪的步骤包括:
(1)通过学习到的拳头模式,在经过预处理的图像上搜索拳头目标;
(2)通过对检测到的目标进行特征分析,提取具有旋转缩放不变性的特征,并通过上一时刻的结果进行跟踪校验及预测。具体方法是:
步骤(1)由拳头模式检测拳头,过程如下:
在拳头可能出现的区域(由上一次检测的结果预测到)内,在不同尺度下取候选拳头图片的一系列有用Haar特征(由Adaboost算法得取)送入学习到的分类器,分类器输出其是否为拳头的判断结果。
步骤(2)用步骤(1)得到的结果,预测拳头运动范围并修正先前对其运动趋势的估计。拳头运动的方向和速度可由两次拳头的相对位置和相隔时间得到。假定拳头运动的趋势和速度不变的情况,就可以大致估计下次拳头出现的位置。
所述的参数提取步骤包括:通过对跟踪的结果进行分析,得到拳头的所在位置、大小、运动方向和速度,以及双拳的相对位置关系。是描述提取目标参数,这些目标参数可能来源与拳头的位置,大小是拳头检测的结果,运动方向和速度是拳头跟踪的结果,其它参数均可以从这四个参数中得到。
所述游戏控制命令映射步骤包括:将提取的参数映射到预先定义好的命令集,得到游戏的控制信息。具体实现方法是:提取到的目标参数在经过适当的处理后就可以映射到命令集上。这里提到的适当处理是指从游戏稳定性的角度考虑,应该对目标参数值进行平滑处理,主要是为了抗噪声。可用的方法有平均法,卡尔曼滤波法等。
上面的描述是用于实现本发明及其实施例,因此,本发明的范围不应由该描述来限定。本领域的技术人员应该理解,在不脱离本发明的范围的任何修改或局部替换,均属于本发明权利要求来限定的范围。

Claims (6)

1.基于玩家拳头的游戏场景和角色控制方法,包括如下步骤:
将游戏场景中玩家拳头角色的控制命令与目标参数之间的对应关系进行映射;
通过统计的方法对拳头目标样本进行学习,得到待检测玩家拳头目标的模式;
通过图像输入设备采集待检测图像;
对前述采集的图像进行预处理;
在前述处理后的图像上,利用学习到的目标模式进行拳头检测与跟踪,从而获得拳头的空间参数信息,将提取到的参数映射到游戏控制命令上。
2.根据权利要求1所述的基于玩家拳头的游戏场景和角色控制方法,其特征在于:所述的统计学习方法的步骤包括:
(1)获取拳头样本;(2)统计学习拳头样本模式。
3.根据权利要求1所述的基于玩家拳头的游戏场景和角色控制方法,其特征在于:所述的图像预处理步骤包括:采用像素的均值和方差来进行光线矫正。
4.根据权利要求1所述的基于玩家拳头的游戏场景和角色控制方法,其特征在于:所述检测与跟踪的步骤包括:
(1)通过学习到的拳头模式,在经过预处理的图像上搜索拳头目标;
(2)通过对检测到的目标进行特征分析,提取具有旋转缩放不变性的特征,并通过上一时刻的结果进行跟踪校验及预测。
5.根据权利要求1所述的基于玩家拳头的游戏场景和角色控制方法,其特征在于:所述的参数提取步骤包括:通过对跟踪的结果进行分析,得到拳头的所在位置、大小、运动方向和速度,以及双拳之间的相对位置关系。
6.根据权利要求1所述的基于玩家拳头的游戏场景和角色控制方法,其特征在于:所述游戏控制命令映射步骤包括:将提取的参数映射到预先定义好的命令集,得到游戏的控制信息。
CNA2006101032575A 2006-07-20 2006-07-20 基于玩家拳头的游戏场景和角色控制方法 Pending CN101110102A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CNA2006101032575A CN101110102A (zh) 2006-07-20 2006-07-20 基于玩家拳头的游戏场景和角色控制方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CNA2006101032575A CN101110102A (zh) 2006-07-20 2006-07-20 基于玩家拳头的游戏场景和角色控制方法

Publications (1)

Publication Number Publication Date
CN101110102A true CN101110102A (zh) 2008-01-23

Family

ID=39042168

Family Applications (1)

Application Number Title Priority Date Filing Date
CNA2006101032575A Pending CN101110102A (zh) 2006-07-20 2006-07-20 基于玩家拳头的游戏场景和角色控制方法

Country Status (1)

Country Link
CN (1) CN101110102A (zh)

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101783865A (zh) * 2010-02-26 2010-07-21 中山大学 基于数字机顶盒智能化鼠标控制方法及数字机顶盒
WO2010124584A1 (zh) * 2009-04-30 2010-11-04 武汉市高德电气有限公司 实景游戏装置及实现实景游戏的方法
CN102188819A (zh) * 2010-03-11 2011-09-21 鼎亿数码科技(上海)有限公司 电子游戏控制装置及方法
CN102622500A (zh) * 2011-01-30 2012-08-01 德信互动科技(北京)有限公司 游戏实现系统
CN102631781A (zh) * 2011-02-11 2012-08-15 黄得锋 一种游戏方法
CN102819751A (zh) * 2012-08-21 2012-12-12 长沙纳特微视网络科技有限公司 一种基于动作识别的人机互动方法及装置
CN103529774A (zh) * 2013-09-24 2014-01-22 东莞宇龙通信科技有限公司 终端连接家用电器的方法及装置
CN108460802A (zh) * 2018-04-28 2018-08-28 哈尔滨若朋机器人有限责任公司 智能体感靶系统与运行方法
CN109954274A (zh) * 2017-12-23 2019-07-02 金德奎 一种基于人脸检测跟踪的交互方法及游戏方法
CN110222576A (zh) * 2019-05-07 2019-09-10 北京字节跳动网络技术有限公司 拳击动作识别方法、装置和电子设备
CN111126216A (zh) * 2019-12-13 2020-05-08 支付宝(杭州)信息技术有限公司 风险检测方法、装置及设备

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2010124584A1 (zh) * 2009-04-30 2010-11-04 武汉市高德电气有限公司 实景游戏装置及实现实景游戏的方法
CN101783865A (zh) * 2010-02-26 2010-07-21 中山大学 基于数字机顶盒智能化鼠标控制方法及数字机顶盒
CN102188819B (zh) * 2010-03-11 2014-04-02 鼎亿数码科技(上海)有限公司 电子游戏控制装置及方法
CN102188819A (zh) * 2010-03-11 2011-09-21 鼎亿数码科技(上海)有限公司 电子游戏控制装置及方法
CN102622500A (zh) * 2011-01-30 2012-08-01 德信互动科技(北京)有限公司 游戏实现系统
CN102631781A (zh) * 2011-02-11 2012-08-15 黄得锋 一种游戏方法
CN102819751A (zh) * 2012-08-21 2012-12-12 长沙纳特微视网络科技有限公司 一种基于动作识别的人机互动方法及装置
CN103529774A (zh) * 2013-09-24 2014-01-22 东莞宇龙通信科技有限公司 终端连接家用电器的方法及装置
CN103529774B (zh) * 2013-09-24 2016-04-06 东莞宇龙通信科技有限公司 终端连接家用电器的方法及装置
CN109954274A (zh) * 2017-12-23 2019-07-02 金德奎 一种基于人脸检测跟踪的交互方法及游戏方法
CN108460802A (zh) * 2018-04-28 2018-08-28 哈尔滨若朋机器人有限责任公司 智能体感靶系统与运行方法
CN110222576A (zh) * 2019-05-07 2019-09-10 北京字节跳动网络技术有限公司 拳击动作识别方法、装置和电子设备
CN110222576B (zh) * 2019-05-07 2021-09-17 北京字节跳动网络技术有限公司 拳击动作识别方法、装置和电子设备
CN111126216A (zh) * 2019-12-13 2020-05-08 支付宝(杭州)信息技术有限公司 风险检测方法、装置及设备

Similar Documents

Publication Publication Date Title
CN101110102A (zh) 基于玩家拳头的游戏场景和角色控制方法
CN101393599B (zh) 一种基于人脸表情的游戏角色控制方法
CN108334814B (zh) 一种ar系统手势识别方法
Xu A real-time hand gesture recognition and human-computer interaction system
CN108629306B (zh) 人体姿态识别方法及装置、电子设备、存储介质
Molchanov et al. Online detection and classification of dynamic hand gestures with recurrent 3d convolutional neural network
WO2020108362A1 (zh) 人体姿态检测方法、装置、设备及存储介质
JP5297530B2 (ja) 画像処理装置、及びインターフェース装置
KR101017936B1 (ko) 사용자의 제스춰 정보 인식을 기반으로 하여 디스플레이장치의 동작을 제어하는 시스템
US10318800B2 (en) Gesture detection and recognition method and system
Lim et al. Block-based histogram of optical flow for isolated sign language recognition
US20020135581A1 (en) Method and system for controlling an avatar using computer vision
CN103345644B (zh) 在线训练的目标检测方法及装置
CN106648078B (zh) 应用于智能机器人的多模态交互方法及系统
CN110032932B (zh) 一种基于视频处理和决策树设定阈值的人体姿态识别方法
CN103092332A (zh) 电视数字图像交互方法及系统
CN109325408A (zh) 一种手势判断方法及存储介质
CN111860451A (zh) 一种基于人脸表情识别的游戏交互方法
US20120169860A1 (en) Method for detection of a body part gesture to initiate a web application
CN114792443A (zh) 一种基于图像识别的智能设备手势识别控制方法
CN113220114A (zh) 一种融合人脸识别的可嵌入非接触式电梯按键交互方法
Thabet et al. Fast marching method and modified features fusion in enhanced dynamic hand gesture segmentation and detection method under complicated background
KR20120089948A (ko) Mhi의 형태 정보를 이용한 실시간 동작 인식시스템 및 실시간 동작 인식 방법
Singh Recognizing hand gestures for human computer interaction
CN112232217B (zh) 手势识别系统

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C02 Deemed withdrawal of patent application after publication (patent law 2001)
WD01 Invention patent application deemed withdrawn after publication

Open date: 20080123